WO2013021479A1 - ロボットシステム - Google Patents

ロボットシステム Download PDF

Info

Publication number
WO2013021479A1
WO2013021479A1 PCT/JP2011/068245 JP2011068245W WO2013021479A1 WO 2013021479 A1 WO2013021479 A1 WO 2013021479A1 JP 2011068245 W JP2011068245 W JP 2011068245W WO 2013021479 A1 WO2013021479 A1 WO 2013021479A1
Authority
WO
WIPO (PCT)
Prior art keywords
robot
unit
sensor
work
working
Prior art date
Application number
PCT/JP2011/068245
Other languages
English (en)
French (fr)
Inventor
敏広 塘
利昭 下野
Original Assignee
株式会社安川電機
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社安川電機 filed Critical 株式会社安川電機
Priority to JP2013527795A priority Critical patent/JP5892168B2/ja
Priority to PCT/JP2011/068245 priority patent/WO2013021479A1/ja
Priority to CN201180072767.XA priority patent/CN103747926A/zh
Publication of WO2013021479A1 publication Critical patent/WO2013021479A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0009Constructional details, e.g. manipulator supports, bases
    • B25J9/0018Bases fixed on ceiling, i.e. upside down manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0084Programme-controlled manipulators comprising a plurality of manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1682Dual arm manipulator; Coordination of several manipulators

Definitions

  • the present invention relates to a robot system.
  • a robot system which changes a posture of a welding torch by sensing a welding line before welding (for example, see Patent Document 1).
  • a sensor for sensing a weld line is provided integrally with the welding torch, and the posture of the welding torch is controlled based on the information sensed by the sensor.
  • the robot system described in Patent Document 1 may not be able to perform sensing and operation continuously.
  • sensing and welding can not be performed continuously where welding lines are bent in the orthogonal direction.
  • the present invention has been made in view of the above-described problems, and an object thereof is to provide a robot system in which the efficiency of work is improved.
  • a robot system comprises a sensor unit, a sensor robot attached with the sensor unit, a working unit, and a working robot attached with the working unit.
  • the work robot changes at least one of a position and an orientation of the work unit based on information sensed by the sensor unit.
  • the position of the working unit is movable independently of the position of the sensor unit.
  • the robot system further includes a control unit that controls the sensor robot and the work robot.
  • control unit temporarily stores information sensed by the sensor unit.
  • control unit performs control of the work robot by performing coordinate conversion of information sensed by the sensor unit.
  • the working unit performs welding or sealing.
  • the sensor robot and the working robot move the sensor unit and the working unit in a predetermined direction at a constant speed.
  • FIG. 1 is a schematic view showing an embodiment of a robot system according to the present invention.
  • (A) And (b) is a typical top view for demonstrating the position change of the sensor part in the robot system of this embodiment, and a working part. It is a typical side view of a robot system of this embodiment. It is a typical top view of the robot system of this embodiment. It is a schematic diagram of the robot system of this embodiment. It is a schematic diagram of the robot system of this embodiment.
  • (A) And (b) is a typical side view for demonstrating the position change of the sensor part in the robot system of this embodiment, and a working part.
  • (A) to (d) are schematic side views for explaining the positional change of the sensor unit and the working unit in the robot system of the present embodiment.
  • FIG. 1 shows a schematic view of a robot system 10 of the present embodiment.
  • the robot system 10 includes a sensor unit 20, a sensor robot Rs to which the sensor unit 20 is attached, a working unit 30, and a working robot Rw to which the working unit 30 is attached.
  • the robot system 10 performs work on the workpiece W.
  • the sensor unit 20 senses the workpiece W.
  • the sensor unit 20 senses the surface state of the workpiece W.
  • a 2D laser sensor is used as the sensor unit 20.
  • the sensor unit 20 may have an imaging unit, and the imaging information of the surface of the workpiece W may be image-processed. Further, the sensor unit 20 may perform a follow-up search so as to follow a straight line formed at the boundary between two adjacent planes.
  • the working unit 30 works on the area of the workpiece W sensed by the sensor unit 20.
  • the working unit 30 performs welding.
  • the working unit 30 that performs welding is also called a torch or a welding torch.
  • the working unit 30 may apply a sealing agent to the work W.
  • the working unit 30 may perform assembly (for example, screwing into a screw hole) or fitting.
  • the work robot Rw can change at least one of the position and the orientation of the work unit 30, thereby changing the posture of the work unit 30 with respect to the work W so as to enhance the accuracy of the work. For example, after the sensor unit 20 senses a specific area of the workpiece W, the working robot Rw changes the position and / or the orientation of the working unit 30 based on the information sensed by the sensor unit 20, and the working unit 30 Work on the area of W. As described above, when the working robot Rw changes at least one of the position and the orientation of the working unit 30, the positional deviation of the work can be suppressed. In addition, the sensor robot 20 may change the posture of the workpiece W arbitrarily so that the sensor robot Rs changes at least one of the position and the orientation of the sensor unit 20, thereby enhancing the accuracy of sensing by the sensor unit 20. it can.
  • the sensor robot Rs and the working robot Rw can operate independently so as not to collide with each other, and the position of the working unit 30 can be changed independently of the position of the sensor unit 20.
  • the sensor robot Rs may move the sensor unit 20 and the working robot Rw may move the working unit 30 so that the distance between the sensor unit 20 and the working unit 30 changes.
  • the sensor robot Rs moves the sensor unit 20 and the working robot Rw operates the working unit 30 so that the distance between the sensor unit 20 and the working unit 30 does not change (that is, the distance becomes substantially constant). You may move
  • the sensor unit 20 and the working unit 30 are attached to different robots Rs and Rw, sensing and work can be performed at positions independent of each other, and work efficiency can be improved.
  • the sensor unit 20 and the working unit 30 can be moved independently, the working unit 30 can be efficiently performed in a short time without interrupting the work.
  • the sensing and the work may be performed in a state where the work W is fixed.
  • the sensor robot Rs and the working robot Rw may operate on the fixed work W.
  • sensing and work may be performed with the work W moved.
  • the robot system 10 may also perform work on the workpiece W on which the work line is formed.
  • the sensor unit 20 detects a working line, and the working unit 30 performs work along the working line based on the information from the sensor unit 20.
  • the working line Ws is formed of two straight lines extending in the x direction and the y direction, and the two straight lines intersect at the intersection point Wo.
  • the sensor unit 20 detects the working line Ws and senses position information of the working line Ws. Also, here, the sensor robot Rs and the working robot Rw move the positions of the sensor unit 20 and the working unit 30.
  • the working robot Rw follows the working unit 30 so that the working unit 30 follows the sensor unit 20. Move in x direction along Ws. It is preferable that the sensor unit 20 and the working unit 30 move at the same speed relative to the work W. However, the moving speed of the working unit 30 may be different from the moving speed of the sensor unit 20. Thereafter, when the sensor unit 20 reaches the intersection point Wo, the sensor robot Rs moves the sensor unit 20 in the y direction along the work line Ws.
  • sensing and operation can be performed continuously in orthogonal directions without interruption.
  • the operation unit 30 continuously performs the operation, the uniformity of the operation can be maintained.
  • the welding state when the working unit 30 starts and / or interrupts welding may change as compared to the welding state when welding is performed continuously.
  • the jetting amount of the sealing agent may change when the working unit 30 starts and / or interrupts the jetting of the sealing agent.
  • the working unit 30 can maintain the uniformity of the work by continuously performing the work without interrupting the work.
  • the workpiece W may be distorted.
  • distortion of the workpiece W can be reduced.
  • work by the working unit 30 is started before the sensor unit 20 completes the sensing of the working line Ws, and cooperative control of the sensor robot Rs and the working robot Rw is performed. Embodiments are not limited to this. After the sensing by the sensor unit 20 is completed and the sensor robot Rs stops, the work by the working unit 30 may be started.
  • the sensor robot Rs and the work robot Rw move the positions of the sensor unit 20 and the work unit 30, but the sensor robot Rs and the work robot Rw change the orientations of the sensor unit 20 and the work unit 30 respectively.
  • the working robot Rw move the working unit 30 so that the distance (the shortest distance) between the working unit 30 and the work W is maintained constant in order to achieve uniform work.
  • sensor robot Rs and working robot Rw are taught in advance to perform a predetermined operation, and sensor robot Rs and working robot Rw are based on the taught information on sensor unit 20 and The position and orientation of the working unit 30 may be changed.
  • Such work by the robot system 10 is also called copying work.
  • the information sensed by the sensor unit 20 is used for fine adjustment of work.
  • the working robot Rw changes the position or the orientation of the working unit 30 with respect to the operation being taught. Note that, if it is not necessary to perform correction as a result of sensing, the working robot Rw may not change the position and orientation of the working unit 30 with respect to the taught operation.
  • any robot may be used as the sensor robot Rs and the work robot Rw.
  • at least one of the sensor robot Rs and the work robot Rw is preferably an articulated robot.
  • FIG. 3 shows a schematic side view of the robot system 10 of the present embodiment
  • FIG. 4 shows a schematic top view of the robot system 10.
  • the sensor robot Rs and the working robot Rw are both articulated robots.
  • the sensor robot Rs is supported by the support member Ss
  • the work robot Rw is supported by the support member Sw.
  • the working robot Rw is preferably a 6-axis or 7-axis articulated robot.
  • the sensor robot Rs also be a six-axis or seven-axis articulated robot.
  • the sensor robot Rs may be a 3-axis or 4-axis articulated robot.
  • the sensor robot Rs since the distance between the sensor unit 30 and the workpiece W may not be maintained constant, when the sensor robot Rs has joints of six or more axes, the sensor robot Rs has redundant degrees of freedom. . For this reason, the sensor robot Rs may move so as to avoid surrounding obstacles at the time of sensing by the sensor unit 20.
  • the sensor robot Rs and the working robot Rw may move together with the support members Ss and Sw with respect to the fixed work W.
  • the workpiece W may move with the support members Ss and Sw fixed.
  • both the support members Ss, Sw and the work W may move.
  • FIG. 5 shows a schematic view of a robot system 10 of the present embodiment.
  • the robot system 10 illustrated in FIG. 5 includes a control unit 40 that controls the sensor robot Rs and the work robot Rw, in addition to the sensor unit 20, the work unit 30, the sensor robot Rs, and the work robot Rw.
  • the control unit 40 may control the working robot Rw based on the information sensed by the sensor unit 20. For example, the control unit 40 performs control of the work robot Rw by performing coordinate conversion of the information sensed by the sensor unit 20.
  • the control unit 40 may control the operation of the operation unit 30 via a power supply (not shown). Also, the control unit 40 may be provided integrally with the sensor robot Rs or the work robot Rw.
  • the control unit 40 may have a robot substrate 42 and an external substrate 44.
  • the robot substrate 42 is connected to the sensor robot Rs and the work robot Rw.
  • the external substrate 44 is connected to the robot substrate 42 and the sensor unit 20.
  • the external substrate 44 transmits information sensed by the sensor unit 20 to the robot substrate 42, and the robot substrate 42 controls the working robot Rw to change at least one of the position and / or the direction of the working unit 30.
  • the robot substrate 42 may have a communication substrate.
  • an area sensed by the sensor unit 20 of the work W at a certain time is the working unit
  • the area being worked by 30 may be different.
  • the sensor robot Rs and the working robot Rw are omitted for the purpose of preventing the drawing from being excessively complicated, but as described above, the sensor unit 20 and the working unit 30 are not the sensor robot Rs and the work Each is attached to the robot Rw. Also, here, attention is focused on the operation of the work W to the area R1.
  • the sensor part 20 and the working part 30 move to ax direction, respectively, and the sensor part 20 senses area
  • the working unit 30 when the working unit 30 reaches the region R1 of the work W, the working unit 30 performs work in the region R1 of the work W.
  • the working robot Rw changes the position and / or the orientation of the working unit 30 based on the information of the area R1 sensed by the sensor unit 20.
  • the control unit 40 may be used to store information obtained by sensing each area of the workpiece W by the sensor unit 20.
  • the control unit 40 for example, the external substrate 44 shown in FIG. 6) preferably has a delay buffer.
  • the sensor robot Rs maintain the orientation of the sensor unit 20 and the working robot Rw maintain the orientation of the working unit 30.
  • both the sensor robot Rs and the working robot Rw direct the sensor unit 20 and the working unit 30 directly downward.
  • the time from when the sensor unit 20 senses the region R1 to when the working unit 30 starts working in the region R1 is It is obtained by dividing the distance between the working unit 30 and the moving speed of the sensor unit 20 and the working unit 30.
  • the control unit 40 reflect the time lag in the operation.
  • the start point of the work line is indicated by Wi
  • the end point of the work line is indicated by Wo.
  • the sensor robot Rs moves the sensor unit 20 to a position where the sensor unit 20 can sense the start point Wi.
  • the sensor unit 20 senses the working line
  • the sensor unit 20 and the working unit 30 move at a constant speed
  • the working robot Rw moves the working unit 30 to the start point Wi Move and make initial adjustments. After that, start sensing with the work.
  • the sensor unit 20 performs sensing, and the work by the working unit 30 is performed reflecting the sensed information. Thereafter, as shown in FIG. 8D, even after the sensor unit 20 passes the end point Wo, work is appropriately performed until the working unit 30 reaches the end point Wo.
  • the position information sensed by the sensor unit 20 is stored in the buffer.
  • the position information (y0) in the y direction and the position information (z0) in the z direction which are sensed by the sensor unit 20 in the area R0 at time t0, are stored in the buffer.
  • the y-direction position information (y1) and the z-direction position information (z1) sensed by the sensor unit 20 in the area R1 at time t1 are stored in the buffer.
  • position information in which the time and the area are appropriately changed is stored.
  • the initial adjustment before starting work is performed based on the sensed y-direction position information (y0) and the z-direction position information (z0).
  • adjustment after starting work is performed as follows.
  • the control unit 40 acquires difference information from the position information.
  • the distance between the sensor unit 20 and the working unit 30 is 150 mm and the welding speed is 10 mm / sec
  • the time from when a certain area is sensed by the sensor unit 20 to when the working unit 30 performs work Is 15 seconds.
  • the sensing cycle of the sensor unit 20 is 30 msec
  • the working robot Rw changes the position and / or the orientation of the working unit 30 based on the two pieces of position information sensed about 500 places ago.
  • the time at which the work is performed by the working unit 30 in a region where the work W is present may be substantially equal to the time at which the sensor unit 20 senses.
  • the sensor robot Rs may adjust the position and the orientation of the sensor unit 20 so that the sensor unit 20 faces the place where the work by the work unit 30 is performed or the place just before the work by the work unit 30 is performed.
  • the sensor robot Rs and the working robot Rw are supported by different members, but the present embodiment is not limited to this.
  • the sensor robot Rs and the working robot Rw may be supported by the same member.
  • the normal direction of the main surface of the workpiece W is disposed in parallel with the vertical direction, but the present embodiment is not limited to this.
  • the main surface of the work W may be disposed in parallel with the vertical direction.
  • FIG. 10 shows a schematic perspective view of a robot system 10 of the present embodiment.
  • the sensor robot Rs and the working robot Rw are supported by the same support member S.
  • the support member S may be attached to the upper side (for example, a ceiling), and the sensor robot Rs and the working robot Rw may be arranged to be suspended.
  • the sensor robot Rs and the work robot Rw may be movable along a predetermined direction.
  • FIG. 11 shows a schematic perspective view of a robot system 10 of the present embodiment.
  • the support portion Ss for supporting the sensor robot Rs and the support portion Sw for supporting the work robot Rw make the support member S in the direction D by an arbitrary method (for example, using a motor). It can move along.
  • the sensor robot Rs and the working robot Rw move along the direction D along with the movement of the supports Ss and Sw.
  • one sensor robot Rs attached with the sensor unit 20 and one working robot Rw attached with the working unit 30 are arranged for one work W, but the present embodiment is not limited to this. It is not limited to.
  • FIG. 12 shows a schematic perspective view of a robot system 10 of the present embodiment.
  • the robot system 10 shown in FIG. 12 has the same configuration as the robot system described above with reference to FIG. 11 except that a plurality of pairs of sensor robots Rs and working robots Rw are arranged, Duplicate descriptions are omitted to avoid redundancy.
  • the robot system 10 shown in FIG. 12 includes a sensor robot Rsa attached with the sensor unit 20a, a working robot Rwa attached with the working unit 30a, a sensor robot Rsb attached with the sensor unit 20b, and attachment of the working unit 30b. Equipped with a working robot Rwb.
  • the sensor robot Rsa and the work robot Rwa are supported by the support member Sa, and the sensor robot Rsb and the work robot Rwb are supported by the support member Sb.
  • multiple pairs of sensor robots Rs and working robots Rw may be arranged.
  • the sensor robot Rs and the working robot Rw were comprised as a pair, this embodiment is not limited to this.
  • the number of sensor robots Rs may be different from the number of working robots Rw.
  • a plurality of sensor robots Rs may be disposed for one work robot Rw.
  • the work W may be moved to facilitate sensing and / or work.
  • FIG. 13 shows a schematic perspective view of a robot system 10 of the present embodiment.
  • the robot system 10 shown in FIG. 13 includes work holding robots Hwa and Hwb capable of holding a work W (not shown in FIG. 13), a carry-in conveyor Ca for carrying the work W, and a carry-out conveyor for carrying the work W out.
  • the robot system has the same configuration as that of the robot system described above with reference to FIG. 12 except that it further includes Cb, and redundant description will be omitted to avoid redundancy.
  • the workpiece holding robots Hwa and Hwb hold the workpiece W in any manner.
  • the work holding robots Hwa, Hwb may move the work W during sensing and / or work as needed.
  • the workpiece holding robots Hwa and Hwb may perform sensing and / or work in a state in which the workpiece W is curved. After completion of the work, the work W is unloaded by the unloading conveyor Cb.
  • the efficiency of work can be improved.
  • the time of work such as welding or sealing can be shortened and the quality of work can be improved.

Abstract

【課題】ロボットシステムにおける作業の効率性を改善する。 【解決手段】 本発明によるロボットシステム(10)は、センサ部(20)と、センサ部(20)の取り付けられたセンサロボット(Rs)と、作業部(30)と、作業部(30)の取り付けられた作業ロボット(Rw)とを備える。作業ロボット(Rw)は、センサ部(20)によってセンシングされた情報に基づいて作業部(30)の位置または向きを変化させる。作業部(30)の位置はセンサ部(20)の位置とは独立に移動可能であることが好ましい。

Description

ロボットシステム
 本発明は、ロボットシステムに関する。
 産業用ロボットの制御技術はコンピュータ技術の進歩とともに進歩しており、近年、産業用ロボットによる高精度な作業が要求されている。例えば、アーク溶接ロボットでは、溶接を行う前に、溶接線をセンシングして溶接トーチの姿勢を変化させるロボットシステムが知られている(例えば、特許文献1参照)。特許文献1のロボットシステムでは、溶接線のセンシングを行うセンサが溶接トーチと一体的に設けられており、溶接トーチの姿勢は、センサによってセンシングされた情報に基づいて制御される。
特開5-123866号公報
 しかしながら、特許文献1に記載のロボットシステムでは、センシングおよび作業を連続的に行えないことがある。例えば、溶接線が直交方向に曲がった箇所では、センシングおよび溶接を連続的に行うことができない。この場合、一方の直線の端部まで溶接を行った後、溶接を一旦中止し、溶接トーチ及びセンサを他方の直線に合わせて移動させることが必要となり、作業の効率性が低減することがある。
 本発明は上記課題を鑑みてなされたものであり、その目的は、作業の効率性を改善させたロボットシステムを提供することにある。
 本発明によるロボットシステムは、センサ部と、前記センサ部の取り付けられたセンサロボットと、作業部と、前記作業部の取り付けられた作業ロボットとを備える。
 ある実施形態において、前記作業ロボットは、前記センサ部によってセンシングされた情報に基づいて前記作業部の位置および向きの少なくとも一方を変化させる。
 ある実施形態において、前記作業部の位置は、前記センサ部の位置とは独立に移動可能である。
 ある実施形態において、前記ロボットシステムは、前記センサロボットおよび前記作業ロボットを制御する制御部をさらに備える。
 ある実施形態において、前記制御部は、前記センサ部によってセンシングされた情報を一時的に格納する。
 ある実施形態において、前記制御部は、前記センサ部によってセンシングされた情報の座標変換を行うことにより、前記作業ロボットの制御を行う。
 ある実施形態において、前記作業部は、溶接またはシーリングを行う。
 ある実施形態において、前記センサロボットおよび前記作業ロボットは、前記センサ部および前記作業部を所定の方向に一定の速度で移動させる。
 本発明によれば、ロボットシステムにおける作業の効率性を改善することができる。
本発明によるロボットシステムの実施形態を示す模式図である。 (a)および(b)は、本実施形態のロボットシステムにおけるセンサ部および作業部の位置変化を説明するための模式的な上面図である。 本実施形態のロボットシステムの模式的な側面図である。 本実施形態のロボットシステムの模式的な上面図である。 本実施形態のロボットシステムの模式図である。 本実施形態のロボットシステムの模式図である。 (a)および(b)は、本実施形態のロボットシステムにおけるセンサ部および作業部の位置変化を説明するための模式的な側面図である。 (a)~(d)は、本実施形態のロボットシステムにおけるセンサ部および作業部の位置変化を説明するための模式的な側面図である。 本実施形態のロボットシステムに用いられるバッファの模式的な概念図である。 本実施形態のロボットシステムの模式的な斜視図である。 本実施形態のロボットシステムの模式的な斜視図である。 本実施形態のロボットシステムの模式的な斜視図である。 本実施形態のロボットシステムの模式的な斜視図である。
 以下、図面を参照して本発明によるロボットシステムの実施形態を説明する。ただし、本発明は以下の実施形態に限定されない。
 図1に、本実施形態のロボットシステム10の模式図を示す。ロボットシステム10は、センサ部20と、センサ部20の取り付けられたセンサロボットRsと、作業部30と、作業部30の取り付けられた作業ロボットRwとを備える。ロボットシステム10はワークWに対して作業を行う。
 センサ部20は、ワークWをセンシングする。例えば、センサ部20はワークWの表面状態をセンシングする。例えば、センサ部20として2Dレーザセンサが用いられる。あるいは、センサ部20は撮像部を有しており、ワークWの表面の撮像情報が画像処理されてもよい。また、センサ部20は、隣接する2つの平面の境界に形成される直線を追従するように追従サーチを行ってもよい。
 作業部30は、ワークWのうちのセンサ部20によってセンシングされた領域に作業を行う。例えば、作業部30は溶接を行う。溶接を行う作業部30はトーチまたは溶接トーチとも呼ばれる。または、作業部30はワークWにシーリング剤を付与してもよい。あるいは、作業部30は、組み立て(例えば、ねじ穴へのねじ締め)または嵌合を行ってもよい。
 作業ロボットRwは作業部30の位置および向きの少なくとも一方を変化させ、これにより、作業の精度を高めるようにワークWに対する作業部30の姿勢を変化させることができる。例えば、センサ部20がワークWの特定の領域をセンシングした後に、作業ロボットRwはセンサ部20によってセンシングされた情報に基づいて作業部30の位置および/または向きを変化させ、作業部30はワークWの当該領域に作業を行う。このように、作業ロボットRwが作業部30の位置および向きの少なくとも一方を変化させることにより、作業の位置ずれを抑制できる。また、センサロボットRsはセンサ部20の位置および向きの少なくとも一方を変化させ、これにより、センサ部20によるセンシングの精度を高めるように、センサ部20はワークWに対する姿勢を任意に変化させることができる。
 センサロボットRsおよび作業ロボットRwは互いに衝突しないように独立に動作可能であり、作業部30の位置はセンサ部20の位置とは独立に変化可能である。例えば、センサ部20と作業部30との間の距離が変化するように、センサロボットRsがセンサ部20を移動させるとともに作業ロボットRwが作業部30を移動させてもよい。あるいは、センサ部20と作業部30との間の距離が変化しないように(すなわち、距離がほぼ一定となるように)、センサロボットRsがセンサ部20を移動させるとともに作業ロボットRwが作業部30を移動させてもよい。
 このようにセンサ部20および作業部30が異なるロボットRs、Rwに取り付けられているため、センシングおよび作業を互いに独立した位置で行うことができ、作業の効率性を改善することができる。また、センサ部20および作業部30が独立に移動可能であることにより、作業部30は作業を中断することなく短時間で効率的に行うことができる。
 なお、センシングおよび作業は、ワークWを固定した状態で行われてもよい。例えば、センサロボットRsおよび作業ロボットRwは、固定されたワークWに対して動作してもよい。あるいは、センシングおよび作業は、ワークWを移動した状態で行われてもよい。
 また、ロボットシステム10は、作業線の形成されたワークWに対して作業を行ってもよい。例えば、センサ部20が作業線を検出し、作業部30はセンサ部20からの情報に基づいて作業線に沿うように作業を行う。
 以下、図2を参照してロボットシステム10の動作を説明する。ここでは、作業線Wsはx方向およびy方向に延びた2つの直線から形成されており、2つの直線は交点Woで交わっている。作業部30が作業線Wsに沿って作業を行う前に、センサ部20は作業線Wsを検出し、作業線Wsの位置情報をセンシングする。また、ここでは、センサロボットRsおよび作業ロボットRwはセンサ部20および作業部30の位置を移動させる。
 図2(a)に示すように、センサロボットRsが作業線Wsに沿ってx方向にセンサ部20を移動させた後を、作業ロボットRwはセンサ部20を追うように作業部30を作業線Wsに沿ってx方向に移動させる。なお、センサ部20および作業部30はワークWに対して相対的に同じ速度で移動することが好ましい。ただし、作業部30の移動速度はセンサ部20の移動速度と異なってもよい。その後、センサ部20が交点Woに達すると、センサロボットRsは作業線Wsに沿ってセンサ部20をy方向に移動させる。
 その後、図2(b)に示すように、作業ロボットRwが作業線Wsに沿ってx方向に作業部30の移動を行っている間、センサロボットRsはy方向に沿ってセンサ部20を移動させる。作業部30が交点Woに達すると、センサ部20の後を追うように、作業ロボットRwは作業部30をy方向に移動させる。
 ロボットシステム10では、このようにセンシングおよび作業をそれぞれ中断することなく直交する方向に連続的に実行することができる。また、作業部30が作業を連続的に行うことにより、作業の均一性を保つことができる。例えば、作業部30が溶接を行う場合、作業部30が溶接を開始および/または中断するときの溶接状態は連続して溶接が行われるときの溶接状態と比べて変化することがある。あるいは、作業部30がシーリングを行う場合、作業部30がシール剤の噴出を開始および/または中断するときにシール剤の噴出量が変化することがある。一方、本実施形態のロボットシステム10では、作業部30は作業を中断することなく連続的に行うことにより、作業の均一性を保つことができる。なお、ワークWに対して溶接を行うと、ワークWが歪むことがあるが、ロボットシステム10を用いて溶接を行うことにより、ワークWの歪みを低減させることができる。
 なお、図2では、センサ部20が作業線Wsのセンシングを完了する前に、作業部30による作業を開始しており、センサロボットRsおよび作業ロボットRwの協調制御が行われていたが、本実施形態はこれに限定されない。センサ部20によるセンシングが完了し、センサロボットRsが停止した後に、作業部30による作業を開始してもよい。
 また、図2では、センサロボットRsおよび作業ロボットRwはセンサ部20および作業部30の位置を移動させたが、センサロボットRsおよび作業ロボットRwはセンサ部20および作業部30の向きをそれぞれ変化させてもよい。ただし、作業の均一性を図るために、作業部30とワークWとの距離(最短距離)が一定に維持されるように、作業ロボットRwは作業部30を移動させることが好ましい。
 なお、典型的には、センサロボットRsおよび作業ロボットRwは、所定の動作を行うように予めティーチングされており、センサロボットRsおよび作業ロボットRwは、ティーチングされた情報に基づいて、センサ部20および作業部30の位置および向きを変化させてもよい。このようなロボットシステム10による作業は倣い作業とも呼ばれる。
 この場合、センサ部20によってセンシングされた情報は、作業の微調整のために利用される。センシングの結果、補正を行う必要がある場合、ティーチングされている動作に対して作業ロボットRwは作業部30の位置または向きを変化させる。なお、仮に、センシングの結果、補正を行う必要がなければ、ティーチングされた動作に対して作業ロボットRwは作業部30の位置および向きを変化させなくてもよい。
 なお、センサロボットRsおよび作業ロボットRwとして任意のロボットを用いてもよい。ただし、センサロボットRsおよび作業ロボットRwの少なくとも一方(特に、作業ロボットRw)は多関節ロボットであることが好ましい。
 図3に、本実施形態のロボットシステム10の模式的な側面図を示し、図4に、このロボットシステム10の模式的な上面図を示す。ここでは、センサロボットRsおよび作業ロボットRwはいずれも多関節ロボットである。センサロボットRsは支持部材Ssに支持されており、作業ロボットRwは支持部材Swに支持されている。
 例えば、作業ロボットRwは6軸または7軸の多関節ロボットであることが好ましい。また、同様に、センサロボットRsも6軸または7軸の関節ロボットであることが好ましい。ただし、センサロボットRsは3軸または4軸の関節ロボットであってもよい。なお、センサ部30とワークWとの距離は一定に維持されなくてもよいため、センサロボットRsが6軸以上の関節を有している場合、センサロボットRsは冗長自由度を有することになる。このため、センサロボットRsは、センサ部20によるセンシング時に周囲の障害物を避けるように移動を行ってもよい。
 なお、固定されたワークWに対してセンサロボットRsおよび作業ロボットRwが支持部材Ss、Swとともに移動してもよい。または、支持部材Ss、Swが固定された状態でワークWが移動してもよい。あるいは、支持部材Ss、SwおよびワークWの両方が移動してもよい。
 また、センサロボットRsおよび作業ロボットRwの動作は包括的に制御されることが好ましい。
 図5に、本実施形態のロボットシステム10の模式図を示す。図5に示したロボットシステム10は、センサ部20、作業部30、センサロボットRsおよび作業ロボットRwに加えて、センサロボットRsおよび作業ロボットRwを制御する制御部40を備えている。なお、制御部40は、センサ部20によってセンシングされた情報に基づいて作業ロボットRwを制御してもよい。例えば、制御部40は、センサ部20によってセンシングされた情報の座標変換を行うことによって作業ロボットRwの制御を行う。制御部40は、電源(図示せず)を介して作業部30による作業を制御してもよい。また、制御部40は、センサロボットRsまたは作業ロボットRwと一体的に設けられてもよい。
 また、図6に示すように、制御部40は、ロボット基板42および外部基板44を有してもよい。ロボット基板42は、センサロボットRsおよび作業ロボットRwに接続されている。外部基板44はロボット基板42およびセンサ部20に接続されている。外部基板44は、センサ部20によってセンシングされた情報をロボット基板42に伝達し、ロボット基板42は、作業部30の位置および/または方向の少なくとも一方を変化させるように作業ロボットRwを制御する。なお、ここでは図示していないが、ロボット基板42は通信基板を有してもよい。
 上述したように、センサロボットRsおよび作業ロボットRwがセンサ部20および作業部30を独立に移動させる場合、ある時刻において、ワークWのうちの、センサ部20によってセンシングされている領域が、作業部30によって作業されている領域とは異なることがある。
 ここで、図7を参照してロボットシステム10におけるセンサ部20および作業部30の位置変化の一例を説明する。ここでは、図面が過度に複雑になることを防ぐ目的で、センサロボットRsおよび作業ロボットRwを省略して示しているが、上述したように、センサ部20および作業部30はセンサロボットRsおよび作業ロボットRwにそれぞれ取り付けられている。また、ここでは、ワークWの領域R1に対する動作に着目する。
 図7(a)に示すように、センサ部20および作業部30はそれぞれx方向に移動し、ある時刻において、センサ部20がワークWの領域R1のセンシングを行う。その後、センサ部20および作業部30はさらにx方向に移動する。
 図7(b)に示すように、作業部30がワークWの領域R1に到達すると、作業部30はワークWの領域R1に作業を行う。この場合、作業ロボットRwはセンサ部20によってセンシングされた領域R1の情報に基づいて作業部30の位置および/または向きを変化させる。
 なお、ここではワークWの領域R1について説明したが、ワークWの他の領域についても同様に、作業部30によって作業の行われる時刻はセンサ部20によってセンシングする時刻とは異なるため、センサ部20によってワークWの各領域をセンシングした情報を少なくとも一時的に格納することが好ましい。例えば、制御部40(図5および図6参照)は、センサ部20によってワークWの各領域をセンシングした情報を格納するために用いられてもよい。この場合、制御部40(例えば、図6に示した外部基板44)は、ディレイバッファを有することが好ましい。
 一方向に延びた直線に沿って作業を行う場合、センサロボットRsはセンサ部20の向きを維持するとともに作業ロボットRwは作業部30の向きを維持することが好ましい。例えば、センサロボットRsおよび作業ロボットRwはいずれもセンサ部20および作業部30を真下に向ける。この状態でセンサ部20および作業部30が一定の速度で移動する場合、センサ部20が領域R1をセンシングしてから作業部30が領域R1に作業を開始するまでの時間は、センサ部20と作業部30との間の距離をセンサ部20および作業部30の移動する速度で除算することによって得られる。このように、制御部40はタイムラグを考慮して作業に反映させることが好ましい。
 以下、図8を参照して作業線の開始点から終了点までセンシングおよび作業の行われる一例を説明する。図8では、作業線の開始点をWiと示し、作業線の終了点をWoと示している。
 図8(a)に示すように、まず、センサ部20が開始点Wiをセンシング可能となる位置までセンサロボットRsはセンサ部20を移動させる。
 次に、図8(b)に示すように、センサ部20は作業線をセンシングしながらセンサ部20および作業部30は一定の速度で移動し、作業ロボットRwは作業部30を開始点Wiまで移動させて初期調整を行う。その後、作業とともにセンシングを開始する。
 図8(c)に示すように、センサ部20はセンシングを行い、作業部30による作業はセンシングされた情報を反映して行われる。その後、図8(d)に示すように、センサ部20が終了点Woを過ぎた後も、作業部30が終了点Woに達するまで作業は適宜行われる。
 ここで、図9を参照して、センシングした位置情報の処理方法の一例を説明する。上述したように、センサ部20によってセンシングされた位置情報はバッファに格納される。例えば、バッファには、時刻t0に領域R0においてセンサ部20によってセンシングされたy方向の位置情報(y0)およびz方向の位置情報(z0)が格納される。同様に、バッファには、時刻t1に領域R1においてセンサ部20によってセンシングされたy方向の位置情報(y1)およびz方向の位置情報(z1)が格納される。以下、同様に、時刻および領域が適宜変化した位置情報が格納される。
 例えば、作業を開始する前の初期調整は、センシングされたy方向の位置情報(y0)およびz方向の位置情報(z0)に基づいて行われる。一方、作業を開始した後の調整は以下のように行われる。
 制御部40は、位置情報から差分情報を取得する。差分情報は、ある時刻の位置情報とその直前の時刻の位置情報との差から求められる。例えば、制御部40は、時刻の異なるy方向の位置情報y0、y1から、y方向の差分情報(Δy1=y1-y0)を取得し、時刻の異なるz方向の位置情報z0、z1から、z方向の差分情報(Δz1=z1-z0)を取得する。その後、作業部30が領域R1に対して作業を行う場合、制御部40は、差分情報Δy1、Δz1に基づいて作業部30の位置および/または向きを変化させるように作業ロボットRwを制御する。
 例えば、センサ部20と作業部30との間の距離が150mmであり、溶接速度が10mm/秒の場合、ある領域がセンサ部20によってセンシングされてから作業部30によって作業が行われるまでの時間は15秒である。例えば、センサ部20のセンシング周期が30msecの場合、作業ロボットRwは約500箇所前にセンシングされた2箇所の位置情報に基づいて作業部30の位置および/または向きを変化させる。
 以上、図7から図9を参照して、ワークWのある領域について作業部30によって作業の行われる時刻がセンサ部20によってセンシングする時刻と異なる場合のセンサ部20および作業部30の位置変化ならびに位置情報の処理方法を説明したが、ワークWのある領域について作業部30によって作業の行われる時刻がセンサ部20によってセンシングする時刻とほぼ等しくてもよい。例えば、センサ部20が作業部30による作業の行われる箇所または作業部30による作業の行われる直前の箇所を向くようにセンサロボットRsはセンサ部20の位置および向きを調整してもよい。
 また、上述した説明では、センサロボットRsおよび作業ロボットRwは異なる部材に支持されていたが、本実施形態はこれに限定されない。センサロボットRsおよび作業ロボットRwは同じ部材に支持されてもよい。また、上述した説明において、ワークWの主面の法線方向は鉛直方向と平行に配置されていたが、本実施形態はこれに限定されない。ワークWの主面が鉛直方向と平行に配置されてもよい。
 図10に、本実施形態のロボットシステム10の模式的な斜視図を示す。図10に示したロボットシステム10では、センサロボットRsおよび作業ロボットRwは、同一の支持部材Sに支持されている。例えば、支持部材Sは上方(例えば、天井)に取り付けられており、センサロボットRsおよび作業ロボットRwは吊りさげられるように配置されてもよい。
 なお、センサロボットRsおよび作業ロボットRwはいずれも所定の方向に沿って移動可能であってもよい。
 図11に、本実施形態のロボットシステム10の模式的な斜視図を示す。図11に示したロボットシステム10において、センサロボットRsを支持する支持部Ssおよび作業ロボットRwを支持する支持部Swは任意の手法(例えば、モータ等を用いて)で支持部材Sを方向Dに沿って移動可能である。支持部Ss、Swの移動に伴い、センサロボットRsおよび作業ロボットRwは方向Dに沿って移動する。
 なお、上述した説明では、1つのワークWに対してセンサ部20の取り付けられたセンサロボットRsおよび作業部30の取り付けられた作業ロボットRwがそれぞれ1つ配置されていたが、本実施形態はこれに限定されない。
 図12に、本実施形態のロボットシステム10の模式的な斜視図を示す。図12に示したロボットシステム10は、複数の対のセンサロボットRsおよび作業ロボットRwが配置されている点を除いて図11を参照して上述したロボットシステムと同様の構成を有しており、冗長を避けるために重複する説明を省略する。図12に示したロボットシステム10は、センサ部20aの取り付けられたセンサロボットRsa、作業部30aの取り付けられた作業ロボットRwa、センサ部20bの取り付けられたセンサロボットRsb、および、作業部30bの取り付けられた作業ロボットRwbを備えている。センサロボットRsaおよび作業ロボットRwaは支持部材Saに支持されており、センサロボットRsbおよび作業ロボットRwbは支持部材Sbに支持されている。このように、複数の対のセンサロボットRsおよび作業ロボットRwが配置されてもよい。
 なお、上述したロボットシステム10では、センサロボットRsおよび作業ロボットRwが対となるように構成されていたが、本実施形態はこれに限定されない。センサロボットRsの数は作業ロボットRwの数と異なってもよい。例えば、1つの作業ロボットRwに対して複数のセンサロボットRsが配置されてもよい。また、ワークWはセンシングおよび/または作業の行いやすいように移動させてもよい。
 図13に、本実施形態のロボットシステム10の模式的な斜視図を示す。図13に示したロボットシステム10は、ワークW(図13には図示せず)を保持可能なワーク保持ロボットHwa、Hwbと、ワークWを搬入する搬入コンベアCaと、ワークWを搬出する搬出コンベアCbとをさらに備えている点を除いて図12を参照して上述したロボットシステムと同様の構成を有しており、冗長を避けるために重複する説明を省略する。
 搬入コンベアCaがワークWを搬入すると、ワーク保持ロボットHwa、Hwbは、任意の態様でワークWを保持する。ワーク保持ロボットHwa、Hwbは、必要に応じて、センシング中および/または作業中にワークWを移動させてもよい。また、必要に応じて、ワーク保持ロボットHwa、HwbがワークWを湾曲させた状態で、センシングおよび/または作業を行ってもよい。作業の終了後、ワークWは搬出コンベアCbによって搬出される。
 本実施形態のロボットシステムによれば、作業の効率性を改善できる。例えば、溶接またはシーリングなどの作業の時間を短縮するとともに作業品質を向上させることができる。
 10  ロボットシステム
 20  センサ部
 30  作業部
 40  制御部
 Rs  センサロボット
 Rw  作業ロボット

Claims (8)

  1.  センサ部と、
     前記センサ部の取り付けられたセンサロボットと、
     作業部と、
     前記作業部の取り付けられた作業ロボットと
    を備える、ロボットシステム。
  2.  前記作業ロボットは、前記センサ部によってセンシングされた情報に基づいて前記作業部の位置および向きの少なくとも一方を変化させる、請求項1に記載のロボットシステム。
  3.  前記作業部の位置は、前記センサ部の位置とは独立に移動可能である、請求項1または2に記載のロボットシステム。
  4.  前記センサロボットおよび前記作業ロボットを制御する制御部をさらに備える、請求項1から3のいずれかに記載のロボットシステム。
  5.  前記制御部は、前記センサ部によってセンシングされた情報を一時的に格納する、請求項4に記載のロボットシステム。
  6.  前記制御部は、前記センサ部によってセンシングされた情報の座標変換を行うことにより、前記作業ロボットの制御を行う、請求項4または5に記載のロボットシステム。
  7.  前記作業部は、溶接またはシーリングを行う、請求項1から6のいずれかに記載のロボットシステム。
  8.  前記センサロボットおよび前記作業ロボットは、前記センサ部および前記作業部を所定の方向に一定の速度で移動させる、請求項1から7のいずれかに記載のロボットシステム。
PCT/JP2011/068245 2011-08-10 2011-08-10 ロボットシステム WO2013021479A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2013527795A JP5892168B2 (ja) 2011-08-10 2011-08-10 ロボットシステム
PCT/JP2011/068245 WO2013021479A1 (ja) 2011-08-10 2011-08-10 ロボットシステム
CN201180072767.XA CN103747926A (zh) 2011-08-10 2011-08-10 机器人系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2011/068245 WO2013021479A1 (ja) 2011-08-10 2011-08-10 ロボットシステム

Publications (1)

Publication Number Publication Date
WO2013021479A1 true WO2013021479A1 (ja) 2013-02-14

Family

ID=47668030

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/068245 WO2013021479A1 (ja) 2011-08-10 2011-08-10 ロボットシステム

Country Status (3)

Country Link
JP (1) JP5892168B2 (ja)
CN (1) CN103747926A (ja)
WO (1) WO2013021479A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019214122A (ja) * 2017-10-16 2019-12-19 ファナック株式会社 作業システム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06143160A (ja) * 1992-10-28 1994-05-24 Nec Corp 照明配置調整方式
JPH06219352A (ja) * 1993-01-27 1994-08-09 Daifuku Co Ltd ガラス取付設備
JPH11207670A (ja) * 1998-01-21 1999-08-03 Kawasaki Heavy Ind Ltd 産業ロボットのティーチング方法とその装置
JP2007527800A (ja) * 2004-02-05 2007-10-04 ダイムラークライスラー・アクチェンゲゼルシャフト 工具、カメラ及び光源を装備したロボット装置
JP2009509779A (ja) * 2005-09-23 2009-03-12 ブレインテック カナダ インコーポレイテッド 視覚追跡のシステム及び方法
JP2010274396A (ja) * 2009-06-01 2010-12-09 Kawasaki Heavy Ind Ltd 自動作業システムにおける位置ズレ補正方法及び位置ズレ補正プログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1289252C (zh) * 2004-10-21 2006-12-13 上海交通大学 焊缝自主跟踪方法
CN1319704C (zh) * 2004-10-21 2007-06-06 上海交通大学 焊接机器人伺服双目视觉传感器
US20100017033A1 (en) * 2008-07-18 2010-01-21 Remus Boca Robotic systems with user operable robot control terminals
CN101745765B (zh) * 2009-12-15 2012-02-08 哈尔滨工业大学 人机协作共享控制遥控焊接的方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06143160A (ja) * 1992-10-28 1994-05-24 Nec Corp 照明配置調整方式
JPH06219352A (ja) * 1993-01-27 1994-08-09 Daifuku Co Ltd ガラス取付設備
JPH11207670A (ja) * 1998-01-21 1999-08-03 Kawasaki Heavy Ind Ltd 産業ロボットのティーチング方法とその装置
JP2007527800A (ja) * 2004-02-05 2007-10-04 ダイムラークライスラー・アクチェンゲゼルシャフト 工具、カメラ及び光源を装備したロボット装置
JP2009509779A (ja) * 2005-09-23 2009-03-12 ブレインテック カナダ インコーポレイテッド 視覚追跡のシステム及び方法
JP2010274396A (ja) * 2009-06-01 2010-12-09 Kawasaki Heavy Ind Ltd 自動作業システムにおける位置ズレ補正方法及び位置ズレ補正プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019214122A (ja) * 2017-10-16 2019-12-19 ファナック株式会社 作業システム

Also Published As

Publication number Publication date
JP5892168B2 (ja) 2016-03-23
CN103747926A (zh) 2014-04-23
JPWO2013021479A1 (ja) 2015-03-05

Similar Documents

Publication Publication Date Title
JP6039187B2 (ja) 組立装置、把持ハンドおよび物品の組立方法
JP6979012B2 (ja) 基板搬送装置及び基板搬送ロボットの教示方法
JP5653073B2 (ja) ロボットセル装置及び生産システム
JP6258043B2 (ja) 産業用ロボットを制御する制御システム、制御装置、溶接物製造方法およびプログラム
JP2010274396A (ja) 自動作業システムにおける位置ズレ補正方法及び位置ズレ補正プログラム
JP2004174709A (ja) 工作物を加工するための方法および装置
WO2017085928A1 (ja) ロボット
JP2010231575A (ja) ロボットのオフライン教示装置、ロボットのオフライン教示方法、及びロボットシステム
JP2022132251A (ja) 複数のロボットによる動的レーザタッチセンシング及び動的ユーザ座標系
JP2019048349A (ja) ロボットシステム、ロボット制御装置および被加工物の製造方法
WO2014123054A1 (ja) ロボット制御装置及びロボット制御方法
JP2018183832A (ja) ロボットシステム及びそれを備える作業ライン
WO2013021479A1 (ja) ロボットシステム
JP6366665B2 (ja) ロボット装置、組立装置、把持ハンド、および物品の製造方法
JP2019104099A (ja) ロボットハンド、ロボットハンドの制御方法
JP4791168B2 (ja) 位置決めロボット
JP6550985B2 (ja) ロボット接合システム
JP6300693B2 (ja) ロボット
WO2021241512A1 (ja) ワークに対する作業をロボットに実行させる制御装置、ロボットシステム、及び制御方法
JP7173765B2 (ja) ロボット制御システム
JP2000117669A (ja) ロボット
JP2020097101A (ja) ロボット装置、ロボットシステム、ロボット装置の制御方法、ロボット装置を用いた物品の製造方法、制御プログラム及び記録媒体
KR101655344B1 (ko) 산업용 로봇용 엔드 이펙터
JP6741544B2 (ja) ロボット
JP2012254487A (ja) 生産システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11870516

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2013527795

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11870516

Country of ref document: EP

Kind code of ref document: A1