SE458427B - Robot equipment with position indicator on robot hand - Google Patents

Robot equipment with position indicator on robot hand

Info

Publication number
SE458427B
SE458427B SE8600872A SE8600872A SE458427B SE 458427 B SE458427 B SE 458427B SE 8600872 A SE8600872 A SE 8600872A SE 8600872 A SE8600872 A SE 8600872A SE 458427 B SE458427 B SE 458427B
Authority
SE
Sweden
Prior art keywords
sensor
robot
image
phenomena
information
Prior art date
Application number
SE8600872A
Other languages
Swedish (sv)
Other versions
SE8600872D0 (en
SE8600872L (en
Inventor
J G Faeger
Original Assignee
Asea Ab
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Asea Ab filed Critical Asea Ab
Priority to SE8600872A priority Critical patent/SE458427B/en
Publication of SE8600872D0 publication Critical patent/SE8600872D0/en
Publication of SE8600872L publication Critical patent/SE8600872L/en
Publication of SE458427B publication Critical patent/SE458427B/en

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/04Viewing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/10Programme-controlled manipulators characterised by positioning means for manipulator elements

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)

Abstract

The industrial robot (2) is fixed to the floor (1), and has a foot (21). A column (22) is rotatable around a vertical axis in relation to the foot.. A lower arm (23) is rotatably fitted to the column by means of a ontal shaft. An upper arm (24) is fitted to the lower arm, and also has a robot hand (25) attached to it. An intermediary part (27) is fitted to the robot hand, and has a tool fixture (28) carrying a gripper (29). On the intermediary part is an optical indicator (30) which is used to determine the robot hand position and orientation in space. The robot has a control system (5) permitting programming of a movement pattern, with subsequent operation of it in accordance with that pattern. The control system recovers a sequence of position theoretical values from the programme, compares them with known actual values for the robot hand position, and operates motors in the various axes of the robot so that the hand follows the programmed theroretical position values. The indicator determines directions along at least three or at most four lines of sight to three or four points with known positons. (Provisional basic advised week 8741)

Description

458 427 För att få korrekt lägesinformation relativt ett fast koordinatsystem krävs vidare att robotens fastsättning (t ex monteringen av robotens fot i ett golv) görs med hög noggrannhet. 458 427 In order to obtain correct position information relative to a fixed coordinate system, it is further required that the robot's attachment (eg the mounting of the robot's foot in a floor) is done with high accuracy.

Om inte tillverknings- och monteringstoleranser hålls mycket små uppstår också problem med utbytbarheten, dvs det blir inte utan vidare möjligt att utan omprogrammering utbyta ett robotexemplar mot ett annat.If manufacturing and assembly tolerances are not kept very small, problems with interchangeability also arise, ie it will not be possible to replace one robot copy with another without reprogramming.

Det blir vidare svårt att med bibehållen noggrannhet erhålla ett större arbetsområde för roboten än det som erhålles när roboten står fast monterad.It also becomes difficult to obtain, with maintained accuracy, a larger working area for the robot than that obtained when the robot is permanently mounted.

Uppfinningen avser att åstadkomma en robot med en lägesgivaranord- ning som gör det möjligt att erhålla hög noggrannhet hos lägesinformationen oberoende av tillverknings- och fastsättningstoleranser och oberoende av deformationer hos robotens delar. Uppfinningen avser vidare att åstadkomma en robot, där robotexemplar utan omprogrammering kan utbytas mot var- andra utan att några krav ställs på små tillverknings- och fastsättnings- toleranser. Ett ytterligare syfte med uppfinningen är att åstadkomma en robot, vars lägesinformation är oberoende av att läget hos robotens fastsättningspunkt är känt, varigenom roboten kan tillåtas röra sig god- tyckligt inom en lokal och dess arbetsområde kan göras mycket större än vad som hittills varit möjligt. Ytterligare ett syfte med uppfinningen är att åstadkomma en robot, vars lägesinformation är oberoende av aktiva källor i omgivningen, varigenom roboten även kan tillåtas röra sig godtyck- ligt i en icke på förhand, för lägesinformationens skull, preparerad eller eventuellt ens ej inmätt omgivning.The invention intends to provide a robot with a position sensor device which makes it possible to obtain high accuracy of the position information independent of manufacturing and fastening tolerances and independent of deformations of the parts of the robot. The invention further intends to provide a robot, where robot copies can be exchanged for each other without reprogramming without any requirements being placed on small manufacturing and attachment tolerances. A further object of the invention is to provide a robot, whose position information is independent of the position of the robot's attachment point is known, whereby the robot can be allowed to move arbitrarily within a room and its working area can be made much larger than has hitherto been possible. A further object of the invention is to provide a robot whose position information is independent of active sources in the environment, whereby the robot can also be allowed to move arbitrarily in an environment not prepared in advance, for the sake of location information, prepared or possibly not even measured.

Uppfinningen avser vidare att åstadkomma en enkel och robust givaranordning för alstrande av den önskade lägesinformationen.The invention further aims to provide a simple and robust sensor device for generating the desired position information.

Vad som kännetecknar en robotutrustning enligt uppfinningen framgår av bi- fogade patentkrav.What characterizes a robotic equipment according to the invention is stated in the appended claims.

Uppfinníhgen skall i det följande beskrivas i anslutning till bifogadezfigu- rer 1-7. Fig 1 visar en industrirobot med ett exempel på en lägesgivar- utrustning enligt uppfinningen. Fig 2a visar principen för den på roboten i fig 1 monterade givaren. Fig 2b visar den till detektorytan anslutna ut- rustningen för att extrahera specificerade företeelsers lägen och bestämma 3 458 427 . syftningslinjernas (från givaren till dessa företeelser) riktningar. Fig 3 visar ett blockschema över lägesgivaranordningen och fig Å visar hur den är inkopplad till robotens styrsytem. Fig Sa visar en typisk position av de olika beräkningsområden (delbilder) som varje deltagande visionsystem tilldelats att utvärdera. Fig Sb visar vissa av de använda koordinaterna och fig 6 de använda vektorbetecknipgarna för företeelsernas och givarens lägen. Fig 7 visar ett flödesschema för de beräkningar som ur givarsigna- lerna ger robotens läge.The invention will be described in the following in connection with accompanying figures 1-7. Fig. 1 shows an industrial robot with an example of a position sensor equipment according to the invention. Fig. 2a shows the principle of the sensor mounted on the robot in Fig. 1. Fig. 2b shows the equipment connected to the detector surface for extracting the positions of specified phenomena and determining 3,458,427. the directions of the lines of sight (from the donor to these phenomena). Fig. 3 shows a block diagram of the position sensor device and Fig. Å shows how it is connected to the robot's control system. Fig. Sa shows a typical position of the different calculation areas (sub-pictures) that each participating vision system has been assigned to evaluate. Fig. Sb shows some of the coordinates used and Fig. 6 the vector designations used for the positions of the phenomena and the sensor. Fig. 7 shows a flow chart for the calculations that from the sensor signals give the position of the robot.

Pig 1 visar en industrirobot 2, som är fast monterad på ett underlag 1, t ex ett golv. Roboten är av i och för sig känd typ och har en fot 21. En pelare 22 är vridbar runt en vertikal axel i förhållande till foten 21.Pig 1 shows an industrial robot 2, which is fixedly mounted on a base 1, for example a floor. The robot is of a per se known type and has a foot 21. A pillar 22 is rotatable about a vertical axis relative to the foot 21.

En underarm 23 är vridbart lagrad till pelaren 22 med hjälp av en horison- tell axel. En överarm 2H är lagrad till underarmen 23 och en robothand 25 till överarmen ZH, båda med hjälp av i figuren horisontella vridníngsaxlar.A forearm 23 is rotatably mounted to the column 22 by means of a horizontal shaft. An upper arm 2H is mounted to the forearm 23 and a robot hand 25 to the upper arm ZH, both by means of horizontal axes of rotation in the figure.

Vid robothanden 25 är en mellandel 27 fäst, vilken har ett verktygsfäste 28, som uppbär ett gripdon 29. Pâ mellandelen 27 är en optisk givare 30 anordnad, vilken på nedan beskrivet sätt används för att bestämma robot- handens läge och orientering i rymden. Roboten har ett styrsystem 5, vilket möjliggör inprogrammering av ett rörelseschema hos roboten med åtföljande drift av roboten i enlighet med detta rörelseschema. Styrsystemet hämtar en successiv följd av lägesbörvärden ur programmet, jämför dessa med avkända ärvärden för robothandens läge och driver motorerna i robotens olika axlar så att robothanden följer de inprogrammerade lägesbörvärdena.Attached to the robot hand 25 is an intermediate part 27, which has a tool holder 28, which carries a gripper 29. On the intermediate part 27 an optical sensor 30 is arranged, which is used in the manner described below to determine the position and orientation of the robot hand in space. The robot has a control system 5, which enables programming of a movement scheme of the robot with accompanying operation of the robot in accordance with this movement scheme. The control system retrieves a successive sequence of position setpoints from the program, compares these with known actual values for the position of the robot hand and drives the motors in the different axes of the robot so that the robot hand follows the programmed position setpoints.

För bestämning av robothandens läge är en givare 30 anordnad på robothan- den. På nedan angivet sätt bestämmer givarsystemet riktningen HOS minst tre och helst fyra syftlinjer från givaren till tre (alternativt fyra) företeelser med kända lägen (i det koordinatsystem lägesangivelsen önskas). Dessa företeelser är valda ur en större mängd företeelser på så sätt att de dels befinner sig inom givarens synfält, dels är av givar- systemet utan förväxling igenkänningsbara.To determine the position of the robot hand, a sensor 30 is arranged on the robot hand. In the manner specified below, the sensor system determines the direction HOS at least three and preferably four aiming lines from the sensor to three (alternatively four) phenomena with known positions (in the coordinate system the position indication is desired). These phenomena are selected from a larger number of phenomena in such a way that they are partly within the sensor's field of view, and partly are recognizable by the sensor system without confusion.

Med de 1 beskrivningen omtalade företeelserna avses typiskt hörn, håltag» ningar eller gränser mellan olika ytor på objektet, men även ljuspunkter, från lägesgivaranordningen styrda eller icke styrda, och på objektet pro- jicerade ljusmönster kan avses. Även kombinationseffekten av objekt på olika avstånd eller i olika lägen relativt givaren kan avses (t ex moirê- mönster eller korsande stavar på olika avstånd från givaren). Självfallet 458 427 kan ett godtyckligt antal av företeelserna utgöras av holografiska avbild- ningar eller mönster.The phenomena discussed in the description typically refer to corners, holes or boundaries between different surfaces on the object, but also light points, controlled or uncontrolled from the position sensor device, and light patterns projected on the object can be referred to. The combination effect of objects at different distances or in different positions relative to the sensor can also be referred to (eg moirê patterns or crossing bars at different distances from the sensor). Of course 458 427, any number of phenomena can consist of holographic images or patterns.

Företeelsernas lägen i ett visst koordinatsystem förutsätts kända och kan på ett antal olika sätt matas in i givarsystemet,alternativt styrsystemet varifrån de senare kan hämtas,vid programmering eller installationen av roboten. Ur dessa på förhand kända lägen och de av givarsystemet be- stämde riktningarna beräknar givarsystemet på nedan beskrivet sätt givarens läge i det aktuella koordinatsystemet. Företeelserna kan exempelvis vara fasta och robotens läge beräknas då i ett fast koordinatsystem. Alternativt kan företeelserna vara företeelser på hållaren till arbetsstycket (eller arbetsstyeket i sig) som roboten skall bearbeta eller hantera och robotens läge erhålles då i förhållande till hâllaren alternativt arbetsstycket.The positions of the phenomena in a certain coordinate system are assumed to be known and can in a number of different ways be fed into the sensor system, or alternatively the control system from which the latter can be retrieved, during programming or installation of the robot. From these pre-known positions and the directions determined by the sensor system, the sensor system calculates the sensor's position in the current coordinate system in the manner described below. The phenomena can, for example, be fixed and the robot's position is then calculated in a fixed coordinate system. Alternatively, the phenomena may be phenomena on the holder of the workpiece (or the workpiece itself) which the robot is to machine or handle and the position of the robot is then obtained in relation to the holder or the workpiece.

På i och för sig känt sätt är roboten försedd med vinkelgivare i sina axlar, vilka till styrsystemet avger information om de aktuella vridningsvinklarna i axlarna. Denna information används av styrsystemet för att fördela ett uppträdande lägesfel på de olika robotaxlarna. Dessa givare kan utföras med väsentligt lägre noggrannhet än vad som varit nödvändigt vid tidigare kända robotar, där givarna används för bestämning av robothandens läge.In a manner known per se, the robot is provided with angle sensors in its axes, which provide the control system with information about the current angles of rotation in the axes. This information is used by the control system to distribute a behavioral error on the various robot axes. These sensors can be made with significantly lower accuracy than was necessary with previously known robots, where the sensors are used to determine the position of the robot hand.

Av naturliga skäl kan givaren 30 oftast ej placeras i den punkt, vars läge man egentligen vill bestämma. Denna intressanta punkt utgörs ju t ex av gripklorna hos ett gripdon, av spetsen hos en svetselektrod eller av eggen hos ett bearbetningsverktyg. Med kännedom om givarens läge i rymden och om robothandens orientering kan dock enkelt läget för den nämnda punkten beß räknas. Information om robothandens orientering kan, som nedan närmare skall beskrivas, erhållas med hjälp av lägesgivarsystemet enligt upp- finningen. Eftersom givaren 30 företrädesvis placeras så nära den aktuella punkten som möjligt, krävs ibland ingen större noggrannhet hos bestämningen av handens orientering, och därför kan alternativt de i robotaxlarna anord- nade vinkelgivarna användas för att ge information om handens orientering.For natural reasons, the sensor 30 can usually not be placed at the point whose position one really wants to determine. This point of interest consists, for example, of the gripping claws of a gripping device, of the tip of a welding electrode or of the edge of a machining tool. With knowledge of the position of the sensor in space and of the orientation of the robot hand, however, the position of the mentioned point can easily be calculated. Information on the orientation of the robot hand can, as will be described in more detail below, be obtained with the aid of the position sensor system according to the invention. Since the sensor 30 is preferably placed as close to the actual point as possible, sometimes no greater accuracy is required in determining the orientation of the hand, and therefore the angle sensors arranged in the robot shafts can alternatively be used to provide information about the orientation of the hand.

För attïnöjliggöra en läges- och orienteringsbestämning av robothanden_obe- rcende av dennas orientering relativt företeelserna kan ytterligare givare anordnas på handen på sådant sätt,_att under robotens drift alltid minst en av dessa givare (eller samtliga givare tillsammans) har ett tillräckligt antal företeelser inom sitt synfält. En sådan ytterligare givare är visad med streckade linjer i figuren och är betecknad med 31. 5 , 458 427 För bestämning av läge och/eller orientering hos övriga robotdelar kan om så önskas även dessa delar förses med lägesgivarsystem enligt uppfinningen.In order to facilitate a position and orientation determination of the robot hand_abouting its orientation relative to the phenomena, additional sensors can be arranged on the hand in such a way that during the operation of the robot at least one of these sensors (or all sensors together) always has a sufficient number of phenomena within its field of view. . Such an additional sensor is shown in broken lines in the figure and is denoted by 31. 5, 458 427 For determining the position and / or orientation of the other robot parts, these parts can also be provided with position sensor systems according to the invention, if desired.

Som ett exempel har 1 figuren visats hur en givare 32 är anordnad på under- armen 23.As an example, the figure shows how a sensor 32 is arranged on the forearm 23.

En uppsättning företeelser är då specificerade så att minst tre och helst fyra under robotens drift befinner sig inom givarens 32 synfält (även här kan naturligtvis ytterligare givare anordnas för att öka möjligheterna till att tillräckligt många företeelser befinner sig inom givarens synfält).A set of phenomena is then specified so that at least three and preferably four during the robot's operation are within the sensor's 32 field of view (here too, of course, additional sensors can be arranged to increase the chances that a sufficient number of phenomena are within the sensor's field of view).

Den sålunda för underarmen 23 anordnade lägesgivarutrustningen kan använ- das för bestämning av underarmens läge och orientering. Vid en âkbar robot kan för bestämning av robotens aktuella läge inom sitt âkområde en dylik givare placeras på t ex Foten 21.The position sensor equipment thus arranged for the forearm 23 can be used for determining the position and orientation of the forearm. In the case of a sliding robot, for determining the current position of the robot within its sliding area, such a sensor can be placed on, for example, the Foot 21.

Alternativt till att montera flera givare på robothanden kan givarutrust- ningen förses med fler specificerade företeelser än de i fig 1 visade.As an alternative to mounting several sensors on the robot hand, the sensor equipment can be provided with more specified phenomena than those shown in Fig. 1.

Dessa företeelser väljs då ut att vara sådana som är placerade i sådana lägen och i tillräckligt antal, t ex sex-åtta stycken, att, oberoende av robothandens läge oph orientering, alltid minst tre och helst fyra av före- teelserna befinner sig inom någon givares synfält.These phenomena are then selected to be those which are placed in such positions and in sufficient numbers, eg six to eight, that, regardless of the position of the robot hand on orientation, always at least three and preferably four of the phenomena are within any donor's. field of view.

Som nedan skall beskrivas använder givarsystemet för bestämning av läge och orientering tre åt gången av företeelserna. Roboten känner hela tiden till sitt läge och givarens orientering och styrsystemet kan därför pro- grammeras att i varje läge välja ut och för lägesbestämningen använda tre inom givarens synfält lämpligt placerade företeelser.As will be described below, the sensor system for determining position and orientation uses three of the phenomena at a time. The robot always knows its position and the sensor's orientation and control system can therefore be programmed to select and use three phenomena suitably placed within the sensor's field of view in each position for each position determination.

Av lätt insedda skäl blir noggrannheten 1 lägesbestâmningen större ju när- mare robothanden företeelserna befinner sig. Det kan därför vara lämpligt att ha en uppsättning utvalda företeelser på så stort avstånd från roboten att de kan användas inom robotens hela arbetsområde och därutöver en ytter- ligare uppsättning som är så placerad så närasommöjligt intill den eller de arbetspunkter där hög noggrannhet krävs. ;_ Fig 2a visar principen för givaren 30 i fig 1. Givaren har en vid: vinkellins 300, t ex Canons fisheyeoptik 7,5 mm f/5,6, som är symmet- risk runt givarens axel 301. Linsen kan exempelvis vara approxima- tivt halvsfärisk och är så utformad att den har en så stor 458 427 6 ,i öppningsvinkel som möjligt. Företrädesvis bör öppningsvinkeln vara av stor- leksordningen 2! steradianer (ju större del av rymdvinkeln än som täcks, desto bättre). vinkelrätt mot axeln 301 är en bildupptagande yta 302 anord- nad (t ex en CCD-yta, ett exempel är Tektronix TK 2008). Linsen avbildar omvärlden på detektorn (= den bildupptagande ytan). Linsens brännvidd bör göras kort då detta dels medför den önskade stora öppningsvinkeln, dels ' en tillräckligt god fokusering för alla aktuella avstånd till de företeel- ser till vilka riktningar skall bestämmas. Då ändamålet med givaren är att få så stor noggrannhet som möjligt i bestämningen av riktningarna från giva- ren till företeelserna utföres linsen företrädesvis så att inkommande ljus- strålar med riktningarna O (i rig za) (mellan syftlinjen till företeelsen och den optiska axeln) avbildas så att vinkeln.9 står i ett approximativt linjärt förhållande till avståndet (pâ detektorytan) från optiska axeln till den punkt 31k på ytan varpå ljusstrålarna från företeelsen avbildas.For easily understood reasons, the accuracy of the position determination becomes greater the closer the robot hand is to the phenomena. It may therefore be appropriate to have a set of selected phenomena at such a great distance from the robot that they can be used within the robot's entire working area and in addition an additional set that is placed as close as possible to the work point or points where high accuracy is required. Fig. 2a shows the principle of the sensor 30 in Fig. 1. The sensor has a wide: angle lens 300, for example Canon's fisheye optics 7.5 mm f / 5.6, which is symmetrical about the axis 301 of the sensor. semi-spherical and is so designed that it has as large a 458 427 6, at an opening angle as possible. Preferably, the opening angle should be of the order of 2! steradians (the larger the part of the space angle than is covered, the better). perpendicular to the axis 301, an image-receiving surface 302 is arranged (eg a CCD surface, an example is Tektronix TK 2008). The lens images the outside world on the detector (= the image-receiving surface). The focal length of the lens should be made short as this partly leads to the desired large aperture angle, and partly a sufficiently good focus for all current distances to the phenomena to which directions are to be determined. Since the purpose of the sensor is to obtain as much accuracy as possible in determining the directions from the sensor to the phenomena, the lens is preferably designed so that incoming light beams with the directions 0 (in rig za) (between the line of sight of the phenomenon and the optical axis) are imaged. so that the angle står is in an approximately linear relationship to the distance (on the detector surface) from the optical axis to the point 31k on the surface at which the light rays from the phenomenon are imaged.

I fig 2b visas 1 blockschemaform givarsystemet 704, vilket har ett arrange- mang av visionsystem (bildbehandlingssystem) 706-708, av i och för sig känd typ, dessas överordnade styrsystem 703 och beräkningsenhet 702, vilket arrangemang används för att utvärdera inkommande bilder och generera den riktningsinformation som sedan är utgångspunkten för beräkningarna av giva- rens läge, .Fig. 2b shows in block diagram form the sensor system 704, which has an arrangement of vision systems (image processing systems) 706-708, of a type known per se, their superior control system 703 and calculation unit 702, which arrangement is used to evaluate incoming images and generate the direction information which is then the starting point for the calculations of the sensor's position,.

Givaren 30, bestående av bl a en vidvinkeloptik och en tvådimensionell CCD~yta (exempelvis TK 2038 från Tektroníx), ger ifrån sig en signal i form av en videosignal (med t ex linjeantal 2008 och ZOH8 punkter per linje).The sensor 30, consisting of, among other things, a wide-angle optics and a two-dimensional CCD surface (for example TK 2038 from Tektroníx), emits a signal in the form of a video signal (with, for example, the number of lines in 2008 and ZOH8 points per line).

Denna signal leds in till en enhet 701, vars funktion är att ta ut delbil- der ur den stora bilden. Detta sker genom att styrenhet 703 (på grundval av tidigare beräkningar) beordrar enhet 701 att ta ut de delbilder som har nedre vänstra hörnet i bildelementet med koordinaten.xi' , yi', för 1 = 1 t111 u.This signal is routed to a unit 701, whose function is to extract frames from the large image. This is done by control unit 703 (based on previous calculations) ordering unit 701 to take out the sub-pictures which have the lower left corner of the picture element with the coordinate.xi ', yi', for 1 = 1 t111 u.

(Antalet företeelser och visionsystem kan enligt uppfinningen variera, men för klarhets skull beskrivs den här med U stycken vision- system.) Utrustningar av typ 701 saluförs av ett flertal företag, bl a Colorado Video Incorporated (CVI).(The number of phenomena and vision systems can vary according to the invention, but for the sake of clarity it is described here with U pieces of vision systems.) Equipment of type 701 is marketed by several companies, including Colorado Video Incorporated (CVI).

En figur över hur dessa delbilder ligger i den stora bilden, vid ett spe- ciellt tillfälle, ses i fig Sa. Delbilderna är t ex 256 x 256 bildelement stora. Dessa delbilder leds till de fyra för ändamålet anordnade vision- systemen 705-708, vilka,när de laddats med var sin delbild, av styrenhet 703 startas för att bearbeta aktuell delbild med avseende på den före- teelse (fí; 506-509) styrorganet beordrat. Vid ett specifikt tillfälle, . 1 458 427 det i fig Sa, är företeelserna 506-509. Dessa företeelser har valts då de är inprogrammerade att väljas i Just detta tidsavsnitt. De positioner som styrenhet 703 beordrar enhet 701 att förlägga delbildernas nedre vänstra hörn till beror av dels företeelsens (fi) föregående position ( 1 hela bilden), vilken information erhålls från beräkningsenhet 702, dels av de lägen_§, Ä och hastigheter X, Å som beräkningsorganet 52 genererar. X, Z, Å, Å samt x och yi (1 = 1 till M) vägs i styrenhet 703 ihop så att före- i teelserna 506-509 vid nästa beräkning förutses komma mitt i var sin del- bild (delbild S01 till 50U i fig Sa, motsvarande i = 1 till U).A figure of how these sub-images lie in the big picture, on a special occasion, is seen in Fig. Sa. The sub-pictures are, for example, 256 x 256 pixels large. These sub-pictures are led to the four vision systems 705-708 arranged for the purpose, which, when loaded with their respective sub-picture, are started by control unit 703 to process the current sub-picture with respect to the object (fí; 506-509) the control means. ordered. At a specific time,. 1 458 427 that in Fig. 5a, the phenomena are 506-509. These phenomena have been chosen as they are programmed to be selected in this particular time section. The positions that control unit 703 commands unit 701 to locate the lower left corner of the sub-pictures depend partly on the previous position of the phenomenon (fi) (1 the whole picture), which information is obtained from calculation unit 702, and partly on the positions_§, Ä and speeds X, Å the calculating means 52 generates. X, Z, Å, Å and x and yi (1 = 1 to M) are weighed together in control unit 703 so that the objects 506-509 in the next calculation are predicted to come in the middle of each sub-picture (sub-picture S01 to 50U in Fig. Sa, corresponding to i = 1 to U).

Beräkningsenhet 702 räknar ut företeelsernas läge i den totala bilden xí = xi' + xí“, yi = yi' + yi", i = 1 till H. Delbildernas lägen xi', yi' får enheten 702 från styrenhet 703 och företeelsernas lägen i respektive delbild Xi", yi" erhåller den från respektive visionsystem (705-708).Calculation unit 702 calculates the position of the phenomena in the total picture xí = xi '+ xí ", yi = yi' + yi", i = 1 to H. The positions of the sub-pictures xi ', yi' are obtained by the unit 702 from control unit 703 and the positions of the phenomena in the respective sub-image Xi ", yi" receives it from the respective vision system (705-708).

Samtliga enheter (30, 701-708) klockas av enhet 703 dessutom. Enhet 703 gör detta i med enhet 50 (se fig 3) samordnad takt, signal cl ser till att en gemensam takt hålles.All units (30, 701-708) are clocked by unit 703 as well. Unit 703 does this at a rate coordinated with unit 50 (see Fig. 3), signal c1 ensures that a common rate is maintained.

Anordnas utgångarna från enhet 701 till visionsystemen på standardmässigt videosnitt för 256 x 256 bildelementsbilder och styrsignalerna (med informa- tion om aktuell företeelse att utvärdera bilden med avseende på, samt start/ /stopp och annan samordningsinformation) från styrenhet 703, och informations- vägarna från resp visionsystem till beräkningsenhet 702, gem RS 232 kommuni- kationskanaler (9600 baud, ADLP10 protokoll) kan ett ASEA's visionsystem IVR 2600 EIII användas, som varje enhet 705-708, utan nämnvärda föränd- ringar. Ovan beskrivna funktion benämns i det fortsatta som givarsystemet 703.Arranges the outputs from unit 701 to the vision systems on standard video footage for 256 x 256 pixel images and the control signals (with information about the current phenomenon to evaluate the image with respect to, as well as start / / stop and other coordination information) from control unit 703, and the information paths from or vision system for calculation unit 702, gem RS 232 communication channels (9600 baud, ADLP10 protocol) an ASEA's vision system IVR 2600 EIII can be used, as each unit 705-708, without significant changes. The function described above is hereinafter referred to as the sensor system 703.

Styrenhet 703 samt beräkningsenhet 702 kan utföras med specialbyggda kret- sar enligt kända principer. Alternativt kan de utgöras av en på lämpligt sätt programmerad (mikro)dator.Control unit 703 and calculation unit 702 can be designed with specially built circuits according to known principles. Alternatively, they may be a suitably programmed (micro) computer.

Vid byte av företeelse fi till en annan styrs detta av en från enhet 51 kommande “signal (F), denna signal innehåller även information om var i-.den stora bilden denna företeelse kan förväntas finnas. Enhet 703 ser till att detta byte av företeelse sker.When changing phenomenon fi to another, this is controlled by a signal (F) coming from unit 51, this signal also contains information about where in the big picture this phenomenon can be expected to be. Unit 703 ensures that this change of phenomenon takes place.

Figur 3 visar ett blockschema över lägesgivarutrustningen, där givarsyste- met 70ü beskrivs som ett block. En styrenhet 50 avger klockpulser och 458 427 eventuellt för samordning och synkronisering ytterligare nödvändig informa- tion till utrustningens övriga enheter. Denna information är i figuren betecknad med cl. Givarsystemet TOM är utfört enligt figur 2b och avger signaler xí och yi till enheterna 51 och 52. Enheten 52 är en beräknings- enhet som med hjälp av signalerna xi och yi samt lagrade data om bl a företeelsernas lägen beräknar information som definierar robothandens läge Ä och orientering Å. Beräkningsenheten 52 bestämmer även genom derivering av vektorerna Ä och §_hastighetsvektorerna Å och Å, Dessa fyra vektorer eller signaler tillförs robotens styrsystem för styrning av robotens rör- else. Styrenhet 51 mottager information Ä och šßom robothandens läge och orientering samt information xi och yi om läget av företeelsernas avbilder . på detektorn. I beroende av denna information utväljer styrenhet 51 lämplig uppsättning företeelser (ur den mängd företeelser som vid programmeringen angivits) för de fortsatta beräkningarna och skickar denna information till dels enhet 52, signal i, (så att den vet vilka företeelser som-använts), dels till enhet 7GB för verkställighet (signal F). I signalen till enhet YOU bifogas bl a företeelsens troliga läge i den stora bilden.Figure 3 shows a block diagram of the position sensor equipment, where the sensor system 70ü is described as a block. A control unit 50 emits clock pulses and 458,427, possibly for coordination and synchronization, additional information necessary for the other units of the equipment. This information is in the figure denoted by cl. The sensor system TOM is designed according to figure 2b and emits signals xí and yi to the units 51 and 52. The unit 52 is a calculation unit which, with the aid of the signals xi and yi and stored data on, among other things, the positions of the objects, calculates information defining the robot hand position Ä and orientation Å. The calculation unit 52 also determines by deriving the vectors Ä and §_the velocity vectors Å and Å. These four vectors or signals are supplied to the robot's control system for controlling the robot's movement. Control unit 51 receives information Ä and šß about the position and orientation of the robot hand as well as information xi and yi about the position of the images of the phenomena. on the detector. Depending on this information, control unit 51 selects the appropriate set of phenomena (from the number of phenomena specified in the programming) for the further calculations and sends this information partly to unit 52, signal i, (so that it knows which phenomena have been used), partly to 7GB device for enforcement (signal F). The signal to unit YOU includes the probable location of the phenomenon in the big picture.

Enhet 70U kan utföras på det i fig 2b visade sättet. Enhet SD kan utgöras av en enkel klockpulsosoillator eller av en på lämpligt sätt programmerad mikrodator. Enheten 51 kan utgöras av en specialbyggd logisk koppling eller en mikrodator. Beräkningsenhet 52, som skall utföra de nedan i samband med fig 7 beskrivna beräkningsoperationerna, kan på i och för sig känt sätt bestå av digitala eller analoga kretsar eller av en på lämpligt sätt pro- grammerad mikrodator.Unit 70U can be made in the manner shown in Fig. 2b. Unit SD can consist of a simple clock pulse oscillator or of a suitably programmed microcomputer. The unit 51 can consist of a specially built logic connection or a microcomputer. Calculation unit 52, which is to perform the calculation operations described below in connection with Fig. 7, may in a manner known per se consist of digital or analog circuits or of a suitably programmed microcomputer.

Vid programmeringen (upplärningen) av systemet skall visionsystemen på känt sätt (beskrivet i manualen för visionsystemen) läras att igenkänna förekommande företeelser. Detta görs lämpligen med ett av visionssystemen, varefter de övriga visionsystemen får informationen via de i visionsyste- men inbyggda massminnena alternativt via t ex en RS 232-länk. De mot varje företeelse svarande koordinaterna i omgivande koordinatsystem lagras i enhet 52 och 51 i en mot ordningen av företeelserna svarande ordning.When programming (learning) the system, the vision systems must be taught in a known way (described in the manual for the vision systems) to recognize existing phenomena. This is suitably done with one of the vision systems, after which the other vision systems receive the information via the mass memories built into the vision systems or via, for example, an RS 232 link. The coordinates corresponding to each phenomenon in surrounding coordinate systems are stored in units 52 and 51 in an order corresponding to the order of the phenomena.

Vid uppstart av systemet vet ingen enhet i systemet vilka företeelser som finns i synfältet eller var de eventuellt finns. Vid uppstart sköter enhet 703 om, innan den ger klarsignal på sígnalledning cl, att hela stora bilden scannas av och utvärderas m a p samtliga troligen förekommande före- teelser. Denna sekvens är förprogrammerad antingen med logiska kretsar 9 458 427 eller som ett lämpligt utfört program i en mikrodator. Den stora bilden avsöks i radled med steg om t ex halva bildfältets storlek (t ex 128) och likaså i kolumnled, detta för att få maximal möjlighet att hitta samtliga företeelser. När företeelserna hittas matas information som identifierar de funna företeelserna samt deras lägen via signalkanal F upp till enhet 51, som när samtliga i bilden förekommande företeelser hittats bestämmer vilka företeelser som initialt skall användas och sänder detta till dels enhet 52 och dels enhet 7OU.When starting up the system, no unit in the system knows which phenomena are in the field of view or where they may be. At start-up, unit 703 ensures, before giving a clear signal on signal line cl, that the entire large image is scanned and evaluated for all probable phenomena. This sequence is pre-programmed either with logic circuits 9 458 427 or as a suitably executed program in a microcomputer. The large image is scanned in rows with steps of, for example, half the size of the image field (eg 128) and also in columns, in order to have the maximum opportunity to find all phenomena. When the phenomena are found, information is identified which identifies the phenomena found and their locations via signal channel F up to unit 51, which when all phenomena present in the image are found determines which phenomena are initially to be used and sends this to unit 52 and unit 7OU.

I fig 2a är de vid beräkningarna använda koordinatsystemen utsatta. Med hjälp av information från ovan beskrivna visionsystem och från enheterna 701 och 703 erhålls från beräkningsenheten 702 för varje företeelse ett par signaler xí, yi (företrädesvis digitala) som är ett mått på läget av före- teelsens avbildning i den totala bilden. Dessa signaler är typiskt avstånd på detektorytan dels i x-led från axeln 301, dels i y-led från axeln 301.In Fig. 2a, the coordinate systems used in the calculations are exposed. Using information from the vision systems described above and from the units 701 and 703, a pair of signals x1, yi (preferably digital) are obtained from the calculation unit 702 for each phenomenon, which is a measure of the position of the phenomenon's image in the overall picture. These signals are typically spaced on the detector surface partly in the x-direction from the axis 301 and partly in the y-direction from the axis 301.

Med hjälp av signalerna x och y kan, som nedan närmare skall beskrivas, företeelsens avbildning på detektorytan i polära koordinater a, p bestäm- mas. Ur dessa koordinater erhålles sedan de sfäriska koordinater q, 6 (med avseende på ett origo som ligger sträckan R över detektorn) som definierar riktningen hos syftlinjen 313 till den aktuella företeelsen.With the aid of the signals x and y, as will be described in more detail below, the image of the phenomenon on the detector surface in polar coordinates a, p can be determined. From these coordinates are then obtained the spherical coordinates q, 6 (with respect to an origin which lies the distance R above the detector) which defines the direction of the aiming line 313 to the current phenomenon.

Olinearitet 1 givaren m m kan ge upphov till felaktig riktningsinformation, varför den tvådimensíonella koordinaten x, y från utvärderingssystemet eventuellt måste genomgå en korrigeringsprocess. Denna kan bestå i att på förhand på annat, och mer lineärt, sätt varierande och uppmätta vinklar och vid samma tillfälle med givaren uppmätta koordinater lagrats på ett sådant sätt att korrektion av de av givaren avgivna värdena (kontinuerligt) kan ske.Nonlinearity 1 of the sensor, etc. can give rise to incorrect directional information, so the two-dimensional coordinate x, y from the evaluation system may have to undergo a correction process. This can consist of storing in advance in another, and more linear, manner varying and measured angles and at the same time with the sensor measured coordinates in such a way that correction of the values given by the sensor (continuously) can take place.

Eventuellt kan enhet 703 och enhet 50 utföras som en enhet. Eventuellt kan även enhet 702 och enhet 52 utföras som en enhet. Även enhet 51 och 703 kan utföras som en enhet.Optionally, unit 703 and unit 50 may be embodied as one unit. Optionally, unit 702 and unit 52 can also be designed as one unit. Units 51 and 703 can also be designed as one unit.

Fig H visar hur lägesgívarutrustningen enligt uppfinningen är ansluten till robotens styrsystem. Givarsystemet YOU avger signalerna x, y till beräkningsenheten 52, vilken i sin tur beräknar en vektor Ä som defini- erar robothandens läge. Denna signal tillförs en komparator 53. Till en andra ingång på komparatorn matas lägesbörvärden X0 från robotens program- verk 58 i lämplig takt. Från komparatorn erhålles i varje ögonblick en signalllš som definierar lägesavvikelsen hos robothanden. Denna läges- 458 427 10 avvikelse tillförs en s k axeluppdelare 54, i vilken avvikelsen transfor- meras till robotens koordinatsystem, dvs delas upp på ett fel i var och en _ av robotens axlar. Axeluppdelaren 54 har alltså en utgång för var och en av robotens axlar. I figuren är endast utsignalen - Ar1 - för axeln 1 visad.Fig. H shows how the position sensor equipment according to the invention is connected to the robot's control system. The sensor system YOU outputs the signals x, y to the calculation unit 52, which in turn calculates a vector Ä which defines the position of the robot hand. This signal is applied to a comparator 53. To a second input on the comparator, position setpoints X0 are fed from the robot's software 58 at a suitable rate. From the comparator, a signal is obtained at each moment which defines the position deviation of the robot hand. This position deviation is applied to a so-called shaft divider 54, in which the deviation is transformed into the coordinate system of the robot, ie divided on a fault in each of the axes of the robot. The shaft divider 54 thus has an output for each of the robot's shafts. In the figure, only the output signal - Ar1 - for axis 1 is shown.

Denna signal tillförs axelns 1 regulator 56. Från enheten 52 erhålles även en vektor Å som definierar den momentana hastigheten hos robothanden. I enheten 55 jämförs denna hastighet med ett börvärde io för hastigheten.This signal is applied to the regulator 56 of the shaft 1. From the unit 52 a vector Å is also obtained which defines the instantaneous speed of the robot hand. In unit 55 this speed is compared with a setpoint io for the speed.

Skillnaden mellan de båda värden som tillförs enheten 55 uppdelas därefter på robotens olika axlar, dvs transformeras över till robotens koordinat- system. Enheten 55 har en utgång för var och en av robotaxlarna, men endast utsignalen Ar1 för axeln 1 är visad i figuren. Denna signal till- förs axelns 1 regulator 56. Regulatorn 56 styr på i och för sig känt sätt enheten 57, som innehåller effektförstärkare och drivmotor för axeln 1.The difference between the two values supplied to the unit 55 is then divided on the different axes of the robot, ie transformed over to the coordinate system of the robot. The unit 55 has an output for each of the robot shafts, but only the output signal Ar1 for the shaft 1 is shown in the figure. This signal is applied to the regulator 56 of the shaft 1. The regulator 56 controls the unit 57, which contains a power amplifier and drive motor for the shaft 1, in a manner known per se.

Utsignalen från drivenheten 57 utgörs alltså av en vridning hos robotens axel 1, och denna vridning - i figuren betecknad med 71 - påverkar i sin tur läget och orienteringen hos robothanden och givaren 30. Med hjälp av det i fig H visade systemet kommer alltså roboten att styras så att givaren 30 följer den bana som bestäms av de successivt frammatade lägesbörvärdena från programenheten 58.The output signal from the drive unit 57 thus consists of a rotation of the robot's axis 1, and this rotation - in the figure denoted by 71 - in turn affects the position and orientation of the robot hand and the sensor 30. With the aid of the system shown in Fig. H, the robot will controlled so that the sensor 30 follows the path determined by the successively fed position setpoints from the program unit 58.

I fig U har för enkelhets skull endast lägesbestämningen och -regleringen visats. Reglering av robothandens orientering kan göras på motsvarande sätt 1 beroende av den information om den verkliga orienteringen §_som erhålles från beräkningsenheten 52 och av börvärden för orienteringen, vilka matas fram av programverket 58.In Fig. U, for the sake of simplicity, only the position determination and control have been shown. Adjustment of the orientation of the robot hand can be made in a corresponding manner 1 depending on the information about the actual orientation §_ obtained from the calculation unit 52 and on setpoints for the orientation, which are fed by the software 58.

Pig Sa visar hela bildens omfång och delbíldernas läge vid en viss tid- punkt. Antalet bildelement m-n kan vara t ex 2048x20Ä8 och bestäms av detektorns 302 utförande. Delbilderna 501-504 kan ha samma storlek eller vara olika stora. En delbild kan t ex bestå av 256x256 bildelement. An- talet delbilder kan vara såväl mindre än som större än U. Konturlinjen 505 hos ett utvalt föremål har fyra karakteristiska punkter, vilka utgör de ovannämnda företeelser som används vid lägesbestämningen. Hörnet 509, spetsen nos hacket 508, centrum hos hålet 507 och centrum hos den rundade tungan 506 utgör dessa företeelser. Deras lägen i delbilderna bestäms av visionsystemen på känt sätt, och eftersom varje delbilds läge i helhets- bilden är känt är därmed företeelsernas lägen i bilden kända. v 458 427 11 ' Pig Bb visar några av de beteckningar, som används vid de beräkningar som utförs av beräkningsenheten 52. Figuren visar schematiskt ytan hos detek- torn 302 i fig 2, sedd uppifrån. Detektorns rätvinkliga koordinatsystem x, y är markerat, liksom de polära koordinaterna u, p för var och en av de tre företeelserna a, b, c.Pig Sa shows the full range of images and the position of the sub-pictures at a given time. The number of pixels m-n can be, for example, 2048x20Ä8 and is determined by the design of the detector 302. The frames 501-504 can have the same size or be different sizes. A sub-picture can, for example, consist of 256x256 picture elements. The number of fields can be both smaller than or larger than U. The contour line 505 of a selected object has four characteristic points, which constitute the above-mentioned phenomena used in the position determination. The corner 509, the tip of the nose notch 508, the center of the hole 507 and the center of the rounded tongue 506 constitute these phenomena. Their positions in the sub-pictures are determined by the vision systems in a known manner, and since the position of each sub-picture in the overall picture is known, the positions of the phenomena in the picture are thus known. Fig. 45b shows some of the designations used in the calculations performed by the calculation unit 52. The figure schematically shows the surface of the detector 302 in Fig. 2, seen from above. The detector's right-angled coordinate system x, y is marked, as are the polar coordinates u, p for each of the three phenomena a, b, c.

Pig 6 visar de tre företeelserna a, b och c, vilka i ett visst tidsav- snitt används för läges/crienteringsbestämningen. Vektorerna Ä, É1 och §2 definierar läget hos givaren 30, företeelsen b respektive företeelsen c i förhållande till företeelse a. Vektorn_§3 är vektorprodukten av vekto- rerna B och B . Vektorerna P , P och P definierar företeelsernas a, b -4 -2 -a -B -c och e läge i det koordinatsystem där företeelsernas lägen är definierade.Fig. 6 shows the three phenomena a, b and c, which in a certain time section are used for the position / orientation determination. The vectors Ä, É1 and §2 define the position of the sensor 30, the phenomenon b and the phenomenon c, respectively, in relation to phenomenon a. The vector_§3 is the vector product of the vectors B and B. The vectors P, P and P define the positions of the phenomena a, b -4 -2 -a -B -c and e in the coordinate system where the positions of the phenomena are defined.

Vektorn Ä betecknar givarens 30 läge i samma koordinatsystem.The vector Ä denotes the position of the sensor 30 in the same coordinate system.

Beräkníngsenhetens S2 funktion skall nu närmare beskrivas i anslutning till fig 7. Denna enhet kan utföras med specialbyggda kretsar för lösning enligt kända principer av de nedan angivna sambanden. Alternativt kan den utgöras av en på lämpligt sätt programmerbar (mikro)dator. För överskåd- lighets skull antas det senare vara fallet, och fig 7 visar ett flödes- schema för beräkningsgângen hos en sådan (mikro)dator.The function of the calculation unit S2 will now be described in more detail in connection with Fig. 7. This unit can be designed with specially built circuits for solution according to known principles of the relationships given below. Alternatively, it may be a suitably programmable (micro) computer. For the sake of clarity, the latter is assumed to be the case, and Fig. 7 shows a flow chart for the calculation process of such a (micro) computer.

De tre vid varje beräkning använda företeelserna ger upphov till tre par av sammanhörande x-y-värden på ytan av detektorn 302. Vilka riktningar i rummet som motsvaras av dessa x-y-värden beror delvis på utförandet av givaroptiken. I fortsättningen antas för enkelhets skull att R i fig 2 är konstant (oberoende av 6). Detta behöver dock ej vara fallet, men beräkningarna blir något mer komplexa om så inte skulle vara fallet.The three phenomena used in each calculation give rise to three pairs of related x-y values on the surface of the detector 302. Which directions in space correspond to these x-y values depends in part on the design of the sensor optics. In the following, for simplicity, it is assumed that R in Fig. 2 is constant (independent of 6). However, this need not be the case, but the calculations will be somewhat more complex if this were not the case.

R(9) är nämligen ingen obekant storhet utan endast en ytterligare para- meter att ta hänsyn till vid beräkningarna.Namely, R (9) is not an unknown quantity but only an additional parameter to take into account in the calculations.

Vid beräkningens början erhåller beräkningsenheten information från styr- enheten 51 om vilka tre företeelser som används vid beräkningen. Dessa företeelser betecknas med a, b, c. En företeelses "i" avbildning på detektorytan har i dennas koordinatsystem läget xi,yi. Avbildningens läge i polära koordinater ges av följande ekvationer: d) |l 458 427 12 Q u V1 arctan (T) + (1 - P1 = “ X1: *yiz Ur dessa polära koordinater erhålles sedan de sfäriska koordinaterna för syftlinjen till företeelsen ur ekvationerna: Qi : Gi N01) Funktionen H01) beror av optiken och kan en gång för alla uppmätas och lag- ras i beräkningsenheten. Optiken bör dock vara så utformad att funktionen är rnonoton i det aktuella intervallet. Härefter beräknas vinklarna TI, 'P2 och T3 mellan de tre syftlinjerna från givaren till företeelser-na med hjälp av följande ekvationer: c1gwa-wb Czzq) -qaa-o-Z! C3zcpb-qzc sin 9 a T1 _ arcsin (sinC1) C 6 _9 c e _e ( _1) . a b _1_ a cot sin (cot 2 ) cos 2 arctan eggb + arctan ea +9b sin 2 cos 2 sin 6 "- c TE _ arcsín (sinCz) C e __e C a _e 2 . c a 2 c (cot -) sin (cot -2- ) cos» 2 arctan ec+ea + arctan ec+ea sin 2 cos 2 458 427 13 sin Bb -I T3 = arcsin (sinC3) G3 e _96 63 e _60 (cot -Z-A) sin (cot -2- ) cos 2 arctan + arctan _ b c b c sin 2 cos 2 Flödesschemats fyra första rutor har nu behandlats. I det femte steget bildas funktionerna Gi(A) enligt: zon y + 2 2 . 2 + J] G(A) _ (cosT )(AcosT2 - bz-A sin T2) - b3 3 f - [AcosT t Jgz-A2sin2T J 1 1 1 (Acosrzï bâ-A2s1n2T2)2(s1n2tr3) - där bl är avståndet mellan företeelserna a och b be är avståndet mellan företeelserna a och c b3 är avståndet mellan företeelserna c och b Denna funktion är egentligen åtta olika funktioner, en för var och en av de åtta kombinationerna av tecken vid de tre ställen i uttrycket där antingen ett plus- eller minustecken kan förekomma (tecknet framför uttrycket I bg - A2sin2T2 har alltid samma värde på de båda ställen där uttrycket före- kommer). Dessa funktioner betecknas i flödesschemats femte ruta med Gi(A), där i = 1 ... 8. För var och en av dessa funktioner bestämmes nollställen 1 de delar av funktionen, där var och en av funktionens båda termer liksom AcosT2 É Jb: - A2sin2T2 är så väl reell (betecknas med J“ 2 0 i flödessche- mats sjätte ruta) som positiv (betecknas med [ 1 Z 0 i flödesschemats sjätte ruta). I nästa ruta undersöks hur många nollställen som totalt har erhållits. Om endast ett nollställe har erhållits går beräkningsprogrammet vidare till den med B, C betecknade rutan i flödesschemat. Om mer än ett nollställe har erhållits väljs i nästa punkt av beräkningsschemat de noll- ställen bort där A jämfört med föregående beräkningar skulle medföra en orealistiskt hög hastighet hos roboten. Om efter denna kontroll endast ätt nollställe återstår går beräkningsprogrammet vidare till rutan B, C. Om fortfarande flera nollställen återstår och om den aktuella passagen genom flödesschemat är den första passagen utväljs en ny grupp av tre företeelser, i flödesschemat betecknade med a, b, d. Om så är fallet görs den ovan beskrivna beräkningen om från början för den nya gruppen av företeelser.At the beginning of the calculation, the calculation unit receives information from the control unit 51 about which three phenomena are used in the calculation. These phenomena are denoted by a, b, c. An "i" image of a phenomenon on the detector surface has in its coordinate system the position xi, yi. The position of the image in polar coordinates is given by the following equations: d) | l 458 427 12 Q u V1 arctan (T) + (1 - P1 = “X1: * yiz From these polar coordinates are then obtained the spherical coordinates of the line of sight to the phenomenon from the equations : Qi: Gi N01) The function H01) depends on the optics and can be measured and stored in the calculation unit once and for all. However, the optics should be designed so that the function is monotonous in the current range. Hereinafter, the angles T1, '22 and T3 between the three aim lines from the sensor to the phenomena are calculated by means of the following equations: c1gwa-wb Czzq) -qaa-o-Z! C3zcpb-qzc sin 9 a T1 _ arcsin (sinC1) C 6 _9 c e _e (_1). ab _1_ a cot sin (cot 2) cos 2 arctan eggb + arctan ea + 9b sin 2 cos 2 sin 6 "- c TE _ arcsín (sinCz) C e __e C a _e 2. ca 2 c (cot -) sin ( cot -2-) cos »2 arctan ec + ea + arctan ec + ea sin 2 cos 2 458 427 13 sin Bb -I T3 = arcsin (sinC3) G3 e _96 63 e _60 (cot -ZA) sin (cot -2 -) cos 2 arctan + arctan _ bcbc sin 2 cos 2 The first four squares of the flow chart have now been processed, in the fifth step the functions Gi (A) are formed according to: zone y + 2 2. 2 + J] G (A) _ (cosT ) (AcosT2 - bz-A sin T2) - b3 3 f - [AcosT t Jgz-A2sin2T J 1 1 1 (Acosrzï bâ-A2s1n2T2) 2 (s1n2tr3) - where bl is the distance between phenomena a and b be is the distance between phenomena a and c b3 is the distance between the phenomena c and b This function is actually eight different functions, one for each of the eight combinations of characters at the three places in the expression where either a plus or minus sign can occur (the character in front of the expression I bg - A2sin2T2 always has the same value in the two places where the expression fö re- comes). These functions are denoted in the fifth box of the flow chart by Gi (A), where i = 1 ... 8. For each of these functions, zeros 1 are determined in those parts of the function, where each of the two terms of the function as well as AcosT2 É Jb: - A2sin2T2 is both real (denoted by J “2 0 in the sixth box of the flow chart) and positive (denoted by [1 Z 0 in the sixth box of the flow chart). The next box examines how many zeros have been obtained in total. If only one zero has been obtained, the calculation program proceeds to the box marked B, C in the flow chart. If more than one zero point has been obtained, in the next point of the calculation scheme the zero points are selected where A compared with previous calculations would result in an unrealistically high speed of the robot. If after this check only one zero point remains, the calculation program proceeds to box B, C. If there are still several zeros left and if the current passage through the flow chart is the first passage, a new group of three phenomena is selected, in the flow chart denoted by a, b, d If so, the above-described calculation is performed from the beginning for the new group of phenomena.

Därefter utföres den nedan beskrivna lägesbestämningen för båda uppsätt- _'4ss 427 lä ningarna av företeelser, varefter den lösning väljes som ger en gemensam position. Om den aktuella passagen genom beräkningsschemat inte är den första passagen har enligt ovanstående beskrivning beräkning av noll- ställen gjorts för tvâ uppsättningar av företeelser, beräkningen går vidare enligt nedanstående beskrivning och till slut den lösning utväljes som ger ett gemensamt läge för de båda uppsättningarna av företeelser.Thereafter, the position determination is described below for both sets of phenomena, after which the solution which gives a common position is selected. If the current passage through the calculation scheme is not the first passage, according to the above description, calculation of zeros has been made for two sets of phenomena, the calculation proceeds according to the description below and finally the solution is selected that gives a common position for the two sets of phenomena. .

Enligt nästa steg i beräkningen, betecknat med B, nas först uttrycken: C i flödesschemat, teck- A + bï - 52 n I BPCCOS znobï A + bg - ca Y = aPCCÖS znobz bf + så _ på E : QFCCOS 2b1u2 där Ao är det värde på A där funktionen G(A) = 0 och B respektive C gives av uttrycken: + 12 2 . 2 B = A0cosT1 - b1 - Aosin T1 -r/Z .2 C = A0cosT2 - bz - Aosin lå där de dubbeltydiga tecknen i uttrycken för B och C väljes som tecknen i mot- svarande uttryck i den ekvation Gi(A) som gav det aktuella nollstället. Här- efter bildas storheterna s och k enligt: _n+'1-.+= S - '~. 2 k _ /sin(s-Y)sin(s-nlsin(S-E) ' sin s samt storheterna u och 6 enligt_uttrycken: 458 427 15 u = 2 arctan šïaïšïçï 6 = arcsin (sina sinn) varvid om x > än å-lösningen 6 > å väljes och om x 5 å lösningen 6 i š-väljes.According to the next step in the calculation, denoted by B, the expressions are first: C in the flow chart, sign- A + bï - 52 n I BPCCOS znobï A + bg - ca Y = aPCCÖS znobz bf + so _ on E: QFCCOS 2b1u2 where Ao is the value of A where the function G (A) = 0 and B and C respectively are given by the expressions: + 12 2. 2 B = A0cosT1 - b1 - Aosin T1 -r / Z .2 C = A0cosT2 - bz - Aosin was where the ambiguous characters in the expressions for B and C are selected as the characters in the corresponding expression in the equation Gi (A) which gave the current zero. After this, the quantities s and k are formed according to: _n + '1 -. + = S -' ~. 2 k _ / sin (sY) sin (s-nlsin (SE) 'sin s and the quantities u and 6 according to the_expressions: 458 427 15 u = 2 arctan šïaïšïçï 6 = arcsin (his senses) whereby if x> than the å solution 6 > å is selected and if x 5 å the solution 6 i š is selected.

Som framgår av fig 6 ges riktningen från företeelsen a till b av vektorn É4 och från företeelsen a till c av vektorn ga. Riktningen från företeelsen a till givaren 30 betecknas med enhetsvektorn A. Vektorn B3 utgör vektorprodukten av vektorerna Éh och §2. Vektorn §_kan nu lösas ur följande ekvatíonssystem: B1x B1y B12 AX cosn B B A co Y 32x 2y Zz y = S B -ö 3x B3y B32 AZ cos(l ) Gívarens 30 läge, vilket betecknas av vektorn Ä erhålles härefte; ur: æ=ß -w o få Givarens 30 läge har nu bestämts.As can be seen from Fig. 6, the direction from the phenomenon a to b is given by the vector É4 and from the phenomenon a to c by the vector ga. The direction from the phenomenon a to the sensor 30 is denoted by the unit vector A. The vector B3 constitutes the vector product of the vectors Éh and §2. The vector §_can now be solved from the following equation system: B1x B1y B12 AX cosn B B A co Y 32x 2y Zz y = S B -ö 3x B3y B32 AZ cos (l) The position of the sensor 30, which is denoted by the vector Ä is obtained here; ur: æ = ß -w o få The sensor's 30 position has now been determined.

Härefter bestäms givarens orientering genom att följande vektorer bildas: Éa'š Z = "° lïa-šl Z=gb-š '° lïršl z ---_-B°-' fire-Ål Härefter erhålles komponenterna na, nb och nc hos normalvektorn till givaren detektoryta 302 ur ekvationssystemet: / Z Z Z n cos9 ax ay az a a Zbx Zby Zbz nb = cosßb Zcx Zcy Zcz nc cosßc 458 427 w Givarens vridningsvinkel a runt denna normal till ytan erhålles till slut direkt ur någondera av aa, ab och oc.Then the orientation of the sensor is determined by forming the following vectors: Éa'š Z = "° lïa-šl Z = gb-š '° lïršl z ---_- B ° -' fire-Ål Hereinafter, the components na, nb and nc of the normal vector to the sensor detector surface 302 from the system of equations: / ZZZ n cos9 ax ay az aa Zbx Zby Zbz nb = cosßb Zcx Zcy Zcz nc cosßc 458 427 .

Om så är erforderligt erhålles därefter robothandens translations- och vridningshastighet med hjälp av differentiering av signalerna Ä och'Zr Ovan har beskrivits hur givaranordningen enligt uppfinningen användes både för läges- och orienteringsbestämning, men givetvis kan utrustningen enbart användas för lägesbestämning eller orienteringsbestâmning.If necessary, the translation and rotation speed of the robot hand is then obtained by means of differentiation of the signals Ä and Zr. It has been described above how the sensor device according to the invention is used for both position and orientation determination, but of course the equipment can only be used for position determination or orientation determination.

I fig 1har för enkelhets skull en industrirobot med endast fyra axlar visats, men givetvis är uppfinningen lika tillämplig även vid robotar med ett annat antal frihetsgrader. Uppfinningen ger vidare samma fördelar även vid andra arbetsorgan än det i fig 1 visade gripdonet, t ex svets- utrustningar, bearbetningsverktyg, montageverktyg etc.In Fig. 1, for the sake of simplicity, an industrial robot with only four axes has been shown, but of course the invention is equally applicable to robots with a different number of degrees of freedom. The invention furthermore provides the same advantages also with other working means than the gripper shown in Fig. 1, for example welding equipment, machining tools, assembly tools, etc.

Självfallet är det så att företeelsernas lägen enbart behöver vara kända relativt den arbetspunkt dit man önskar att roboten skall röra sig. Om arbetspunkten för roboten befinner sig på ett rörligt föremål specifice- ras med fördel företeelser fast på detta, varigenom automatisk följning-' av föremålet erhålles. I detta fall torde det dock ofta vara lämpligt att även ha ett antal företeelser specificerade i ett fast koordinatsystem så att kontroll hela tiden erhålles på robotens läge relativt ett fast koordinatsystem (så att systemet inte driver iväg). Växlingen mellan dessa tvâ system kan ske kontinuerligt, och styrsystemet kan exempelvis samtidigt hålla reda på robotens läge i bägge systemen men enbart styra robotens rörelse med hjälp av det ena systemet, företrädesvis då det som ger den största noggrannheten (om detta är möjligt).Of course, the positions of the phenomena only need to be known relative to the working point where one wishes the robot to move. If the operating point of the robot is on a moving object, phenomena fixed on this are advantageously specified, whereby automatic tracking of the object is obtained. In this case, however, it should often be appropriate to also have a number of phenomena specified in a fixed coordinate system so that control is always obtained at the position of the robot relative to a fixed coordinate system (so that the system does not drift away). The switching between these two systems can take place continuously, and the control system can, for example, simultaneously keep track of the robot's position in both systems but only control the robot's movement by means of one system, preferably the one that provides the greatest accuracy (if possible).

För att utvärdera tillräckligt antal delbilder är självfallet en möjlig- het attutrusta givarsystemet 704 med ett tillräckligt antal extra vision- system för att klara utvärderingen av fler än en uppsättning företeelser.In order to evaluate a sufficient number of sub-pictures, it is of course possible to equip the sensor system 704 with a sufficient number of additional vision systems to cope with the evaluation of more than one set of phenomena.

En annan möjlighet är att på lämpligt sätt, och styrt från styrorganen 703 och/eller=51, samordna utvärderingen till ett färre antal visionsystem.; Beräknings- och/eller styrorgan 703, 51 kan naturligtvis antingen delas mellan de olika uppsättningarna av vision och beräkningssystem eller vara mer eller mindre separerade. Även enhet 701 kan naturligtvis an- tingen delas eller flerfaldigas. 11 458 .427 Vid val av företeelser bör enligt kända geometriska principer för att ernå högsta möjliga noggrannhet dessa väljas så att, när roboten befinner sig i sitt önskade arbetsområde, syftlinjerna mellan givaren och de använda före- teelserna bildar vinklar med varandra som inte är alltför små. Optimalt ur noggrannhetssynpunkt är då de bildar vinklar mellan varandra som är ca 900.Another possibility is to appropriately, and controlled from the control means 703 and / or = 51, coordinate the evaluation to a smaller number of vision systems .; Calculation and / or control means 703, 51 can of course either be divided between the different sets of vision and calculation systems or be more or less separated. Unit 701 can of course also be either divided or multiplied. 11 458 .427 When selecting phenomena, according to known geometric principles, in order to achieve the highest possible accuracy, these should be chosen so that, when the robot is in its desired working range, the aiming lines between the sensor and the phenomena used form angles with each other that are not too great. small. Optimal from an accuracy point of view is when they form angles between each other that are about 900.

Uppfinningen har ovan beskrivits i anslutning till en utrustning som arbetar med optisk strålning. Det är därvid självklart att den använda strålningen kan ligga såväl inom som utanför det synliga våglängdsbandet. En utrustning enligt uppfinningen kan emellertid anordnas att arbeta även med andra sig- naler än ljus. Ultraljud och mikrovågor är exempel på sådana signaler.The invention has been described above in connection with an equipment which works with optical radiation. It is then obvious that the radiation used can be both inside and outside the visible wavelength band. However, equipment according to the invention can be arranged to work with signals other than light. Ultrasounds and microwaves are examples of such signals.

Som framgår av ovanstående beskrivning erbjuder en robot enligt uppfinningen stora fördelar jämfört med hittills kända och använda robotar.As can be seen from the above description, a robot according to the invention offers great advantages compared to hitherto known and used robots.

Genom att robothandens läge direkt bestäms av givaren, som är anordnad vid eller på handen, erhålles en hög noggrannhet hos lägesbestämningen obero- ende av tillverknings- och monteringstoleranser hos robotens delar och oberoende av fel i signalerna från de i robotens olika axlar anordnade vinkelgivarna. Likaså bibehålles den höga noggrannheten i lägesbestäm- ningen oberoende av de deformationer som vid hög belastning eller höga accelerationer kan uppträda i roboten. Dessa fakta gör det möjligt att åstadkomma en robot som trots betydligt lägre toleranskrav och styvhets- krav uppvisar en mycket hög noggrannhet i lägesbestämningen. En robot ut- rustadmed i uppfinningen beskrivet givarsystem kan dessutom oberoende av materialets(i roboten) temperatur finna korrekt läge.Because the position of the robot hand is directly determined by the sensor, which is arranged at or on the hand, a high accuracy of the position determination is obtained regardless of manufacturing and mounting tolerances of the robot parts and independent of errors in the signals from the angle sensors arranged in the robot's different axes. Likewise, the high accuracy of the position determination is maintained regardless of the deformations that can occur in the robot at high load or high accelerations. These facts make it possible to achieve a robot which, despite significantly lower tolerance requirements and stiffness requirements, exhibits a very high degree of accuracy in the position determination. In addition, a robot equipped with a sensor system described in the invention can find the correct position independently of the temperature of the material (in the robot).

En ytterligare väsentlig fördel hos uppfinningen är att ett robotexemplar direkt kan utbytas mot ett annat, t ex vid driftavbrott, utan att någon som helst omprogrammering erfordras.A further essential advantage of the invention is that one robot can be directly exchanged for another, for example in the event of an interruption of operation, without any reprogramming being required.

Ytterligare en fördel hos uppfinningen är att ingen, för'lägesgivarsyste- met speciell, preparering behöver göras av arbetsobjektet eller omgiv- ningen ofitillräckligt antal lätt identifierade företeelser finns där naturligt.A further advantage of the invention is that no preparation, special for the locator system, needs to be made by the work object or the environment and a sufficient number of easily identifiable phenomena are naturally present there.

Genom att de vid lägesbestämningen använda företeelserna lämpligen kan väljas fast förbundna med ett arbetsstycke och nära den aktuella arbets- A 458 427 W punkten för roboten erhålles den viktiga fördelen, att roboten automatiskt kommer att följa rörelser eller lägesavvikelser hos arbetsstycket. Vidare erhålles genom att välja företeelserna nära arbetspunkten en mycket hög. noggrannhet i närheten av arbetspunkten, där detta är synnerligen önskvärt, medan längre från arbetspunkten en lägre noggrannhet erhålles, vilket kan accepteras utan olägenheter. Genom att enligt uppfinningen lägesbestämningen erhålles med önskad hög noggrannhet utan att robotens fastsättningspunkt behöver vara känd kan roboten i princip tillåtas röra sig fritt i arbets- lokalen, varigenom dess arbetsområde kan utsträckas högst väsentligt jäm- fört med tidigare kända fasta eller begränsat âkbara robotar.Because the phenomena used in the position determination can suitably be selected fixedly connected to a workpiece and close to the actual working point A 458 427 W point for the robot, the important advantage is obtained that the robot will automatically follow movements or position deviations of the workpiece. Furthermore, by selecting the phenomena near the working point, a very high is obtained. accuracy in the vicinity of the working point, where this is highly desirable, while further from the working point a lower accuracy is obtained, which can be accepted without inconvenience. By obtaining the position determination according to the invention with the desired high accuracy without the attachment point of the robot having to be known, the robot can in principle be allowed to move freely in the workroom, whereby its working range can be extended significantly compared to previously known fixed or limited movable robots.

Enligt ytterligare en variant av uppfinningen behöver de ovan beskrivna företeelserna ej vara naturligt (på arbetsstycket e d) förekommande före- teelser utan kan naturligtvis vara anbringade där för att vara lätta att hitta och följa med visionsystemen.According to a further variant of the invention, the phenomena described above do not have to be naturally occurring phenomena (on the workpiece e d) but can of course be applied there in order to be easy to find and follow with the vision systems.

Ytterligare en i verkstaden förekommande övervakningsfunktion kan lösas med en anordning enligt uppfinningen, nämligen övervakningen av att ingen person kommer in i arbetsområdet. Detta tillgâr så att en godtyckligt vald, i verkstaden från givaren annars ej synlig symbol i tillräckligt antal appliceras på i verkstaden förekommande personal, på så sätt att givaren, då en person befinner sig inom givarens synfält, alltid oberoende av per- sonens orientering relativt givaren ser minst en av dessa symboler. An- tingen kan ett eller flera av redan existerande visionsystem anslutna till givaren 30 övervaka att denna symbol ej förekommer i givarens syn- fält, eller också kan ytterligare ett eller flera visionsystem installeras för att sköta denna övervakning. Då personer företrädesvis närmar sig sys- temet långsamt kan dessa system scanna av den stora bilden med lämplig hastighet (i sökandet efter symbolen). T ex kan symbolen vara ett mönster i tyget på i verkstaden använda skyddskläder.Another monitoring function present in the workshop can be solved with a device according to the invention, namely the monitoring that no person enters the work area. This is done so that an arbitrarily selected, otherwise invisible symbol in the workshop from the donor is applied in sufficient numbers to staff present in the workshop, in such a way that the donor, when a person is within the donor's field of view, always independent of the person's orientation relative to the donor sees at least one of these symbols. Either one or more of the existing vision systems connected to the sensor 30 can monitor that this symbol does not appear in the sensor's field of view, or another one or more vision systems can be installed to handle this monitoring. As people prefer to approach the system slowly, these systems can scan the large image at the appropriate speed (in the search for the symbol). For example, the symbol can be a pattern in the fabric of protective clothing used in the workshop.

Självfallet kan även en separat givare monteras på eller i anslutning till roboten. Bildinformationen från denna givare utvärdera med hjälp av andra eller redan för givaren 30 installerade visionsystem.Of course, a separate sensor can also be mounted on or adjacent to the robot. Evaluate the image information from this sensor using other vision systems or vision systems already installed for the sensor 30.

- Ovan beskrivna personigenkänningssymbol kan självfallet vara en del av eller hela personen själv, t ex handen eller ansiktet. 458 427 19 Flera andra sätt finns att använda en robot enligt uppfinningen.- The person recognition symbol described above can of course be part of or the whole person himself, eg the hand or the face. 458 427 19 There are several other ways of using a robot according to the invention.

Ett sådant sätt är att använda givaren enligt uppfinningen enbart som lägesgivare 1 reglerloopen och att använda konventionella hastighets- givare, t ex tachometrar i varje robotaxel, som hastighetsâterföring för reglersystemet. Ett annat alternativ är att använda givaren som komplement till konventionella lägesgivare för kalibrering eller kontroll, för att öka noggrannheten vid lägesbestämningen, eller för inmätning för att möj- liggöra utbyte av robotar. Ett ytterligare alternativ är att enbart använda givaren som hastighetsgivare.One such way is to use the sensor according to the invention only as a position sensor in the control loop and to use conventional speed sensors, eg tachometers in each robot shaft, as speed feedback for the control system. Another alternative is to use the sensor as a complement to conventional position sensors for calibration or control, to increase the accuracy of the position determination, or for measurement to enable the replacement of robots. An additional alternative is to only use the sensor as a speed sensor.

Vid utbyte av en robot mot ett annat exemplar, vilket skall utföra samma funktion på samma ställe, är det inte nödvändigt att företeelsernas lägen är kända. I detta fall är det nämligen endast nödvändigt för det nya robotexemplaret att kunna âterinta de positioner, vid vilka lägena hos företeelsernas avbildningar på detektorn överensstämmer med de som er- hölls vid den ursprungliga roboten i motsvarande positioner.When exchanging a robot for another specimen, which is to perform the same function in the same place, it is not necessary that the positions of the phenomena are known. In this case, it is only necessary for the new robot to be able to retrain the positions at which the positions of the phenomena's images on the detector correspond to those obtained with the original robot in corresponding positions.

Inmatningen av företeelsernas utseenden och lägen kan ske på ett antal sätt, t ex kan den göras på något av nedanstående sätt: 1) Manuell inmatning av utseendet via ett inlärningsförfarande enligt dagens ASEA visionsystem (se manualen). Inmatning av företeelsens läge kan ske t ex genom manuell uppmätning eller med någon typ av hjälp- medel, t ex i form av en teodolit. 2) I det fall arbetsstyckets utformning finns inlagd på ett CAD/CAM- system (Computer Aided Design/Computer Aided Manufacturing) kan med för- del de på arbetsstycket utvalda företeelsernas utseende ur olika vinklar matas ner direkt från CAD/CAM-systemet liksom deras lägen relativt var- andra och/eller arbetspunkten för roboten. 3) Ytterligare ett sätt att mata in företeelsernas lägen är att från två kända (relativt en annan uppsättning företeelser) lägen mäta upp riktningen till företeelsen och att därur räkna fram den nya företeel- ; sens läge.The appearance and positions of the phenomena can be entered in a number of ways, eg it can be done in one of the following ways: 1) Manual entry of the appearance via a learning procedure according to the current ASEA vision system (see the manual). The location of the phenomenon can be entered, for example, by manual measurement or with some type of aid, for example in the form of a theodolite. 2) In case the design of the workpiece is entered on a CAD / CAM system (Computer Aided Design / Computer Aided Manufacturing), the appearance of the phenomena selected on the workpiece from different angles can be fed directly from the CAD / CAM system as well as their positions relative to each other and / or the working point of the robot. 3) Another way of entering the phenomena of phenomena is to measure the direction of the phenomenon from two known (relatively different sets of phenomena) and to calculate from it the new phenomenon; its location.

Företeelsens utseende lagras i det ovan beskrivna fallet med ASEA's visionsystem i respektive visionsystem, medan läget lagras i beräknings- enheten (52). 458 427 20 Ytterligare en möjlighet vid användande av ett CAD/CAM-system är att även robotens arbetspunkter och/eller hela arbetsprogram kan tillverkas i CAD/CAN-systemet inklusive överordnad dator och matas ner till roboten.The appearance of the phenomenon is stored in the case described above with ASEA's vision system in the respective vision system, while the position is stored in the calculation unit (52). 458 427 20 Another possibility when using a CAD / CAM system is that the robot's work points and / or entire work program can also be manufactured in the CAD / CAN system, including the parent computer, and fed down to the robot.

Då företeelsernas lägen utan mellanled direkt styr robotens ärvärde och börvärde kan på detta sätt roboten positioneras med en sig till givarens onoggrannhet närmande precision.Since the positions of the phenomena without intermediaries directly control the robot's actual value and setpoint, the robot can in this way be positioned with a precision approaching the sensor's inaccuracy.

Ett problem som i vissa arbetslägen kan uppkomma är att man vid arbets- operationer på arbetsstycket inte kan upprätthålla en tillfredsställande betraktningsvinkel till tillräckligt antal företeelser. Detta kan lösas på ett antal olika sätt. Nedan beskrives två av dem: 1) En givare av samma typ som givaren 30 fastsatt på en annan gentemot givaren 30 rörlig del, på ett med lämplig typ av givare (x) uppmâtbart läge relativt verktyget 29 ooh/eller den ursprungliga givaren 30, kan temporärt ta över eller dubblera uträkningen av verktygets läge, varvid vid beräkningen av arbetspunktens läge den med ovan beskrivna givare (x) uppmätta relationen mellan denna ytterligare givare och givare 30 används.A problem that may arise in certain work situations is that during work operations on the workpiece it is not possible to maintain a satisfactory viewing angle to a sufficient number of phenomena. This can be solved in a number of different ways. Two of them are described below: 1) A sensor of the same type as the sensor 30 attached to another part movable relative to the sensor 30, in a position measurable with the appropriate type of sensor (x) relative to the tool 29 ooh / or the original sensor 30, can temporarily take over or duplicate the calculation of the position of the tool, whereby in the calculation of the position of the working point the relationship between this additional sensor and sensor 30 measured with the sensor described above is used.

Ett specialfall av detta förfarande är att ursprungsgivaren 30 och den duhblerande givaren som 1 detta skede har möjlighet att noggrannare fast- ställa sin position relativt företeelserna på arbetsstycket, båda använder andra för bägge synliga företeelser för att beräkna lägesskillnaden mellan de två givarna och därmed mellan den temporärt använda givaren och verk- tygspunkten. Vid vissa komplicerade föremål och/eller driftsfall kan detta förfarande behöva användas mer än temporärt (blir då normalt driftsfall). 2) Vid tillämpningar där man inte använder sig av på annat sätt uppmätt lägesrelation mellan verktyget och en enligt 1) tillbakadragen givare kan man från denna givare även på ett sätt som liknar det 1 patent nr EP 0 ïïü 505 beskrivna sättet mäta in verktygets läge med hjälp av och rela- tivt den tillbakadragna givaren.A special case of this method is that the original sensor 30 and the duplicating sensor which at this stage have the possibility to more accurately determine their position relative to the phenomena on the workpiece, both use other for both visible phenomena to calculate the position difference between the two sensors and thus between the temporarily use the sensor and tool point. In the case of certain complicated objects and / or operational cases, this procedure may need to be used more than temporarily (then becomes a normal operational case). 2) In applications where the position relation between the tool and a sensor retracted in accordance with 1) is not used in any other way, the position of the tool can also be measured from this sensor in a manner similar to the method described in Patent No. EP 0 ïïü 505. using and relatively the retracted sensor.

Den bildupptagande ytan (detektorn) kan naturligtvis vara av olika art. 'r ex kan 'en con-yta (c ex Tekn-enn TK 20148 med zousz biiaeiement), ew- Vidicon eller Plumbiconrör (företrädesvis högupplösande sådana) eller en fotodiodarray användas.The image-receiving surface (detector) can of course be of different types. 'r ex' a con-surface (eg Tekn-enn TK 20148 with zousz biiaeiement), ew- Vidicon or Plumbicon tubes (preferably high-resolution ones) or a photodiode array can be used.

För att minska antalet visionsystem som behövs kan naturligtvis ett färre antal visionsystem multiplexas in på de olika uppgifterna/delbilderna, 21 458 427 extremt räcker det med ett enda visionsystem, som i tur och ordning får räkna på de olika delbilderna.To reduce the number of vision systems needed, of course, a smaller number of vision systems can be multiplexed into the various tasks / sub-pictures, 21 458 427 extremely enough, a single vision system is enough, which in turn can count on the different sub-pictures.

Vid uppstartning av systemet är det inte alltid känt vilka företeelser som är synliga och/eller var de befinner sig i den stora bilden. Ett antal sätt att lösa detta finnes, varav några beskrivs nedan: 1) De i systemet tillgängliga visionsystemen får analysera hela den stora bilden m a psamtliga(e1ler en delmängd av) specificerade företeelser genom att enligt någon turordning ta delbilder, vilka eventuellt över- lappar varandra och analysera dem. 2) Ett annat förfarande, som kan vara lämpligt i vissa situationer, är att inte ta varje pixel (= bildelement) utan t ex välja ett urval av stora bildens punkter, t ex var åttonde punkt på var åttonde rad. Därefter grov- analyseras den så erhållna bilden m a p samtliga (eller en delmängd av) förekommande specificerade företeelser. Senare finanalyseras de delar som befinns innehålla rätt företeelser.When starting up the system, it is not always known which phenomena are visible and / or where they are in the big picture. There are a number of ways to solve this, some of which are described below: 1) The vision systems available in the system may analyze the entire large image including all (or a subset of) specified phenomena by taking sub-images, which may overlap, in any order. and analyze them. 2) Another procedure, which may be appropriate in certain situations, is not to take each pixel (= pixel) but, for example, to select a selection of large image points, such as every eighth point on every eighth line. Then the image thus obtained is roughly analyzed for all (or a subset of) specified specified phenomena. Later, the parts that are found to contain the correct phenomena are finely analyzed.

En mängd möjligheter att lokalisera objekt och att positionera sig rela- tivt dessa öppnas om man kombinerar ett antal (typiskt två eller tre) av ovan beskrivna givare. Kombineras två av ovan beskrivna givarsystem kan man, förutom att positionera sig relativt ett känt koordinatsytem bestämt av ett antal (större än eller lika med tre) företeelser inom de två givar- nas sammanslagna synfält (större än eller lika med en givares synfält), även mäta avstånd, läge och orientering relativt företeelser, vilkas positioner ej är kända relativt någon givare och/eller något koordinat- system, men som finns inom bägge givarnas synfält. (Detta sker genom att givarnas inbördes läge är känt och därmed är tvâ vinklar och en sida 1 en triangel kända. Den ytterligare vinkel som behövs fås från endera givarsystemet.) Speciellt kan tre (eller flera) företeelser på ett objekt bestämmas och dessa punkter därefter användas som de företeelser vilka givarens posi¿_ tion relateras relativt. Samordningen av använda företeelser (hos de olika givarna) så att inmätningen av riktningarna hos syftlinjerna (hos de olika givarna) avser riktningarna till samma företeelser kan t ex ske genom s k bildmatchning. 458 427 22 Används tre (eller fler) givarsystem erhålls möjligheten att direkt genom solvering av två trianglar i ekvationssystemen lösa en företeelses läge i stället för att som vid två givarsystem gå över avståndet och utslags- vinkeln i den andra riktningen.A number of possibilities for locating objects and for positioning oneself relatively relative to these are opened if a number (typically two or three) of the sensors described above are combined. If two of the sensor systems described above are combined, in addition to positioning oneself relative to a known coordinate system determined by a number (greater than or equal to three) phenomena within the two sensors' combined field of view (greater than or equal to one sensor's field of view), measure distance, position and orientation relative to phenomena, the positions of which are not known relative to any sensor and / or any coordinate system, but which are within the field of view of both sensors. (This is done by knowing the relative position of the sensors and thus two angles and one side 1 a triangle are known. The additional angle needed is obtained from either sensor system.) In particular, three (or more) phenomena on an object can be determined and these points thereafter be used as the phenomena to which the donor's position is relatively related. The coordination of used phenomena (in the different sensors) so that the measurement of the directions of the aiming lines (in the different sensors) refers to the directions of the same phenomena can take place, for example, by so-called image matching. 458 427 22 If three (or more) sensor systems are used, the possibility is obtained to solve a phenomenon directly by solving two triangles in the equation systems instead of going over the distance and the angle of inclination in the other direction as with two sensor systems.

Till skillnad från vanliga tidigare beskrivna visionsystem, vilka medelst tvâ med linjärt avbildande optik utrustade kameror (rät linje avbildas som rät linje på kamerans bildplan, till skillnad från uppfinningens ut- förande där en förändring i syftlinjens vinkel avbildas linjärt oberoende av var i synfältet den är) erhåller möjligheten att medelst stereometri avgöra avstånd och position relativt kamerorna, kan ovan beskrivna system genom sin vidvinkeloptik och avbildning av vinkel approximativt linjärt mot radie på detektorytan erhålla sin position och attityd med stor nog- grannhet.Unlike conventional previously described vision systems, which by means of two cameras equipped with linearly imaging optics (straight line is imaged as a straight line on the camera's image plane, unlike the embodiment of the invention where a change in the angle of view is imaged linearly regardless of where in the field of view it is ) obtains the possibility to determine by means of stereometry the distance and position relative to the cameras, the systems described above can, through their wide-angle optics and imaging of angle approximately linearly to radius on the detector surface, obtain their position and attitude with great accuracy.

Används mer än en detektoryta kan naturligtvis de/det visionsystem, styr- och beräkningsenheter som används till den ena ytan eventuellt sköta delar av dessa uppgifter även för de övriga detektorerna.If more than one detector surface is used, the vision system, control and calculation units used for one surface can of course handle parts of these tasks for the other detectors as well.

Claims (9)

B 458 427 PATENTKRAVB 458 427 PATENT REQUIREMENTS 1. Robotutrustning med ett flertal relativt varandra rörliga delar (22-25) och innefattande en givaranordning (704, 50, 51, 52) för läges- bestämning av en av nämnda delar. vilken givaranordning innefattar a) en med nämnda del mekaniskt förbunden optisk givare (30) anordnad att avbilda robotens omgivning, varvid givaranordningen är anordnad att avge information (x , yi) som definierar riktningen relativt givaren hos syft- linjerna från givaren till objekt i omgivningen, b) beräkningsorgan (52) anordnade att tillföras nämnda riktningsdefinier- ande information. att med ledning därav bestämma vinklarna (TI, T2, T3) mellan syftlinjerna och att utgående från nämnda vinklar bestämma givarens läge relativt objekten, k ä n n e t e c k n a d av att givaren (30) är anordnad att alstra en tvådimensionell bild av omgiv- ningen och till ett bildbehandlingssystem (705-708) avge en utsignal som motsvarar bildens informationsinneháll att bildbehandlingssystemet är a) anordnat för inlagring av information, som definierar bilden av var och en av ett flertal förutbestämda detaljer (506-509) i omgivningen, vilka detaljer utgör nämnda objekt, b) anordnat att avsöka den av givaren alstrade bilden av omgivningen med avseende på nämnda förutbestämda detaljer under utnyttjande av den inlag- rade informationen för bestämning av detaljernas lägen i bilden, samt att med ledning av de sålunda bestämda lägena bilda nämnda riktningsdefinier- ande information. KRobotic equipment with a plurality of relatively movable parts (22-25) and comprising a sensor device (704, 50, 51, 52) for determining the position of one of said parts. which sensor device comprises a) an optical sensor (30) mechanically connected to said part arranged to image the surroundings of the robot, the sensor device being arranged to provide information (x, yi) defining the direction relative to the sensor of the aiming lines from the sensor to objects in the environment, b) calculation means (52) arranged to be supplied with said direction-defining information. to determine the angles (T1, T2, T3) between the aiming lines and to determine the position of the sensor relative to the objects on the basis of said angles, characterized in that the sensor (30) is arranged to produce a two-dimensional image of the environment and to a the image processing system (705-708) emits an output signal corresponding to the information content of the image that the image processing system is a) arranged for storing information defining the image of each of a plurality of predetermined details (506-509) in the environment, which details constitute said objects, b) arranged to scan the image of the environment generated by the sensor with respect to said predetermined details using the stored information for determining the positions of the details in the image, and to form said direction-defining information on the basis of the positions thus determined. K 2. Bobotutrustning enligt patentkrav 1, k ä n n e t e c k n a d därav, att beräkningsorganen (52) är anordnade att utgående från nämnda vinklar alstra information (na, nb, ne, u), som definierar givarens orientering relativt nämnda detaljer. 458 427 Å2. Bobot equipment according to claim 1, characterized in that the calculating means (52) are arranged to generate information (na, nb, ne, u) from said angles, which defines the orientation of the sensor relative to said details. 458 427 Å 3. Robotutrustning enligt något av föregående patentkrav. t e c k n a d därav, vidvinkeltyp. k ä n n e - att givaren (30) innefattar ett linssystem (300) av Ä.Robotic equipment according to one of the preceding claims. t e c k n a d thereof, wide-angle type. k n n e - that the sensor (30) comprises a lens system (300) of Ä. 4. Robotutrustning enligt något av föregående patentkrav, k ä n n e - t e c k n a d därav. att den innefattar organ (101. 70 3) anordnade att ur bilden a; u: en; flertal aenumer (501, 502, 5o3, 504) 'Robotic equipment according to any one of the preceding claims, known therefrom. that it comprises means (101. 70 3) arranged that from the image a; u: en; plural aenumer (501, 502, 5o3, 504) ' 5. Robotutrustning enligt något av föregående patentkrav. k ä n n e - ' t e c k n a d därav, att den innefattar ett flertal visionsystem (705-708) anordnade att utvärdera bilden med avseende på var sin uppsätt- ning av nämnda detaljer.Robotic equipment according to one of the preceding claims. is characterized in that it comprises a plurality of vision systems (705-708) arranged to evaluate the image with respect to each set of said details. 6. Robotutrustning enligt patentkrav 4. k H n n e t e c k n a d därav, att den innefattar ett flertal visionsystem (705-708) anordnade att till- föras var sin delbild och att utvärdera delbilderna med avseende på var sin uppsättning detaljer.Robotic equipment according to claim 4, characterized in that it comprises a plurality of vision systems (705-708) arranged to be supplied with a separate image and to evaluate the images with respect to each set of details. 7. Robotutrustning enligt något av föregående patentkrav, k ä n n e - t e c k n a d därav, att den är anordnad att växelvis utvärdera bilden med avseende på minst två olika uppsättningar detaljer och att generera information som definierar givaranordningens läge relativt _var och en av uppsättningarna.Robotic equipment according to any one of the preceding claims, characterized in that it is arranged to alternately evaluate the image with respect to at least two different sets of details and to generate information defining the position of the sensor device relative to each of the sets. 8. Robotutrustning enligt något av föregående patentkrav, k ä n n e - t e c k n a d därav, att den innefattar minst två åtskilda optiska organ (30) anordnade att alstra var sin bild av en och samma detalj. att vision- systemen är anordnade att med ledning av bilderna avge signaler som för var och ett av de optiska organen definierar riktningen från organet till detaljen, samt organ anordnade att med ledning av nämnda signaler bestämma detaljens läge relativt givaranordningen.Robotic equipment according to any one of the preceding claims, characterized in that it comprises at least two separate optical means (30) arranged to each produce an image of one and the same detail. that the vision systems are arranged to emit signals on the basis of the images which for each of the optical means define the direction from the means to the part, and means arranged to determine the position of the detail relative to the sensor device on the basis of said signals. 9. Robotdtrustning enligt något av föregående patentkrav, t e c k n a d därav, k ä n n e -=: att visionsystemen (705-708) är anordnade att utvär- dera bilderna med avseende på en förutbestämd detalj samt att vid närvaro i bilden av denna detalj avge en indikeringssignal.Robot equipment according to any one of the preceding claims, characterized in that the vision systems (705-708) are arranged to evaluate the images with respect to a predetermined detail and to emit an indication signal in the presence of the image of this detail. .
SE8600872A 1986-02-27 1986-02-27 Robot equipment with position indicator on robot hand SE458427B (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
SE8600872A SE458427B (en) 1986-02-27 1986-02-27 Robot equipment with position indicator on robot hand

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
SE8600872A SE458427B (en) 1986-02-27 1986-02-27 Robot equipment with position indicator on robot hand

Publications (3)

Publication Number Publication Date
SE8600872D0 SE8600872D0 (en) 1986-02-27
SE8600872L SE8600872L (en) 1987-08-28
SE458427B true SE458427B (en) 1989-04-03

Family

ID=20363603

Family Applications (1)

Application Number Title Priority Date Filing Date
SE8600872A SE458427B (en) 1986-02-27 1986-02-27 Robot equipment with position indicator on robot hand

Country Status (1)

Country Link
SE (1) SE458427B (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1996009918A1 (en) * 1994-09-28 1996-04-04 Faeger Jan G Control equipment with a movable control member
US6131296A (en) * 1995-06-19 2000-10-17 Faeger; Jan G. Method and device for determining positions of objects

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1996009918A1 (en) * 1994-09-28 1996-04-04 Faeger Jan G Control equipment with a movable control member
US6157368A (en) * 1994-09-28 2000-12-05 Faeger; Jan G. Control equipment with a movable control member
US6131296A (en) * 1995-06-19 2000-10-17 Faeger; Jan G. Method and device for determining positions of objects

Also Published As

Publication number Publication date
SE8600872D0 (en) 1986-02-27
SE8600872L (en) 1987-08-28

Similar Documents

Publication Publication Date Title
Lenz et al. Calibrating a cartesian robot with eye-on-hand configuration independent of eye-to-hand relationship
TWI670153B (en) Robot and robot system
Tsai et al. Real time versatile robotics hand/eye calibration using 3D machine vision
US9043146B2 (en) Systems and methods for tracking location of movable target object
EP2895304B1 (en) Coordinate measuring machine
CN104786226A (en) Posture and moving track positioning system and method of robot grabbing online workpiece
SE464855B (en) PROCEDURE OF AN INDUSTRIAL BOTTOM FOR CALIBRATION OF A SENSOR
JP6565175B2 (en) Robot and robot system
Fiala et al. TRICLOPS: A tool for studying active vision
Zhu et al. Sensor-based control using an image point and distance features for rivet-in-hole insertion
Wang A simple and analytical procedure for calibrating extrinsic camera parameters
Nelson et al. The resolvability ellipsoid for visual servoing
CN109862989A (en) Image-based technique selection when laser welding
Qiu et al. An underwater micro cable-driven pan-tilt binocular vision system with spherical refraction calibration
Krotkov et al. An agile stereo camera system for flexible image acquisition
Zheng et al. Active camera guided manipulation.
Bakhtari et al. Active-vision-based multisensor surveillance-an implementation
SE458427B (en) Robot equipment with position indicator on robot hand
Schneider et al. Optical 3-D measurement systems for quality control in industry
CN112116664B (en) Method and device for generating hand-eye calibration track, electronic equipment and storage medium
JP6507792B2 (en) Robot and robot system
SE444530B (en) Industry robot equipped with a positioning device
Oh et al. Calibration of an omnidirectional vision navigation system using an industrial robot
Saraga et al. Simple assembly under visual control
JP3175623B2 (en) Robot control device

Legal Events

Date Code Title Description
NAL Patent in force

Ref document number: 8600872-9

Format of ref document f/p: F

NUG Patent has lapsed