JPS60501451A - Robotic system using light detection - Google Patents

Robotic system using light detection

Info

Publication number
JPS60501451A
JPS60501451A JP59501739A JP50173984A JPS60501451A JP S60501451 A JPS60501451 A JP S60501451A JP 59501739 A JP59501739 A JP 59501739A JP 50173984 A JP50173984 A JP 50173984A JP S60501451 A JPS60501451 A JP S60501451A
Authority
JP
Japan
Prior art keywords
array
robot
linear
fingers
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP59501739A
Other languages
Japanese (ja)
Inventor
ベニ,ジエラルド
ハツクウツド,スーザン
ホアナツク,ローレンス アンソニー
ジヤツクル,ジヤネツト レア
Original Assignee
アメリカン テレフオン アンド テレグラフ カムパニ−
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アメリカン テレフオン アンド テレグラフ カムパニ− filed Critical アメリカン テレフオン アンド テレグラフ カムパニ−
Publication of JPS60501451A publication Critical patent/JPS60501451A/en
Pending legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/081Touching devices, e.g. pressure-sensitive
    • B25J13/082Grasping-force detectors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices

Abstract

(57)【要約】本公報は電子出願前の出願データであるため要約のデータは記録されません。 (57) [Summary] This bulletin contains application data before electronic filing, so abstract data is not recorded.

Description

【発明の詳細な説明】 光検知を利用したロボットシステム 発明の背景 本発明は、光検知機能を有するロボットシステムに関する。[Detailed description of the invention] Robot system using light detection Background of the invention The present invention relates to a robot system having a light detection function.

ロボット機構が取扱う物体の光検知については既に知られている。しかしながら 、現行の光シス莫ムは、アール、ピー、クルーガ−(R、P 、Kruger  ) 他によってプロツシイーデイングス・オブ・ザ・アイ イー イーイー(P roceedings ’of the IEEFE )第69巻、頁1524 (1981)に述べられているようにロボット作業域の上方に設置した固定のオ ーバーヘッド・カメラを用いるものが殆んどである。この画定方式は、物体の位 置及び方向の計算とロボットの運動とを分離することができるという利点を有し ている。この方式のロボットでは、視覚システムが独立に作動しているので、視 覚システムのためにロボットの速さが遅くなるということはない。しかしながら 固定方式には大きな欠点がある。この視覚−システムはそれが最も必要なとき、 つまりロボットがある部分を取扱おうとするとき、ロボット・アームがロボット 作業域の上方に設置したカメラの視野を遮ってしまうので、無力になってしまう 。この問題点を解決するため、カメラ・イン・ハンドシステムが提案され、既に 使用されている。この方式は、捕えようとする部分がカメラにら、この場合カメ ラが画像を処理し、物体の位置及び方向を計算できるようにするには、ロボット は運動を停止しなければならない。Light detection of objects handled by robotic mechanisms is already known. however , the current optical system system is R, P, Kruger (R, P, Kruger). )  Processing of the Eye by others roceedings of the IEEFE) Volume 69, Page 1524 (1981), a fixed orifice installed above the robot work area. Most of them use a bar-head camera. This definition method is based on the position of the object. It has the advantage of being able to separate the calculation of position and direction from the movement of the robot. ing. In this type of robot, the visual system operates independently, so The robot's speed is not slowed down by the sensory system. however Fixed methods have major drawbacks. This visual system is activated when it is most needed. In other words, when the robot tries to handle a certain part, the robot arm It blocks the view of the camera installed above the work area, rendering it powerless. . To solve this problem, a camera-in-hand system has been proposed and has already been used. It is used. In this method, the part to be captured is facing the camera, in this case The robot must be able to process images and calculate the position and orientation of objects. must stop moving.

最近になって低解像度カメラをロボット・グリッパ−に固定して用いるようにな ってから、この問題点は軽減されているが、これについてはシイ・ロウグリン( Loughlin )、センサ・レビュー(5ens、orReview )  第3巻頁23’ (1983)を参照されたい。しかしながら、取扱う物体を直 接観察するのにカメラを利用しようとすると、カメラの寸法、その取付要領及び カメラが物体を正しく検知できるようにするだめの周囲の照明や背景に対して厳 しい条件が付けられる。Recently, low-resolution cameras have been fixed to robot grippers and used. Since then, this problem has been alleviated, but this is discussed in Si Rougrin ( Loughlin), Sensor Review (5ens, orReview) See Vol. 3, p. 23' (1983). However, when handling objects directly If you are going to use a camera for close observation, you will need to know the dimensions of the camera, how to install it, and Ensure that the surrounding lighting and background of the camera are set strictly against the background so that the camera can detect objects correctly. New conditions can be added.

発明の要約 ロボット・ハンドの対向する2本のフィンガーに、それぞれ光デバイス・アレイ が取付けられており、これらは2本のフィンガー間の間隙をとおして光学的に連 接している。一方のフィンガーには光エミッタ・アレイが取付けられ、また他方 のフィンガーには光リセプタ・アレイが取付けられている。両フィンガー間に物 体があると、一部のエミッタからそれに対応するリセプタへ光が伝達されるのを 阻止することになりしたがって、ロボット・ハンドが運動するに伴ないリセプタ からの信号は、物体の形状に関する情報を与えることになる。Summary of the invention Optical device arrays are installed on each of the two opposing fingers of the robot hand. are attached, and these are optically linked through the gap between the two fingers. are in contact with each other. One finger has a light emitter array attached to it and the other An optical receptor array is attached to the finger. something between both fingers. A body allows light to be transmitted from some emitters to their corresponding receptors. Therefore, as the robot hand moves, the receptor The signals from will give information about the shape of the object.

一方、この光デバイス・アレイを例えば、机の上に設置して、物体がアレイの間 にある時は、ロボットが物体を動かすようにすることもできる。On the other hand, if this optical device array is installed on a desk, for example, and an object is placed between the arrays, The robot can also be used to move objects.

第1図は、ロボット・グリッパ−の等角投影図である。FIG. 1 is an isometric view of the robot gripper.

第2図は、グリッパ−に取付けだ丁字形光デバイス・アレイを示し、また第3図 は、第1図のセンサ・アレイの側面図である。FIG. 2 shows a T-shaped optical device array mounted on a gripper, and FIG. 2 is a side view of the sensor array of FIG. 1; FIG.

詳細な説明 第1図には、一般的に知られる型式のロボット・グリッパ−22が示されている 。グリッパ−22には、1対のフィンガー30及び32がパーム素子28の上で スライドできるように取付けられており、このためフィンガーの対向面34及び 36がフィンカーの開閉に際して殆んど平行に保たれるようになっている。グリ ッパ−の作動手段及びフィンガーの開閉手段については既に知られている。detailed description FIG. 1 shows a commonly known type of robot gripper 22. . The gripper 22 has a pair of fingers 30 and 32 on the palm element 28. It is slidably mounted so that the opposing surfaces 34 and 36 are kept almost parallel when the fin car is opened and closed. Guri The means for operating the upper and the means for opening and closing the fingers are already known.

本発明の実施例において、フィンガー30に光エミッタ・アレイ40が備えられ ており、またフィンガー32には光リセプタ・アレイ42が備えられている。エ ミッタは能動素子(例えばLED又は接合型レーザー)でも受動素子(例えば光 ガイド)でもよい。同様に、リセプタは能動素子(例えばホトダイオード)でも 受動素子(例えば、光ガイド又はレンズ群)であってもよい。いずれの場合でも アレイ4oはエミッタの幾可学的配列に応じて一定パターンの光ビーム41を放 射する。リセプダアレイは、エミッタとリセプタが1対1に対応するようにエミ ッタ・アレイに対応した配列になっている。In an embodiment of the invention, finger 30 is provided with a light emitter array 40. The finger 32 is also provided with an optical receptor array 42 . workman The emitter can be an active device (e.g. an LED or a junction laser) or a passive device (e.g. an optical guide) is also acceptable. Similarly, receptors can also be active devices (e.g. photodiodes). It may also be a passive element (eg a light guide or lens group). In any case The array 4o emits a constant pattern of light beams 41 depending on the geometrical arrangement of the emitters. shoot The receptor array emitters in such a way that there is a one-to-one correspondence between emitters and receptors. The array is compatible with the data array.

さらに各ビームがフィンガーの位置と運動に関係なく検知できるようにするため 、エミッタは並列の平行ビームを放射するようになっている。このセンサ・アレ イはフィンガー間にある物体29の存在と形状を検出することによって作動する 。図では、物体は半導体デバイス用のヘッダーとして画いである。物体がフィン ガーの間に置かれると、フィンガー間を通過する1又は2以上の平行ビームを阻 止あるいは遮り、その結果カメラ50(又はその他の適当なディスプレイ)に投 射されて検出される画像に変化が生ずる。Furthermore, to ensure that each beam can be detected regardless of the position and movement of the fingers. , the emitters are adapted to emit parallel parallel beams. This sensor array operates by detecting the presence and shape of an object 29 between the fingers. . In the figure, the object is a picture as a header for a semiconductor device. the object is a fin When placed between the fingers, it blocks one or more parallel beams passing between the fingers. the camera 50 (or other suitable display). A change occurs in the image that is projected and detected.

さらに高速の処理が必要なときは各アレイは直線形デバイス・セット2つ以上を 非平行に配列して構成される。When even faster processing is required, each array can include two or more linear device sets. Consisting of non-parallel arrays.

典型的な場合としては、直線的セットは互に直角の又はその倍数の角で配置され 、U字形又は7字形のパターンをなしている。Typically, the linear sets are arranged at right angles to each other or at multiples thereof. , U-shaped or 7-shaped pattern.

次に、図に示した本発明の実施例について、さらに詳細に述べるものとする。The embodiment of the invention shown in the figures will now be described in more detail.

アレイ40及び42は、それぞれ3つの直線形レンズ・セットを有し、これにつ いてはシイ・エム・シュレッダ−(5chroeder )により、ベル・シス テム・テクニカル・ジャーナル(Be1l System Technical  Journal )第57巻頁91 (1978)に記述されているように光 学技術においてよく知られている漸増屈折率(GRIN)ロッドになっている。Arrays 40 and 42 each have three linear lens sets; By 5chroeder, Bel Sis Be1l System Technical Journal Journal) Vol. 57, p. 91 (1978) This is a progressively increasing refractive index (GRIN) rod, which is well known in science and technology.

このU字形アレイ(第1図)は、各フィンガーごと1つの直線形セットが片側に 取付けられ、そして他方の直線形セットがこれに平行な側に、また第3の直線形 セットは底辺側に前記2つのセットに接するように配置するようにして、フィン ガーの周辺に取付けられている。各セットは、例えば12の素子よりなる。This U-shaped array (Figure 1) consists of one linear set for each finger on one side. and the other linear set on the side parallel to this, and the third linear set The set should be placed on the bottom side so that it touches the above two sets, and the fins should be It is attached around the gar. Each set consists of, for example, 12 elements.

−ガニ字形アレイ(第2図)もフィンガーに用いられる。- Crab-shaped arrays (FIG. 2) are also used for fingers.

物体と垂直なセットが接触するのを防止するため、垂直なセットはロボット・フ ィンガーの表面に彫られた溝51の中に取付けられる。To prevent vertical sets from coming into contact with objects, vertical sets are It is installed in a groove 51 carved into the surface of the finger.

GRINロッド・エミッタ・アレイ40は、光ファイバー・ケーブル60を経由 して光源60即ちレーザーに連接しており、またGRINロッド・リセフタ・ア レイ42は光ファイバー・ケーブル64を経由してカメラ50に連接している。GRIN rod emitter array 40 via fiber optic cable 60 is connected to a light source 60, ie, a laser, and is connected to a GRIN rod resetter assembly. Ray 42 is connected to camera 50 via fiber optic cable 64.

ケーブル64上の光信号はカメラ50で分析されそしてカメラの出力は既存の技 術により、ロボットを制御するため、電算機により使用される。これについては 、前述のロウグリンの文献を参照されたい。The optical signal on cable 64 is analyzed by camera 50 and the output of the camera is used by a computer to control a robot. Regarding this , see the above-mentioned Loughlin reference.

第2図に8尽れるように、光ファイバー33eは、各レンズ31eの背面に接合 されている。(各アレイとも簡単のためレンズは3つのみを示している。)レン ズはフィンガー間の間隙を横断する光41を平行ビームにする。これに対応する GRINロッド・レンズ31rからなるアレイ42が他方のフィンガー32に取 付けられている。アレイ42のレンズ31rは、ファイバー33rに接続されて おり、これは出カケーブル64となる。As shown in FIG. 2, the optical fiber 33e is bonded to the back surface of each lens 31e. has been done. (Only three lenses are shown for each array for simplicity.) Lens The beam causes the light 41 that traverses the gap between the fingers to become a parallel beam. corresponds to this An array 42 of GRIN rod lenses 31r is attached to the other finger 32. It is attached. Lens 31r of array 42 is connected to fiber 33r. This becomes the output cable 64.

GRINロッド・レンズは屈折率の分布が放物線状にかつており、光路43によ って示されるように約5crnの距離にわたり、平行な光ビーム41を形成する 。The GRIN rod lens has a parabolic refractive index distribution, and the optical path 43 As shown, a parallel light beam 41 is formed over a distance of about 5 crn. .

出カケーブル64のファイバーは、同一平面上で終端し、既存の方法に基づきア レイ状に固定されるが、そのためファイバー1本1本の端面を小光源とするスカ リーン又は視界を形成する。この視界又はスクリーンは、前述のセンサ部で成牛 された信号を得るため、ビデ′オカメラで監視される。処理速度を速くするため 、ccD’又はホトディテクタ・アレイを用いて、この監視を行うことができる 。実際、GRINロッド・リセプタ・レンズ・アレイ420代りの能動型リセプ タとして、直線形C’CDアレイを用いることができる。この方法では画像セン シングと画像検出の間を光ファイバーで結合する必要がなくなる。前述のとおり 、検出した画像は輪郭の動きあるいはセンサ素子間を通過した物体の縁を示すが 、この画像は既存の方法により電算機処理され、グリッパ−のフィンガーと物体 との相対位置が決められる。The fibers of the output cable 64 are terminated in the same plane and are attached according to existing methods. It is fixed in a lay shape, but because of this, it is possible to use a light source that uses the end face of each fiber as a small light source. Form a lean or visual field. This field of view or screen is located at the sensor section mentioned above. A video camera is used to obtain the detected signal. To speed up processing , ccD' or photodetector arrays can be used to perform this monitoring. . In fact, the GRIN rod receptor lens array is an active receptor instead of the 420. A linear C'CD array can be used as the data. This method This eliminates the need for an optical fiber connection between scanning and image detection. As mentioned above , the detected image shows the movement of the contour or the edge of the object that has passed between the sensor elements. , this image is computer-processed using existing methods, and the gripper fingers and object are The relative position is determined.

前述のセンサは、最も解像度の低い場合である。センサ素子が比較的少ない場合 (例えば36個)でも、解像度は商用カメ゛ラシステムと同等又はそれ以上にな る。The sensor described above has the lowest resolution. When there are relatively few sensor elements (e.g. 36), but the resolution is equivalent to or higher than that of a commercial camera system. Ru.

5最後にどっだが、既に述べたように、このセンサは、例えば机の上に設置しロ ボット(又は他の機械装置)が、アレイ間の間隙にある物体を動かすように使用 することができる。したがって、センサは固定されているが、ロボットの運動に よって、アレイが走査される。この種の応用においては、ロボットの電算機は各 位置で、センサデータと関連付けることができ、それによってロボット・グリッ パ−中の物体の位置を決めることができるように、常時ロボットハンドの位置を 正確に知るようにプログラムされていなければならない。しかしながら、この方 法はロボット・グリッパ−がアレイの間にあるときは、光線を一部遮るので好ま しい方法ではない。5 Lastly, as mentioned above, this sensor can be installed on a desk, for example, and Used by bots (or other mechanical devices) to move objects in the gaps between arrays can do. Therefore, the sensor is fixed but dependent on the robot's movement. Thus, the array is scanned. In this type of application, the robot's computer position, which can be associated with sensor data and thereby The position of the robot hand is constantly adjusted so that the position of the object during the par can be determined. It must be programmed to know exactly. However, this person This method is preferred when the robot gripper is between the arrays because it partially blocks the beam. It's not a good method.

FIG、3 第1頁の続き ′ 0発 明 者 ホアナック、ローレンス アン アン0− ト。FIG.3 Continuation of page 1' 0 shots bright person Hoanak, Lawrence Anne 0-t.

Group

Claims (1)

【特許請求の範囲】 1 可動のフィンカー(30,32)を有するロボットシステムにおいて、 前記フィンガーの一方のフィンカー上の複数個の光エミッタのアレイ(40)と 前記フィンカーの他方のフインカ上の複数個の光リセプタのアレイ(36)とを 特徴とし、前記エミッタの各々が前記リセプタと1対1の関係で光学的に連接さ れており、さらに、前記フィンガー間にある物体の位置を決めるため、前記リセ プタのアレイで検出された光パターンを検知する手段を特徴とするロボットシス テム。 2 請求の範囲第1項のシステムにおいて、前記の各アレイが平行でない直線形 デバイス・セットを少なくとも2つ有するロボットシステム。 3 請求の範囲第2項のシステムにおいて、前記の直線形、デバイス・セットが 前記フィンガーの周辺に沿って配置されているシステム。 4 請求の範囲第3項のシステムにおいて、前記の各フィンが−が前記物体と接 触するために用いられる面を有し、まだ前記アレイがこの面内の凹所にあるよう なシステム。 5a青求の範囲第4項のシステムにおいて、前記の面どうじがフィンカーの運動 中、殆んど平行に保たれているシステム。 6 請求の範囲第5項のシステムにおいて、前記エミッタ・デバイスが光源に接 続したQRINロンド・レンズ群からなり、また、前記リセプタ・デバイスが、 光検知器に接続したGRINロッド・レンズ群から々るシステム。 7、請求の範囲第4項のロボットにおいて、前記直線形セットが1′字パターン をなすように配列したロボット。 8 請求の範囲第3項のロボットにおいて、前記直線形セットがU字パターンを なすように配列したロボット。[Claims] 1 In a robot system having movable fin cars (30, 32), an array (40) of a plurality of light emitters on one fin car of said fingers; an array (36) of a plurality of optical receptors on the other finker of the finkers; characterized in that each of the emitters is in optical communication with the receptor in a one-to-one relationship. the recess for positioning an object between the fingers; A robotic system characterized by means for detecting a light pattern detected by an array of Tem. 2. The system according to claim 1, wherein each of the arrays is a non-parallel linear array. A robotic system having at least two device sets. 3. The system according to claim 2, wherein the linear device set is A system disposed along the periphery of said finger. 4. In the system according to claim 3, each of the fins has - in contact with the object. a surface used to touch the surface, such that the array is still recessed within this surface; system. 5a Aogu's range In the system of item 4, the above-mentioned surface is the movement of the fin car. Inside, the system remains almost parallel. 6. The system of claim 5, wherein the emitter device is in contact with a light source. and the receptor device comprises a series of QRIN Rondo lenses; A system consisting of a group of GRIN rods and lenses connected to a photodetector. 7. In the robot according to claim 4, the linear set has a 1'-shaped pattern. Robots arranged to form a shape. 8. In the robot according to claim 3, the linear set has a U-shaped pattern. Robots arranged like an eggplant.
JP59501739A 1983-05-27 1984-04-16 Robotic system using light detection Pending JPS60501451A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US498881 1983-05-27
US06/498,881 USH65H (en) 1983-05-27 1983-05-27 Dynamic optical sensing: Robotic system and manufacturing method utilizing same

Publications (1)

Publication Number Publication Date
JPS60501451A true JPS60501451A (en) 1985-09-05

Family

ID=23982885

Family Applications (1)

Application Number Title Priority Date Filing Date
JP59501739A Pending JPS60501451A (en) 1983-05-27 1984-04-16 Robotic system using light detection

Country Status (5)

Country Link
US (1) USH65H (en)
EP (1) EP0144345A4 (en)
JP (1) JPS60501451A (en)
IT (1) IT1176215B (en)
WO (1) WO1984004723A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012513595A (en) * 2008-12-24 2012-06-14 パントロン・インストルメンツ・ゲーエムベーハー Light barrier
KR20150128955A (en) * 2013-03-14 2015-11-18 브룩스 오토메이션 인코퍼레이티드 Tray engine for transferring trays

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4852928A (en) * 1984-02-16 1989-08-01 Multivisions Corporation Robotic end effectors
JPS6171302A (en) * 1984-09-14 1986-04-12 Toshiba Corp Access sensor for robot hand
US4783107A (en) * 1985-06-04 1988-11-08 Clemson University Method and apparatus for controlling impact force during rapid robotic acquisition of object
US5177563A (en) * 1989-02-01 1993-01-05 Texas A&M University System Method and apparatus for locating physical objects
FR2664525A1 (en) * 1990-07-16 1992-01-17 Villejuif Etudes Ind Slice-handling robot with optical sensor
US6202004B1 (en) * 1995-08-10 2001-03-13 Fred M. Valerino, Sr. Autoacceptertube delivery system with a robotic interface
US6477442B1 (en) * 1995-08-10 2002-11-05 Fred M. Valerino, Sr. Autoacceptertube delivery system with a robotic interface
DE19806231C1 (en) * 1998-02-16 1999-07-22 Jenoptik Jena Gmbh Device for gripping an object by a gripping component with interacting adjustable gripping components
DE19817605A1 (en) * 1998-04-17 1999-10-21 Kuka Roboter Gmbh Robot with at least partially outside cables
US6516248B2 (en) * 2001-06-07 2003-02-04 Fanuc Robotics North America Robot calibration system and method of determining a position of a robot relative to an electrically-charged calibration object
US6739567B1 (en) * 2002-10-11 2004-05-25 Pacific Cascade Parking Equipment Corporation Separable magnetic attachment assembly
US7694583B2 (en) * 2005-05-05 2010-04-13 Control Gaging, Inc. Gripper gage assembly
DE102008006685B4 (en) * 2008-01-22 2014-01-02 Schunk Gmbh & Co. Kg Spann- Und Greiftechnik Gripping device for gripping objects
EP2659316B1 (en) * 2011-03-18 2019-10-02 Siemens Healthcare Diagnostics Inc. Methods, systems, and apparatus for calibration of an orientation between an end effector and an article
JP7276520B2 (en) * 2020-02-06 2023-05-18 村田機械株式会社 Clamping device and stacking device
GB202012448D0 (en) * 2020-08-11 2020-09-23 Ocado Innovation Ltd Object presence sensing

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3095982A (en) * 1959-11-30 1963-07-02 Us Industries Inc Compliant support for material handling apparatus
US3888362A (en) * 1973-05-31 1975-06-10 Nasa Cooperative multiaxis sensor for teleoperation of article manipulating apparatus
US3904234A (en) * 1973-10-15 1975-09-09 Stanford Research Inst Manipulator with electromechanical transducer means
JPS59353B2 (en) * 1980-07-24 1984-01-06 ファナック株式会社 gripping device
JPS57113107A (en) * 1980-12-30 1982-07-14 Fanuc Ltd Robot control system

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012513595A (en) * 2008-12-24 2012-06-14 パントロン・インストルメンツ・ゲーエムベーハー Light barrier
KR20150128955A (en) * 2013-03-14 2015-11-18 브룩스 오토메이션 인코퍼레이티드 Tray engine for transferring trays
JP2016514376A (en) * 2013-03-14 2016-05-19 ブルックス オートメーション インコーポレイテッド Tray engine and method for transferring trays to and from tools and in sorters

Also Published As

Publication number Publication date
EP0144345A4 (en) 1987-03-02
USH65H (en) 1986-05-06
EP0144345A1 (en) 1985-06-19
IT1176215B (en) 1987-08-18
IT8421112A1 (en) 1985-11-25
IT8421112A0 (en) 1984-05-25
WO1984004723A1 (en) 1984-12-06

Similar Documents

Publication Publication Date Title
JPS60501451A (en) Robotic system using light detection
US5187748A (en) Optical apparatus for fingerprint identification system
US4867570A (en) Three-dimensional information processing method and apparatus for obtaining three-dimensional information of object by projecting a plurality of pattern beams onto object
US5159322A (en) Apparatus to digitize graphic and scenic information and to determine the position of a stylus for input into a computer or the like
US20080151185A1 (en) Retinal scanning image display apparatus and image display system
CN105651177B (en) A kind of measuring system being suitable for measuring labyrinth
TWI536210B (en) Method of estimating motion with optical lift detection
US6529268B1 (en) Baseline length variable surface geometry measuring apparatus and range finder
CN1360274A (en) Optical mouse
KR20140068927A (en) User interface display device
JPS6220522B2 (en)
EP2116840A2 (en) Multiple surface inspection system and method
KR20120140176A (en) Reflection optical system for object recognition and moving robot using the same
KR101329487B1 (en) System and method for performing optical navigation using a compact optical element
KR20190032475A (en) Machine vision systems and alignment devices for substrate alignment
WO2015099211A1 (en) 3d camera module
JPH04303216A (en) Position detector for unmanned carrier
JP2677351B2 (en) 3D object external inspection system
JP2714119B2 (en) Flow velocity measuring device
Saraga et al. Simple assembly under visual control
JPS62179602A (en) Method and apparatus for recognizing part position
JP2875832B2 (en) Ranging system
JPH07500423A (en) Sensor device, positioning method, and their use in mounting robot control
JPH01232497A (en) Intruder sensor using fiber grating
JP2504944B2 (en) Three-dimensional information processing method