JP7128881B2 - Optical component detection system and method for detecting at least one component - Google Patents

Optical component detection system and method for detecting at least one component Download PDF

Info

Publication number
JP7128881B2
JP7128881B2 JP2020503077A JP2020503077A JP7128881B2 JP 7128881 B2 JP7128881 B2 JP 7128881B2 JP 2020503077 A JP2020503077 A JP 2020503077A JP 2020503077 A JP2020503077 A JP 2020503077A JP 7128881 B2 JP7128881 B2 JP 7128881B2
Authority
JP
Japan
Prior art keywords
image
image sensor
focal plane
optically effective
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020503077A
Other languages
Japanese (ja)
Other versions
JP2020518832A (en
Inventor
フランツ アウグスト ウーべ
Original Assignee
ミュールバウアー ゲゼルシャフト ミット ベシュレンクテル ハフツング ウント コンパニー コマンディトゲゼルシャフト
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ミュールバウアー ゲゼルシャフト ミット ベシュレンクテル ハフツング ウント コンパニー コマンディトゲゼルシャフト filed Critical ミュールバウアー ゲゼルシャフト ミット ベシュレンクテル ハフツング ウント コンパニー コマンディトゲゼルシャフト
Publication of JP2020518832A publication Critical patent/JP2020518832A/en
Application granted granted Critical
Publication of JP7128881B2 publication Critical patent/JP7128881B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/0004Microscopes specially adapted for specific applications
    • G02B21/0016Technical microscopes, e.g. for inspection or measuring in industrial production processes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/02Mountings, adjusting means, or light-tight connections, for optical elements for lenses
    • G02B7/04Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification
    • G02B7/08Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification adapted to co-operate with a remote control mechanism

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Studio Devices (AREA)
  • Testing Or Measuring Of Semiconductors Or The Like (AREA)
  • Lens Barrels (AREA)

Description

半導体コンポーネントは、たとえば半導体エレクトロニクス、太陽光発電、光学的検出器とビーム源(たとえば発光ダイオード)の形成のような、多くの技術領域で適用される。半導体コンポーネントの多様な使用によって、特に品質に関して、半導体コンポーネントメーカーに課される要請はますます高くなる。半導体コンポーネント内、あるいはその上の欠陥又は故障箇所は、望ましくない。というのは、それらが半導体コンポーネントの完璧とは言えない機能性をもたらすことになるからである。したがって半導体コンポーネントは、形成する際にすでに欠陥と故障箇所について検査される。半導体コンポーネントを検査する1つの可能性は、半導体コンポーネントを光学システムによってマイクロメートル領域内で複写することである。 Semiconductor components are applied in many technological areas, such as, for example, semiconductor electronics, photovoltaics, and the formation of optical detectors and radiation sources (eg light emitting diodes). The diverse use of semiconductor components places ever higher demands on semiconductor component manufacturers, especially with respect to quality. Defects or failure points in or on semiconductor components are undesirable. This is because they lead to less-than-perfect functionality of semiconductor components. The semiconductor components are therefore already inspected for defects and faults during production. One possibility for inspecting semiconductor components is to reproduce them in the micrometer range by means of an optical system.

しかし光学システムの従来の構造は、わずかな被写界深度しか有していない。検査すべき半導体コンポーネントの複写すべき表面が、光学システムの画像センサの画像センサ表面に対して傾いている場合には、半導体コンポーネントは画像内で完全にシャープに結像することはできない。さらに、光学システム内に組み込まれた光学コンポーネントは、大きい質量を有している。したがって調節プロセスは緩慢であり、あるいは光学システムは、コンポーネントの変位によって合焦が変化する場合に振動し、それが画像品質を著しく悪化させる。したがって画像を記録するためには、振動が静まるまで待たなければならない。半導体コンポーネントを連続的に形成/検査する場合に、このように画像記録時間が長くなると、半導体コンポーネントの通過量が少なくなる。 However, conventional constructions of optical systems have only a small depth of field. If the surface to be copied of the semiconductor component to be inspected is tilted with respect to the image sensor surface of the image sensor of the optical system, the semiconductor component cannot be imaged perfectly sharply in the image. Furthermore, the optical components incorporated within the optical system have a large mass. The adjustment process is therefore slow, or the optical system oscillates when focus changes due to component displacement, which significantly degrades image quality. Therefore, in order to record an image, one has to wait until the vibration has subsided. This longer image recording time results in a smaller throughput of the semiconductor components when the semiconductor components are continuously formed/inspected.

独国特許出願公開第102008018586号明細書は、コンポーネントの少なくとも1つの表面を検出するための光学的な検出装置に関する。コンポーネントは、固定部材によってカメラ装置へ向けられて、コンポーネントの第1の表面が短波領域内の第1の光ビームを有する光源によって照射される。さらに、検出装置は第2の光源を有しており、それが長波領域内の第2の光ビームをコンポーネントの第2の表面へ照射し、その場合にコンポーネントの第2の表面は第1の表面に対向している。表面で反射された光ビームが、カメラ装置によって受信される。 DE 102008018586 A1 relates to an optical detection device for detecting at least one surface of a component. The component is directed by the fixing member toward the camera device such that a first surface of the component is illuminated by a light source having a first light beam in the short wave range. Furthermore, the detection device has a second light source, which irradiates a second light beam in the long-wave range onto the second surface of the component, the second surface of the component then facing the surface. A light beam reflected from the surface is received by a camera device.

特開2016-128781号は、電子コンポーネントを調査する装置を教示している。この装置は第1と第2の画像記録手段を有しており、それらが電子コンポーネントの様々な領域の画像を記録し、その場合にこれらの領域は、矩形の平行六面体の2つの異なる領域である。
独国特許出願公開第102011089055号明細書からは、シャフトを有する器具が知られており、その場合にシャフトの一端に画像記録装置及び操作ドライブによって線形に変位可能なレンズが配置されている。レンズがランナーに固定されており、そのランナーが円筒状のスライドパイプ内で変位方向に沿って変位可能である。操作ドライブが2つのコイルを有しており、それらのコイルはスライドパイプの回りに配置されている。操作ドライブは、単純に構成されており、容易に取り付けることができる。さらにそれは、たとえばオートクレーブを使用して、簡単に殺菌される。
米国特許出願公開第2015/0168679号明細書からは、画像センサとレンズグループとを有するカメラモジュールが知られている。レンズグループは、操作装置によって画像センサに対して変位する。その場合に操作装置は、レンズグループ用のホルダを有しており、その場合にホルダは、ばねを介して画像センサと結合されている。この形態によって、このカメラモジュールは、振動に対して特に感度が低い。その限りにおいて比較可能な装置が、米国特許出願公開第2014/0368724号明細書からも知られている。
米国特許出願公開第2011/0176046号明細書からは、たとえば携帯電話のカメラモジュール用に使用することができるような、レンズ変位装置が知られている。この装置は画像センサとレンズを有しており、そのレンズは変位ユニットを介して画像センサに対して変位することができる。その場合にレンズグループは、ばねを介して画像センサと結合されている。この装置は、特に小型に構成される。
JP 2016-128781 teaches an apparatus for inspecting electronic components. The device has first and second image recording means which record images of different areas of the electronic component, these areas being two different areas of a rectangular parallelepiped. be.
From DE 102 011 089 055 A1, an instrument is known which has a shaft, at one end of which is arranged a lens which can be linearly displaced by means of an image recording device and an operating drive. A lens is fixed to a runner, and the runner is displaceable along a displacement direction within a cylindrical slide pipe. An operating drive has two coils, which are arranged around the slide pipe. The operating drive is of simple construction and can be easily installed. Furthermore it is easily sterilized, for example using an autoclave.
A camera module with an image sensor and a lens group is known from US 2015/0168679 A1. The lens group is displaced relative to the image sensor by means of a manipulator. The operating device then has a holder for the lens group, the holder being connected to the image sensor via a spring. Due to this configuration, the camera module is particularly insensitive to vibrations. A device comparable insofar is also known from US 2014/0368724.
From US 2011/0176046 A1 a lens displacement device is known, such as can be used, for example, for camera modules of mobile phones. The device has an image sensor and a lens, the lens being displaceable relative to the image sensor via a displacement unit. The lens group is then connected to the image sensor via a spring. The device is constructed particularly compactly.

独国特許出願公開第102008018586号明細書DE 102008018586 A1 特開2016-128781号JP 2016-128781

本出願の課題は、コンポーネントを検出するための効率的な光学的コンポーネント検出システムを提供することである。 The problem of the present application is to provide an efficient optical component detection system for detecting components.

提案された解決
少なくとも1つのコンポーネントの少なくとも1つの表面を検出するための光学的なコンポーネント検出システムが提案される。収容部は、コンポーネントの第1の表面をカメラ装置によって検出するために、コンポーネントをカメラ装置の前に位置決めするように、整えられている。カメラ装置が画像センサを有し、その画像センサは、コンポーネントの表面において反射された光を受信するように、整えられている。光学的なコンポーネント検出システムは、さらに、画像センサに対して反射された光の光路内に配置された、第1の光学的に有効な部材と、第1の光学的に有効な部材用の操作装置とを有している。操作装置は、第1の光学的に有効な部材用のホルダを有している。ホルダは、中空円筒状の鏡胴の内側に固定されており、かつ鏡胴の長手中心軸は第1の光学的に有効な部材の光学軸に対して同軸に方位づけされている。ホルダは、少なくとも鏡胴長手方向において弾性的に撓むことができる。さらに操作装置は、光学的に有効な部材を光学軸に沿って画像センサに対して変位させるために、光学的に有効な部材と画像センサの間の相対間隔を調節するための第1の操作ドライブを有している。
Proposed Solution An optical component detection system is proposed for detecting at least one surface of at least one component. The receptacle is arranged to position the component in front of the camera device for detection of the first surface of the component by the camera device. A camera device has an image sensor arranged to receive the light reflected at the surface of the component. The optical component detection system further includes a first optically effective member positioned in the optical path of the light reflected to the image sensor; device. The operating device has a holder for the first optically effective member. The holder is fixed inside a hollow cylindrical lens barrel, and the central longitudinal axis of the lens barrel is oriented coaxially with respect to the optical axis of the first optically effective member. The holder can elastically bend at least in the longitudinal direction of the lens barrel. The manipulator further comprises a first manipulation for adjusting the relative spacing between the optically effective member and the image sensor to displace the optically effective member along the optical axis relative to the image sensor. have a drive.

弾性的に撓むことができるホルダによって、しかるべきねじ又は光学的に有効な部材の長手方向変位可能なフレームなしで、第1の光学的に有効な部材のみを保持することが、可能である。光学的に有効な部材がアクロマートである場合に、アクロマートのレンズペア(たとえばクラウンガラスレンズとフリントガラスレンズとからなる)をホルダによって保持することができる。したがってレンズペアのフレームは不要であり、光学的に有効な部材の移動すべき質量も、光学的なコンポーネント検出システムの質量全体も、削減される。ホルダを有する光学的に有効な部材の質量がより小さいことによって、光学的に有効な部材の位置は、比較的小さい力をくわえることによって変位させることができる。より小さい質量が、光学的に有効な部材の慣性の少ない駆動を許す。したがってコンポーネントの焦点平面は、迅速に再調整される。 With an elastically deflectable holder it is possible to hold only the first optically effective member without appropriate screws or a longitudinally displaceable frame of the optically effective member. . If the optically active member is an achromatic, the achromatic lens pair (eg, crown glass lens and flint glass lens) can be held by the holder. A frame of lens pairs is therefore not required, reducing the mass to be moved of the optically effective member and the overall mass of the optical component detection system. Due to the smaller mass of the optically effective member with the holder, the position of the optically effective member can be displaced by applying a relatively small force. A smaller mass allows less inertia driving of the optically effective member. The focal plane of the component is thus rapidly readjusted.

弾性的に撓むホルダは、ゴムを含む材料あるいはコイルばねを有することができ、あるいはじゃばらとして形成することができる。代替的にホルダは、皿ばねとして形成することができ、その場合に皿ばねはその芯軸内に開口部を有しており、その開口部内に第1の光学的に有効な部材が収容されている。 The resiliently flexible holder can have a rubber-containing material or a coil spring, or can be formed as a bellows. Alternatively, the holder can be formed as a disc spring, in which case the disc spring has an opening in its core, in which opening the first optically effective member is received. ing.

すなわち外部の源から光学的に有効な部材へくわわる振動のような障害は、著しく減衰させ、あるいは特に回避することができる。したがって光学的なコンポーネント検出システムによって実施される測定は、障害に対する感度が低い。 Disturbances such as vibrations from external sources to the optically effective member can thus be significantly damped or especially avoided. Measurements performed by optical component detection systems are therefore less sensitive to disturbances.

さらに、弾性的に撓むホルダは、その弾性的な特性によって無段階に伸張可能又は収縮可能であるので、第1の光学的に有効な部材の位置の正確な調整が可能になる。 Furthermore, the resiliently deflectable holder can be steplessly extended or retracted by virtue of its elastic properties, thus allowing precise adjustment of the position of the first optically effective member.

コンポーネントは、実際の製造環境において場合によっては光学系に対して正確に整合させることができない。このような場合においては、充分な被写界深度をもってコンポーネントを完全に鮮明に結像させることは、不可能である。ここで紹介される光学的なコンポーネント検出システムによって、一連の複数の画像記録を迅速に実施することができる。 Components sometimes cannot be precisely aligned to the optics in a real manufacturing environment. In such cases, it is not possible to image the component perfectly sharply with sufficient depth of field. The optical component detection system presented here allows a series of multiple image recordings to be performed rapidly.

光学的なコンポーネント検出システムの良好かつ迅速な調整可能性によって、コンポーネントの測定をより迅速かつより正確に実施することができるので、高い通過量が得られる。 Good and rapid adjustability of the optical component detection system allows the measurement of the component to be carried out faster and more precisely, thus resulting in a high throughput.

変形例と形態
画像センサは、CCDチップとすることができる。他の変形例において、画像センサはCMOSチップ又はミクロボロメートルアレイ又はパイロエレクトリックアレイのような、所定の波長領域のために感度を有する画像センサとすることができる。
Variants and morphological image sensors can be CCD chips. In another variant, the image sensor can be an image sensor sensitive for a given wavelength range, such as a CMOS chip or a microbolometric array or a pyroelectric array.

鏡胴は、小さい透過性を有する。変形例において、鏡胴は永久磁石材料を有する。さらに鏡胴は、少なくともアルミニウム又はプラスチックを有することができる。 The barrel has a small transparency. In a variant, the barrel comprises permanent magnet material. Furthermore, the barrel can comprise at least aluminum or plastic.

コイルは、鏡胴に添接して、あるいはそれから離隔して配置することができる。コイルの位置は、光学軸上のホルダの位置に関して変位させることができる。 The coil can be placed either attached to the barrel or spaced therefrom. The position of the coil can be displaced with respect to the position of the holder on the optical axis.

ホルダは、第1の端部領域を有しており、ホルダのその第1の端部領域が鏡胴に固定されている。ホルダは、さらに、第2の端部領域を有しており、その第2の端部領域に第1の光学的に有効な部材が保持されている。非作動得状態において、ホルダの第1の端部領域の位置は、光学軸に関して、コイルの端部の位置と一致することができる。他の変形例において、ホルダの第1の端部領域の位置は、光学軸に関してコイルの内部又は外部に配置することができる。その代わりに、ありはそれに加えて、ホルダの第2の端部領域は、光学軸に関して、コイルの内部又は外部に位置することができる。 The holder has a first end region and the first end region of the holder is fixed to the barrel. The holder also has a second end region in which the first optically effective member is retained. In the non-actuated state, the position of the first end region of the holder can coincide with the position of the ends of the coil with respect to the optical axis. In another variant, the position of the first end region of the holder can be arranged inside or outside the coil with respect to the optical axis. Alternatively or additionally, the second end region of the holder can be located inside or outside the coil with respect to the optical axis.

第1の操作ドライブのホルダは、少なくともセクション的にコイルによって包囲することができる。制御装置は、磁場を発生させるためにコイルへ供給される電流を制御するように、整えられている。ホルダはさらに、軟鉄を含む、あるいは永久磁石のコンポーネントとして、軟鉄を含むヨークあるは永久磁石のヨークを有しており、そのヨークは、コイルへ供給される電流に従って鏡胴の長手中心軸に沿ってホルダを変位させるように、整えられている。 The holder of the first operating drive can be surrounded at least sectionally by the coil. A controller is arranged to control the current supplied to the coil to generate the magnetic field. The holder further comprises a yoke containing soft iron or, as a permanent magnet component, a yoke containing soft iron or a yoke of permanent magnets, the yoke moving along the central longitudinal axis of the barrel according to the current supplied to the coil. are arranged to displace the holder by

この構造によって、相対間隔を調節するための手段の摩耗あるいは摩損が減少される。さらに磁場によって発生される、ホルダへくわわる力によって、相対間隔の正確な調節が可能になる。 This construction reduces wear or galling of the means for adjusting the relative spacing. Furthermore, the force exerted on the holder by the magnetic field allows precise adjustment of the relative spacing.

軟鉄を含むヨークを有するホルダがコイルの一方の端部に配置されている場合に、コイル中央の方向において力がコイルに作用する。磁場が低下されて、その後オフにされた場合に、もはやホルダに力は作用しない。その場合にホルダは、再びその初期位置を占める。 When a holder with a yoke containing soft iron is placed at one end of the coil, a force acts on the coil in the direction of the coil center. When the magnetic field is lowered and then turned off, there is no longer any force acting on the holder. The holder then assumes its initial position again.

ホルダが永久磁石のヨークを有する場合に、コイルを流れる電流の流れ方向及び永久磁石のコンポーネントの永久磁石のN極とS極の方位に従って、ホルダは2つの方向に伸張することができる。したがって永久磁石のコンポーネントによって、相対間隔を両方向に所望に変位させることが可能である。 If the holder has a permanent magnet yoke, the holder can be stretched in two directions according to the direction of current flow through the coil and the orientation of the north and south poles of the permanent magnets of the permanent magnet component. The permanent magnet component thus allows the desired displacement of the relative spacing in both directions.

収容部は、コンポーネントの焦点平面が少なくとも部分的に画像センサの画像センサ表面上に投影されるように、コンポーネントをカメラ装置の前に位置決めするように、整えることができる。 The housing can be arranged to position the component in front of the camera device such that the focal plane of the component is at least partially projected onto the image sensor surface of the image sensor.

光学的なコンポーネント検出システムは、さらに、光学軸に沿って画像センサを第1の光学的な部材に対して変位させるために、画像センサを変位させるための、制御装置によって制御される第2の操作ドライブを有することができる。 The optical component detection system further comprises a second optical component controlled by the controller for displacing the image sensor to displace the image sensor relative to the first optical member along the optical axis. You can have an operational drive.

第2の操作ドライブは、少なくとも1つのピエゾアクチュエータあるいは細かく走行する、リニア作動する軸システムを有することができる。細かく走行する、リニア作動する軸システムは、コネクティングロッドからなるシステムとすることができる。 The second operating drive can have at least one piezo actuator or a finely traveling, linearly actuated axis system. The fine-running, linear-acting axis system can be a system of connecting rods.

第2の操作ドライブによって、画像センサを光学軸上で変位させ、かつ焦点平面を画像センサの画像センサ表面上に投影することが、可能である。したがってコンポーネント上に光学系を迅速に合焦させることが可能となる。 By means of a second actuation drive it is possible to displace the image sensor on the optical axis and to project the focal plane onto the image sensor surface of the image sensor. Therefore, it is possible to quickly focus the optics on the component.

したがって画像センサによるコンポーネントの最初の記録においてすでに、画像内にコンポーネントの所定の部分が鮮明に結像される。 Therefore, already in the first recording of the component by the image sensor, a defined part of the component is clearly imaged in the image.

さらに光学的なコンポーネント検出システムは、光源を有することができ、その光源は、光をコンポーネントの表面へ送出するように、整えられている。光源は、あらかじめ定められた波長を有する光又は所定の波長領域の光をコンポーネントの表面へ送出するように、整えられている。光源から放出される光は、約380nmから780nmの領域内の波長を有する可視光、赤外光及び/又は偏光された光とすることができる。付加的に画像センサは、赤外光内、あるいは偏光された光に感度を有することができる。 Furthermore, the optical component detection system can have a light source, which is arranged to deliver light to the surface of the component. The light source is arranged to deliver light having a predetermined wavelength or light in a predetermined wavelength range to the surface of the component. The light emitted from the light source can be visible light, infrared light and/or polarized light having wavelengths within the range of approximately 380 nm to 780 nm. Additionally, the image sensor can be sensitive in the infrared or to polarized light.

選択肢として、制御装置は、反射された光の焦点平面を画像センサの反射された光へ向いた画像センサ表面上へ投影するために、第1及び/又は第2の操作ドライブの制御によって第1の光学的に有効な部材と画像センサとの間の相対間隔を調節するように、整えることができる。 Optionally, the control device controls the first and/or second operating drive to project the focal plane of the reflected light onto the image sensor surface directed toward the reflected light. can be arranged to adjust the relative spacing between the optically effective member of and the image sensor.

第1及び/又は第2の操作ドライブを制御することによって、第1の光学的に有効な部材と画像センサの間の相対間隔の迅速かつ正確な調節を行うことができるので、焦点平面が画像センサの画像センサ表面上へ投影される。 By controlling the first and/or second operating drive, quick and precise adjustment of the relative spacing between the first optically effective member and the image sensor can be made so that the focal plane is aligned with the image. It is projected onto the image sensor surface of the sensor.

光学的なコンポーネント検出システムの画像処理は、画像センサによってコンポーネントの第1の画像を記録するように、整えられている。画像センサは、第1の画像を画像処理へ提供する。形成された第1の画像に基づいて、画像処理は、反射された光の焦点平面が画像センサの画像センサ表面上に実質的に完全に投影されているか、を定める。反射された光の焦点平面が画像センサの画像センサ表面上に実質的に完全に投影されていない場合には、画像処理は、第1の画像の第1の多数の画像領域の、反射された光の焦点平面の第1の部分領域が画像センサの画像センサ表面上に投影されている、第1の画像領域を定めるように、整えられている。 The image processing of the optical component detection system is arranged to record a first image of the component with the image sensor. The image sensor provides the first image to image processing. Based on the formed first image, image processing determines if the focal plane of the reflected light is substantially fully projected onto the image sensor surface of the image sensor. If the focal plane of the reflected light is not substantially fully projected onto the image sensor surface of the image sensor, then the image processing may be a first number of image regions of the first image, the reflected A first partial area of the focal plane of the light is arranged to define a first image area projected onto the image sensor surface of the image sensor.

さらに画像処理は、第1の画像の第1の多数の画像領域の、反射された光の焦点平面の第2の部分領域が画像センサの画像センサ表面上に投影されていない、第2の画像領域を定めるように、整えられている。画像処理はさらに、制御装置へ制御指令を提供するように、整えられている。制御装置は、制御指令に基づいて、光学的に有効な部材と画像センサの間の相対間隔を調節するために、第1及び/又は第2の操作ドライブを制御するように、整えられている。その場合に反射された光の焦点平面の第2の部分領域は、反射された光の焦点平面が画像センサの画像センサ領域上に投影されるように、調節される。 The image processing further comprises generating a second image in which a second partial area of the focal plane of the reflected light of the first number of image areas of the first image is not projected onto the image sensor surface of the image sensor. Arranged to define the area. Image processing is further arranged to provide control commands to the controller. A controller is arranged to control the first and/or second operating drives to adjust the relative spacing between the optically effective member and the image sensor based on the control commands. . The second partial area of the focal plane of the reflected light is then adjusted such that the focal plane of the reflected light is projected onto the image sensor area of the image sensor.

画像処理は、さらに、画像センサによってコンポーネントの第2の画像を記録するように、整えられている。第2の画像内で画像処理は、第2の画像の第2の多数の画像領域の、反射された光の焦点平面の第1の部分領域が画像センサの画像センサ表面上に投影されていない、第3の画像領域を定める。さらに画像処理は、第2の画像の第2の多数の画像領域の、反射された光の焦点平面の第2の部分領域が画像センサの画像センサ表面上に投影されている、第4の画像領域を定める。 Image processing is further arranged to record a second image of the component with the image sensor. Within the second image the image processing is performed such that a first partial area of the focal plane of the reflected light of the second number of image areas of the second image is not projected onto the image sensor surface of the image sensor. , defines a third image region. The image processing further comprises a fourth image in which a second partial area of the focal plane of the reflected light of the second number of image areas of the second image is projected onto the image sensor surface of the image sensor. define the area.

コンポーネントが画像内に鮮明に結像できない場合には、上述したプロセスによって、コンポーネントの少なくとも2つの記録を形成することが可能であって、それらにおいてそれぞれ画像領域がコンポーネントの一部を鮮明に複写している。さらに、認識されている鮮明でない画像領域は、次の画像内で鮮明に複写されるので、完全なコンポーネントの検査が可能になる。 If the component cannot be sharply imaged in the image, the process described above can form at least two records of the component, in each of which the image areas sharply duplicate a portion of the component. ing. In addition, the dull image areas that are recognized are duplicated sharply in the next image, allowing inspection of the complete component.

第1の代替案において、画像処理は、画像センサによって第1の画像を記録するように、整えることができ、その画像センサが第1の画像を画像処理へ提供する。画像処理は、さらに、第1の光学的に有効な部材と画像センサの間の相対間隔をあらかじめ定められた距離長さだけ調節するために、第1及び/又は第2の操作ドライブを制御するために制御装置に制御指令を提供するように、整えられている。さらに画像処理は、画像センサによって第2の画像を記録するように整えられており、その場合に画像センサは第2の画像を画像処理へ提供する。 In a first alternative, the image processing can be arranged to record the first image with an image sensor, which image sensor provides the first image to the image processing. The image processing further controls the first and/or second operating drive to adjust the relative spacing between the first optically effective member and the image sensor by a predetermined distance length. is arranged to provide control commands to the controller for Furthermore, the image processing is arranged to record a second image with the image sensor, in which case the image sensor provides the second image to the image processing.

画像処理は、第1の画像の記録後あらかじめ定められた期間の後に、制御指令を第1及び/又は第2の操作ドライブへ提供することができる。 The image processing can provide control instructions to the first and/or second operating drive after a predetermined period of time after recording the first image.

あらかじめ定められた距離長さは、第1及び/又は第2の光学的に有効な部材の光学的特性及び/又はコンポーネントの表面の寸法に依存することができる。好ましくはあらかじめ定められた距離長さは、被写界深度に依存することができるので、あらかじめ定められた距離長さは、被写界深度よりも小さく、それに等しく、あるいはそれより大きい。 The predetermined distance length can depend on the optical properties of the first and/or the second optically effective member and/or the dimensions of the surface of the component. Preferably the predetermined distance length can depend on the depth of field, so that the predetermined distance length is less than, equal to or greater than the depth of field.

被写界深度よりも小さく、それに等しく、あるいはそれより大きい、あらかじめ定められた距離長さにおいて、記録された画像の個々の鮮明に複写する画像領域によって、コンポーネントの表面を欠陥について完全に調査することができる。あらかじめ定められた距離長さが被写界深度よりも大きい場合には、コンポーネントのあらかじめ定められた表面領域を欠陥について調査することができる。同様に他の表面領域も、欠陥について調査される。したがって表面領域を欠陥について検査することは、少ない計算の手間で、かつ/又はより短い時間内で実施することができる。 Thoroughly survey the surface of the component for defects by individual sharply reproducing image areas of the recorded image at a predetermined distance length less than, equal to, or greater than the depth of field be able to. If the predetermined distance length is greater than the depth of field, a predetermined surface area of the component can be examined for defects. Other surface areas are similarly investigated for defects. Inspecting a surface region for defects can thus be performed with less computational effort and/or within a shorter time.

第2の代替案において、画像処理は、画像センサによって第1の画像を記録するように整えられており、その画像センサが第1の画像を画像処理へ提供する。画像処理は、さらに、第1の画像を記録する間に第1の光学的に有効な部材と画像センサの間の相対間隔をあらかじめ定められた速度で調節するために、第1及び/又は第2の操作ドライブを制御するための制御指令を制御装置へ提供するように、整えられている。さらに、画像処理は、画像センサによって第2の画像を記録するように整えられており、その画像センサが第2の画像を画像処理へ提供する。第2の画像は、第1の画像の後に、あるいは第1の画像が記録された後にあらかじめ定められた期間後に、かつ第1の光学的に有効な部材と画像センサの間の相対間隔が調節される間に、記録される。他の代替案において、第2の画像は、画像センサと第1の光学的に有効な部材との間の相対間隔のあらかじめ定められた長さ変化の後に、記録される。 In a second alternative, the image processing is arranged to record the first image with an image sensor, which image sensor provides the first image to the image processing. The image processing may further comprise first and/or first sensors for adjusting the relative spacing between the first optically effective member and the image sensor at a predetermined rate while recording the first image. arranged to provide control commands to the controller for controlling the two operating drives. Additionally, the image processing is arranged to record the second image with an image sensor, which image sensor provides the second image to the image processing. The second image is recorded after the first image or after a predetermined period of time after the first image is recorded and the relative spacing between the first optically effective member and the image sensor is adjusted. is recorded while In another alternative, the second image is recorded after a predetermined length change in the relative spacing between the image sensor and the first optically effective member.

画像処理は、第2の画像の記録後に、画像センサと第1の光学的に有効な部材との間の相対間隔の調節を停止させるために、第1及び/又は第2の操作ドライブに他の制御指令を提供するように、整えることができる。 Image processing may be performed on the first and/or second operating drives to stop adjusting the relative spacing between the image sensor and the first optically effective member after recording the second image. can be arranged to provide a control command for

あらかじめ定められた速度は、第1及び/又は第2の光学的に有効な部材の光学的特性、コンポーネントの表面の寸法、第1及び/又は第2の光学的に有効な部材及び/又は画像センサの質量及び第1及び/又は第2の操作ドライブによるこれらの応答特性に依存することができる。 The predetermined velocity may be determined based on optical properties of the first and/or second optically effective members, surface dimensions of the component, first and/or second optically effective members and/or images. These response characteristics due to the mass of the sensor and the first and/or second actuation drive can be relied upon.

あらかじめ定められた速度は、画像が記録される間に、画像センサと第1の光学的に有効な部材の間の相対間隔が被写界深度よりも遠く変位されないように、選択することができる。したがって記録された画像は、同時に画像センサと第1の光学的に有効部材との間の相対間隔が調節されるにもかかわらず、充分に鮮明に記録される。画像センサと第1の光学的に有効な部材との間の相対間隔を連続的に調節することによって、画像センサ及び/又は第1の光学的に有効な部材は、停止されて、次に再び加速される必要はない。これが、画像センサ及び/又は第1の光学的に有効な部材の加速と停止によって生じる振動が回避される、という利点をもたらす。他の利点は、コンポーネントを欠陥について検査するための時間が最小限に抑えられることである。というのは、画像センサ及び/又は第1の光学的に有効な部材は1回だけ加速して停止させれば済むからである。 The predetermined speed can be selected such that the relative spacing between the image sensor and the first optically effective member is displaced no further than the depth of field while the image is recorded. . The recorded image is thus recorded with sufficient sharpness even though the relative spacing between the image sensor and the first optically effective member is adjusted at the same time. By continuously adjusting the relative spacing between the image sensor and the first optically effective member, the image sensor and/or the first optically effective member can be deactivated and then reactivated. Doesn't need to be accelerated. This provides the advantage that vibrations caused by acceleration and stopping of the image sensor and/or the first optically effective member are avoided. Another advantage is that the time to inspect the component for defects is minimized. This is because the image sensor and/or the first optically effective member need only be accelerated and stopped once.

第1と第2の代替案の画像処理は、第1の画像の記録後あるいは第2の画像の記録後に、第1の画像の第1の多数の画像領域の第1の画像領域を定めるように、整えることができる。第1の画像領域において、反射された光の焦点平面の第1の部分領域が画像センサの画像センサ表面上に投影されている。それに加えて、あるいはその代わりに、画像処理は、第1の画像の第1の多数の画像領域の第2の画像領域を定め、それにおいて反射された光の焦点平面の第2の部分領域は画像センサの画像センサ表面上に投影されていない。 The image processing of the first and second alternatives is to define a first image area of a first plurality of image areas of the first image after recording the first image or after recording the second image. can be arranged. In the first image area a first partial area of the focal plane of the reflected light is projected onto the image sensor surface of the image sensor. Additionally or alternatively, the image processing defines a second image area of the first plurality of image areas of the first image, in which a second sub-area of the focal plane of the reflected light is Not projected onto the image sensor surface of the image sensor.

さらに画像処理は付加的又は代替的に、第2の画像の記録後に第2の画像の第2の多数の画像領域の第3の画像領域を定めることができる。第3の画像領域において、反射された光の焦点平面の第1の部分領域は画像センサの画像センサ表面上に投影されていない。付加的あるいは代替的に、画像処理はさらに、第2の画像の第2の多数の画像領域の第4の画像領域を定め、それにおいて、反射された光の焦点平面の第2の部分領域が画像センサの画像センサ表面上に投影されている。 Furthermore, the image processing can additionally or alternatively define a third image area of the second number of image areas of the second image after recording the second image. In the third image area the first partial area of the focal plane of the reflected light is not projected onto the image sensor surface of the image sensor. Additionally or alternatively, the image processing further defines a fourth image area of the second number of image areas of the second image, in which a second partial area of the focal plane of the reflected light is It is projected onto the image sensor surface of the image sensor.

画像処理は、さらに、第2の画像の記録後に、画像センサと第1の光学的に有効な部材との間の相対間隔をその初期長さに調節するために、第2の画像の記録後に第1及び/又は第2の操作ドライブを制御するために、制御装置へ制御指令を提供するように、整えることができる。 The image processing further comprises after recording the second image for adjusting the relative spacing between the image sensor and the first optically effective member to its initial length after recording the second image. Arrangements can be made to provide control commands to the controller for controlling the first and/or second operating drive.

第1の画像の第1と第2の画像領域は、コンポーネントのそれぞれ一部分を複写することができ、その部分は実質的に、第2の画像の第3と第4の部分領域内のコンポーネントの前記部分に相当することができる。第1の画像の第1と第2の画像領域が、コンポーネントを完全に複写する。 The first and second image regions of the first image may each reproduce a portion of the component, which portions are substantially of the component in the third and fourth sub-regions of the second image. It can correspond to the above part. The first and second image regions of the first image completely replicate the component.

第1の画像の第1の多数の画像領域は、第2の画像の第2の多数の画像領域に相当することができる。 The first number of image regions of the first image can correspond to the second number of image regions of the second image.

第1の画像の第1と第2の画像領域及び/又は第2の画像の第3と第4の画像領域は、互いに連続する画像領域とすることができる。代替的に、第1の画像の第1と第2の画像領域と第2の画像の第3と第4の画像領域は、少なくとも部分的に交差することができる。 The first and second image areas of the first image and/or the third and fourth image areas of the second image can be contiguous image areas. Alternatively, the first and second image regions of the first image and the third and fourth image regions of the second image can at least partially intersect.

第1の画像において、焦点平面の第1の部分領域が、そして第2の画像においては焦点平面の第2の部分領域が、あらかじめ定められた被写界深度内で画像センサの画像センサ表面上に投影することができる。その場合に第1の画像において焦点平面の第2の部分領域及び第2の画像において焦点平面の第1の部分領域は、あらかじめ定められた被写界深度の外部で画像センサの画像センサ表面上に投影される。 In the first image a first partial area of the focal plane and in the second image a second partial area of the focal plane are located on the image sensor surface of the image sensor within a predetermined depth of field. can be projected onto In that case the second partial area of the focal plane in the first image and the first partial area of the focal plane in the second image are outside the predetermined depth of field on the image sensor surface of the image sensor. projected onto.

画像処理は、第1の画像から第1の画像領域を、そして第2の画像からは第4の画像領域を切り出すように整えることができる。さらに画像処理は、第3の画像を形成するために、切り出した第1と第4の画像領域を継ぎ合わせるように、整えられている。 The image processing can be arranged to crop a first image region from the first image and a fourth image region from the second image. Further image processing is arranged to stitch the cut out first and fourth image regions to form a third image.

第3の画像を形成することによって、コンポーネントを障害箇所又は欠陥について検査する場合に、画像処理によって1つの画像のみを検査すればよく、2つの画像を検査する必要はないので、画像を検査するための時間長さと計算の手間が削減される。 By forming a third image, when inspecting the component for faults or defects, the image processing only needs to inspect one image, not two images, so that the image is inspected. The time length and computational effort required for

画像処理はさらに、第1の画像の第1の画像領域及び/又は第2の画像の第4の画像領域及び/又は第3の画像に基づいて、コンポーネントが少なくとも1つの障害箇所を有しているか、を定めるように、整えることができる。画像処理が少なくとも1つの障害箇所を定めた場合に、画像処理は、コンポーネントについての障害箇所情報を提供するように、整えられている。 The image processing further includes the component having at least one fault location based on the first image region of the first image and/or the fourth image region of the second image and/or the third image. It can be arranged to determine whether it is a dolphin or not. The image processing is arranged to provide fault location information for the component when the image processing defines at least one fault location.

光学的なコンポーネント検出システムは、位置検出センサを有することができ、その位置検出センサは、第1の光学的に有効な部材及び/又は画像センサの画像センサ表面の位置及び/又は姿勢を定めるように、整えられている。位置検出センサは、さらに、光学的に有効な部材及び/又は画像センサの画像センサ表面の位置及び/又は姿勢に関する情報を制御装置へ提供するように、整えられており、その制御装置が提供された情報に基づいて第1及び/又は第2の操作ドライブを制御する。位置検出センサは、光学的あるいは(電子-)機械的な位置検出センサとすることができる。 The optical component detection system can have a position detection sensor for determining the position and/or orientation of the first optically effective member and/or the image sensor surface of the image sensor. It's well appointed. The position detection sensor is further arranged to provide information regarding the position and/or orientation of the optically effective member and/or the image sensor surface of the image sensor to the controller, the controller being provided with controlling the first and/or second operating drive based on the information obtained. The position sensor can be an optical or (electro-)mechanical position sensor.

位置検出センサは、鏡胴の内側に取り付けることができる。他の変形例において、位置検出センサは画像センサ内に統合することができる。ホルダは、表面領域上にパターンを有しており、そのパターンが画像センサへ向けられている。画像センサは、表面領域上のパターンを認識して、認識された表面領域に基づいて光学的に有効な部材の位置及び/又は姿勢を定めるように、整えられている。 The position detection sensor can be attached inside the lens barrel. In another variant, the position detection sensor can be integrated within the image sensor. The holder has a pattern on the surface area and the pattern is directed towards the image sensor. The image sensor is arranged to recognize the pattern on the surface area and determine the position and/or orientation of the optically effective member based on the recognized surface area.

提供された情報によって、制御装置には、反射された光の焦点平面をコンポーネントの画像センサ表面上に投影するために、第1の光学的に有効な部材及び/又は画像センサを正確に位置決めすることが、可能である。 The information provided allows the controller to precisely position the first optically effective member and/or the image sensor to project the focal plane of the reflected light onto the image sensor surface of the component. Is possible.

カメラ装置は、光路内で第1の光学的に有効な部材と画像センサとの間に第2の光学的に有効な部材を有することができる。第2の光学的に有効な部材の光学軸は、第1の光学的に有効な部材の光学軸に対して同軸に方位づけされている。 The camera device may have a second optically effective member in the optical path between the first optically effective member and the image sensor. The optical axis of the second optically effective member is oriented coaxially with respect to the optical axis of the first optically effective member.

第1の光学的に有効な部材はアクロマートとすることができ、あるいはアクロマートかつ/又は第2の光学的に有効な部材は集光レンズとすることができる。 The first optically effective member can be an achromat, or the achromat and/or the second optically effective member can be a focusing lens.

光の屈折率は、赤から青へ向かって連続的に増大し、したがってレンズの焦点距離は減少する。この結像エラーを補償し、あるいは補正するために、アクロマートが使用される。 The refractive index of light increases continuously from red to blue, thus decreasing the focal length of the lens. Achromats are used to compensate or correct for this imaging error.

さらに、少なくとも1つのコンポーネントの少なくとも1つの表面を検出するための光学的なコンポーネント検出システムが提案される。収容部は、コンポーネントの第1の表面をカメラ装置によって検出するために、コンポーネントをカメラ装置の前に位置決めするように、整えられている。カメラ装置が画像センサを有し、その画像センサは、コンポーネントの第1の表面において反射された光を受信するように、整えられている。光学的なコンポーネント検出システムはさらに、画像センサに対して反射された光の光路内に配置された、第1の光学的に有効な部材と、第1の光学的な部材用の操作装置とを有している。操作装置は、第1の光学的な部材用のホルダを有している。ホルダは、中空円筒状の鏡胴の内側にリニアガイドによって固定されており、かつ鏡胴の長手中心軸は第1の光学的に有効な部材の光学軸に対して同軸に方位づけされている。リニアガイドは、ホルダを光学軸に対して平行に案内するように、整えられている。操作装置はさらに、第1の光学的に有効な部材を画像センサに対して変位させるために、画像センサと第1の光学的に有効な部材の間の相対間隔を調節するための第1の操作ドライブを有している。 Furthermore, an optical component detection system is proposed for detecting at least one surface of at least one component. The receptacle is arranged to position the component in front of the camera device for detection of the first surface of the component by the camera device. A camera device has an image sensor arranged to receive light reflected at the first surface of the component. The optical component detection system further includes a first optically effective member positioned in the optical path of the light reflected to the image sensor and a manipulator for the first optical member. have. The operating device has a holder for the first optical member. The holder is fixed by a linear guide inside a hollow cylindrical lens barrel, and the central longitudinal axis of the lens barrel is oriented coaxially with respect to the optical axis of the first optically effective member. . The linear guides are arranged to guide the holder parallel to the optical axis. The manipulator further includes a first optically effective member for adjusting the relative spacing between the image sensor and the first optically effective member to displace the first optically effective member relative to the image sensor. Have an operational drive.

さらに、光学的に有効な部材のための操作装置が提案され、それは第1の光学的に有効な部材のためのホルダを有している。ホルダは、中空円筒状の鏡胴の内側に固定されており、かつ鏡胴の長手中心軸は第1の光学的に有効な部材の光学軸に対して同軸に方位づけされている。ホルダは、少なくとも鏡胴長手方向に弾性的に撓むことができる。操作装置はさらに、光学軸に沿って第1の光学的に有効な部材を画像センサに対して変位させるために、ホルダを変位させるための第1の操作ドライブを有している。 Furthermore, an operating device for the optically effective member is proposed, which has a holder for the first optically effective member. The holder is fixed inside a hollow cylindrical lens barrel, and the central longitudinal axis of the lens barrel is oriented coaxially with respect to the optical axis of the first optically effective member. The holder can elastically bend at least in the longitudinal direction of the lens barrel. The manipulator further comprises a first manipulator drive for displacing the holder to displace the first optically effective member relative to the image sensor along the optical axis.

さらに光学的に有効な部材のための操作装置が提案され、それは、第1の光学的に有効な部材のためのホルダを有している。ホルダは、中空円筒状の鏡胴の内側にリニアガイドによって固定されており、かつ鏡胴の中心長手軸は第1の光学的に有効な部材の光学軸に対して同軸に方位づけされている。リニアガイドは、ホルダを光学軸に対して平行に案内するように整えられている。操作装置はさらに、光学軸に沿って第1の光学的に有効な部材を鏡胴に対して変位させるために、ホルダを変位させるための第1の操作ドライブを有している。 Furthermore, an operating device for the optically effective member is proposed, which has a holder for the first optically effective member. The holder is fixed inside a hollow cylindrical lens barrel by a linear guide, and the central longitudinal axis of the lens barrel is oriented coaxially with respect to the optical axis of the first optically effective member. . The linear guide is arranged to guide the holder parallel to the optical axis. The operating device further comprises a first operating drive for displacing the holder to displace the first optically effective member relative to the barrel along the optical axis.

付加的に少なくとも1つのコンポーネントの少なくとも1つの表面を検出する方法が提案され、方法は以下のステップを有している:コンポーネントをカメラ装置に対して整合させ;コンポーネントの第1の表面を、カメラ装置によって、検出する;コンポーネントの第1の表面において反射された光を、カメラ装置の画像センサによって受信し;長手方向に弾性的に撓むホルダによって、反射された光の光路内に第1の光学的に有効な部材を保持し;その場合に長手方向は、光学的に有効な部材の光学軸に対して平行に方位づけされており;光学軸に沿って第1の光学的に有効な部材を画像センサに対して変位させるために、画像センサと第1の光学的に有効な部材との間の相対間隔を調節する。 A method for additionally detecting at least one surface of at least one component is proposed, the method comprising the steps of: aligning the component with respect to a camera device; light reflected at the first surface of the component is received by an image sensor of the camera device; a longitudinally elastically deflectable holder inserts the first holding an optically effective member; wherein the longitudinal direction is oriented parallel to the optical axis of the optically effective member; along the optical axis a first optically effective The relative spacing between the image sensor and the first optically effective member is adjusted to displace the member relative to the image sensor.

方法はさらに、以下のステップを有することができる;光学軸に沿って画像センサを第1の光学的に有効な部材に対して変位させるために、画像センサと第1の光学的に有効な部材との間の相対間隔を調節し;かつ、選択的に、反射された光の焦点平面を画像センサの、反射された光を向いた画像センサ表面上に投影するために、画像センサと第1の光学的に有効な部材との間の相対間隔を調節する。 The method may further comprise the steps of; moving the image sensor and the first optically effective member to displace the image sensor relative to the first optically effective member along the optical axis; and optionally projecting the focal plane of the reflected light onto the image sensor surface of the image sensor toward which the reflected light is directed. and the optically effective member.

さらに、方法は以下のステップを有することができる:コンポーネントの第1の表面を光によって露光する。光は、所定の波長の、あるいは所定の波長領域の、光とすることができる。 Furthermore, the method can have the following steps: exposing the first surface of the component with light. The light can be light of a given wavelength or of a given wavelength range.

方法はさらに、以下のステップを有することができる:第1の画像を記録し;第1の画像に基づいて、反射された光の焦点平面が画像センサの画像センサ表面上に実質的に完全に投影されているか、を定め;反射された光の焦点平面が画像センサの画像センサ表面上に実質的に完全に投影されていない場合には、第1の画像の第1の多数の画像領域の第1の画像領域を定め、それにおいて、反射された光の焦点平面の第1の部分領域が画像センサの画像センサ表面上に投影されており;第1の画像の多数の画像領域の第2の画像領域を定め、それにおいて反射された光の焦点平面の第2の部分領域は画像センサの画像センサ表面上に投影されておらず;反射された光の焦点平面の第2の部分領域を画像センサの画像センサ表面上へ投影するために、画像センサと第1の光学的な部材との間の相対間隔を調節し;第2の画像を記録し;第2の画像の第2の多数の画像領域の第3の画像領域を定め、それにおいて、反射された光の焦点平面の第1の部分領域は画像センサの画像センサ表面上に投影されておらず;第2の画像の第2の多数の画像領域の第4の画像領域を定め、それにおいて、反射された光の焦点平面の第2の部分領域が画像センサの画像センサ表面上に投影されている。 The method may further comprise the steps of: recording a first image; based on the first image, the focal plane of the reflected light is substantially completely on the image sensor surface of the image sensor; of the first plurality of image areas of the first image if the focal plane of the reflected light is not substantially fully projected onto the image sensor surface of the image sensor; defining a first image area in which a first partial area of the focal plane of the reflected light is projected onto the image sensor surface of the image sensor; defining an image area of the focal plane of the reflected light in which a second partial area of the focal plane of the reflected light is not projected onto the image sensor surface of the image sensor; adjusting the relative spacing between the image sensor and the first optical member for projection onto the image sensor surface of the image sensor; recording a second image; defining a third image area of the image area of the second image in which the first sub-area of the focal plane of the reflected light is not projected onto the image sensor surface of the image sensor; defines a fourth image area of the plurality of image areas in which a second partial area of the focal plane of the reflected light is projected onto the image sensor surface of the image sensor.

第1の代替案において、方法は以下のステップを有することができる:第1の画像を記録し;画像センサと第1の光学的に有効な部材との間の相対間隔を、あらかじめ定められた距離長さだけ調節し;第2の画像を記録する。 In a first alternative, the method can comprise the steps of: recording a first image; Adjust distance length only; record a second image.

第2の代替案においては、方法は以下のステップを有することができる:第1の画像を記録し;第1の画像の記録の間に、画像センサと第1の光学的に有効な部材の間の相対間隔をあらかじめ定められた速度で調節し;第1の画像が記録された後に、あるいは第1の画像が記録された後にあらかじめ定められた期間の後に、かつ画像センサと第1の光学的に有効な部材の間の相対間隔の調節の間に、第2の画像を記録する。 In a second alternative, the method may comprise the steps of: recording a first image; after the first image is recorded, or after a predetermined period of time after the first image is recorded, and between the image sensor and the first optical A second image is recorded during the adjustment of the relative spacing between the effective members.

第1と第2の代替案に基づく方法は、さらに以下のステップを有することができる:第1の画像の第1の多数の画像領域の第1の画像領域を定め、それにおいて、反射された光の焦点平面の第1の部分領域が画像センサの画像センサ表面上に投影されており;かつ/又は第1の画像の多数の画像領域の第2の画像領域を定め、それにおいて、反射された光の焦点平面の第2の部分領域は画像センサ表面上に投影されておおらず;かつ/又は第2の画像の第2の多数の画像領域の第3の画像領域を定め、それにおいて、反射された光の焦点平面の第1の部分領域は画像センサの画像センサ表面上に投影されておらず;かつ/又は第2の画像の第2の多数の部分領域の第4の部分領域を定め、それにおいて、反射された光の焦点平面の第2の部分領域が画像センサの画像センサ表面上に投影されている。 The method according to the first and second alternatives may further comprise the steps of: defining a first image area of the first plurality of image areas of the first image; A first partial area of the focal plane of the light is projected onto an image sensor surface of the image sensor; and/or defines a second image area of the multiple image areas of the first image, in which and/or defining a third image area of the second plurality of image areas of the second image, wherein , the first partial area of the focal plane of the reflected light is not projected onto the image sensor surface of the image sensor; and/or the fourth partial area of the second number of partial areas of the second image. , in which a second partial area of the focal plane of the reflected light is projected onto the image sensor surface of the image sensor.

方法はさらに、以下のステップを有することができる:第1の画像から第1の画像領域を、第2の画像から第4の画像領域を切り取り;かつ、第3の画像を形成するために、切り取った第1と第4の画像領域を継ぎ合わせる。 The method may further comprise the steps of: cropping a first image region from the first image and a fourth image region from the second image; and forming a third image; The first and fourth cropped image regions are stitched together.

方法はさらに、以下のステップを有することができる:第1の画像の第1の画像領域及び/又は第2の画像の第4の画像領域及び/又は第3の画像に基づいて、コンポーネントが少なくとも1つの障害箇所を有しているか、を定め;かつコンポーネントが少なくとも1つの障害箇所を有している場合に、コンポーネントに関する障害箇所情報を提供する。 The method may further comprise the step of: based on the first image region of the first image and/or the fourth image region of the second image and/or the third image the component comprises at least determine if it has one fault point; and provide fault point information for the component if the component has at least one fault point.

上述した視点のいくつかが方法に関して記述されている場合でも、これらの視点は装置についても言えることである。まったく同様に、装置に関して上述した視点は、同様に方法についても言えることである。 Even if some of the above aspects are described in terms of methods, these aspects also apply to the apparatus. Quite analogously, the aspects described above with respect to the apparatus are equally applicable to the method.

他の目的、特徴、利点及び適用可能性は、付属の図面に関する、限定的ではない実施例についての以下の説明から明らかにされる。その場合にすべての説明され、かつ/又は画像表示される特徴は、それ自体で、あるいは任意の組合せにおいて、請求項又はその帰属におけるそのグループ分けに関係なく、ここに開示される対象を示している。その場合に図に示されるコンポーネントの寸法及び位置は、必ずしも縮尺どおりではない;それらは、実装すべき実施形態において、ここに示すものとは異なることがあり得る。 Other objects, features, advantages and applicability will become apparent from the following description of non-limiting examples with reference to the accompanying drawings. In that case, all described and/or imaged features, by themselves or in any combination, are indicative of the subject matter disclosed herein, regardless of its grouping in a claim or its attribution. there is As such, the dimensions and positions of components shown in the figures are not necessarily to scale; they may differ from that shown in the embodiment to be implemented.

光学的に有効な部材のための操作装置を図式的に示す側方の上面図である。FIG. 2 is a side top view diagrammatically showing an operating device for an optically effective member; 操作装置のホルダを図式的に示す上面図である。Fig. 3 schematically shows a top view of the holder of the operating device; 操作装置のホルダを図式的に示す上面図である。Fig. 3 schematically shows a top view of the holder of the operating device; 少なくとも1つのコンポーネントの少なくとも1つの表面を検出するための光学的コンポーネント検出システムを図式的に示す側方の上面図である。1 is a side top view diagrammatically showing an optical component detection system for detecting at least one surface of at least one component; FIG. 鮮明さの異なる画像領域を有する画像記録を図式的に示している。FIG. 2 diagrammatically shows an image record with image areas of different sharpness; FIG. 鮮明さの異なる画像領域を有する画像記録を図式的に示している。FIG. 2 diagrammatically shows an image record with image areas of different sharpness; FIG. 先行する画像記録の画像領域からなる画像記録を図式的に示している。Fig. 4 diagrammatically shows an image record consisting of image areas of a preceding image record; 光学的なコンポーネント検出システムの画像センサの表面に関して結像させるべきコンポーネントの焦点平面を図式的に示す側方の上面図である。1 is a side top view diagrammatically showing a focal plane of a component to be imaged with respect to a surface of an image sensor of an optical component detection system; FIG. 光学的なコンポーネント検出システムの画像センサの表面に関して結像させるべきコンポーネントの焦点平面を図式的に示す側方の上面図である。1 is a side top view diagrammatically showing a focal plane of a component to be imaged with respect to a surface of an image sensor of an optical component detection system; FIG. 光学的なコンポーネント検出システムの画像センサの表面に関して結像させるべきコンポーネントの焦点平面を図式的に示す側方の上面図である。1 is a side top view diagrammatically showing a focal plane of a component to be imaged with respect to a surface of an image sensor of an optical component detection system; FIG. 時間-速度ダイアグラムを示しており、それによって光学的に有効な部材と光学的なコンポーネント検出システムの画像センサとの間の相対的な間隔が変化する。Fig. 4 shows a time-velocity diagram by which the relative spacing between the optically effective member and the image sensor of the optical component detection system changes; 時間-合焦距離ダイアグラムを示しており、それによってコンポーネントの画像を記録するための実施例を説明しようとしている。Fig. 4 shows a time-focusing distance diagram, by means of which an embodiment for recording an image of a component is to be explained; 他の時間-合焦距離ダイアグラムを示しており、それによってコンポーネントの画像を記録するための他の実施例を説明しようとしている。Fig. 4 shows another time-focusing distance diagram, by means of which another embodiment for recording an image of a component is intended to be explained;

ここに記述する装置変形例及びその機能と駆動の視点は、その構造、機能方法及び特性をよりよく理解するためだけに用いられるものである。それらは開示を、たとえば実施例に限定するものではない。図は、部分的に図式的であって、その場合に本質的な特性及び効果は、機能、作用原理、技術的形態及び特徴を明らかにするために、一部著しく拡大して示されている。その場合に図中又は文中に開示されている各機能方法、各原理、各技術的形態及び各特徴は、すべての請求項、文中及び他の図中の各特徴、この開示内に含まれ、あるいはそれから明らかにされる他の機能方法、原理、技術的形態及び特徴と自由かつ任意に組み合わせることができるので、考えられるすべての組合せは、記述される装置に対応づけられる。その場合に文中の、すなわち明細書の各セクション内の、請求項内のすべての個々の形態の間の組合せ及び文中、請求項内及び図中の種々の変形例の間の組合せも含まれており、かつ他の請求項の対象とすることができる。請求項も、開示及びそれに伴ってすべての示された特徴を互いに組み合わせる可能性を制限するものではない。すべての開示された特徴は、単独でも、他のすべての特徴との組合せにおいても、ここにはっきりと開示されている。 The device variants and their functioning and driving perspectives described herein are only used to better understand their structure, method of functioning and characteristics. They do not limit the disclosure to, for example, the examples. The figures are partly diagrammatic, in which the essential properties and effects are partly greatly enlarged in order to clarify the function, working principle, technical form and features. . In that case, each functional method, principle, technical form and feature disclosed in the figures or text is included in all claims, text and other figure features, this disclosure, Alternatively, it can be freely and arbitrarily combined with other functional methods, principles, technical forms and features disclosed therefrom, so that all conceivable combinations correspond to the device described. In that case combinations between all individual forms in the text, i.e. in each section of the specification, in the claims and combinations between the various variations in the text, in the claims and in the figures are also included. and may be covered by other claims. The claims also do not limit the possibilities of combining the disclosure and thus all indicated features with one another. All disclosed features are expressly disclosed herein either alone or in combination with any other feature.

詳細な説明
図内では、互いに相当し、あるいは機能的に類似のコンポーネントには、一致する参照符号が設けられている。装置及び方法を、複数の実施例を用いて説明する。
Within the detailed illustrations, corresponding or functionally similar components are provided with matching reference numerals. The apparatus and method are described using several embodiments.

図1には、第1の光学的に作用する部材としてのアクロマート130用の操作装置100が示されている。アクロマート130は、フリントガラス130Bとクラウンガラス130Aとからなる。操作装置100は、アクロマート130用のホルダ140を有している。ホルダ140は、中空円筒状の鏡胴110の内側に固定されており、鏡胴110の長手中心軸は、アクロマート130の光学軸OAに対して同軸に方向づけされている。この実施例において、ホルダ140はリング形状に形成されている。ホルダ140はアクロマート130を、ホルダ140の開口部を通して、アクロマートの光学軸OAが鏡胴110の長手中心軸に対して同軸になるように、収容する。鏡胴110は、小さい透過性(透過率μ>1)と常磁性材料を有する。常磁性材料は、アルミニウムである。他の変形例において、鏡胴110は材料としてプラスチックを有する。 FIG. 1 shows an operating device 100 for an achromat 130 as a first optically active member. Achromat 130 consists of flint glass 130B and crown glass 130A. The operating device 100 has a holder 140 for the achromat 130 . The holder 140 is fixed inside a hollow cylindrical lens barrel 110 , the central longitudinal axis of which is oriented coaxially with respect to the optical axis OA of the achromat 130 . In this embodiment, holder 140 is formed in the shape of a ring. The holder 140 accommodates the achromat 130 through the opening of the holder 140 so that the optical axis OA of the achromat is coaxial with the longitudinal central axis of the lens barrel 110 . The lens barrel 110 has a small permeability (transmittance μ>1) and a paramagnetic material. A paramagnetic material is aluminum. In another variant, the lens barrel 110 has plastic as material.

ホルダ140は、少なくとも鏡胴長手方向に弾性的に撓むことができる。そのためにホルダ140は、ゴムを含む材料を有し、その材料は弾性変形可能である。他の変形例において、ホルダ140は、じゃばら又はコイルばねとして形成されている。他の変形例において、ホルダ140は、皿ばねとして形成されており、その皿ばねがアクロマート130を、その光学軸OAが鏡胴110の長手中心軸に対して同軸になるように、保持する。 The holder 140 can elastically bend at least in the longitudinal direction of the lens barrel. To that end, the holder 140 has a rubber-containing material, which is elastically deformable. In another variant, the holder 140 is formed as a bellows or coil spring. In another variant, the holder 140 is formed as a disk spring, which holds the achromat 130 such that its optical axis OA is coaxial with the central longitudinal axis of the barrel 110 .

図1に示すように、ホルダ140は第1の端部領域において鏡胴110に固定されている。ホルダ140の材厚は、光学軸OAに沿ってホルダ140の第2の端部領域へ向かって減少し、その第2の端部領域にアクロマート130が保持されている。その場合にホルダ140の第2の端部領域は鏡胴110に固定されておらず、鏡胴110から光学軸OAに対して直交する方向へ離隔している。そのためにホルダ140は、少なくとも1つの凹部を有しており、その凹部がアクロマート130用の枠として用いられる。アクロマート130は、凹部内に収容され、かつ保持されている。 As shown in FIG. 1, holder 140 is fixed to lens barrel 110 in a first end region. The material thickness of the holder 140 decreases along the optical axis OA towards the second end region of the holder 140 in which the achromat 130 is held. In that case, the second end region of the holder 140 is not fixed to the lens barrel 110 and is spaced from the lens barrel 110 in a direction perpendicular to the optical axis OA. For this purpose the holder 140 has at least one recess which serves as a frame for the achromat 130 . An achromat 130 is contained and retained within the recess.

操作装置100は、さらに、光学軸OAに沿ってアクロマート130を鏡胴110に対して変位させるために、ホルダ140を変位させるための第1の操作ドライブ120を有する。そのために第1の操作ドライブ120は、図1においてコイル121を有しており、そのコイルがホルダ140を少なくともセクション的に包囲している。 The operating device 100 further comprises a first operating drive 120 for displacing the holder 140 in order to displace the achromat 130 relative to the lens barrel 110 along the optical axis OA. For this purpose, the first operating drive 120 has a coil 121 in FIG. 1 which surrounds the holder 140 at least in sections.

図1において、コイル121は鏡胴110に添接している。他の変形例において、コイル121は鏡胴110から離隔して配置されている。 In FIG. 1, the coil 121 is attached to the lens barrel 110 . In another variation, coil 121 is spaced apart from barrel 110 .

図1において、ホルダ140の第1の端部領域は、光学軸OAに関してコイル121の外部に配置されている。それに対してホルダ140の第2の端部領域は、光学軸OAに関してコイル121の内部に配置されている。 In FIG. 1, the first end region of the holder 140 is arranged outside the coil 121 with respect to the optical axis OA. The second end region of the holder 140, on the other hand, is arranged inside the coil 121 with respect to the optical axis OA.

他の変形例において、ホルダ140の第1の端部領域の位置は、光学軸OAに関してコイル121の端部と一致する。他の変形例においては、ホルダ140の第1の端部の位置は、光学軸に関してコイル121の内部又は外部に位置する。他の変形例において、ホルダ140の第2の端部は、光学軸OAに関してコイル121の内部又は外部に位置している。 In another variant, the position of the first end region of holder 140 coincides with the end of coil 121 with respect to optical axis OA. In other variations, the location of the first end of holder 140 is inside or outside coil 121 with respect to the optical axis. In other variations, the second end of holder 140 is located inside or outside coil 121 with respect to optical axis OA.

ホルダ140は、ホルダ140の第2の端部領域において軟鉄を含むヨーク141、142を有している。他の変形例においては、ホルダ140は永久磁石ヨーク141、142を有する。図1においてホルダ140は、ホルダ140の第2の端部領域においてヨーク141、142を有している。ヨーク141、142は、ホルダ140の枠に対向して配置されている。他の変形例において、ヨーク141、142は、アクロマート130とホルダ140の間に配置されている。 The holder 140 has yokes 141 , 142 comprising soft iron in the second end region of the holder 140 . In another variant, the holder 140 has permanent magnet yokes 141,142. In FIG. 1 the holder 140 has yokes 141 , 142 in the second end region of the holder 140 . The yokes 141 and 142 are arranged to face the frame of the holder 140 . In another variant, yokes 141 , 142 are arranged between achromat 130 and holder 140 .

コイル121を通して電流が流されると、その内部に磁場が形成される。コイル121が通電されると、軟鉄を含むヨーク141、142へ、磁場によって、軟鉄を含むヨーク141、142をコイル121の中心へ引きつける力が作用する。軟鉄を含むヨーク141、142は、高い純度を有する合金化されない鉄である。それによってホルダ140は伸張され、あるいは圧縮される(それぞれコイル120が光学軸OAに沿って軟鉄を含むヨーク141、142に関してどこに配置されているかに応じて)。というのは、ホルダは、一方で、鏡胴110の内側に堅固に固定されているからである。他方でホルダ140の軟鉄を含むヨーク141、142が磁場によってコイル121の中心へ引き込まれるからである。印加された磁場によってホルダ140は、アクロマート130の位置がホルダ140によって光学軸OAに沿って変位されるように、伸張され、あるいは圧縮される。その場合にアクロマート130の方位は変化されないので、アクロマート130の変位によって光学軸OAに沿ったアクロマート130の合焦のみが変位される。 When a current is passed through coil 121, a magnetic field is created within it. When the coil 121 is energized, a magnetic field acts on the yokes 141 and 142 containing soft iron to attract the yokes 141 and 142 containing soft iron to the center of the coil 121 . Yokes 141, 142 comprising soft iron are unalloyed iron of high purity. The holder 140 is thereby stretched or compressed (depending on where the coil 120 is positioned relative to the soft iron yokes 141, 142, respectively, along the optical axis OA). This is because the holder, on the one hand, is rigidly fixed inside the barrel 110 . On the other hand, the yokes 141, 142 containing the soft iron of the holder 140 are drawn into the center of the coil 121 by the magnetic field. The applied magnetic field causes the holder 140 to stretch or compress such that the position of the achromat 130 is displaced by the holder 140 along the optical axis OA. Since the orientation of the achromat 130 is not changed in that case, displacement of the achromat 130 only displaces the focus of the achromat 130 along the optical axis OA.

他の変形例において、ホルダ140は永久磁石のヨーク141、142を有している。永久磁石ヨーク141、142は、光学軸OAに対して平行な長手方向に延びている。永久磁石ヨーク141、142のN極とS極は、N極とS極が光学軸OAに沿ってそれぞれ対向する方向に方位づけされるように、方位を定められている。この場合においてホルダ140は、コイル121内の電流の流れる方向に従って変形される。したがってホルダ140は、第1の方向においても、第2の方向においても変形され、その場合に第2の方向は第1の方向とは逆である。 In another variant, the holder 140 has yokes 141, 142 of permanent magnets. The permanent magnet yokes 141, 142 extend longitudinally parallel to the optical axis OA. The north and south poles of the permanent magnet yokes 141, 142 are oriented such that the north and south poles are oriented in opposite directions along the optical axis OA. In this case, holder 140 is deformed according to the direction of current flow in coil 121 . The holder 140 is thus deformed both in the first direction and in the second direction, where the second direction is opposite to the first direction.

ホルダ140は、弾性的に可撓性であるので、変形に抗する変形抵抗を有している。ホルダ140が変形する場合に、変形抵抗によって発生される力は、ホルダ140の変形の程度に従って増大し、あるいは減少する。したがって磁場が発生されて、磁場によって発生された力によりホルダ140が変形される場合に、変形抵抗によって発生される力と磁場によって発生される力が、力の均衡を形成する。磁場が減少されて、最終的にオフにされた場合に、ホルダ140はその弾性的に撓む特性によって再び初期位置を占める。したがって電流の電流強さを所望に制御することによって、光学軸OAに沿ったホルダ140の位置が調節される。 Since the holder 140 is elastically flexible, it has deformation resistance against deformation. When the holder 140 deforms, the force generated by the deformation resistance increases or decreases according to the degree of deformation of the holder 140 . Therefore, when a magnetic field is generated and the holder 140 is deformed by the force generated by the magnetic field, the force generated by the deformation resistance and the force generated by the magnetic field form a force balance. When the magnetic field is reduced and finally turned off, the holder 140 again assumes its initial position due to its elastically flexing properties. By controlling the current intensity of the current as desired, the position of the holder 140 along the optical axis OA is thus adjusted.

したがって図1に示す構造によって、光学的に有効な部材のための軽量構造が実現される。さらに、アクロマート130はホルダ140によってはるかに振動が生じにくくなる。というのは、外部がみなもとの振動は、ホルダ140によって緩衝されるからである。アクロマート130の合焦を変位させなければならない場合に、適切な磁場によってホルダ140が変形される。その場合に小さい質量のみが移動されるので、操作ドライブ120の振動は最小限に抑えられる。 The structure shown in FIG. 1 thus provides a lightweight structure for the optically effective component. Additionally, the achromat 130 is much less susceptible to vibration by the holder 140 . This is because all external vibrations are damped by the holder 140 . A suitable magnetic field deforms the holder 140 when the focus of the achromat 130 has to be displaced. Vibration of the steering drive 120 is minimized since only a small mass is then moved.

他の実施形態において、操作装置100はコイル121の代わりにリニアガイド(図示せず)を有している。リニアガイドは、ホルダ140を光学軸OAに対して平行に案内するように、整えられている。したがってホルダ140の位置及びアクロマート130の位置も、光学軸OAに沿って変位可能である。操作装置100は、駆動装置(図示せず)を有しており、その駆動装置は、ホルダ140をリニアガイドに沿って走行させるように、整えられている。 In another embodiment, operating device 100 has a linear guide (not shown) instead of coil 121 . The linear guides are arranged to guide the holder 140 parallel to the optical axis OA. Accordingly, the position of the holder 140 and the position of the achromat 130 are also displaceable along the optical axis OA. The operating device 100 has a drive (not shown) which is arranged to run the holder 140 along the linear guide.

図2と3には、ホルダ140の可能な実施例が示されている。図2と3は、ホルダ140、ヨーク141、142及びアクロマート130を上面で示している。 A possible embodiment of the holder 140 is shown in FIGS. 2 and 3 show holder 140, yokes 141, 142 and achromat 130 in top view.

図2において、ホルダ140は少なくとも2つのホルダ片143、144からなり、それらが一緒になってアクロマート130を保持する。変形例において、アクロマート130は2つのホルダ片143、144の間に配置されているので、2つのホルダ片143、144は対向している。他の変形例において、ホルダは少なくとも4つのホルダ片(図示せず)からなり、それらが光学軸OAを中心にそれぞれ90°だけ変位して配置され、アクロマート130を保持する。 In FIG. 2, holder 140 consists of at least two holder pieces 143 , 144 which together hold achromat 130 . In a variant, the achromat 130 is arranged between two holder pieces 143, 144, so that the two holder pieces 143, 144 face each other. In another variant, the holder consists of at least four holder pieces (not shown), which are arranged displaced by 90° each about the optical axis OA and which hold the achromat 130 .

図3に示すホルダ140の変形例によれば、ホルダ140は2つのホルダ片143、144において、それぞれヨーク141、142を有している。4つのホルダ片を有する変形例においては、ホルダ140は少なくとも2つのホルダ片においてそれぞれヨークを、あるいは4つすべての領域においてそれぞれヨークを有している。 According to a variant of the holder 140 shown in FIG. 3, the holder 140 has yokes 141, 142 in two holder pieces 143, 144, respectively. In variants with four holder pieces, the holder 140 has yokes in at least two holder pieces each, or yokes in all four regions.

図3は、ホルダ140の他の変形例を示しており、それにおいてホルダ140は、アクロマート130を保持するために、リングホルダ145として形成されている。 FIG. 3 shows another variant of holder 140 in which holder 140 is formed as ring holder 145 for holding achromat 130 .

図4に示す変形例によれば、ヨーク146はリング状に形成されている。リング形状に形成されたヨーク146内に磁場によって発生される誘導電流は、リンク形状に形成されたヨーク146内の複数のスリットによって中断される。リング形状に形成されたヨーク146によって、磁場によって発生された力がホルダ140に均一に作用し、ホルダは均一に変形される。代替的にヨークは、図3について説明したように形成することができる。 According to the variant shown in FIG. 4, the yoke 146 is ring-shaped. The induced current generated by the magnetic field in the ring-shaped yoke 146 is interrupted by a plurality of slits in the link-shaped yoke 146 . Due to the ring-shaped yoke 146, the force generated by the magnetic field uniformly acts on the holder 140, and the holder is uniformly deformed. Alternatively, the yoke can be formed as described with respect to FIG.

図4には、コンポーネントとしての半導体チップBの少なくとも1つの表面Oを検出するための光学的なコンポーネント検出システム200が示されている。光学的なコンポーネント検出システム200は、収容部150を有している。収容部150は、半導体チップBの第1の表面Oをカメラ装置220によって検出するために、半導体チップBをカメラ装置220の前に位置決めするように、整えられている。第1の表面は、図4において半導体チップBの側表面である。しかし収容部150は、半導体チップBのこの表面Oをカメラ装置220に対して方向づけすることだけに限定されていない。収容部150は、半導体チップBの他の表面もカメラ装置220へ向けるように整えられており、それによって半導体チップBの他の表面も検査される。さらに光学的なコンポーネント検出システム200は、光源(図示せず)を有しており、その光源は、光を半導体チップBの第1の表面Oへ送り、もしくは半導体チップBを照射するように、整えられている。光源から放出される光は、変形例において、約380から790nmの領域内の波長を有する可視光である。他の変形例において、赤外光又は偏光された光が使用される。 FIG. 4 shows an optical component detection system 200 for detecting at least one surface O of a semiconductor chip B as a component. Optical component detection system 200 includes housing 150 . The housing portion 150 is arranged to position the semiconductor chip B in front of the camera device 220 so that the first surface O of the semiconductor chip B is detected by the camera device 220 . The first surface is the side surface of the semiconductor chip B in FIG. However, the housing portion 150 is not limited to orienting this surface O of the semiconductor chip B with respect to the camera device 220 . The housing part 150 is arranged so that the other surface of the semiconductor chip B is also directed toward the camera device 220, so that the other surface of the semiconductor chip B is also inspected. Further, the optical component detection system 200 includes a light source (not shown) that directs light to the first surface O of the semiconductor chip B, or illuminates the semiconductor chip B. arranged. The light emitted by the light source is, in a variant, visible light having a wavelength in the region of about 380 to 790 nm. In other variations, infrared light or polarized light is used.

カメラ装置220は、画像センサとしてCCDチップ230を有しており、そのCCDチップは半導体チップBの第1の表面Oで反射された光を受信するように、整えられている。他の変形例において、画像センサはCMOSチップ又は、ミクロボロメーターアレイあるいはパイロエレクトリックアレイのような、所定の波長領域について感受性を有する画像センサとすることができる。CCDチップは、-使用される波長領域に従って-それぞれの波長領域について、あるいは偏光された光についても、それに適合した感度を有している。反射された光Lの光路内に、さらに、第1の光学的に有効な部材としてのアクロマート130と共に、図1に示すような操作装置100が配置されている。付加的に、アクロマート130とCCDチップ230の間の光路内に第2の光学的な部材としての集光レンズ160が配置されている。集光レンズ160の光学軸は、アクロマート130の光学軸OAに対して同軸に方位づけされている。 The camera device 220 has a CCD chip 230 as an image sensor, which is arranged to receive the light reflected by the first surface O of the semiconductor chip B. FIG. In other variations, the image sensor can be a CMOS chip or an image sensor sensitive to a given wavelength range, such as a microbolometer array or a pyroelectric array. The CCD chip--according to the wavelength range used--has an adapted sensitivity for each wavelength range, or even for polarized light. In the optical path of the reflected light L there is also arranged an operating device 100 as shown in FIG. 1 together with an achromat 130 as a first optically effective member. Additionally, a condenser lens 160 as a second optical member is arranged in the optical path between the achromat 130 and the CCD chip 230 . The optical axis of the condenser lens 160 is oriented coaxially with the optical axis OA of the achromat 130 .

操作装置100は、図4に示す光学的なコンポーネント検出システム200内に、第1の操作ドライブ120としてコイル121を有している。この実施例において、ホルダ140は、鏡胴110の鏡胴長手方向へ弾性的に撓むことができる。 The operating device 100 has a coil 121 as a first operating drive 120 in the optical component detection system 200 shown in FIG. In this embodiment, the holder 140 can elastically bend in the longitudinal direction of the lens barrel 110 .

代替的に、光学的なコンポーネント検出システム200は、コイル121の代わりにリニアガイドを有している。ホルダ140は、リニアガイドを介して鏡胴110の内側に固定されている。さらにリニアガイドは、ホルダ140を光学軸OAに対して平行に案内するように、整えられている。リニアガイドは、1つのレールとして形成されており、そのレールは光学軸OAに対して平行に延びている。他の変形例において、リニアガイドは2つのレールとして形成されている。その場合に2つのレールは、軸線OAに対して対称に対向している。 Alternatively, optical component detection system 200 has a linear guide instead of coil 121 . The holder 140 is fixed inside the lens barrel 110 via a linear guide. Furthermore, the linear guides are arranged to guide the holder 140 parallel to the optical axis OA. The linear guide is designed as a rail, which runs parallel to the optical axis OA. In another variant, the linear guide is formed as two rails. The two rails are then symmetrically opposed with respect to the axis OA.

半導体チップBの第1の表面Oは、図4においてはCCDチップ230の画像センサ表面231に対して平行に配置されておらず、光学軸OAに対して角度アルファだけ傾いている。角度アルファは、図4において90°より大きく、あるいは小さい。 The first surface O of the semiconductor chip B is not arranged parallel to the image sensor surface 231 of the CCD chip 230 in FIG. 4, but is tilted by an angle alpha with respect to the optical axis OA. Angle alpha is greater or less than 90° in FIG.

光学的なコンポーネント検出システム200は、図4において、さらに制御装置ECUを有しており、それは、第1の操作ドライブ120を制御するように整えられている。したがって制御装置ECUは、コイル121へ供給される電流を制御し、かつそれに伴ってアクロマート130とCCDチップ230(もしくはCCDチップ230の画像センサ表面231)との間の相対間隔を変位させるように、整えられている。光学的なコンポーネント検出システム200がコイル121の代わりにリニアガイドを有している場合には、制御装置ECUは、ホルダ140をリニアガイドに沿って走行させるモータを制御するように、整えられている。 The optical component detection system 200 in FIG. 4 further comprises a control unit ECU, which is arranged to control the first operating drive 120 . The control unit ECU thus controls the current supplied to the coil 121 and thus displaces the relative spacing between the achromat 130 and the CCD chip 230 (or the image sensor surface 231 of the CCD chip 230). arranged. If the optical component detection system 200 has a linear guide instead of the coil 121, the controller ECU is arranged to control the motor that causes the holder 140 to travel along the linear guide. .

図4において、制御装置ECUは画像処理BVを有している。他の変形例において、制御装置ECUと画像処理BVは2つの別々のユニットであることができ、それらは互いに通信するように整えられている。 In FIG. 4, the control unit ECU has an image processing BV. In another variant, the control unit ECU and the image processing BV can be two separate units, which are arranged to communicate with each other.

付加的に、図4において光学的な画像検出システム200は、制御装置ECUによって制御される第2の操作ドライブ240を有している。第2の操作ドライブ240は、光学軸OAに沿ってアクロマート130に対してCCDチップ230を移動させるために、CCDチップ230を変位させるように、整えられている。 Additionally, in FIG. 4 the optical image detection system 200 comprises a second operating drive 240 controlled by the control unit ECU. A second operating drive 240 is arranged to displace the CCD chip 230 to move the CCD chip 230 relative to the achromat 130 along the optical axis OA.

光学的なコンポーネント検出システム200は、さらに、位置検出センサ250を有しており、それは、アクロマート130及び/又はCCDチップ230の画像センサ表面231の位置及び/又は姿勢を定めるように、整えられている。位置検出センサ250は、図1において鏡胴110の内側に、かつヨーク142に対して配置され、かつ固定されている。他の変形例において、位置検出センサ250は、鏡胴110の内側に、かつヨーク141に対して配置し、かつ固定することができる。 The optical component detection system 200 further includes a position detection sensor 250, which is arranged to determine the position and/or orientation of the image sensor surface 231 of the achromat 130 and/or CCD chip 230. there is The position detection sensor 250 is arranged inside the lens barrel 110 in FIG. 1 and fixed to the yoke 142 . In another variation, the position detection sensor 250 can be positioned and fixed inside the barrel 110 and relative to the yoke 141 .

他の変形例において、位置検出センサ250はCCDチップ230内に統合することができる。その場合にホルダ140は、CCDチップ230を向いた少なくとも1つの表面領域上にマーキングを有している。CCDチップ230は、このマーキングを検出して、検出されたマーキングに基づいてアクロマート130の位置及び/又は姿勢を定めるように、整えられている。 In another variation, position detection sensor 250 can be integrated within CCD chip 230 . The holder 140 then has markings on at least one surface area facing the CCD chip 230 . CCD chip 230 is arranged to detect this marking and determine the position and/or orientation of achromat 130 based on the detected marking.

位置検出センサ250は、アクロマート130及び/又はCCDチップ230の画像センサ表面231の位置及び/又は姿勢に関する情報を制御装置ECUへ提供し、制御装置が提供された情報に基づいて第1及び/又は第2の操作ドライブ120、240を制御する。位置検出センサ250は、光学的な位置検出センサであるが、他の変形例においては、(電子-)機械的な位置検出センサとすることができる。 The position detection sensor 250 provides information regarding the position and/or orientation of the achromat 130 and/or the image sensor surface 231 of the CCD chip 230 to the control unit ECU, and the control unit detects the first and/or It controls the second operating drive 120,240. The position sensor 250 is an optical position sensor, but in another variant it can be an (electro-)mechanical position sensor.

図4において制御装置ECUは、反射された光の焦点平面SEをCCDチップ230の、反射された光を向いた画像センサ表面231上へ投影するために、第1及び/又は第2の操作ドライブ120、240を制御することによりアクロマート130とCCDチップ230の間の相対間隔を変位させるように、整えられている。 In FIG. 4 the control unit ECU controls the first and/or second operating drive to project the focal plane SE of the reflected light onto the image sensor surface 231 of the CCD chip 230 facing the reflected light. It is arranged to displace the relative spacing between the achromat 130 and the CCD chip 230 by controlling 120,240.

1つの可能な場合において、半導体チップBの表面Oは、CCDチップ230の画像センサ表面231に対して実質的に平行である。制御装置ECUは、第1及び/又は第2の操作ドライブ120、240を、CCDチップ230の画像センサ表面231上へ焦点平面SEが投影されるように、制御する。 In one possible case, surface O of semiconductor chip B is substantially parallel to image sensor surface 231 of CCD chip 230 . The control unit ECU controls the first and/or second operating drive 120 , 240 such that the focal plane SE is projected onto the image sensor surface 231 of the CCD chip 230 .

その後CCDチップ230が半導体チップBの画像を記録した場合に、画像内に半導体チップBがシャープに結像されて、半導体チップBは可能な欠陥又は障害箇所について検査される。画像処理BVによって欠陥又は障害箇所が求められた場合に、画像得処理BVが半導体チップBに関する障害箇所情報を提供する。 When the CCD chip 230 then records an image of the semiconductor chip B, the semiconductor chip B is sharply imaged in the image and the semiconductor chip B is inspected for possible defects or faults. An image acquisition process BV provides fault location information about the semiconductor chip B when the defect or fault location is determined by the image processing BV.

第1及び/又は第2の操作ドライブ120、240は、アクロマート130とCCDチップ230の間の相対間隔を数ミリ秒内で100μmだけ増大させ、あるいは縮小するように、整えられている。もっと正確に言うと、第1及び/又は第2の操作ドライブ120、240は、2から10ms内で、好ましくは約5ms内で相対間隔を100μmだけ変化させるように、整えられている。アクロマート130とCCDチップ230の間の相対間隔は、特に移動方向に沿って、アクロマート130及び/又はCCDチップ230のオーバーシュートが生じない、あるいは発生しないように、拡大され、あるいは縮小される。 The first and/or second operating drives 120, 240 are arranged to increase or decrease the relative spacing between the achromat 130 and the CCD chip 230 by 100 μm within a few milliseconds. More precisely, the first and/or second steering drive 120, 240 is arranged to change the relative spacing by 100 μm within 2 to 10 ms, preferably within about 5 ms. The relative spacing between the achromat 130 and the CCD chip 230 is increased or decreased so that no or no overshoot of the achromat 130 and/or the CCD chip 230 occurs, especially along the direction of movement.

図4における半導体チップBは、CCDチップ230の画像センサ表面231に対して傾いているので、制御装置ECUには、アクロマート130とCCDチップ230の画像センサ表面231との間の相対間隔の調節によって、反射された光Lの焦点平面SEをCCDチップ230の画像センサ表面231上に実質的に完全に投影することは、不可能である。 Since semiconductor chip B in FIG. , it is impossible to project the focal plane SE of the reflected light L substantially completely onto the image sensor surface 231 of the CCD chip 230 .

画像処理BVは、CCDチップ230によって第1の画像BAを記録するように、整えられている。CCDチップ230によって記録された第1の画像BAに基づいて画像処理BVは、反射された光Lの焦点平面SEがCCDチップ230の画像センサ表面231上に実質的に完全に投影されているか、を定める。画像処理BVが、焦点平面SEがCCDチップ230の画像センサ表面231上に実質的に完全に投影されていない、と定めた場合には、画像処理BVは、第1の画像BAの第1の複数の画像領域B1、B2の第1の画像領域B1を定める。第1の画像領域B1において、反射された光Lの焦点平面SEの第1の部分領域がCCDチップ230の画像センサ表面231上に投影される。 The image processing BV is arranged to record the first image BA by the CCD chip 230 . Based on the first image BA recorded by the CCD chip 230, the image processing BV determines whether the focal plane SE of the reflected light L is substantially completely projected onto the image sensor surface 231 of the CCD chip 230, determine. If the image processing BV determines that the focal plane SE is not substantially completely projected onto the image sensor surface 231 of the CCD chip 230, then the image processing BV performs the first image BA of the first image BA. A first image area B1 of the plurality of image areas B1, B2 is defined. In the first image area B1 a first partial area of the focal plane SE of the reflected light L is projected onto the image sensor surface 231 of the CCD chip 230 .

記録された第1の画像BAが、図5に図式的に示されており、その場合に実線を有する画像領域が、鮮明に結像された画像領域である。言い換えると、実線を有する画像領域は、反射された光Lの焦点平面SEの部分領域がCCDチップ230の画像センサ表面231上に投影された画像領域である。破線を有する画像領域は、鮮明でない画像領域、もしくは焦点平面SEの部分領域がCCDチップ230の画像センサ表面231上に投影されていない画像領域である。 A first recorded image BA is shown diagrammatically in FIG. 5, the image areas with solid lines being the sharply imaged image areas. In other words, the image area with solid lines is the image area where the partial area of the focal plane SE of the reflected light L is projected onto the image sensor surface 231 of the CCD chip 230 . Image areas with dashed lines are image areas that are not sharp, or image areas where a partial area of the focal plane SE is not projected onto the image sensor surface 231 of the CCD chip 230 .

画像処理BVは、第1の画像BAに基づいて第1の多数の画像領域B1、B2の第2の画像領域B2を定め、それにおいて、反射された光Lの焦点平面SEの第2の部分領域はCCDチップ230の画像センサ表面231上に投影されていない。 The image processing BV defines a second image area B2 of the first number of image areas B1, B2 on the basis of the first image BA, in which a second portion of the focal plane SE of the reflected light L The area is not projected onto the image sensor surface 231 of the CCD chip 230 .

次に画像処理BVは、制御信号を制御装置ECUへ提供する。制御装置ECUは、アクロマート130とCCDチップ230の間の相対間隔を調節するために、制御信号に基づいて第1及び/又は第2の操作ドライブ120、240を制御する。その場合に、反射された光Lの焦点平面SEの第2の部分がCCDチップ230の画像センサ表面231上に投影される。その場合に、反射された光Lの焦点平面SEの第2の部分領域がCCDチップ230の画像センサ表面231上に投影される。それに対して反射された光Lの焦点平面SEの第1の部分領域は、もはやCCDチップ230の画像センサ表面231上に投影されない。画像処理BVは、次に第2の画像BBを記録するためにCCDチップ230へ信号を送信する。 The image processing BV then provides control signals to the control unit ECU. The controller ECU controls the first and/or second operating drives 120, 240 based on control signals to adjust the relative spacing between the achromat 130 and the CCD chip 230. FIG. A second portion of the focal plane SE of the reflected light L is then projected onto the image sensor surface 231 of the CCD chip 230 . A second partial area of the focal plane SE of the reflected light L is then projected onto the image sensor surface 231 of the CCD chip 230 . A first partial area of the focal plane SE of the light L reflected against it is no longer projected onto the image sensor surface 231 of the CCD chip 230 . Image processing BV then sends signals to CCD chip 230 to record a second image BB.

図6に図式的に示されるように、画像処理BVは第2の画像BBに基づいて第2の画像BBの第2の複数の画像領域B3、B4の第3の画像領域B3を定める。第3の画像領域B3においては、反射された光Lの焦点平面SEの第1の部分領域はCCDチップ230の画像センサ表面231上へ投影されていない。次に画像処理BVは、第2の画像BBの第2の多数の画像領域B3、B4の第4の画像領域B4を定める。第4の画像領域B4においては、反射された光Lの焦点平面SEの第2の部分領域がCCDチップ230の画像センサ表面231上へ投影されている。したがって第2の画像BBにおいては、第4の画像領域B4が半導体チップBの1つのセクションを鮮明に複写する。画像領域の第1及び第2の多数は、2つの数に限定されない。 As shown diagrammatically in FIG. 6, the image processing BV defines a third image area B3 of a second plurality of image areas B3, B4 of the second image BB on the basis of the second image BB. In the third image area B3, the first partial area of the focal plane SE of the reflected light L is not projected onto the image sensor surface 231 of the CCD chip 230. FIG. The image processing BV then defines a fourth image area B4 of the second number of image areas B3, B4 of the second image BB. In the fourth image area B4 a second partial area of the focal plane SE of the reflected light L is projected onto the image sensor surface 231 of the CCD chip 230 . In the second image BB, the fourth image area B4 therefore duplicates one section of the semiconductor chip B sharply. The first and second numbers of image areas are not limited to two numbers.

第1の画像BAの第1と第2の画像領域B1、B2は、好ましい形態において、それぞれ半導体チップBの一部を複写し、その部分は第2の画像BBの第3と第4の画像領域B3、B4内の半導体チップBの部分に実質的に相当する。したがって第1と第2の画像BA、BBの画像領域B1、B2、B3、B4において、半導体チップBの同じ部分が複写されることが、保証される。 The first and second image areas B1, B2 of the first image BA, in a preferred form, each reproduce a part of the semiconductor chip B, which part is the third and fourth image of the second image BB. It substantially corresponds to the portion of the semiconductor chip B within the regions B3 and B4. It is thus guaranteed that in the image areas B1, B2, B3, B4 of the first and second images BA, BB, the same part of the semiconductor chip B is reproduced.

第1の画像BAの第1と第2の画像領域B1、B2及び第2の画像BBの第3と第4の画像領域B3、B4は、図5から7において互いに連続する画像領域として示されている。代替的に、第1の画像BAの第1と第2の画像領域B1、B2及び第2の画像BBの第3と第4の画像領域B3、B4は、少なくとも部分的に交差することができる。 The first and second image areas B1, B2 of the first image BA and the third and fourth image areas B3, B4 of the second image BB are shown as successive image areas in FIGS. ing. Alternatively, the first and second image areas B1, B2 of the first image BA and the third and fourth image areas B3, B4 of the second image BB can at least partially intersect. .

画像処理BVは、第1の画像BAから第1の画像領域B1を、第2の画像BBからは第4の画像領域B4を切り取るように、整えられている。切り取った画像領域B1、B4に基づいて、画像処理BVは、第3の画像BCを形成する。第3の画像BCは、半導体チップBの完全に鮮明な複写である。というのは、第1の画像BAの第1の画像領域B1において、かつ第2の画像BBの第4の画像領域B4においては、半導体チップBが鮮明に複写されているからである。 The image processing BV is arranged to crop a first image area B1 from the first image BA and a fourth image area B4 from the second image BB. Based on the cropped image areas B1, B4, the image processing BV forms a third image BC. A third image BC is a perfectly sharp copy of the semiconductor chip B. FIG. This is because the semiconductor chip B is clearly reproduced in the first image area B1 of the first image BA and in the fourth image area B4 of the second image BB.

画像処理BVは、さらに、第1の画像B2の第1の画像領域B1及び/又は第2の画像BBの第4の画像領域B4及び/又は第3の画像BCに基づいて、半導体チップBが少なくとも1つの欠陥又は障害箇所を有しているかを定めるように整えられている。半導体チップBが欠陥又は障害箇所を有している場合に、画像処理BVは障害箇所情報を提供する。 The image processing BV further performs the semiconductor chip B based on the first image area B1 of the first image B2 and/or the fourth image area B4 of the second image BB and/or the third image BC. It is arranged to determine if it has at least one defect or failure point. If the semiconductor chip B has a defect or faulty location, the image processing BV provides the faulty location information.

図8から10には、付属の被写界深度STを有する焦点平面SEが示されている。半導体チップBを鮮明に記録するためには、焦点平面SEがCCDチップ230の画像センサ表面231上に実質的に投影されなければならない。焦点平面SEは所定の被写界深度STを有しているので、焦点平面SEがCCDチップ230の画像センサ表面231に対して完全に平行でない場合でも、半導体チップBは鮮明に結像される。同様に、焦点平面SEがCCDチップ230の画像センサ表面231の前又は後ろの所定の間隔内で投影されている場合でも、半導体チップBは鮮明に結像される。その場合に被写界深度STは、その内部で対象、ここでは半導体チップB、が充分鮮明に結像される間隔を記述している。 8 to 10 show the focal plane SE with the associated depth of field ST. In order to record the semiconductor chip B clearly, the focal plane SE must be substantially projected onto the image sensor surface 231 of the CCD chip 230 . Since the focal plane SE has a predetermined depth of field ST, the semiconductor chip B is clearly imaged even if the focal plane SE is not perfectly parallel to the image sensor surface 231 of the CCD chip 230. . Likewise, if the focal plane SE is projected within a predetermined distance in front of or behind the image sensor surface 231 of the CCD chip 230, the semiconductor chip B will be imaged sharply. The depth of field ST then describes the distance within which the object, here the semiconductor chip B, is sufficiently sharply imaged.

図8に示すように、焦点平面SEはCCDチップ230の画像センサ表面231に対して平行かつ光学軸OAに沿って画像センサ表面231に対して離隔して投影されている。焦点平面SEの被写界深度STは、図8において充分に大きいので、反射された光Lのこのように投影された焦点平面SEの記録された画像は、鮮明である。 As shown in FIG. 8, the focal plane SE is projected parallel to and spaced apart from the image sensor surface 231 of the CCD chip 230 along the optical axis OA. The depth of field ST of the focal plane SE is sufficiently large in FIG. 8 that the thus projected image of the reflected light L on the focal plane SE is sharp.

図9と10には、傾いた半導体チップBの場合が、図式的に示されている。半導体チップBの表面OはCCDチップ230の画像センサ表面231に対して傾いているので、反射された光Lの焦点平面SEもCCDチップ230の画像センサ表面231に対して傾いている。 In FIGS. 9 and 10 the case of a tilted semiconductor chip B is shown diagrammatically. Since the surface O of the semiconductor chip B is tilted with respect to the image sensor surface 231 of the CCD chip 230 , the focal plane SE of the reflected light L is also tilted with respect to the image sensor surface 231 of the CCD chip 230 .

図9においては、焦点平面SEの第1の部分領域がCCDチップ230の画像センサ表面231上へ投影されているので、第1の記録された画像BAにおいて、第1の画像領域B1が半導体チップBの鮮明な結像を示している。焦点平面SEはCCDチップ230の画像センサ表面231と部分的にしか交わっていないが、第1の画像BAの第1の画像領域B1は被写界深度STのおかげで鮮明に結像されている。第2の画像領域B2においては、被写界深度STを有する焦点平面SEの第2の部分領域はもはやCCDチップ230の画像センサ表面231上に投影されていないので、第1の画像BAの第2の画像領域B2は、半導体チップBの不鮮明な結像を表している。 In FIG. 9, the first partial area of the focal plane SE is projected onto the image sensor surface 231 of the CCD chip 230, so that in the first recorded image BA the first image area B1 is the semiconductor chip. B shows sharp imaging. Although the focal plane SE only partially intersects the image sensor surface 231 of the CCD chip 230, the first image area B1 of the first image BA is sharply imaged thanks to the depth of field ST. . In the second image area B2, the second partial area of the focal plane SE with the depth of field ST is no longer projected onto the image sensor surface 231 of the CCD chip 230, so that the first image BA 2 image area B2 represents a blurred image of the semiconductor chip B. FIG.

画像処理BVの制御指令に応じて制御装置ECUは、アクロマート130とCCDチップ230の間の相対間隔を調節するために、第1及び/又は第2の操作ドライブ120、240を制御する。その場合に焦点平面SEは、CCDチップ230の画像センサ表面231に対して変位されるので、焦点平面SEの第2の部分領域がCCDチップ230の画像センサ表面231上に投影される。 In response to control commands of the image processing BV, the control unit ECU controls the first and/or second operating drives 120, 240 to adjust the relative spacing between the achromat 130 and the CCD chip 230. FIG. The focal plane SE is then displaced with respect to the image sensor surface 231 of the CCD chip 230 so that a second partial area of the focal plane SE is projected onto the image sensor surface 231 of the CCD chip 230 .

図10に図式的に示すように、第2の記録された画像BBにおいては、第4の画像領域B4において、反射された光Lの被写界深度STを有する焦点平面SEの第2の部分領域がCCDチップ230の画像センサ表面231上へ投影される。第2の画像BBにおいても焦点平面SEはCCDチップ230の画像センサ表面231と部分的にしか交わっていないので、被写界深度STのおかげで第2の画像BCの第4の画像領域B4が半導体チップBの1つの部分を鮮明に再現している。それに対して第2の画像BCの第3の画像領域B3においては、被写界深度STを有する焦点平面SEの第1の部分領域は、もはやCCDチップ230の画像センサ表面231上に投影されていない。したがって第2の画像BBの第3の画像領域B3は、半導体チップBの一部を不鮮明に再現する。 As shown diagrammatically in FIG. 10, in the second recorded image BB, in the fourth image area B4, the second part of the focal plane SE with the depth of field ST of the reflected light L A region is projected onto the image sensor surface 231 of the CCD chip 230 . Since also in the second image BB the focal plane SE only partially intersects the image sensor surface 231 of the CCD chip 230, the depth of field ST allows the fourth image area B4 of the second image BC to be One portion of the semiconductor chip B is clearly reproduced. In contrast, in the third image area B3 of the second image BC, the first partial area of the focal plane SE with the depth of field ST is no longer projected onto the image sensor surface 231 of the CCD chip 230. do not have. Therefore, the third image area B3 of the second image BB reproduces part of the semiconductor chip B in a blurred manner.

光学的なコンポーネント検出システム200の先行する説明に対応して、少なくとも1つの半導体チップBの表面を検出する方法を説明する。 Corresponding to the preceding description of the optical component detection system 200, a method for detecting the surface of at least one semiconductor chip B is described.

1つのステップにおいて、半導体チップBがカメラ装置200に対して方向づけされる。次のステップにおいて、カメラ装置220によって半導体チップBの第1の表面Oが検出される。 In one step, semiconductor chip B is oriented with respect to camera device 200 . In a next step, the first surface O of the semiconductor chip B is detected by the camera device 220 .

次のステップにおいて、CCDチップ230によって、半導体チップBの表面Oで反射された光Lが受信される。他のステップにおいて、長手方向に弾性的に撓むホルダ140によってアクロマート130が反射された光Lの光路内に保持される。長手方向は、アクロマート130の光学軸OAに対して平行に方位づけされている。次のステップにおいて、光学軸OAに沿ってアクロマート130をCCDチップ230に対して変位させるために、CCDチップ230とアクロマート130の間の相対間隔が調節される。 In a next step, the CCD chip 230 receives the light L reflected from the surface O of the semiconductor chip B. FIG. In another step, the achromat 130 is held in the path of the reflected light L by a longitudinally resilient holder 140 . The longitudinal direction is oriented parallel to the optical axis OA of the achromat 130 . In a next step, the relative spacing between CCD chip 230 and achromat 130 is adjusted in order to displace achromat 130 relative to CCD chip 230 along optical axis OA.

図11には、時間-速度(t、v)ダイアグラムが示されている。この種のダイアグラムを用いて制御装置ECUは、アクロマート130とCCDチップ230の間の相対間隔を調節するように、整えられている。 A time-velocity (t,v) diagram is shown in FIG. With a diagram of this kind the controller ECU is arranged to adjust the relative spacing between the achromat 130 and the CCD chip 230 .

時点t0で、第1及び/又は第2の操作ドライブ120、240によってアクロマート130とCCDチップ230の間の相対間隔が調節される。その場合にアクロマート130及び/又はCCDチップ230は、第1及び/又は第2の操作ドライブ120、240によって第1の期間(t0-t1)の半分内であらかじめ定められた速度v1へ加速される。半分の期間(t0-t1)後に、アクロマート130及び/又はCCDチップ230は、第1及び/又は第2の操作ドライブ120、240によって制動される。 At time t0, the relative spacing between the achromat 130 and the CCD chip 230 is adjusted by the first and/or second operating drives 120,240. The achromat 130 and/or the CCD chip 230 are then accelerated by the first and/or the second operating drive 120, 240 to a predetermined speed v1 within half of the first period (t0-t1). . After a half period (t0-t1), the achromat 130 and/or CCD chip 230 are braked by the first and/or second operating drive 120,240.

アクロマート130及び/又はCCDチップ230の変位後に、図9に示すように焦点平面SEがCCDチップ230の画像センサ表面231上に投影される。アクロマート130及び/又はCCDチップ230が停止した後に、第2の期間(t1-t2)内で第1の画像BAが記録される。 After displacement of the achromat 130 and/or the CCD chip 230, the focal plane SE is projected onto the image sensor surface 231 of the CCD chip 230 as shown in FIG. A first image BA is recorded within a second time period (t1-t2) after the achromat 130 and/or the CCD chip 230 are stopped.

その後、第1の画像BAに基づいて画像処理BVによって第1と第2の画像領域B1、B2が定められる。第1の画像BAの場合に、第1の画像領域B1において焦点平面SEの第1の部分領域がCCDチップ230の画像センサ表面231上へ投影される。それに対して第2の画像領域B2においては、焦点平面SEの第2の部分はCCDチップ230の画像センサ表面231上へ投影されない。CCDチップ230は、画像を記録して読み出すために、記録の際の光状況及びチップ大きさと、読みだし期間を調節する読みだし速度(pixel/s)に従って、6から12ms(たとえば8から10ms)の時間を必要とする。 After that, first and second image regions B1, B2 are defined by image processing BV based on the first image BA. For the first image BA, a first partial area of the focal plane SE is projected onto the image sensor surface 231 of the CCD chip 230 in the first image area B1. In contrast, in the second image area B2, the second part of the focal plane SE is not projected onto the image sensor surface 231 of the CCD chip 230. FIG. The CCD chip 230 takes 6 to 12 ms (for example, 8 to 10 ms) to record and read out an image, according to the light conditions and chip size during recording, and the readout speed (pixel/s) to adjust the readout period. time required.

制御装置ECUは、画像処理BVの制御指令に応じて第3の期間(t2-t3)の開始に続いて、アクロマート130とCCDチップ230の間の相対間隔を調節するために、第1及び/又は第2の操作ドライブ120、240を制御する。その場合に相対間隔は、焦点平面SEの第2の部分領域が画像センサ230の画像センサ表面231上に投影されるように、調節される。 The control unit ECU, following initiation of the third period (t2-t3) in response to the control command of the image processing BV, controls the first and/or or to control the second operating drive 120 , 240 . The relative spacing is then adjusted in such a way that the second partial area of the focal plane SE is projected onto the image sensor surface 231 of the image sensor 230 .

したがって第3期間(t2-t3)の半分までにアクロマート130及び/又はCCDチップ230があらかじめ定められた速度まで加速される。第3期間(t2-t3)の半分の後にアクロマート130及び/又はCCDチップ230が制動される。アクロマート130及び/又はCCDチップ230が静止するとすぐに、CCDチップ230によって第2の画像BBが記録される。アクロマート130とCCDチップ230の間の相対間隔が減少又は増大される距離区間は、70から150μmの領域内にあり、好ましくは100μmである。この距離区間は、期間2msから10msで、好ましくは10ms以内で移動される。アクロマート130とCCDチップ230の間の相対間隔の移動が行われる距離区間は、使用される第1及び/又は第2の光学的に有効な部材130、160及びその光学的特性に依存している。 Therefore, the achromat 130 and/or the CCD chip 230 are accelerated to a predetermined speed by half of the third period (t2-t3). After half of the third period (t2-t3) the achromat 130 and/or the CCD chip 230 are braked. A second image BB is recorded by the CCD chip 230 as soon as the achromat 130 and/or the CCD chip 230 are stationary. The distance interval over which the relative spacing between the achromat 130 and the CCD chip 230 is reduced or increased is in the region of 70 to 150 μm, preferably 100 μm. This distance interval is moved in a period of 2 ms to 10 ms, preferably within 10 ms. The distance interval over which the relative spacing movement between the achromat 130 and the CCD chip 230 takes place depends on the first and/or second optically effective members 130, 160 used and their optical properties. .

画像処理BVは、さらに、第2の画像BBの記録後に画像センサ230とアクロマート130の間の相対間隔を初期長さへ変位させるために、他の操作指令を第1及び/又は第2の操作ドライブ120、240へ提供するように、整えられている。 The image processing BV may also issue other operational commands to the first and/or second operations to displace the relative spacing between the image sensor 230 and the achromat 130 to the initial length after recording the second image BB. Arranged to provide to the drives 120,240.

他の変形例において、CCDチップ230によってそれぞれ3つの画像領域を有する3つの画像が記録される。3つの画像領域の1つにおいて、それぞれ焦点平面SEの部分領域がCCDチップ230の画像センサ表面231上へ投影され、他の2つの画像領域においては、焦点平面SEはCCDチップ230の画像センサ表面231上に投影されない。3つの画像記録のシーケンスは、2つの画像記録のシーケンスと同様に機能するが、それぞれ3つの画像領域を有する3つの画像によって行われる。3つの画像を記録し、かつアクロマート130とCCDチップ230の間の相対間隔をそれに応じて調節するために、光学的なコンポーネント検出システムは、80から120ms、好ましくは100msの時間を必要とする。 In another variant, three images with three image areas each are recorded by the CCD chip 230 . In one of the three image areas each partial area of the focal plane SE is projected onto the image sensor surface 231 of the CCD chip 230, and in the other two image areas the focal plane SE is projected onto the image sensor surface of the CCD chip 230. 231 is not projected. The sequence of three image recordings functions like the sequence of two image recordings, but with three images each having three image areas. To record the three images and adjust the relative spacing between the achromat 130 and the CCD chip 230 accordingly, the optical component detection system requires 80 to 120 ms, preferably 100 ms.

第1の変形例において収容部150は、半導体チップBをカメラ装置220の前に次のように、すなわち焦点平面SEが少なくとも部分的にCCDチップ230の画像センサ表面231上に投影されるように、位置決めするように、整えられている。したがって画像処理BVは、CCDチップ230によって最初の第1の画像BAを記録する。次に画像処理BVが、第1と第2の画像領域B1、B2を定めて、時点t0の前あるいはそのときに制御指令を制御装置ECUへ送信する。制御装置ECUは制御指令に基づいて、第1の期間(t0-t1)の半分内でアクロマート130及び/又はCCDチップ230を速度v1に加速するために、第1及び/又は第2の操作ドライブ120、240を制御する。第1の周期(t0-t1)の半分の後にアクロマート130及び/又はCCDチップ230は制動される。アクロマート130及び/又はCCDチップ230が静止した場合に、CCDチップ230によって第2の画像BBが記録される。 In a first variant, the housing 150 places the semiconductor chip B in front of the camera device 220 in such a way that the focal plane SE is at least partially projected onto the image sensor surface 231 of the CCD chip 230 . , is arranged to locate. The image processing BV thus records the initial first image BA by means of the CCD chip 230 . The image processing BV then defines the first and second image regions B1, B2 and sends a control command to the control unit ECU before or at time t0. Based on the control command, the control unit ECU activates the first and/or second operating drive to accelerate the achromat 130 and/or the CCD chip 230 to the speed v1 within half of the first period (t0-t1). 120, 240 are controlled. After half of the first period (t0-t1) the achromat 130 and/or the CCD chip 230 are braked. A second image BB is recorded by the CCD chip 230 when the achromat 130 and/or the CCD chip 230 are stationary.

図12と13には、それぞれ時間-合焦距離-ダイアグラムが示されており、それにおいて種々の時点で異なるステップ310から360及び410から460が実施され、その場合に互いに相当するステップには同一の参照符号が設けられている。さらに図12と13おいて半導体チップBの3つの画像が記録される。1つの画像が3つの画像領域に分割され、その場合に1つの画像領域のみがそれぞれ半導体チップBの部分領域の鮮鋭な結像を有する。したがってそれぞれ1つの画像領域のみが、被写界深度の領域内にある。しかし、記録される画像の数は、この数に限定されない。さらに他の変形例において、より多くの画像領域が完全に、あるいは少なくとも部分的に被写界深度内にあり、かつ/又はそれと交差することができる。 FIGS. 12 and 13 each show a time-focusing distance-diagram in which different steps 310 to 360 and 410 to 460 are carried out at different times, wherein steps corresponding to each other are identical. are provided. 12 and 13 three images of semiconductor chip B are recorded. An image is subdivided into three image areas, with only one image area having a sharp image of a partial area of the semiconductor chip B in each case. Only one image region in each case is therefore within the region of the depth of field. However, the number of recorded images is not limited to this number. In still other variations, more image regions can be wholly or at least partially within and/or intersect with the depth of field.

図12において、半導体チップBは時点t0の前に収容部150によってカメラ装置220の前に位置決めされている。時点t0後に、ステップ310においてCCD230が半導体チップBの第1の画像を記録する。ステップ310に続いてステップ311において、画像処理BVが第1の画像内で第1の多数の画像領域の第1の画像領域を定め、それにおいて反射された光の焦点平面SEの第1の部分領域がCCDセンサ230の画像センサ表面231上に投影されている。さらに画像処理BVは、ステップ311内で第1の画像の第2と第3の画像領域を定め、それにおいてそれぞれ反射された光Lの焦点平面SEの第2と第3の部分領域はCCDセンサ230の画像センサ表面231上に投影されない。 In FIG. 12, the semiconductor chip B is positioned in front of the camera device 220 by the housing portion 150 before time t0. After time t 0 , CCD 230 records a first image of semiconductor chip B in step 310 . Following step 310, in step 311, the image processing BV defines within the first image a first image area of a first number of image areas, in which a first portion of the focal plane SE of the reflected light. A region is projected onto the image sensor surface 231 of the CCD sensor 230 . Furthermore, the image processing BV defines in step 311 second and third image areas of the first image, in which the second and third partial areas of the focal plane SE of the reflected light L respectively are located on the CCD sensor. 230 is not projected onto the image sensor surface 231 .

ステップ310で第1の画像を記録した後の所定の期間後に、画像処理BVが第1及び/又は第2の操作ドライブ120、240へ操作指令を提供する。ステップ320において、第1及び/又は第2の操作ドライブ120、240がCCDチップ230とアクロマート130の間の相対間隔をあらかじめ定められた距離長さだけ調節する。したがって画像処理BVによって第1、第2、第3の画像領域を定める間に、CCDチップ230とアクロマート130の間の相対間隔が調節される。 After a predetermined period of time after recording the first image in step 310, the image processing BV provides operating commands to the first and/or second operating drives 120,240. At step 320, the first and/or second operating drives 120, 240 adjust the relative spacing between the CCD chip 230 and the achromat 130 by a predetermined distance length. Accordingly, the relative spacing between the CCD chip 230 and the achromat 130 is adjusted while defining the first, second and third image areas by the image processing BV.

あらかじめ定められた距離長さは、アクロマート130、レンズ160の光学的特性及び/又はコンポーネントBの表面Oの寸法に依存している。好ましくはあらかじめ定められた距離長さは、被写界深度STによってあらかじめ定められるので、あらかじめ定められた距離長さは被写界深度STよりも小さく、それと等しくあるいはそれより大きい。図12に示すように、あらかじめ定められた距離区間を移動する速度は、最初は低速であり、その後著しく上昇する。所定の部分距離区間が移動された後に、速度はまず著しく、そしてその後より軽く低下される。したがって第1及び/又は第2の操作ドライブ120、240によるアクロマート130及び/又はCCDチップ230の唐突な移動と停止及びそれに伴って移動方向に沿ったオーバーシュートが回避される。 The predetermined distance length depends on the optical properties of the achromat 130, the lens 160 and/or the dimensions of the surface O of the component B. Preferably, the predetermined distance length is predetermined by the depth of field ST, so that the predetermined distance length is less than, equal to or greater than the depth of field ST. As shown in FIG. 12, the speed for traveling the predetermined distance interval is low at first and then increases significantly. After a certain partial distance has been traveled, the speed is reduced at first significantly and then less. Abrupt movement and stopping of the achromat 130 and/or the CCD chip 230 by the first and/or second operating drive 120, 240 and concomitant overshoot along the movement direction are thus avoided.

ステップ320における相対間隔の調節の終了後に、ステップ330においてCCDチップ230によって第2の画像が記録される。ステップ330に続いてステップ331において画像処理BVが、第2の画像内で第2の多数の画像領域の第4と第6の画像領域を定め、それにおいて反射された光Lの焦点平面SEの第1と第3の部分領域は、CCDチップ230の画像センサ表面231上に投影されていない。さらにステップ331において画像処理BVは、第2の画像の第5の画像領域を定め、それにおいて反射された光Lの焦点平面SEの第2の部分領域がCCDチップ230の画像センサ表面231上に投影されている。 After finishing adjusting the relative spacing in step 320 , a second image is recorded by the CCD chip 230 in step 330 . Following step 330, in step 331, image processing BV defines the fourth and sixth image regions of the second number of image regions in the second image, in which the focal plane SE of the light L reflected therein. The first and third partial areas are not projected onto the image sensor surface 231 of the CCD chip 230 . Further in step 331 the image processing BV defines a fifth image area of the second image, in which a second partial area of the focal plane SE of the reflected light L is located on the image sensor surface 231 of the CCD chip 230. being projected.

ステップ330において第2の画像の記録が行われた後に、画像処理が再び制御指令を第1及び/又は第2の操作ドライブ120、240へ提供する。ステップ340において、第1及び/又は第2の操作ドライブ120、240がCCDチップ230とアクロマート130の間の相対間隔をあらかじめ定められた距離長さだけ調節する。他の変形例において、ステップ340内でCCDチップ230とアクロマート130の間の相対間隔を、ステップ320内のあらかじめ定められた距離長さよりも大きい、あるいは小さい、第2のあらかじめ定められた距離長さだけ調節することができる。同様に画像処理BVによって第4、第5及び第6の画像領域を定める間、CCDチップ230とアクロマート130の間の相対間隔が調節される。 After the recording of the second image has taken place in step 330, the image processing again provides control commands to the first and/or second operating drive 120,240. At step 340, the first and/or second operating drives 120, 240 adjust the relative spacing between the CCD chip 230 and the achromat 130 by a predetermined distance length. In another variation, the relative spacing between CCD chip 230 and achromat 130 in step 340 is set to a second predetermined distance length that is greater or less than the predetermined distance length in step 320. can only be adjusted. Similarly, the relative spacing between the CCD chip 230 and the achromat 130 is adjusted while defining the fourth, fifth and sixth image areas by image processing BV.

ステップ340において相対間隔の調節が終了した後に、ステップ350においてCCDチップ230によって第3の画像が記録される。第3の画像の記録の成功に続いて、ステップ351において画像処理BVが第3の画像の第7と第8画像領域を定め、それにおいて反射された光Lの焦点平面SEの第1と第2の部分領域は、CCDチップ230の画像センサ表面231上に投影されていない。さらに画像処理BVは、ステップ351において第3の画像の第9の画像領域を定め、それにおいて反射された光Lの焦点平面SEの第3の部分領域がCCDチップ230の画像センサ表面231上に投影されている。 After adjusting the relative spacing in step 340 , a third image is recorded by the CCD chip 230 in step 350 . Following successful recording of the third image, in step 351 the image processing BV defines the seventh and eighth image areas of the third image, in which the first and the first focal planes SE of the reflected light L. 2 are not projected onto the image sensor surface 231 of the CCD chip 230 . Furthermore, the image processing BV defines in step 351 a ninth image area of the third image, in which a third partial area of the focal plane SE of the reflected light L is on the image sensor surface 231 of the CCD chip 230. being projected.

ステップ350において第3の画像が記録された後に、画像処理BVは他の制御指令を第1及び/又は第2の操作ドライブ120、240へ提供する。第1及び/又は第2の操作ドライブ120、240は、ステップ360内でCCDチップ230とアクロマート130の間の相対間隔をその初期長さに調節する。同様に画像処理BVによって第7、第8及び第9の画像領域が定められる間、CCDチップ230とアクロマート130の間の相対間隔が調節される。CCDチップ230とアクロマート130の間の相対間隔をその初期長さに調節することは、ステップ320と340における相対間隔の調節と同様に、もちろん逆方向において、実施される。 After the third image has been recorded in step 350, the image processing BV provides further control commands to the first and/or second operating drives 120,240. The first and/or second operating drives 120, 240 adjust the relative spacing between the CCD chip 230 and the achromat 130 in step 360 to their initial length. Similarly, the relative spacing between the CCD chip 230 and the achromat 130 is adjusted while the seventh, eighth and ninth image areas are defined by the image processing BV. Adjusting the relative spacing between CCD chip 230 and achromat 130 to its initial length is performed similarly to adjusting the relative spacing in steps 320 and 340, but of course in the opposite direction.

ステップ360の後に画像処理BVは、互いに連続するステップ312、332、352において第1、第2及び第3の画像のそれぞれ所定の画像領域に基づいて、半導体チップBが欠陥を有するか、を検査する。 After step 360, the image processing BV checks whether the semiconductor chip B has defects based on predetermined image areas of the first, second and third images respectively in successive steps 312, 332, 352. do.

他の変形例において、画像処理BVはステップ360、312、332、352の後にステップ353において第4の画像を形成することができ、それにおいて、第1、第2及び第3の画像の第1、第5及び第9の画像領域を切り取り、かつ継ぎ合わせる。 In another variation, the image processing BV can form a fourth image in step 353 after steps 360, 312, 332, 352, in which the first image of the first, second and third images , crop and stitch the fifth and ninth image regions.

他の変形例において、画像処理BVは、ステップ330、331、340、350、351、360の後にステップ311を実施する。さらに画像処理BVは、ステップ340、350、351、360の後にステップ331を実施し、かつ/又はステップ312、332のいずれかの後にステップ351を実施することができる。 In another variant, the image processing BV implements step 311 after steps 330,331,340,350,351,360. Further, the image processing BV may perform step 331 after steps 340, 350, 351, 360 and/or step 351 after any of steps 312,332.

したがって、画像処理と半導体チップBの画像の検査を画像記録のプロセスから切り離すことが、可能である。半導体チップBの画像の記録が画像処理と画像の検査から独立していることによって画像記録のプロセスをより少ないステップに削減することができる。したがってコンポーネントあたりの画像記録得の期間が減少され、同じ時間内でより大きい数のコンポーネント及びそれに応じた画像記録を達成することができる。 Therefore, it is possible to separate the image processing and the inspection of the image of the semiconductor chip B from the image recording process. The independence of image recording of semiconductor chip B from image processing and image inspection reduces the process of image recording to fewer steps. The duration of image recording per component is thus reduced and a greater number of components and corresponding image recordings can be achieved in the same time.

図13において、半導体チップBは時点t0の前に、カメラ装置220の前に位置決めされている。時点t0の後にステップ410においてCCDチップによって第1の画像が記録されて、画像処理BVへ提供される。ステップ410の間画像処理BVは、CCDチップ230とアクロマート130の間の相対間隔をあらかじめ定められた速度で調節するために、第1及び/又は第2の操作ドライブ120、240へ制御指令を提供する。第1及び/又は第2の操作ドライブ120、240は、CCDチップ230とアクロマート130の間の相対間隔を、第1の画像の記録がまだ実施されている間にすでに調節する。 In FIG. 13, semiconductor chip B is positioned in front of camera device 220 before time t0. A first image is recorded by the CCD chip in step 410 after time t0 and provided to the image processing BV. During step 410 the image processing BV provides control commands to the first and/or second operating drives 120, 240 to adjust the relative spacing between the CCD chip 230 and the achromat 130 at a predetermined speed. do. The first and/or second operating drive 120, 240 already adjusts the relative spacing between the CCD chip 230 and the achromat 130 while the recording of the first image is still taking place.

CCDチップ230とアクロマート130の間の相対間隔があらかじめ定められた速度で調節される時点及びあらかじめ定められた速度は、アクロマート130、レンズ160の光学的特性、被写界深度ST、コンポーネントBの表面Oの寸法、アクロマート130及び/又はレンズ160及び/又は画像センサ230の質量及び、第1及び/又は第2の操作ドライブ120、240によるこれらの応答挙動に合わせられる。被写界深度がたとえば70μmの大きさである場合に、第1の画像の記録の間、焦点平面SEは最大70μmだけ移動させることができる。したがって記録される画像の画像領域上で半導体チップBの部分領域の鮮明な結像が保証される。 The point at which the relative spacing between the CCD chip 230 and the achromat 130 is adjusted at a predetermined speed and the predetermined speed depend on the optical properties of the achromat 130, the lens 160, the depth of field ST, the surface of the component B The dimensions of O, the mass of the achromat 130 and/or the lens 160 and/or the image sensor 230 and their response behavior by the first and/or second steering drive 120, 240 are matched. If the depth of field is, for example, of the order of 70 μm, the focal plane SE can be moved by a maximum of 70 μm during the recording of the first image. A sharp image of the partial area of the semiconductor chip B is thus ensured on the image area of the recorded image.

図13において、画像が形成される走行距離に沿った、あらかじめ定められた速度は一定に維持される。他の変形例において、CCDチップ230とアクロマート130の間の相対間隔を調節する速度は、あらかじめ定められた速度領域内に、あるいは少なくとも2つの異なる速度の間で変化することができる。 In FIG. 13, the predetermined speed along the distance traveled over which the image is formed is kept constant. In other variations, the speed of adjusting the relative spacing between CCD chip 230 and achromat 130 can vary within a predetermined speed range or between at least two different speeds.

焦点平面SEがあらかじめ定められた距離長さだけ、かつ/又はあらかじめ定められた時間の間変位された後に、ステップ430において第2の画像がCCDチップ230によって記録される。第2の画像の記録とは関係なく、CCDチップ230とアクロマート130の間の相対間隔があらかじめ定められた速度で調節される。他の変形例において、第2の画像は、あらかじめ定められた焦点平面位置に達した場合に、記録される。 After focal plane SE has been displaced by a predetermined distance length and/or for a predetermined time period, a second image is recorded by CCD chip 230 in step 430 . Independently of the recording of the second image, the relative spacing between CCD chip 230 and achromat 130 is adjusted at a predetermined speed. In another variant, the second image is recorded when the predetermined focal plane position is reached.

焦点平面SEがさらにあらかじめ定められた距離長さだけ、かつ/又はあらかじめ定められた時間の間変位された後に、ステップ450において第3の画像がCCDチップ230によって記録される。第2の画像の記録の場合と同様に、第3の画像の記録の間も、CCDチップ230とアクロマート130の間の相対間隔はあらかじめ定められた速度で調節される。他の変形例において、あらかじめ定められた速度は第3の画像の記録の間に低下されて、ついにはCCDチップ230とアクロマート130の間の相対間隔は、もはや調節されない。 After focal plane SE has been displaced a further predetermined distance length and/or for a predetermined time period, a third image is recorded by CCD chip 230 in step 450 . As in the recording of the second image, also during the recording of the third image the relative spacing between the CCD chip 230 and the achromat 130 is adjusted at a predetermined rate. In another variant, the predetermined speed is lowered during recording of the third image until the relative spacing between CCD chip 230 and achromat 130 is no longer adjusted.

ステップ311、312、331、332、351、352、353、360は、図12についてすでに説明したように実施することができる。 Steps 311, 312, 331, 332, 351, 352, 353, 360 can be implemented as already described with respect to FIG.

図13によれば、アクロマート130及び/又は画像センサ230は、第1、第2及び第3の画像が記録される間に、一回だけ加速され、かつ停止される。その都度の停止と新たな加速は回避されるので、コンポーネントあたりの画像記録のための期間はさらに削減される。同様に新たな加速と停止による光学的なコンポーネント検出システムの振動が回避される。 According to FIG. 13, the achromat 130 and/or the image sensor 230 are accelerated and stopped only once while the first, second and third images are recorded. Since each stop and new acceleration is avoided, the duration for image recording per component is further reduced. Similarly, vibrations of the optical component detection system due to new accelerations and stops are avoided.

Claims (19)

少なくとも1つのコンポーネント(B)の少なくとも1つの表面を検出する光学的なコンポーネント検出システム(200)であって、収容部(150)を有し、前記収容部が、コンポーネント(B)の第1の表面(O)をカメラ装置(220)によって検出するために、コンポーネント(B)をカメラ装置(220)の前に位置決めするように、整えられており、
その場合にカメラ装置(220)が画像センサ(230)を有し、前記画像センサが、コンポーネント(B)の第1の表面(O)において反射された光(L)を受信するように、整えられており、
その場合に光学的なコンポーネント検出システム(200)が、画像センサ(230)に対して反射された光(L)の光路内に配置された第1の光学的に有効な部材(130)、制御装置(ECU)、画像処理(BV)及び第1の光学的に有効な部材(130)のための操作装置(100)を有し、操作装置(100)が、
第1の光学的に有効な部材(130)のためのホルダ(140)を有し、その場合にホルダ(140)が中空円筒状の鏡胴(110)の内側に固定されており、かつ鏡胴(110)の長手中心軸が第1の光学的に有効な部材(130)の光学軸(OA)に対して同軸に方位づけされており、かつその場合にホルダ(140)が少なくとも鏡胴長手方向に弾性的に撓むことができ、
かつ操作装置が、
光学軸(OA)に沿って光学的に有効な部材(130)を画像センサ(230)に対して変位させるために、光学的に有効な部材(130)と画像センサ(230)の間の相対間隔を調節するための第1の操作ドライブ(120)を有し、その場合に制御装置(ECU)が第1の操作ドライブ(120)を制御するように整えられており、
その場合に画像処理(BV)が次のように整えられており、すなわち
-画像センサ(230)によって第1の画像(BA)を記録し、前記第1の画像が画像処理(BV)へ提供され、
-第1の光学的に有効な部材(130)と画像センサ(230)の間の相対間隔をあらかじめ定められた距離長さだけ調節するために、第1の操作ドライブ(120)を制御するために制御装置(ECU)へ制御指令を提供し、
-画像センサ(230)によって第2の画像(BB)を記録し、前記第2の画像が画像処理(BV)へ提供される、
ように、整えられており、
その場合に画像処理(BV)は、第1の画像(BA)の記録後あるいは第2の画像(BB)の記録後に、次のように整えられおり、すなわち
-第1の画像(BA)の第1の多数の画像領域(B1、B2)の第1の画像領域(B1)を定め、それにおいて、反射された光(L)の焦点平面(SE)の第1の部分領域が画像センサ(230)の画像センサ表面(231)上に投影されており、かつ
-第1の画像(BA)の第1の多数の画像領域(B1、B2)の第2の画像領域(B2)を定め、それにおいて、反射された光(L)の焦点平面(SE)の第2の部分領域は画像センサ(230)の画像センサ表面(231)上に投影されておらず、かつ
-第2の画像(BB)の第2の多数の画像領域(B3、B4)の第3の画像領域(B3)を定め、それにおいて、反射された光(L)の焦点平面(SE)の第1の部分領域は画像センサ(230)の画像センサ表面(231)上に投影されておらず、
-第2の画像(BB)の第2の多数の画像領域(B3、B4)の第4の画像領域(B4)を定め、それにおいて、反射された光(L)の焦点平面(SE)の第2の部分領域が画像センサ(230)の画像センサ表面(231)上に投影されている、
ように整えられている、
光学的なコンポーネント検出システム。
An optical component detection system (200) for detecting at least one surface of at least one component (B), comprising a housing (150), said housing comprising a first arranged to position the component (B) in front of the camera device (220) for detection of the surface (O) by the camera device (220);
In that case the camera device (220) comprises an image sensor (230) arranged to receive the light (L) reflected at the first surface (O) of the component (B). and
The optical component detection system (200) then comprises a first optically effective member (130) positioned in the optical path of the light (L) reflected to the image sensor (230), the control a device (ECU), an image processing (BV) and an operating device (100) for a first optically effective member (130), the operating device (100) comprising:
a holder (140) for a first optically effective member (130), where the holder (140) is fixed inside the hollow cylindrical lens barrel (110) and the mirror The central longitudinal axis of the barrel (110) is oriented coaxially with respect to the optical axis (OA) of the first optically effective member (130), and in that case the holder (140) comprises at least the barrel It can elastically bend in the longitudinal direction,
and the operating device
A relative position between the optically effective member (130) and the image sensor (230) to displace the optically effective member (130) relative to the image sensor (230) along the optical axis (OA). having a first operating drive (120) for adjusting the spacing, wherein a control unit (ECU) is arranged to control the first operating drive (120);
In that case the image processing (BV) is arranged to: record a first image (BA) by means of an image sensor (230), said first image being provided to the image processing (BV) is,
- for controlling the first operating drive (120) to adjust the relative spacing between the first optically effective member (130) and the image sensor (230) by a predetermined distance length; to provide a control command to the control unit (ECU),
- recording a second image (BB) by the image sensor (230), said second image being provided to image processing (BV);
so arranged,
The image processing (BV) is then arranged as follows after the recording of the first image (BA) or after the recording of the second image (BB): of the first image (BA) A first image area (B1) of the first number of image areas (B1, B2) is defined in which a first partial area of the focal plane (SE) of the reflected light (L) is located on the image sensor ( 230) on the image sensor surface (231), and - defining a second image area (B2) of the first number of image areas (B1, B2) of the first image (BA), wherein the second partial area of the focal plane (SE) of the reflected light (L) is not projected onto the image sensor surface (231) of the image sensor (230), and - the second image ( BB) defines a third image area (B3) of the second number of image areas (B3, B4) in which a first partial area of the focal plane (SE) of the reflected light (L) is not projected onto the image sensor surface (231) of the image sensor (230),
- defining a fourth image area (B4) of the second number of image areas (B3, B4) of the second image (BB), in which the focal plane (SE) of the reflected light (L); the second partial area is projected onto the image sensor surface (231) of the image sensor (230),
is arranged to
Optical component detection system.
その場合に第1の操作ドライブ(120)が、ホルダ(140)を少なくともセクション的に包囲するコイル(121)を有し、
その場合に制御装置(ECU)が、磁場を発生させるためにコイル(121)へ供給される電流を制御するように、整えられており、
その場合にホルダ(140)が、軟鉄を含む、あるいは永久磁石のコンポーネント(141、142)を有し、前記コンポーネントが、コイル(121)へ供給される電流に従ってホルダ(140)を鏡胴(110)の長手中心軸に沿って変位させるように、整えられている、
請求項1に記載の光学的なコンポーネント検出システム(200)。
The first operating drive (120) then has a coil (121) that at least sectionally surrounds the holder (140),
A control unit (ECU) is then arranged to control the current supplied to the coil (121) to generate the magnetic field,
In that case, the holder (140) comprises soft iron or permanent magnet components (141, 142), which move the holder (140) according to the current supplied to the coil (121) to the lens barrel (110). ) arranged to be displaced along the central longitudinal axis of the
The optical component detection system (200) of claim 1.
さらに、
画像センサ(230)を光学軸(OA)に沿って第1の光学的に有効な部材(130)に対して変位させるために、制御装置(ECU)によって制御される、画像センサ(230)を変位させるための第2の操作ドライブ(240)を有しており、かつ/又は
少なくとも1つの光源を有し、前記光源が、コンポーネント(B)の第1の表面(O)へ光を送出するように整えられており、
その場合に、選択的に、制御装置(ECU)が、
反射された光(L)の焦点平面(SE)を画像センサ(230)の、反射された光(L)を向いた画像センサ表面(231)上へ投影するために、第1の光学的に有効なコンポーネント(130)と画像センサ(230)の間の相対間隔を第1及び/又は第2の操作ドライブ(120、240)の制御によって調節するように、整えられている、
請求項1又は2に記載の光学的なコンポーネント検出システム(200)。
moreover,
an image sensor (230) controlled by a control unit (ECU) to displace the image sensor (230) along the optical axis (OA) relative to the first optically effective member (130); having a second manipulating drive (240) for displacing and/or having at least one light source, said light source delivering light to the first surface (O) of the component (B) are arranged to
In that case, optionally, the control unit (ECU)
A first optically arranged to adjust the relative spacing between the active component (130) and the image sensor (230) by control of the first and/or second operating drive (120, 240);
3. An optical component detection system (200) according to claim 1 or 2.
その場合に画像処理(BV)が次のように整えられている:
-画像センサ(230)によって第1の画像(BA)を記録し、前記第1の画像が画像処理(BV)へ提供され、
-第1の画像(BA)に基づいて、反射された光(L)の焦点平面(SE)が画像センサ(230)の画像センサ表面(231)上に実質的に完全に投影されているかを定め、
反射された光(L)の焦点平面(SE)が画像センサ(230)の画像センサ表面(231)上に実質的に完全に投影されていない場合には、
-第1の画像(BA)の第1の多数の画像領域(B1、B2)の第1の画像領域(B1)を定め、それにおいて、反射された光(L)の焦点平面(SE)の第1の部分領域が画像センサ(230)の画像センサ表面(231)上に投影されており、
-第1の画像(BA)の第1の多数の画像領域(B1、B2)の第2の画像領域(B2)を定め、それにおいて、反射された光(L)の焦点平面(SE)の第2の部分領域が画像センサ(230)の画像センサ表面(231)上に投影されておらず、
-第1の光学的に有効な部材(130)と画像センサ(230)の間の相対間隔を調節し、かつ反射された光(L)の焦点平面(SE)の第2の部分領域を画像センサ(230)の画像センサ表面(231)上へ投影するために、第1及び/又は第2の操作ドライブ(120、240)を制御するために制御指令を制御装置(ECU)へ提供し、
-画像センサ(230)によって第2の画像(BB)を記録し、前記第2の画像が画像処理(BV)へ提供され、
-第2の画像(BB)の第2の多数の画像領域(B3、B4)の第3の画像領域(B3)を定め、それにおいて、反射された光(L)の焦点平面(SE)の第1の部分領域は画像センサ(230)の画像センサ表面(231)上に投影されておらず、かつ
-第2の画像(BB)の第2の多数の画像領域(B3、B4)の第4の画像領域(B4)を定め、それにおいて、反射された光(L)の焦点平面(SE)の第2の部分領域が画像センサ(230)の画像センサ表面(231)上に投影されている、
請求項1から3のいずれか1項に記載の光学的なコンポーネント検出システム(200)。
Image processing (BV) is then arranged as follows:
- recording a first image (BA) by an image sensor (230), said first image being provided to image processing (BV);
- based on the first image (BA), whether the focal plane (SE) of the reflected light (L) is substantially completely projected onto the image sensor surface (231) of the image sensor (230); determine,
If the focal plane (SE) of the reflected light (L) is not substantially fully projected onto the image sensor surface (231) of the image sensor (230),
- defining a first image area (B1) of the first number of image areas (B1, B2) of the first image (BA), in which the focal plane (SE) of the reflected light (L); the first partial area is projected onto an image sensor surface (231) of the image sensor (230),
- defining a second image area (B2) of the first number of image areas (B1, B2) of the first image (BA), in which the focal plane (SE) of the reflected light (L); the second partial area is not projected onto the image sensor surface (231) of the image sensor (230), and
- adjusting the relative spacing between the first optically effective member (130) and the image sensor (230) and imaging a second partial area of the focal plane (SE) of the reflected light (L); providing control instructions to a control unit (ECU) to control the first and/or second operating drives (120, 240) for projection onto the image sensor surface (231) of the sensor (230);
- recording a second image (BB) by the image sensor (230), said second image being provided to image processing (BV);
- defining a third image area (B3) of the second number of image areas (B3, B4) of the second image (BB), in which the focal plane (SE) of the reflected light (L); the first partial area is not projected onto the image sensor surface (231) of the image sensor (230); and - the second number of image areas (B3, B4) of the second image (BB); 4 image areas (B4) in which a second partial area of the focal plane (SE) of the reflected light (L) is projected onto the image sensor surface (231) of the image sensor (230). there is
Optical component detection system (200) according to any one of claims 1 to 3.
請求項3に記載の第2の操作ドライブ(240)を有し、その場合に画像処理(BV)が次のように、
-第1の光学的に有効な部材(130)と画像センサ(230)の間の相対間隔をあらかじめ定められた距離長さだけ調節するために、第1及び/又は第2の操作ドライブ(120、240)を制御するために制御装置(ECU)へ制御指令を提供するように、
整えられている、請求項1から3のいずれか1項に記載の光学的なコンポーネント検出システム(200)。
Having a second operating drive (240) according to claim 3, wherein the image processing (BV) is as follows:
- the first and/or second operating drive (120) for adjusting the relative spacing between the first optically effective member (130) and the image sensor (230) by a predetermined distance length; , 240) to provide control commands to a control unit (ECU) for controlling
An optical component detection system (200) according to any one of claims 1 to 3, arranged.
請求項3に記載の第2の操作ドライブ(240)を有し、その場合に画像処理(BV)が次のように、
-画像センサ(230)によって第1の画像(BA)を記録し、前記第1の画像が画像処理(BV)へ提供され、
-第1の画像(BA)の記録の間に第1の光学的な部材(130)と画像センサ(230)の間の相対間隔をあらかじめ定められた速度で調節するために、第1及び/又は第2の操作ドライブ(120、240)を制御するために、制御指令を制御装置(ECU)へ提供し、
-第1の画像(BA)の記録後に、あるいは第1の画像(BA)が記録された後のあらかじめ定められた期間後に、かつ第1の光学的に有効な部材(130)と画像センサ(230)の間の相対間隔が調節される間に、画像センサ(230)によって第2の画像(BB)を記録し、前記第2の画像が画像処理(BV)へ提供される、
ように整えられている、請求項1から3のいずれか1項に記載の光学的なコンポーネント検出システム(200)。
Having a second operating drive (240) according to claim 3, wherein the image processing (BV) is as follows:
- recording a first image (BA) by an image sensor (230), said first image being provided to image processing (BV);
a first and/or for adjusting the relative spacing between the first optical member (130) and the image sensor (230) at a predetermined speed during recording of the first image (BA); or providing control commands to a control unit (ECU) to control the second operating drive (120, 240);
- after recording the first image (BA) or after a predetermined period of time after the first image (BA) has been recorded and the first optically effective member (130) and the image sensor ( 230) is adjusted while recording a second image (BB) by the image sensor (230), said second image being provided to image processing (BV)
An optical component detection system (200) according to any one of claims 1 to 3, arranged to:
その場合に第1の画像(BA)の第1と第2の画像領域(B1、B2)がそれぞれコンポーネント(B)の一部分を複写し、前記一部分が第2の画像(BB)の第3と第4の画像部分(B3、B4)内のコンポーネント(B)の前記一部分に相当し、かつ/又はその場合に第1の画像(BA)において焦点平面(SE)の第1の部分領域が、そして第2の画像(BB)においては焦点平面(SE)の第2の部分領域が、あらかじめ定められた被写界深度(ST)内で、画像センサ(230)の画像センサ表面(231)上に投影されており、かつ
その場合に第1の画像(BA)において焦点平面(SE)の第2の部分領域が、そして第2の画像(BB)においては焦点平面(SE)の第1の部分領域が、あらかじめ定められた被写界深度(ST)外で画像センサ(230)の画像センサ表面(231)上に投影されている、
請求項1又は4に記載の光学的なコンポーネント検出システム(200)。
In that case the first and second image areas (B1, B2) of the first image (BA) each copy a part of the component (B), said part being the third and third of the second image (BB). corresponding to said portion of the component (B) in the fourth image portion (B3, B4) and/or where in the first image (BA) the first partial area of the focal plane (SE) is and in the second image (BB) a second sub-region of the focal plane (SE), within a predetermined depth of field (ST), on the image sensor surface (231) of the image sensor (230) and then in the first image (BA) the second partial area of the focal plane (SE) and in the second image (BB) the first the partial area is projected onto the image sensor surface (231) of the image sensor (230) outside the predetermined depth of field (ST);
An optical component detection system (200) according to claim 1 or 4.
その場合に画像処理(BV)がさらに、次のように、
-第1の画像(BA)から第1の画像領域(B1)を、そして第2の画像(BB)からは第4の画像領域(B4)を切り出し、かつ
-第3の画像(BC)を形成するために、切り出した第1と第4の画像領域(B1、B4)を継ぎ合わせ、かつ/又は
-第1の画像(BA)の第1の画像領域(B1)及び/又は第2の画像(BB)の第4の画像領域(B4)及び/又は第3の画像(BC)に基づいて、コンポーネント(B)が少なくとも1つの障害箇所を有するか、を定め、かつ
画像処理(BV)が少なくとも1つの障害箇所を定めた場合に、
-コンポーネント(B)についての障害箇所情報を提供する、
ように整えられている、請求項1又は4又は7のいずれか1項に記載の光学的なコンポーネント検出システム(200)。
In that case, the image processing (BV) furthermore:
- crop the first image area (B1) from the first image (BA) and the fourth image area (B4) from the second image (BB), and - crop the third image (BC) and/or - the first image area (B1) of the first image (BA) and/or the second determining whether the component (B) has at least one fault location on the basis of the fourth image area (B4) of the image (BB) and/or the third image (BC); and image processing (BV) defines at least one fault point,
- provides fault location information for component (B),
8. An optical component detection system (200) according to any one of claims 1 or 4 or 7, arranged to:
請求項3に記載された第2の操作ドライブ(240)を有し、さらに、
位置検出センサ(250)を有し、前記位置検出センサは、第1の光学的に有効な部材(130)及び/又は画像センサ(230)の画像センサ表面(231)の位置及び/又は姿勢を定め、かつ光学的に有効な部材(130)及び/又は画像センサ(230)の画像センサ表面(231)の位置及び/又は姿勢に関する情報を制御装置(ECU)へ提供するように、整えられており、前記制御装置は提供された情報に基づいて第1及び/又は第2の操作ドライブ(120、240)を制御し、
その場合に位置検出センサが、選択的に、光学的又は(電子-)機械的な位置検出センサである、
請求項1から8のいずれか1項に記載の光学的なコンポーネント検出システム(200)。
having a second operating drive (240) according to claim 3, and further comprising:
a position detection sensor (250) for detecting the position and/or orientation of the first optically effective member (130) and/or the image sensor surface (231) of the image sensor (230); and arranged to provide information regarding the position and/or orientation of the optically effective member (130) and/or the image sensor surface (231) of the image sensor (230) to a control unit (ECU). said controller controlling the first and/or second operating drive (120, 240) based on the information provided;
in which case the position detection sensor is optionally an optical or (electro-)mechanical position detection sensor,
An optical component detection system (200) according to any one of the preceding claims.
その場合にカメラ装置(220)が、第1の光学的に有効な部材(130)と画像センサ(230)の間で光路内に第2の光学的に有効な部材(160)を有しており、その場合に第2の光学的に有効な部材(160)の光学軸が、第1の光学的に有効な部材(130)の光学軸に対して同軸に方位づけされており、かつ/又は
その場合に第1の光学的に有効な部材(130)がアクロマートであり、かつ/又は
その場合に第2の光学的に有効な部材(160)が集光レンズである、
請求項1から9のいずれか1項に記載の光学的なコンポーネント検出システム(200)。
In that case the camera device (220) has a second optically effective member (160) in the optical path between the first optically effective member (130) and the image sensor (230). wherein the optical axis of the second optically effective member (160) is oriented coaxially with respect to the optical axis of the first optically effective member (130); and/ or where the first optically effective member (130) is an achromatic and/or where the second optically effective member (160) is a condensing lens;
An optical component detection system (200) according to any one of claims 1 to 9.
少なくとも1つのコンポーネント(B)の少なくとも1つの表面を検出する光学的なコンポーネント検出システム(200)であって、収容部(150)を有し、前記収容部が、コンポーネント(B)の第1の表面(O)をカメラ装置(220)によって検出するように、整えられており、
その場合にカメラ装置(220)が画像センサ(230)を有し、前記画像センサが、コンポーネント(B)の第1の表面(O)において反射された光(L)を受信するように、整えられており、
その場合に光学的なコンポーネント検出システム(200)が、画像センサ(230)に対して反射された光(L)の光路内に配置された、第1の光学的に有効な部材(130)、制御装置(ECU)、画像処理(BV)及び第1の光学的に有効な部材(130)のための操作装置(100)を有しており、操作装置(100)が、
第1の光学的に有効な部材(130)のためのホルダ(140)を有し、その場合にホルダ(140)が中空円筒状の鏡胴(110)の内側にリニアガイドによって固定されており、かつ鏡胴(110)の長手中心軸が第1の光学的に有効な部材(130)の光学軸(OA)に対して同軸に方位づけされており、かつその場合にリニアガイドが、ホルダ(140)を光学軸(OA)に対して平行に案内するように、整えられおり、
操作装置が、光学的に有効な部材(130)を画像センサ(230)に対して変位させるために、画像センサ(230)と第1の光学的に有効な部材(130)の間の相対間隔を調節するための第1の操作ドライブ(120)を有し、その場合に制御装置(ECU)が、第1の操作ドライブ(120)を制御するように、整えられており、
その場合に画像処理(BV)が次のように整えられており:
-画像センサ(230)によって第1の画像(BA)を記録し、前記第1の画像が画像処理(BV)へ提供され、
-第1の光学的に有効な部材(130)と画像センサ(230)の間の相対間隔をあらかじめ定められた距離長さだけ調節するために、第1の操作ドライブ(120)を制御するために制御装置(ECU)に制御指令を提供し、
-画像センサ(230)によって第2の画像(BB)を記録し、前記第2の画像が画像処理(BV)へ提供される、
ように、整えられており、
その場合に画像処理(BV)が、第1の画像(BA)の記録後あるいは第2の画像(BB)の記録後に、次のように:
-第1の画像(BA)の第1の多数の画像領域(B1、B2)の第1の画像領域(B1)を定め、それにおいて、反射された光(L)の焦点平面(ES)の第1の部分領域が画像センサ(230)の画像センサ表面(231)上に投影されており、かつ
-第1の画像(BA)の第1の多数の画像領域(B1、B2)の第2の画像領域(B2)を定め、それにおいて、反射された光(L)の焦点平面(SE)の第2の部分領域は画像センサ(230)の画像センサ表面(231)上に投影されておらず、かつ
-第2の画像(BB)の第2の多数の画像領域(B3、B4)の第3の画像領域(B3)を定め、それにおいて、反射された光(L)の焦点平面(SE)の第1の部分領域は画像センサ(230)の画像センサ表面(231)上に投影されておらず、かつ
-第2の画像(BB)の第2の多数の画像領域(B3、B4)の第4の画像領域(B4)を定め、それにおいて、反射された光(L)の焦点平面(SE)の第2の部分領域が画像センサ(230)の画像センサ表面(231)上に投影されている、
ように整えられている、光学的なコンポーネント検出システム。
An optical component detection system (200) for detecting at least one surface of at least one component (B), comprising a housing (150), said housing comprising a first arranged for detection by a camera device (220) of the surface (O),
In that case the camera device (220) comprises an image sensor (230) arranged to receive the light (L) reflected at the first surface (O) of the component (B). and
a first optically effective member (130), in which case the optical component detection system (200) is positioned in the optical path of the reflected light (L) to the image sensor (230); It has an operating device (100) for a control unit (ECU), an image processing (BV) and a first optically effective member (130), the operating device (100):
a holder (140) for a first optically effective member (130), wherein the holder (140) is fixed inside the hollow cylindrical lens barrel (110) by a linear guide; and the central longitudinal axis of the lens barrel (110) is oriented coaxially with respect to the optical axis (OA) of the first optically effective member (130), and then the linear guide is positioned in the holder arranged to guide (140) parallel to the optical axis (OA),
relative spacing between the image sensor (230) and the first optically effective member (130) for the manipulator to displace the optically effective member (130) relative to the image sensor (230) a first operating drive (120) for adjusting the, wherein a control unit (ECU) is arranged to control the first operating drive (120);
In that case the image processing (BV) is arranged as follows:
- recording a first image (BA) by an image sensor (230), said first image being provided to image processing (BV);
- for controlling the first operating drive (120) to adjust the relative spacing between the first optically effective member (130) and the image sensor (230) by a predetermined distance length; to provide a control command to the control unit (ECU),
- recording a second image (BB) by the image sensor (230), said second image being provided to image processing (BV);
so arranged,
The image processing (BV) is then performed after recording the first image (BA) or after recording the second image (BB) as follows:
- defining a first image area (B1) of the first number of image areas (B1, B2) of the first image (BA), in which the focal plane (ES) of the reflected light (L); the first partial area is projected onto the image sensor surface (231) of the image sensor (230), and - the second of the first number of image areas (B1, B2) of the first image (BA) defines an image area (B2) of , in which a second partial area of the focal plane (SE) of the reflected light (L) is projected onto the image sensor surface (231) of the image sensor (230). and - defining a third image area (B3) of the second number of image areas (B3, B4) of the second image (BB), in which the focal plane of the reflected light (L) ( SE) is not projected onto the image sensor surface (231) of the image sensor (230), and - the second multiple image areas (B3, B4) of the second image (BB) ) in which a second partial area of the focal plane (SE) of the reflected light (L) is projected onto the image sensor surface (231) of the image sensor (230). being projected
An optical component detection system arranged to
少なくとも1つのコンポーネント(B)の少なくとも1つの表面を検出する方法であって、以下のステップを有する:
-コンポーネント(B)をカメラ装置(220)に対して方向づけし、
-コンポーネント(B)の第1の表面(O)を、カメラ装置(220)を用いて、検出し、
-コンポーネント(B)の第1の表面(O)において反射された光(L)を、カメラ装置(220)の画像センサ(230)によって、受信し、
-長手方向に弾性的に撓むホルダ(140)によって、第1の光学的に有効な部材(130)を反射された光(L)の光路内に保持し、その場合に前記長手方向が光学的に有効な部材(130)の光学軸(OA)に対して平行に方位づけされており、
-第1の画像(BA)を記録し、
-画像センサ(230)と第1の光学的に有効な部材(130)の間の相対間隔を調節し、その場合に第1の光学的に有効な部材(130)が光学軸に沿って画像センサ(230)に対して変位され、
-第2の画像(BB)を記録し、
第1の画像(BA)の第1の多数の画像領域(B1、B2)の第1の画像領域(B1)を定め、それにおいて、反射された光(L)の焦点平面(SE)の第1の部分領域が、画像センサ(230)の画像センサ表面(231)上に投影されており、かつ
-第1の画像(BA)の多数の画像領域(B1、B2)の第2の画像領域(B2)を定め、それにおいて、反射された光(L)の焦点平面(SE)の第2の部分領域は画像センサ(230)の画像センサ表面(231)上に投影されておらず、かつ
-第2の画像(BB)の第2の多数の画像領域(B3、B4)の第3の画像領域(B3)を定め、それにおいて、反射された光(L)の焦点平面(SE)の第1の部分領域は画像センサ(230)の画像センサ表面(231)上に投影されておらず、かつ
-第2の画像(BB)の第2の多数の画像領域(B3、B4)の第4の画像領域(B4)を定め、それにおいて、反射された光(L)の焦点平面(SE)の第2の部分領域が画像センサ(230)の画像センサ表面(231)上に投影されている、
方法。
A method for detecting at least one surface of at least one component (B), comprising the steps of:
- orienting the component (B) with respect to the camera device (220);
- detecting the first surface (O) of the component (B) with a camera device (220);
- receiving the light (L) reflected at the first surface (O) of the component (B) by the image sensor (230) of the camera device (220);
- holding the first optically effective member (130) in the path of the reflected light (L) by means of a longitudinally elastically flexible holder (140), wherein said longitudinal direction is optical oriented parallel to the optical axis (OA) of the effective member (130);
- record the first image (BA),
- adjusting the relative spacing between the image sensor (230) and the first optically effective member (130), wherein the first optically effective member (130) is imaged along the optical axis; displaced relative to the sensor (230);
- record a second image (BB),
Defining a first image area (B1) of the first number of image areas (B1, B2) of the first image (BA), in which the first focal plane (SE) of the reflected light (L) one sub-area is projected onto the image sensor surface (231) of the image sensor (230), and - a second image area of the multiple image areas (B1, B2) of the first image (BA) define (B2), in which a second partial area of the focal plane (SE) of the reflected light (L) is not projected onto the image sensor surface (231) of the image sensor (230); - defining a third image area (B3) of the second number of image areas (B3, B4) of the second image (BB), in which the focal plane (SE) of the reflected light (L); the first partial area is not projected onto the image sensor surface (231) of the image sensor (230); and - the second number of image areas (B3, B4) of the second image (BB); 4 image areas (B4) in which a second partial area of the focal plane (SE) of the reflected light (L) is projected onto the image sensor surface (231) of the image sensor (230). there is
Method.
以下のステップを有する:
-反射された光(L)の焦点平面(SE)を画像センサ(230)の、反射された光(L)へ向いた画像センサ表面(231)上へ投影するために、画像センサ(230)と光学的に有効な部材(130)の間の相対間隔を調節する、
請求項12に記載の方法。
It has the following steps:
- the image sensor (230) to project the focal plane (SE) of the reflected light (L) onto the image sensor surface (231) of the image sensor (230) facing the reflected light (L); adjusting the relative spacing between and the optically effective member (130);
13. The method of claim 12.
以下のステップを有する:
-第1の画像(BA)に基づいて、反射された光(L)の焦点平面(SE)が画像センサ(230)の画像センサ表面(231)上に実質的に完全に投影されているか、を定める、
請求項12又は13のいずれか1項に記載の方法。
It has the following steps:
- based on the first image (BA), the focal plane (SE) of the reflected light (L) is projected substantially completely onto the image sensor surface (231) of the image sensor (230); to define
14. A method according to any one of claims 12 or 13.
以下のステップを有する:
-第1の画像(BA)を記録する間に画像センサ(230)と第1の光学的に有効な部材(130)の間の相対間隔をあらかじめ定められた速度で調節し、
-第1の画像(BA)の記録後、あるいは第1の画像(BA)が記録された後のあらかじめ定められた期間後に、かつ画像センサ(230)と第1の光学的に有効な部材(130)の間の相対間隔の調節の間に、第2の画像(BB)を記録する、
請求項12又は13のいずれか1項に記載の方法。
It has the following steps:
- adjusting the relative spacing between the image sensor (230) and the first optically effective member (130) at a predetermined speed while recording the first image (BA);
- after the recording of the first image (BA) or after a predetermined period of time after the first image (BA) has been recorded and the image sensor (230) and the first optically effective member ( 130) recording a second image (BB) during adjustment of the relative spacing between
14. A method according to any one of claims 12 or 13.
その場合に第1の画像(BA)の第1と第2の画像領域(B1、B2)がそれぞれコンポーネント(B)の一部分を複写し、前記一部分が第2の画像(BB)の第3と第4の画像領域(B3、B4)内のコンポーネント(B)の前記一部分に相当し、かつ/又は
その場合に第1の画像(BA)において焦点平面(SE)の第1の部分領域が、そして第2の画像(BB)において焦点平面(SE)の第2の部分領域が、あらかじめ定められた被写界深度(ST)内で画像センサ(230)の画像センサ表面(231)上に投影されており、
その場合に第1の画像(BA)において焦点平面(SE)の第2の部分領域が、そして第2の画像(BB)においては焦点平面(SE)の第1の部分領域が、あらかじめ定められた被写界深度(ST)の外部で画像センサ(230)の画像センサ表面(231)上に投影されている、
請求項12又は14のいずれか1項に記載の方法。
In that case the first and second image areas (B1, B2) of the first image (BA) each copy a part of the component (B), said part being the third and third of the second image (BB). corresponding to said portion of the component (B) in the fourth image area (B3, B4) and/or where in the first image (BA) the first partial area of the focal plane (SE) is and in the second image (BB) a second partial area of the focal plane (SE) is projected onto the image sensor surface (231) of the image sensor (230) within the predetermined depth of field (ST). has been
In that case a second partial area of the focal plane (SE) in the first image (BA) and a first partial area of the focal plane (SE) in the second image (BB) are predetermined. projected onto the image sensor surface (231) of the image sensor (230) outside the defined depth of field (ST),
15. A method according to any one of claims 12 or 14.
以下のステップを有する:
-第1の画像(BA)から第1の画像領域(B1)を、第2の画像(BB)からは第4の画像領域(B4)を切り出し、かつ
-第3の画像(BC)を形成するために、切り出した第1と第4の画像領域(B1、B4)を継ぎ合わせ、かつ/又は
-第1の画像(BA)の第1の画像領域(B1)及び/又は第2の画像(BB)の第4の画像領域(B4)及び/又は第3の画像(BC)に基づいて、コンポーネント(B)が少なくとも1つの障害箇所を有するか、を定め、かつ
コンポーネント(B)が少なくとも1つの障害箇所を有する場合に、
-コンポーネント(B)についての障害箇所情報を提供する、
請求項12又は14又は16のいずれか1項に記載の方法。
It has the following steps:
- cut out a first image area (B1) from the first image (BA) and a fourth image area (B4) from the second image (BB), and - form a third image (BC) and/or - the first image area (B1) of the first image (BA) and/or the second image Based on the fourth image area (B4) and/or the third image (BC) of (BB), determine whether the component (B) has at least one faulty location, and the component (B) has at least In the case of having one failure point,
- provides fault location information for component (B),
17. A method according to any one of claims 12 or 14 or 16.
その場合にホルダ(140)が軟鉄を含むコンポーネントを有し、かつホルダ(140)が発生された磁場によって光学軸(OA)に沿って画像センサ(230)に対して第1の方向に変形される、請求項12から17のいずれか1項に記載の方法。 In that case the holder (140) has a component comprising soft iron, and the holder (140) is deformed in a first direction relative to the image sensor (230) along the optical axis (OA) by the generated magnetic field. 18. The method of any one of claims 12-17, wherein その場合にホルダ(140)が永久磁石のコンポーネントを有し、かつホルダ(140)が発生された磁場によって、コイル(121)内の電流の流れ方向に従って、画像センサ(230)に対して第1又は第2の方向に変形され、その場合に第2の方向が第1の方向とは逆である、
請求項12から17のいずれか1項に記載の方法。
In that case the holder (140) has a permanent magnet component and the magnetic field generated by the holder (140) causes a first magnetic field to the image sensor (230) according to the direction of current flow in the coil (121). or deformed in a second direction, where the second direction is opposite to the first direction,
18. A method according to any one of claims 12-17.
JP2020503077A 2017-04-03 2018-03-13 Optical component detection system and method for detecting at least one component Active JP7128881B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102017003231.9A DE102017003231A1 (en) 2017-04-03 2017-04-03 Optical component detection system and method for detecting at least one component
DE102017003231.9 2017-04-03
PCT/EP2018/056154 WO2018184792A1 (en) 2017-04-03 2018-03-13 Optical component measurement system and method for measuring at least one component

Publications (2)

Publication Number Publication Date
JP2020518832A JP2020518832A (en) 2020-06-25
JP7128881B2 true JP7128881B2 (en) 2022-08-31

Family

ID=61691955

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020503077A Active JP7128881B2 (en) 2017-04-03 2018-03-13 Optical component detection system and method for detecting at least one component

Country Status (6)

Country Link
JP (1) JP7128881B2 (en)
CN (1) CN110651165B (en)
DE (1) DE102017003231A1 (en)
SG (1) SG11201909202QA (en)
TW (1) TWI714839B (en)
WO (1) WO2018184792A1 (en)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004097292A (en) 2002-09-05 2004-04-02 Olympus Corp Imaging device for endoscope
JP3831318B2 (en) 2002-08-22 2006-10-11 オリンパス株式会社 Endoscopic imaging device
JP2011001824A (en) 2009-06-16 2011-01-06 Konica Minolta Holdings Inc Actuator, driving device, and imaging device
JP2011128583A (en) 2009-11-17 2011-06-30 Tdk Taiwan Corp Lens drive device
DE102011089055A1 (en) 2011-12-19 2013-06-20 Technische Universität Berlin Instrument e.g. medical instrument e.g. endoscope for e.g. medical investigation, has actuator that is provided to adjust adjusting element along longitudinal axis of runner relative to stator and is designed as reluctance motor
JP2013145145A (en) 2012-01-13 2013-07-25 Hst Vision Corp Observation device
US20140368724A1 (en) 2013-06-12 2014-12-18 Nvidia Corporation Methods for enhancing camera focusing performance using camera orientation
JP2015522849A (en) 2012-06-29 2015-08-06 エルジー イノテック カンパニー リミテッド The camera module

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2539778B2 (en) * 1984-11-22 1996-10-02 株式会社日立製作所 Inspection method and inspection device
JPS61241605A (en) * 1985-04-19 1986-10-27 Yoshiaki Ihara Image processing device
US5289318A (en) * 1990-07-31 1994-02-22 Canon Kabushiki Kaisha Optical apparatus provided with a driving unit for moving a lens
JPH04166906A (en) * 1990-10-31 1992-06-12 Sony Corp Original position detecting device for lens barrel
JP3701353B2 (en) * 1995-09-29 2005-09-28 大日本印刷株式会社 Image acquisition device
JP4081806B2 (en) * 1999-10-18 2008-04-30 富士フイルム株式会社 Autofocus camera and photographing method
KR100403862B1 (en) * 2001-01-26 2003-11-01 어플라이드비전텍(주) Apparatus for inspecting semiconductor wafer and the methods thereof
TW556038B (en) * 2001-06-29 2003-10-01 Arc Design Inc Control system of zoom lens for digital still cameras
DE102008018586A1 (en) 2008-04-12 2009-11-05 Mühlbauer Ag Optical detection device and method for detecting surfaces of components
GB0809037D0 (en) * 2008-05-19 2008-06-25 Renishaw Plc Video Probe
DK2442720T3 (en) * 2009-06-17 2016-12-19 3Shape As Focus scan devices
DE102011078631A1 (en) * 2011-07-05 2013-01-10 Robert Bosch Gmbh Arrangement and method for determining an imaging deviation of a camera
WO2013054787A1 (en) * 2011-10-13 2013-04-18 オリンパスメディカルシステムズ株式会社 Imaging unit and endoscope
WO2014094828A1 (en) * 2012-12-18 2014-06-26 Carl Zeiss Industrielle Messtechnik Gmbh Zoom lens having setting error correction
DE102012224179A1 (en) * 2012-12-21 2014-06-26 Olympus Winter & Ibe Gmbh Electromagnetic actuator for a surgical instrument
EP3087424A4 (en) * 2013-12-23 2017-09-27 Camplex, Inc. Surgical visualization systems
JP5954757B2 (en) 2015-01-09 2016-07-20 上野精機株式会社 Appearance inspection device
JP6429718B2 (en) * 2015-04-22 2018-11-28 オリンパス株式会社 Imaging apparatus and endoscope
DE102015117276B4 (en) * 2015-10-09 2018-09-06 Carl Zeiss Industrielle Messtechnik Gmbh Method and device for measuring a test object with improved measuring accuracy

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3831318B2 (en) 2002-08-22 2006-10-11 オリンパス株式会社 Endoscopic imaging device
JP2004097292A (en) 2002-09-05 2004-04-02 Olympus Corp Imaging device for endoscope
JP2011001824A (en) 2009-06-16 2011-01-06 Konica Minolta Holdings Inc Actuator, driving device, and imaging device
JP2011128583A (en) 2009-11-17 2011-06-30 Tdk Taiwan Corp Lens drive device
DE102011089055A1 (en) 2011-12-19 2013-06-20 Technische Universität Berlin Instrument e.g. medical instrument e.g. endoscope for e.g. medical investigation, has actuator that is provided to adjust adjusting element along longitudinal axis of runner relative to stator and is designed as reluctance motor
JP2013145145A (en) 2012-01-13 2013-07-25 Hst Vision Corp Observation device
JP2015522849A (en) 2012-06-29 2015-08-06 エルジー イノテック カンパニー リミテッド The camera module
US20140368724A1 (en) 2013-06-12 2014-12-18 Nvidia Corporation Methods for enhancing camera focusing performance using camera orientation

Also Published As

Publication number Publication date
DE102017003231A1 (en) 2018-10-04
WO2018184792A1 (en) 2018-10-11
TW201842300A (en) 2018-12-01
CN110651165A (en) 2020-01-03
CN110651165B (en) 2021-07-23
JP2020518832A (en) 2020-06-25
SG11201909202QA (en) 2019-11-28
TWI714839B (en) 2021-01-01

Similar Documents

Publication Publication Date Title
US7352477B2 (en) Two dimensional position detecting device
JP2004507710A5 (en)
EP0225564A2 (en) Optical head
KR0185972B1 (en) Optical pick-up head apparatus
KR0147628B1 (en) Optical pickup for multi-layer disk
JP2009540287A (en) Method and apparatus for position detection of optical elements in an imaging system
US4838649A (en) Apparatus for driving objective lens
US5315374A (en) Three-dimensional measuring apparatus
JP7128881B2 (en) Optical component detection system and method for detecting at least one component
JPH11173821A (en) Optical inspecting device
JPH02298907A (en) Driving device for optical system
JPS6138101Y2 (en)
JPH079178A (en) Trepanning head
US5450386A (en) Optical disk device including a support member for movably supporting an objective lens in focusing and radial directions with respect to an optical disk
JP2005003667A (en) Reference axis setting optical system, eccentricity measuring machine and eccentricity-measuring method using the optical system
JP4531061B2 (en) Method and apparatus for adjusting two objective lenses in 4Pi system
TW202317961A (en) Apparatus for checking an adjustment state of an image sensor, and method for checking an adjustment state of an image sensor
JP3974274B2 (en) Measuring method of temperature characteristics of optical element
JP4062885B2 (en) Stage feeder
JPS6127811B2 (en)
JP2867304B2 (en) Optical disk drive
JPH0736231B2 (en) Optical head
JP2005062885A (en) Beam deflection device
JPH10289457A (en) Optical head device and master disk recorder
WO2015162709A1 (en) Optical component driving device and optical recording device

Legal Events

Date Code Title Description
A529 Written submission of copy of amendment under article 34 pct

Free format text: JAPANESE INTERMEDIATE CODE: A529

Effective date: 20191128

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210721

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210831

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220412

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220711

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220726

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220819

R150 Certificate of patent or registration of utility model

Ref document number: 7128881

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150