JP2020518832A - Optical component detection system and method for detecting at least one component - Google Patents

Optical component detection system and method for detecting at least one component Download PDF

Info

Publication number
JP2020518832A
JP2020518832A JP2020503077A JP2020503077A JP2020518832A JP 2020518832 A JP2020518832 A JP 2020518832A JP 2020503077 A JP2020503077 A JP 2020503077A JP 2020503077 A JP2020503077 A JP 2020503077A JP 2020518832 A JP2020518832 A JP 2020518832A
Authority
JP
Japan
Prior art keywords
image
image sensor
optically effective
effective member
holder
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020503077A
Other languages
Japanese (ja)
Other versions
JP7128881B2 (en
Inventor
フランツ アウグスト ウーべ
フランツ アウグスト ウーべ
Original Assignee
ミュールバウアー ゲゼルシャフト ミット ベシュレンクテル ハフツング ウント コンパニー コマンディトゲゼルシャフト
ミュールバウアー ゲゼルシャフト ミット ベシュレンクテル ハフツング ウント コンパニー コマンディトゲゼルシャフト
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ミュールバウアー ゲゼルシャフト ミット ベシュレンクテル ハフツング ウント コンパニー コマンディトゲゼルシャフト, ミュールバウアー ゲゼルシャフト ミット ベシュレンクテル ハフツング ウント コンパニー コマンディトゲゼルシャフト filed Critical ミュールバウアー ゲゼルシャフト ミット ベシュレンクテル ハフツング ウント コンパニー コマンディトゲゼルシャフト
Publication of JP2020518832A publication Critical patent/JP2020518832A/en
Application granted granted Critical
Publication of JP7128881B2 publication Critical patent/JP7128881B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/0004Microscopes specially adapted for specific applications
    • G02B21/0016Technical microscopes, e.g. for inspection or measuring in industrial production processes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/02Mountings, adjusting means, or light-tight connections, for optical elements for lenses
    • G02B7/04Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification
    • G02B7/08Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification adapted to co-operate with a remote control mechanism

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Studio Devices (AREA)
  • Lens Barrels (AREA)
  • Testing Or Measuring Of Semiconductors Or The Like (AREA)

Abstract

少なくとも1つのコンポーネントの少なくとも1つの表面を検出するための光学的なコンポーネント検出システムが開示され、その場合に収容部が、コンポーネントの第1の表面をカメラ装置によって検出するために、コンポーネントをカメラ装置の前に位置決めするように、整えられている。カメラ装置が画像センサを有し、その画像センサは、コンポーネントの表面において反射された光を受信するように、整えられている。光学的なコンポーネント検出システムは、さらに、画像センサに対して反射された光の光路内に配置された、第1の光学的に有効な部材と第1の光学的に有効な部材用の操作装置とを有している。操作装置は、第1の光学的に有効な部材のためのホルダを有している。ホルダは、中空円筒状の鏡胴の内側に固定されており、かつ鏡胴の長手中心軸は第1の光学的に有効な部材の光学軸に対して同軸に方位づけされている。ホルダは、少なくとも鏡胴長手方向において弾性的に撓むことができる。操作装置は、さらに、光学的に有効な部材を光学軸に沿って画像センサに対して変位させるために、光学的に有効な部材と画像センサの間の相対間隔を調節するための第1の操作ドライブを有している。An optical component detection system for detecting at least one surface of at least one component is disclosed, wherein a housing detects the first surface of the component by the camera device. It is arranged to be positioned in front of. The camera device has an image sensor, which is arranged to receive the light reflected at the surface of the component. The optical component detection system further includes a first optically effective member and an operating device for the first optically effective member disposed in an optical path of light reflected with respect to the image sensor. And have. The operating device has a holder for the first optically effective member. The holder is fixed inside the hollow cylindrical lens barrel, and the longitudinal center axis of the lens barrel is oriented coaxially with the optical axis of the first optically effective member. The holder can elastically bend at least in the longitudinal direction of the lens barrel. The actuating device further comprises a first for adjusting a relative distance between the optically effective member and the image sensor to displace the optically effective member with respect to the image sensor along the optical axis. Has an operation drive.

Description

半導体コンポーネントは、たとえば半導体エレクトロニクス、太陽光発電、光学的検出器とビーム源(たとえば発光ダイオード)の形成のような、多くの技術領域で適用される。半導体コンポーネントの多様な使用によって、特に品質に関して、半導体コンポーネントメーカーに課される要請はますます高くなる。半導体コンポーネント内、あるいはその上の欠陥又は故障箇所は、望ましくない。というのは、それらが半導体コンポーネントの完璧とは言えない機能性をもたらすことになるからである。したがって半導体コンポーネントは、形成する際にすでに欠陥と故障箇所について検査される。半導体コンポーネントを検査する1つの可能性は、半導体コンポーネントを光学システムによってマイクロメートル領域内で複写することである。 Semiconductor components find application in many technological areas, such as semiconductor electronics, photovoltaics, optical detectors and the formation of beam sources (eg light emitting diodes). Due to the diverse use of semiconductor components, the demands placed on semiconductor component manufacturers, especially with regard to quality, are increasing. Defects or points of failure within or on a semiconductor component are undesirable. Because they will bring less than perfect functionality to semiconductor components. Therefore, semiconductor components are already inspected for defects and faults when they are formed. One possibility of inspecting semiconductor components is to reproduce them in the micrometer range by means of optical systems.

しかし光学システムの従来の構造は、わずかな被写界深度しか有していない。検査すべき半導体コンポーネントの複写すべき表面が、光学システムの画像センサの画像センサ表面に対して傾いている場合には、半導体コンポーネントは画像内で完全にシャープに結像することはできない。さらに、光学システム内に組み込まれた光学コンポーネントは、大きい質量を有している。したがって調節プロセスは緩慢であり、あるいは光学システムは、コンポーネントの変位によって合焦が変化する場合に振動し、それが画像品質を著しく悪化させる。したがって画像を記録するためには、振動が静まるまで待たなければならない。半導体コンポーネントを連続的に形成/検査する場合に、このように画像記録時間が長くなると、半導体コンポーネントの通過量が少なくなる。 However, conventional constructions of optical systems have a small depth of field. If the surface to be copied of the semiconductor component to be inspected is tilted with respect to the image sensor surface of the image sensor of the optical system, the semiconductor component cannot be perfectly sharply imaged in the image. Moreover, the optical components incorporated within the optical system have a large mass. Therefore, the adjustment process is slow, or the optical system vibrates when the focus changes due to component displacement, which significantly degrades the image quality. Therefore, in order to record an image, it is necessary to wait until the vibration is stopped. When the semiconductor component is continuously formed/inspected, if the image recording time becomes long as described above, the passing amount of the semiconductor component becomes small.

独国特許出願公開第102008018586号明細書は、コンポーネントの少なくとも1つの表面を検出するための光学的な検出装置に関する。コンポーネントは、固定部材によってカメラ装置へ向けられて、コンポーネントの第1の表面が短波領域内の第1の光ビームを有する光源によって照射される。さらに、検出装置は第2の光源を有しており、それが長波領域内の第2の光ビームをコンポーネントの第2の表面へ照射し、その場合にコンポーネントの第2の表面は第1の表面に対向している。表面で反射された光ビームが、カメラ装置によって受信される。 DE 102008018586 relates to an optical detection device for detecting at least one surface of a component. The component is directed by the fixing member toward the camera device and the first surface of the component is illuminated by a light source having a first light beam in the shortwave region. Furthermore, the detection device has a second light source, which directs a second light beam in the long-wave region onto the second surface of the component, where the second surface of the component is the first surface. Opposite the surface. The light beam reflected by the surface is received by the camera device.

特開2016−128781号は、電子コンポーネントを調査する装置を教示している。この装置は第1と第2の画像記録手段を有しており、それらが電子コンポーネントの様々な領域の画像を記録し、その場合にこれらの領域は、矩形の平行六面体の2つの異なる領域である。 JP 2016-128781 teaches a device for investigating electronic components. The device comprises first and second image recording means, which record images of different areas of the electronic component, where these areas are two different areas of a rectangular parallelepiped. is there.

独国特許出願公開第102008018586号明細書German Patent Application Publication No. 102008018586 特開2016−128781号JP, 2016-128781, A

本出願の課題は、コンポーネントを検出するための効率的な光学的コンポーネント検出システムを提供することである。 The problem of the present application is to provide an efficient optical component detection system for detecting components.

提案された解決
少なくとも1つのコンポーネントの少なくとも1つの表面を検出するための光学的なコンポーネント検出システムが提案される。収容部は、コンポーネントの第1の表面をカメラ装置によって検出するために、コンポーネントをカメラ装置の前に位置決めするように、整えられている。カメラ装置が画像センサを有し、その画像センサは、コンポーネントの表面において反射された光を受信するように、整えられている。光学的なコンポーネント検出システムは、さらに、画像センサに対して反射された光の光路内に配置された、第1の光学的に有効な部材と、第1の光学的に有効な部材用の操作装置とを有している。操作装置は、第1の光学的に有効な部材用のホルダを有している。ホルダは、中空円筒状の鏡胴の内側に固定されており、かつ鏡胴の長手中心軸は第1の光学的に有効な部材の光学軸に対して同軸に方位づけされている。ホルダは、少なくとも鏡胴長手方向において弾性的に撓むことができる。さらに操作装置は、光学的に有効な部材を光学軸に沿って画像センサに対して変位させるために、光学的に有効な部材と画像センサの間の相対間隔を調節するための第1の操作ドライブを有している。
Proposed Solution An optical component detection system for detecting at least one surface of at least one component is proposed. The receptacle is arranged to position the component in front of the camera device for detecting the first surface of the component by the camera device. The camera device has an image sensor, which is arranged to receive the light reflected at the surface of the component. The optical component detection system further includes a first optically effective member disposed in an optical path of light reflected with respect to the image sensor, and an operation for the first optically effective member. And a device. The operating device has a holder for the first optically effective member. The holder is fixed inside the hollow cylindrical lens barrel, and the longitudinal center axis of the lens barrel is oriented coaxially with the optical axis of the first optically effective member. The holder can elastically bend at least in the longitudinal direction of the lens barrel. Further, the operating device includes a first operation for adjusting a relative distance between the optically effective member and the image sensor in order to displace the optically effective member with respect to the image sensor along the optical axis. Have a drive.

弾性的に撓むことができるホルダによって、しかるべきねじ又は光学的に有効な部材の長手方向変位可能なフレームなしで、第1の光学的に有効な部材のみを保持することが、可能である。光学的に有効な部材がアクロマートである場合に、アクロマートのレンズペア(たとえばクラウンガラスレンズとフリントガラスレンズとからなる)をホルダによって保持することができる。したがってレンズペアのフレームは不要であり、光学的に有効な部材の移動すべき質量も、光学的なコンポーネント検出システムの質量全体も、削減される。ホルダを有する光学的に有効な部材の質量がより小さいことによって、光学的に有効な部材の位置は、比較的小さい力をくわえることによって変位させることができる。より小さい質量が、光学的に有効な部材の慣性の少ない駆動を許す。したがってコンポーネントの焦点平面は、迅速に再調整される。 Due to the elastically deflectable holder, it is possible to hold only the first optically effective member, without an appropriate screw or longitudinally displaceable frame of the optically effective member. .. When the optically effective member is an achromat, the achromat lens pair (for example, a crown glass lens and a flint glass lens) can be held by the holder. Therefore, the frame of the lens pair is not needed, and the mass to be moved of the optically effective member and the overall mass of the optical component detection system are reduced. Due to the smaller mass of the optically effective member with the holder, the position of the optically effective member can be displaced by applying a relatively small force. The smaller mass allows less inertial drive of the optically effective member. Therefore, the focal plane of the component is quickly readjusted.

弾性的に撓むホルダは、ゴムを含む材料あるいはコイルばねを有することができ、あるいはじゃばらとして形成することができる。代替的にホルダは、皿ばねとして形成することができ、その場合に皿ばねはその芯軸内に開口部を有しており、その開口部内に第1の光学的に有効な部材が収容されている。 The elastically flexible holder can comprise a material including rubber or a coil spring, or can be formed as a bellows. Alternatively, the holder can be formed as a disc spring, in which case the disc spring has an opening in its core axis in which the first optically effective member is housed. ing.

すなわち外部の源から光学的に有効な部材へくわわる振動のような障害は、著しく減衰させ、あるいは特に回避することができる。したがって光学的なコンポーネント検出システムによって実施される測定は、障害に対する感度が低い。 That is, disturbances such as vibrations from external sources into the optically effective element can be significantly dampened or even avoided. Therefore, the measurements performed by the optical component detection system are less sensitive to disturbances.

さらに、弾性的に撓むホルダは、その弾性的な特性によって無段階に伸張可能又は収縮可能であるので、第1の光学的に有効な部材の位置の正確な調整が可能になる。 Furthermore, the elastically flexible holder is infinitely expandable or contractible due to its elastic properties, which allows an accurate adjustment of the position of the first optically effective member.

コンポーネントは、実際の製造環境において場合によっては光学系に対して正確に整合させることができない。このような場合においては、充分な被写界深度をもってコンポーネントを完全に鮮明に結像させることは、不可能である。ここで紹介される光学的なコンポーネント検出システムによって、一連の複数の画像記録を迅速に実施することができる。 The components may not be able to be precisely matched to the optics in the actual manufacturing environment. In such cases, it is not possible to image the component perfectly sharp with sufficient depth of field. The optical component detection system introduced here allows rapid execution of a series of multiple image recordings.

光学的なコンポーネント検出システムの良好かつ迅速な調整可能性によって、コンポーネントの測定をより迅速かつより正確に実施することができるので、高い通過量が得られる。 Due to the good and quick adjustability of the optical component detection system, the measurement of the component can be carried out more quickly and more accurately, so that a higher throughput is obtained.

変形例と形態
画像センサは、CCDチップとすることができる。他の変形例において、画像センサはCMOSチップ又はミクロボロメートルアレイ又はパイロエレクトリックアレイのような、所定の波長領域のために感度を有する画像センサとすることができる。
Modifications and morphology The image sensor can be a CCD chip. In other variants, the image sensor can be an image sensor sensitive for a given wavelength range, such as a CMOS chip or a microbolometer array or a pyroelectric array.

鏡胴は、小さい透過性を有する。変形例において、鏡胴は永久磁石材料を有する。さらに鏡胴は、少なくともアルミニウム又はプラスチックを有することができる。 The lens barrel has a small transparency. In a variant, the lens barrel comprises a permanent magnet material. Further, the lens barrel can comprise at least aluminum or plastic.

コイルは、鏡胴に添接して、あるいはそれから離隔して配置することができる。コイルの位置は、光学軸上のホルダの位置に関して変位させることができる。 The coil may be placed abutting the lens barrel or spaced therefrom. The position of the coil can be displaced with respect to the position of the holder on the optical axis.

ホルダは、第1の端部領域を有しており、ホルダのその第1の端部領域が鏡胴に固定されている。ホルダは、さらに、第2の端部領域を有しており、その第2の端部領域に第1の光学的に有効な部材が保持されている。非作動得状態において、ホルダの第1の端部領域の位置は、光学軸に関して、コイルの端部の位置と一致することができる。他の変形例において、ホルダの第1の端部領域の位置は、光学軸に関してコイルの内部又は外部に配置することができる。その代わりに、ありはそれに加えて、ホルダの第2の端部領域は、光学軸に関して、コイルの内部又は外部に位置することができる。 The holder has a first end region, the first end region of the holder being fixed to the lens barrel. The holder further has a second end region in which the first optically effective member is held. In the inoperative state, the position of the first end region of the holder can coincide with the position of the end of the coil with respect to the optical axis. In another variation, the position of the first end region of the holder can be located inside or outside the coil with respect to the optical axis. Alternatively or additionally, the second end region of the holder can be located inside or outside the coil with respect to the optical axis.

第1の操作ドライブのホルダは、少なくともセクション的にコイルによって包囲することができる。制御装置は、磁場を発生させるためにコイルへ供給される電流を制御するように、整えられている。ホルダはさらに、軟鉄を含む、あるいは永久磁石のコンポーネントとして、軟鉄を含むヨークあるは永久磁石のヨークを有しており、そのヨークは、コイルへ供給される電流に従って鏡胴の長手中心軸に沿ってホルダを変位させるように、整えられている。 The holder of the first operating drive can be surrounded at least in sections by a coil. The controller is arranged to control the current supplied to the coil to generate the magnetic field. The holder further comprises a soft iron-containing or permanent magnet yoke, as a component of the permanent magnet, or a yoke of the permanent magnet, which yoke follows the central longitudinal axis of the lens barrel according to the current supplied to the coil. Are arranged so that the holder can be displaced.

この構造によって、相対間隔を調節するための手段の摩耗あるいは摩損が減少される。さらに磁場によって発生される、ホルダへくわわる力によって、相対間隔の正確な調節が可能になる。 This structure reduces wear or abrasion of the means for adjusting the relative spacing. In addition, the force exerted on the holder by the magnetic field allows precise adjustment of the relative spacing.

軟鉄を含むヨークを有するホルダがコイルの一方の端部に配置されている場合に、コイル中央の方向において力がコイルに作用する。磁場が低下されて、その後オフにされた場合に、もはやホルダに力は作用しない。その場合にホルダは、再びその初期位置を占める。 When a holder having a yoke containing soft iron is arranged at one end of the coil, a force acts on the coil in the direction of the coil center. If the magnetic field is reduced and then turned off, no more force will act on the holder. In that case the holder again occupies its initial position.

ホルダが永久磁石のヨークを有する場合に、コイルを流れる電流の流れ方向及び永久磁石のコンポーネントの永久磁石のN極とS極の方位に従って、ホルダは2つの方向に伸張することができる。したがって永久磁石のコンポーネントによって、相対間隔を両方向に所望に変位させることが可能である。 When the holder has a permanent magnet yoke, the holder can extend in two directions depending on the direction of current flow through the coil and the orientation of the north and south poles of the permanent magnets of the components of the permanent magnet. Thus, the components of the permanent magnet allow the relative spacing to be displaced in both directions as desired.

収容部は、コンポーネントの焦点平面が少なくとも部分的に画像センサの画像センサ表面上に投影されるように、コンポーネントをカメラ装置の前に位置決めするように、整えることができる。 The housing can be arranged to position the component in front of the camera device such that the focal plane of the component is at least partially projected onto the image sensor surface of the image sensor.

光学的なコンポーネント検出システムは、さらに、光学軸に沿って画像センサを第1の光学的な部材に対して変位させるために、画像センサを変位させるための、制御装置によって制御される第2の操作ドライブを有することができる。 The optical component detection system further comprises a second controller controlled by the controller for displacing the image sensor to displace the image sensor relative to the first optical member along the optical axis. You can have an operating drive.

第2の操作ドライブは、少なくとも1つのピエゾアクチュエータあるいは細かく走行する、リニア作動する軸システムを有することができる。細かく走行する、リニア作動する軸システムは、コネクティングロッドからなるシステムとすることができる。 The second operating drive can have at least one piezo actuator or a finely running, linearly actuated shaft system. The finely running, linearly actuated shaft system can be a system of connecting rods.

第2の操作ドライブによって、画像センサを光学軸上で変位させ、かつ焦点平面を画像センサの画像センサ表面上に投影することが、可能である。したがってコンポーネント上に光学系を迅速に合焦させることが可能となる。 By means of the second operating drive, it is possible to displace the image sensor on the optical axis and to project the focal plane onto the image sensor surface of the image sensor. Therefore, it is possible to quickly focus the optical system on the component.

したがって画像センサによるコンポーネントの最初の記録においてすでに、画像内にコンポーネントの所定の部分が鮮明に結像される。 Therefore, in the first recording of the component by means of the image sensor, a predetermined part of the component is clearly imaged in the image.

さらに光学的なコンポーネント検出システムは、光源を有することができ、その光源は、光をコンポーネントの表面へ送出するように、整えられている。光源は、あらかじめ定められた波長を有する光又は所定の波長領域の光をコンポーネントの表面へ送出するように、整えられている。光源から放出される光は、約380nmから780nmの領域内の波長を有する可視光、赤外光及び/又は偏光された光とすることができる。付加的に画像センサは、赤外光内、あるいは偏光された光に感度を有することができる。 Further, the optical component detection system can have a light source, the light source being arranged to deliver light to the surface of the component. The light source is arranged to deliver light having a predetermined wavelength or light in a predetermined wavelength range to the surface of the component. The light emitted from the light source can be visible light, infrared light and/or polarized light having a wavelength in the range of about 380 nm to 780 nm. Additionally, the image sensor can be sensitive to light in the infrared light or polarized light.

選択肢として、制御装置は、反射された光の焦点平面を画像センサの反射された光へ向いた画像センサ表面上へ投影するために、第1及び/又は第2の操作ドライブの制御によって第1の光学的に有効な部材と画像センサとの間の相対間隔を調節するように、整えることができる。 As an option, the controller may control the first and/or second operating drive to control the first plane of the reflected light to project the focal plane of the reflected light onto the image sensor surface facing the reflected light of the image sensor. Can be arranged to adjust the relative spacing between the optically effective member and the image sensor.

第1及び/又は第2の操作ドライブを制御することによって、第1の光学的に有効な部材と画像センサの間の相対間隔の迅速かつ正確な調節を行うことができるので、焦点平面が画像センサの画像センサ表面上へ投影される。 By controlling the first and/or the second actuating drive, a quick and precise adjustment of the relative distance between the first optically effective member and the image sensor can be made so that the focal plane is The image of the sensor is projected onto the sensor surface.

光学的なコンポーネント検出システムの画像処理は、画像センサによってコンポーネントの第1の画像を記録するように、整えられている。画像センサは、第1の画像を画像処理へ提供する。形成された第1の画像に基づいて、画像処理は、反射された光の焦点平面が画像センサの画像センサ表面上に実質的に完全に投影されているか、を定める。反射された光の焦点平面が画像センサの画像センサ表面上に実質的に完全に投影されていない場合には、画像処理は、第1の画像の第1の多数の画像領域の、反射された光の焦点平面の第1の部分領域が画像センサの画像センサ表面上に投影されている、第1の画像領域を定めるように、整えられている。 The image processing of the optical component detection system is arranged to record a first image of the component by the image sensor. The image sensor provides the first image for image processing. Based on the first image formed, image processing determines whether the focal plane of the reflected light is substantially completely projected onto the image sensor surface of the image sensor. If the focal plane of the reflected light is not substantially completely projected onto the image sensor surface of the image sensor, then image processing is performed on the reflected image of the first multiple image areas of the first image. The first partial area of the focal plane of the light is arranged to define a first image area, which is projected onto the image sensor surface of the image sensor.

さらに画像処理は、第1の画像の第1の多数の画像領域の、反射された光の焦点平面の第2の部分領域が画像センサの画像センサ表面上に投影されていない、第2の画像領域を定めるように、整えられている。画像処理はさらに、制御装置へ制御指令を提供するように、整えられている。制御装置は、制御指令に基づいて、光学的に有効な部材と画像センサの間の相対間隔を調節するために、第1及び/又は第2の操作ドライブを制御するように、整えられている。その場合に反射された光の焦点平面の第2の部分領域は、反射された光の焦点平面が画像センサの画像センサ領域上に投影されるように、調節される。 Furthermore, the image processing is performed on the second image in which the second partial region of the focal plane of the reflected light of the first multiple image region of the first image is not projected on the image sensor surface of the image sensor. It is arranged to define the area. The image processing is further arranged to provide control commands to the controller. The control device is arranged to control the first and/or the second operating drive to adjust the relative distance between the optically effective member and the image sensor based on the control command. .. The second partial area of the focal plane of the reflected light is then adjusted such that the focal plane of the reflected light is projected onto the image sensor area of the image sensor.

画像処理は、さらに、画像センサによってコンポーネントの第2の画像を記録するように、整えられている。第2の画像内で画像処理は、第2の画像の第2の多数の画像領域の、反射された光の焦点平面の第1の部分領域が画像センサの画像センサ表面上に投影されていない、第3の画像領域を定める。さらに画像処理は、第2の画像の第2の多数の画像領域の、反射された光の焦点平面の第2の部分領域が画像センサの画像センサ表面上に投影されている、第4の画像領域を定める。 The image processing is further arranged to record a second image of the component by the image sensor. In the second image, the image processing is such that the first sub-region of the focal plane of the reflected light of the second multiple image region of the second image is not projected on the image sensor surface of the image sensor. , Define a third image area. The image processing further comprises a fourth image, wherein a second partial region of the focal plane of the reflected light of the second multiple image region of the second image is projected onto the image sensor surface of the image sensor. Define the area.

コンポーネントが画像内に鮮明に結像できない場合には、上述したプロセスによって、コンポーネントの少なくとも2つの記録を形成することが可能であって、それらにおいてそれぞれ画像領域がコンポーネントの一部を鮮明に複写している。さらに、認識されている鮮明でない画像領域は、次の画像内で鮮明に複写されるので、完全なコンポーネントの検査が可能になる。 If the component cannot be sharply imaged in the image, the process described above makes it possible to form at least two recordings of the component, each of which the image area sharply reproduces a part of the component. ing. Furthermore, the perceived non-sharp image areas are sharply copied in the next image, allowing inspection of the complete component.

第1の代替案において、画像処理は、画像センサによって第1の画像を記録するように、整えることができ、その画像センサが第1の画像を画像処理へ提供する。画像処理は、さらに、第1の光学的に有効な部材と画像センサの間の相対間隔をあらかじめ定められた距離長さだけ調節するために、第1及び/又は第2の操作ドライブを制御するために制御装置に制御指令を提供するように、整えられている。さらに画像処理は、画像センサによって第2の画像を記録するように整えられており、その場合に画像センサは第2の画像を画像処理へ提供する。 In a first alternative, the image processing can be arranged to record the first image by the image sensor, which image sensor provides the first image to the image processing. The image processing further controls the first and/or the second operating drive to adjust the relative distance between the first optically effective member and the image sensor by a predetermined distance length. Is arranged to provide control commands to the controller. Furthermore, the image processing is arranged by the image sensor to record a second image, in which case the image sensor provides the second image to the image processing.

画像処理は、第1の画像の記録後あらかじめ定められた期間の後に、制御指令を第1及び/又は第2の操作ドライブへ提供することができる。 The image processing may provide a control command to the first and/or second operating drive after a predetermined period of time after recording the first image.

あらかじめ定められた距離長さは、第1及び/又は第2の光学的に有効な部材の光学的特性及び/又はコンポーネントの表面の寸法に依存することができる。好ましくはあらかじめ定められた距離長さは、被写界深度に依存することができるので、あらかじめ定められた距離長さは、被写界深度よりも小さく、それに等しく、あるいはそれより大きい。 The predetermined distance length can depend on the optical properties of the first and/or second optically effective members and/or the dimensions of the surface of the component. Preferably, the predetermined distance length can depend on the depth of field, so that the predetermined distance length is less than, equal to or greater than the depth of field.

被写界深度よりも小さく、それに等しく、あるいはそれより大きい、あらかじめ定められた距離長さにおいて、記録された画像の個々の鮮明に複写する画像領域によって、コンポーネントの表面を欠陥について完全に調査することができる。あらかじめ定められた距離長さが被写界深度よりも大きい場合には、コンポーネントのあらかじめ定められた表面領域を欠陥について調査することができる。同様に他の表面領域も、欠陥について調査される。したがって表面領域を欠陥について検査することは、少ない計算の手間で、かつ/又はより短い時間内で実施することができる。 Examine component surfaces thoroughly for defects by individual sharp-copying image areas of the recorded image at predetermined distance lengths less than, equal to, or greater than the depth of field. be able to. If the predetermined distance length is greater than the depth of field, then the predetermined surface area of the component can be investigated for defects. Similarly, other surface areas are also investigated for defects. Therefore, inspecting the surface area for defects can be performed with less computational effort and/or in a shorter time.

第2の代替案において、画像処理は、画像センサによって第1の画像を記録するように整えられており、その画像センサが第1の画像を画像処理へ提供する。画像処理は、さらに、第1の画像を記録する間に第1の光学的に有効な部材と画像センサの間の相対間隔をあらかじめ定められた速度で調節するために、第1及び/又は第2の操作ドライブを制御するための制御指令を制御装置へ提供するように、整えられている。さらに、画像処理は、画像センサによって第2の画像を記録するように整えられており、その画像センサが第2の画像を画像処理へ提供する。第2の画像は、第1の画像の後に、あるいは第1の画像が記録された後にあらかじめ定められた期間後に、かつ第1の光学的に有効な部材と画像センサの間の相対間隔が調節される間に、記録される。他の代替案において、第2の画像は、画像センサと第1の光学的に有効な部材との間の相対間隔のあらかじめ定められた長さ変化の後に、記録される。 In a second alternative, the image processing is arranged to record a first image by an image sensor, which image sensor provides the first image to the image processing. The image processing further comprises first and/or first to adjust the relative spacing between the first optically effective member and the image sensor at a predetermined rate during recording of the first image. It is arranged to provide the control device with control instructions for controlling the two operating drives. Further, the image processing is arranged by the image sensor to record a second image, which image sensor provides the second image to the image processing. The second image is adjusted after the first image, or after a predetermined period after the first image was recorded, and the relative distance between the first optically effective member and the image sensor is adjusted. While being played, it is recorded. In another alternative, the second image is recorded after a predetermined length change in the relative spacing between the image sensor and the first optically effective member.

画像処理は、第2の画像の記録後に、画像センサと第1の光学的に有効な部材との間の相対間隔の調節を停止させるために、第1及び/又は第2の操作ドライブに他の制御指令を提供するように、整えることができる。 The image processing may be performed by the first and/or the second operating drive to stop adjusting the relative distance between the image sensor and the first optically effective member after recording the second image. Can be arranged to provide control commands for the.

あらかじめ定められた速度は、第1及び/又は第2の光学的に有効な部材の光学的特性、コンポーネントの表面の寸法、第1及び/又は第2の光学的に有効な部材及び/又は画像センサの質量及び第1及び/又は第2の操作ドライブによるこれらの応答特性に依存することができる。 The predetermined speed is determined by the optical properties of the first and/or second optically effective member, the dimensions of the surface of the component, the first and/or second optically effective member and/or the image. It may depend on the mass of the sensor and these response characteristics due to the first and/or the second operating drive.

あらかじめ定められた速度は、画像が記録される間に、画像センサと第1の光学的に有効な部材の間の相対間隔が被写界深度よりも遠く変位されないように、選択することができる。したがって記録された画像は、同時に画像センサと第1の光学的に有効部材との間の相対間隔が調節されるにもかかわらず、充分に鮮明に記録される。画像センサと第1の光学的に有効な部材との間の相対間隔を連続的に調節することによって、画像センサ及び/又は第1の光学的に有効な部材は、停止されて、次に再び加速される必要はない。これが、画像センサ及び/又は第1の光学的に有効な部材の加速と停止によって生じる振動が回避される、という利点をもたらす。他の利点は、コンポーネントを欠陥について検査するための時間が最小限に抑えられることである。というのは、画像センサ及び/又は第1の光学的に有効な部材は1回だけ加速して停止させれば済むからである。 The predetermined velocity can be selected such that the relative distance between the image sensor and the first optically effective member is not displaced further than the depth of field while the image is recorded. .. Thus, the recorded image is recorded sufficiently sharply, despite the fact that at the same time the relative distance between the image sensor and the first optically effective member is adjusted. By continuously adjusting the relative distance between the image sensor and the first optically effective member, the image sensor and/or the first optically effective member is stopped and then again No need to be accelerated. This has the advantage that vibrations caused by acceleration and deactivation of the image sensor and/or the first optically effective element are avoided. Another advantage is that the time to inspect the component for defects is minimized. This is because the image sensor and/or the first optically effective element need only be accelerated and stopped once.

第1と第2の代替案の画像処理は、第1の画像の記録後あるいは第2の画像の記録後に、第1の画像の第1の多数の画像領域の第1の画像領域を定めるように、整えることができる。第1の画像領域において、反射された光の焦点平面の第1の部分領域が画像センサの画像センサ表面上に投影されている。それに加えて、あるいはその代わりに、画像処理は、第1の画像の第1の多数の画像領域の第2の画像領域を定め、それにおいて反射された光の焦点平面の第2の部分領域は画像センサの画像センサ表面上に投影されていない。 The first and second alternative image processings define a first image area of the first multiple image areas of the first image after recording the first image or after recording the second image. It can be arranged. In the first image area, a first partial area of the focal plane of the reflected light is projected onto the image sensor surface of the image sensor. Additionally or alternatively, the image processing defines a second image area of the first plurality of image areas of the first image, where a second sub-area of the focal plane of the reflected light is No projection on the image sensor surface of the image sensor.

さらに画像処理は付加的又は代替的に、第2の画像の記録後に第2の画像の第2の多数の画像領域の第3の画像領域を定めることができる。第3の画像領域において、反射された光の焦点平面の第1の部分領域は画像センサの画像センサ表面上に投影されていない。付加的あるいは代替的に、画像処理はさらに、第2の画像の第2の多数の画像領域の第4の画像領域を定め、それにおいて、反射された光の焦点平面の第2の部分領域が画像センサの画像センサ表面上に投影されている。 Furthermore, the image processing can additionally or alternatively define a third image area of the second number of image areas of the second image after the recording of the second image. In the third image area, the first partial area of the focal plane of the reflected light is not projected on the image sensor surface of the image sensor. Additionally or alternatively, the image processing further defines a fourth image area of the second plurality of image areas of the second image, wherein the second sub-area of the focal plane of the reflected light is It is projected onto the image sensor surface of the image sensor.

画像処理は、さらに、第2の画像の記録後に、画像センサと第1の光学的に有効な部材との間の相対間隔をその初期長さに調節するために、第2の画像の記録後に第1及び/又は第2の操作ドライブを制御するために、制御装置へ制御指令を提供するように、整えることができる。 The image processing further comprises, after recording the second image, recording the second image to adjust the relative distance between the image sensor and the first optically effective member to its initial length. It can be arranged to provide control commands to the control device for controlling the first and/or the second operating drive.

第1の画像の第1と第2の画像領域は、コンポーネントのそれぞれ一部分を複写することができ、その部分は実質的に、第2の画像の第3と第4の部分領域内のコンポーネントの前記部分に相当することができる。第1の画像の第1と第2の画像領域が、コンポーネントを完全に複写する。 The first and second image areas of the first image may each duplicate a portion of the component, which portion is substantially of the component in the third and fourth partial areas of the second image. It can correspond to the portion. The first and second image areas of the first image perfectly duplicate the component.

第1の画像の第1の多数の画像領域は、第2の画像の第2の多数の画像領域に相当することができる。 The first plurality of image areas of the first image can correspond to the second plurality of image areas of the second image.

第1の画像の第1と第2の画像領域及び/又は第2の画像の第3と第4の画像領域は、互いに連続する画像領域とすることができる。代替的に、第1の画像の第1と第2の画像領域と第2の画像の第3と第4の画像領域は、少なくとも部分的に交差することができる。 The first and second image areas of the first image and/or the third and fourth image areas of the second image may be consecutive image areas. Alternatively, the first and second image areas of the first image and the third and fourth image areas of the second image may at least partially intersect.

第1の画像において、焦点平面の第1の部分領域が、そして第2の画像においては焦点平面の第2の部分領域が、あらかじめ定められた被写界深度内で画像センサの画像センサ表面上に投影することができる。その場合に第1の画像において焦点平面の第2の部分領域及び第2の画像において焦点平面の第1の部分領域は、あらかじめ定められた被写界深度の外部で画像センサの画像センサ表面上に投影される。 A first partial area of the focal plane in the first image and a second partial area of the focal plane in the second image are on the image sensor surface of the image sensor within a predetermined depth of field. Can be projected on. In that case, the second partial area of the focal plane in the first image and the first partial area of the focal plane in the second image are on the image sensor surface of the image sensor outside a predetermined depth of field. Projected on.

画像処理は、第1の画像から第1の画像領域を、そして第2の画像からは第4の画像領域を切り出すように整えることができる。さらに画像処理は、第3の画像を形成するために、切り出した第1と第4の画像領域を継ぎ合わせるように、整えられている。 The image processing can be arranged to cut out a first image area from the first image and a fourth image area from the second image. Further, the image processing is arranged so that the cut-out first and fourth image regions are joined together to form a third image.

第3の画像を形成することによって、コンポーネントを障害箇所又は欠陥について検査する場合に、画像処理によって1つの画像のみを検査すればよく、2つの画像を検査する必要はないので、画像を検査するための時間長さと計算の手間が削減される。 By inspecting the image by forming a third image, when inspecting the component for faults or defects, only one image need be inspected by image processing and not two images. It reduces the time length and calculation time.

画像処理はさらに、第1の画像の第1の画像領域及び/又は第2の画像の第4の画像領域及び/又は第3の画像に基づいて、コンポーネントが少なくとも1つの障害箇所を有しているか、を定めるように、整えることができる。画像処理が少なくとも1つの障害箇所を定めた場合に、画像処理は、コンポーネントについての障害箇所情報を提供するように、整えられている。 The image processing further comprises the component having at least one fault location based on the first image area of the first image and/or the fourth image area of the second image and/or the third image. It can be arranged to determine whether or not. The image processing is arranged to provide failure point information for the component if the image processing defines at least one failure point.

光学的なコンポーネント検出システムは、位置検出センサを有することができ、その位置検出センサは、第1の光学的に有効な部材及び/又は画像センサの画像センサ表面の位置及び/又は姿勢を定めるように、整えられている。位置検出センサは、さらに、光学的に有効な部材及び/又は画像センサの画像センサ表面の位置及び/又は姿勢に関する情報を制御装置へ提供するように、整えられており、その制御装置が提供された情報に基づいて第1及び/又は第2の操作ドライブを制御する。位置検出センサは、光学的あるいは(電子−)機械的な位置検出センサとすることができる。 The optical component detection system may include a position detection sensor, the position detection sensor determining the position and/or orientation of the image sensor surface of the first optically effective member and/or the image sensor. It is arranged. The position detection sensor is further arranged to provide the controller with information regarding the position and/or orientation of the image sensor surface of the optically effective member and/or the image sensor, which controller is provided. The first and/or second operation drive is controlled based on the information obtained. The position detection sensor can be an optical or (electro-)mechanical position detection sensor.

位置検出センサは、鏡胴の内側に取り付けることができる。他の変形例において、位置検出センサは画像センサ内に統合することができる。ホルダは、表面領域上にパターンを有しており、そのパターンが画像センサへ向けられている。画像センサは、表面領域上のパターンを認識して、認識された表面領域に基づいて光学的に有効な部材の位置及び/又は姿勢を定めるように、整えられている。 The position detection sensor can be mounted inside the lens barrel. In other variants, the position detection sensor can be integrated in the image sensor. The holder has a pattern on the surface area, the pattern being directed towards the image sensor. The image sensor is arranged to recognize a pattern on the surface area and determine the position and/or orientation of the optically effective member based on the recognized surface area.

提供された情報によって、制御装置には、反射された光の焦点平面をコンポーネントの画像センサ表面上に投影するために、第1の光学的に有効な部材及び/又は画像センサを正確に位置決めすることが、可能である。 With the information provided, the controller accurately positions the first optically effective member and/or the image sensor to project the focal plane of the reflected light onto the image sensor surface of the component. Is possible.

カメラ装置は、光路内で第1の光学的に有効な部材と画像センサとの間に第2の光学的に有効な部材を有することができる。第2の光学的に有効な部材の光学軸は、第1の光学的に有効な部材の光学軸に対して同軸に方位づけされている。 The camera device may have a second optically effective member in the optical path between the first optically effective member and the image sensor. The optical axis of the second optically effective member is oriented coaxially with the optical axis of the first optically effective member.

第1の光学的に有効な部材はアクロマートとすることができ、あるいはアクロマートかつ/又は第2の光学的に有効な部材は集光レンズとすることができる。 The first optically effective member can be an achromat, or the achromat and/or the second optically effective member can be a condenser lens.

光の屈折率は、赤から青へ向かって連続的に増大し、したがってレンズの焦点距離は減少する。この結像エラーを補償し、あるいは補正するために、アクロマートが使用される。 The refractive index of light increases continuously from red to blue, thus reducing the focal length of the lens. An achromat is used to compensate or correct this imaging error.

さらに、少なくとも1つのコンポーネントの少なくとも1つの表面を検出するための光学的なコンポーネント検出システムが提案される。収容部は、コンポーネントの第1の表面をカメラ装置によって検出するために、コンポーネントをカメラ装置の前に位置決めするように、整えられている。カメラ装置が画像センサを有し、その画像センサは、コンポーネントの第1の表面において反射された光を受信するように、整えられている。光学的なコンポーネント検出システムはさらに、画像センサに対して反射された光の光路内に配置された、第1の光学的に有効な部材と、第1の光学的な部材用の操作装置とを有している。操作装置は、第1の光学的な部材用のホルダを有している。ホルダは、中空円筒状の鏡胴の内側にリニアガイドによって固定されており、かつ鏡胴の長手中心軸は第1の光学的に有効な部材の光学軸に対して同軸に方位づけされている。リニアガイドは、ホルダを光学軸に対して平行に案内するように、整えられている。操作装置はさらに、第1の光学的に有効な部材を画像センサに対して変位させるために、画像センサと第1の光学的に有効な部材の間の相対間隔を調節するための第1の操作ドライブを有している。 Furthermore, an optical component detection system is proposed for detecting at least one surface of at least one component. The receptacle is arranged to position the component in front of the camera device for detecting the first surface of the component by the camera device. The camera device has an image sensor, which is arranged to receive the light reflected at the first surface of the component. The optical component detection system further includes a first optically effective member disposed in the optical path of the light reflected with respect to the image sensor, and an operating device for the first optical member. Have The operating device has a holder for the first optical element. The holder is fixed inside the hollow cylindrical lens barrel by a linear guide, and the longitudinal center axis of the lens barrel is oriented coaxially with the optical axis of the first optically effective member. .. The linear guides are arranged to guide the holder parallel to the optical axis. The actuating device further comprises a first for adjusting the relative distance between the image sensor and the first optically effective member for displacing the first optically effective member with respect to the image sensor. Has an operation drive.

さらに、光学的に有効な部材のための操作装置が提案され、それは第1の光学的に有効な部材のためのホルダを有している。ホルダは、中空円筒状の鏡胴の内側に固定されており、かつ鏡胴の長手中心軸は第1の光学的に有効な部材の光学軸に対して同軸に方位づけされている。ホルダは、少なくとも鏡胴長手方向に弾性的に撓むことができる。操作装置はさらに、光学軸に沿って第1の光学的に有効な部材を画像センサに対して変位させるために、ホルダを変位させるための第1の操作ドライブを有している。 Furthermore, a manipulating device for the optically effective member is proposed, which has a holder for the first optically effective member. The holder is fixed inside the hollow cylindrical lens barrel, and the longitudinal center axis of the lens barrel is oriented coaxially with the optical axis of the first optically effective member. The holder can elastically bend at least in the longitudinal direction of the lens barrel. The operating device further comprises a first operating drive for displacing the holder for displacing the first optically effective member with respect to the image sensor along the optical axis.

さらに光学的に有効な部材のための操作装置が提案され、それは、第1の光学的に有効な部材のためのホルダを有している。ホルダは、中空円筒状の鏡胴の内側にリニアガイドによって固定されており、かつ鏡胴の中心長手軸は第1の光学的に有効な部材の光学軸に対して同軸に方位づけされている。リニアガイドは、ホルダを光学軸に対して平行に案内するように整えられている。操作装置はさらに、光学軸に沿って第1の光学的に有効な部材を鏡胴に対して変位させるために、ホルダを変位させるための第1の操作ドライブを有している。 Furthermore, a manipulating device for the optically effective member is proposed, which has a holder for the first optically effective member. The holder is fixed by a linear guide inside the hollow cylindrical lens barrel, and the central longitudinal axis of the lens barrel is oriented coaxially with the optical axis of the first optically effective member. .. The linear guide is arranged to guide the holder parallel to the optical axis. The operating device further comprises a first operating drive for displacing the holder for displacing the first optically effective member with respect to the lens barrel along the optical axis.

付加的に少なくとも1つのコンポーネントの少なくとも1つの表面を検出する方法が提案され、方法は以下のステップを有している:コンポーネントをカメラ装置に対して整合させ;コンポーネントの第1の表面を、カメラ装置によって、検出する;コンポーネントの第1の表面において反射された光を、カメラ装置の画像センサによって受信し;長手方向に弾性的に撓むホルダによって、反射された光の光路内に第1の光学的に有効な部材を保持し;その場合に長手方向は、光学的に有効な部材の光学軸に対して平行に方位づけされており;光学軸に沿って第1の光学的に有効な部材を画像センサに対して変位させるために、画像センサと第1の光学的に有効な部材との間の相対間隔を調節する。 A method for additionally detecting at least one surface of at least one component is proposed, the method comprising the steps of: aligning the component with a camera device; Detected by the device; the light reflected at the first surface of the component is received by the image sensor of the camera device; by the holder that is elastically deflected in the longitudinal direction, in the optical path of the reflected light. Holding the optically effective member; wherein the longitudinal direction is oriented parallel to the optical axis of the optically effective member; along the optical axis the first optically effective member. Adjusting the relative spacing between the image sensor and the first optically effective member to displace the member relative to the image sensor.

方法はさらに、以下のステップを有することができる;光学軸に沿って画像センサを第1の光学的に有効な部材に対して変位させるために、画像センサと第1の光学的に有効な部材との間の相対間隔を調節し;かつ、選択的に、反射された光の焦点平面を画像センサの、反射された光を向いた画像センサ表面上に投影するために、画像センサと第1の光学的に有効な部材との間の相対間隔を調節する。 The method may further comprise the steps of: an image sensor and a first optically effective member for displacing the image sensor with respect to the first optically effective member along an optical axis. Adjusting the relative spacing between the image sensor and the first to selectively project the focal plane of the reflected light onto the image sensor surface of the image sensor facing the reflected light. To adjust the relative spacing between the optically effective member and.

さらに、方法は以下のステップを有することができる:コンポーネントの第1の表面を光によって露光する。光は、所定の波長の、あるいは所定の波長領域の、光とすることができる。 In addition, the method can include the following steps: exposing the first surface of the component with light. The light may be light having a predetermined wavelength or a predetermined wavelength range.

方法はさらに、以下のステップを有することができる:第1の画像を記録し;第1の画像に基づいて、反射された光の焦点平面が画像センサの画像センサ表面上に実質的に完全に投影されているか、を定め;反射された光の焦点平面が画像センサの画像センサ表面上に実質的に完全に投影されていない場合には、第1の画像の第1の多数の画像領域の第1の画像領域を定め、それにおいて、反射された光の焦点平面の第1の部分領域が画像センサの画像センサ表面上に投影されており;第1の画像の多数の画像領域の第2の画像領域を定め、それにおいて反射された光の焦点平面の第2の部分領域は画像センサの画像センサ表面上に投影されておらず;反射された光の焦点平面の第2の部分領域を画像センサの画像センサ表面上へ投影するために、画像センサと第1の光学的な部材との間の相対間隔を調節し;第2の画像を記録し;第2の画像の第2の多数の画像領域の第3の画像領域を定め、それにおいて、反射された光の焦点平面の第1の部分領域は画像センサの画像センサ表面上に投影されておらず;第2の画像の第2の多数の画像領域の第4の画像領域を定め、それにおいて、反射された光の焦点平面の第2の部分領域が画像センサの画像センサ表面上に投影されている。 The method may further comprise the steps of recording a first image; based on the first image, a focal plane of the reflected light is substantially completely on the image sensor surface of the image sensor. Is projected; if the focal plane of the reflected light is not substantially completely projected onto the image sensor surface of the image sensor, then the first multiple image areas of the first image A first image area is defined, in which a first partial area of the focal plane of the reflected light is projected onto the image sensor surface of the image sensor; a second of the multiple image areas of the first image. The second partial area of the focal plane of the reflected light is not projected onto the image sensor surface of the image sensor; and the second partial area of the focal plane of the reflected light is Adjusting the relative spacing between the image sensor and the first optical member for projecting onto the image sensor surface of the image sensor; recording a second image; A third image area of the image area of the first image area, wherein the first partial area of the focal plane of the reflected light is not projected on the image sensor surface of the image sensor; A fourth image region of the multiple image regions of the image sensor, wherein a second partial region of the focal plane of the reflected light is projected onto the image sensor surface of the image sensor.

第1の代替案において、方法は以下のステップを有することができる:第1の画像を記録し;画像センサと第1の光学的に有効な部材との間の相対間隔を、あらかじめ定められた距離長さだけ調節し;第2の画像を記録する。 In a first alternative, the method can have the following steps: recording a first image; a relative distance between the image sensor and the first optically effective member is predetermined. Adjust the distance length; record the second image.

第2の代替案においては、方法は以下のステップを有することができる:第1の画像を記録し;第1の画像の記録の間に、画像センサと第1の光学的に有効な部材の間の相対間隔をあらかじめ定められた速度で調節し;第1の画像が記録された後に、あるいは第1の画像が記録された後にあらかじめ定められた期間の後に、かつ画像センサと第1の光学的に有効な部材の間の相対間隔の調節の間に、第2の画像を記録する。 In a second alternative, the method can have the following steps: recording a first image; during recording of the first image, the image sensor and the first optically effective member. Adjusting the relative spacing between them at a predetermined rate; after the first image has been recorded, or after a predetermined period after the first image has been recorded, and with the image sensor and the first optical element. A second image is recorded during the adjustment of the relative spacing between the optically effective members.

第1と第2の代替案に基づく方法は、さらに以下のステップを有することができる:第1の画像の第1の多数の画像領域の第1の画像領域を定め、それにおいて、反射された光の焦点平面の第1の部分領域が画像センサの画像センサ表面上に投影されており;かつ/又は第1の画像の多数の画像領域の第2の画像領域を定め、それにおいて、反射された光の焦点平面の第2の部分領域は画像センサ表面上に投影されておおらず;かつ/又は第2の画像の第2の多数の画像領域の第3の画像領域を定め、それにおいて、反射された光の焦点平面の第1の部分領域は画像センサの画像センサ表面上に投影されておらず;かつ/又は第2の画像の第2の多数の部分領域の第4の部分領域を定め、それにおいて、反射された光の焦点平面の第2の部分領域が画像センサの画像センサ表面上に投影されている。 The method according to the first and second alternatives can further comprise the following steps: defining a first image area of a first multiple image area of the first image, in which the reflected image area is reflected. A first sub-region of the focal plane of the light is projected onto the image sensor surface of the image sensor; and/or defines a second image region of the multiple image regions of the first image, where it is reflected The second partial region of the focal plane of the reflected light is not projected onto the image sensor surface; and/or defines a third image region of the second multiple image region of the second image, in which A first sub-region of the focal plane of the reflected light is not projected onto the image sensor surface of the image sensor; and/or a fourth sub-region of the second multiple sub-region of the second image. Where a second partial region of the focal plane of the reflected light is projected onto the image sensor surface of the image sensor.

方法はさらに、以下のステップを有することができる:第1の画像から第1の画像領域を、第2の画像から第4の画像領域を切り取り;かつ、第3の画像を形成するために、切り取った第1と第4の画像領域を継ぎ合わせる。 The method may further comprise the steps of cropping a first image region from the first image and a fourth image region from the second image; and forming a third image, The cut out first and fourth image areas are joined together.

方法はさらに、以下のステップを有することができる:第1の画像の第1の画像領域及び/又は第2の画像の第4の画像領域及び/又は第3の画像に基づいて、コンポーネントが少なくとも1つの障害箇所を有しているか、を定め;かつコンポーネントが少なくとも1つの障害箇所を有している場合に、コンポーネントに関する障害箇所情報を提供する。 The method may further comprise the following steps: based on the first image region of the first image and/or the fourth image region of the second image and/or the third image, the component is at least Determining if it has one failure point; and providing failure point information for the component if the component has at least one failure point.

上述した視点のいくつかが方法に関して記述されている場合でも、これらの視点は装置についても言えることである。まったく同様に、装置に関して上述した視点は、同様に方法についても言えることである。 Even though some of the viewpoints described above are described in terms of methods, these viewpoints are also true of the device. Exactly the same considerations apply to the device as to the method described above.

他の目的、特徴、利点及び適用可能性は、付属の図面に関する、限定的ではない実施例についての以下の説明から明らかにされる。その場合にすべての説明され、かつ/又は画像表示される特徴は、それ自体で、あるいは任意の組合せにおいて、請求項又はその帰属におけるそのグループ分けに関係なく、ここに開示される対象を示している。その場合に図に示されるコンポーネントの寸法及び位置は、必ずしも縮尺どおりではない;それらは、実装すべき実施形態において、ここに示すものとは異なることがあり得る。 Other objects, features, advantages and applicability will be apparent from the following description of non-limiting examples with reference to the accompanying drawings. In that case, all illustrated and/or graphically represented features, by themselves or in any combination, refer to the subject matter disclosed herein, regardless of the claim or its grouping in the attribution. There is. In that case, the dimensions and locations of the components shown in the figures are not necessarily to scale; they may differ from those shown here in the embodiment to be implemented.

光学的に有効な部材のための操作装置を図式的に示す側方の上面図である。FIG. 4 is a side elevational top view schematically showing an operating device for an optically effective member. 操作装置のホルダを図式的に示す上面図である。It is a top view which shows the holder of an operating device diagrammatically. 操作装置のホルダを図式的に示す上面図である。It is a top view which shows the holder of an operating device diagrammatically. 少なくとも1つのコンポーネントの少なくとも1つの表面を検出するための光学的コンポーネント検出システムを図式的に示す側方の上面図である。FIG. 3 is a side top view diagrammatically showing an optical component detection system for detecting at least one surface of at least one component. 鮮明さの異なる画像領域を有する画像記録を図式的に示している。Figure 3 schematically shows an image record with image areas of different sharpness. 鮮明さの異なる画像領域を有する画像記録を図式的に示している。Figure 3 schematically shows an image record with image areas of different sharpness. 先行する画像記録の画像領域からなる画像記録を図式的に示している。Figure 6 schematically shows an image record consisting of an image area of a preceding image record. 光学的なコンポーネント検出システムの画像センサの表面に関して結像させるべきコンポーネントの焦点平面を図式的に示す側方の上面図である。FIG. 3 is a side top view diagrammatically showing the focal plane of the component to be imaged with respect to the surface of the image sensor of the optical component detection system. 光学的なコンポーネント検出システムの画像センサの表面に関して結像させるべきコンポーネントの焦点平面を図式的に示す側方の上面図である。FIG. 3 is a side top view diagrammatically showing the focal plane of the component to be imaged with respect to the surface of the image sensor of the optical component detection system. 光学的なコンポーネント検出システムの画像センサの表面に関して結像させるべきコンポーネントの焦点平面を図式的に示す側方の上面図である。FIG. 3 is a side top view diagrammatically showing the focal plane of the component to be imaged with respect to the surface of the image sensor of the optical component detection system. 時間−速度ダイアグラムを示しており、それによって光学的に有効な部材と光学的なコンポーネント検出システムの画像センサとの間の相対的な間隔が変化する。Figure 4 shows a time-velocity diagram, which changes the relative spacing between the optically effective member and the image sensor of the optical component detection system. 時間−合焦距離ダイアグラムを示しており、それによってコンポーネントの画像を記録するための実施例を説明しようとしている。FIG. 6 shows a time-focus distance diagram, by which an example for recording an image of a component will be described. 他の時間−合焦距離ダイアグラムを示しており、それによってコンポーネントの画像を記録するための他の実施例を説明しようとしている。FIG. 6 shows another time-focus distance diagram, which is intended to describe another embodiment for recording an image of a component.

ここに記述する装置変形例及びその機能と駆動の視点は、その構造、機能方法及び特性をよりよく理解するためだけに用いられるものである。それらは開示を、たとえば実施例に限定するものではない。図は、部分的に図式的であって、その場合に本質的な特性及び効果は、機能、作用原理、技術的形態及び特徴を明らかにするために、一部著しく拡大して示されている。その場合に図中又は文中に開示されている各機能方法、各原理、各技術的形態及び各特徴は、すべての請求項、文中及び他の図中の各特徴、この開示内に含まれ、あるいはそれから明らかにされる他の機能方法、原理、技術的形態及び特徴と自由かつ任意に組み合わせることができるので、考えられるすべての組合せは、記述される装置に対応づけられる。その場合に文中の、すなわち明細書の各セクション内の、請求項内のすべての個々の形態の間の組合せ及び文中、請求項内及び図中の種々の変形例の間の組合せも含まれており、かつ他の請求項の対象とすることができる。請求項も、開示及びそれに伴ってすべての示された特徴を互いに組み合わせる可能性を制限するものではない。すべての開示された特徴は、単独でも、他のすべての特徴との組合せにおいても、ここにはっきりと開示されている。 The device variants and their functional and driving points of view described here are only used for a better understanding of their structure, function method and characteristics. They are not intended to limit the disclosure to the examples, for example. The drawings are partly schematic, in which case the essential characteristics and effects are shown in part in greatly enlarged form in order to clarify their function, principle of operation, technical form and characteristics. .. In that case, each functional method, each principle, each technical form, and each feature disclosed in the drawings or the sentence are included in all claims, each feature in the sentence and other drawings, and this disclosure, Alternatively, any conceivable combination can be associated with the described device, as it can be freely and arbitrarily combined with other functional methods, principles, technical forms and features that emerge from it. In that case also included are combinations between all individual forms in the claims, in the text, ie in each section of the specification, and combinations between the various variants in the text, the claims and the figures. And can be the subject of other claims. The claims also do not limit the disclosure and the possibilities with which all the features indicated are combined with each other. All disclosed features, alone or in combination with all other features, are explicitly disclosed herein.

詳細な説明
図内では、互いに相当し、あるいは機能的に類似のコンポーネントには、一致する参照符号が設けられている。装置及び方法を、複数の実施例を用いて説明する。
Within the detailed illustration , corresponding or functionally similar components are provided with corresponding reference numerals. The apparatus and method will be described using several embodiments.

図1には、第1の光学的に作用する部材としてのアクロマート130用の操作装置100が示されている。アクロマート130は、フリントガラス130Bとクラウンガラス130Aとからなる。操作装置100は、アクロマート130用のホルダ140を有している。ホルダ140は、中空円筒状の鏡胴110の内側に固定されており、鏡胴110の長手中心軸は、アクロマート130の光学軸OAに対して同軸に方向づけされている。この実施例において、ホルダ140はリング形状に形成されている。ホルダ140はアクロマート130を、ホルダ140の開口部を通して、アクロマートの光学軸OAが鏡胴110の長手中心軸に対して同軸になるように、収容する。鏡胴110は、小さい透過性(透過率μ>1)と常磁性材料を有する。常磁性材料は、アルミニウムである。他の変形例において、鏡胴110は材料としてプラスチックを有する。 FIG. 1 shows an operating device 100 for an achromat 130 as a first optically acting member. The achromat 130 includes a flint glass 130B and a crown glass 130A. The operating device 100 has a holder 140 for the achromat 130. The holder 140 is fixed inside the hollow cylindrical lens barrel 110, and the longitudinal center axis of the lens barrel 110 is oriented coaxially with the optical axis OA of the achromat 130. In this embodiment, the holder 140 has a ring shape. The holder 140 accommodates the achromat 130 through the opening of the holder 140 such that the optical axis OA of the achromat is coaxial with the longitudinal center axis of the lens barrel 110. The lens barrel 110 has a low transparency (transmittance μ>1) and a paramagnetic material. The paramagnetic material is aluminum. In another variation, the lens barrel 110 has plastic as the material.

ホルダ140は、少なくとも鏡胴長手方向に弾性的に撓むことができる。そのためにホルダ140は、ゴムを含む材料を有し、その材料は弾性変形可能である。他の変形例において、ホルダ140は、じゃばら又はコイルばねとして形成されている。他の変形例において、ホルダ140は、皿ばねとして形成されており、その皿ばねがアクロマート130を、その光学軸OAが鏡胴110の長手中心軸に対して同軸になるように、保持する。 The holder 140 can elastically bend at least in the longitudinal direction of the lens barrel. Therefore, the holder 140 has a material containing rubber, and the material is elastically deformable. In another variant, the holder 140 is formed as a bellows or a coil spring. In another variant, the holder 140 is formed as a disc spring, which holds the achromat 130 such that its optical axis OA is coaxial with the central longitudinal axis of the lens barrel 110.

図1に示すように、ホルダ140は第1の端部領域において鏡胴110に固定されている。ホルダ140の材厚は、光学軸OAに沿ってホルダ140の第2の端部領域へ向かって減少し、その第2の端部領域にアクロマート130が保持されている。その場合にホルダ140の第2の端部領域は鏡胴110に固定されておらず、鏡胴110から光学軸OAに対して直交する方向へ離隔している。そのためにホルダ140は、少なくとも1つの凹部を有しており、その凹部がアクロマート130用の枠として用いられる。アクロマート130は、凹部内に収容され、かつ保持されている。 As shown in FIG. 1, the holder 140 is fixed to the lens barrel 110 in the first end region. The material thickness of the holder 140 decreases toward the second end region of the holder 140 along the optical axis OA, and the achromat 130 is held in the second end region. In that case, the second end region of the holder 140 is not fixed to the lens barrel 110, but is separated from the lens barrel 110 in the direction orthogonal to the optical axis OA. To that end, the holder 140 has at least one recess, which is used as a frame for the achromat 130. The achromat 130 is housed and held in the recess.

操作装置100は、さらに、光学軸OAに沿ってアクロマート130を鏡胴110に対して変位させるために、ホルダ140を変位させるための第1の操作ドライブ120を有する。そのために第1の操作ドライブ120は、図1においてコイル121を有しており、そのコイルがホルダ140を少なくともセクション的に包囲している。 The operating device 100 further comprises a first operating drive 120 for displacing the holder 140 in order to displace the achromat 130 with respect to the lens barrel 110 along the optical axis OA. To that end, the first operating drive 120 has a coil 121 in FIG. 1, which surrounds the holder 140 at least in sections.

図1において、コイル121は鏡胴110に添接している。他の変形例において、コイル121は鏡胴110から離隔して配置されている。 In FIG. 1, the coil 121 is attached to the lens barrel 110. In another modification, the coil 121 is arranged apart from the lens barrel 110.

図1において、ホルダ140の第1の端部領域は、光学軸OAに関してコイル121の外部に配置されている。それに対してホルダ140の第2の端部領域は、光学軸OAに関してコイル121の内部に配置されている。 In FIG. 1, the first end region of the holder 140 is arranged outside the coil 121 with respect to the optical axis OA. In contrast, the second end region of the holder 140 is arranged inside the coil 121 with respect to the optical axis OA.

他の変形例において、ホルダ140の第1の端部領域の位置は、光学軸OAに関してコイル121の端部と一致する。他の変形例においては、ホルダ140の第1の端部の位置は、光学軸に関してコイル121の内部又は外部に位置する。他の変形例において、ホルダ140の第2の端部は、光学軸OAに関してコイル121の内部又は外部に位置している。 In another variation, the position of the first end region of the holder 140 coincides with the end of the coil 121 with respect to the optical axis OA. In another variation, the position of the first end of the holder 140 is located inside or outside the coil 121 with respect to the optical axis. In another variation, the second end of the holder 140 is located inside or outside the coil 121 with respect to the optical axis OA.

ホルダ140は、ホルダ140の第2の端部領域において軟鉄を含むヨーク141、142を有している。他の変形例においては、ホルダ140は永久磁石ヨーク141、142を有する。図1においてホルダ140は、ホルダ140の第2の端部領域においてヨーク141、142を有している。ヨーク141、142は、ホルダ140の枠に対向して配置されている。他の変形例において、ヨーク141、142は、アクロマート130とホルダ140の間に配置されている。 The holder 140 has yokes 141 and 142 containing soft iron in the second end region of the holder 140. In another variation, the holder 140 has permanent magnet yokes 141, 142. In FIG. 1, the holder 140 has yokes 141 and 142 in the second end region of the holder 140. The yokes 141 and 142 are arranged so as to face the frame of the holder 140. In another modification, the yokes 141 and 142 are arranged between the achromat 130 and the holder 140.

コイル121を通して電流が流されると、その内部に磁場が形成される。コイル121が通電されると、軟鉄を含むヨーク141、142へ、磁場によって、軟鉄を含むヨーク141、142をコイル121の中心へ引きつける力が作用する。軟鉄を含むヨーク141、142は、高い純度を有する合金化されない鉄である。それによってホルダ140は伸張され、あるいは圧縮される(それぞれコイル120が光学軸OAに沿って軟鉄を含むヨーク141、142に関してどこに配置されているかに応じて)。というのは、ホルダは、一方で、鏡胴110の内側に堅固に固定されているからである。他方でホルダ140の軟鉄を含むヨーク141、142が磁場によってコイル121の中心へ引き込まれるからである。印加された磁場によってホルダ140は、アクロマート130の位置がホルダ140によって光学軸OAに沿って変位されるように、伸張され、あるいは圧縮される。その場合にアクロマート130の方位は変化されないので、アクロマート130の変位によって光学軸OAに沿ったアクロマート130の合焦のみが変位される。 When a current is passed through the coil 121, a magnetic field is formed inside the coil 121. When the coil 121 is energized, the magnetic field exerts a force on the yokes 141 and 142 containing soft iron to attract the yokes 141 and 142 containing soft iron to the center of the coil 121. The yokes 141, 142 containing soft iron are non-alloyed iron with high purity. The holder 140 is thereby stretched or compressed (depending on where the coil 120 is located along the optical axis OA with respect to the yokes 141, 142 containing soft iron). This is because the holder, on the other hand, is firmly fixed inside the lens barrel 110. On the other hand, the yokes 141, 142 of the holder 140 containing soft iron are drawn into the center of the coil 121 by the magnetic field. The applied magnetic field causes the holder 140 to be stretched or compressed so that the position of the achromat 130 is displaced by the holder 140 along the optical axis OA. In that case, since the orientation of the achromat 130 is not changed, only the focus of the achromat 130 along the optical axis OA is displaced by the displacement of the achromat 130.

他の変形例において、ホルダ140は永久磁石のヨーク141、142を有している。永久磁石ヨーク141、142は、光学軸OAに対して平行な長手方向に延びている。永久磁石ヨーク141、142のN極とS極は、N極とS極が光学軸OAに沿ってそれぞれ対向する方向に方位づけされるように、方位を定められている。この場合においてホルダ140は、コイル121内の電流の流れる方向に従って変形される。したがってホルダ140は、第1の方向においても、第2の方向においても変形され、その場合に第2の方向は第1の方向とは逆である。 In another variant, the holder 140 comprises permanent magnet yokes 141, 142. The permanent magnet yokes 141 and 142 extend in the longitudinal direction parallel to the optical axis OA. The north pole and the south pole of the permanent magnet yokes 141 and 142 are oriented so that the north pole and the south pole are oriented in directions opposite to each other along the optical axis OA. In this case, the holder 140 is deformed according to the direction of current flow in the coil 121. Therefore, the holder 140 is deformed both in the first direction and in the second direction, in which case the second direction is opposite to the first direction.

ホルダ140は、弾性的に可撓性であるので、変形に抗する変形抵抗を有している。ホルダ140が変形する場合に、変形抵抗によって発生される力は、ホルダ140の変形の程度に従って増大し、あるいは減少する。したがって磁場が発生されて、磁場によって発生された力によりホルダ140が変形される場合に、変形抵抗によって発生される力と磁場によって発生される力が、力の均衡を形成する。磁場が減少されて、最終的にオフにされた場合に、ホルダ140はその弾性的に撓む特性によって再び初期位置を占める。したがって電流の電流強さを所望に制御することによって、光学軸OAに沿ったホルダ140の位置が調節される。 Since the holder 140 is elastically flexible, it has a deformation resistance against deformation. When the holder 140 is deformed, the force generated by the deformation resistance increases or decreases according to the degree of deformation of the holder 140. Therefore, when a magnetic field is generated and the holder 140 is deformed by the force generated by the magnetic field, the force generated by the deformation resistance and the force generated by the magnetic field form a force balance. When the magnetic field is reduced and eventually turned off, the holder 140 reoccupies its initial position due to its elastically deflecting properties. Therefore, by controlling the current intensity of the current as desired, the position of the holder 140 along the optical axis OA is adjusted.

したがって図1に示す構造によって、光学的に有効な部材のための軽量構造が実現される。さらに、アクロマート130はホルダ140によってはるかに振動が生じにくくなる。というのは、外部がみなもとの振動は、ホルダ140によって緩衝されるからである。アクロマート130の合焦を変位させなければならない場合に、適切な磁場によってホルダ140が変形される。その場合に小さい質量のみが移動されるので、操作ドライブ120の振動は最小限に抑えられる。 Therefore, the structure shown in FIG. 1 provides a lightweight structure for optically effective members. Further, the achromat 130 is much less susceptible to vibrations due to the holder 140. This is because the vibration that is originally external is damped by the holder 140. If the focus of the achromat 130 has to be displaced, the holder 140 is deformed by a suitable magnetic field. In that case, only small masses are moved, so that vibrations of the operating drive 120 are minimized.

他の実施形態において、操作装置100はコイル121の代わりにリニアガイド(図示せず)を有している。リニアガイドは、ホルダ140を光学軸OAに対して平行に案内するように、整えられている。したがってホルダ140の位置及びアクロマート130の位置も、光学軸OAに沿って変位可能である。操作装置100は、駆動装置(図示せず)を有しており、その駆動装置は、ホルダ140をリニアガイドに沿って走行させるように、整えられている。 In another embodiment, the operating device 100 has a linear guide (not shown) instead of the coil 121. The linear guides are arranged to guide the holder 140 parallel to the optical axis OA. Therefore, the position of the holder 140 and the position of the achromat 130 can also be displaced along the optical axis OA. The operating device 100 has a drive device (not shown), and the drive device is arranged so as to cause the holder 140 to travel along the linear guide.

図2と3には、ホルダ140の可能な実施例が示されている。図2と3は、ホルダ140、ヨーク141、142及びアクロマート130を上面で示している。 2 and 3 a possible embodiment of the holder 140 is shown. 2 and 3 show the holder 140, the yokes 141, 142 and the achromat 130 from above.

図2において、ホルダ140は少なくとも2つのホルダ片143、144からなり、それらが一緒になってアクロマート130を保持する。変形例において、アクロマート130は2つのホルダ片143、144の間に配置されているので、2つのホルダ片143、144は対向している。他の変形例において、ホルダは少なくとも4つのホルダ片(図示せず)からなり、それらが光学軸OAを中心にそれぞれ90°だけ変位して配置され、アクロマート130を保持する。 In FIG. 2, the holder 140 consists of at least two holder pieces 143, 144, which together hold the achromat 130. In the modification, since the achromat 130 is arranged between the two holder pieces 143 and 144, the two holder pieces 143 and 144 face each other. In another variant, the holder consists of at least four holder pieces (not shown), which are arranged respectively displaced by 90° about the optical axis OA and hold the achromat 130.

図3に示すホルダ140の変形例によれば、ホルダ140は2つのホルダ片143、144において、それぞれヨーク141、142を有している。4つのホルダ片を有する変形例においては、ホルダ140は少なくとも2つのホルダ片においてそれぞれヨークを、あるいは4つすべての領域においてそれぞれヨークを有している。 According to a modified example of the holder 140 shown in FIG. 3, the holder 140 has yokes 141 and 142 in two holder pieces 143 and 144, respectively. In a variant with four holder pieces, the holder 140 has a yoke in at least two holder pieces, or a yoke in all four areas.

図3は、ホルダ140の他の変形例を示しており、それにおいてホルダ140は、アクロマート130を保持するために、リングホルダ145として形成されている。 FIG. 3 shows another variant of the holder 140, in which the holder 140 is formed as a ring holder 145 for holding the achromat 130.

図4に示す変形例によれば、ヨーク146はリング状に形成されている。リング形状に形成されたヨーク146内に磁場によって発生される誘導電流は、リンク形状に形成されたヨーク146内の複数のスリットによって中断される。リング形状に形成されたヨーク146によって、磁場によって発生された力がホルダ140に均一に作用し、ホルダは均一に変形される。代替的にヨークは、図3について説明したように形成することができる。 According to the modification shown in FIG. 4, the yoke 146 is formed in a ring shape. The induced current generated by the magnetic field inside the ring-shaped yoke 146 is interrupted by the plurality of slits inside the link-shaped yoke 146. The ring-shaped yoke 146 uniformly applies the force generated by the magnetic field to the holder 140, so that the holder is uniformly deformed. Alternatively, the yoke can be formed as described for FIG.

図4には、コンポーネントとしての半導体チップBの少なくとも1つの表面Oを検出するための光学的なコンポーネント検出システム200が示されている。光学的なコンポーネント検出システム200は、収容部150を有している。収容部150は、半導体チップBの第1の表面Oをカメラ装置220によって検出するために、半導体チップBをカメラ装置220の前に位置決めするように、整えられている。第1の表面は、図4において半導体チップBの側表面である。しかし収容部150は、半導体チップBのこの表面Oをカメラ装置220に対して方向づけすることだけに限定されていない。収容部150は、半導体チップBの他の表面もカメラ装置220へ向けるように整えられており、それによって半導体チップBの他の表面も検査される。さらに光学的なコンポーネント検出システム200は、光源(図示せず)を有しており、その光源は、光を半導体チップBの第1の表面Oへ送り、もしくは半導体チップBを照射するように、整えられている。光源から放出される光は、変形例において、約380から790nmの領域内の波長を有する可視光である。他の変形例において、赤外光又は偏光された光が使用される。 FIG. 4 shows an optical component detection system 200 for detecting at least one surface O of the semiconductor chip B as a component. The optical component detection system 200 has a housing 150. The housing 150 is arranged so as to position the semiconductor chip B in front of the camera device 220 so that the first surface O of the semiconductor chip B can be detected by the camera device 220. The first surface is the side surface of the semiconductor chip B in FIG. However, the housing 150 is not limited to orienting this surface O of the semiconductor chip B with respect to the camera device 220. The housing portion 150 is arranged so that the other surface of the semiconductor chip B is also directed toward the camera device 220, so that the other surface of the semiconductor chip B is also inspected. Further, the optical component detection system 200 has a light source (not shown), which sends light to the first surface O of the semiconductor chip B or illuminates the semiconductor chip B, It is arranged. The light emitted from the light source is, in a variant, visible light having a wavelength in the region of about 380 to 790 nm. In other variants, infrared light or polarized light is used.

カメラ装置220は、画像センサとしてCCDチップ230を有しており、そのCCDチップは半導体チップBの第1の表面Oで反射された光を受信するように、整えられている。他の変形例において、画像センサはCMOSチップ又は、ミクロボロメーターアレイあるいはパイロエレクトリックアレイのような、所定の波長領域について感受性を有する画像センサとすることができる。CCDチップは、−使用される波長領域に従って−それぞれの波長領域について、あるいは偏光された光についても、それに適合した感度を有している。反射された光Lの光路内に、さらに、第1の光学的に有効な部材としてのアクロマート130と共に、図1に示すような操作装置100が配置されている。付加的に、アクロマート130とCCDチップ230の間の光路内に第2の光学的な部材としての集光レンズ160が配置されている。集光レンズ160の光学軸は、アクロマート130の光学軸OAに対して同軸に方位づけされている。 The camera device 220 has a CCD chip 230 as an image sensor, and the CCD chip is arranged so as to receive the light reflected by the first surface O of the semiconductor chip B. In other variants, the image sensor can be a CMOS chip or an image sensor sensitive to a given wavelength range, such as a microbolometer array or a pyroelectric array. The CCD chip has a sensitivity which—according to the wavelength range used—for each wavelength range or even for polarized light. Further, in the optical path of the reflected light L, an operating device 100 as shown in FIG. 1 is arranged together with an achromat 130 as a first optically effective member. In addition, a condenser lens 160 as a second optical member is arranged in the optical path between the achromat 130 and the CCD chip 230. The optical axis of the condenser lens 160 is oriented coaxially with the optical axis OA of the achromat 130.

操作装置100は、図4に示す光学的なコンポーネント検出システム200内に、第1の操作ドライブ120としてコイル121を有している。この実施例において、ホルダ140は、鏡胴110の鏡胴長手方向へ弾性的に撓むことができる。 The operating device 100 has a coil 121 as a first operating drive 120 in the optical component detection system 200 shown in FIG. In this embodiment, the holder 140 can elastically bend in the longitudinal direction of the lens barrel 110.

代替的に、光学的なコンポーネント検出システム200は、コイル121の代わりにリニアガイドを有している。ホルダ140は、リニアガイドを介して鏡胴110の内側に固定されている。さらにリニアガイドは、ホルダ140を光学軸OAに対して平行に案内するように、整えられている。リニアガイドは、1つのレールとして形成されており、そのレールは光学軸OAに対して平行に延びている。他の変形例において、リニアガイドは2つのレールとして形成されている。その場合に2つのレールは、軸線OAに対して対称に対向している。 Alternatively, the optical component detection system 200 has a linear guide instead of the coil 121. The holder 140 is fixed inside the lens barrel 110 via a linear guide. Furthermore, the linear guides are arranged so as to guide the holder 140 parallel to the optical axis OA. The linear guide is formed as one rail, which rail extends parallel to the optical axis OA. In another variant, the linear guide is formed as two rails. In that case, the two rails are symmetrically opposed to the axis OA.

半導体チップBの第1の表面Oは、図4においてはCCDチップ230の画像センサ表面231に対して平行に配置されておらず、光学軸OAに対して角度アルファだけ傾いている。角度アルファは、図4において90°より大きく、あるいは小さい。 The first surface O of the semiconductor chip B is not arranged parallel to the image sensor surface 231 of the CCD chip 230 in FIG. 4 and is inclined by the angle alpha with respect to the optical axis OA. The angle alpha is larger or smaller than 90° in FIG.

光学的なコンポーネント検出システム200は、図4において、さらに制御装置ECUを有しており、それは、第1の操作ドライブ120を制御するように整えられている。したがって制御装置ECUは、コイル121へ供給される電流を制御し、かつそれに伴ってアクロマート130とCCDチップ230(もしくはCCDチップ230の画像センサ表面231)との間の相対間隔を変位させるように、整えられている。光学的なコンポーネント検出システム200がコイル121の代わりにリニアガイドを有している場合には、制御装置ECUは、ホルダ140をリニアガイドに沿って走行させるモータを制御するように、整えられている。 The optical component detection system 200 in FIG. 4 further comprises a control unit ECU, which is arranged to control the first operating drive 120. Therefore, the control unit ECU controls the current supplied to the coil 121, and accordingly changes the relative distance between the achromat 130 and the CCD chip 230 (or the image sensor surface 231 of the CCD chip 230). It is arranged. If the optical component detection system 200 has a linear guide instead of the coil 121, the control unit ECU is arranged to control the motor that drives the holder 140 along the linear guide. ..

図4において、制御装置ECUは画像処理BVを有している。他の変形例において、制御装置ECUと画像処理BVは2つの別々のユニットであることができ、それらは互いに通信するように整えられている。 In FIG. 4, the control unit ECU has an image processing BV. In another variant, the control unit ECU and the image processing BV can be two separate units, which are arranged to communicate with each other.

付加的に、図4において光学的な画像検出システム200は、制御装置ECUによって制御される第2の操作ドライブ240を有している。第2の操作ドライブ240は、光学軸OAに沿ってアクロマート130に対してCCDチップ230を移動させるために、CCDチップ230を変位させるように、整えられている。 In addition, in FIG. 4, the optical image detection system 200 comprises a second operating drive 240 controlled by the control unit ECU. The second operating drive 240 is arranged to displace the CCD chip 230 in order to move the CCD chip 230 with respect to the achromat 130 along the optical axis OA.

光学的なコンポーネント検出システム200は、さらに、位置検出センサ250を有しており、それは、アクロマート130及び/又はCCDチップ230の画像センサ表面231の位置及び/又は姿勢を定めるように、整えられている。位置検出センサ250は、図1において鏡胴110の内側に、かつヨーク142に対して配置され、かつ固定されている。他の変形例において、位置検出センサ250は、鏡胴110の内側に、かつヨーク141に対して配置し、かつ固定することができる。 The optical component detection system 200 further includes a position detection sensor 250, which is arranged to determine the position and/or orientation of the image sensor surface 231 of the achromat 130 and/or CCD chip 230. There is. The position detection sensor 250 is arranged and fixed to the inside of the lens barrel 110 in FIG. 1 and to the yoke 142. In another modification, the position detection sensor 250 can be arranged and fixed inside the lens barrel 110 and with respect to the yoke 141.

他の変形例において、位置検出センサ250はCCDチップ230内に統合することができる。その場合にホルダ140は、CCDチップ230を向いた少なくとも1つの表面領域上にマーキングを有している。CCDチップ230は、このマーキングを検出して、検出されたマーキングに基づいてアクロマート130の位置及び/又は姿勢を定めるように、整えられている。 In other variations, the position detection sensor 250 can be integrated within the CCD chip 230. The holder 140 then has markings on at least one surface area facing the CCD chip 230. The CCD chip 230 is arranged to detect this marking and determine the position and/or orientation of the achromat 130 based on the detected marking.

位置検出センサ250は、アクロマート130及び/又はCCDチップ230の画像センサ表面231の位置及び/又は姿勢に関する情報を制御装置ECUへ提供し、制御装置が提供された情報に基づいて第1及び/又は第2の操作ドライブ120、240を制御する。位置検出センサ250は、光学的な位置検出センサであるが、他の変形例においては、(電子−)機械的な位置検出センサとすることができる。 The position detection sensor 250 provides the control unit ECU with information regarding the position and/or orientation of the image sensor surface 231 of the achromat 130 and/or the CCD chip 230, and the control unit first and/or based on the provided information. The second operation drive 120, 240 is controlled. The position detection sensor 250 is an optical position detection sensor, but in other variants it can be an (electro-)mechanical position detection sensor.

図4において制御装置ECUは、反射された光の焦点平面SEをCCDチップ230の、反射された光を向いた画像センサ表面231上へ投影するために、第1及び/又は第2の操作ドライブ120、240を制御することによりアクロマート130とCCDチップ230の間の相対間隔を変位させるように、整えられている。 In FIG. 4, the control unit ECU controls the first and/or the second operating drive to project the focal plane SE of the reflected light onto the image sensor surface 231 of the CCD chip 230 which faces the reflected light. It is arranged so as to displace the relative distance between the achromat 130 and the CCD chip 230 by controlling 120 and 240.

1つの可能な場合において、半導体チップBの表面Oは、CCDチップ230の画像センサ表面231に対して実質的に平行である。制御装置ECUは、第1及び/又は第2の操作ドライブ120、240を、CCDチップ230の画像センサ表面231上へ焦点平面SEが投影されるように、制御する。 In one possible case, the surface O of the semiconductor chip B is substantially parallel to the image sensor surface 231 of the CCD chip 230. The control unit ECU controls the first and/or the second operating drive 120, 240 such that the focal plane SE is projected onto the image sensor surface 231 of the CCD chip 230.

その後CCDチップ230が半導体チップBの画像を記録した場合に、画像内に半導体チップBがシャープに結像されて、半導体チップBは可能な欠陥又は障害箇所について検査される。画像処理BVによって欠陥又は障害箇所が求められた場合に、画像得処理BVが半導体チップBに関する障害箇所情報を提供する。 When the CCD chip 230 subsequently records an image of the semiconductor chip B, the semiconductor chip B is sharply imaged in the image and the semiconductor chip B is inspected for possible defects or faults. When a defect or a fault location is obtained by the image processing BV, the image acquisition processing BV provides fault location information regarding the semiconductor chip B.

第1及び/又は第2の操作ドライブ120、240は、アクロマート130とCCDチップ230の間の相対間隔を数ミリ秒内で100μmだけ増大させ、あるいは縮小するように、整えられている。もっと正確に言うと、第1及び/又は第2の操作ドライブ120、240は、2から10ms内で、好ましくは約5ms内で相対間隔を100μmだけ変化させるように、整えられている。アクロマート130とCCDチップ230の間の相対間隔は、特に移動方向に沿って、アクロマート130及び/又はCCDチップ230のオーバーシュートが生じない、あるいは発生しないように、拡大され、あるいは縮小される。 The first and/or second manipulating drives 120, 240 are arranged to increase or decrease the relative spacing between the achromat 130 and the CCD chip 230 by 100 μm within a few milliseconds. More precisely, the first and/or the second operating drive 120, 240 are arranged to change the relative spacing by 100 μm within 2 to 10 ms, preferably within about 5 ms. The relative spacing between the achromat 130 and the CCD chip 230 is enlarged or reduced so that overshoot of the achromat 130 and/or CCD chip 230 does not occur or does not occur, especially along the direction of movement.

図4における半導体チップBは、CCDチップ230の画像センサ表面231に対して傾いているので、制御装置ECUには、アクロマート130とCCDチップ230の画像センサ表面231との間の相対間隔の調節によって、反射された光Lの焦点平面SEをCCDチップ230の画像センサ表面231上に実質的に完全に投影することは、不可能である。 Since the semiconductor chip B in FIG. 4 is tilted with respect to the image sensor surface 231 of the CCD chip 230, the control unit ECU needs to adjust the relative distance between the achromat 130 and the image sensor surface 231 of the CCD chip 230. It is not possible to project the focal plane SE of the reflected light L onto the image sensor surface 231 of the CCD chip 230 substantially completely.

画像処理BVは、CCDチップ230によって第1の画像BAを記録するように、整えられている。CCDチップ230によって記録された第1の画像BAに基づいて画像処理BVは、反射された光Lの焦点平面SEがCCDチップ230の画像センサ表面231上に実質的に完全に投影されているか、を定める。画像処理BVが、焦点平面SEがCCDチップ230の画像センサ表面231上に実質的に完全に投影されていない、と定めた場合には、画像処理BVは、第1の画像BAの第1の複数の画像領域B1、B2の第1の画像領域B1を定める。第1の画像領域B1において、反射された光Lの焦点平面SEの第1の部分領域がCCDチップ230の画像センサ表面231上に投影される。 The image processing BV is arranged so as to record the first image BA by the CCD chip 230. Based on the first image BA recorded by the CCD chip 230, the image processing BV indicates that the focal plane SE of the reflected light L is substantially completely projected onto the image sensor surface 231 of the CCD chip 230. To determine. If the image processing BV determines that the focal plane SE is not substantially completely projected onto the image sensor surface 231 of the CCD chip 230, then the image processing BV is the first image of the first image BA. A first image area B1 of the plurality of image areas B1 and B2 is defined. In the first image area B1, the first partial area of the focal plane SE of the reflected light L is projected onto the image sensor surface 231 of the CCD chip 230.

記録された第1の画像BAが、図5に図式的に示されており、その場合に実線を有する画像領域が、鮮明に結像された画像領域である。言い換えると、実線を有する画像領域は、反射された光Lの焦点平面SEの部分領域がCCDチップ230の画像センサ表面231上に投影された画像領域である。破線を有する画像領域は、鮮明でない画像領域、もしくは焦点平面SEの部分領域がCCDチップ230の画像センサ表面231上に投影されていない画像領域である。 The recorded first image BA is shown diagrammatically in FIG. 5, in which case the image area with a solid line is the sharply imaged image area. In other words, the image area having a solid line is an image area in which a partial area of the focal plane SE of the reflected light L is projected on the image sensor surface 231 of the CCD chip 230. The image area having a broken line is an image area that is not clear or an image area in which a partial area of the focal plane SE is not projected on the image sensor surface 231 of the CCD chip 230.

画像処理BVは、第1の画像BAに基づいて第1の多数の画像領域B1、B2の第2の画像領域B2を定め、それにおいて、反射された光Lの焦点平面SEの第2の部分領域はCCDチップ230の画像センサ表面231上に投影されていない。 The image processing BV defines a second image area B2 of the first plurality of image areas B1, B2 on the basis of the first image BA, in which the second part of the focal plane SE of the reflected light L is The area is not projected onto the image sensor surface 231 of the CCD chip 230.

次に画像処理BVは、制御信号を制御装置ECUへ提供する。制御装置ECUは、アクロマート130とCCDチップ230の間の相対間隔を調節するために、制御信号に基づいて第1及び/又は第2の操作ドライブ120、240を制御する。その場合に、反射された光Lの焦点平面SEの第2の部分がCCDチップ230の画像センサ表面231上に投影される。その場合に、反射された光Lの焦点平面SEの第2の部分領域がCCDチップ230の画像センサ表面231上に投影される。それに対して反射された光Lの焦点平面SEの第1の部分領域は、もはやCCDチップ230の画像センサ表面231上に投影されない。画像処理BVは、次に第2の画像BBを記録するためにCCDチップ230へ信号を送信する。 The image processing BV then provides a control signal to the control unit ECU. The control unit ECU controls the first and/or the second operating drive 120, 240 based on the control signal in order to adjust the relative distance between the achromat 130 and the CCD chip 230. In that case, the second part of the focal plane SE of the reflected light L is projected onto the image sensor surface 231 of the CCD chip 230. In that case, the second partial region of the focal plane SE of the reflected light L is projected onto the image sensor surface 231 of the CCD chip 230. The first partial region of the focal plane SE of the reflected light L, on the other hand, is no longer projected on the image sensor surface 231 of the CCD chip 230. The image processing BV then sends a signal to the CCD chip 230 to record the second image BB.

図6に図式的に示されるように、画像処理BVは第2の画像BBに基づいて第2の画像BBの第2の複数の画像領域B3、B4の第3の画像領域B3を定める。第3の画像領域B3においては、反射された光Lの焦点平面SEの第1の部分領域はCCDチップ230の画像センサ表面231上へ投影されていない。次に画像処理BVは、第2の画像BBの第2の多数の画像領域B3、B4の第4の画像領域B4を定める。第4の画像領域B4においては、反射された光Lの焦点平面SEの第2の部分領域がCCDチップ230の画像センサ表面231上へ投影されている。したがって第2の画像BBにおいては、第4の画像領域B4が半導体チップBの1つのセクションを鮮明に複写する。画像領域の第1及び第2の多数は、2つの数に限定されない。 As shown diagrammatically in FIG. 6, the image processing BV defines a second image region B3 of the second image BB, a third image region B3 of the second plurality of image regions B3, based on the second image BB. In the third image area B3, the first partial area of the focal plane SE of the reflected light L is not projected onto the image sensor surface 231 of the CCD chip 230. The image processing BV then defines a fourth image area B4 of the second plurality of image areas B3, B4 of the second image BB. In the fourth image area B4, the second partial area of the focal plane SE of the reflected light L is projected onto the image sensor surface 231 of the CCD chip 230. Therefore, in the second image BB, the fourth image area B4 clearly copies one section of the semiconductor chip B. The first and second majority of image areas are not limited to two numbers.

第1の画像BAの第1と第2の画像領域B1、B2は、好ましい形態において、それぞれ半導体チップBの一部を複写し、その部分は第2の画像BBの第3と第4の画像領域B3、B4内の半導体チップBの部分に実質的に相当する。したがって第1と第2の画像BA、BBの画像領域B1、B2、B3、B4において、半導体チップBの同じ部分が複写されることが、保証される。 In the preferred form, the first and second image areas B1, B2 of the first image BA respectively copy a part of the semiconductor chip B, which part is the third and fourth image of the second image BB. It substantially corresponds to the portion of the semiconductor chip B in the regions B3 and B4. Therefore, it is guaranteed that the same part of the semiconductor chip B is copied in the image areas B1, B2, B3, B4 of the first and second images BA, BB.

第1の画像BAの第1と第2の画像領域B1、B2及び第2の画像BBの第3と第4の画像領域B3、B4は、図5から7において互いに連続する画像領域として示されている。代替的に、第1の画像BAの第1と第2の画像領域B1、B2及び第2の画像BBの第3と第4の画像領域B3、B4は、少なくとも部分的に交差することができる。 The first and second image areas B1, B2 of the first image BA and the third and fourth image areas B3, B4 of the second image BB are shown as consecutive image areas in FIGS. 5 to 7. ing. Alternatively, the first and second image areas B1, B2 of the first image BA and the third and fourth image areas B3, B4 of the second image BB can at least partially intersect. ..

画像処理BVは、第1の画像BAから第1の画像領域B1を、第2の画像BBからは第4の画像領域B4を切り取るように、整えられている。切り取った画像領域B1、B4に基づいて、画像処理BVは、第3の画像BCを形成する。第3の画像BCは、半導体チップBの完全に鮮明な複写である。というのは、第1の画像BAの第1の画像領域B1において、かつ第2の画像BBの第4の画像領域B4においては、半導体チップBが鮮明に複写されているからである。 The image processing BV is arranged so as to cut out the first image area B1 from the first image BA and the fourth image area B4 from the second image BB. The image processing BV forms the third image BC based on the cut-out image regions B1 and B4. The third image BC is a perfectly sharp copy of the semiconductor chip B. This is because the semiconductor chip B is clearly copied in the first image area B1 of the first image BA and the fourth image area B4 of the second image BB.

画像処理BVは、さらに、第1の画像B2の第1の画像領域B1及び/又は第2の画像BBの第4の画像領域B4及び/又は第3の画像BCに基づいて、半導体チップBが少なくとも1つの欠陥又は障害箇所を有しているかを定めるように整えられている。半導体チップBが欠陥又は障害箇所を有している場合に、画像処理BVは障害箇所情報を提供する。 The image processing BV further includes the semiconductor chip B based on the first image region B1 of the first image B2 and/or the fourth image region B4 and/or the third image BC of the second image BB. It is arranged to determine if it has at least one defect or fault. When the semiconductor chip B has a defect or a defective portion, the image processing BV provides the defective portion information.

図8から10には、付属の被写界深度STを有する焦点平面SEが示されている。半導体チップBを鮮明に記録するためには、焦点平面SEがCCDチップ230の画像センサ表面231上に実質的に投影されなければならない。焦点平面SEは所定の被写界深度STを有しているので、焦点平面SEがCCDチップ230の画像センサ表面231に対して完全に平行でない場合でも、半導体チップBは鮮明に結像される。同様に、焦点平面SEがCCDチップ230の画像センサ表面231の前又は後ろの所定の間隔内で投影されている場合でも、半導体チップBは鮮明に結像される。その場合に被写界深度STは、その内部で対象、ここでは半導体チップB、が充分鮮明に結像される間隔を記述している。 8 to 10 a focal plane SE with an attached depth of field ST is shown. In order to clearly record the semiconductor chip B, the focal plane SE must be substantially projected onto the image sensor surface 231 of the CCD chip 230. Since the focal plane SE has a predetermined depth of field ST, the semiconductor chip B is sharply imaged even when the focal plane SE is not perfectly parallel to the image sensor surface 231 of the CCD chip 230. .. Similarly, even when the focal plane SE is projected within a predetermined distance in front of or behind the image sensor surface 231 of the CCD chip 230, the semiconductor chip B is sharply imaged. In that case, the depth of field ST describes the interval within which the object, here the semiconductor chip B, is imaged sufficiently sharply.

図8に示すように、焦点平面SEはCCDチップ230の画像センサ表面231に対して平行かつ光学軸OAに沿って画像センサ表面231に対して離隔して投影されている。焦点平面SEの被写界深度STは、図8において充分に大きいので、反射された光Lのこのように投影された焦点平面SEの記録された画像は、鮮明である。 As shown in FIG. 8, the focal plane SE is projected parallel to the image sensor surface 231 of the CCD chip 230 and spaced from the image sensor surface 231 along the optical axis OA. The depth of field ST of the focal plane SE is sufficiently large in FIG. 8 that the recorded image of the thus projected focal plane SE of the reflected light L is sharp.

図9と10には、傾いた半導体チップBの場合が、図式的に示されている。半導体チップBの表面OはCCDチップ230の画像センサ表面231に対して傾いているので、反射された光Lの焦点平面SEもCCDチップ230の画像センサ表面231に対して傾いている。 The case of a tilted semiconductor chip B is shown diagrammatically in FIGS. 9 and 10. Since the surface O of the semiconductor chip B is tilted with respect to the image sensor surface 231 of the CCD chip 230, the focal plane SE of the reflected light L is also tilted with respect to the image sensor surface 231 of the CCD chip 230.

図9においては、焦点平面SEの第1の部分領域がCCDチップ230の画像センサ表面231上へ投影されているので、第1の記録された画像BAにおいて、第1の画像領域B1が半導体チップBの鮮明な結像を示している。焦点平面SEはCCDチップ230の画像センサ表面231と部分的にしか交わっていないが、第1の画像BAの第1の画像領域B1は被写界深度STのおかげで鮮明に結像されている。第2の画像領域B2においては、被写界深度STを有する焦点平面SEの第2の部分領域はもはやCCDチップ230の画像センサ表面231上に投影されていないので、第1の画像BAの第2の画像領域B2は、半導体チップBの不鮮明な結像を表している。 In FIG. 9, the first partial area of the focal plane SE is projected onto the image sensor surface 231 of the CCD chip 230, so that in the first recorded image BA, the first image area B1 is the semiconductor chip. A clear image of B is shown. The focal plane SE only partially intersects the image sensor surface 231 of the CCD chip 230, but the first image area B1 of the first image BA is sharply imaged due to the depth of field ST. .. In the second image area B2, the second partial area of the focal plane SE with the depth of field ST is no longer projected on the image sensor surface 231 of the CCD chip 230, so that the first image BA of the first image BA is The second image area B2 represents a blurred image of the semiconductor chip B.

画像処理BVの制御指令に応じて制御装置ECUは、アクロマート130とCCDチップ230の間の相対間隔を調節するために、第1及び/又は第2の操作ドライブ120、240を制御する。その場合に焦点平面SEは、CCDチップ230の画像センサ表面231に対して変位されるので、焦点平面SEの第2の部分領域がCCDチップ230の画像センサ表面231上に投影される。 In response to the control command of the image processing BV, the control unit ECU controls the first and/or second operation drive 120, 240 to adjust the relative distance between the achromat 130 and the CCD chip 230. In that case, the focal plane SE is displaced with respect to the image sensor surface 231 of the CCD chip 230, so that the second partial area of the focal plane SE is projected onto the image sensor surface 231 of the CCD chip 230.

図10に図式的に示すように、第2の記録された画像BBにおいては、第4の画像領域B4において、反射された光Lの被写界深度STを有する焦点平面SEの第2の部分領域がCCDチップ230の画像センサ表面231上へ投影される。第2の画像BBにおいても焦点平面SEはCCDチップ230の画像センサ表面231と部分的にしか交わっていないので、被写界深度STのおかげで第2の画像BCの第4の画像領域B4が半導体チップBの1つの部分を鮮明に再現している。それに対して第2の画像BCの第3の画像領域B3においては、被写界深度STを有する焦点平面SEの第1の部分領域は、もはやCCDチップ230の画像センサ表面231上に投影されていない。したがって第2の画像BBの第3の画像領域B3は、半導体チップBの一部を不鮮明に再現する。 As schematically shown in FIG. 10, in the second recorded image BB, in the fourth image area B4, the second part of the focal plane SE having the depth of field ST of the reflected light L. The area is projected onto the image sensor surface 231 of the CCD chip 230. In the second image BB as well, the focal plane SE only partially intersects the image sensor surface 231 of the CCD chip 230, so that the fourth image area B4 of the second image BC is reduced by the depth of field ST. One part of the semiconductor chip B is clearly reproduced. On the other hand, in the third image area B3 of the second image BC, the first partial area of the focal plane SE with the depth of field ST is no longer projected on the image sensor surface 231 of the CCD chip 230. Absent. Therefore, the third image area B3 of the second image BB reproduces a part of the semiconductor chip B indistinctly.

光学的なコンポーネント検出システム200の先行する説明に対応して、少なくとも1つの半導体チップBの表面を検出する方法を説明する。 Corresponding to the preceding description of the optical component detection system 200, a method for detecting the surface of at least one semiconductor chip B will be described.

1つのステップにおいて、半導体チップBがカメラ装置200に対して方向づけされる。次のステップにおいて、カメラ装置220によって半導体チップBの第1の表面Oが検出される。 In one step, the semiconductor chip B is oriented with respect to the camera device 200. In the next step, the camera device 220 detects the first surface O of the semiconductor chip B.

次のステップにおいて、CCDチップ230によって、半導体チップBの表面Oで反射された光Lが受信される。他のステップにおいて、長手方向に弾性的に撓むホルダ140によってアクロマート130が反射された光Lの光路内に保持される。長手方向は、アクロマート130の光学軸OAに対して平行に方位づけされている。次のステップにおいて、光学軸OAに沿ってアクロマート130をCCDチップ230に対して変位させるために、CCDチップ230とアクロマート130の間の相対間隔が調節される。 In the next step, the light L reflected by the surface O of the semiconductor chip B is received by the CCD chip 230. In another step, the achromat 130 is held in the optical path of the reflected light L by the holder 140 that elastically bends in the longitudinal direction. The longitudinal direction is oriented parallel to the optical axis OA of the achromat 130. In the next step, the relative spacing between the CCD chip 230 and the achromat 130 is adjusted to displace the achromat 130 with respect to the CCD chip 230 along the optical axis OA.

図11には、時間−速度(t、v)ダイアグラムが示されている。この種のダイアグラムを用いて制御装置ECUは、アクロマート130とCCDチップ230の間の相対間隔を調節するように、整えられている。 A time-velocity (t,v) diagram is shown in FIG. Using this kind of diagram, the control unit ECU is arranged to adjust the relative distance between the achromat 130 and the CCD chip 230.

時点t0で、第1及び/又は第2の操作ドライブ120、240によってアクロマート130とCCDチップ230の間の相対間隔が調節される。その場合にアクロマート130及び/又はCCDチップ230は、第1及び/又は第2の操作ドライブ120、240によって第1の期間(t0−t1)の半分内であらかじめ定められた速度v1へ加速される。半分の期間(t0−t1)後に、アクロマート130及び/又はCCDチップ230は、第1及び/又は第2の操作ドライブ120、240によって制動される。 At time t0, the relative distance between the achromat 130 and the CCD chip 230 is adjusted by the first and/or second operating drive 120, 240. In that case the achromat 130 and/or the CCD chip 230 are accelerated by the first and/or the second operating drive 120, 240 to a predetermined speed v1 within half of the first period (t0-t1). .. After half the period (t0-t1), the achromat 130 and/or the CCD chip 230 are braked by the first and/or the second operating drive 120,240.

アクロマート130及び/又はCCDチップ230の変位後に、図9に示すように焦点平面SEがCCDチップ230の画像センサ表面231上に投影される。アクロマート130及び/又はCCDチップ230が停止した後に、第2の期間(t1−t2)内で第1の画像BAが記録される。 After displacement of the achromat 130 and/or the CCD chip 230, the focal plane SE is projected onto the image sensor surface 231 of the CCD chip 230, as shown in FIG. After the achromat 130 and/or the CCD chip 230 are stopped, the first image BA is recorded within the second period (t1-t2).

その後、第1の画像BAに基づいて画像処理BVによって第1と第2の画像領域B1、B2が定められる。第1の画像BAの場合に、第1の画像領域B1において焦点平面SEの第1の部分領域がCCDチップ230の画像センサ表面231上へ投影される。それに対して第2の画像領域B2においては、焦点平面SEの第2の部分はCCDチップ230の画像センサ表面231上へ投影されない。CCDチップ230は、画像を記録して読み出すために、記録の際の光状況及びチップ大きさと、読みだし期間を調節する読みだし速度(pixel/s)に従って、6から12ms(たとえば8から10ms)の時間を必要とする。 After that, the first and second image areas B1 and B2 are defined by the image processing BV based on the first image BA. In the case of the first image BA, the first partial region of the focal plane SE in the first image region B1 is projected onto the image sensor surface 231 of the CCD chip 230. On the other hand, in the second image area B2, the second part of the focal plane SE is not projected onto the image sensor surface 231 of the CCD chip 230. The CCD chip 230 records 6 to 12 ms (for example, 8 to 10 ms) in order to record and read an image according to the light condition and the chip size at the time of recording and the reading speed (pixel/s) for adjusting the reading period. Need time.

制御装置ECUは、画像処理BVの制御指令に応じて第3の期間(t2−t3)の開始に続いて、アクロマート130とCCDチップ230の間の相対間隔を調節するために、第1及び/又は第2の操作ドライブ120、240を制御する。その場合に相対間隔は、焦点平面SEの第2の部分領域が画像センサ230の画像センサ表面231上に投影されるように、調節される。 The control unit ECU, following the start of the third period (t2-t3) in response to the control command of the image processing BV, adjusts the relative distance between the achromat 130 and the CCD chip 230 to the first and/or Alternatively, the second operation drive 120, 240 is controlled. The relative spacing is then adjusted such that the second partial region of the focal plane SE is projected onto the image sensor surface 231 of the image sensor 230.

したがって第3期間(t2−t3)の半分までにアクロマート130及び/又はCCDチップ230があらかじめ定められた速度まで加速される。第3期間(t2−t3)の半分の後にアクロマート130及び/又はCCDチップ230が制動される。アクロマート130及び/又はCCDチップ230が静止するとすぐに、CCDチップ230によって第2の画像BBが記録される。アクロマート130とCCDチップ230の間の相対間隔が減少又は増大される距離区間は、70から150μmの領域内にあり、好ましくは100μmである。この距離区間は、期間2msから10msで、好ましくは10ms以内で移動される。アクロマート130とCCDチップ230の間の相対間隔の移動が行われる距離区間は、使用される第1及び/又は第2の光学的に有効な部材130、160及びその光学的特性に依存している。 Therefore, the achromat 130 and/or the CCD chip 230 are accelerated to a predetermined speed by half of the third period (t2-t3). After half of the third period (t2-t3), the achromat 130 and/or the CCD chip 230 is braked. The second image BB is recorded by the CCD chip 230 as soon as the achromat 130 and/or the CCD chip 230 is stationary. The distance section in which the relative distance between the achromat 130 and the CCD chip 230 is reduced or increased lies in the region of 70 to 150 μm, preferably 100 μm. This distance section is moved within a period of 2 ms to 10 ms, preferably within 10 ms. The distance interval in which the relative distance movement between the achromat 130 and the CCD chip 230 takes place depends on the first and/or second optically active member 130, 160 used and its optical properties. ..

画像処理BVは、さらに、第2の画像BBの記録後に画像センサ230とアクロマート130の間の相対間隔を初期長さへ変位させるために、他の操作指令を第1及び/又は第2の操作ドライブ120、240へ提供するように、整えられている。 The image processing BV further issues another operation command to the first and/or second operation in order to displace the relative distance between the image sensor 230 and the achromat 130 to the initial length after recording the second image BB. It is arranged to serve the drives 120, 240.

他の変形例において、CCDチップ230によってそれぞれ3つの画像領域を有する3つの画像が記録される。3つの画像領域の1つにおいて、それぞれ焦点平面SEの部分領域がCCDチップ230の画像センサ表面231上へ投影され、他の2つの画像領域においては、焦点平面SEはCCDチップ230の画像センサ表面231上に投影されない。3つの画像記録のシーケンスは、2つの画像記録のシーケンスと同様に機能するが、それぞれ3つの画像領域を有する3つの画像によって行われる。3つの画像を記録し、かつアクロマート130とCCDチップ230の間の相対間隔をそれに応じて調節するために、光学的なコンポーネント検出システムは、80から120ms、好ましくは100msの時間を必要とする。 In another variation, the CCD chip 230 records three images, each having three image areas. In one of the three image areas, a partial area of the focal plane SE is projected onto the image sensor surface 231 of the CCD chip 230, and in the other two image areas the focal plane SE is the image sensor surface of the CCD chip 230. 231 is not projected. The sequence of three image recordings works in the same way as the sequence of two image recordings, but with three images each having three image areas. In order to record the three images and adjust the relative spacing between the achromat 130 and the CCD chip 230 accordingly, the optical component detection system requires a time of 80 to 120 ms, preferably 100 ms.

第1の変形例において収容部150は、半導体チップBをカメラ装置220の前に次のように、すなわち焦点平面SEが少なくとも部分的にCCDチップ230の画像センサ表面231上に投影されるように、位置決めするように、整えられている。したがって画像処理BVは、CCDチップ230によって最初の第1の画像BAを記録する。次に画像処理BVが、第1と第2の画像領域B1、B2を定めて、時点t0の前あるいはそのときに制御指令を制御装置ECUへ送信する。制御装置ECUは制御指令に基づいて、第1の期間(t0−t1)の半分内でアクロマート130及び/又はCCDチップ230を速度v1に加速するために、第1及び/又は第2の操作ドライブ120、240を制御する。第1の周期(t0−t1)の半分の後にアクロマート130及び/又はCCDチップ230は制動される。アクロマート130及び/又はCCDチップ230が静止した場合に、CCDチップ230によって第2の画像BBが記録される。 In the first variant, the receiving part 150 allows the semiconductor chip B to be projected in front of the camera device 220 as follows, that is to say the focal plane SE is at least partially projected onto the image sensor surface 231 of the CCD chip 230. , Arranged to be positioned. Therefore, the image processing BV records the first first image BA by the CCD chip 230. Next, the image processing BV defines the first and second image regions B1 and B2, and transmits a control command to the control unit ECU before or at time t0. Based on the control command, the control unit ECU uses the first and/or the second operating drive to accelerate the achromat 130 and/or the CCD chip 230 to the speed v1 within half of the first period (t0-t1). Control 120 and 240. After half of the first period (t0-t1), the achromat 130 and/or the CCD chip 230 are braked. The second image BB is recorded by the CCD chip 230 when the achromat 130 and/or the CCD chip 230 is stationary.

図12と13には、それぞれ時間−合焦距離−ダイアグラムが示されており、それにおいて種々の時点で異なるステップ310から360及び410から460が実施され、その場合に互いに相当するステップには同一の参照符号が設けられている。さらに図12と13おいて半導体チップBの3つの画像が記録される。1つの画像が3つの画像領域に分割され、その場合に1つの画像領域のみがそれぞれ半導体チップBの部分領域の鮮鋭な結像を有する。したがってそれぞれ1つの画像領域のみが、被写界深度の領域内にある。しかし、記録される画像の数は、この数に限定されない。さらに他の変形例において、より多くの画像領域が完全に、あるいは少なくとも部分的に被写界深度内にあり、かつ/又はそれと交差することができる。 12 and 13 respectively show a time-focus distance diagram in which different steps 310 to 360 and 410 to 460 are carried out at different times, the steps corresponding to one another being identical. Reference numeral is provided. Further, in FIGS. 12 and 13, three images of the semiconductor chip B are recorded. One image is divided into three image areas, in which case only one image area has a sharp image of the partial area of the semiconductor chip B, respectively. Therefore, only one image area each is within the depth of field area. However, the number of images recorded is not limited to this number. In yet other variations, more image areas may be wholly, or at least partially, within the depth of field and/or intersect with it.

図12において、半導体チップBは時点t0の前に収容部150によってカメラ装置220の前に位置決めされている。時点t0後に、ステップ310においてCCD230が半導体チップBの第1の画像を記録する。ステップ310に続いてステップ311において、画像処理BVが第1の画像内で第1の多数の画像領域の第1の画像領域を定め、それにおいて反射された光の焦点平面SEの第1の部分領域がCCDセンサ230の画像センサ表面231上に投影されている。さらに画像処理BVは、ステップ311内で第1の画像の第2と第3の画像領域を定め、それにおいてそれぞれ反射された光Lの焦点平面SEの第2と第3の部分領域はCCDセンサ230の画像センサ表面231上に投影されない。 In FIG. 12, the semiconductor chip B is positioned in front of the camera device 220 by the housing 150 before time t0. After the time point t0, in step 310, the CCD 230 records the first image of the semiconductor chip B. Following step 310, in step 311, the image processing BV defines a first image area of a first plurality of image areas in the first image, in which a first portion of a focal plane SE of light reflected. The area is projected onto the image sensor surface 231 of the CCD sensor 230. Furthermore, the image processing BV defines in step 311 the second and third image areas of the first image, in which the second and third partial areas of the focal plane SE of the light L reflected respectively are the CCD sensor. It is not projected onto the image sensor surface 231 of 230.

ステップ310で第1の画像を記録した後の所定の期間後に、画像処理BVが第1及び/又は第2の操作ドライブ120、240へ操作指令を提供する。ステップ320において、第1及び/又は第2の操作ドライブ120、240がCCDチップ230とアクロマート130の間の相対間隔をあらかじめ定められた距離長さだけ調節する。したがって画像処理BVによって第1、第2、第3の画像領域を定める間に、CCDチップ230とアクロマート130の間の相対間隔が調節される。 After a predetermined period of time after recording the first image in step 310, the image processing BV provides the operation command to the first and/or second operation drive 120, 240. In step 320, the first and/or second operating drive 120, 240 adjusts the relative distance between the CCD chip 230 and the achromat 130 by a predetermined distance length. Therefore, the relative distance between the CCD chip 230 and the achromat 130 is adjusted while defining the first, second and third image areas by the image processing BV.

あらかじめ定められた距離長さは、アクロマート130、レンズ160の光学的特性及び/又はコンポーネントBの表面Oの寸法に依存している。好ましくはあらかじめ定められた距離長さは、被写界深度STによってあらかじめ定められるので、あらかじめ定められた距離長さは被写界深度STよりも小さく、それと等しくあるいはそれより大きい。図12に示すように、あらかじめ定められた距離区間を移動する速度は、最初は低速であり、その後著しく上昇する。所定の部分距離区間が移動された後に、速度はまず著しく、そしてその後より軽く低下される。したがって第1及び/又は第2の操作ドライブ120、240によるアクロマート130及び/又はCCDチップ230の唐突な移動と停止及びそれに伴って移動方向に沿ったオーバーシュートが回避される。 The predetermined distance length depends on the optical properties of the achromat 130, the lens 160 and/or the dimensions of the surface O of the component B. Preferably, the predetermined distance length is predetermined by the depth of field ST, so that the predetermined distance length is smaller than, equal to or larger than the depth of field ST. As shown in FIG. 12, the speed of moving in the predetermined distance section is initially low, and then significantly increases. After a given subdistance section has been moved, the speed is reduced significantly first and then lighter. Therefore, abrupt movement and stop of the achromat 130 and/or the CCD chip 230 by the first and/or second operation drive 120, 240 and accompanying overshoot along the movement direction are avoided.

ステップ320における相対間隔の調節の終了後に、ステップ330においてCCDチップ230によって第2の画像が記録される。ステップ330に続いてステップ331において画像処理BVが、第2の画像内で第2の多数の画像領域の第4と第6の画像領域を定め、それにおいて反射された光Lの焦点平面SEの第1と第3の部分領域は、CCDチップ230の画像センサ表面231上に投影されていない。さらにステップ331において画像処理BVは、第2の画像の第5の画像領域を定め、それにおいて反射された光Lの焦点平面SEの第2の部分領域がCCDチップ230の画像センサ表面231上に投影されている。 After the adjustment of the relative spacing in step 320 is completed, the second image is recorded by the CCD chip 230 in step 330. Following step 330, in step 331 the image processing BV defines in the second image the fourth and sixth image areas of the second plurality of image areas, in which the focal plane SE of the light L reflected. The first and third partial areas are not projected on the image sensor surface 231 of the CCD chip 230. Furthermore, in step 331 the image processing BV defines a fifth image area of the second image, the second partial area of the focal plane SE of the light L reflected therein being on the image sensor surface 231 of the CCD chip 230. It is projected.

ステップ330において第2の画像の記録が行われた後に、画像処理が再び制御指令を第1及び/又は第2の操作ドライブ120、240へ提供する。ステップ340において、第1及び/又は第2の操作ドライブ120、240がCCDチップ230とアクロマート130の間の相対間隔をあらかじめ定められた距離長さだけ調節する。他の変形例において、ステップ340内でCCDチップ230とアクロマート130の間の相対間隔を、ステップ320内のあらかじめ定められた距離長さよりも大きい、あるいは小さい、第2のあらかじめ定められた距離長さだけ調節することができる。同様に画像処理BVによって第4、第5及び第6の画像領域を定める間、CCDチップ230とアクロマート130の間の相対間隔が調節される。 After the recording of the second image in step 330, the image processing again provides control instructions to the first and/or second operating drives 120, 240. In step 340, the first and/or second operating drive 120, 240 adjusts the relative distance between the CCD chip 230 and the achromat 130 by a predetermined distance length. In another variation, the relative distance between the CCD chip 230 and the achromat 130 in step 340 is greater than or less than the predetermined distance length in step 320 by a second predetermined distance length. Can only be adjusted. Similarly, the image processing BV adjusts the relative spacing between the CCD chip 230 and the achromat 130 while defining the fourth, fifth and sixth image areas.

ステップ340において相対間隔の調節が終了した後に、ステップ350においてCCDチップ230によって第3の画像が記録される。第3の画像の記録の成功に続いて、ステップ351において画像処理BVが第3の画像の第7と第8画像領域を定め、それにおいて反射された光Lの焦点平面SEの第1と第2の部分領域は、CCDチップ230の画像センサ表面231上に投影されていない。さらに画像処理BVは、ステップ351において第3の画像の第9の画像領域を定め、それにおいて反射された光Lの焦点平面SEの第3の部分領域がCCDチップ230の画像センサ表面231上に投影されている。 After the adjustment of the relative distance is completed in step 340, the third image is recorded by the CCD chip 230 in step 350. Following the successful recording of the third image, in step 351 the image processing BV defines the seventh and eighth image areas of the third image, in which the first and the first of the focal plane SE of the light L reflected. The second partial area is not projected on the image sensor surface 231 of the CCD chip 230. Furthermore, the image processing BV defines in step 351 a ninth image area of the third image, in which the third partial area of the focal plane SE of the light L reflected on the image sensor surface 231 of the CCD chip 230. It is projected.

ステップ350において第3の画像が記録された後に、画像処理BVは他の制御指令を第1及び/又は第2の操作ドライブ120、240へ提供する。第1及び/又は第2の操作ドライブ120、240は、ステップ360内でCCDチップ230とアクロマート130の間の相対間隔をその初期長さに調節する。同様に画像処理BVによって第7、第8及び第9の画像領域が定められる間、CCDチップ230とアクロマート130の間の相対間隔が調節される。CCDチップ230とアクロマート130の間の相対間隔をその初期長さに調節することは、ステップ320と340における相対間隔の調節と同様に、もちろん逆方向において、実施される。 After the third image is recorded in step 350, the image processing BV provides another control command to the first and/or second operating drive 120, 240. The first and/or second operating drive 120, 240 adjusts the relative spacing between the CCD chip 230 and the achromat 130 to its initial length in step 360. Similarly, the relative distance between the CCD chip 230 and the achromat 130 is adjusted while the image processing BV defines the seventh, eighth, and ninth image areas. Adjusting the relative distance between the CCD chip 230 and the achromat 130 to its initial length is, of course, performed in the opposite direction, as is the adjustment of the relative distance in steps 320 and 340.

ステップ360の後に画像処理BVは、互いに連続するステップ312、332、352において第1、第2及び第3の画像のそれぞれ所定の画像領域に基づいて、半導体チップBが欠陥を有するか、を検査する。 After step 360, the image processing BV inspects whether the semiconductor chip B has a defect based on the respective predetermined image areas of the first, second and third images in consecutive steps 312, 332 and 352. To do.

他の変形例において、画像処理BVはステップ360、312、332、352の後にステップ353において第4の画像を形成することができ、それにおいて、第1、第2及び第3の画像の第1、第5及び第9の画像領域を切り取り、かつ継ぎ合わせる。 In another variation, the image processing BV can form a fourth image in step 353 after steps 360, 312, 332, 352, where the first of the first, second and third images. , The fifth and ninth image areas are cropped and spliced together.

他の変形例において、画像処理BVは、ステップ330、331、340、350、351、360の後にステップ311を実施する。さらに画像処理BVは、ステップ340、350、351、360の後にステップ331を実施し、かつ/又はステップ312、332のいずれかの後にステップ351を実施することができる。 In another modification, the image processing BV performs step 311 after steps 330, 331, 340, 350, 351, 360. Further, the image processing BV may perform step 331 after steps 340, 350, 351, 360 and/or perform step 351 after any of steps 312, 332.

したがって、画像処理と半導体チップBの画像の検査を画像記録のプロセスから切り離すことが、可能である。半導体チップBの画像の記録が画像処理と画像の検査から独立していることによって画像記録のプロセスをより少ないステップに削減することができる。したがってコンポーネントあたりの画像記録得の期間が減少され、同じ時間内でより大きい数のコンポーネント及びそれに応じた画像記録を達成することができる。 Therefore, it is possible to separate the image processing and the inspection of the image of the semiconductor chip B from the image recording process. Since the image recording of the semiconductor chip B is independent of the image processing and the image inspection, the image recording process can be reduced to a smaller number of steps. Therefore, the period of image recording gain per component is reduced, and a larger number of components and corresponding image recording can be achieved in the same time.

図13において、半導体チップBは時点t0の前に、カメラ装置220の前に位置決めされている。時点t0の後にステップ410においてCCDチップによって第1の画像が記録されて、画像処理BVへ提供される。ステップ410の間画像処理BVは、CCDチップ230とアクロマート130の間の相対間隔をあらかじめ定められた速度で調節するために、第1及び/又は第2の操作ドライブ120、240へ制御指令を提供する。第1及び/又は第2の操作ドライブ120、240は、CCDチップ230とアクロマート130の間の相対間隔を、第1の画像の記録がまだ実施されている間にすでに調節する。 In FIG. 13, the semiconductor chip B is positioned in front of the camera device 220 before time t0. After time t0, the first image is recorded by the CCD chip in step 410 and provided to the image processing BV. During step 410, the image processing BV provides a control command to the first and/or second operating drive 120, 240 to adjust the relative distance between the CCD chip 230 and the achromat 130 at a predetermined speed. To do. The first and/or the second operating drive 120, 240 already adjust the relative distance between the CCD chip 230 and the achromat 130 while the first image recording is still being performed.

CCDチップ230とアクロマート130の間の相対間隔があらかじめ定められた速度で調節される時点及びあらかじめ定められた速度は、アクロマート130、レンズ160の光学的特性、被写界深度ST、コンポーネントBの表面Oの寸法、アクロマート130及び/又はレンズ160及び/又は画像センサ230の質量及び、第1及び/又は第2の操作ドライブ120、240によるこれらの応答挙動に合わせられる。被写界深度がたとえば70μmの大きさである場合に、第1の画像の記録の間、焦点平面SEは最大70μmだけ移動させることができる。したがって記録される画像の画像領域上で半導体チップBの部分領域の鮮明な結像が保証される。 The time when the relative distance between the CCD chip 230 and the achromat 130 is adjusted at a predetermined speed, and the predetermined speed depends on the optical characteristics of the achromat 130, the lens 160, the depth of field ST, and the surface of the component B. The dimensions of O, the mass of the achromat 130 and/or the lens 160 and/or the image sensor 230, and their responsive behavior by the first and/or second manipulating drive 120, 240 are adapted. The focal plane SE can be moved by a maximum of 70 μm during the recording of the first image, if the depth of field is for example of the order of 70 μm. Therefore, a clear image formation of the partial area of the semiconductor chip B is guaranteed on the image area of the recorded image.

図13において、画像が形成される走行距離に沿った、あらかじめ定められた速度は一定に維持される。他の変形例において、CCDチップ230とアクロマート130の間の相対間隔を調節する速度は、あらかじめ定められた速度領域内に、あるいは少なくとも2つの異なる速度の間で変化することができる。 In FIG. 13, a predetermined speed along the traveling distance on which an image is formed is kept constant. In other variations, the rate of adjusting the relative spacing between the CCD chip 230 and the achromat 130 can be varied within a predetermined velocity range, or between at least two different rates.

焦点平面SEがあらかじめ定められた距離長さだけ、かつ/又はあらかじめ定められた時間の間変位された後に、ステップ430において第2の画像がCCDチップ230によって記録される。第2の画像の記録とは関係なく、CCDチップ230とアクロマート130の間の相対間隔があらかじめ定められた速度で調節される。他の変形例において、第2の画像は、あらかじめ定められた焦点平面位置に達した場合に、記録される。 After the focal plane SE has been displaced by a predetermined distance length and/or for a predetermined time, a second image is recorded by the CCD chip 230 in step 430. Regardless of the recording of the second image, the relative spacing between the CCD chip 230 and the achromat 130 is adjusted at a predetermined rate. In another variant, the second image is recorded when a predetermined focal plane position is reached.

焦点平面SEがさらにあらかじめ定められた距離長さだけ、かつ/又はあらかじめ定められた時間の間変位された後に、ステップ450において第3の画像がCCDチップ230によって記録される。第2の画像の記録の場合と同様に、第3の画像の記録の間も、CCDチップ230とアクロマート130の間の相対間隔はあらかじめ定められた速度で調節される。他の変形例において、あらかじめ定められた速度は第3の画像の記録の間に低下されて、ついにはCCDチップ230とアクロマート130の間の相対間隔は、もはや調節されない。 A third image is recorded by the CCD chip 230 in step 450 after the focal plane SE is further displaced by a predetermined distance length and/or for a predetermined time. Similar to the case of recording the second image, the relative distance between the CCD chip 230 and the achromat 130 is adjusted at a predetermined speed during the recording of the third image. In another variant, the predetermined speed is reduced during the recording of the third image and finally the relative distance between the CCD chip 230 and the achromat 130 is no longer adjusted.

ステップ311、312、331、332、351、352、353、360は、図12についてすでに説明したように実施することができる。 Steps 311, 312, 331, 332, 351, 352, 353, 360 can be performed as already described for FIG.

図13によれば、アクロマート130及び/又は画像センサ230は、第1、第2及び第3の画像が記録される間に、一回だけ加速され、かつ停止される。その都度の停止と新たな加速は回避されるので、コンポーネントあたりの画像記録のための期間はさらに削減される。同様に新たな加速と停止による光学的なコンポーネント検出システムの振動が回避される。 According to FIG. 13, the achromat 130 and/or the image sensor 230 are accelerated and stopped only once during the recording of the first, second and third images. Since each stop and new acceleration is avoided, the period for image recording per component is further reduced. Similarly, vibrations of the optical component detection system due to new accelerations and stops are avoided.

特開2016−128781号は、電子コンポーネントを調査する装置を教示している。この装置は第1と第2の画像記録手段を有しており、それらが電子コンポーネントの様々な領域の画像を記録し、その場合にこれらの領域は、矩形の平行六面体の2つの異なる領域である。
独国特許出願公開第102011089055号明細書からは、シャフトを有する器具が知られており、その場合にシャフトの一端に画像記録装置及び操作ドライブによって線形に変位可能なレンズが配置されている。レンズがランナーに固定されており、そのランナーが円筒状のスライドパイプ内で変位方向に沿って変位可能である。操作ドライブが2つのコイルを有しており、それらのコイルはスライドパイプの回りに配置されている。操作ドライブは、単純に構成されており、容易に取り付けることができる。さらにそれは、たとえばオートクレーブを使用して、簡単に殺菌される。
米国特許出願公開第2015/0168679号明細書からは、画像センサとレンズグループとを有するカメラモジュールが知られている。レンズグループは、操作装置によって画像センサに対して変位する。その場合に操作装置は、レンズグループ用のホルダを有しており、その場合にホルダは、ばねを介して画像センサと結合されている。この形態によって、このカメラモジュールは、振動に対して特に感度が低い。その限りにおいて比較可能な装置が、米国特許出願公開第2014/0368724号明細書からも知られている。
米国特許出願公開第2011/0176046号明細書からは、たとえば携帯電話のカメラモジュール用に使用することができるような、レンズ変位装置が知られている。この装置は画像センサとレンズを有しており、そのレンズは変位ユニットを介して画像センサに対して変位することができる。その場合にレンズグループは、ばねを介して画像センサと結合されている。この装置は、特に小型に構成される。
JP 2016-128781 teaches a device for investigating electronic components. The device comprises first and second image recording means, which record images of different areas of the electronic component, where these areas are two different areas of a rectangular parallelepiped. is there.
From DE 10 210 108 9055 A1 is known a device with a shaft in which one end of the shaft is provided with an image recording device and a lens which is linearly displaceable by an operating drive. The lens is fixed to the runner, and the runner is displaceable along the displacement direction in the cylindrical slide pipe. The operating drive has two coils, which are arranged around the slide pipe. The operating drive is simply constructed and easy to install. Furthermore, it is easily sterilized, for example using an autoclave.
From U.S. Pat. App. Pub. No. 2015/0168679, a camera module having an image sensor and a lens group is known. The lens group is displaced with respect to the image sensor by the operating device. The operating device then has a holder for the lens group, which holder is then connected via a spring to the image sensor. Due to this configuration, this camera module is particularly insensitive to vibrations. To that extent, comparable devices are known from U.S. Pat. App. Pub. No. 2014/0368724.
From U.S. Pat. Appl. Pub. No. 2011/0176046 there is known a lens displacement device which can be used, for example, for a camera module of a mobile phone. The device has an image sensor and a lens, which can be displaced with respect to the image sensor via a displacement unit. The lens group is then coupled to the image sensor via a spring. This device is particularly compact.

Claims (24)

少なくとも1つのコンポーネント(B)の少なくとも1つの表面を検出するための光学的なコンポーネント検出システム(200)であって、その場合に収容部(150)が、コンポーネント(B)の第1の表面(O)をカメラ装置(220)によって検出するために、カメラ装置(220)の前にコンポーネント(B)を位置決めするように、整えられており、
その場合にカメラ装置(220)が画像センサ(230)を有し、前記画像センサが、コンポーネント(B)の第1の表面(O)において反射された光(L)を受信するように、整えられており、
その場合に光学的なコンポーネント検出システム(200)が、画像センサ(230)に対する反射された光(L)の光路内に配置された、第1の光学的に有効な部材(130)と、第1の光学的に有効な部材(130)のための操作装置(100)とを有しており、その場合に操作装置(100)が、
第1の光学的に有効な部材(130)のためのホルダ(140)を有し、その場合にホルダ(140)が中空円筒状の鏡胴(110)の内側に固定されており、かつ鏡胴(110)の長手中心軸が第1の光学的に有効な部材(130)の光学軸(OA)に対して同軸に方位づけされており、かつその場合にホルダ(140)が少なくとも鏡胴長手方向において弾性的に撓むことができ、かつ
光学的に有効な部材(130)を光学軸(OA)に沿って画像センサ(230)に対して変位させるために、光学的に有効な部材(130)と画像センサ(230)の間の相対間隔を調節するための、第1の操作ドライブ(120)を有している、
光学的なコンポーネント検出システム。
An optical component detection system (200) for detecting at least one surface of at least one component (B), wherein a housing (150) comprises a first surface () of the component (B). Is arranged to position the component (B) in front of the camera device (220) for detecting O) by the camera device (220),
In that case, the camera device (220) has an image sensor (230) arranged to receive the light (L) reflected at the first surface (O) of the component (B). Has been
An optical component detection system (200) is then disposed in the optical path of the reflected light (L) to the image sensor (230) and a first optically effective member (130). 1 has an operating device (100) for the optically effective member (130), in which case the operating device (100)
A holder (140) for the first optically effective member (130), in which case the holder (140) is fixed inside the hollow cylindrical lens barrel (110) and The longitudinal center axis of the barrel (110) is oriented coaxially with the optical axis (OA) of the first optically effective member (130), and in that case the holder (140) is at least the lens barrel. Optically effective member for elastically deflecting in the longitudinal direction and for displacing the optically effective member (130) with respect to the image sensor (230) along the optical axis (OA). A first operating drive (120) for adjusting the relative spacing between (130) and the image sensor (230),
Optical component detection system.
その場合に第1の操作ドライブ(120)が、ホルダ(140)を少なくともセクション的に包囲するコイル(121)を有し、
その場合に制御装置(ECU)が、磁場を発生させるためにコイル(121)へ供給される電流を制御するように、整えられており、
その場合にホルダ(140)が、軟鉄を含む、あるいは永久磁石のコンポーネント(141、142)を有し、前記コンポーネントが、コイル(121)へ供給される電流に従ってホルダ(140)を鏡胴(110)の長手中心軸に沿って変位させるように、整えられている、
請求項1に記載の光学的なコンポーネント検出システム(200)。
In that case, the first operating drive (120) has a coil (121) at least sectionally surrounding the holder (140),
The control unit (ECU) is then arranged to control the current supplied to the coil (121) in order to generate the magnetic field,
In that case, the holder (140) comprises soft iron-containing or permanent magnet components (141, 142), which carry the holder (140) to the lens barrel (110) according to the current supplied to the coil (121). ) Is arranged to be displaced along the longitudinal central axis of
An optical component detection system (200) according to claim 1.
さらに、
画像センサ(230)を光学軸(OA)に沿って第1の光学的に有効な部材(130)に対して変位させるために、制御装置(ECU)によって制御される、画像センサ(230)を変位させるための第2の操作ドライブ(240)を有しており、かつ/又は
少なくとも1つの光源を有し、前記光源が、コンポーネント(B)の第1の表面(O)へ光を送出するように整えられており、
その場合に、選択的に、制御装置(ECU)が、
反射された光(L)の焦点平面(SE)を画像センサ(230)の、反射された光(L)を向いた画像センサ表面(231)上へ投影するために、第1の光学的に有効なコンポーネント(130)と画像センサ(230)の間の相対間隔を第1及び/又は第2の操作ドライブ(120、240)の制御によって調節するように、整えられている、
請求項1又は2に記載の光学的なコンポーネント検出システム(200)。
further,
An image sensor (230) controlled by a control unit (ECU) for displacing the image sensor (230) with respect to the first optically effective member (130) along the optical axis (OA). Having a second operating drive (240) for displacing and/or having at least one light source, said light source delivering light to the first surface (O) of the component (B). Is arranged like
In that case, optionally, the control unit (ECU)
In order to project the focal plane (SE) of the reflected light (L) onto the image sensor surface (231) of the image sensor (230) facing the reflected light (L), a first optically Arranged to adjust the relative spacing between the active component (130) and the image sensor (230) by the control of the first and/or second operating drive (120, 240),
An optical component detection system (200) according to claim 1 or 2.
その場合に画像処理(BV)が次のよう、すなわち
−画像センサ(230)によって第1の画像(BA)を記録し、前記第1の画像が画像処理(BV)へ提供され、
−第1の画像(BA)に基づいて、反射された光(L)の焦点平面(SE)が画像センサ(230)の画像センサ表面(231)上に実質的に完全に投影されているか、を定め、かつ
反射された光(L)の焦点平面(SE)が画像センサ(230)の画像センサ表面(231)上に実質的に完全に投影されていない場合には、
−第1の画像(BA)の第1の多数の画像領域(B1、B2)の第1の画像領域(B1)を定め、それにおいて反射された光(L)の焦点平面(SE)の第1の部分領域が画像センサ(230)の画像センサ表面(231)上に投影されており、
−第1の画像(BA)の第1の多数の画像領域(B1、B2)の第2の画像領域(B2)を定め、それにおいて反射された光(L)の焦点平面(SE)の第2の部分領域は画像センサ(230)の画像センサ表面(231)上に投影されておらず、
−第1の光学的に有効な部材(130)と画像センサ(230)の間の相対間隔を調節し、かつ反射された光(L)の焦点平面(SE)の第2の部分領域を画像センサ(230)の画像センサ表面(231)上へ投影するために、第1及び/又は第2の操作ドライブ(120、240)を制御するための制御指令を制御装置(ECU)へ提供し、
−画像センサ(230)によって第2の画像(BB)を記録し、前記第2の画像が画像処理(BV)へ提供され、
−第2の画像(BB)の第2の多数の画像領域(B3、B4)の第3の画像領域(B3)を定め、それにおいて反射された光(L)の焦点平面(SE)の第1の部分領域が画像センサ(230)の画像センサ表面(231)上に投影されておらず;
−第2の画像(BB)の第2の多数の画像領域(B3、B4)の第4の画像領域(B4)を定め、それにおいて反射された光(L)の焦点平面(SE)の第2の部分領域が画像センサ(230)の画像センサ表面(231)上に投影されている、
ように整えられている、請求項1から3のいずれか1項に記載の光学的なコンポーネント検出システム(200)。
In that case the image processing (BV) is as follows:-recording a first image (BA) by the image sensor (230), said first image being provided to the image processing (BV),
The focal plane (SE) of the reflected light (L) is projected substantially completely onto the image sensor surface (231) of the image sensor (230) based on the first image (BA), And the focal plane (SE) of the reflected light (L) is not substantially completely projected onto the image sensor surface (231) of the image sensor (230):
Defining a first image area (B1) of the first multiple image areas (B1, B2) of the first image (BA), in which the first of the focal planes (SE) of the light (L) reflected. 1 partial area is projected on the image sensor surface (231) of the image sensor (230),
Defining a second image area (B2) of the first multiple image areas (B1, B2) of the first image (BA), in which the second of the focal planes (SE) of the light (L) reflected. 2 is not projected onto the image sensor surface (231) of the image sensor (230),
Adjusting the relative spacing between the first optically effective member (130) and the image sensor (230) and imaging the second partial area of the focal plane (SE) of the reflected light (L). Providing a control command to a controller (ECU) for controlling the first and/or second operational drive (120, 240) for projection onto the image sensor surface (231) of the sensor (230),
Recording a second image (BB) by means of the image sensor (230), said second image being provided to the image processing (BV),
Defining a third image area (B3) of the second multiple image areas (B3, B4) of the second image (BB), in which the focal plane (SE) of the reflected light (L) is located; 1 partial area is not projected on the image sensor surface (231) of the image sensor (230);
Defining a fourth image area (B4) of the second multiple image areas (B3, B4) of the second image (BB), in which the focal plane (SE) of the reflected light (L) is located; 2 partial areas are projected onto the image sensor surface (231) of the image sensor (230),
An optical component detection system (200) according to any one of claims 1 to 3, arranged as follows.
その場合に画像処理(BV)が次のように、
−画像センサ(230)によって第1の画像(BA)を記録し、前記第1の画像が画像処理(BV)へ提供され、
−第1の光学的に有効な部材(130)と画像センサ(230)の間の相対間隔をあらかじめ定められた距離長さだけ調節するために、第1及び/又は第2の操作ドライブ(120、240)を制御するために制御指令を制御装置(ECU)へ提供し、
−画像センサ(230)によって第2の画像(BB)を記録し、前記第2の画像が画像処理(BV)へ提供される、
ように整えられている、請求項1から3のいずれか1項に記載の光学的なコンポーネント検出システム(200)。
In that case, the image processing (BV) is as follows.
Recording a first image (BA) by means of an image sensor (230), said first image being provided to an image processing (BV),
A first and/or a second operating drive (120) for adjusting the relative distance between the first optically effective member (130) and the image sensor (230) by a predetermined distance length. , 240) to provide a control command to a control unit (ECU),
Recording a second image (BB) by the image sensor (230) and providing said second image to the image processing (BV),
An optical component detection system (200) according to any one of claims 1 to 3, arranged as follows.
その場合に画像処理(BV)が次のように、
−画像センサ(230)によって第1の画像(BA)を記録し、前記第1の画像が画像処理(BV)へ提供され、
−第1の光学的に有効な部材(130)と画像センサ(230)の間の相対間隔を、第1の画像(BA)の記録の間にあらかじめ定められた速度で調節するために、第1及び/又は第2の操作ドライブ(120、240)を制御するための制御指令を制御装置(ECU)へ提供し、
−第1の画像(BA)が記録された後に、あるいは第1の画像(BA)が記録された後の所定の期間後に、かつ第1の光学的に有効な部材(130)と画像センサ(230)の間の相対間隔が変位される間に、画像センサ(230)によって第2の画像(BB)を記録し、前記第2の画像が画像処理(BV)へ提供される、
ように整えられている、請求項1から3のいずれか1項に記載の光学的なコンポーネント検出システム(200)。
In that case, the image processing (BV) is as follows.
Recording a first image (BA) by means of an image sensor (230), said first image being provided to an image processing (BV),
A first to adjust the relative distance between the first optically effective member (130) and the image sensor (230) at a predetermined speed during the recording of the first image (BA). Providing a control command for controlling the first and/or second operation drive (120, 240) to a control unit (ECU),
The first optically effective member (130) and the image sensor (after the first image (BA) has been recorded, or after a predetermined period of time after the first image (BA) has been recorded. A second image (BB) is recorded by the image sensor (230) while the relative distance between 230) is displaced, and the second image is provided to the image processing (BV).
An optical component detection system (200) according to any one of claims 1 to 3, arranged as follows.
その場合に画像処理(BV)が、第1の画像(BA)の記録後に、あるいは第2の画像(BB)の記録後に、次のように、
−第1の画像(BA)の第1の多数の画像領域(B1、B2)の第1の画像領域(B1)を定め、それにおいて、反射された光(L)の焦点平面(SE)の第1の部分領域が画像センサ(230)の画像センサ表面(231)上に投影されており、かつ/又は、
−第1の画像(BA)の第1の多数の画像領域(B1、B2)の第2の画像領域(B2)を定め、それにおいて、反射された光(L)の焦点平面(SE)の第2の部分領域は画像センサ(230)の画像センサ表面(231)上に投影されておらず、かつ/又は、
−第2の画像(BB)の第2の多数の画像領域(B3、B4)の第3の画像領域(B3)を定め、それにおいて、反射された光(L)の焦点平面(SE)の第1の部分領域は画像センサ(230)の画像センサ平面(231)上に投影されておらず、かつ/又は、
−第2の画像(BB)の第2の多数の画像領域(B3、B4)の第4の画像領域(B4)を定め、それにおいて、反射された光(L)の焦点平面(SE)の第2の部分領域が画像センサ(230)の画像センサ表面(231)上に投影されている、
ように整えられている、請求項5又は請求項6に記載の光学的なコンポーネント検出システム(200)。
In that case, the image processing (BV) is performed after recording the first image (BA) or after recording the second image (BB) as follows.
Defining a first image area (B1) of the first multiple image areas (B1, B2) of the first image (BA), in which the focal plane (SE) of the reflected light (L) is The first partial region is projected onto the image sensor surface (231) of the image sensor (230) and/or
Defining a second image area (B2) of the first multiple image areas (B1, B2) of the first image (BA), in which the focal plane (SE) of the reflected light (L) is The second partial area is not projected onto the image sensor surface (231) of the image sensor (230) and/or
Defining a third image area (B3) of the second multiple image areas (B3, B4) of the second image (BB), in which the focal plane (SE) of the reflected light (L) is The first partial region is not projected onto the image sensor plane (231) of the image sensor (230) and/or
Defining a fourth image area (B4) of a second multiple image area (B3, B4) of the second image (BB), in which the focal plane (SE) of the reflected light (L) is A second partial region is projected onto the image sensor surface (231) of the image sensor (230),
An optical component detection system (200) according to claim 5 or claim 6, which is arranged to:
その場合に第1の画像(BA)の第1と第2の画像領域(B1、B2)がコンポーネント(B)のそれぞれ一部分を複写し、前記部分が第2の画像(BB)の第3と第4の画像領域(B3、B4)内のコンポーネント(B)の前記部分に実質的に相当し、かつ/又は
その場合に第1の画像(BA)において焦点平面(SE)の第1の部分領域が、そして第2の画像(BB)においては焦点平面(SE)の第2の部分領域が、あらかじめ定められた被写界深度(ST)の内部において画像センサ(230)の画像センサ表面(231)上に投影されており、かつ
その場合に第1の画像(BA)において焦点平面(SE)の第2の部分領域が、そして第2の画像(BB)においては焦点平面(SE)の第1の部分領域が、あらかじめ定められた被写界深度(ST)の外部において画像センサ(230)の画像センサ表面(231)上に投影されている、
請求項4又は7に記載の光学的なコンポーネント検出システム(200)。
In that case, the first and second image areas (B1, B2) of the first image (BA) respectively copy a part of the component (B), said part being the third of the second image (BB). A first part of the focal plane (SE) substantially corresponding to said part of the component (B) in the fourth image area (B3, B4) and/or in that case in the first image (BA). The region, and in the second image (BB), the second partial region of the focal plane (SE), is within the predetermined depth of field (ST), the image sensor surface (230) of the image sensor (230). 231), and in that case the second partial area of the focal plane (SE) in the first image (BA) and of the focal plane (SE) in the second image (BB). A first partial region is projected onto the image sensor surface (231) of the image sensor (230) outside of a predetermined depth of field (ST),
An optical component detection system (200) according to claim 4 or 7.
その場合に画像処理(BV)がさらに次のように、
−第1の画像(BA)から第1の画像領域(B1)を、そして第2の画像(BB)から第4の画像領域(B4)を切り出し、かつ
−第3の画像(BC)を形成するために、切り出した第1と第4の画像領域(B1、B4)を継ぎ合わせ、かつ/又は
−第1の画像(BA)の第1の画像領域(B1)及び/又は第2の画像(BB)の第4の画像領域(B4)及び/又は第3の画像(BC)に基づいて、コンポーネント(B)が少なくとも1つの障害部分を有するか、を定め、かつ
画像処理(BV)が少なくとも1つの障害箇所を定めた場合に、
−コンポーネント(B)についての障害箇所情報を提供する、
ように整えられている、請求項4又は7及び/又は8のいずれか1項に記載の光学的なコンポーネント検出システム(200)。
In that case, the image processing (BV) is as follows.
Cutting out the first image area (B1) from the first image (BA) and the fourth image area (B4) from the second image (BB), and-forming the third image (BC) In order to do so, the clipped first and fourth image areas (B1, B4) are stitched together and/or-the first image area (B1) and/or the second image of the first image (BA) Determines whether the component (B) has at least one obstruction based on the fourth image area (B4) and/or the third image (BC) of (BB), and the image processing (BV) If you have defined at least one point of failure,
-Providing fault location information about component (B),
An optical component detection system (200) according to any one of claims 4 or 7 and/or 8, arranged as:
さらに、
位置検出センサ(250)を有し、前記位置検出センサが次のように、すなわち第1の光学的に有効な部材(130)及び/又は画像センサ(230)の画像センサ表面(231)の位置及び/又は姿勢を定めて、光学的に有効な部材(130)及び/又は画像センサ(230)の画像センサ表面(231)の位置及び/又は姿勢に関する情報を制御装置(ECU)へ提供するように、整えられており、前記制御装置が提供された情報に基づいて第1及び/又は第2の操作ドライブ(120、240)を制御し、
その場合に位置検出センサが、選択的に、光学的あるいは(電子−)機械的な位置検出センサである、
請求項1から9のいずれか1項に記載の光学的なコンポーネント検出システム(200)。
further,
A position detection sensor (250), said position detection sensor being as follows: the position of the image sensor surface (231) of the first optically effective member (130) and/or the image sensor (230) And/or orientation to provide information to the control unit (ECU) regarding the position and/or orientation of the optically effective member (130) and/or the image sensor surface (231) of the image sensor (230). The control device controls the first and/or second operating drive (120, 240) based on the information provided.
In that case, the position detection sensor is optionally an optical or (electro-mechanical) position detection sensor,
An optical component detection system (200) according to any one of claims 1-9.
その場合にカメラ装置(220)が光路内で第1の光学的に有効な部材(130)と画像センサ(230)の間に第2の光学的に有効な部材(160)を有しており、その場合に第2の光学的に有効な部材(160)の光学軸が、第1の光学的に有効な部材(130)の光学軸に対して同軸に方位づけされており、かつ/又は
その場合に第1の光学的に有効な部材(130)がアクロマートであり、かつ/又は
その場合に第2の光学的に有効な部材(160)が集光レンズである、
請求項1から10のいずれか1項に記載の光学的なコンポーネント検出システム(200)。
In that case, the camera device (220) has a second optically effective member (160) in the optical path between the first optically effective member (130) and the image sensor (230). , In which case the optical axis of the second optically effective member (160) is oriented coaxially to the optical axis of the first optically effective member (130), and/or In that case, the first optically effective member (130) is an achromat and/or in that case the second optically effective member (160) is a condenser lens.
An optical component detection system (200) according to any one of claims 1 to 10.
少なくとも1つのコンポーネント(B)の少なくとも1つの表面を検出するための光学的なコンポーネント検出システム(200)であって、その場合に収容部(150)は、コンポーネント(B)の第1の表面(O)をカメラ装置(220)によって検出するために、コンポーネント(B)をカメラ装置(220)の前に位置決めするように、整えられており、
その場合にカメラ装置(220)が画像センサ(230)を有し、前記画像センサが、コンポーネント(B)の第1の表面(O)において反射された光(L)を受信するように、整えられており、
その場合に光学的なコンポーネント検出システム(200)が、画像センサ(230)に対して反射された光(L)の光路内に配置された、第1の光学的に有効な部材(130)と、第1の光学的に有効な部材(130)のための操作装置(100)とを有し、操作装置(100)が、
第1の光学的に有効な部材(130)のためのホルダ(140)を有し、その場合にホルダ(140)が中空円筒状の鏡胴(110)の内側にリニアガイドによって固定されており、かつ鏡胴(110)の長手中心軸が第1の光学的に有効な部材(130)の光学軸(OA)に対して同軸に方位づけされており、かつその場合にリニアガイドが、ホルダ(140)を光学軸(OA)に対して平行に案内するように、整えられており、
操作装置が、
第1の光学的に有効な部材(130)を画像センサ(230)に対して変位させるために、画像センサ(230)と第1の光学的に有効な部材(130)の間の相対間隔を調節するための第1の操作ドライブ(120)を有している、
光学的なコンポーネント検出システム(200)。
An optical component detection system (200) for detecting at least one surface of at least one component (B), wherein the receptacle (150) comprises a first surface () of the component (B). O) is detected by the camera device (220), arranged to position the component (B) in front of the camera device (220),
In that case, the camera device (220) has an image sensor (230) arranged to receive the light (L) reflected at the first surface (O) of the component (B). Has been
An optical component detection system (200) is then provided with a first optically effective member (130) arranged in the optical path of the light (L) reflected to the image sensor (230). An operating device (100) for the first optically effective member (130), the operating device (100) comprising:
A holder (140) for the first optically effective member (130), wherein the holder (140) is fixed inside the hollow cylindrical lens barrel (110) by a linear guide. And the longitudinal center axis of the lens barrel (110) is oriented coaxially with the optical axis (OA) of the first optically effective member (130), and in that case the linear guide is a holder. Arranged to guide (140) parallel to the optical axis (OA),
The operating device
To displace the first optically effective member (130) with respect to the image sensor (230), the relative spacing between the image sensor (230) and the first optically effective member (130) is set. Has a first operating drive (120) for adjusting,
Optical component detection system (200).
光学的に有効な部材(130)のための操作装置(100)であって、
第1の光学的に有効な部材(130)のためのホルダ(140)を有し、その場合にホルダ(140)が中空円筒状の鏡胴(110)の内側に固定されており、かつ鏡胴(110)の長手中心軸が第1の光学的に有効な部材(130)の光学軸(OA)に対して同軸に方位づけされており、かつその場合にホルダ(140)が少なくとも鏡胴長手方向において弾性的に撓むことができ、かつ
光学軸(OA)に沿って第1の光学的に有効な部材(130)を鏡胴(110)に対して変位させるために、ホルダ(140)を変位させるための第1の操作ドライブ(120)を有している、
操作装置(100)。
An operating device (100) for an optically effective member (130), comprising:
A holder (140) for the first optically effective member (130), in which case the holder (140) is fixed inside the hollow cylindrical lens barrel (110) and The longitudinal center axis of the barrel (110) is oriented coaxially with the optical axis (OA) of the first optically effective member (130), and in that case the holder (140) is at least the lens barrel. A holder (140) for elastically deflecting in the longitudinal direction and for displacing the first optically effective member (130) with respect to the lens barrel (110) along an optical axis (OA). ) Has a first operating drive (120) for displacing
Operating device (100).
光学的に有効な部材(130)のための操作装置(100)であって、
第1の光学的に有効な部材(130)のためのホルダ(140)を有し、その場合にホルダ(140)が中空円筒状の鏡胴(110)の内側にリニアガイドによって固定されており、かつ鏡胴(110)の長手中心軸が第1の光学的に有効な部材(130)の光学軸(OA)に対して同軸に方位づけされており、その場合にリニアガイドが、ホルダ(140)を光学軸(OA)に対して平行に案内するように、整えられており、かつ
光学軸(OA)に沿って第1の光学的に有効な部材(130)を鏡胴(110)に対して変位させるために、ホルダ(140)を変位させるための第1の操作ドライブ(120)を有している、
操作装置(100)。
An operating device (100) for an optically effective member (130), comprising:
A holder (140) for the first optically effective member (130), wherein the holder (140) is fixed inside the hollow cylindrical lens barrel (110) by a linear guide. And the longitudinal center axis of the lens barrel (110) is oriented coaxially with the optical axis (OA) of the first optically effective member (130), in which case the linear guide is The lens barrel (110) is arranged so as to guide 140) parallel to the optical axis (OA) and has a first optically effective member (130) along the optical axis (OA). A first operating drive (120) for displacing the holder (140) for displacing with respect to
Operating device (100).
少なくとも1つのコンポーネント(B)の少なくとも1つの表面を検出する方法であって、以下のステップを有する:
−コンポーネント(B)をカメラ装置(220)に対して整合させ、
−カメラ装置(220)によって、コンポーネント(B)の第1の表面(O)を検出し、
−コンポーネント(B)の第1の表面(O)において反射された光(L)を、カメラ装置(220)の画像センサ(230)によって、受信し、
−長手方向に弾性的に撓むことができるホルダ(140)によって、反射された光(L)の光路内に第1の光学的に有効な部材(130)を保持し、その場合に前記長手方向が光学的に有効な部材(130)の光学軸(OA)に対して平行に方位づけされており、
−光学軸に沿って第1の光学的に有効な部材(130)を画像センサ(230)に対して変位させるために、画像センサ(230)と第1の光学的に有効な部材(130)との間の相対間隔を調節する、
方法。
A method of detecting at least one surface of at least one component (B), comprising the steps of:
Aligning the component (B) with the camera device (220),
Detecting the first surface (O) of the component (B) by the camera device (220),
Receiving the light (L) reflected at the first surface (O) of the component (B) by the image sensor (230) of the camera device (220),
A holder (140) which is elastically deflectable in the longitudinal direction holds a first optically effective member (130) in the optical path of the reflected light (L), in which case said longitudinal The direction is oriented parallel to the optical axis (OA) of the optically effective member (130),
An image sensor (230) and a first optically effective member (130) for displacing the first optically effective member (130) with respect to the image sensor (230) along an optical axis. Adjust the relative distance between,
Method.
以下のステップを有する:
−光学軸(OA)に沿って画像センサ(230)を第1の光学的に有効な部材(130)に対して変位させるために、画像センサ(230)と光学的に有効な部材(130)の間の相対間隔を調節し、かつ、選択的に
−反射された光(L)の焦点平面(SE)を画像センサ(230)の、反射された光(L)へ向いた画像センサ表面(231)上へ投影するために、画像センサ(230)と第1の光学的に有効な部材(130)の間の相対間隔を調節する、
請求項15に記載の方法。
It has the following steps:
An image sensor (230) and an optically effective member (130) for displacing the image sensor (230) with respect to the first optically effective member (130) along an optical axis (OA). An image sensor surface of the image sensor (230), which directs the focal plane (SE) of the reflected light (L) to the reflected light (L). 231) adjusts the relative spacing between the image sensor (230) and the first optically effective member (130) for projection onto,
The method according to claim 15.
以下のステップを有する:
−第1の画像(BA)を記録し、
−第1の画像(BA)に基づいて、反射された光(L)の焦点平面(SE)が画像センサ(230)の画像センサ表面(231)上へ実質的に完全に投影されているか、を定め、かつ
反射された光(L)の焦点平面(SE)が画像センサ(230)の画像センサ表面(231)上に実質的に完全に投影されていない場合には、
−第1の画像(BA)の第1の多数の画像領域(B1、B2)の第1の画像領域(B1)を定め、それにおいて、反射された光(L)の焦点平面(SE)の第1の部分領域が画像センサ(230)の画像センサ表面(231)上へ投影されており、
−第1の画像(BA)の多数の画像領域(B1、B2)の第2の画像領域(B2)を定め、それにおいて、反射された光(L)の焦点平面(SE)の第2の部分領域が画像センサ(230)の画像センサ表面(231)上に投影されておらず、
−反射された光(L)の焦点平面(SE)の第2の部分領域を画像センサ(230)の画像センサ表面(231)上へ投影するために、画像センサ(230)と第1の光学的に有効な部材(130)との間の相対間隔を調節し、
−第2の画像(BB)を定め、
−第2の画像(BB)の第2の多数の画像領域(B3、B4)の第3の画像領域(B3)を定め、それにおいて、反射された光(L)の焦点平面(SE)の第1の部分領域が画像センサ(230)の画像センサ表面(231)上に投影されておらず、
−第2の画像(BB)の第2の多数の画像領域(B3、B4)の第4の画像領域(B4)を定め、それにおいて、反射された光(L)の焦点平面(SE)の第2の部分領域が画像センサ(230)の画像センサ表面(231)上に投影されている、
請求項15又は16に記載の方法。
It has the following steps:
-Record the first image (BA),
-The focal plane (SE) of the reflected light (L) is projected substantially completely onto the image sensor surface (231) of the image sensor (230), based on the first image (BA); And the focal plane (SE) of the reflected light (L) is not substantially completely projected onto the image sensor surface (231) of the image sensor (230):
Defining a first image area (B1) of the first multiple image areas (B1, B2) of the first image (BA), in which the focal plane (SE) of the reflected light (L) is A first partial region is projected onto the image sensor surface (231) of the image sensor (230),
Defining a second image area (B2) of the multiple image areas (B1, B2) of the first image (BA), in which the second of the focal plane (SE) of the reflected light (L) is The partial area is not projected onto the image sensor surface (231) of the image sensor (230),
An image sensor (230) and a first optic for projecting a second sub-region of the focal plane (SE) of the reflected light (L) onto the image sensor surface (231) of the image sensor (230). The relative distance between the effective member (130) and
-Define the second image (BB),
Defining a third image area (B3) of the second multiple image areas (B3, B4) of the second image (BB), in which the focal plane (SE) of the reflected light (L) is The first partial region is not projected onto the image sensor surface (231) of the image sensor (230),
Defining a fourth image area (B4) of a second multiple image area (B3, B4) of the second image (BB), in which the focal plane (SE) of the reflected light (L) is A second partial region is projected onto the image sensor surface (231) of the image sensor (230),
The method according to claim 15 or 16.
以下のステップを有する:
−第1の画像(BA)を記録し、
−画像センサ(230)と第1の光学的に有効な部材(130)の間の相対間隔をあらかじめ定められた距離長さだけ調節し、
−第2の画像(BB)を記録する、
請求項15又は16に記載の方法。
It has the following steps:
-Record the first image (BA),
Adjusting the relative distance between the image sensor (230) and the first optically effective member (130) by a predetermined distance length,
-Record the second image (BB),
The method according to claim 15 or 16.
以下のステップを有する:
−第1の画像(BA)を記録し、
−第1の画像(BA)を記録している間に、画像センサ(230)と第1の光学的に有効な部材(130)との間の相対間隔をあらかじめ定められた速度で調節し、
−第1の画像(BA)が記録された後に、あるいは第1の画像(BA)が記録された後のあらかじめ定められた期間の後に、かつ画像センサ(230)と第1の光学的に有効な部材(130)の間の相対間隔が調節される間に、第2の画像(BB)を記録する、
請求項15又は16に記載の方法。
It has the following steps:
-Record the first image (BA),
Adjusting the relative distance between the image sensor (230) and the first optically effective member (130) at a predetermined speed while recording the first image (BA),
-After the first image (BA) has been recorded, or after a predetermined time period after the first image (BA) has been recorded, and with the image sensor (230) and the first optically active Recording a second image (BB) while the relative spacing between the different members (130) is adjusted,
The method according to claim 15 or 16.
以下のステップを有する:
−第1の画像(BA)の第1の多数の画像領域(B1、B2)の第1の画像領域(B1)を定め、それにおいて反射された(光L)の焦点平面(SE)の第1の部分領域が画像センサ(230)の画像センサ表面(231)上に投影されており、かつ/又は
−第1の画像(BA)の多数の画像領域(B1、B2)の第2の画像領域(B2)を定め、それにおいて、反射された光(L)の焦点平面(SE)の第2の部分領域が画像センサ(230)の画像センサ表面(231)上に投影されておらず、かつ/又は
−第2の画像(BB)の第2の多数の画像領域(B3、B4)の第3の画像領域(B3)を定め、それにおいて反射された光(L)の焦点平面(SE)の第1の部分領域が画像センサ(230)の画像センサ表面(231)上に投影されておらず、かつ/又は
−第2の画像(BB)の第2の多数の画像領域(B3、B4)の第4の画像領域(B4)を定め、それにおいて、反射された光(L)の焦点平面(SE)の第2の部分領域が画像センサ(230)の画像センサ表面(231)上に投影されている、
請求項第18又は19のいずれか1項に記載の方法。
It has the following steps:
Defining a first image area (B1) of the first multiple image areas (B1, B2) of the first image (BA), in which the first of the focal plane (SE) of the (light L) reflected. A partial area of one is projected onto the image sensor surface (231) of the image sensor (230), and/or a second image of multiple image areas (B1, B2) of the first image (BA). Defining a region (B2) in which the second sub-region of the focal plane (SE) of the reflected light (L) has not been projected onto the image sensor surface (231) of the image sensor (230), And/or-defining a third image area (B3) of the second multiple image areas (B3, B4) of the second image (BB), in which the focal plane (SE) of the reflected light (L) (SE). ) Is not projected onto the image sensor surface (231) of the image sensor (230) and/or-the second multiple image areas (B3, B3) of the second image (BB). B4) defining a fourth image area (B4) in which the second partial area of the focal plane (SE) of the reflected light (L) is on the image sensor surface (231) of the image sensor (230). Is projected on
20. A method according to any one of claims 18 or 19.
その場合に第1の画像(BA)の第1と第2の画像領域(B1、B2)がそれぞれコンポーネント(B)の1つの部分を複写し、前記部分が第2の画像(BB)の第3と第4の画像領域(B3、B4)内のコンポーネント(B)の前記部分に実質的に相当し、かつ/又は
その場合に第1の画像(BA)において焦点平面(SE)の第1の部分領域が、そして第2の画像(BB)においては焦点平面(SE)の第2の部分領域が、あらかじめ定められた被写界深度(ST)内で画像センサ(230)の画像センサ平面(231)上に投影されており、
その場合に第1の画像(BA)において焦点平面(SE)の部分領域が、そして第2の画像(BB)においては焦点平面(SE)の第1の部分領域が、あらかじめ定められた被写界深度(ST)の外部で画像センサ(230)の画像センサ表面(231)上に投影されている、
請求項17又は20のいずれか1項に記載の方法。
In that case, the first and second image regions (B1, B2) of the first image (BA) each copy one part of the component (B), said part being the second part of the second image (BB). 3 and 4 corresponds substantially to said part of the component (B) in the image area (B3, B4) and/or in that case the first of the focal planes (SE) in the first image (BA). , And in the second image (BB), the second partial area of the focal plane (SE) is the image sensor plane of the image sensor (230) within a predetermined depth of field (ST). Is projected onto (231),
In that case, a partial area of the focal plane (SE) in the first image (BA) and a first partial area of the focal plane (SE) in the second image (BB) are determined by a predetermined object. Projected onto the image sensor surface (231) of the image sensor (230) outside the depth of field (ST),
21. A method according to any one of claims 17 or 20.
以下のステップを有する:
−第1の画像(BA)から第1の画像領域(B1)を、第2の画像(BB)から第4の画像領域(B4)を切り出し、かつ
−第3の画像(BC)を形成するために、切り出した第1と第4の画像(B1、B4)を継ぎ合わせ、かつ/又は
−第1の画像(BA)の第1の画像領域(B1)及び/又は第2の画像(BB)の第4の画像領域(B4)及び/又は第3の画像(BC)に基づいて、コンポーネント(B)が少なくとも1つの障害部分を有するか、を定め、かつ
コンポーネント(B)が少なくとも1つの障害部分を有する場合に、
−コンポーネント(B)に関する障害情報を提供する、
請求項17又は20及び/又は21のいずれか1項に記載の方法。
It has the following steps:
-Cut out a first image area (B1) from the first image (BA), a fourth image area (B4) from the second image (BB), and-form a third image (BC) In order to stitch the cut-out first and fourth images (B1, B4), and/or-the first image area (B1) and/or the second image (BB) of the first image (BA). ) The fourth image area (B4) and/or the third image (BC) of the component (B) has at least one obstruction, and the component (B) has at least one If you have an obstacle,
-Provides fault information about component (B),
22. A method according to any one of claims 17 or 20 and/or 21.
その場合に、ホルダ(140)が軟鉄を含むコンポーネントを有する場合に、ホルダ(140)が発生された磁場によって光学軸(OA)に沿って画像センサ(230)に対して第1の方向に変形される、請求項15から22のいずれか1項に記載の方法。 In that case, when the holder (140) has a component containing soft iron, the holder (140) deforms in a first direction along the optical axis (OA) with respect to the image sensor (230) by the magnetic field generated. 23. A method according to any one of claims 15 to 22 which is performed. ホルダ(140)が永久磁石のコンポーネントを有する場合に、ホルダ(140)が発生された磁場によって、コイル(121)内を流れる電流の流れ方向に従って、画像センサ(230)に対して第1又は第2の方向に変形され、その場合に第2の方向が第1の方向とは逆である、請求項15から22のいずれか1項に記載の方法。 When the holder (140) has a component of a permanent magnet, the magnetic field generated by the holder (140) is either first or second with respect to the image sensor (230) according to the flow direction of the current flowing in the coil (121). 23. The method according to any one of claims 15 to 22, wherein the method is deformed in two directions, wherein the second direction is opposite to the first direction.
JP2020503077A 2017-04-03 2018-03-13 Optical component detection system and method for detecting at least one component Active JP7128881B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102017003231.9 2017-04-03
DE102017003231.9A DE102017003231A1 (en) 2017-04-03 2017-04-03 Optical component detection system and method for detecting at least one component
PCT/EP2018/056154 WO2018184792A1 (en) 2017-04-03 2018-03-13 Optical component measurement system and method for measuring at least one component

Publications (2)

Publication Number Publication Date
JP2020518832A true JP2020518832A (en) 2020-06-25
JP7128881B2 JP7128881B2 (en) 2022-08-31

Family

ID=61691955

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020503077A Active JP7128881B2 (en) 2017-04-03 2018-03-13 Optical component detection system and method for detecting at least one component

Country Status (6)

Country Link
JP (1) JP7128881B2 (en)
CN (1) CN110651165B (en)
DE (1) DE102017003231A1 (en)
SG (1) SG11201909202QA (en)
TW (1) TWI714839B (en)
WO (1) WO2018184792A1 (en)

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61124809A (en) * 1984-11-22 1986-06-12 Hitachi Ltd Inspection and inspecting apparatus
JPS61241605A (en) * 1985-04-19 1986-10-27 Yoshiaki Ihara Image processing device
JPH0996513A (en) * 1995-09-29 1997-04-08 Dainippon Printing Co Ltd Image acquisition apparatus
JP2004097292A (en) * 2002-09-05 2004-04-02 Olympus Corp Imaging device for endoscope
JP3831318B2 (en) * 2002-08-22 2006-10-11 オリンパス株式会社 Endoscopic imaging device
JP2011001824A (en) * 2009-06-16 2011-01-06 Konica Minolta Holdings Inc Actuator, driving device, and imaging device
JP2011128583A (en) * 2009-11-17 2011-06-30 Tdk Taiwan Corp Lens drive device
DE102011089055A1 (en) * 2011-12-19 2013-06-20 Technische Universität Berlin Instrument e.g. medical instrument e.g. endoscope for e.g. medical investigation, has actuator that is provided to adjust adjusting element along longitudinal axis of runner relative to stator and is designed as reluctance motor
JP2013145145A (en) * 2012-01-13 2013-07-25 Hst Vision Corp Observation device
US20140368724A1 (en) * 2013-06-12 2014-12-18 Nvidia Corporation Methods for enhancing camera focusing performance using camera orientation
JP2015522849A (en) * 2012-06-29 2015-08-06 エルジー イノテック カンパニー リミテッド The camera module

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5289318A (en) * 1990-07-31 1994-02-22 Canon Kabushiki Kaisha Optical apparatus provided with a driving unit for moving a lens
JPH04166906A (en) * 1990-10-31 1992-06-12 Sony Corp Original position detecting device for lens barrel
JP4081806B2 (en) * 1999-10-18 2008-04-30 富士フイルム株式会社 Autofocus camera and photographing method
KR100403862B1 (en) * 2001-01-26 2003-11-01 어플라이드비전텍(주) Apparatus for inspecting semiconductor wafer and the methods thereof
TW556038B (en) * 2001-06-29 2003-10-01 Arc Design Inc Control system of zoom lens for digital still cameras
DE102008018586A1 (en) 2008-04-12 2009-11-05 Mühlbauer Ag Optical detection device and method for detecting surfaces of components
GB0809037D0 (en) * 2008-05-19 2008-06-25 Renishaw Plc Video Probe
CN102802520B (en) * 2009-06-17 2015-04-01 3形状股份有限公司 Focus Scanning Apparatus
DE102011078631A1 (en) * 2011-07-05 2013-01-10 Robert Bosch Gmbh Arrangement and method for determining an imaging deviation of a camera
WO2013054787A1 (en) * 2011-10-13 2013-04-18 オリンパスメディカルシステムズ株式会社 Imaging unit and endoscope
WO2014094828A1 (en) * 2012-12-18 2014-06-26 Carl Zeiss Industrielle Messtechnik Gmbh Zoom lens having setting error correction
DE102012224179A1 (en) * 2012-12-21 2014-06-26 Olympus Winter & Ibe Gmbh Electromagnetic actuator for a surgical instrument
JP2017507680A (en) * 2013-12-23 2017-03-23 キャンプレックス インコーポレイテッド Surgical visualization system
JP5954757B2 (en) 2015-01-09 2016-07-20 上野精機株式会社 Appearance inspection device
JP6429718B2 (en) * 2015-04-22 2018-11-28 オリンパス株式会社 Imaging apparatus and endoscope
DE102015117276B4 (en) * 2015-10-09 2018-09-06 Carl Zeiss Industrielle Messtechnik Gmbh Method and device for measuring a test object with improved measuring accuracy

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61124809A (en) * 1984-11-22 1986-06-12 Hitachi Ltd Inspection and inspecting apparatus
JPS61241605A (en) * 1985-04-19 1986-10-27 Yoshiaki Ihara Image processing device
JPH0996513A (en) * 1995-09-29 1997-04-08 Dainippon Printing Co Ltd Image acquisition apparatus
JP3831318B2 (en) * 2002-08-22 2006-10-11 オリンパス株式会社 Endoscopic imaging device
JP2004097292A (en) * 2002-09-05 2004-04-02 Olympus Corp Imaging device for endoscope
JP2011001824A (en) * 2009-06-16 2011-01-06 Konica Minolta Holdings Inc Actuator, driving device, and imaging device
JP2011128583A (en) * 2009-11-17 2011-06-30 Tdk Taiwan Corp Lens drive device
DE102011089055A1 (en) * 2011-12-19 2013-06-20 Technische Universität Berlin Instrument e.g. medical instrument e.g. endoscope for e.g. medical investigation, has actuator that is provided to adjust adjusting element along longitudinal axis of runner relative to stator and is designed as reluctance motor
JP2013145145A (en) * 2012-01-13 2013-07-25 Hst Vision Corp Observation device
JP2015522849A (en) * 2012-06-29 2015-08-06 エルジー イノテック カンパニー リミテッド The camera module
US20140368724A1 (en) * 2013-06-12 2014-12-18 Nvidia Corporation Methods for enhancing camera focusing performance using camera orientation

Also Published As

Publication number Publication date
TW201842300A (en) 2018-12-01
CN110651165A (en) 2020-01-03
DE102017003231A1 (en) 2018-10-04
WO2018184792A1 (en) 2018-10-11
CN110651165B (en) 2021-07-23
TWI714839B (en) 2021-01-01
JP7128881B2 (en) 2022-08-31
SG11201909202QA (en) 2019-11-28

Similar Documents

Publication Publication Date Title
JP2004507710A5 (en)
US20080055421A1 (en) Lens driving device, image stabilizing unit, and image pickup apparatus
US7352477B2 (en) Two dimensional position detecting device
US8325242B2 (en) Image stabilizing apparatus and image pickup apparatus having the same
US7548257B2 (en) Optical apparatus for correcting vibration using ball-guides and method of resetting thereof
KR960035477A (en) An objective lens driving apparatus and an optical pickup unit using the objective lens driving apparatus
EP0225564A2 (en) Optical head
CN104219441A (en) Blur correction apparatus
KR910001674A (en) Optical pickup head unit
JP2009540287A (en) Method and apparatus for position detection of optical elements in an imaging system
JPH07248522A (en) Optical device
JP2020518832A (en) Optical component detection system and method for detecting at least one component
US5387786A (en) Focussing device for a bar code reader
JP2017184600A (en) Stage device
JPH11173821A (en) Optical inspecting device
JPH02298907A (en) Driving device for optical system
KR100247347B1 (en) Linear motor location control apparatus
JP2008233527A (en) Camera
JP4989063B2 (en) POSITION CONTROL DEVICE AND OPTICAL DEVICE USING THE SAME
JPS63163312A (en) Automatic focusing device and its lens driving mechanism
JP2739075B2 (en) Optical head device
US5450386A (en) Optical disk device including a support member for movably supporting an objective lens in focusing and radial directions with respect to an optical disk
JPH0628698A (en) Optical pickup device
JP2001174695A (en) Device and method for autofocusing
JPS63163310A (en) Automatic focusing device and its lens driving device

Legal Events

Date Code Title Description
A529 Written submission of copy of amendment under article 34 pct

Free format text: JAPANESE INTERMEDIATE CODE: A529

Effective date: 20191128

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210721

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210831

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220412

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220711

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220726

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220819

R150 Certificate of patent or registration of utility model

Ref document number: 7128881

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150