JP2002352232A - Image input device - Google Patents

Image input device

Info

Publication number
JP2002352232A
JP2002352232A JP2001160691A JP2001160691A JP2002352232A JP 2002352232 A JP2002352232 A JP 2002352232A JP 2001160691 A JP2001160691 A JP 2001160691A JP 2001160691 A JP2001160691 A JP 2001160691A JP 2002352232 A JP2002352232 A JP 2002352232A
Authority
JP
Japan
Prior art keywords
illumination
image
imaging
component
exposure
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2001160691A
Other languages
Japanese (ja)
Inventor
Hideji Ueda
秀司 植田
Eiichi Hachitani
栄一 蜂谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2001160691A priority Critical patent/JP2002352232A/en
Publication of JP2002352232A publication Critical patent/JP2002352232A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Image Input (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Supply And Installment Of Electrical Components (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To speed up the positional recognition processing of an object by picking up and inputting subject images of the object by a plurality of different illuminating conditions in one image. SOLUTION: A component 3 as the object is one-dimensionally transported and made to pass an image pickup area 21 of a CCD camera 4. The CCD camera 4 is made to be in an exposure state from a first position A to a second position B where the component 3 exists in the image pickup area 21. In this exposure time, when the component 3 comes to a third position C, a fourth position and a fifth position E in the image pickup area 21, each of a first illuminator 5, a second illuminator 6 and a third illuminator 7 is emitted for a short time by illumination signals from an illumination control part. Thus, the subject images of the component 3 illuminated by the plurality of illuminating conditions are picked up in one image and which can be simultaneously inputted as a plurality of images for recognition. The image for recognition can recognize a position and attitude of the component 3 by known algorithm.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、プリント基板の製
造時の部品実装工程において部品位置を認識する際など
に、対象物を撮像してその画像を入力する画像入力装置
に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image input apparatus for picking up an image of an object and inputting its image when recognizing a component position in a component mounting process at the time of manufacturing a printed circuit board.

【0002】[0002]

【従来の技術】携帯電話機や携帯情報端末などの小型の
電子機器は、一層の小型化、高密度化が進んでおり、こ
のような電子機器に用いるプリント基板の製造におい
て、電子部品を基板に実装する電子部品実装装置はより
高速化と高機能化が求められている。非常に小さくなっ
ている電子部品を高速に装着するためには、電子部品の
位置や姿勢を正確に認識する必要がある。このため、実
装装置の中核技術である部品位置認識技術についても、
より高度な処理が求められている。
2. Description of the Related Art Small electronic devices such as portable telephones and personal digital assistants have been further miniaturized and densified. In the production of printed circuit boards used in such electronic devices, electronic components have been used as substrates. There is a demand for higher-speed and higher-function electronic component mounting apparatuses to be mounted. In order to mount a very small electronic component at high speed, it is necessary to accurately recognize the position and orientation of the electronic component. For this reason, the component position recognition technology, which is the core technology of the mounting device,
More sophisticated processing is required.

【0003】電子部品実装装置では、実装位置精度を向
上させるため、画像認識により電子部品の位置ずれを補
正する方法が多用されている。この方法は移載ヘッドに
よりパーツフィーダから電子部品をピックアップして保
持した状態で、カメラにより電子部品を撮像し、この撮
像結果を画像処理して電子部品を認識することで位置ず
れを検出し、この位置ずれを補正して電子部品を基板上
に搭載するものである。これによって、電子部品が正し
い位置に精度良く位置決めされ実装される。
[0003] In the electronic component mounting apparatus, in order to improve the mounting position accuracy, a method of correcting the displacement of the electronic component by image recognition is frequently used. In this method, the electronic component is picked up from the parts feeder by the transfer head and held, and the electronic component is imaged by the camera, and the imaging result is subjected to image processing to recognize the electronic component, thereby detecting a position shift. The electronic component is mounted on the substrate by correcting the positional deviation. Thus, the electronic component is accurately positioned and mounted at a correct position.

【0004】カメラによって電子部品を撮像する際の照
明方法として、従来電子部品に対して下方から照明光を
照射し、電子部品からの反射光をカメラで受光する方
法、または電子部品の背後に設けられた反射板に対して
照明光を照射しこの反射光をカメラで受光する透過照明
による方法、さらには薄型基板にバンプが形成された電
子部品でバンプの認識を必要とする場合に用いられる側
方照明など、各種の照明方法が用いられる。
As a method of illuminating an electronic component with a camera, a method of illuminating the electronic component with illumination light from below and receiving reflected light from the electronic component with the camera, or providing the electronic component behind the electronic component is known. A method using transmission illumination that irradiates illumination light to a given reflection plate and receives this reflection light with a camera, and is also used when an electronic component with bumps formed on a thin substrate needs to recognize bumps. Various illumination methods such as one-way illumination are used.

【0005】実装時に電子部品の認識を行う場合、一つ
の照明条件で位置と姿勢を認識することは難しく、従来
では、複数の光源を有する照明手段を使用し、照明毎に
得られる複数の画像を入力して処理することにより、電
子部品の位置と姿勢を認識していた。
When electronic components are recognized at the time of mounting, it is difficult to recognize the position and orientation under one illumination condition. Conventionally, an illumination unit having a plurality of light sources is used, and a plurality of images obtained for each illumination are used. Input and processing, the position and orientation of the electronic component were recognized.

【0006】[0006]

【発明が解決しようとする課題】上述したように、従来
は複数の異なる照明条件で電子部品を撮像して認識する
場合、照明条件の異なる複数の画像を撮像して入力し、
それぞれの画像に対して認識処理を行っていた。しか
し、このような方法では、複数の画像をそれぞれ入力す
る必要があるため、画像入力時間が長くかかってしま
い、高速な認識処理が困難であるという問題点を有して
いる。
As described above, conventionally, when electronic components are imaged and recognized under a plurality of different illumination conditions, a plurality of images with different illumination conditions are imaged and input.
Recognition processing was performed on each image. However, in such a method, since it is necessary to input a plurality of images, it takes a long time to input an image, and there is a problem that high-speed recognition processing is difficult.

【0007】また、単一の照明条件で電子部品を撮像し
た一つの画像に対して、複雑なアルゴリズムを駆使して
電子部品の位置と姿勢を同時に認識することも考えられ
るが、この場合最適な照明条件を確保することが難しい
ため、どうしてもアルゴリズムの負荷が大きくなり、認
識率や精度が悪くなってしまう。結果的に、処理時間が
長くなってしまうという問題点がある。
In addition, it is conceivable to simultaneously recognize the position and orientation of an electronic component by using a complicated algorithm for one image obtained by imaging the electronic component under a single illumination condition. Since it is difficult to secure lighting conditions, the load on the algorithm is inevitably increased, and the recognition rate and accuracy are deteriorated. As a result, there is a problem that the processing time becomes longer.

【0008】本発明は、上記事情に鑑みてなされたもの
で、複数の異なる照明条件による対象物の被写体画像を
一枚の画像中に撮像して入力することにより、対象物の
位置認識処理を高速化することが可能な画像入力装置を
提供することを目的とする。
The present invention has been made in view of the above circumstances, and captures and inputs a subject image of a target object under a plurality of different lighting conditions into one image, thereby performing position recognition processing of the target object. It is an object of the present invention to provide an image input device capable of increasing the speed.

【0009】[0009]

【課題を解決するための手段】本発明の画像入力装置
は、対象物を撮像する撮像手段と、前記対象物を複数の
照明条件によって照明する照明手段と、前記対象物を前
記撮像手段の撮像エリア内で移動させる対象物移動手段
と、前記撮像手段の露光制御を行う撮像制御手段と、前
記照明手段の発光制御を行う照明制御手段とを備え、前
記撮像制御手段及び前記照明制御手段の制御に基づい
て、複数の照明条件による前記対象物の被写体画像を一
つの画像中に撮像して入力することを特徴とする。
An image input apparatus according to the present invention comprises: an image pickup means for picking up an image of an object; an illumination means for illuminating the object under a plurality of illumination conditions; An object moving unit that moves within the area, an imaging control unit that performs exposure control of the imaging unit, and an illumination control unit that performs light emission control of the illumination unit, and controls the imaging control unit and the illumination control unit. , A subject image of the object under a plurality of lighting conditions is captured in one image and input.

【0010】また、好ましくは、前記撮像手段は、外部
からの露光信号によって露光時間を任意に制御可能な撮
像素子を有してなり、前記撮像制御手段は、前記対象物
が前記撮像手段の撮像エリア内にある間は露光信号を出
力して前記撮像手段において露光するように露光制御を
行い、前記照明制御手段は、前記対象物が前記撮像手段
の撮像エリア内を移動しているときに発光信号を出力し
て異なる複数の位置でそれぞれ異なる照明条件によって
前記照明手段を発光させるように発光制御を行うことを
特徴とする。
Preferably, the imaging means has an imaging element capable of arbitrarily controlling an exposure time by an external exposure signal, and the imaging control means includes means for imaging the object by the imaging means. Exposure control is performed such that an exposure signal is output and exposure is performed in the imaging unit while the object is in the area, and the illumination control unit emits light when the object is moving in the imaging area of the imaging unit. It is characterized in that light emission control is performed such that a signal is output to cause the lighting means to emit light at different positions under different lighting conditions.

【0011】また、好ましくは、前記対象物移動手段
は、前記対象物を前記撮像手段の撮像エリア内において
一次元的に移動させる一軸ステージを有してなり、この
一軸ステージは前記対象物の位置を検出するためのリニ
アスケールを備え、前記照明手段は、異なる照明条件で
それぞれ照明光を発光する複数の照明装置を有してな
り、前記照明制御手段は、前記一軸ステージのリニアス
ケールの出力に基づいて、2つ以上の所定の発光位置に
前記対象物が位置したときにそれぞれ前記複数の照明装
置のうちの1つを発光させることを特徴とする。
Preferably, the object moving means has a one-axis stage for moving the object one-dimensionally within the imaging area of the imaging means, and the one-axis stage is located at the position of the object. The illumination means has a plurality of illumination devices each emitting illumination light under different illumination conditions, and the illumination control means outputs the linear scale output of the uniaxial stage. Based on the above, one of the plurality of lighting devices emits light when the object is located at two or more predetermined light emitting positions.

【0012】本発明では、撮像手段の撮像エリア内で対
象物を移動させながら、所定期間撮像手段を露光状態と
し、その間に複数の異なる照明条件で照明光を発光する
ことにより、例えば露光時間を所定期間継続した状態
で、対象物が複数の所定位置にあるときにそれぞれ複数
の照明条件で照明光を短時間ストロボ発光することによ
って、複数の異なる照明条件による対象物の被写体画像
を一枚の画像中に撮像して入力可能となる。
According to the present invention, while moving an object in the image pickup area of the image pickup means, the image pickup means is exposed to light for a predetermined period of time, and during that time, illumination light is emitted under a plurality of different illumination conditions. When the object is at a plurality of predetermined positions in a state where the object is at a plurality of predetermined positions for a short period of time, the illumination light is strobed for a short time under a plurality of illumination conditions, so that a subject image of the object under a plurality of different illumination conditions can be converted into one An image can be picked up and input in an image.

【0013】このとき、例えば、一軸ステージに取り付
けられた部品吸着ノズルにより吸着されて搬送される対
象物である電子部品が、移動しながらCCDカメラ等の
撮像装置の撮像エリア内を通過するとき、撮像装置が露
光している間に複数の照明装置による時間をずらした短
時間の発光が発生し、一枚の画像に複数の照明装置の照
明光による被写体画像が記録される。撮像装置によって
露光を開始及び終了する位置と、それぞれの照明装置が
発光する発光位置は、対象物の撮像エリア内における位
置によって予め決定されている。また、このときの対象
物の位置は、対象物を搬送する一軸ステージに取り付け
られたリニアスケールとパルスカウンタにより計測さ
れ、対象物が撮像エリアを通過している間は露光状態と
なり、この露光時間において、一軸ステージ上での対象
物の位置が予め記憶されている発光位置にくると、照明
装置が発光する。
At this time, for example, when an electronic component, which is an object sucked and conveyed by a component suction nozzle attached to a uniaxial stage, passes through an imaging area of an imaging device such as a CCD camera while moving, During the exposure of the image pickup device, a short-time light emission is generated by the plurality of lighting devices at different times, and a subject image is recorded in one image by the lighting light of the plurality of lighting devices. The positions at which exposure is started and ended by the imaging device and the light emission positions at which the respective illumination devices emit light are determined in advance by the position of the target in the imaging area. The position of the object at this time is measured by a linear scale and a pulse counter attached to the uniaxial stage that conveys the object, and is in an exposure state while the object is passing through the imaging area. In, when the position of the object on the uniaxial stage comes to a light emission position stored in advance, the lighting device emits light.

【0014】上記のように異なる照明条件によって対象
物を撮像した複数の被写体画像を一枚の画像中に記録
し、複数の画像を同時に入力することによって、画像入
力時間が短縮される。また、一枚の画像中に撮像された
複数の対象物の被写体画像は、それぞれ既知のアルゴリ
ズムによって高速に精度よく認識できるため、高速で正
確な対象物の位置検出が可能となる。
As described above, a plurality of subject images obtained by capturing an object under different lighting conditions are recorded in one image, and a plurality of images are input at the same time, thereby shortening the image input time. In addition, since the subject images of a plurality of objects captured in one image can be quickly and accurately recognized by a known algorithm, the position of the object can be detected quickly and accurately.

【0015】[0015]

【発明の実施の形態】以下、図面を参照して本発明の実
施の形態を説明する。図1は本発明の一実施形態に係る
画像入力装置の構成を示すブロック図である。本実施形
態では、電子部品実装装置用の画像認識装置を例にして
構成及び動作を説明する。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing a configuration of an image input device according to one embodiment of the present invention. In the present embodiment, the configuration and operation will be described by taking an image recognition device for an electronic component mounting device as an example.

【0016】画像認識装置において入力部を構成する画
像入力装置は、1つの軸方向に一次元的に搬送可能な対
象物移動手段であるリニアスケール付一軸ステージ1
と、この一軸ステージ1上に取り付けられて吸着した部
品3とともに搬送軸上を移動する部品吸着ノズル2と、
CCD等による撮像素子を有してなる撮像手段であるC
CDカメラ4と、撮像の対象物である部品3を異なる照
明条件でそれぞれ照明する照明手段である第1照明装置
5、第2照明装置6、及び第3照明装置7を備えてい
る。
An image input device constituting an input unit in the image recognition device is a uniaxial stage 1 with a linear scale, which is an object moving means capable of being conveyed one-dimensionally in one axial direction.
A component suction nozzle 2 that moves on the transport axis together with the component 3 attached and suctioned on the uniaxial stage 1;
C which is an imaging means having an imaging device such as a CCD
A CD camera 4 and a first illuminating device 5, a second illuminating device 6, and a third illuminating device 7, which are illuminating means for illuminating the component 3 to be imaged under different illumination conditions, respectively, are provided.

【0017】前記部品吸着ノズル2は、基板実装部品等
の電子部品である部品3を吸着してCCDカメラ4の視
野上を移動するようにセットされている。また、一軸ス
テージ1の近傍には、CCDカメラ4とともに第1照明
装置5、第2照明装置6、及び第3照明装置7が配設さ
れている。
The component suction nozzle 2 is set so as to suck a component 3, which is an electronic component such as a board mounted component, and move on the field of view of the CCD camera 4. In the vicinity of the uniaxial stage 1, a first illuminator 5, a second illuminator 6, and a third illuminator 7 are arranged together with the CCD camera 4.

【0018】CCDカメラ4はA/D回路8を介して画
像メモリ9に接続されており、CCDカメラ4で撮像さ
れ出力される撮像信号はA/D回路8で例えば8ビット
の画像データに変換されて画像メモリ9に蓄えられるよ
うになっている。このCCDカメラ4には撮像制御手段
として機能する露光制御回路13が接続され、CCDカ
メラ4における撮像時の露光時間が制御されるようにな
っている。第1〜第3照明装置5〜7には照明制御手段
として機能する照明制御回路14が接続され、一軸ステ
ージ1により搬送される部品3の位置によって各々の照
明装置5,6,7の発光時間が制御されるようになって
いる。
The CCD camera 4 is connected to an image memory 9 via an A / D circuit 8, and an image signal picked up and output by the CCD camera 4 is converted by the A / D circuit 8 into, for example, 8-bit image data. And stored in the image memory 9. The CCD camera 4 is connected to an exposure control circuit 13 functioning as an imaging control means, so that the exposure time of the CCD camera 4 at the time of imaging is controlled. An illumination control circuit 14 functioning as illumination control means is connected to the first to third illumination devices 5 to 7, and the light emission time of each of the illumination devices 5, 6, and 7 depends on the position of the component 3 conveyed by the uniaxial stage 1. Is controlled.

【0019】一軸ステージ1にはパルスカウンタ15が
接続されており、一軸ステージ1のリニアスケール上を
部品吸着ノズル2が移動する際に発生するパルスがこの
パルスカウンタ15によってカウントされ、カウンタ値
が出力される。すなわち、このカウンタ値によって示さ
れる部品3の位置情報が露光制御回路13及び照明制御
回路14に出力されるようになっている。
A pulse counter 15 is connected to the single-axis stage 1, and pulses generated when the component suction nozzle 2 moves on the linear scale of the single-axis stage 1 are counted by the pulse counter 15, and the counter value is output. Is done. That is, the position information of the component 3 indicated by the counter value is output to the exposure control circuit 13 and the illumination control circuit 14.

【0020】また、本装置の各部の動作制御を行うCP
U10、動作制御用プログラムなどが記憶されたプログ
ラムメモリ11、動作時に用いられる設定情報のデータ
などを記憶するワークメモリ12が設けられ、これらは
露光制御回路13、照明制御回路14、及び画像メモリ
9とともにバス16によって相互に接続されている。
A CP for controlling the operation of each part of the apparatus is provided.
U10, a program memory 11 storing an operation control program and the like, and a work memory 12 storing data of setting information used at the time of operation, etc., are provided. These are an exposure control circuit 13, an illumination control circuit 14, and an image memory 9. Are interconnected by a bus 16.

【0021】CPU10は、画像メモリ9に蓄えられた
画像データに対して、プログラムメモリ11に記憶され
ている処理手順に従って画像認識処理を行い、部品3の
位置及び姿勢の認識を行う。また、CPU10は、ワー
クメモリ12に記憶されているCCDカメラ4の露光制
御用の情報や照明制御用の情報に従って、露光制御回路
13及び照明制御回路14を制御する。
The CPU 10 performs image recognition processing on the image data stored in the image memory 9 in accordance with the processing procedure stored in the program memory 11, and recognizes the position and orientation of the component 3. The CPU 10 controls the exposure control circuit 13 and the illumination control circuit 14 in accordance with the information for controlling the exposure of the CCD camera 4 and the information for controlling the illumination stored in the work memory 12.

【0022】このCPU10による制御に応じて、露光
制御回路13は、パルスカウンタ15から出力される一
軸ステージ1上の部品吸着ノズル2の位置情報を入力
し、部品3がCCDカメラ4の視野内の予め決められて
いる第1位置Aにきたときから予め決められた第2位置
Bにくるまでの間、CCDカメラ4に対して露光信号を
出力する。これにより、CCDカメラ4において前記露
光信号が出力されている露光時間は露光が行われ、光電
変換により部品3を撮像した被写体画像の撮像信号が得
られる。
Under the control of the CPU 10, the exposure control circuit 13 inputs the position information of the component suction nozzle 2 on the uniaxial stage 1 output from the pulse counter 15, and the component 3 is positioned within the field of view of the CCD camera 4. An exposure signal is output to the CCD camera 4 from the time when the first position A is determined to the time when the second position B is reached. Thus, exposure is performed during the exposure time during which the exposure signal is output from the CCD camera 4, and an imaging signal of a subject image obtained by imaging the component 3 by photoelectric conversion is obtained.

【0023】また、照明制御回路14は、予め設定され
た複数の発光位置として一軸ステージ1上での位置情報
を記憶しており、パルスカウンタ15から出力される一
軸ステージ1上の部品吸着ノズル2の位置情報を入力
し、部品3がCCDカメラ4の視野内の第3位置Cにき
たとき、第1照明装置5に対して発光信号を出力する。
そして、この発光信号が出力されている第1発光時間に
第1照明装置5が発光し、第1照明光によって部品3が
照明される。同様に、部品3がCCDカメラ4の視野内
の第4位置Dにきたとき、第2照明装置6に対して発光
信号を出力する。そして、この発光信号が出力されてい
る第2発光時間に第2照明装置6が発光し、第2照明光
によって部品3が照明される。さらに、部品3がCCD
カメラ4の視野内の第5位置Eにきたとき、第3照明装
置7に対して発光信号を出力する。そして、この発光信
号が出力されている第3発光時間に第3照明装置7が発
光し、第3照明光によって部品3が照明される。上記動
作により、複数(ここでは3つ)の照明条件による照明
が行われる。
The illumination control circuit 14 stores positional information on the uniaxial stage 1 as a plurality of preset light emitting positions, and outputs a component suction nozzle 2 on the uniaxial stage 1 output from the pulse counter 15. When the component 3 comes to the third position C in the field of view of the CCD camera 4, a light emission signal is output to the first lighting device 5.
Then, the first lighting device 5 emits light during the first emission time during which the emission signal is output, and the component 3 is illuminated by the first illumination light. Similarly, when the component 3 reaches the fourth position D in the field of view of the CCD camera 4, it outputs a light emission signal to the second lighting device 6. Then, the second lighting device 6 emits light during the second emission time during which the emission signal is output, and the component 3 is illuminated by the second illumination light. Furthermore, the component 3 is a CCD
When reaching the fifth position E in the field of view of the camera 4, a light emission signal is output to the third lighting device 7. Then, the third lighting device 7 emits light during the third emission time during which the emission signal is output, and the component 3 is illuminated by the third illumination light. By the above operation, illumination under a plurality of (here, three) illumination conditions is performed.

【0024】なお、CCDカメラ4によって露光を開始
及び終了する位置を示す第1位置A,第2位置Bと、そ
れぞれの照明装置5〜7が発光する発光位置を示す第3
位置C,第4位置,第5位置Eは、部品3の撮像エリア
内における位置によって予め決定されている。また、こ
のときの部品3の位置は、部品3を搬送する一軸ステー
ジ1に取り付けられたリニアスケールとパルスカウンタ
により計測されており、一軸ステージ1上での部品3の
位置が予め記憶されている発光位置にくると、照明装置
5〜7が発光するようになっている。
A first position A and a second position B indicating positions where exposure is started and ended by the CCD camera 4, and a third position indicating light emission positions at which the respective illumination devices 5 to 7 emit light.
The position C, the fourth position, and the fifth position E are determined in advance by the position of the component 3 in the imaging area. The position of the component 3 at this time is measured by a linear scale and a pulse counter attached to the uniaxial stage 1 for transporting the component 3, and the position of the component 3 on the uniaxial stage 1 is stored in advance. When the light emitting position is reached, the lighting devices 5 to 7 emit light.

【0025】上記の第1〜第5の位置A〜Eは、ワーク
メモリ12に予め記憶されており、CPU10が適時ワ
ークメモリ12から読み出し、露光制御回路13、照明
制御回路14にそれぞれ設定する。
The above-mentioned first to fifth positions A to E are stored in the work memory 12 in advance, and are read from the work memory 12 by the CPU 10 at appropriate times and set in the exposure control circuit 13 and the illumination control circuit 14, respectively.

【0026】次に、上記の露光制御及び照明制御につい
て図2及び図3を用いてより詳しく説明する。図2は露
光時間及び発光時間を説明するための動作説明図、図3
は露光信号及び発光信号の出力タイミングを示すタイム
チャートである。図2において、部品3を吸着保持した
部品吸着ノズル2は、図中の左方向から右方向に移動
し、CCDカメラ4の視野範囲である撮像エリア21を
通過する。ここで、図3に示すような発光信号によっ
て、部品吸着ノズル2が第3位置Cにきたときに第1照
明装置5が発光して第1照明光が照射され、第4位置D
にきたときに第2照明装置6が発光して第2照明光が照
射され、第5位置Eにきたときに第3照明装置7が発光
して第3照明光が照射される。これにより、発光毎に照
明条件を変えることができる。このとき、それぞれの照
明装置5,6,7が発光する時間は非常にわずかな時間
であり、また、これらの照明装置5〜7は同時に発光す
ることはない。
Next, the above-described exposure control and illumination control will be described in more detail with reference to FIGS. FIG. 2 is an operation explanatory diagram for explaining an exposure time and a light emission time, and FIG.
Is a time chart showing the output timing of the exposure signal and the emission signal. In FIG. 2, the component suction nozzle 2 that suctions and holds the component 3 moves from left to right in the figure and passes through an imaging area 21 that is a field of view of the CCD camera 4. Here, the first illumination device 5 emits light and emits first illumination light when the component suction nozzle 2 comes to the third position C by the light emission signal as shown in FIG.
The second illumination device 6 emits light when it comes to the second position, and the second illumination light is emitted. When it comes to the fifth position E, the third illumination device 7 emits light and the third illumination light is emitted. Thus, the lighting conditions can be changed for each light emission. At this time, the lighting devices 5, 6, and 7 emit light for a very short time, and the lighting devices 5 to 7 do not emit light at the same time.

【0027】一方、CCDカメラ4の露光時間は、図3
に示すような露光信号によって、部品吸着ノズル2が第
3位置Cにくる少し前の第1位置Aから、第5位置Eを
通過した少し後の第2位置Bまでの時間になる。すなわ
ち、一軸ステージ1によって搬送される部品3がCCD
カメラ4の撮像エリア内に入ってから撮像エリアを通過
している時間内は常に露光状態となる。このように、移
動している部品3が撮像エリア21に位置している間は
CCDカメラ4により継続的に露光を行い、この露光時
間内に異なる3つの位置でそれぞれ照明装置5〜7を順
にストロボ発光することによって、部品3について一枚
の画像中に3つの異なる照明条件による被写体画像が並
べて撮像される。このときの撮影条件としては、例え
ば、1回の露光時間を1ms程度とし、この露光時間の
間に100μs程度の発光を複数回行うようにする。
On the other hand, the exposure time of the CCD camera 4 is shown in FIG.
Is the time from the first position A, which is shortly before the component suction nozzle 2 reaches the third position C, to the second position B, which is shortly after passing through the fifth position E. That is, the component 3 conveyed by the uniaxial stage 1 is a CCD
The exposure state is always maintained during the time when the camera 4 passes through the imaging area after entering the imaging area. Thus, while the moving component 3 is located in the imaging area 21, the CCD camera 4 continuously performs exposure, and the illumination devices 5 to 7 are sequentially turned on at three different positions within this exposure time. By emitting the strobe light, subject images under three different lighting conditions are imaged side by side in one image of the component 3. As the photographing conditions at this time, for example, one exposure time is about 1 ms, and light emission of about 100 μs is performed plural times during this exposure time.

【0028】図4は上記のように制御されたCCDカメ
ラ4によって撮像された部品3の画像の例を示してい
る。撮像エリア22内には、部品3の画像として、第1
照明光によって照明された第1照明画像23と、第2照
明光によって照明された第2照明画像24と、第3照明
光によって照明された第3照明画像25とが撮像されて
いる。すなわち、3つの照明条件で照明された部品3の
被写体画像が一枚の画像上に並べて配置されて記録さ
れ、その画像データがCPU10に送られて処理され
る。
FIG. 4 shows an example of an image of the component 3 captured by the CCD camera 4 controlled as described above. In the imaging area 22, the first
A first illumination image 23 illuminated by the illumination light, a second illumination image 24 illuminated by the second illumination light, and a third illumination image 25 illuminated by the third illumination light are captured. That is, the subject images of the component 3 illuminated under the three illumination conditions are arranged and recorded side by side on one image, and the image data is sent to the CPU 10 for processing.

【0029】図5は図4の画像データに対する部品位置
認識のための処理手順を説明する図である。CPU10
は、プログラムメモリ11に記憶されている処理手順に
従って入力された画像データの処理を行い、部品3の位
置や姿勢を認識する。このCPU10に入力される画像
データ30は、複数の照明条件による部品の画像とし
て、第1照明画像23、第2照明画像24、第3照明画
像25の3つの画像が一枚の画像中に撮像され記録され
ている。ここでは、基板に表面実装されるチップ状の電
子部品を撮像した場合を示しており、それぞれの画像2
3〜25は、部品のボディ部27と電極部28とが互い
に異なる明るさまたは色調で撮像されている。
FIG. 5 is a diagram for explaining a processing procedure for recognizing a component position with respect to the image data of FIG. CPU10
Performs the processing of the input image data in accordance with the processing procedure stored in the program memory 11 and recognizes the position and orientation of the component 3. The image data 30 input to the CPU 10 includes three images of a first illumination image 23, a second illumination image 24, and a third illumination image 25 as one component image under a plurality of illumination conditions. Recorded. Here, a case where an image of a chip-shaped electronic component mounted on a surface of a substrate is captured is shown.
In Nos. 3 to 25, the body part 27 and the electrode part 28 of the component are imaged with different brightness or color tone.

【0030】まず第1ステップとして、画像データ30
における左部の第1照明画像23を含む第1視野31の
中から、部品のボディ部27を抽出し、部品の大体の位
置(粗中心)を検出する。次に第2ステップとして、前
記第1ステップで求めた粗中心データから、画像データ
30における中央部の第2照明画像24を含む第2視野
32を設定し、この第2視野32の中で部品の電極部2
8の詳細位置を検出し、部品の位置を決定する。また第
3ステップとして、前記第1ステップで求めた粗中心デ
ータから、画像データ30における右部の第3照明画像
25を含む第3視野33を設定し、この第3視野33中
の部品の画像から部品の姿勢を認識する。この姿勢認識
により、電子部品の立ち吸着などの異常な姿勢を検出す
ることができる。
First, as a first step, the image data 30
, The body part 27 of the component is extracted from the first field of view 31 including the first illumination image 23 on the left side, and the approximate position (coarse center) of the component is detected. Next, as a second step, a second field of view 32 including the second illumination image 24 at the center of the image data 30 is set from the coarse center data obtained in the first step. Electrode part 2
8 to determine the position of the part. As a third step, a third field of view 33 including the right third illumination image 25 in the image data 30 is set from the coarse center data obtained in the first step, and an image of the component in the third field of view 33 is set. Recognize the posture of the part from With this posture recognition, it is possible to detect an abnormal posture such as a standing suction of the electronic component.

【0031】この場合、第1照明装置5からの第1照明
光によって、部品のボディ部を抽出して粗中心を検出す
るのに適した第1の照明条件が実現され、第1照明画像
23が撮像される。また、第2照明装置6からの第2照
明光によって、部品の電極部を抽出して詳細位置を検出
するのに適した第2の照明条件が実現され、第2照明画
像24が撮像される。また、第3照明装置7からの第3
照明光によって、部品の姿勢を認識するのに適した第3
の照明条件が実現され、第3照明画像25が撮像され
る。そして、CPU10はそれぞれの照明条件ごとにア
ルゴリズムを切り換えて上記の3つのステップによる画
像認識処理を行う。なお、上記の粗中心、詳細位置、及
び姿勢の検出においては、それぞれ従来から用いられて
いる公知のアルゴリズムを使用することによって各位置
情報を検出できる。本実施形態では、3つの照明条件で
撮像した画像を処理することにより、より正確に電子部
品の位置と姿勢を同時に認識することができる。
In this case, the first illuminating light from the first illuminating device 5 realizes the first illuminating condition suitable for extracting the body part of the component and detecting the coarse center, and the first illuminating image 23 Is imaged. The second illumination light from the second illumination device 6 realizes a second illumination condition suitable for extracting an electrode part of a component and detecting a detailed position, and a second illumination image 24 is captured. . In addition, the third lighting device 7
3rd suitable for recognizing the attitude of parts by illumination light
Is realized, and the third illumination image 25 is captured. Then, the CPU 10 switches the algorithm for each lighting condition and performs the image recognition processing in the above three steps. In the above-described detection of the coarse center, the detailed position, and the posture, each position information can be detected by using a conventionally known algorithm. In the present embodiment, by processing images captured under three illumination conditions, the position and orientation of the electronic component can be more accurately recognized simultaneously.

【0032】[0032]

【発明の効果】以上説明したように本発明によれば、複
数の異なる照明条件による対象物の被写体画像を一枚の
画像中に撮像して入力することにより、対象物の位置認
識処理を高速化することが可能となる効果が得られる。
As described above, according to the present invention, the position of an object can be quickly recognized by capturing and inputting an object image of the object under a plurality of different lighting conditions in one image. The effect that can be obtained is obtained.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施形態に係る画像入力装置の構成
を示すブロック図である。
FIG. 1 is a block diagram illustrating a configuration of an image input device according to an embodiment of the present invention.

【図2】本実施形態における露光時間及び発光時間を説
明するための動作説明図である。
FIG. 2 is an operation explanatory diagram for explaining an exposure time and a light emission time in the embodiment.

【図3】本実施形態における露光信号及び発光信号の出
力タイミングを示すタイムチャートである。
FIG. 3 is a time chart showing output timings of an exposure signal and a light emission signal in the embodiment.

【図4】本実施形態において撮像された部品の画像の例
を示す説明図である。
FIG. 4 is an explanatory diagram illustrating an example of an image of a component captured in the present embodiment.

【図5】図4の画像データに対する部品位置認識のため
の処理手順を説明する図である。
FIG. 5 is a diagram illustrating a processing procedure for component position recognition with respect to the image data of FIG. 4;

【符号の説明】[Explanation of symbols]

1 一軸ステージ 2 部品吸着ノズル 3 部品 4 CCDカメラ 5,6,7 照明装置 8 A/D回路 9 画像メモリ 10 CPU 11 プログラムメモリ 12 ワークメモリ 13 露光制御回路 14 照明制御回路 15 パルスカウンタ Reference Signs List 1 uniaxial stage 2 component suction nozzle 3 component 4 CCD camera 5, 6, 7 illumination device 8 A / D circuit 9 image memory 10 CPU 11 program memory 12 work memory 13 exposure control circuit 14 illumination control circuit 15 pulse counter

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) // H05K 13/08 H05K 13/08 Q Fターム(参考) 5B047 AA12 AA27 AB02 BA01 BB06 BC11 CA19 5B057 AA03 BA02 CA08 CA12 CA16 CB18 DA07 DB02 DB09 5C022 AA01 AA13 AB15 AC01 AC41 5C054 AA05 CA04 CC02 CE16 EA01 FA09 FC15 HA03 HA05 ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) // H05K 13/08 H05K 13/08 Q F term (Reference) 5B047 AA12 AA27 AB02 BA01 BB06 BC11 CA19 5B057 AA03 BA02 CA08 CA12 CA16 CB18 DA07 DB02 DB09 5C022 AA01 AA13 AB15 AC01 AC41 5C054 AA05 CA04 CC02 CE16 EA01 FA09 FC15 HA03 HA05

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 対象物を撮像する撮像手段と、 前記対象物を複数の照明条件によって照明する照明手段
と、 前記対象物を前記撮像手段の撮像エリア内で移動させる
対象物移動手段と、 前記撮像手段の露光制御を行う撮像制御手段と、 前記照明手段の発光制御を行う照明制御手段とを備え、 前記撮像制御手段及び前記照明制御手段の制御に基づい
て、複数の照明条件による前記対象物の被写体画像を一
つの画像中に撮像して入力することを特徴とする画像入
力装置。
An imaging unit configured to image an object; an illumination unit configured to illuminate the object under a plurality of illumination conditions; an object moving unit configured to move the object within an imaging area of the imaging unit; An imaging control unit that performs exposure control of the imaging unit; and an illumination control unit that performs light emission control of the illumination unit. The object under a plurality of illumination conditions based on the control of the imaging control unit and the illumination control unit. An image input apparatus characterized in that a subject image is captured and input in one image.
【請求項2】 前記撮像手段は、外部からの露光信号に
よって露光時間を任意に制御可能な撮像素子を有してな
り、 前記撮像制御手段は、前記対象物が前記撮像手段の撮像
エリア内にある間は露光信号を出力して前記撮像手段に
おいて露光するように露光制御を行い、 前記照明制御手段は、前記対象物が前記撮像手段の撮像
エリア内を移動しているときに発光信号を出力して異な
る複数の位置でそれぞれ異なる照明条件によって前記照
明手段を発光させるように発光制御を行うことを特徴と
する請求項1記載の画像入力装置。
2. The image pickup means includes an image pickup device capable of arbitrarily controlling an exposure time by an external exposure signal. During a certain period, exposure control is performed such that an exposure signal is output to perform exposure in the imaging unit, and the illumination control unit outputs a light emission signal when the object is moving in an imaging area of the imaging unit. 2. The image input device according to claim 1, wherein the light emission control is performed so that the lighting unit emits light at different positions under different lighting conditions.
【請求項3】 前記対象物移動手段は、前記対象物を前
記撮像手段の撮像エリア内において一次元的に移動させ
る一軸ステージを有してなり、この一軸ステージは前記
対象物の位置を検出するためのリニアスケールを備え、 前記照明手段は、異なる照明条件でそれぞれ照明光を発
光する複数の照明装置を有してなり、 前記照明制御手段は、前記一軸ステージのリニアスケー
ルの出力に基づいて、2つ以上の所定の発光位置に前記
対象物が位置したときにそれぞれ前記複数の照明装置の
うちの1つを発光させることを特徴とする請求項2記載
の画像入力装置。
3. The object moving means has a one-axis stage for moving the object one-dimensionally in an imaging area of the imaging means, and the one-axis stage detects a position of the object. A linear scale for the, the lighting means, has a plurality of lighting devices that emit illumination light under different lighting conditions, the lighting control means, based on the output of the linear scale of the uniaxial stage, The image input device according to claim 2, wherein one of the plurality of lighting devices emits light when the object is located at two or more predetermined light emitting positions.
JP2001160691A 2001-05-29 2001-05-29 Image input device Withdrawn JP2002352232A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001160691A JP2002352232A (en) 2001-05-29 2001-05-29 Image input device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001160691A JP2002352232A (en) 2001-05-29 2001-05-29 Image input device

Publications (1)

Publication Number Publication Date
JP2002352232A true JP2002352232A (en) 2002-12-06

Family

ID=19004065

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001160691A Withdrawn JP2002352232A (en) 2001-05-29 2001-05-29 Image input device

Country Status (1)

Country Link
JP (1) JP2002352232A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2006082639A1 (en) * 2005-02-03 2008-06-26 富士通株式会社 Mark image processing method, program, and apparatus
CN110800391A (en) * 2017-07-17 2020-02-14 先进装配系统有限责任两合公司 Measurement of components before picking by a placement head
WO2020070858A1 (en) * 2018-10-04 2020-04-09 株式会社Fuji Camera for capturing component images, and component mounting machine

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2006082639A1 (en) * 2005-02-03 2008-06-26 富士通株式会社 Mark image processing method, program, and apparatus
JP4618691B2 (en) * 2005-02-03 2011-01-26 富士通株式会社 Mark image processing method, program, and apparatus
CN110800391A (en) * 2017-07-17 2020-02-14 先进装配系统有限责任两合公司 Measurement of components before picking by a placement head
CN110800391B (en) * 2017-07-17 2020-12-29 先进装配系统有限责任两合公司 Measurement of components before picking by a placement head
WO2020070858A1 (en) * 2018-10-04 2020-04-09 株式会社Fuji Camera for capturing component images, and component mounting machine

Similar Documents

Publication Publication Date Title
JP5753020B2 (en) Component mounting equipment
US7581313B2 (en) Component mounting method and mounter
JPH05343889A (en) Method and device for mounting component
US20120288183A1 (en) Electronic part recognition apparatus and chip mounter having the same
JP2000124683A (en) Image pickup of electronic component and electronic component mounting equipment
JP2002352232A (en) Image input device
JP3434004B2 (en) Component recognition device and component mounting device
JP6836938B2 (en) Manufacturing method of die bonding equipment and semiconductor equipment
JP2000307298A (en) Method of mounting part
JP4704218B2 (en) Component recognition method, apparatus and surface mounter
JP2006287199A (en) Method of mounting component and component mounter
JP4307054B2 (en) Component imaging device
JP2001156498A (en) Method of detecting brought-back electronic component in surface-mounting machine
CN111564375A (en) Mounting apparatus and method for manufacturing semiconductor device
JP2005252292A (en) Image pickup of electronic component and electronic component mounting apparatus
JP2008160136A (en) Image pickup method of electronic component and electronic component mounting apparatus
JP2006054484A (en) Image pickup method of electronic component and electronic component mounting device
JP4488722B2 (en) Electronic component mounting apparatus recognition method and recognition apparatus
JP2002181733A (en) Apparatus for inspecting printed board
KR100515446B1 (en) Electronic component mounting device and mounting control method
JP7015709B2 (en) Board work equipment
JP4112563B2 (en) Electronic component mounting method and electronic component mounting apparatus
JPH11272838A (en) Article image pickup method and electronic component mounting device
JP3006437B2 (en) Electronic component observation device and electronic component observation method
JP2001101416A (en) Device and method for processing image and inspecting method

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20060324

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20071114

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20071121

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20071128

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20071205

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20071212

A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080805