JP2007025830A - Method and device for recognizing three-dimensional object - Google Patents

Method and device for recognizing three-dimensional object Download PDF

Info

Publication number
JP2007025830A
JP2007025830A JP2005203791A JP2005203791A JP2007025830A JP 2007025830 A JP2007025830 A JP 2007025830A JP 2005203791 A JP2005203791 A JP 2005203791A JP 2005203791 A JP2005203791 A JP 2005203791A JP 2007025830 A JP2007025830 A JP 2007025830A
Authority
JP
Japan
Prior art keywords
image
dimensional object
captured
pixel
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2005203791A
Other languages
Japanese (ja)
Inventor
Yoshihiro Sakakibara
義宏 榊原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Plant Technologies Ltd
Original Assignee
Hitachi Plant Technologies Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Plant Technologies Ltd filed Critical Hitachi Plant Technologies Ltd
Priority to JP2005203791A priority Critical patent/JP2007025830A/en
Publication of JP2007025830A publication Critical patent/JP2007025830A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Microscoopes, Condenser (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a method and device for recognizing a three-dimensional object for acquiring the clear whole image of a three-dimensional object existing in a general space, and for measuring the shape of the object. <P>SOLUTION: This method for recognizing a three-dimensional object is provided to extract and compound one pixel image of an image pickup element corresponding to a selected image pickup position based on luminance information when an image is picked up from a plurality of images picked up at positions where optical axial directions are different, and to acquire the image of the three-dimensional object. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、カメラ等の撮像手段によって撮像された情報から3次元物体を認識する方法とその装置に関する。   The present invention relates to a method and apparatus for recognizing a three-dimensional object from information imaged by an imaging means such as a camera.

従来、顕微鏡によって観察物等の3次元物体の画像を撮像するものにおいて、その3次元物体が顕微鏡の光軸方向に高さを有している場合、その焦点深度の関係上、前述した3次元物体を一括して撮像表示することができないという不具合が有る。この不具合を解消するために、特許文献1に示されるように、3次元物体の拡大像を複数の光路に分割し、この分割した3次元物体の拡大像をその高さ方向の異なる観察位置にそれぞれ合焦し得るように構成し、かつ、同期結合された複数の撮像手段で撮影し、各撮像手段から得られた映像信号を任意の範囲で電気的に切出し合成して、高さ方向の異なるそれぞれの観察位置に合焦した1画面分の合成映像信号を得るものがある。   Conventionally, in a case where an image of a three-dimensional object such as an observation object is picked up by a microscope, when the three-dimensional object has a height in the optical axis direction of the microscope, the above-described three-dimensional There is a problem in that objects cannot be captured and displayed in a batch. In order to solve this problem, as shown in Patent Document 1, a magnified image of a three-dimensional object is divided into a plurality of optical paths, and the magnified image of the divided three-dimensional object is placed at different observation positions in the height direction. Each of the imaging means is configured so as to be able to be focused and photographed by a plurality of synchronously coupled imaging means, and the video signal obtained from each imaging means is electrically cut out and combined within an arbitrary range, and the height direction Some obtain a composite video signal for one screen focused on different observation positions.

また、顕微鏡下における精密加工品の表面凹凸形状を白色光の干渉を用いて測定する方法が、非特許文献1に示されている。   Further, Non-Patent Document 1 discloses a method for measuring the surface irregularity shape of a precision processed product under a microscope using interference of white light.

特開昭62−295015号公報Japanese Patent Laid-Open No. 62-295015 計測自動制御学会論文集(Vol.36,No.1,16/25 (2000))Transactions of the Society of Instrument and Control Engineers (Vol.36, No.1,16 / 25 (2000))

上記の従来技術においては、3次元物体の構造を詳細に観察しようとする場合、観察位置をその高さ方向に複数に分割する必要がある。このように観察位置を複数に分割すると、この分割数に応じたカメラ及びモニタが必要になり、構成が複雑になる。また、各カメラによって撮影した撮像の大きさに異なりを生じ、鮮明な合成画像を得ることができないという問題があった。   In the above prior art, when the structure of the three-dimensional object is to be observed in detail, it is necessary to divide the observation position into a plurality of parts in the height direction. If the observation position is divided into a plurality of parts as described above, a camera and a monitor corresponding to the number of divisions are required, and the configuration becomes complicated. In addition, there is a problem that the size of the image captured by each camera varies, and a clear composite image cannot be obtained.

また、顕微鏡下における精密加工品の形状測定では、光学系を平行にすると共に、計測できる範囲は光の波長に依存し、ごく精密な測定範囲にしか応用できなかった。   Further, in the shape measurement of precision processed products under a microscope, the optical system is made parallel and the measurable range depends on the wavelength of light and can only be applied to a very precise measuring range.

本発明は、上述の事柄に基づいてなされたもので、一般的な空間に存在する3次元物体の鮮明な全体画像を得ると共に、その物体の形状を計測できる3次元物体の認識方法及び装置を提供することを目的とするものである。   The present invention has been made based on the above-described matters, and provides a 3D object recognition method and apparatus capable of obtaining a clear overall image of a 3D object existing in a general space and measuring the shape of the object. It is intended to provide.

上記目的を達成するために、本発明の3次元物体の認識方法は、撮像対象の画像を光軸方向の異なった位置で撮像し、この画像を撮像素子の1画素毎に番地付けすると共に、この番地毎に撮像対象までの距離情報を付加しておき、光軸方向の異なった位置で撮像された複数の画像から、前記距離情報に基づいて、各画像が撮像されたときの最も輝度の高いまたは輝度変化の大きな撮像位置を選択し、選択された撮像位置に対応する撮像素子の1画素画像を抽出して合成することにより、3次元物体の画像を得られるようにしたものである。   In order to achieve the above object, the three-dimensional object recognition method of the present invention images an image to be imaged at different positions in the optical axis direction, and addresses this image for each pixel of the image sensor. The distance information to the imaging target is added for each address, and the highest luminance when each image is captured from a plurality of images captured at different positions in the optical axis direction based on the distance information. An image of a three-dimensional object can be obtained by selecting an image pickup position that is high or has a large luminance change, and extracting and synthesizing one pixel image of the image pickup element corresponding to the selected image pickup position.

また、本発明の3次元物体の認識装置は、光軸方向の異なった位置で画像を撮像する撮像手段と、この撮像手段で撮像した画像を撮像素子の1画素毎に分け、各1画素を番地付けする画像処理手段と、試料基準面までの距離を算出または測定する距離測定手段と、この距離測定手段で測定した距離に基づいて、前記番地毎に撮像対象までの距離情報を作成する距離情報処理手段と、画像を合成する画像合成手段とを備え、光軸方向の異なった位置で撮像された複数の画像と、前記距離情報とに基づいて、各画像が撮像されたときの最も輝度の高いまたは輝度変化の大きな撮像位置を選択し、選択された撮像位置に対応する撮像素子の1画素画像を抽出して合成することにより、3次元物体の画像を得られるようにしたものである。   The three-dimensional object recognition apparatus of the present invention divides an image picked up by an image pickup means for picking up images at different positions in the optical axis direction and the image picked up by the image pickup means for each pixel of the image pickup device. An image processing means for assigning an address, a distance measuring means for calculating or measuring a distance to the sample reference surface, and a distance for creating distance information to the imaging target for each address based on the distance measured by the distance measuring means The information processing means and the image composition means for synthesizing the images, and based on the plurality of images taken at different positions in the optical axis direction and the distance information, the most luminance when each image is taken An image of a three-dimensional object can be obtained by selecting an image pickup position with a high brightness change or a large luminance change, and extracting and synthesizing one pixel image of the image pickup element corresponding to the selected image pickup position. .

本発明により、一般空間内に存在する物体の形状を、一般的なカメラを用いて、一画像で捕らえた透視変換された形状ではなく、等測投影した映像を得ると共に各画素までの距離情報を取得できることで3次元物体の形状を正確に認識することができる。   According to the present invention, the shape of an object existing in a general space is not a perspective-transformed shape captured using a general camera, but an isometric projection image, and distance information to each pixel is obtained. The shape of the three-dimensional object can be accurately recognized.

以下、本発明の一実施形態を、図面を用いて説明する。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings.

図1に本発明の3次元物体の形状を撮像する撮像手段をマニピュレータの手先に設けた例を示す。図1において、形状測定装置20は、マニピュレータ部31とマニピュレータ部31を制御する制御部30とからなる。マニピュレータ部31の先端部にはレンズ系1と、撮像手段(CCDカメラ)3が設けてある。制御部30には撮像手段からの信号を受け取り、画像処理部8に信号を送信する撮像信号受信部7と、画像処理した画像信号を記録する画像記録部9と、画像処理信号からレンズ系1と観察物あるいは被測定物となる3次元物体5との距離、や位置情報を処理する距離情報処理部10と、距離情報処理部10と画像記録部9の信号から合成画像を生成する画像合成部と、合成された画像を表示する表示部とからなる。さらに制御部30には、距離情報処理部10のデータに基づいてマニピュレータ部31を駆動制御するマニピュレータ駆動部12と、このマニピュレータ駆動部12の駆動経路制御を指令するマニピュレータ指令入力部14とを備えている。   FIG. 1 shows an example in which imaging means for imaging the shape of a three-dimensional object according to the present invention is provided at the hand of a manipulator. In FIG. 1, the shape measuring apparatus 20 includes a manipulator unit 31 and a control unit 30 that controls the manipulator unit 31. A lens system 1 and an imaging means (CCD camera) 3 are provided at the tip of the manipulator 31. The control unit 30 receives a signal from the imaging means and transmits the signal to the image processing unit 8; the image recording unit 9 that records the image processed image signal; and the lens system 1 from the image processing signal. Distance information processing unit 10 that processes the distance between the object and the three-dimensional object 5 that is the observation object or the object to be measured, and position information, and image synthesis that generates a composite image from signals from the distance information processing unit 10 and the image recording unit And a display unit for displaying the synthesized image. Further, the control unit 30 includes a manipulator driving unit 12 that drives and controls the manipulator unit 31 based on data of the distance information processing unit 10, and a manipulator command input unit 14 that commands driving path control of the manipulator driving unit 12. ing.

一方、マニピュレータ部31は、3次元物体5に対して撮像方向を決定するため多関節のロボットで構成され、複数の腕部4a〜4cと回転可能な関節部16a〜16dとから構成され、先端の腕には4aにはスライド軸2が設けてあり、このスライド軸2の先端部に撮像手段等が取付けてある。このマニピュレータシステムはマニピュレータ指令入力部14とマニピュレータ駆動部12によって作業を実行する。   On the other hand, the manipulator unit 31 is composed of an articulated robot for determining an imaging direction with respect to the three-dimensional object 5, and is composed of a plurality of arm portions 4a to 4c and rotatable joint portions 16a to 16d. The arm 4 is provided with a slide shaft 2 at 4a. This manipulator system performs work by a manipulator command input unit 14 and a manipulator drive unit 12.

次に、前述した本発明の形状測定装置の動作を図2に示すフローチャートに基づき説明する。   Next, the operation of the above-described shape measuring apparatus of the present invention will be described based on the flowchart shown in FIG.

3次元物体5とマニピュレータ部31の存在する空間の範囲が、撮像手段3面からの距離で表したときに、その最遠距離点Bと最近距離点Aの間にあるものとする。このとき、まず初めに3次元物体5の最遠距離点Bが撮像手段3の焦点が遠距離点側に合うように、マニピュレータ部31を駆動する(ステップ101)。このとき、3次元物体5の形状寸法を測定するために、3次元物体の基準面(本実施形態では3次元物体を載置したテーブル面を基準面としている)に対して垂直な直線上にマニピュレータ部31のスライド軸2が一致するような向きの姿勢をとるようにする。この状態で撮像した場合は、撮影後の座標変換等の手間を省くことができる。また、この姿勢は3次元物体の測定したい面が隠れないような姿勢をとることが望ましい。次に光学画像を撮像手段3で取り込む(ステップ102)。この光学画像は画像処理部8においてピクセル毎に番地付けされる。例えば、画像番号n、行番号x、列番号y、としてp(n,x,y)で表わされる。この番地付けされた画像は画像記憶部9に記憶する。次に、過去に撮像された画像の各ピクセル位置での最大輝度値と、今回撮像した画像の同じ位置のピクセルの輝度値を比較する(ステップ103)。   It is assumed that the space range in which the three-dimensional object 5 and the manipulator unit 31 exist is between the farthest distance point B and the nearest distance point A when represented by the distance from the surface of the imaging means 3. At this time, first, the manipulator unit 31 is driven so that the farthest distance point B of the three-dimensional object 5 is focused on the far distance point side (step 101). At this time, in order to measure the shape dimension of the three-dimensional object 5, it is on a straight line perpendicular to the reference surface of the three-dimensional object (in this embodiment, the table surface on which the three-dimensional object is placed is used as the reference surface). The posture of the manipulator unit 31 is set so that the slide shafts 2 coincide with each other. When imaging is performed in this state, the trouble of coordinate conversion after imaging can be saved. Further, it is desirable that this posture is such that the surface to be measured of the three-dimensional object is not hidden. Next, an optical image is captured by the imaging means 3 (step 102). This optical image is assigned to each pixel in the image processing unit 8. For example, the image number n, the row number x, and the column number y are represented by p (n, x, y). The addressed image is stored in the image storage unit 9. Next, the maximum luminance value at each pixel position of the image captured in the past is compared with the luminance value of the pixel at the same position of the image captured this time (step 103).

このとき、今までの最大輝度値MAXの方が、今回測定した輝度値よりも大きければ、最大輝度値MAX及び最大輝度を持つ画像のインデックスMはそのままとする(ステップ104)。反対に、過去に撮像された画像の各ピクセル位置での最大輝度値よりも今回撮像した輝度値の方が大きければ、最大輝度値MAXを今回撮像した輝度値で更新し、最大輝度値を持つ画像のインデックスを今回撮像した画像のインデックスの値Nに書き直す(ステップ105)。   At this time, if the maximum luminance value MAX so far is larger than the luminance value measured this time, the maximum luminance value MAX and the index M of the image having the maximum luminance are left as they are (step 104). On the contrary, if the brightness value captured this time is larger than the maximum brightness value at each pixel position of the image captured in the past, the maximum brightness value MAX is updated with the brightness value captured this time and has the maximum brightness value. The image index is rewritten to the index value N of the image captured this time (step 105).

次に、マニピュレータのスライド軸2を3次元物体5の測定解像度(測定時の撮像ピッチで、求める精度で決定される)の分だけ上昇させる(ステップ106)。マニピュレータのスライド軸2の最遠距離点Aから、測定分解能分ずつ移動させ、最近距離点Bになるまでステップ102からステップ106を繰り返す(ステップ107)。例えば、測定物を図6(d)に示すような直線と平面でできているもので、その形状検査を簡略に行なう場合などには、図6(a)〜図6(d)に示したような形状を測定したい面の高さに合わせて撮像を行なう。この場合、図に示す三角錐の形状を再現することはできないが、測定したい高さにおける断面外形形状の情報を取り出し、計測を行なうことが可能である。   Next, the slide shaft 2 of the manipulator is raised by the measurement resolution of the three-dimensional object 5 (determined with the required accuracy by the imaging pitch at the time of measurement) (step 106). The distance from the farthest distance point A of the manipulator slide shaft 2 is moved by the measurement resolution, and the steps 102 to 106 are repeated until the closest distance point B is reached (step 107). For example, when the object to be measured is made of a straight line and a flat surface as shown in FIG. 6 (d) and the shape inspection is performed simply, the measurement object is shown in FIGS. 6 (a) to 6 (d). Such a shape is imaged according to the height of the surface to be measured. In this case, the shape of the triangular pyramid shown in the figure cannot be reproduced, but it is possible to take out information on the cross-sectional outer shape at the height to be measured and perform measurement.

また、全体の形状を3次元的に再現することが必要な場合には、数マイクロメータ毎に撮像を実行することにより数マイクロメータ毎の断層写真を組み合わせた形で全体形状を表示し、それぞれの断層における寸法測定を行なうことが可能である。例えば、高さ方向の寸法を100マイクロメータの精度で測定したい場合には、1/10の10マイクロメータ毎の撮影を行い、輝度差の誤差の影響を受けないようにすることで精度向上が図れる。ただし、測定精度にはマニピュレータの位置決め精度、カメラ駆動系の最小移動分解能と精度が影響するため、精度に応じた周辺機器を用意する必要がある。これにより、測定分解能の幅でn枚の画像が画像記憶部9内に記憶される。   In addition, when it is necessary to reproduce the entire shape three-dimensionally, the entire shape is displayed in a combination of tomographic photographs of several micrometers by executing imaging every several micrometers. It is possible to measure the dimensions of faults. For example, if you want to measure the dimension in the height direction with an accuracy of 100 micrometers, the accuracy is improved by taking an image every 10 micrometers of 1/10 so that it is not affected by the error of the luminance difference. I can plan. However, since the measurement accuracy is affected by the positioning accuracy of the manipulator and the minimum moving resolution and accuracy of the camera drive system, it is necessary to prepare peripheral devices according to the accuracy. As a result, n images are stored in the image storage unit 9 with the width of the measurement resolution.

次に、画像の各ピクセル毎に対応した距離値を選択する。この選択の方法を以下説明する。   Next, a distance value corresponding to each pixel of the image is selected. This selection method will be described below.

まず、全画面合焦画像の微小領域(X,Y)=(1,1)の光学画像を選択する際には、NA枚の画像p(1,1,1)〜p(NA,1,1)で最も輝度値の高かった画像のインデックスMのついた画像を撮像したときのマニピュレータの位置とレンズ系の焦点の合わされた距離情報から3次元物体の相対位置が算出される。   First, when selecting an optical image of a minute region (X, Y) = (1, 1) of a full-screen focused image, NA images p (1, 1, 1) to p (NA, 1, The relative position of the three-dimensional object is calculated from distance information in which the position of the manipulator and the lens system are in focus when the image with the index M of the image having the highest luminance value in 1) is captured.

画面全体に渡り、このように最大輝度を示す画像のインデックスを選択することにより、各ピクセルにおける物体にピントの合った画像が選ばれる。選択したピクセルは画像合成部11において、他のピクセルと合成され、全画面に輪郭のクリアな合焦点画像を提供することができる。   By selecting the index of the image showing the maximum luminance in this way over the entire screen, an image in focus on the object at each pixel is selected. The selected pixel is synthesized with other pixels in the image synthesizing unit 11, and a focused image with a clear outline can be provided on the entire screen.

次に、本発明の装置による3次元物体5の一例として3角錐形状に対する合成画像の抽出方法を説明する。   Next, a method for extracting a composite image for a triangular pyramid shape as an example of the three-dimensional object 5 by the apparatus of the present invention will be described.

図3に観察物の一例となる3角錐形状の3次元物体5を示す。この3次元物体5は、三角錐の形状をしている。まず、図3に示すように、3次元物体5がカメラ視野に収まるような撮像範囲(図3では、撮像範囲撮像物体より大きめに撮像範囲(四角のエリア)を設定してある)を決定する。カメラの絞りは被写界深度が狭くなるように、絞り開放の状態で調整し、シャッター速度を高速に設定することで撮像中の3次元物体やマニピュレータの振動による撮像振れが少なくなるような調整を行う。   FIG. 3 shows a three-dimensional pyramid-shaped three-dimensional object 5 as an example of an observation object. The three-dimensional object 5 has a triangular pyramid shape. First, as shown in FIG. 3, an imaging range (in FIG. 3, the imaging range (square area) is set larger than the imaging range imaging object) such that the three-dimensional object 5 is within the camera field of view is determined. . Adjust the aperture of the camera so that the depth of field is narrow, with the aperture open, and set the shutter speed to a high speed to reduce imaging shake due to the vibration of the three-dimensional object or manipulator being imaged. I do.

カメラに取付けたレンズの焦点距離が異なれば、3次元物体を全画角内に納めるためのマニピュレータ位置を変化させる。この様子を図4と図5に示す。図4は望遠レンズを使用した場合であり、図5は広角レンズを用いた場合である。どちらも、−2<x<2、−2<y<2の枠内に撮像範囲を設定しているが、3次元物体に近づいて撮像した図5では、−2<x<2、−2<y<2の境界のZ軸方向の壁の内側22が画面上で大きな面積をとって見えている。つまり、カメラに近い部分が大きく写り、遠く離れた部分が小さく写る透視変換の効果が大きくなっていることがわかる。このように、ある1点から3次元物体を捕らえるとカメラから遠い部分は小さく、近い部分は大きく写り、寸法計測を目的とする計測では、この透視変換効果を補正する必要が出てくる。透視変換補正を行わなくてよい方法の一つは、撮像レンズからの光が平行光となるような光学系を構成する方法である。しかし、この場合、レンズ口径と撮像範囲が同じ大きさになってしまい、大きな対象物を測定するためには口径の大きなレンズを用意することが必要となる。レンズの大きさには限界があり、この方法をとる限り、視野の移動を繰り返し行い広い範囲をカバーする方法をとらざるを得ない。そこで本装置では、図4のように透視変換補正を必要としない固定焦点方式を用いた。   If the focal lengths of the lenses attached to the camera are different, the manipulator position for keeping the three-dimensional object within the entire angle of view is changed. This is shown in FIGS. 4 and 5. FIG. FIG. 4 shows a case where a telephoto lens is used, and FIG. 5 shows a case where a wide-angle lens is used. In both cases, the imaging range is set within the frame of −2 <x <2 and −2 <y <2, but in FIG. 5 in which an image is taken close to a three-dimensional object, −2 <x <2, −2 The inner side 22 of the wall in the Z-axis direction at the boundary of <y <2 is seen taking a large area on the screen. That is, it can be seen that the effect of perspective transformation is large, in which a portion close to the camera is shown large and a portion far away is shown small. As described above, when a three-dimensional object is captured from one point, a portion far from the camera is small and a close portion is large, and it is necessary to correct the perspective conversion effect in the measurement for the purpose of dimension measurement. One method that does not require the perspective transformation correction is a method of configuring an optical system in which light from the imaging lens becomes parallel light. However, in this case, the lens aperture and the imaging range become the same size, and it is necessary to prepare a lens with a large aperture in order to measure a large object. There is a limit to the size of the lens, and as long as this method is used, a method of repeatedly moving the field of view and covering a wide range must be taken. Therefore, this apparatus uses a fixed focus method that does not require perspective transformation correction as shown in FIG.

本装置の場合、まず始めに、3次元物体の最遠点Aにピントを合わせた後は、レンズの焦点は変更せずに、カメラ全体を3次元物体から離れる方向に移動する方法をとっている。このように、焦点距離を固定して、複数枚の画像から焦点のあった部分だけを寄せ集めて1つの画像を作ることにより、最終的に合成された画像内では、透視変換による大きさの変化の影響を排除した画像を得ることができる。   In the case of this apparatus, first, after focusing on the farthest point A of the three-dimensional object, a method of moving the entire camera away from the three-dimensional object without changing the focal point of the lens is taken. Yes. In this way, by fixing the focal length and gathering only the focused portions from a plurality of images to create one image, the final synthesized image has a size obtained by perspective transformation. An image from which the influence of the change is eliminated can be obtained.

図2のフローチャートに従って撮像を行った場合の撮像過程を、以下図6を用いて詳細に説明する。まず始めに、3次元物体の最遠点Aに焦点を合わせた場合に、合焦点部分として捉えられる断面を図6(a)に示す。撮像手段3では焦点深度をごく狭い領域になるように光学系を形成しているため(a)に示す断面上の画像は焦点が合い、撮像素子上にはごく小さな輝度の変化までを捉えた映像が結像する。この断面から離れた部分の映像は、焦点が合っていないためぼやけることにより周囲のピクセルとの平均化されたような輝度値を持つことになる。   The imaging process when imaging is performed according to the flowchart of FIG. 2 will be described in detail with reference to FIG. First, FIG. 6A shows a cross-section that can be captured as a focused portion when focusing on the farthest point A of the three-dimensional object. Since the imaging unit 3 forms an optical system so that the depth of focus becomes a very narrow region, the image on the cross section shown in (a) is focused, and even a very small change in luminance is captured on the imaging device. An image is formed. The image of the part away from this cross section is not in focus, and thus has a brightness value that is averaged with surrounding pixels due to blurring.

次に、予め定めた高さ方向計測分解能に応じた移動距離分だけマニピュレータのスライド軸2を3次元物体から遠ざけるように移動して次の撮像を行う。このときレンズの焦点距離は変化させずに、焦点が合う部分がマニピュレータの移動した分だけ移動するようにする。   Next, the next imaging is performed by moving the slide shaft 2 of the manipulator away from the three-dimensional object by the moving distance corresponding to the predetermined height direction measurement resolution. At this time, the focal length of the lens is not changed, and the in-focus portion is moved by the amount of movement of the manipulator.

次に、マニピュレータのスライド軸2をさらに上昇させて、(b)に示すような位置に設定する。このときに撮像手段3により得られる光学画像は、(b)に示す断面上にある物体に焦点が合った画像である。順次マニピュレータを上昇することにより(c)そして(d)に示す3次元物体5の頂点近傍に焦点の合った光学画像の撮影が実行される。これらの画像は、画像記憶部9から画像合成部11に送られる。   Next, the slide shaft 2 of the manipulator is further raised and set to a position as shown in FIG. The optical image obtained by the image pickup means 3 at this time is an image focused on an object on the cross section shown in (b). By sequentially raising the manipulator, an optical image focused on the vicinity of the apex of the three-dimensional object 5 shown in (c) and (d) is executed. These images are sent from the image storage unit 9 to the image composition unit 11.

一般に、マニピュレータの姿勢から換算した手先座標とレンズの焦点距離を用いて、マニピュレータの設置されている座標系33における3次元物体の形状を測定することができる。しかし、マニピュレータの手先座標の算出には、関節に取付けられた角度センサ16などを用いて計算されるため、がた等の影響により空間座標の算出に誤差を生じる可能性がある。このような誤差を解消するために図7に示すように、マニピュレータの手先に距離センサ35を取付けて、この距離センサ座標に対する3次元物体の形状データを取得する方法が考えられる。   In general, the shape of the three-dimensional object in the coordinate system 33 where the manipulator is installed can be measured using the hand coordinates converted from the posture of the manipulator and the focal length of the lens. However, since the hand coordinates of the manipulator are calculated using the angle sensor 16 attached to the joint, an error may occur in the calculation of the spatial coordinates due to the influence of backlash and the like. In order to eliminate such an error, as shown in FIG. 7, a method of attaching a distance sensor 35 to the hand of the manipulator and acquiring shape data of a three-dimensional object with respect to the distance sensor coordinates is conceivable.

距離センサ、例えばレーザ測距センサ35をマニピュレータの手先に取付けて、予め定めた基準点32にレーザ光34を当て、測定を行うことで座標系のキャリブレーションをすることができる。   A coordinate sensor can be calibrated by attaching a distance sensor, for example, a laser distance sensor 35 to the hand of the manipulator, applying a laser beam 34 to a predetermined reference point 32, and performing measurement.

上述の実施例では、n枚の光学画像に対して同じ位置のピクセルのうち輝度値が最も大きな値をもつ画像を撮像した位置を焦点が合った画像として抽出し、全焦点画像を得ると共に、3次元物体の形状データを算出した。焦点が合っている部分を抽出する他の方法として、以下に述べるような方法を採用することも可能である。   In the above-described embodiment, a position where an image having the largest luminance value among pixels at the same position with respect to n optical images is picked up as a focused image to obtain an omnifocal image, The shape data of the three-dimensional object was calculated. As another method for extracting the in-focus portion, the following method can be employed.

隣り合うピクセルとの輝度の差を画像処理部8で検出する。そして、この輝度の差が最も大きな点を含む画像のピクセルをn枚の画像から選択して、画像合成部11において画像を合成する。   The image processing unit 8 detects a difference in brightness between adjacent pixels. Then, the pixel of the image including the point having the largest luminance difference is selected from n images, and the image composition unit 11 synthesizes the image.

このように構成する理由は、ピントの合っているところでは、3次元物体5の稜線が鮮明に現われるために、隣のピクセルとの輝度の差が大きくなり、ピントのぼけているところでは稜線の画像がぼやける。このために、隣のピクセルとの輝度の差が小さいことを利用して、n枚の光学画像からピントの合っている部分を寄せ集めて全画面の合焦点画像を得ることができる。   The reason for configuring in this way is that the ridgeline of the three-dimensional object 5 appears clearly at the point of focus, so the difference in luminance from the adjacent pixel becomes large, and the ridgeline of the ridgeline is blurred at the point of focus. The image is blurred. For this reason, by utilizing the fact that the difference in luminance from the adjacent pixels is small, it is possible to obtain a focused image of the entire screen by collecting the focused portions from the n optical images.

本実施形態では、ピントの合っている部分を隣のピクセルとの輝度の差で検出した。その他に、輝度の変化の微分値や2階の微分値を利用する方法や、隣のピクセルだけでなく上下左右または周辺のピクセルとの輝度、カラー、その他の画像情報を用いてピントの合った部分を検出する手段を用いることも可能である。   In the present embodiment, the in-focus portion is detected based on the difference in luminance from the adjacent pixel. In addition, the method using the differential value of the change in brightness and the differential value of the second floor, and the brightness, color, and other image information not only with the adjacent pixels but also with the top, bottom, left, right, and surrounding pixels are in focus. It is also possible to use means for detecting the part.

前述の実施形態では、3次元物体5の光学画像を複数取り込む際に、マニピュレータのスライド軸を上下方向に移動させたが、3次元物体を観察台に載せ、この観察台を上下方向に移動させても良い。また図1では3次元物体の観察軸を鉛直方向になるようにマニピュレータのスライド軸を設定したが、図8のように内部形状観察の際には、任意の空間軸に対してマニピュレータのスライド軸を設定することで、複雑な形状の3次元物体に対しても死角のない姿勢で計測を実施することができる。   In the above-described embodiment, when a plurality of optical images of the three-dimensional object 5 are captured, the slide axis of the manipulator is moved in the vertical direction. However, the three-dimensional object is placed on the observation table, and the observation table is moved in the vertical direction. May be. In FIG. 1, the slide axis of the manipulator is set so that the observation axis of the three-dimensional object is in the vertical direction. However, when observing the internal shape as shown in FIG. 8, the slide axis of the manipulator with respect to an arbitrary space axis. By setting, it is possible to perform measurement with a posture without a blind spot even for a three-dimensional object having a complicated shape.

以上のような構成をとることで、レンズ系1の焦点距離が変化しないので、焦点の合っている部分の画像の倍率は変化せず、複数の光学画像を合成した画像は、その合成の際にも接合点が食い違うことなく合成することができる。
また、本発明においては、画像合成部11から表示装置13に表示される合成画像は、一括して表示しても良いし、複数の光学画像を順次表示して合成しても良い。さらに、複数の光学画像をカラー表示することも可能である。
このように構成することにより、3次元物体5の形状認識が容易になる。
By adopting the above configuration, the focal length of the lens system 1 does not change, so the magnification of the image in the in-focus portion does not change, and an image obtained by combining a plurality of optical images is In addition, it is possible to synthesize without any difference in the junction points.
In the present invention, the synthesized images displayed on the display device 13 from the image synthesizing unit 11 may be displayed collectively, or a plurality of optical images may be sequentially displayed and synthesized. Furthermore, a plurality of optical images can be displayed in color.
With this configuration, shape recognition of the three-dimensional object 5 is facilitated.

本発明の3次元物体の認識装置の一実施例の構成を示す図である。It is a figure which shows the structure of one Example of the recognition apparatus of the three-dimensional object of this invention. 本発明の3次元物体の認識装置による認識方法を説明するフローチャートである。It is a flowchart explaining the recognition method by the recognition apparatus of the three-dimensional object of this invention. 本発明に用いられる3次元物体の一例を示す斜視図である。It is a perspective view which shows an example of the three-dimensional object used for this invention. 本発明に用いられる3次元物体を望遠レンズで撮影した場合の映像の一例を示す図である。It is a figure which shows an example of the image | video at the time of image | photographing the three-dimensional object used for this invention with a telephoto lens. 本発明に用いられる3次元物体を広角レンズで撮影した場合の映像の一例を示す図である。It is a figure which shows an example of the image | video at the time of image | photographing the three-dimensional object used for this invention with a wide angle lens. 本発明に用いられる3次元物体の最遠点にピントを合わせたときの焦点が合う断面を示す図である。It is a figure which shows the cross section to which a focus is set when focusing on the farthest point of the three-dimensional object used for this invention. 本発明の別の実施例でレーザセンサによるキャリブレーションの構成を示す図である。It is a figure which shows the structure of the calibration by a laser sensor in another Example of this invention. 本発明の別の実施例で3次元物体の内部認識を行う場合の姿勢を示す図である。It is a figure which shows the attitude | position in the case of performing the internal recognition of a three-dimensional object in another Example of this invention.

符号の説明Explanation of symbols

1…レンズ系、2…スライド軸、3…撮像手段、4…マニピュレータ、5…3次元物体、8…画像処理装置、9…画像記憶装置、10…距離情報処理装置、11…画像合成装置、12…マニピュレータ駆動装置、13…表示装置、14…マニピュレータ指令入力装置、16…角度検出器、20…形状測定装置、22…内壁、23…合焦点断面、32…基準点、33…マニピュレータ座標原点、34…レーザ光、35…距離センサ。
DESCRIPTION OF SYMBOLS 1 ... Lens system, 2 ... Slide axis, 3 ... Imaging means, 4 ... Manipulator, 5 ... Three-dimensional object, 8 ... Image processing apparatus, 9 ... Image storage apparatus, 10 ... Distance information processing apparatus, 11 ... Image composition apparatus, DESCRIPTION OF SYMBOLS 12 ... Manipulator drive device, 13 ... Display device, 14 ... Manipulator command input device, 16 ... Angle detector, 20 ... Shape measuring device, 22 ... Inner wall, 23 ... In-focus section, 32 ... Reference point, 33 ... Manipulator coordinate origin 34, laser light, 35 ... distance sensor.

Claims (2)

撮像対象の画像を測定解像度に応じて光軸方向の異なった位置で撮像し、前記撮像した画像を撮像素子の1画素毎に番地付けすると共に、この番地毎に撮像対象までの距離情報を付加して、光軸方向の異なった位置で撮像された複数の画像から、前記距離情報に基づいて、各画像が撮像されたときの最も輝度の高いまたは輝度変化の大きな位置を選択し、選択された撮像位置に対応する撮像素子の1画素画像を抽出して合成することにより、3次元物体の画像を得られるようにした3次元物体の認識方法。   The image of the imaging target is captured at different positions in the optical axis direction according to the measurement resolution, and the captured image is addressed for each pixel of the image sensor, and distance information to the imaging target is added for each address. Then, from the plurality of images captured at different positions in the optical axis direction, the position having the highest luminance or the largest luminance change when each image is captured is selected and selected based on the distance information. A method for recognizing a three-dimensional object in which an image of a three-dimensional object can be obtained by extracting and synthesizing one pixel image of an image sensor corresponding to the imaging position. 光軸方向の異なった位置で画像を撮像する撮像手段と、この撮像手段で撮像した画像を撮像素子の1画素毎に分け、各1画素を番地付けする画像処理手段と、試料基準面までの距離を測定する距離測定手段と、この距離測定手段で測定した距離に基づいて、前記番地毎に撮像対象までの距離情報を作成する距離情報処理手段と、画像を合成する画像合成手段とを備え、光軸方向の異なった位置で撮像された複数の画像から、前記距離情報に基づいて、各画像が撮像されたときの最も輝度の高い又は輝度変化の大きな撮像位置を選択し、選択された撮像位置に対応する撮像素子の1画素画像を抽出して合成することにより、3次元物体の画像を得られるようにした3次元物体の認識装置。
An image pickup means for picking up images at different positions in the optical axis direction, an image processing means for dividing the image picked up by the image pickup means for each pixel of the image pickup device and addressing each pixel, and a sample reference plane Distance measuring means for measuring distance, distance information processing means for creating distance information to the imaging target for each address based on the distance measured by the distance measuring means, and image synthesizing means for synthesizing images From the plurality of images captured at different positions in the optical axis direction, based on the distance information, the imaging position having the highest luminance or the largest luminance change when each image is captured is selected and selected. An apparatus for recognizing a three-dimensional object that can obtain an image of a three-dimensional object by extracting and synthesizing one pixel image of an image sensor corresponding to an imaging position.
JP2005203791A 2005-07-13 2005-07-13 Method and device for recognizing three-dimensional object Withdrawn JP2007025830A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005203791A JP2007025830A (en) 2005-07-13 2005-07-13 Method and device for recognizing three-dimensional object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005203791A JP2007025830A (en) 2005-07-13 2005-07-13 Method and device for recognizing three-dimensional object

Publications (1)

Publication Number Publication Date
JP2007025830A true JP2007025830A (en) 2007-02-01

Family

ID=37786535

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005203791A Withdrawn JP2007025830A (en) 2005-07-13 2005-07-13 Method and device for recognizing three-dimensional object

Country Status (1)

Country Link
JP (1) JP2007025830A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010139890A (en) * 2008-12-12 2010-06-24 Keyence Corp Imaging apparatus
JP2011259502A (en) * 2011-09-16 2011-12-22 Keyence Corp Imaging apparatus
JP2013034208A (en) * 2012-09-05 2013-02-14 Keyence Corp Imaging apparatus
CN103994729A (en) * 2013-02-19 2014-08-20 株式会社安川电机 Object detector, robot system and object detection method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004085467A (en) * 2002-08-28 2004-03-18 Aisin Seiki Co Ltd Device for three dimensional measurement
JP2004294965A (en) * 2003-03-28 2004-10-21 Furoobell:Kk Automatic focusing device and automatic focusing method
JP2005017557A (en) * 2003-06-25 2005-01-20 National Institute Of Advanced Industrial & Technology Three-dimensional microscope system and image display method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004085467A (en) * 2002-08-28 2004-03-18 Aisin Seiki Co Ltd Device for three dimensional measurement
JP2004294965A (en) * 2003-03-28 2004-10-21 Furoobell:Kk Automatic focusing device and automatic focusing method
JP2005017557A (en) * 2003-06-25 2005-01-20 National Institute Of Advanced Industrial & Technology Three-dimensional microscope system and image display method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010139890A (en) * 2008-12-12 2010-06-24 Keyence Corp Imaging apparatus
JP2011259502A (en) * 2011-09-16 2011-12-22 Keyence Corp Imaging apparatus
JP2013034208A (en) * 2012-09-05 2013-02-14 Keyence Corp Imaging apparatus
CN103994729A (en) * 2013-02-19 2014-08-20 株式会社安川电机 Object detector, robot system and object detection method

Similar Documents

Publication Publication Date Title
JP4565115B2 (en) Multifocal imaging device
JP6503221B2 (en) Three-dimensional information acquisition apparatus and three-dimensional information acquisition method
US11189012B2 (en) Arrangement having a coordinate measuring machine or microscope
JP2007058222A (en) System and method for producing magnified images of microscope slide
JP2009526272A (en) Method and apparatus and computer program product for collecting digital image data from a microscope media based specimen
JP2014202751A (en) System and method for obtaining image with offset utilized for enhanced edge resolution
KR101921762B1 (en) Height measuring method and height measuring device
JPH10290389A (en) Multi-focus image formation method and image formation device
US20160033753A1 (en) Image acquiring apparatus
JP2015230393A (en) Control method of imaging apparatus, and imaging system
JP2008298480A (en) Stereo fluoroscopic device, and stereo observation method using therefor
JP4158750B2 (en) Autofocus control method, autofocus control device, and image processing device
JP4044454B2 (en) Position measurement using zoom
JP2007025830A (en) Method and device for recognizing three-dimensional object
JP6716383B2 (en) Microscope system, information presentation method, program
JP2861634B2 (en) Method and apparatus for recognizing three-dimensional object
EP1684107B1 (en) Examination method and examination-assisting tool
JP5508214B2 (en) System and method for creating magnified image of microscope slide
JP5996462B2 (en) Image processing apparatus, microscope system, and image processing method
KR100897674B1 (en) Sample inspection system and sample inspection method
JP2011138096A (en) Measuring microscope
JP2020076857A (en) Microscope device, control method, and program
JP6746722B2 (en) Method for measuring height of curved surface of microscope slide glass and microscope
JP2008014646A (en) Substrate inspection method
JP2005266718A (en) Microscopic image photographing system

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20070222

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20070820

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080124

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100818

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100824

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20101021