JP2007025830A - Method and device for recognizing three-dimensional object - Google Patents
Method and device for recognizing three-dimensional object Download PDFInfo
- Publication number
- JP2007025830A JP2007025830A JP2005203791A JP2005203791A JP2007025830A JP 2007025830 A JP2007025830 A JP 2007025830A JP 2005203791 A JP2005203791 A JP 2005203791A JP 2005203791 A JP2005203791 A JP 2005203791A JP 2007025830 A JP2007025830 A JP 2007025830A
- Authority
- JP
- Japan
- Prior art keywords
- image
- dimensional object
- captured
- pixel
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Microscoopes, Condenser (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
本発明は、カメラ等の撮像手段によって撮像された情報から3次元物体を認識する方法とその装置に関する。 The present invention relates to a method and apparatus for recognizing a three-dimensional object from information imaged by an imaging means such as a camera.
従来、顕微鏡によって観察物等の3次元物体の画像を撮像するものにおいて、その3次元物体が顕微鏡の光軸方向に高さを有している場合、その焦点深度の関係上、前述した3次元物体を一括して撮像表示することができないという不具合が有る。この不具合を解消するために、特許文献1に示されるように、3次元物体の拡大像を複数の光路に分割し、この分割した3次元物体の拡大像をその高さ方向の異なる観察位置にそれぞれ合焦し得るように構成し、かつ、同期結合された複数の撮像手段で撮影し、各撮像手段から得られた映像信号を任意の範囲で電気的に切出し合成して、高さ方向の異なるそれぞれの観察位置に合焦した1画面分の合成映像信号を得るものがある。
Conventionally, in a case where an image of a three-dimensional object such as an observation object is picked up by a microscope, when the three-dimensional object has a height in the optical axis direction of the microscope, the above-described three-dimensional There is a problem in that objects cannot be captured and displayed in a batch. In order to solve this problem, as shown in
また、顕微鏡下における精密加工品の表面凹凸形状を白色光の干渉を用いて測定する方法が、非特許文献1に示されている。
Further, Non-Patent
上記の従来技術においては、3次元物体の構造を詳細に観察しようとする場合、観察位置をその高さ方向に複数に分割する必要がある。このように観察位置を複数に分割すると、この分割数に応じたカメラ及びモニタが必要になり、構成が複雑になる。また、各カメラによって撮影した撮像の大きさに異なりを生じ、鮮明な合成画像を得ることができないという問題があった。 In the above prior art, when the structure of the three-dimensional object is to be observed in detail, it is necessary to divide the observation position into a plurality of parts in the height direction. If the observation position is divided into a plurality of parts as described above, a camera and a monitor corresponding to the number of divisions are required, and the configuration becomes complicated. In addition, there is a problem that the size of the image captured by each camera varies, and a clear composite image cannot be obtained.
また、顕微鏡下における精密加工品の形状測定では、光学系を平行にすると共に、計測できる範囲は光の波長に依存し、ごく精密な測定範囲にしか応用できなかった。 Further, in the shape measurement of precision processed products under a microscope, the optical system is made parallel and the measurable range depends on the wavelength of light and can only be applied to a very precise measuring range.
本発明は、上述の事柄に基づいてなされたもので、一般的な空間に存在する3次元物体の鮮明な全体画像を得ると共に、その物体の形状を計測できる3次元物体の認識方法及び装置を提供することを目的とするものである。 The present invention has been made based on the above-described matters, and provides a 3D object recognition method and apparatus capable of obtaining a clear overall image of a 3D object existing in a general space and measuring the shape of the object. It is intended to provide.
上記目的を達成するために、本発明の3次元物体の認識方法は、撮像対象の画像を光軸方向の異なった位置で撮像し、この画像を撮像素子の1画素毎に番地付けすると共に、この番地毎に撮像対象までの距離情報を付加しておき、光軸方向の異なった位置で撮像された複数の画像から、前記距離情報に基づいて、各画像が撮像されたときの最も輝度の高いまたは輝度変化の大きな撮像位置を選択し、選択された撮像位置に対応する撮像素子の1画素画像を抽出して合成することにより、3次元物体の画像を得られるようにしたものである。 In order to achieve the above object, the three-dimensional object recognition method of the present invention images an image to be imaged at different positions in the optical axis direction, and addresses this image for each pixel of the image sensor. The distance information to the imaging target is added for each address, and the highest luminance when each image is captured from a plurality of images captured at different positions in the optical axis direction based on the distance information. An image of a three-dimensional object can be obtained by selecting an image pickup position that is high or has a large luminance change, and extracting and synthesizing one pixel image of the image pickup element corresponding to the selected image pickup position.
また、本発明の3次元物体の認識装置は、光軸方向の異なった位置で画像を撮像する撮像手段と、この撮像手段で撮像した画像を撮像素子の1画素毎に分け、各1画素を番地付けする画像処理手段と、試料基準面までの距離を算出または測定する距離測定手段と、この距離測定手段で測定した距離に基づいて、前記番地毎に撮像対象までの距離情報を作成する距離情報処理手段と、画像を合成する画像合成手段とを備え、光軸方向の異なった位置で撮像された複数の画像と、前記距離情報とに基づいて、各画像が撮像されたときの最も輝度の高いまたは輝度変化の大きな撮像位置を選択し、選択された撮像位置に対応する撮像素子の1画素画像を抽出して合成することにより、3次元物体の画像を得られるようにしたものである。 The three-dimensional object recognition apparatus of the present invention divides an image picked up by an image pickup means for picking up images at different positions in the optical axis direction and the image picked up by the image pickup means for each pixel of the image pickup device. An image processing means for assigning an address, a distance measuring means for calculating or measuring a distance to the sample reference surface, and a distance for creating distance information to the imaging target for each address based on the distance measured by the distance measuring means The information processing means and the image composition means for synthesizing the images, and based on the plurality of images taken at different positions in the optical axis direction and the distance information, the most luminance when each image is taken An image of a three-dimensional object can be obtained by selecting an image pickup position with a high brightness change or a large luminance change, and extracting and synthesizing one pixel image of the image pickup element corresponding to the selected image pickup position. .
本発明により、一般空間内に存在する物体の形状を、一般的なカメラを用いて、一画像で捕らえた透視変換された形状ではなく、等測投影した映像を得ると共に各画素までの距離情報を取得できることで3次元物体の形状を正確に認識することができる。 According to the present invention, the shape of an object existing in a general space is not a perspective-transformed shape captured using a general camera, but an isometric projection image, and distance information to each pixel is obtained. The shape of the three-dimensional object can be accurately recognized.
以下、本発明の一実施形態を、図面を用いて説明する。 Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
図1に本発明の3次元物体の形状を撮像する撮像手段をマニピュレータの手先に設けた例を示す。図1において、形状測定装置20は、マニピュレータ部31とマニピュレータ部31を制御する制御部30とからなる。マニピュレータ部31の先端部にはレンズ系1と、撮像手段(CCDカメラ)3が設けてある。制御部30には撮像手段からの信号を受け取り、画像処理部8に信号を送信する撮像信号受信部7と、画像処理した画像信号を記録する画像記録部9と、画像処理信号からレンズ系1と観察物あるいは被測定物となる3次元物体5との距離、や位置情報を処理する距離情報処理部10と、距離情報処理部10と画像記録部9の信号から合成画像を生成する画像合成部と、合成された画像を表示する表示部とからなる。さらに制御部30には、距離情報処理部10のデータに基づいてマニピュレータ部31を駆動制御するマニピュレータ駆動部12と、このマニピュレータ駆動部12の駆動経路制御を指令するマニピュレータ指令入力部14とを備えている。
FIG. 1 shows an example in which imaging means for imaging the shape of a three-dimensional object according to the present invention is provided at the hand of a manipulator. In FIG. 1, the
一方、マニピュレータ部31は、3次元物体5に対して撮像方向を決定するため多関節のロボットで構成され、複数の腕部4a〜4cと回転可能な関節部16a〜16dとから構成され、先端の腕には4aにはスライド軸2が設けてあり、このスライド軸2の先端部に撮像手段等が取付けてある。このマニピュレータシステムはマニピュレータ指令入力部14とマニピュレータ駆動部12によって作業を実行する。
On the other hand, the
次に、前述した本発明の形状測定装置の動作を図2に示すフローチャートに基づき説明する。 Next, the operation of the above-described shape measuring apparatus of the present invention will be described based on the flowchart shown in FIG.
3次元物体5とマニピュレータ部31の存在する空間の範囲が、撮像手段3面からの距離で表したときに、その最遠距離点Bと最近距離点Aの間にあるものとする。このとき、まず初めに3次元物体5の最遠距離点Bが撮像手段3の焦点が遠距離点側に合うように、マニピュレータ部31を駆動する(ステップ101)。このとき、3次元物体5の形状寸法を測定するために、3次元物体の基準面(本実施形態では3次元物体を載置したテーブル面を基準面としている)に対して垂直な直線上にマニピュレータ部31のスライド軸2が一致するような向きの姿勢をとるようにする。この状態で撮像した場合は、撮影後の座標変換等の手間を省くことができる。また、この姿勢は3次元物体の測定したい面が隠れないような姿勢をとることが望ましい。次に光学画像を撮像手段3で取り込む(ステップ102)。この光学画像は画像処理部8においてピクセル毎に番地付けされる。例えば、画像番号n、行番号x、列番号y、としてp(n,x,y)で表わされる。この番地付けされた画像は画像記憶部9に記憶する。次に、過去に撮像された画像の各ピクセル位置での最大輝度値と、今回撮像した画像の同じ位置のピクセルの輝度値を比較する(ステップ103)。
It is assumed that the space range in which the three-
このとき、今までの最大輝度値MAXの方が、今回測定した輝度値よりも大きければ、最大輝度値MAX及び最大輝度を持つ画像のインデックスMはそのままとする(ステップ104)。反対に、過去に撮像された画像の各ピクセル位置での最大輝度値よりも今回撮像した輝度値の方が大きければ、最大輝度値MAXを今回撮像した輝度値で更新し、最大輝度値を持つ画像のインデックスを今回撮像した画像のインデックスの値Nに書き直す(ステップ105)。 At this time, if the maximum luminance value MAX so far is larger than the luminance value measured this time, the maximum luminance value MAX and the index M of the image having the maximum luminance are left as they are (step 104). On the contrary, if the brightness value captured this time is larger than the maximum brightness value at each pixel position of the image captured in the past, the maximum brightness value MAX is updated with the brightness value captured this time and has the maximum brightness value. The image index is rewritten to the index value N of the image captured this time (step 105).
次に、マニピュレータのスライド軸2を3次元物体5の測定解像度(測定時の撮像ピッチで、求める精度で決定される)の分だけ上昇させる(ステップ106)。マニピュレータのスライド軸2の最遠距離点Aから、測定分解能分ずつ移動させ、最近距離点Bになるまでステップ102からステップ106を繰り返す(ステップ107)。例えば、測定物を図6(d)に示すような直線と平面でできているもので、その形状検査を簡略に行なう場合などには、図6(a)〜図6(d)に示したような形状を測定したい面の高さに合わせて撮像を行なう。この場合、図に示す三角錐の形状を再現することはできないが、測定したい高さにおける断面外形形状の情報を取り出し、計測を行なうことが可能である。
Next, the
また、全体の形状を3次元的に再現することが必要な場合には、数マイクロメータ毎に撮像を実行することにより数マイクロメータ毎の断層写真を組み合わせた形で全体形状を表示し、それぞれの断層における寸法測定を行なうことが可能である。例えば、高さ方向の寸法を100マイクロメータの精度で測定したい場合には、1/10の10マイクロメータ毎の撮影を行い、輝度差の誤差の影響を受けないようにすることで精度向上が図れる。ただし、測定精度にはマニピュレータの位置決め精度、カメラ駆動系の最小移動分解能と精度が影響するため、精度に応じた周辺機器を用意する必要がある。これにより、測定分解能の幅でn枚の画像が画像記憶部9内に記憶される。
In addition, when it is necessary to reproduce the entire shape three-dimensionally, the entire shape is displayed in a combination of tomographic photographs of several micrometers by executing imaging every several micrometers. It is possible to measure the dimensions of faults. For example, if you want to measure the dimension in the height direction with an accuracy of 100 micrometers, the accuracy is improved by taking an image every 10 micrometers of 1/10 so that it is not affected by the error of the luminance difference. I can plan. However, since the measurement accuracy is affected by the positioning accuracy of the manipulator and the minimum moving resolution and accuracy of the camera drive system, it is necessary to prepare peripheral devices according to the accuracy. As a result, n images are stored in the
次に、画像の各ピクセル毎に対応した距離値を選択する。この選択の方法を以下説明する。 Next, a distance value corresponding to each pixel of the image is selected. This selection method will be described below.
まず、全画面合焦画像の微小領域(X,Y)=(1,1)の光学画像を選択する際には、NA枚の画像p(1,1,1)〜p(NA,1,1)で最も輝度値の高かった画像のインデックスMのついた画像を撮像したときのマニピュレータの位置とレンズ系の焦点の合わされた距離情報から3次元物体の相対位置が算出される。 First, when selecting an optical image of a minute region (X, Y) = (1, 1) of a full-screen focused image, NA images p (1, 1, 1) to p (NA, 1, The relative position of the three-dimensional object is calculated from distance information in which the position of the manipulator and the lens system are in focus when the image with the index M of the image having the highest luminance value in 1) is captured.
画面全体に渡り、このように最大輝度を示す画像のインデックスを選択することにより、各ピクセルにおける物体にピントの合った画像が選ばれる。選択したピクセルは画像合成部11において、他のピクセルと合成され、全画面に輪郭のクリアな合焦点画像を提供することができる。 By selecting the index of the image showing the maximum luminance in this way over the entire screen, an image in focus on the object at each pixel is selected. The selected pixel is synthesized with other pixels in the image synthesizing unit 11, and a focused image with a clear outline can be provided on the entire screen.
次に、本発明の装置による3次元物体5の一例として3角錐形状に対する合成画像の抽出方法を説明する。
Next, a method for extracting a composite image for a triangular pyramid shape as an example of the three-
図3に観察物の一例となる3角錐形状の3次元物体5を示す。この3次元物体5は、三角錐の形状をしている。まず、図3に示すように、3次元物体5がカメラ視野に収まるような撮像範囲(図3では、撮像範囲撮像物体より大きめに撮像範囲(四角のエリア)を設定してある)を決定する。カメラの絞りは被写界深度が狭くなるように、絞り開放の状態で調整し、シャッター速度を高速に設定することで撮像中の3次元物体やマニピュレータの振動による撮像振れが少なくなるような調整を行う。
FIG. 3 shows a three-dimensional pyramid-shaped three-
カメラに取付けたレンズの焦点距離が異なれば、3次元物体を全画角内に納めるためのマニピュレータ位置を変化させる。この様子を図4と図5に示す。図4は望遠レンズを使用した場合であり、図5は広角レンズを用いた場合である。どちらも、−2<x<2、−2<y<2の枠内に撮像範囲を設定しているが、3次元物体に近づいて撮像した図5では、−2<x<2、−2<y<2の境界のZ軸方向の壁の内側22が画面上で大きな面積をとって見えている。つまり、カメラに近い部分が大きく写り、遠く離れた部分が小さく写る透視変換の効果が大きくなっていることがわかる。このように、ある1点から3次元物体を捕らえるとカメラから遠い部分は小さく、近い部分は大きく写り、寸法計測を目的とする計測では、この透視変換効果を補正する必要が出てくる。透視変換補正を行わなくてよい方法の一つは、撮像レンズからの光が平行光となるような光学系を構成する方法である。しかし、この場合、レンズ口径と撮像範囲が同じ大きさになってしまい、大きな対象物を測定するためには口径の大きなレンズを用意することが必要となる。レンズの大きさには限界があり、この方法をとる限り、視野の移動を繰り返し行い広い範囲をカバーする方法をとらざるを得ない。そこで本装置では、図4のように透視変換補正を必要としない固定焦点方式を用いた。
If the focal lengths of the lenses attached to the camera are different, the manipulator position for keeping the three-dimensional object within the entire angle of view is changed. This is shown in FIGS. 4 and 5. FIG. FIG. 4 shows a case where a telephoto lens is used, and FIG. 5 shows a case where a wide-angle lens is used. In both cases, the imaging range is set within the frame of −2 <x <2 and −2 <y <2, but in FIG. 5 in which an image is taken close to a three-dimensional object, −2 <x <2, −2 The
本装置の場合、まず始めに、3次元物体の最遠点Aにピントを合わせた後は、レンズの焦点は変更せずに、カメラ全体を3次元物体から離れる方向に移動する方法をとっている。このように、焦点距離を固定して、複数枚の画像から焦点のあった部分だけを寄せ集めて1つの画像を作ることにより、最終的に合成された画像内では、透視変換による大きさの変化の影響を排除した画像を得ることができる。 In the case of this apparatus, first, after focusing on the farthest point A of the three-dimensional object, a method of moving the entire camera away from the three-dimensional object without changing the focal point of the lens is taken. Yes. In this way, by fixing the focal length and gathering only the focused portions from a plurality of images to create one image, the final synthesized image has a size obtained by perspective transformation. An image from which the influence of the change is eliminated can be obtained.
図2のフローチャートに従って撮像を行った場合の撮像過程を、以下図6を用いて詳細に説明する。まず始めに、3次元物体の最遠点Aに焦点を合わせた場合に、合焦点部分として捉えられる断面を図6(a)に示す。撮像手段3では焦点深度をごく狭い領域になるように光学系を形成しているため(a)に示す断面上の画像は焦点が合い、撮像素子上にはごく小さな輝度の変化までを捉えた映像が結像する。この断面から離れた部分の映像は、焦点が合っていないためぼやけることにより周囲のピクセルとの平均化されたような輝度値を持つことになる。 The imaging process when imaging is performed according to the flowchart of FIG. 2 will be described in detail with reference to FIG. First, FIG. 6A shows a cross-section that can be captured as a focused portion when focusing on the farthest point A of the three-dimensional object. Since the imaging unit 3 forms an optical system so that the depth of focus becomes a very narrow region, the image on the cross section shown in (a) is focused, and even a very small change in luminance is captured on the imaging device. An image is formed. The image of the part away from this cross section is not in focus, and thus has a brightness value that is averaged with surrounding pixels due to blurring.
次に、予め定めた高さ方向計測分解能に応じた移動距離分だけマニピュレータのスライド軸2を3次元物体から遠ざけるように移動して次の撮像を行う。このときレンズの焦点距離は変化させずに、焦点が合う部分がマニピュレータの移動した分だけ移動するようにする。
Next, the next imaging is performed by moving the
次に、マニピュレータのスライド軸2をさらに上昇させて、(b)に示すような位置に設定する。このときに撮像手段3により得られる光学画像は、(b)に示す断面上にある物体に焦点が合った画像である。順次マニピュレータを上昇することにより(c)そして(d)に示す3次元物体5の頂点近傍に焦点の合った光学画像の撮影が実行される。これらの画像は、画像記憶部9から画像合成部11に送られる。
Next, the
一般に、マニピュレータの姿勢から換算した手先座標とレンズの焦点距離を用いて、マニピュレータの設置されている座標系33における3次元物体の形状を測定することができる。しかし、マニピュレータの手先座標の算出には、関節に取付けられた角度センサ16などを用いて計算されるため、がた等の影響により空間座標の算出に誤差を生じる可能性がある。このような誤差を解消するために図7に示すように、マニピュレータの手先に距離センサ35を取付けて、この距離センサ座標に対する3次元物体の形状データを取得する方法が考えられる。
In general, the shape of the three-dimensional object in the coordinate
距離センサ、例えばレーザ測距センサ35をマニピュレータの手先に取付けて、予め定めた基準点32にレーザ光34を当て、測定を行うことで座標系のキャリブレーションをすることができる。
A coordinate sensor can be calibrated by attaching a distance sensor, for example, a
上述の実施例では、n枚の光学画像に対して同じ位置のピクセルのうち輝度値が最も大きな値をもつ画像を撮像した位置を焦点が合った画像として抽出し、全焦点画像を得ると共に、3次元物体の形状データを算出した。焦点が合っている部分を抽出する他の方法として、以下に述べるような方法を採用することも可能である。 In the above-described embodiment, a position where an image having the largest luminance value among pixels at the same position with respect to n optical images is picked up as a focused image to obtain an omnifocal image, The shape data of the three-dimensional object was calculated. As another method for extracting the in-focus portion, the following method can be employed.
隣り合うピクセルとの輝度の差を画像処理部8で検出する。そして、この輝度の差が最も大きな点を含む画像のピクセルをn枚の画像から選択して、画像合成部11において画像を合成する。
The
このように構成する理由は、ピントの合っているところでは、3次元物体5の稜線が鮮明に現われるために、隣のピクセルとの輝度の差が大きくなり、ピントのぼけているところでは稜線の画像がぼやける。このために、隣のピクセルとの輝度の差が小さいことを利用して、n枚の光学画像からピントの合っている部分を寄せ集めて全画面の合焦点画像を得ることができる。
The reason for configuring in this way is that the ridgeline of the three-
本実施形態では、ピントの合っている部分を隣のピクセルとの輝度の差で検出した。その他に、輝度の変化の微分値や2階の微分値を利用する方法や、隣のピクセルだけでなく上下左右または周辺のピクセルとの輝度、カラー、その他の画像情報を用いてピントの合った部分を検出する手段を用いることも可能である。 In the present embodiment, the in-focus portion is detected based on the difference in luminance from the adjacent pixel. In addition, the method using the differential value of the change in brightness and the differential value of the second floor, and the brightness, color, and other image information not only with the adjacent pixels but also with the top, bottom, left, right, and surrounding pixels are in focus. It is also possible to use means for detecting the part.
前述の実施形態では、3次元物体5の光学画像を複数取り込む際に、マニピュレータのスライド軸を上下方向に移動させたが、3次元物体を観察台に載せ、この観察台を上下方向に移動させても良い。また図1では3次元物体の観察軸を鉛直方向になるようにマニピュレータのスライド軸を設定したが、図8のように内部形状観察の際には、任意の空間軸に対してマニピュレータのスライド軸を設定することで、複雑な形状の3次元物体に対しても死角のない姿勢で計測を実施することができる。
In the above-described embodiment, when a plurality of optical images of the three-
以上のような構成をとることで、レンズ系1の焦点距離が変化しないので、焦点の合っている部分の画像の倍率は変化せず、複数の光学画像を合成した画像は、その合成の際にも接合点が食い違うことなく合成することができる。
また、本発明においては、画像合成部11から表示装置13に表示される合成画像は、一括して表示しても良いし、複数の光学画像を順次表示して合成しても良い。さらに、複数の光学画像をカラー表示することも可能である。
このように構成することにより、3次元物体5の形状認識が容易になる。
By adopting the above configuration, the focal length of the
In the present invention, the synthesized images displayed on the
With this configuration, shape recognition of the three-
1…レンズ系、2…スライド軸、3…撮像手段、4…マニピュレータ、5…3次元物体、8…画像処理装置、9…画像記憶装置、10…距離情報処理装置、11…画像合成装置、12…マニピュレータ駆動装置、13…表示装置、14…マニピュレータ指令入力装置、16…角度検出器、20…形状測定装置、22…内壁、23…合焦点断面、32…基準点、33…マニピュレータ座標原点、34…レーザ光、35…距離センサ。
DESCRIPTION OF
Claims (2)
An image pickup means for picking up images at different positions in the optical axis direction, an image processing means for dividing the image picked up by the image pickup means for each pixel of the image pickup device and addressing each pixel, and a sample reference plane Distance measuring means for measuring distance, distance information processing means for creating distance information to the imaging target for each address based on the distance measured by the distance measuring means, and image synthesizing means for synthesizing images From the plurality of images captured at different positions in the optical axis direction, based on the distance information, the imaging position having the highest luminance or the largest luminance change when each image is captured is selected and selected. An apparatus for recognizing a three-dimensional object that can obtain an image of a three-dimensional object by extracting and synthesizing one pixel image of an image sensor corresponding to an imaging position.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005203791A JP2007025830A (en) | 2005-07-13 | 2005-07-13 | Method and device for recognizing three-dimensional object |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005203791A JP2007025830A (en) | 2005-07-13 | 2005-07-13 | Method and device for recognizing three-dimensional object |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007025830A true JP2007025830A (en) | 2007-02-01 |
Family
ID=37786535
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005203791A Withdrawn JP2007025830A (en) | 2005-07-13 | 2005-07-13 | Method and device for recognizing three-dimensional object |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007025830A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010139890A (en) * | 2008-12-12 | 2010-06-24 | Keyence Corp | Imaging apparatus |
JP2011259502A (en) * | 2011-09-16 | 2011-12-22 | Keyence Corp | Imaging apparatus |
JP2013034208A (en) * | 2012-09-05 | 2013-02-14 | Keyence Corp | Imaging apparatus |
CN103994729A (en) * | 2013-02-19 | 2014-08-20 | 株式会社安川电机 | Object detector, robot system and object detection method |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004085467A (en) * | 2002-08-28 | 2004-03-18 | Aisin Seiki Co Ltd | Device for three dimensional measurement |
JP2004294965A (en) * | 2003-03-28 | 2004-10-21 | Furoobell:Kk | Automatic focusing device and automatic focusing method |
JP2005017557A (en) * | 2003-06-25 | 2005-01-20 | National Institute Of Advanced Industrial & Technology | Three-dimensional microscope system and image display method |
-
2005
- 2005-07-13 JP JP2005203791A patent/JP2007025830A/en not_active Withdrawn
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004085467A (en) * | 2002-08-28 | 2004-03-18 | Aisin Seiki Co Ltd | Device for three dimensional measurement |
JP2004294965A (en) * | 2003-03-28 | 2004-10-21 | Furoobell:Kk | Automatic focusing device and automatic focusing method |
JP2005017557A (en) * | 2003-06-25 | 2005-01-20 | National Institute Of Advanced Industrial & Technology | Three-dimensional microscope system and image display method |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010139890A (en) * | 2008-12-12 | 2010-06-24 | Keyence Corp | Imaging apparatus |
JP2011259502A (en) * | 2011-09-16 | 2011-12-22 | Keyence Corp | Imaging apparatus |
JP2013034208A (en) * | 2012-09-05 | 2013-02-14 | Keyence Corp | Imaging apparatus |
CN103994729A (en) * | 2013-02-19 | 2014-08-20 | 株式会社安川电机 | Object detector, robot system and object detection method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4565115B2 (en) | Multifocal imaging device | |
JP6503221B2 (en) | Three-dimensional information acquisition apparatus and three-dimensional information acquisition method | |
US11189012B2 (en) | Arrangement having a coordinate measuring machine or microscope | |
JP2007058222A (en) | System and method for producing magnified images of microscope slide | |
JP2009526272A (en) | Method and apparatus and computer program product for collecting digital image data from a microscope media based specimen | |
JP2014202751A (en) | System and method for obtaining image with offset utilized for enhanced edge resolution | |
KR101921762B1 (en) | Height measuring method and height measuring device | |
JPH10290389A (en) | Multi-focus image formation method and image formation device | |
US20160033753A1 (en) | Image acquiring apparatus | |
JP2015230393A (en) | Control method of imaging apparatus, and imaging system | |
JP2008298480A (en) | Stereo fluoroscopic device, and stereo observation method using therefor | |
JP4158750B2 (en) | Autofocus control method, autofocus control device, and image processing device | |
JP4044454B2 (en) | Position measurement using zoom | |
JP2007025830A (en) | Method and device for recognizing three-dimensional object | |
JP6716383B2 (en) | Microscope system, information presentation method, program | |
JP2861634B2 (en) | Method and apparatus for recognizing three-dimensional object | |
EP1684107B1 (en) | Examination method and examination-assisting tool | |
JP5508214B2 (en) | System and method for creating magnified image of microscope slide | |
JP5996462B2 (en) | Image processing apparatus, microscope system, and image processing method | |
KR100897674B1 (en) | Sample inspection system and sample inspection method | |
JP2011138096A (en) | Measuring microscope | |
JP2020076857A (en) | Microscope device, control method, and program | |
JP6746722B2 (en) | Method for measuring height of curved surface of microscope slide glass and microscope | |
JP2008014646A (en) | Substrate inspection method | |
JP2005266718A (en) | Microscopic image photographing system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20070222 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20070820 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080124 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100818 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100824 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20101021 |