JP2006271503A - Endoscopic apparatus with three-dimensional measuring function - Google Patents

Endoscopic apparatus with three-dimensional measuring function Download PDF

Info

Publication number
JP2006271503A
JP2006271503A JP2005091799A JP2005091799A JP2006271503A JP 2006271503 A JP2006271503 A JP 2006271503A JP 2005091799 A JP2005091799 A JP 2005091799A JP 2005091799 A JP2005091799 A JP 2005091799A JP 2006271503 A JP2006271503 A JP 2006271503A
Authority
JP
Japan
Prior art keywords
image
lens
distance
light
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005091799A
Other languages
Japanese (ja)
Inventor
Takeshi Hashimoto
岳 橋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shizuoka University NUC
Original Assignee
Shizuoka University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shizuoka University NUC filed Critical Shizuoka University NUC
Priority to JP2005091799A priority Critical patent/JP2006271503A/en
Publication of JP2006271503A publication Critical patent/JP2006271503A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Endoscopes (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To reduce errors in quantization and to improve the distance resolution even if the base line distance is short in the three-dimensional measurement for triangulation by applying spot light from a known position to a subject and receiving the reflection light by a camera. <P>SOLUTION: At least two values of measurement are obtained in one measurement by moving a single lens, or moving the lens and an imaging element together, or moving the imaging face parallel to the original plane while the lens of the camera is fixed, and errors in quantization are reduced by the statistical process of these obtained values. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

この発明は、内視鏡における三次元計測技術に関する。   The present invention relates to a three-dimensional measurement technique in an endoscope.

三次元計測において、アクティブな方法として様々な方法が提案されている。ここでは、光のパターンを投光する方法について述べる。
(1)ストライプパターンを投影する方法(特許文献1参照)
マルチスリット光として平行光線を投光し、既知のスリット幅と投影されたストライプを撮像して得られる画角とから対象物への距離を知る。
(2)スポット光を照射する方法(特許文献2参照)
スポット光を位置を変えながら順次照射し、既知のスポット光の光軸と、撮像された照射位置情報とから三角測量の原理により、対象物への距離を知る。
特開2002−131016号公報 特開平5−052531号公報
In three-dimensional measurement, various methods have been proposed as active methods. Here, a method of projecting a light pattern will be described.
(1) Method of projecting a stripe pattern (see Patent Document 1)
A parallel light beam is projected as multi-slit light, and the distance to the object is known from the known slit width and the angle of view obtained by imaging the projected stripe.
(2) Method of irradiating spot light (see Patent Document 2)
The spot light is sequentially irradiated while changing the position, and the distance to the object is known from the known optical axis of the spot light and the captured irradiation position information by the principle of triangulation.
JP 2002-131016 A JP-A-5-052531

従来の技術において、撮像素子としてCCDやCMOSを利用することにより小型化が図れるが、これらの素子は離散的に配置されているため量子化誤差が発生し、この誤差の軽減はこれまで困難であった。
この発明は、ベースライン距離が短いにもかかわらず、量子化誤差を軽減し、距離分解能を向上させることを目的とする。
まず計測の原理を説明する。
ドットパターンの投光による場合を例にとり説明する。図1(a)は、投光器(1)、カメラ(2)、カメラの撮像レンズ(3)、カメラの撮像素子(4)及び対象物(5)の配置を示す概念図である。
ただ一つのドットのみを投光器(1)から照射し、カメラ(2)でその位置を捉える。撮像レンズ(3)の開口部を通過してきた対象物(5)からの反射光が撮像素子(4)の上で結像し、それぞれのベクトルOA,OBが得られる。既知の投光器の射出孔(A)とカメラのレンズ中心(B)との距離AB(ベースライン距離)と、ベクトルの交点とから対象物(5)のある一点(O)の三次元位置が求められる。
In the prior art, it is possible to reduce the size by using a CCD or CMOS as an image pickup device. However, since these devices are discretely arranged, a quantization error occurs, and it has been difficult to reduce this error until now. there were.
An object of the present invention is to reduce quantization error and improve distance resolution despite a short baseline distance.
First, the principle of measurement will be described.
A case where dot pattern light emission is used will be described as an example. Fig.1 (a) is a conceptual diagram which shows arrangement | positioning of a light projector (1), a camera (2), the imaging lens (3) of a camera, the image pick-up element (4) of a camera, and a target object (5).
Only one dot is irradiated from the projector (1), and its position is captured by the camera (2). Reflected light from the object (5) that has passed through the opening of the imaging lens (3) forms an image on the imaging element (4), and respective vectors OA and OB are obtained. The three-dimensional position of one point (O) where the object (5) is located is obtained from the distance AB (baseline distance) between the exit hole (A) of the known projector and the lens center (B) of the camera and the intersection of the vectors. It is done.

ラインパターンの投光の場合も、光源が存在する平面とカメラで取得したベクトルとの交点により、三次元位置が求められる。パターンマッチング技術と併用することにより、複数のラインパターンすなわちストライプパターンや格子状のパターンであっても三次元位置を求めることが可能である。複数のドットであっても同様である。
CCDやCMOSデバイスを用いた撮像素子により光−電気変換を行うため、素子の離散的配置のため、角ABOの値は連続した値となり得ない。
図1(b)において、対象物(5)の元の点(O)は撮像素子の点P1に結像しているため対象物までの距離は、AOとなる。対象物(5’)が近づいてきたために撮像素子の点P2に点(O’)が結像すると、三角測量の原理によって現在の位置は点(O’)にあるものと推測される。すなわち、撮像素子上で点P1と点P2の間を細分化しない限り、距離OAの次に近い距離は距離O’Aとなり、この間の距離は計測できない。
Also in the case of line pattern projection, the three-dimensional position is obtained from the intersection of the plane on which the light source exists and the vector acquired by the camera. By using in combination with the pattern matching technique, it is possible to obtain a three-dimensional position even for a plurality of line patterns, that is, a stripe pattern or a lattice pattern. The same applies to a plurality of dots.
Since photoelectric conversion is performed by an image sensor using a CCD or CMOS device, the value of the angle ABO cannot be a continuous value due to the discrete arrangement of the elements.
In FIG. 1B, since the original point (O) of the object (5) is imaged at the point P1 of the image sensor, the distance to the object is AO. When the point (O ′) forms an image at the point P2 of the image sensor because the object (5 ′) is approaching, it is estimated that the current position is at the point (O ′) by the principle of triangulation. That is, unless the distance between the points P1 and P2 is subdivided on the image sensor, the distance next to the distance OA is the distance O′A, and the distance between these cannot be measured.

カメラ及び/またはパターン投光装置の移動により、ベースライン距離が小さくても計測精度を向上することができる。   By moving the camera and / or the pattern projector, the measurement accuracy can be improved even if the baseline distance is small.

内視鏡のような小型化が要求されるカメラにおいては、CCDやCMOSデバイスを用いた撮像素子により光−電気変換を行うため、素子の離散的配置により量子化誤差が生じる。
この誤差を軽減するために、撮像素子の画素数を増やすことができればよいが、画素数を無限に増やすことはできない。そこで、実質的に画素数を増やしたかのように、量子化誤差を軽減できる構造を提案する。
問題点解決の基本的概念は以下のとおりである。
(1)カメラ(またはパターン投光装置)の内視鏡径方向への移動
(2)カメラ(またはパターン投光装置)の内視鏡前後方向への移動
(3)カメラ及びパターン投光装置の移動
In a camera that is required to be downsized, such as an endoscope, an optical-electrical conversion is performed by an image pickup device using a CCD or a CMOS device, so that a quantization error occurs due to the discrete arrangement of the device.
In order to reduce this error, it is only necessary to increase the number of pixels of the image sensor, but the number of pixels cannot be increased infinitely. Therefore, a structure is proposed in which the quantization error can be reduced as if the number of pixels is substantially increased.
The basic concept of problem solving is as follows.
(1) Movement of the camera (or pattern projector) in the endoscope radial direction (2) Movement of the camera (or pattern projector) in the longitudinal direction of the endoscope (3) of the camera and pattern projector Move

撮像面である撮像素子を移動させる構成を、図2に示す。図2において、内視鏡の挿入部(20)の先端が示されており、投光器としてライトガイド(6)及び投光レンズ(7)が設けられている。投光レンズ(7)からはマルチビームのスポット(ドット)光が投光され、対象物(5)を照射する。対象物(5)から反射した光は撮像レンズ(3)により、CCDやCMOSによる撮像素子(4)上に像を結ぶ。撮像素子(4)はフローティング状態に保持されており、アクチュエータ(8)の一端と結合することにより微小距離移動可能になっている。
アクチュエータ(8)の他端は適当な箇所に固定されている。また、撮像素子からの画像信号は、信号線(9)を経由して信号処理回路(10)に接続されている。信号処理回路では距離の演算や画像のコントラストなどを必要により調整する。
ドット状の照明では目視による観察がしづらい場合には、全体照明とドット照明とを時分割して交互に使用することや、光の波長を異ならせて、赤外光で距離測定を行うとともに可視光で観察を行うよう構成することも考慮されるべきである。
FIG. 2 shows a configuration for moving the image sensor that is the imaging surface. In FIG. 2, the distal end of the insertion portion (20) of the endoscope is shown, and a light guide (6) and a light projecting lens (7) are provided as light projectors. A multi-beam spot (dot) light is projected from the light projecting lens (7) and irradiates the object (5). The light reflected from the object (5) forms an image on the image pickup device (4) by CCD or CMOS by the image pickup lens (3). The imaging device (4) is held in a floating state, and can be moved by a minute distance by being coupled to one end of the actuator (8).
The other end of the actuator (8) is fixed at an appropriate location. The image signal from the image sensor is connected to the signal processing circuit (10) via the signal line (9). The signal processing circuit adjusts distance calculation, image contrast, and the like as necessary.
When it is difficult to observe visually with dot-shaped illumination, the entire illumination and dot illumination can be used alternately in a time-division manner, or the distance of light can be varied and infrared light can be measured. It should also be considered to configure the observation with visible light.

概念を説明すると、カメラを第1の位置に置き対象物を撮像する。第1の位置は、図3(a)におけるレンズ(L2)の位置である。次にカメラを内視鏡径方向へ移動させ、第2の位置で対象物を再撮像する。第2の位置は、図3(a)におけるレンズ(L3)の位置である。この移動により対象物(11)は、最初は像(12)として、次に像(13)として結像する。
図3(a)ではレンズL2を左方のL3の位置に移動した場合を示している。レンズを左右方向に微小距離移動させると対象物の結像位置が変化し、結像は像(12)から像(13)へと移動する。この場合、撮像素子をレンズ移動と同じ距離だけ同方向に移動させてもよいし、移動させなくてもよい。また、撮像素子のみを右方向へ移動しても同等の効果が得られる。
これによりパターンの結像位置が異なり、同一ポイントで2通りの距離が得られる。単純には、これらの値を平均化処理する。さらには内視鏡のヘッドが移動していることを利用して、前の画像フレームと今回の画像フレームとの平均移動量を求め、これにより補正する。レンズ単体を移動しても、レンズ及び撮像素子をともに移動してもよいが、実際上は、カメラのレンズは固定したまま、撮像面を元の平面と平行に移動させる形態が望ましい。いずれにしても撮像素子上で結像位置が異なれば、精度は向上する。結像位置が撮像素子の画素において1/2ピッチずれれば精度は約2倍となる。
To explain the concept, a camera is placed in a first position and an object is imaged. The first position is the position of the lens (L2) in FIG. Next, the camera is moved in the endoscope radial direction, and the object is re-imaged at the second position. The second position is the position of the lens (L3) in FIG. By this movement, the object (11) is imaged first as an image (12) and then as an image (13).
FIG. 3A shows the case where the lens L2 is moved to the left position L3. When the lens is moved by a minute distance in the left-right direction, the imaging position of the object changes, and the imaging moves from the image (12) to the image (13). In this case, the image sensor may be moved in the same direction by the same distance as the lens movement, or may not be moved. The same effect can be obtained even if only the image sensor is moved in the right direction.
As a result, the image forming position of the pattern is different, and two distances can be obtained at the same point. Simply, average these values. Furthermore, using the fact that the head of the endoscope is moving, the average movement amount between the previous image frame and the current image frame is obtained and corrected by this. Although the lens alone or the lens and the image sensor may be moved, in practice, it is desirable that the imaging surface be moved parallel to the original plane while the camera lens is fixed. In any case, the accuracy is improved if the imaging position is different on the image sensor. If the image forming position is shifted by 1/2 pitch in the pixels of the image sensor, the accuracy is approximately doubled.

さらには、1/3ピッチずつずらせながら3回の撮像を行うと、さらに精度は向上する。
拡張すればk/nピッチ(k=0,1,…,n−1であり,nは1以上の整数)ずらしすることが可能である。
ここでの移動はアクチュエータなどにより物理的に行っても良いが、ハーフミラーにより入射光を分割し、2つ以上の撮像素子により撮像することにより行っても良い。アクチュエータによれば1/2画素シフトや1/3,2/3画素シフトなど多種の移動位置で画像が得られる。ハーフミラーによれば可動部がないなどそれぞれの構成により得失があるので、状況により選択する。ハーフミラー(14)を用いる場合の構造を図4に示す。図4(a)は左右方向にずらせる例である。
ここまで、単一ドット光の例で示したが、逐次点灯によるスキャンであっても適用可能であるし、常時点灯のマルチドットであってもパターン・マッチングの手法を採用すれば、単一ドット光と同様に距離計側が行えることは明らかである。
Furthermore, if the imaging is performed three times while shifting by 1/3 pitch, the accuracy is further improved.
If it is expanded, it is possible to shift the pitch by k / n (k = 0, 1,..., N−1, where n is an integer of 1 or more).
The movement here may be physically performed by an actuator or the like, but may also be performed by dividing incident light by a half mirror and imaging by two or more imaging elements. According to the actuator, images can be obtained at various movement positions such as a 1/2 pixel shift, a 1/3, and a 2/3 pixel shift. According to the half mirror, there are advantages and disadvantages depending on the configuration, such as no moving parts, so it is selected depending on the situation. The structure in the case of using the half mirror (14) is shown in FIG. FIG. 4A shows an example of shifting in the left-right direction.
Up to this point, an example of single-dot light has been shown, but it can also be applied to scanning by sequential lighting, and even if it is a multi-dot that is always lit, if a pattern matching method is adopted, a single dot light can be used. It is clear that the distance meter can do the same as light.

先の実施例では撮像面を元の平面と平行に移動させたが、他の実施例として撮像面を元の平面と垂直の方向すなわち内視鏡の前後方向に移動させる。
図3(b)は、その概念図である。第1の位置におけるレンズ(L2)で対象物(11)を撮像すると、対象物(11)は像(12)の位置及び大きさで結像する。
次にレンズを移動させる。第2の位置におけるレンズ(L3)で対象物(11)を撮像すると、対象物(11)は像(13)の位置及び大きさで結像する。
図3(b)はレンズ(L2)を後方のL3の位置に移動した場合を示している。
レンズを前後方向に微小距離移動させると対象物の結像位置及び大きさが変化し、結像は像(12)から像(13)へと移動する。この場合、撮像素子をレンズ移動と同じ距離だけ同方向に移動させるものとするが、ピントのずれが問題にならなければ、撮像素子は移動させなくてもよい。
この場合には、パターンの一部で結像位置が変化しないため、部分的に量子化誤差を軽減できない領域が存在する。
前後の移動においても物理的な移動に代えて、ハーフミラー(14)による入射光分割が利用できる。この場合にはピント合わせの問題が生じるが、一方の撮像素子に補正レンズ(L4)を設けることにより解決することができる。
図4はハーフミラー(14)を用いる場合の構造であり、図4(b)及び図4(c)は前後方向にずらせる例である。図4(b)においては、焦点距離調整のために補正レンズ(L4)を挿入してある。この場合には焦点距離が撮像素子ごとに異なるので、厳密にいえばカメラを前後方向にずらしたものではないが小型化が可能である。図4(c)の構造はカメラ全体を前後方向にずらせたものとなるが構造上やや大きくなる。光路を変更するために全反射ミラー(15)を用いているが、省略する構造も可能である。
In the previous embodiment, the imaging surface is moved in parallel with the original plane. However, as another embodiment, the imaging surface is moved in a direction perpendicular to the original plane, that is, in the front-rear direction of the endoscope.
FIG. 3B is a conceptual diagram thereof. When the object (11) is imaged with the lens (L2) at the first position, the object (11) is imaged at the position and size of the image (12).
Next, the lens is moved. When the object (11) is imaged with the lens (L3) at the second position, the object (11) is imaged at the position and size of the image (13).
FIG. 3B shows a case where the lens (L2) is moved to the rear position L3.
When the lens is moved a minute distance in the front-rear direction, the imaging position and size of the object change, and the imaging moves from the image (12) to the image (13). In this case, the image sensor is moved in the same direction by the same distance as the lens movement. However, if the focus shift is not a problem, the image sensor does not have to be moved.
In this case, since the imaging position does not change in a part of the pattern, there is a region where the quantization error cannot be partially reduced.
In the back-and-forth movement, instead of physical movement, incident light splitting by the half mirror (14) can be used. In this case, the problem of focusing occurs, but it can be solved by providing a correction lens (L4) in one image sensor.
FIG. 4 shows a structure in the case of using a half mirror (14), and FIGS. 4 (b) and 4 (c) are examples of shifting in the front-rear direction. In FIG. 4B, a correction lens (L4) is inserted for focal length adjustment. In this case, since the focal length differs for each image sensor, strictly speaking, although the camera is not shifted in the front-rear direction, it is possible to reduce the size. The structure shown in FIG. 4C is obtained by shifting the entire camera in the front-rear direction, but is slightly larger in structure. Although the total reflection mirror (15) is used to change the optical path, a structure can be omitted.

ここまで、カメラ(レンズ単体または撮像素子のみの移動を含む)を移動させるものとして説明したが、カメラに代えてパターン投光器を移動させることによっても、カメラの移動と同様に量子化誤差が軽減できることは理解できよう。
さらに、カメラとパターン投光装置の双方を移動させることによっても同様に量子化誤差が軽減できることも理解できよう。
また、撮像素子上の異なる画素へ結像できて計測すれば誤差が軽減できるのであるから、カメラを傾けること、レンズまたは撮像素子を傾けること、投光器を傾けることなど他の形態も考えられる。
Up to this point, it has been described that the camera (including the movement of a single lens or only an image sensor) is moved, but the quantization error can be reduced by moving the pattern projector instead of the camera as well as the movement of the camera. Can understand.
Further, it will be understood that the quantization error can be similarly reduced by moving both the camera and the pattern projector.
Further, since an error can be reduced if an image can be formed and measured on different pixels on the image sensor, other forms such as tilting the camera, tilting the lens or the image sensor, tilting the projector, etc. are conceivable.

先に述べたレンズの前後方向への移動により、距離を求めることができる。結像位置の変化の影響など補正要素はあるが、概略を述べる。
図3(b)に示すように、カメラ全体をxcm後ろに移動した際に対象物の大きさ(または画角)がy%減少したとすると、
対象物の大きさ×焦点距離=像(12)の大きさ×最初の距離(D12) -----(1)
対象物の大きさ×焦点距離=像(13)の大きさ×移動後の距離(D13)-----(2)
移動後の距離(D13)−最初の距離(D12)=x -----(3)
像(13)の大きさ/像(12)の大きさ=(100−y)/100 -----(4)
の4つの式から
対象物までの最初の距離=x・(100−y)/y
となる。
これにより求めた距離も量子化誤差の影響を含むものであるが、実施例1乃至3による三角測量を補完するものとして、あるいは単独で距離測定可能なものである。ハーフミラーを用いる場合には、図4(c)の構造が望ましい。
The distance can be obtained by moving the lens in the front-rear direction as described above. Although there are correction factors such as the influence of changes in the imaging position, an outline will be described.
As shown in FIG. 3 (b), if the size (or angle of view) of the object decreases by y% when the entire camera is moved backward by xcm,
Object size × focal length = image (12) size × first distance (D12) ----- (1)
Object size × focal length = image (13) size × movement distance (D13) ----- (2)
Distance after movement (D13) -first distance (D12) = x ----- (3)
Size of image (13) / Size of image (12) = (100-y) / 100 ----- (4)
The initial distance from the four equations to the object = x · (100−y) / y
It becomes.
The distance obtained in this way also includes the influence of the quantization error, but it can be used as a supplement to the triangulation according to Embodiments 1 to 3 or can be measured independently. When a half mirror is used, the structure shown in FIG.

ここで述べた量子化誤差を低減する手法は広く利用可能なものであるが、ベースラインを大きく取れない分野、すなわち内視鏡に適用すればカメラ(撮像素子)の移動に用いるアクチュエータも小型の圧電素子たとえばピエゾ素子を用いることができ、小型化が可能である。   Although the method for reducing the quantization error described here can be widely used, the actuator used to move the camera (imaging device) is small when applied to a field where the baseline cannot be made large, that is, an endoscope. Piezoelectric elements such as piezo elements can be used, and downsizing is possible.

距離計測の原理を示す図。(a)は装置概念図であり、(b)は量子化誤差を説明する図である。The figure which shows the principle of distance measurement. (A) is an apparatus conceptual diagram, (b) is a figure explaining a quantization error. 内視鏡の挿入部先端を示す図。The figure which shows the insertion part front-end | tip of an endoscope. 量子化誤差を軽減するためのカメラ移動を示す図。(a)は左右方向への移動を示し、(b)は前後方向への移動を示している。The figure which shows the camera movement for reducing a quantization error. (A) shows the movement to the left-right direction, (b) has shown the movement to the front-back direction. ハーフミラーによる撮像素子の配置を示す図。(a)は左右方向への配置を示し、(b)及び(c)は前後方向への配置を示している。The figure which shows arrangement | positioning of the image pick-up element by a half mirror. (A) shows the arrangement in the left-right direction, and (b) and (c) show the arrangement in the front-rear direction.

符号の説明Explanation of symbols

1 投光器
2 カメラ
3 レンズ開口部
4 撮像素子
5,11 対象物
12 レンズ(L2)による像
13 レンズ(L3)による像
DESCRIPTION OF SYMBOLS 1 Light projector 2 Camera 3 Lens opening part 4 Image pick-up element 5, 11 Object 12 Image by lens (L2) 13 Image by lens (L3)

Claims (2)

距離を測定するための光パターンを対象物にむけて照射する投光器(1)と、対象物からの反射光を撮像素子上に結像させる撮像レンズ(3)と、結像された像を光−電気変換する撮像素子(4)と、撮像素子及び/またはレンズを微小距離移動させるアクチュエータ(8)とを具備する三次元計測機能つき内視鏡装置。 A projector (1) that irradiates an object with a light pattern for measuring a distance, an imaging lens (3) that forms an image of reflected light from the object on an image sensor, and a light of the image formed. An endoscope apparatus with a three-dimensional measurement function, comprising an imaging device (4) for electrical conversion and an actuator (8) for moving the imaging device and / or lens by a minute distance. 距離を測定するための光パターンを対象物にむけて照射する投光器(1)と、対象物からの反射光を撮像素子上に結像させる撮像レンズ(3)と、結像された像を光−電気変換する2つ以上の撮像素子(4)と、撮像素子上の像を画素のk/nピッチ(但しkは1からn−1までの整数、nは2以上の整数)ずらして2つ以上の撮像素子に結像させるハーフミラー(14)とを具備する三次元計測機能つき内視鏡装置。 A projector (1) that irradiates an object with a light pattern for measuring a distance, an imaging lens (3) that forms an image of reflected light from the object on an image sensor, and a light of the image formed. -Two or more image sensors (4) to be electrically converted, and the image on the image sensor are shifted by 2 k / n pitches of pixels (where k is an integer from 1 to n-1 and n is an integer of 2 or more). An endoscope apparatus with a three-dimensional measurement function, comprising a half mirror (14) that forms an image on two or more image sensors.
JP2005091799A 2005-03-28 2005-03-28 Endoscopic apparatus with three-dimensional measuring function Pending JP2006271503A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005091799A JP2006271503A (en) 2005-03-28 2005-03-28 Endoscopic apparatus with three-dimensional measuring function

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005091799A JP2006271503A (en) 2005-03-28 2005-03-28 Endoscopic apparatus with three-dimensional measuring function

Publications (1)

Publication Number Publication Date
JP2006271503A true JP2006271503A (en) 2006-10-12

Family

ID=37206831

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005091799A Pending JP2006271503A (en) 2005-03-28 2005-03-28 Endoscopic apparatus with three-dimensional measuring function

Country Status (1)

Country Link
JP (1) JP2006271503A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008229025A (en) * 2007-03-20 2008-10-02 Olympus Corp Fluorescence observing apparatus
WO2012127549A1 (en) * 2011-03-22 2012-09-27 パナソニック株式会社 Endoscope

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5969039A (en) * 1982-10-15 1984-04-19 オリンパス光学工業株式会社 Endoscope apparatus
JPS6490676A (en) * 1987-09-30 1989-04-07 Olympus Optical Co Video end scope device with automatic focussing
JPH01200214A (en) * 1988-02-04 1989-08-11 Toshiba Corp Measuring endoscope device
JPH0542097A (en) * 1991-08-16 1993-02-23 Olympus Optical Co Ltd Endoscope for three-dimensional measurement
JPH0630420A (en) * 1992-05-13 1994-02-04 Olympus Optical Co Ltd Face sequential type image pickup device
JPH06178214A (en) * 1992-12-11 1994-06-24 Fuji Photo Optical Co Ltd Electronic endoscope device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5969039A (en) * 1982-10-15 1984-04-19 オリンパス光学工業株式会社 Endoscope apparatus
JPS6490676A (en) * 1987-09-30 1989-04-07 Olympus Optical Co Video end scope device with automatic focussing
JPH01200214A (en) * 1988-02-04 1989-08-11 Toshiba Corp Measuring endoscope device
JPH0542097A (en) * 1991-08-16 1993-02-23 Olympus Optical Co Ltd Endoscope for three-dimensional measurement
JPH0630420A (en) * 1992-05-13 1994-02-04 Olympus Optical Co Ltd Face sequential type image pickup device
JPH06178214A (en) * 1992-12-11 1994-06-24 Fuji Photo Optical Co Ltd Electronic endoscope device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008229025A (en) * 2007-03-20 2008-10-02 Olympus Corp Fluorescence observing apparatus
WO2012127549A1 (en) * 2011-03-22 2012-09-27 パナソニック株式会社 Endoscope

Similar Documents

Publication Publication Date Title
CN107735645B (en) Three-dimensional shape measuring device
US6741082B2 (en) Distance information obtaining apparatus and distance information obtaining method
WO2017183181A1 (en) Three-dimensional shape measurement device
TWI427265B (en) Measuring apparatus
KR101609029B1 (en) Method for measuring transmission characteristic of optical transmission media and imaging apparatus
JP2009300268A (en) Three-dimensional information detection device
TWI500901B (en) Measuring apparatus
US20180128603A1 (en) Three-dimensional shape measurement apparatus
US11555926B2 (en) Optical device, measurement device, robot, electronic apparatus, mobile object, and shaping device
WO2018159292A1 (en) Measurement support device, endoscope system, and processor of endoscope system
JP2007144024A (en) Three-dimensional measurement endoscope using self-mixing laser
US20210152810A1 (en) Adaptive 3d-scanner with variable measuring range
JP6115642B2 (en) Height measuring device
JP2017020873A (en) Measurement device for measuring shape of measurement object
JP2011100077A (en) Focus detecting device
JP2004191092A (en) Three-dimensional information acquisition system
KR101527764B1 (en) 3 dimension image measuring apparatus using a laser interferometer
JP2006271503A (en) Endoscopic apparatus with three-dimensional measuring function
JP6273109B2 (en) Optical interference measurement device
JP2010152881A (en) Barcode scanner and barcode scanning method
JP2010014505A (en) Three-dimensional shape measuring apparatus and three-dimensional shape measurement method
JP2021018079A (en) Imaging apparatus, measuring device, and measuring method
JP3973979B2 (en) 3D shape measuring device
JP2728368B2 (en) Exposure method
JP2008128770A (en) Lens performance inspection device and lens performance inspection method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070306

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20070306

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100202

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100615

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20101019