JP6706026B2 - Endoscope system and operating method of endoscope apparatus - Google Patents
Endoscope system and operating method of endoscope apparatus Download PDFInfo
- Publication number
- JP6706026B2 JP6706026B2 JP2015075375A JP2015075375A JP6706026B2 JP 6706026 B2 JP6706026 B2 JP 6706026B2 JP 2015075375 A JP2015075375 A JP 2015075375A JP 2015075375 A JP2015075375 A JP 2015075375A JP 6706026 B2 JP6706026 B2 JP 6706026B2
- Authority
- JP
- Japan
- Prior art keywords
- measurement
- image
- light
- dimensional
- wavelength band
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000011017 operating method Methods 0.000 title 1
- 238000005259 measurement Methods 0.000 claims description 923
- 238000000034 method Methods 0.000 claims description 226
- 238000012545 processing Methods 0.000 claims description 190
- 238000012360 testing method Methods 0.000 claims description 170
- 230000008569 process Effects 0.000 claims description 121
- 238000005286 illumination Methods 0.000 claims description 75
- 230000001678 irradiating effect Effects 0.000 claims description 18
- 238000000926 separation method Methods 0.000 claims description 12
- 239000002131 composite material Substances 0.000 claims description 9
- 230000002194 synthesizing effect Effects 0.000 claims description 4
- 238000004448 titration Methods 0.000 claims description 2
- 230000003287 optical effect Effects 0.000 description 52
- 238000003384 imaging method Methods 0.000 description 27
- 238000003780 insertion Methods 0.000 description 16
- 230000037431 insertion Effects 0.000 description 16
- 238000007689 inspection Methods 0.000 description 14
- 239000000470 constituent Substances 0.000 description 13
- 230000008878 coupling Effects 0.000 description 10
- 238000010168 coupling process Methods 0.000 description 10
- 238000005859 coupling reaction Methods 0.000 description 10
- 239000000835 fiber Substances 0.000 description 9
- 239000013307 optical fiber Substances 0.000 description 9
- 230000008859 change Effects 0.000 description 5
- 239000003086 colorant Substances 0.000 description 5
- 238000012937 correction Methods 0.000 description 5
- 230000033001 locomotion Effects 0.000 description 5
- 238000000691 measurement method Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000010363 phase shift Effects 0.000 description 4
- 239000000284 extract Substances 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 229910052736 halogen Inorganic materials 0.000 description 1
- 150000002367 halogens Chemical class 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Landscapes
- Instruments For Viewing The Inside Of Hollow Bodies (AREA)
- Endoscopes (AREA)
- Closed-Circuit Television Systems (AREA)
Description
本発明は、内視鏡システムおよび内視鏡装置の作動方法に関し、特に、測定点の設定方法に関する。 The present invention relates to actuation how the endoscope system and endoscope apparatus, in particular, on how to set measurement points.
従来から、工業分野や医療分野において、長尺の挿入部を被検物内に挿入し、挿入部の先端に位置する先端部内に備えた撮像素子によって被検物内を撮影する内視鏡装置が実用化されている。また、近年では、撮影した被写体の形状を把握するために、3次元の計測技術を搭載した内視鏡装置のシステム(内視鏡システム)も製品化されている。 BACKGROUND ART Conventionally, in an industrial field or a medical field, an endoscope apparatus that inserts a long insertion portion into an object to be inspected and takes an image of the inside of the object to be inspected by an imaging element provided in a distal end portion located at a tip of the insertion portion. Has been put to practical use. Further, in recent years, in order to grasp the shape of a photographed subject, a system (endoscope system) of an endoscope device equipped with a three-dimensional measurement technique has been commercialized.
3次元の計測技術を大きく分類すると、パッシブ方式とアクティブ方式とがある。パッシブ方式は、例えば、被写体を撮影した右目に相当する画像と左目に相当する画像とから生成した3次元画像に基づいて計測する、いわゆる、ステレオ計測に代表されるような方式である。また、アクティブ方式は、例えば、縞状などに構造化したパターンの光を被写体に照射し、撮影した画像に含まれる縞の間隔などの変化の情報を利用して計測する、いわゆる、縞投影計測に代表されるような方式である。 The three-dimensional measurement technology is roughly classified into a passive method and an active method. The passive method is, for example, a method typified by so-called stereo measurement, in which measurement is performed based on a three-dimensional image generated from an image corresponding to the right eye and an image corresponding to the left eye of a subject. Further, the active method is, for example, so-called fringe projection measurement, in which light of a structured pattern in a stripe shape is applied to a subject and measurement is performed by using information on changes in stripe intervals included in a captured image. The method is represented by.
パッシブ方式の計測では、右目に相当する撮像素子と左目に相当する撮像素子とを備える。ステレオ計測では、左目に相当する画像と右目に相当する画像とから対応点を探索するのが一般的であるが、被写体の表面の凹凸に応じたテクスチャ(質感や手触りなど)が少ないと、対応点を正確に探索することが難しい。これ対してアクティブ方式の計測は、構造化したパターンの光を照射する構成を内視鏡装置の先端部内に備えることで実現することができる。そして、アクティブ方式の計測は、テクスチャに依存することなく計測を行うことができる、撮影した画像の全画面で計測を行う場合には処理時間が短い、などの利点をもっている。 The passive type measurement includes an image sensor corresponding to the right eye and an image sensor corresponding to the left eye. In stereo measurement, it is common to search for corresponding points from the image corresponding to the left eye and the image corresponding to the right eye, but if there are few textures (texture, touch, etc.) according to the unevenness of the surface of the subject, it will be supported. It is difficult to find the point accurately. On the other hand, the active measurement can be realized by providing a structure for irradiating light of a structured pattern in the distal end portion of the endoscope device. The active measurement has the advantage that the measurement can be performed without depending on the texture and the processing time is short when the measurement is performed on the entire screen of the captured image.
このため、例えば、特許文献1や特許文献2のように、3次元の計測を行う構成として、アクティブ方式の計測、つまり、縞投影計測を行う構成を搭載した内視鏡システムの技術が提案されている。特許文献1や特許文献2に開示された技術では、構造化したパターンの光に位相差をもたせる位相シフトを行って被写体に複数回照射し、それぞれの位相で撮影した複数の画像から3次元画像を生成して3次元の計測を行っている。 Therefore, for example, as in Patent Document 1 and Patent Document 2, as a configuration for performing three-dimensional measurement, a technique of an endoscope system equipped with an active measurement, that is, a configuration for performing fringe projection measurement is proposed. ing. In the techniques disclosed in Patent Document 1 and Patent Document 2, a three-dimensional image is obtained from a plurality of images captured by irradiating a subject a plurality of times by performing a phase shift that imparts a phase difference to structured light. Is generated and three-dimensional measurement is performed.
また、例えば、特許文献3には、3次元の計測を行う内視鏡システムにおける被写体の撮影時の制御方法や処理手順(処理フロー)が開示されている。特許文献3に開示された技術では、まず、検査モードにおいて縞状のパターンが含まれない通常の光を照射して被写体を撮影し、このときに撮影された画像に対して内視鏡システムの使用者(ユーザ)が、3次元の計測を行いたい測定点の位置を設定する。その後、計測モードにおいて構造化したパターンの光を照射して被写体を撮影し、このときに撮影された画像から3次元画像を生成して、設定された測定点に対応する位置での3次元の計測を行う。例えば、2点間の距離を計測する場合、特許文献3に開示された技術では、検査モードで撮影された画像に対して長さの計測を行うための2つの測定点を設定し、計測モードで撮影された画像から生成した3次元画像に含まれる2つの測定点に対応した位置(例えば、座標)に基づいて、2点間の距離の計測を行っている。 Further, for example, Patent Document 3 discloses a control method and a processing procedure (processing flow) at the time of photographing an object in an endoscope system that performs three-dimensional measurement. In the technique disclosed in Patent Document 3, first, in the inspection mode, normal light that does not include a striped pattern is radiated to photograph a subject, and an image of the subject is captured by the endoscope system. A user (user) sets the position of a measurement point at which three-dimensional measurement is desired. After that, a structured pattern of light is irradiated in the measurement mode to photograph a subject, a three-dimensional image is generated from the image photographed at this time, and a three-dimensional image at a position corresponding to the set measurement point is generated. Take measurements. For example, in the case of measuring the distance between two points, the technique disclosed in Patent Document 3 sets two measurement points for measuring the length of an image captured in the inspection mode and sets the measurement mode. The distance between the two points is measured based on the positions (for example, the coordinates) corresponding to the two measurement points included in the three-dimensional image generated from the image captured in.
しかしながら、特許文献3に開示された技術では、上述したように、検査モードで撮影した画像に対して測定点を設定した後に、計測モードで撮影した画像から3次元画像を生成し、ここで、生成した3次元画像に基づいて計測を行っている。つまり、特許文献3に開示された技術では、測定点を設定する画像と、計測を行う画像とが異なる画像であり、それぞれの画像を撮影するタイミングに時間差がある。このため、測定点を設定する画像と計測を行う画像との間で被写体のブレや見え方の違いなどがあると、これらの要因によって計測性能が低下する。 However, in the technique disclosed in Patent Document 3, as described above, after setting the measurement points for the image captured in the inspection mode, a three-dimensional image is generated from the image captured in the measurement mode. The measurement is performed based on the generated three-dimensional image. That is, in the technique disclosed in Patent Document 3, the image at which the measurement point is set and the image at which the measurement is performed are different images, and there is a time difference between the timings at which the images are captured. Therefore, if there is a blur or a difference in appearance of the subject between the image in which the measurement point is set and the image in which the measurement is performed, the measurement performance deteriorates due to these factors.
より具体的には、例えば、計測モードにおいて構造化したパターンの光を照射して被写体を撮影するときに、検査モードで撮影したときと異なる位置に先端部が動いてしまうと、モーションブラーが発生する。つまり、測定点を設定するために検査モードで撮影を行った画像に含まれる被写体の位置と、計測を行うために計測モードで撮影を行った画像に含まれる被写体の位置とにずれが生じしまう。この被写体の位置のずれが発生すると、ユーザが所望する位置、つまり、測定点を設定した位置とは異なる位置の計測が行われることになり、正しい計測値を得ることができない。なお、計測を行う画像に含まれる被写体の位置が測定点を設定した画像に含まれる被写体の位置と異なる場合には、例えば、計測を行う画像に含まれる被写体の位置を画像処理によって補正し、測定点を設定した画像に含まれる被写体の位置と合わせた後に計測を行う方法を採用することも考えられる。しかし、画像処理による被写体の位置の補正処理では、例えば、被写体の表面に凸凹が少ない(テクスチャが少ない)場合、合わせた位置に誤差が含まれてしまうことがあり、この誤差によって被写体の位置を正確に合わせることができず、位置合わせの補正処理の効果を十分に得ることができない。 More specifically, for example, when shooting a subject by irradiating a structured pattern of light in the measurement mode, if the tip moves to a position different from that in the inspection mode, motion blur occurs. To do. In other words, the position of the subject included in the image captured in the inspection mode for setting the measurement point and the position of the subject included in the image captured in the measurement mode for performing the measurement are displaced. .. When this displacement of the position of the subject occurs, measurement is performed at a position desired by the user, that is, a position different from the position where the measurement point is set, and a correct measurement value cannot be obtained. When the position of the subject included in the image to be measured is different from the position of the subject included in the image in which the measurement points are set, for example, the position of the subject included in the image to be measured is corrected by image processing, It is also conceivable to adopt a method in which measurement is performed after the measurement point is aligned with the position of the subject included in the set image. However, in the processing for correcting the position of the subject by image processing, for example, when the surface of the subject has few irregularities (the texture is few), the combined position may include an error. Accurate alignment cannot be achieved, and the effect of the alignment correction process cannot be obtained sufficiently.
また、例えば、被写体の表面の凸凹があると、計測を行う画像に、ハレーションによる白飛びや凸凹の影による黒つぶれなどが発生する。このハレーションなどが発生した画像からは、正しい計測値を得ることができない。例えば、測定点を設定する画像に2つの測定点を設定し、被検物の表面の凸凹に沿った2点間の距離を計測する場合、計測を行う画像にハレーションなどが発生していると、被検物の表面であるのか、表面の凸凹による影であるのかを判定することができず、被検物の表面にある凸凹の幅を正確に計測することができない。 In addition, for example, if there is unevenness on the surface of the subject, whiteout due to halation or blackout due to the shadow of unevenness will occur in the image to be measured. Correct measurement values cannot be obtained from images in which halation or the like has occurred. For example, when two measurement points are set in the image for setting the measurement points and the distance between the two points along the unevenness of the surface of the object to be measured is measured, halation or the like occurs in the image to be measured. However, it is not possible to determine whether it is the surface of the test object or the shadow due to the unevenness of the surface, and the width of the unevenness on the surface of the test object cannot be accurately measured.
本発明は、上記の課題認識に基づいてなされたものであり、3次元の計測技術を搭載した内視鏡システムにおいて、正確な計測結果を得ることができる内視鏡システムおよび内視鏡装置の作動方法を提供することを目的としている。 The present invention has been made based on recognition of the above problems, in the endoscope system with 3-D measurement technique, an endoscope system and endoscope capable of obtaining an accurate measurement result and its object is to provide an actuation how the device.
本発明の第1の態様によれば、内視鏡システムは、被検物を観察するための観察光を前記被検物に照射する照明部と、前記被検物を3次元で計測するために構造化したパターンの予め定めた波長帯域の計測光を前記被検物に照射するパターン投影部と、前記照明部による前記観察光の前記被検物への照射と、前記パターン投影部による前記計測光の前記被検物への照射とを制御する照射光制御部と、前記被検物の計測画像に基づいて、指定された測定点に応じた前記被検物に対する3次元の計測を行う3次元計測部と、設定用画像及び前記測定点を表示する表示部と、を備えた内視鏡システムであって、前記3次元計測部は、前記観察光及び前記計測光を同時に照射して得た前記被検物の計測画像に基づいて前記設定用画像を生成し、前記設定用画像に設定された前記測定点の位置に対応する前記計測画像の情報に基づいて前記被検物に対する前記3次元の計測を行う。 According to the first aspect of the present invention, the endoscope system illuminates the test object with observation light for observing the test object, and measures the test object three-dimensionally. A pattern projection unit that irradiates the test object with measurement light in a predetermined wavelength band of a structured pattern, irradiation of the observation light by the illumination unit to the test object, and the pattern projection unit an irradiation light control unit for controlling the irradiation to the specimen of the measuring light, before SL on the basis of the measurement image of the object, the three-dimensional measurement with respect to the test object corresponding to the specified measurement point An endoscope system including a three-dimensional measurement unit that performs the setting, and a display unit that displays the setting image and the measurement point , wherein the three-dimensional measurement unit simultaneously emits the observation light and the measurement light. generating said set titration, images based on the measurement image of the test object was obtained, wherein the test object based on the information of the measurement image corresponding to the position of the set the measuring point on the setting image The above-mentioned three-dimensional measurement is performed.
本発明の第2の態様によれば、上記第1の態様の内視鏡システムにおいて、前記3次元計測部は、前記3次元の計測を行う際に、前記計測画像に含まれる前記計測光と同じ波長帯域の光の反射による前記被検物の映像である第1の波長帯域計測画像に基づいて、前記3次元の計測に用いる3次元画素情報を生成し、生成した前記3次元画素情報を含んだ3次元計測画像を生成する3次元形状復元処理と、前記3次元計測画像に含まれる、前記設定用画像に設定された前記測定点の位置に対応する前記3次元画素情報に基づいて、前記3次元の計測を行う3次元計測処理と、を実行してもよい。 According to a second aspect of the present invention, in the endoscope system according to the first aspect, the three-dimensional measurement unit includes the measurement light included in the measurement image when performing the three-dimensional measurement. Three-dimensional pixel information used for the three-dimensional measurement is generated based on a first wavelength band measurement image which is an image of the object by reflection of light in the same wavelength band, and the generated three-dimensional pixel information is stored. Based on the three-dimensional shape restoration processing for generating the included three-dimensional measurement image and the three-dimensional pixel information corresponding to the position of the measurement point set in the setting image included in the three-dimensional measurement image, A three-dimensional measurement process for performing the three-dimensional measurement may be executed.
本発明の第3の態様によれば、上記第2の態様の内視鏡システムにおいて、前記照射光制御部は、前記3次元の計測を行う際に、前記観察光と前記計測光とを同時に前記被検物に照射させ、前記3次元計測部は、前記3次元形状復元処理を実行する前に、前記計測画像を、前記第1の波長帯域計測画像と、前記計測画像に含まれる前記計測光と異なる波長帯域の光の反射による前記被検物の映像である第2の波長帯域計測画像とに分離する画像分離処理を実行し、前記3次元形状復元処理と並列に、前記第1の波長帯域計測画像に含まれる前記計測光の成分を除去した計測光除去画像を生成する構造化パターン除去処理と、前記計測光除去画像と、前記第2の波長帯域計測画像とを合成した合成画像を生成する合成画像生成処理と、を順次実行してもよい。 According to a third aspect of the present invention, in the endoscope system of the second aspect, the irradiation light control unit simultaneously performs the observation light and the measurement light when performing the three-dimensional measurement. The three-dimensional measurement unit irradiates the measurement object, and the three-dimensional measurement unit performs the measurement image on the first wavelength band measurement image and the measurement image included in the measurement image before performing the three-dimensional shape restoration process. Image separation processing is performed to separate the light into a second wavelength band measurement image, which is an image of the test object due to reflection of light in a wavelength band different from that of the light, and is parallel to the three-dimensional shape restoration processing. Structured pattern removal processing for generating a measurement light removal image by removing the component of the measurement light contained in the wavelength band measurement image, the measurement light removal image, and a composite image obtained by combining the second wavelength band measurement image The composite image generation processing for generating the above may be sequentially executed.
本発明の第4の態様によれば、上記第3の態様の内視鏡システムにおいて、前記照射光制御部は、前記計測光と同時に前記被検物に照射させる前記観察光の光量を、前記計測光の光量に応じて調光してもよい。 According to a fourth aspect of the present invention, in the endoscope system of the third aspect, the irradiation light control unit sets the light amount of the observation light to be irradiated to the test object at the same time as the measurement light. The light may be adjusted according to the amount of the measurement light.
本発明の第5の態様によれば、上記第3の態様または上記第4の態様の内視鏡システムにおいて、前記3次元計測部は、前記合成画像を前記設定用画像としてもよい。 According to the fifth aspect of the present invention, in the endoscope system according to the third aspect or the fourth aspect, the three-dimensional measurement unit may use the synthetic image as the setting image.
本発明の第6の態様によれば、上記第3の態様または上記第4の態様の内視鏡システムにおいて、前記3次元計測部は、前記3次元計測画像に前記合成画像を重畳した画像を前記設定用画像としてもよい。 According to a sixth aspect of the present invention, in the endoscope system according to the third aspect or the fourth aspect, the three-dimensional measurement unit displays an image in which the composite image is superimposed on the three-dimensional measurement image. It may be the setting image.
本発明の第7の態様によれば、上記第2の態様の内視鏡システムにおいて、前記3次元計測部は、前記3次元形状復元処理と並列に、前記第1の波長帯域計測画像に含まれる前記計測光の成分を除去した計測光除去画像を生成する構造化パターン除去処理、を実行し、前記計測光除去画像を前記設定用画像としてもよい。 According to a seventh aspect of the present invention, in the endoscope system of the second aspect, the three-dimensional measurement unit includes the first wavelength band measurement image in parallel with the three-dimensional shape restoration processing. The structured light pattern removal processing for generating a measurement light removal image from which the component of the measurement light is removed may be executed, and the measurement light removal image may be used as the setting image.
本発明の第8の態様によれば、上記第2の態様の内視鏡システムにおいて、前記3次元計測部は、前記3次元計測画像を前記設定用画像としてもよい。 According to an eighth aspect of the present invention, in the endoscope system of the second aspect, the three-dimensional measurement unit may use the three-dimensional measurement image as the setting image.
本発明の第9の態様によれば、上記第2の態様の内視鏡システムにおいて、前記3次元計測部は、前記3次元計測画像に、事前に前記観察光を照射して得た映像に応じた前記被検物の観察画像を重畳した画像を前記設定用画像としてもよい。 According to a ninth aspect of the present invention, in the endoscope system according to the second aspect, the three-dimensional measurement unit adds an image obtained by previously irradiating the three-dimensional measurement image with the observation light. An image obtained by superimposing a corresponding observed image of the test object may be used as the setting image.
本発明の第10の態様によれば、上記第1の態様から上記第9の態様のいずれか一態様の内視鏡システムにおいて、前記計測光は、構造化したパターンが、光の強度が正弦波状に変化する縞状のパターンであってもよい。 According to a tenth aspect of the present invention, in the endoscope system according to any one of the first to ninth aspects, the measurement light has a structured pattern, and the intensity of the light is sinusoidal. It may be a striped pattern that changes in a wavy manner.
本発明の第11の態様によれば、上記第1の態様から上記第10の態様のいずれか一態様の内視鏡システムにおいて、前記パターン投影部は、前記計測光における前記構造化したパターンの位相を予め定めたシフト量だけ位相シフトして前記被検物に複数回照射し、前記3次元計測部は、前記位相シフトされたそれぞれの前記計測光の照射によって得たそれぞれの映像に応じた複数の前記計測画像に基づいて、前記3次元の計測を行ってもよい。 According to an eleventh aspect of the present invention, in the endoscope system according to any one of the first aspect to the tenth aspect, the pattern projection unit includes the structured pattern of the measurement light. The phase is shifted by a predetermined shift amount to irradiate the test object a plurality of times, and the three-dimensional measurement unit responds to each image obtained by the irradiation of each of the phase-shifted measurement lights. The three-dimensional measurement may be performed based on a plurality of the measurement images.
本発明の第12の態様によれば、上記第1の態様から上記第11の態様のいずれか一態様の内視鏡システムにおいて、前記計測光は、レーザー光であってもよい。 According to a twelfth aspect of the present invention, in the endoscope system according to any one of the first to eleventh aspects, the measurement light may be laser light.
本発明の第13の態様によれば、上記第1の態様から上記第12の態様のいずれか一態様の内視鏡システムにおいて、前記計測光は、前記波長帯域が、可視光の波長帯域であってもよい。 According to a thirteenth aspect of the present invention, in the endoscope system according to any one of the first to twelfth aspects, the measurement light is in the wavelength band of visible light. It may be.
本発明の第14の態様によれば、上記第13の態様の内視鏡システムにおいて、前記計測光は、前記波長帯域が、赤色の波長帯域であってもよい。 According to a 14th aspect of the present invention, in the endoscope system according to the 13th aspect, the wavelength band of the measurement light may be a red wavelength band.
本発明の第15の態様によれば、上記第3の態様から上記第6の態様のいずれか一態様、または上記第3の態様から上記第6の態様のいずれか一態様を引用する上記第10の態様から上記第14の態様のいずれか一態様の内視鏡システムにおいて、前記観察光は可視光の波長帯域であり、前記3次元計測部は、前記画像分離処理において、前記計測画像を、赤色の波長帯域の光の反射による前記計測画像と、緑色の波長帯域の光の反射による前記計測画像と、青色の波長帯域の光の反射による前記計測画像とに分離し、前記計測光と同じ波長帯域の光の反射による前記計測画像を前記第1の波長帯域計測画像とし、前記計測光と異なる波長帯域の光の反射による前記計測画像のそれぞれを前記第2の波長帯域計測画像としてもよい。 According to a fifteenth aspect of the present invention, the third aspect to the sixth aspect, or the third aspect to the sixth aspect cited above In the endoscope system according to any one of the tenth to fourteenth aspects, the observation light is a wavelength band of visible light, and the three-dimensional measurement unit, in the image separation processing, the measurement image , The measurement image by reflection of light in the red wavelength band, the measurement image by reflection of light in the green wavelength band, and the measurement image by reflection of light in the blue wavelength band, the measurement light and The measurement image by reflection of light in the same wavelength band may be the first wavelength band measurement image, and each of the measurement images by reflection of light in the wavelength band different from the measurement light may be the second wavelength band measurement image. Good.
本発明の第16の態様によれば、上記第3の態様から上記第7の態様のいずれか一態様を引用する上記第11の態様、または上記第3の態様から上記第7の態様のいずれか一態様を引用する上記第11の態様を引用する上記第12の態様から上記第15の態様のいずれか一態様の内視鏡システムにおいて、前記3次元計測部は、前記構造化パターン除去処理において、前記複数の前記計測画像のそれぞれに対応する複数の前記第1の波長帯域計測画像に含まれる同じ位置のそれぞれの画素の値同士を加算平均して1つの前記計測光除去画像を生成してもよい。 According to a sixteenth aspect of the present invention, any one of the eleventh aspect, which cites any one of the third aspect to the seventh aspect, or any one of the third aspect to the seventh aspect. In the endoscope system according to any one of the twelfth aspect to the fifteenth aspect, which cites the eleventh aspect, which cites one aspect, the three-dimensional measurement unit includes the structured pattern removal process. In, the value of each pixel at the same position included in the plurality of first wavelength band measurement images corresponding to each of the plurality of measurement images is arithmetically averaged to generate one measurement light removal image. May be.
本発明の第17の態様によれば、上記第6の態様、上記第8の態様、上記第9の態様のいずれか一態様、または上記第6の態様、上記第8の態様、上記第9の態様のいずれか一態様を引用する上記第10の態様から上記第16の態様のいずれか一態様の内視鏡システムにおいて、前記3次元計測部は、前記3次元形状復元処理において、生成した前記3次元画素情報に基づいて前記被検物の奥行きを表した深さ画像を生成し、生成した前記深さ画像を前記3次元計測画像としてもよい。 According to a seventeenth aspect of the present invention, any one of the sixth aspect, the eighth aspect and the ninth aspect, or the sixth aspect, the eighth aspect and the ninth aspect. In the endoscope system of any one of the tenth aspect to the sixteenth aspect, which cites any one of the three aspects, the three-dimensional measurement unit is generated in the three-dimensional shape restoration process. A depth image representing the depth of the object may be generated based on the three-dimensional pixel information, and the generated depth image may be the three-dimensional measurement image.
本発明の第18の態様によれば、内視鏡装置の作動方法は、被検物を観察するための観察光を前記被検物に出射する照明部と、前記被検物を3次元で計測するために構造化したパターンの予め定めた波長帯域の計測光を前記被検物に出射するパターン投影部と、前記照明部による前記観察光の前記被検物への出射と、前記パターン投影部による前記計測光の前記被検物への出射とを制御する出射光制御部と、少なくとも前記計測光を出射して得た映像に応じた前記被検物の計測画像に基づいて、指定された測定点に応じた前記被検物に対する3次元の計測を行う3次元計測部と、を備えた内視鏡装置において、前記3次元計測部が、前記計測画像に基づいて前記測定点を設定するための設定用画像を生成して表示部に表示させるステップと、前記3次元計測部が、前記設定用画像に設定された前記測定点の位置に対応する前記計測画像の情報に基づいて前記被検物に対する前記3次元の計測を行うステップと、前記3次元の計測を行う際に、前記出射光制御部が、前記観察光と前記計測光とを同時に前記被検物に出射させるステップと、前記3次元の計測を行う際に、前記3次元計測部が、前記計測画像に含まれる前記計測光と同じ波長帯域の光の反射による前記被検物の映像である第1の波長帯域計測画像に基づいて、前記3次元の計測に用いる3次元画素情報を生成し、かつ、生成した前記3次元画素情報を含んだ3次元計測画像を生成する3次元形状復元処理と、前記3次元計測画像に含まれる、前記設定用画像に設定された前記測定点の位置に対応する前記3次元画素情報に基づいて、前記3次元の計測を行う3次元計測処理と、を実行するステップと、前記3次元計測部は、前記3次元形状復元処理を実行する前に、前記計測画像を、前記第1の波長帯域計測画像と、前記計測画像に含まれる前記計測光と異なる波長帯域の光の反射による前記被検物の映像である第2の波長帯域計測画像とに分離する画像分離処理を実行するステップと、前記3次元計測部は、前記3次元形状復元処理と並列に、前記第1の波長帯域計測画像に含まれる前記計測光の成分を除去した計測光除去画像を生成する構造化パターン除去処理と、前記計測光除去画像と、前記第2の波長帯域計測画像とを合成した合成画像を生成する合成画像生成処理と、を順次実行するステップとからなる。
本発明の第19の態様によれば、内視鏡システムは、被検物を観察するための観察光を前記被検物に照射する照明部と、前記被検物を3次元で計測するために構造化したパターンの予め定めた波長帯域の計測光を前記被検物に照射するパターン投影部と、前記照明部による前記観察光の前記被検物への照射と、前記パターン投影部による前記計測光の前記被検物への照射とを制御する照射光制御部と、少なくとも前記計測光を照射して得た映像に応じた前記被検物の計測画像に基づいて、指定された測定点に応じた前記被検物に対する3次元の計測を行う3次元計測部と、を備え、前記3次元計測部は、前記計測画像に基づいて前記測定点を設定するための設定用画像を生成して表示部に表示させ、前記設定用画像に設定された前記測定点の位置に対応する前記計測画像の情報に基づいて前記被検物に対する前記3次元の計測を行い、前記3次元の計測を行う際に、前記照射光制御部は、前記観察光と前記計測光とを同時に前記被検物に照射させ、前記3次元の計測を行う際に、前記3次元計測部は、前記計測画像に含まれる前記計測光と同じ波長帯域の光の反射による前記被検物の映像である第1の波長帯域計測画像に基づいて、前記3次元の計測に用いる3次元画素情報を生成し、生成した前記3次元画素情報を含んだ3次元計測画像を生成する3次元形状復元処理と、前記3次元計測画像に含まれる、前記設定用画像に設定された前記測定点の位置に対応する前記3次元画素情報に基づいて、前記3次元の計測を行う3次元計測処理と、を実行し、前記3次元計測部は、前記3次元形状復元処理を実行する前に、前記計測画像を、前記第1の波長帯域計測画像と、前記計測画像に含まれる前記計測光と異なる波長帯域の光の反射による前記被検物の映像である第2の波長帯域計測画像とに分離する画像分離処理を実行し、前記3次元計測部は、前記3次元形状復元処理と並列に、前記第1の波長帯域計測画像に含まれる前記計測光の成分を除去した計測光除去画像を生成する構造化パターン除去処理と、前記計測光除去画像と、前記第2の波長帯域計測画像とを合成した合成画像を生成する合成画像生成処理と、を順次実行する。
本発明の第20の態様によれば、上記第19の態様の内視鏡システムにおいて、前記照射光制御部は、前記計測光と同時に前記被検物に照射させる前記観察光の光量を、前記計測光の光量に応じて調光してもよい。
本発明の第21の態様によれば、上記第19の態様または第20の態様の内視鏡システムにおいて、前記3次元計測部は、前記合成画像を前記設定用画像としてもよい。
本発明の第22の態様によれば、上記第19の態様または第20の態様の内視鏡システムにおいて、前記3次元計測部は、前記3次元計測画像に前記合成画像を重畳した画像を前記設定用画像としてもよい。
本発明の第23の態様によれば、上記第19の態様から第22の態様のいずれか1つの態様の内視鏡システムにおいて、前記観察光は可視光の波長帯域であり、前記3次元計測部は、前記画像分離処理において、前記計測画像を、赤色の波長帯域の光の反射による前記計測画像と、緑色の波長帯域の光の反射による前記計測画像と、青色の波長帯域の光の反射による前記計測画像とに分離し、前記計測光と同じ波長帯域の光の反射による前記計測画像を前記第1の波長帯域計測画像とし、前記計測光と異なる波長帯域の光の反射による前記計測画像のそれぞれを前記第2の波長帯域計測画像としてもよい。
本発明の第24の態様によれば、上記第19の態様から第22の態様のいずれか1つの態様の内視鏡システムにおいて、前記3次元計測部は、前記構造化パターン除去処理において、前記複数の前記計測画像のそれぞれに対応する複数の前記第1の波長帯域計測画像に含まれる同じ位置のそれぞれの画素の値同士を加算平均して1つの前記計測光除去画像を生成してもよい。
本発明の第25の態様によれば、上記第22の態様の内視鏡システムにおいて、前記3次元計測部は、前記3次元形状復元処理において、生成した前記3次元画素情報に基づいて前記被検物の奥行きを表した深さ画像を生成し、生成した前記深さ画像を前記3次元計測画像としてもよい。
According to an eighteenth aspect of the present invention, a method of operating the endoscope apparatus includes an illumination unit you emits observation light for observing the specimen in the specimen, three-dimensional the test object in the pattern projection unit a predetermined wavelength band of the measurement light you exit the specimen of the structured pattern in order to measure the emission into the test object of the observation light by the illumination unit, the and outgoing light control unit that controls the emission into the test object of the measurement light by the pattern projection unit, on the basis of the measurement image of the test object in response to the video obtained by emitting at least the measuring light And a three-dimensional measurement unit that performs three-dimensional measurement on the object according to a designated measurement point , wherein the three-dimensional measurement unit performs the measurement based on the measurement image. Generating a setting image for setting a point and displaying the setting image on a display unit; and the three-dimensional measurement unit, information of the measurement image corresponding to the position of the measurement point set in the setting image. wherein the step of performing the three-dimensional measurement with respect to the test object, when performing measurement of the three-dimensional, pre SL emitted light control unit, the measuring light and at the same time the test object and the observation light based on the And the three-dimensional measurement unit is an image of the object by reflection of light in the same wavelength band as the measurement light included in the measurement image when performing the three-dimensional measurement. A three-dimensional shape restoration process for generating three-dimensional pixel information used for the three-dimensional measurement based on one wavelength band measurement image, and for generating a three-dimensional measurement image including the generated three-dimensional pixel information; And executing a three-dimensional measurement process for performing the three-dimensional measurement based on the three-dimensional pixel information included in the three-dimensional measurement image and corresponding to the position of the measurement point set in the setting image. And the three-dimensional measurement unit, before performing the three-dimensional shape restoration process, the measurement image, a wavelength different from the first wavelength band measurement image and the measurement light included in the measurement image. parallel a step of executing an image separation processing for separating the second wavelength band measurement image is an image of the test object from the reflection of light in a band, the three-dimensional measuring unit, and the 3D reconstruction process A structured pattern removal process for generating a measurement light removal image by removing the component of the measurement light included in the first wavelength band measurement image, the measurement light removal image, and the second wavelength band measurement image. And a step of sequentially executing a combined image generation process for generating a combined image obtained by combining and .
According to the nineteenth aspect of the present invention, the endoscope system illuminates the test object with observation light for observing the test object, and measures the test object three-dimensionally. A pattern projection unit that irradiates the test object with measurement light in a predetermined wavelength band of a structured pattern, irradiation of the observation light by the illumination unit to the test object, and the pattern projection unit An irradiation light control unit that controls irradiation of measurement light onto the test object, and at least a designated measurement point based on a measurement image of the test object according to an image obtained by irradiating the measurement light. And a three-dimensional measurement unit that performs three-dimensional measurement on the object according to the three-dimensional measurement unit, and the three-dimensional measurement unit generates a setting image for setting the measurement point based on the measurement image. Is displayed on the display unit, the three-dimensional measurement is performed on the object based on the information of the measurement image corresponding to the position of the measurement point set in the setting image, and the three-dimensional measurement is performed. When performing, the irradiation light control unit causes the observation light and the measurement light to irradiate the test object at the same time, and when performing the three-dimensional measurement, the three-dimensional measurement unit displays the measurement image on the measurement image. Three-dimensional pixel information used for the three-dimensional measurement is generated and generated based on a first wavelength band measurement image which is an image of the object to be measured by reflection of light in the same wavelength band as the included measurement light. 3D shape restoration processing for generating a 3D measurement image including the 3D pixel information, and 3D corresponding to the position of the measurement point set in the setting image included in the 3D measurement image A three-dimensional measurement process for performing the three-dimensional measurement based on pixel information; and the three-dimensional measurement unit performs the three-dimensional measurement process on the measurement image before performing the three-dimensional shape restoration process. Image separation processing for separating the second wavelength band measurement image, which is an image of the object to be measured by reflection of light in a wavelength band different from the measurement light included in the measurement image, And a structured pattern removal process for generating a measurement light removal image in which the components of the measurement light included in the first wavelength band measurement image are removed in parallel with the three-dimensional shape restoration process. Then, a synthetic image generation process for generating a synthetic image by synthesizing the measurement light removal image and the second wavelength band measurement image is sequentially executed.
According to a twentieth aspect of the present invention, in the endoscope system according to the nineteenth aspect, the irradiation light control unit sets the light amount of the observation light to be irradiated to the test object at the same time as the measurement light. The light may be adjusted according to the amount of the measurement light.
According to a twenty-first aspect of the present invention, in the endoscope system according to the nineteenth aspect or the twentieth aspect, the three-dimensional measurement unit may use the synthetic image as the setting image.
According to a twenty-second aspect of the present invention, in the endoscope system according to the nineteenth aspect or the twentieth aspect, the three-dimensional measurement unit is configured to display an image obtained by superimposing the composite image on the three-dimensional measurement image. It may be an image for setting.
According to a twenty-third aspect of the present invention, in the endoscope system according to any one of the nineteenth aspect to the twenty-second aspect, the observation light is a wavelength band of visible light, and the three-dimensional measurement is performed. The section, in the image separation processing, the measurement image, the measurement image by reflection of light in the red wavelength band, the measurement image by reflection of light in the green wavelength band, the reflection of light in the blue wavelength band And the measurement image by reflection of light in the same wavelength band as the measurement light is used as the first wavelength band measurement image, and the measurement image by reflection of light in a wavelength band different from the measurement light May be used as the second wavelength band measurement image.
According to a twenty-fourth aspect of the present invention, in the endoscope system according to any one of the nineteenth aspect to the twenty-second aspect, in the structured pattern removing process, Values of respective pixels at the same positions included in the plurality of first wavelength band measurement images corresponding to the plurality of measurement images may be arithmetically averaged to generate one measurement light removal image. ..
According to a twenty-fifth aspect of the present invention, in the endoscope system according to the twenty-second aspect, the three-dimensional measurement unit is configured to perform the target operation based on the three-dimensional pixel information generated in the three-dimensional shape restoration process. A depth image representing the depth of the inspection object may be generated, and the generated depth image may be the three-dimensional measurement image.
本発明によれば、3次元の計測技術を搭載した内視鏡システムにおいて、正確な計測結果を得ることができるという効果が得られる。 According to the present invention, it is possible to obtain an effect that an accurate measurement result can be obtained in an endoscope system equipped with a three-dimensional measurement technique.
<第1の実施形態>
以下、本発明の実施形態について、図面を参照して説明する。なお、以下の説明においては、本発明の内視鏡システムが、工業用の内視鏡装置である場合について説明する。図1は、本発明の第1の実施形態による内視鏡システムである工業用の内視鏡装置(以下、単に「内視鏡装置」という)の概略構成の一例を示した図である。図1に示した内視鏡装置1は、被検物の内部の観察や、通常の観察装置がアクセス困難な位置にある被検物の観察などに使用される。
<First Embodiment>
Hereinafter, embodiments of the present invention will be described with reference to the drawings. In addition, in the following description, the case where the endoscope system of the present invention is an industrial endoscope apparatus will be described. FIG. 1 is a diagram showing an example of a schematic configuration of an industrial endoscope device (hereinafter, simply referred to as “endoscope device”) which is an endoscope system according to a first embodiment of the present invention. The endoscope apparatus 1 shown in FIG. 1 is used for observing the inside of an object to be inspected, observing an object to be inspected at a position where a normal observation apparatus is difficult to access, and the like.
内視鏡装置1は、長尺で軟性の挿入部3と、挿入部3の基端が接続された本体部2とを備えている。また、本体部2と接続された基端と反対側の挿入部3の先端に位置する先端部4には、被検物を撮影するための撮像部5と、撮像部が撮影する範囲に光を照射するための照明部6と、明暗に構造化したパターンの光を被検物に投影するためのパターン投影部7との一部の構成要素が配置されている。先端部4の端面40には、撮像部5に外部からの光を入射させるための開口部45と、照明部6からの光を前面に照射するための照明窓46と、パターン投影部7が構造化したパターンの光を前面に照射するための投影窓47とが設けられている。 The endoscope device 1 includes a long and flexible insertion portion 3 and a main body portion 2 to which a proximal end of the insertion portion 3 is connected. Further, the distal end portion 4 located at the distal end of the insertion portion 3 on the side opposite to the base end connected to the main body portion 2 has an image capturing unit 5 for capturing an image of an object to be inspected, and an image capturing unit 5 for capturing light within a range captured by the image capturing unit. Illumination unit 6 for irradiating light and a pattern projection unit 7 for projecting light of a light and dark structured pattern onto a test object are partially arranged. On the end surface 40 of the tip portion 4, an opening 45 for allowing light from the outside to enter the imaging unit 5, an illumination window 46 for irradiating the front surface with light from the illumination unit 6, and a pattern projection unit 7 are provided. A projection window 47 for irradiating the front surface with a structured pattern of light is provided.
挿入部3は、図1に示したように、管状に形成されており、被検物の内部または被検物までのアクセス経路に挿入されて、先端部4を撮影する被検物の近傍に導く。なお、以下の説明においては、パターン投影部7が被検物に投影する光を構造化するパターンが、光の明暗、つまり、光の強度が水平方向の正弦波状に変化する縞状のパターン(縦縞のパターン)であるものとして説明する。 As shown in FIG. 1, the insertion portion 3 is formed in a tubular shape, and is inserted into the inside of the test object or in the access path to the test object, and the tip part 4 is near the test object. Lead. In the following description, the pattern for structuring the light projected by the pattern projection unit 7 onto the test object is a striped pattern in which the intensity of the light changes, that is, the intensity of the light changes in a horizontal sinusoidal shape ( The vertical stripe pattern will be described below.
撮像部5は、本体部2内に配置された撮像制御部51と、先端部4内に配置された撮像素子52および対物光学系53とを含んで構成される。対物光学系53は、先端部4の端面40に設けられた開口部45に正対する所定の画角をもった光学レンズ群である。なお、図1に示した内視鏡装置1の構成では、対物光学系53が1つの光学レンズで構成されている場合を示しているが、対物光学系53は、複数の光学レンズで構成されてもよい。対物光学系53は、開口部45から入射された所定の画角によって規定される観察範囲内の被検物からの反射光を撮像素子52に入射させ、被検物の像を撮像素子52の撮像面に結像させる。なお、図1に示した内視鏡装置1の構成では、対物光学系53に、開口部45の開口を塞ぐための光の透過性を有するカバー部材54を備えている場合を示している。 The image pickup section 5 is configured to include an image pickup control section 51 arranged in the main body section 2, and an image pickup element 52 and an objective optical system 53 arranged in the tip section 4. The objective optical system 53 is an optical lens group having a predetermined angle of view that directly faces the opening 45 provided in the end surface 40 of the tip portion 4. Note that the configuration of the endoscope apparatus 1 shown in FIG. 1 shows a case where the objective optical system 53 is configured by one optical lens, but the objective optical system 53 is configured by a plurality of optical lenses. May be. The objective optical system 53 causes the reflected light from the test object within the observation range defined by the predetermined angle of view, which is incident from the opening 45, to be incident on the image sensor 52, and the image of the test object is captured by the image sensor 52. An image is formed on the imaging surface. Note that the configuration of the endoscope apparatus 1 shown in FIG. 1 shows a case where the objective optical system 53 is provided with a cover member 54 having a light transmitting property for closing the opening of the opening 45.
撮像素子52は、2次元の行列状に画素が複数配置され、対物光学系53によって結像された被検物の映像を撮影し、撮影した映像に応じた画素信号を出力する、例えば、CCD(Charge Coupled Device:電荷結合素子)イメージセンサや、CMOS(Complementary Metal−Oxide Semiconductor:相補型金属酸化膜半導体)イメージセンサに代表されるイメージセンサである。撮像素子52は、挿入部3内に備えた信号線55を介して伝送された、本体部2内の撮像制御部51から出力された駆動信号によって駆動される。また、撮像素子52は、撮影した映像に応じたそれぞれの画素信号を映像信号として、信号線55を介して撮像制御部51に出力する。なお、撮像素子52は、イメージセンサを含む公知の技術を適宜選択して構成することができる。 The image sensor 52 has a plurality of pixels arranged in a two-dimensional matrix, captures an image of a subject formed by the objective optical system 53, and outputs a pixel signal corresponding to the captured image, for example, a CCD. An image sensor represented by a (Charge Coupled Device) image sensor or a CMOS (Complementary Metal-Oxide Semiconductor) image sensor. The image pickup element 52 is driven by a drive signal output from the image pickup control section 51 in the main body section 2, which is transmitted via a signal line 55 provided in the insertion section 3. Further, the image sensor 52 outputs each pixel signal corresponding to the captured video as a video signal to the imaging control unit 51 via the signal line 55. The image sensor 52 can be configured by appropriately selecting a known technique including an image sensor.
撮像制御部51は、メイン制御部81からの制御に応じて、撮像素子52の駆動および映像信号を取得する際の設定など、種々の制御を行う。より具体的には、撮像制御部51は、挿入部3内の信号線55を介して先端部4内に配置された撮像素子52を駆動する。また、撮像制御部51は、撮像素子52が撮影した映像に応じた映像信号の信号線55への出力、つまり、映像信号の信号線55を介した伝送を制御する。また、撮像制御部51は、信号線55を介して撮像素子52から取得した映像信号を、本体部2内に配置された映像処理部86に出力する。 The imaging control unit 51 performs various controls such as driving of the imaging element 52 and settings when acquiring a video signal according to the control from the main control unit 81. More specifically, the imaging control unit 51 drives the imaging element 52 arranged in the distal end portion 4 via the signal line 55 in the insertion unit 3. Further, the imaging control unit 51 controls the output of a video signal corresponding to the video imaged by the imaging device 52 to the signal line 55, that is, the transmission of the video signal via the signal line 55. Further, the imaging control unit 51 outputs the video signal acquired from the imaging device 52 via the signal line 55 to the video processing unit 86 arranged in the main body unit 2.
照明部6は、本体部2内に配置された照明光源61およびカップリングレンズ62と、挿入部3内を通るファイババンドル63と、先端部4内に配置された照明光学系64とを含んで構成される。照明光源61は、一般的な白色の光源である。照明光源61は、光源として、白色LEDやレーザーなどの発光素子、ハロゲンランプなどの電灯を用いることができる。 The illumination section 6 includes an illumination light source 61 and a coupling lens 62 arranged in the main body section 2, a fiber bundle 63 passing through the insertion section 3, and an illumination optical system 64 arranged in the tip section 4. Composed. The illumination light source 61 is a general white light source. As the light source of the illumination light source 61, a light emitting element such as a white LED or a laser, or an electric lamp such as a halogen lamp can be used.
カップリングレンズ62は、照明光源61から発せられた光を、ファイババンドル63の径と同程度まで収束させる光学レンズである。カップリングレンズ62は、収束させた光をファイババンドル63に導入する。ファイババンドル63は、カップリングレンズ62から導入された光を、挿入部3を通して照明光学系64まで導く光ファイバである。なお、本発明においては、ファイババンドル63の構成や種類には、特に制限はなく、例えば、一般的なライトガイドなどをファイババンドル63として用いることもできる。 The coupling lens 62 is an optical lens that converges the light emitted from the illumination light source 61 to the same extent as the diameter of the fiber bundle 63. The coupling lens 62 introduces the converged light into the fiber bundle 63. The fiber bundle 63 is an optical fiber that guides the light introduced from the coupling lens 62 to the illumination optical system 64 through the insertion section 3. In the present invention, the structure and type of the fiber bundle 63 are not particularly limited, and for example, a general light guide or the like can be used as the fiber bundle 63.
照明光学系64は、先端部4の端面40に設けられた照明窓46に正対する光学レンズ群である。なお、図1に示した内視鏡装置1の構成では、照明光学系64が1つの光学レンズで構成されている場合を示しているが、照明光学系64は、複数の光学レンズで構成されてもよい。照明光学系64は、照明光源61から発せられてファイババンドル63によって導かれた光を、対物光学系53における所定の画角によって規定される観察範囲にまで広げて照明窓46から出射させる。これにより、照明光源61から発せられた光が、先端部4の前面、つまり、内視鏡装置1における被検物の観察範囲にまんべんなく照射される。なお、照明光学系64には、照明窓46の開口を塞ぐため、光の透過性を有するカバー部材(不図示)を有していてもよい。 The illumination optical system 64 is an optical lens group that faces the illumination window 46 provided on the end surface 40 of the tip portion 4. Note that the configuration of the endoscope apparatus 1 shown in FIG. 1 shows the case where the illumination optical system 64 is configured by one optical lens, but the illumination optical system 64 is configured by a plurality of optical lenses. May be. The illumination optical system 64 spreads the light emitted from the illumination light source 61 and guided by the fiber bundle 63 to an observation range defined by a predetermined angle of view in the objective optical system 53 and emits the light from the illumination window 46. As a result, the light emitted from the illumination light source 61 is evenly applied to the front surface of the distal end portion 4, that is, the observation range of the test object in the endoscope apparatus 1. The illumination optical system 64 may include a cover member (not shown) having a light transmitting property so as to close the opening of the illumination window 46.
パターン投影部7は、本体部2内に配置されたパターン投影光源71、カップリングレンズ72、およびパターン制御部76と、挿入部3内を通る光ファイバ73と、先端部4内に配置された縞生成部74および投影光学系75とを含んで構成される。パターン投影光源71は、予め定めた特定の波長帯域の光源である。パターン投影光源71は、光源として、レーザーや予め定めた色のLEDなどの発光素子を用いることができる。なお、パターン投影光源71が発光する光の波長帯域は、可視光の波長帯域であっても赤外光の波長帯域であってもよい。 The pattern projection unit 7 is arranged in the pattern projection light source 71, the coupling lens 72, and the pattern control unit 76 arranged in the main body unit 2, the optical fiber 73 passing through the insertion unit 3, and the distal end unit 4. It is configured to include a fringe generation unit 74 and a projection optical system 75. The pattern projection light source 71 is a light source in a predetermined specific wavelength band. The pattern projection light source 71 can use a light emitting element such as a laser or an LED of a predetermined color as a light source. The wavelength band of the light emitted by the pattern projection light source 71 may be the wavelength band of visible light or the wavelength band of infrared light.
カップリングレンズ72は、パターン投影光源71から発せられた特定の波長帯域のレーザー光を、光ファイバ73の径と同程度まで収束させる光学レンズである。カップリングレンズ72は、収束させたレーザー光を光ファイバ73に導入する。光ファイバ73は、カップリングレンズ72から導入されたレーザー光を、挿入部3を通して縞生成部74まで導く光ファイバである。なお、本発明においては、光ファイバ73の構成や種類も、ファイババンドル63と同様に、特に制限はない。 The coupling lens 72 is an optical lens that converges the laser light of the specific wavelength band emitted from the pattern projection light source 71 to the same extent as the diameter of the optical fiber 73. The coupling lens 72 introduces the converged laser light into the optical fiber 73. The optical fiber 73 is an optical fiber that guides the laser light introduced from the coupling lens 72 to the stripe generation unit 74 through the insertion unit 3. In addition, in the present invention, the configuration and type of the optical fiber 73 are not particularly limited as in the fiber bundle 63.
縞生成部74は、挿入部3内に備えた信号線77を介して伝送された、本体部2内のパターン制御部76から出力された制御信号に応じて、パターン投影部7から発せられて光ファイバ73によって導かれたレーザー光から、被検物に投影するために構造化したパターンに変換した光(以下、「パターン光」という)を生成する。また、縞生成部74は、パターン制御部76から出力された制御信号に応じて、生成したパターン光に予め定めた位相差をもたせる。そして、縞生成部74は、位相差をもたせた、つまり、位相シフトを行ったパターン光を投影光学系75に出射する。なお、内視鏡装置1では、パターン投影部7が被検物に投影するために変換する構造化のパターンが、縦縞のパターンである。従って、縞生成部74は、レーザー光を縦縞のパターン光に変換し、さらに予め定めた位相シフトを行ったパターン光を投影光学系75に出射する。 The stripe generation unit 74 is emitted from the pattern projection unit 7 in response to the control signal output from the pattern control unit 76 in the main body 2 transmitted via the signal line 77 provided in the insertion unit 3. From the laser light guided by the optical fiber 73, light (hereinafter, referred to as “pattern light”) that is converted into a structured pattern for projecting on a test object is generated. Further, the stripe generation unit 74 causes the generated pattern light to have a predetermined phase difference according to the control signal output from the pattern control unit 76. Then, the fringe generation unit 74 emits the pattern light having a phase difference, that is, the phase shift, to the projection optical system 75. In the endoscope apparatus 1, the structured pattern converted by the pattern projection unit 7 for projecting on the test object is a vertical stripe pattern. Therefore, the stripe generation unit 74 converts the laser light into vertical stripe pattern light, and further emits pattern light having a predetermined phase shift to the projection optical system 75.
パターン制御部76は、メイン制御部81からの制御に応じて、縞生成部74が投影光学系75に出射するパターン光の構造化パターンと位相差とを制御する。より具体的には、パターン制御部76は、信号線77を介して縞生成部74に出力する制御信号によって、縞生成部74が生成する縦縞のパターンにおける縞の強度、つまり、レーザー光の強度を水平方向の正弦波状に変化させる際の位相を制御する。また、パターン制御部76は、信号線77を介して縞生成部74に出力する制御信号によって、縞生成部74が生成したパターン光にもたせる位相差、つまり、被検物に投影するパターン光の位相シフト量を制御する。 The pattern control unit 76 controls the structured pattern and the phase difference of the pattern light emitted by the fringe generation unit 74 to the projection optical system 75 under the control of the main control unit 81. More specifically, the pattern control unit 76 uses the control signal output to the stripe generation unit 74 via the signal line 77 to determine the intensity of the stripes in the vertical stripe pattern generated by the stripe generation unit 74, that is, the intensity of the laser light. Controls the phase when changing to a sine wave in the horizontal direction. In addition, the pattern control unit 76 uses the control signal output to the fringe generation unit 74 via the signal line 77 to provide a phase difference to the pattern light generated by the fringe generation unit 74, that is, the pattern light projected onto the test object. Controls the amount of phase shift.
投影光学系75は、先端部4の端面40に設けられた投影窓47に正対する光学レンズ群である。なお、図1に示した内視鏡装置1の構成では、投影光学系75が1つの光学レンズで構成されている場合を示しているが、投影光学系75は、複数の光学レンズで構成されてもよい。投影光学系75は、縞生成部74がレーザー光を変換して位相シフトした後に出射したパターン光を、対物光学系53における所定の画角によって規定される観察範囲にまで広げて投影窓47から出射させる。これにより、位相シフトしたパターン光が、先端部4の前面の内視鏡装置1における被検物の観察範囲にまんべんなく照射される。なお、投影光学系75にも、照明光学系64と同様に、投影窓47の開口を塞ぐために、光の透過性を有するカバー部材(不図示)を有していてもよい。 The projection optical system 75 is an optical lens group that directly faces the projection window 47 provided on the end surface 40 of the tip portion 4. In the configuration of the endoscope apparatus 1 shown in FIG. 1, the case where the projection optical system 75 is composed of one optical lens is shown, but the projection optical system 75 is composed of a plurality of optical lenses. May be. The projection optical system 75 spreads the pattern light emitted after the fringe generation unit 74 has converted the laser light and phase-shifted it to the observation range defined by the predetermined angle of view in the objective optical system 53, and then from the projection window 47. Let out. As a result, the phase-shifted pattern light is evenly applied to the observation area of the subject on the front surface of the distal end portion 4 of the endoscope apparatus 1. Note that the projection optical system 75 may also have a cover member (not shown) having a light transmitting property in order to close the opening of the projection window 47, as in the illumination optical system 64.
その他、内視鏡装置1では、本体部2内に、光源制御部80と、映像処理部86と、操作部82と、モニタ87と、メイン制御部81と、主記憶装置(RAM)83と、補助記憶部84と、ROM85と、を備えている。 In addition, in the endoscope device 1, the light source control unit 80, the image processing unit 86, the operation unit 82, the monitor 87, the main control unit 81, and the main storage device (RAM) 83 are provided in the main body unit 2. , An auxiliary storage unit 84 and a ROM 85.
光源制御部80は、メイン制御部81からの制御に応じて、照明光源61およびパターン投影光源71のオン、オフを制御することによって光の発光、つまり、被検物への光の照射を制御する。なお、光源制御部80における照明光源61およびパターン投影光源71の発光制御の方法に関する詳細な説明は、後述する。 The light source control unit 80 controls light emission, that is, irradiation of light to a test object by controlling on/off of the illumination light source 61 and the pattern projection light source 71 according to the control from the main control unit 81. To do. A detailed description of a method of controlling the light emission of the illumination light source 61 and the pattern projection light source 71 in the light source controller 80 will be described later.
映像処理部86は、メイン制御部81からの制御に応じて、撮像制御部51から出力された映像信号に対して種々の処理を行い、映像信号に基づいた映像(画像)、すなわち、撮像部5に備えた撮像素子52が撮影した被検物の画像を生成する。そして、映像処理部86は、生成した被検物の画像をメイン制御部81に出力する。 The video processing unit 86 performs various processes on the video signal output from the imaging control unit 51 under the control of the main control unit 81, and a video (image) based on the video signal, that is, the imaging unit. An image of the object taken by the image pickup device 52 provided in No. 5 is generated. Then, the video processing unit 86 outputs the generated image of the test object to the main control unit 81.
操作部82は、内視鏡装置1の動作を制御するために使用者(ユーザ)によって操作されるユーザーインターフェースやコントローラである。ユーザは、操作部82を操作することによって、内視鏡装置1に所望の動作や処理を実行させる。例えば、操作部82の操作によって、ユーザは、挿入部3を被検物内に挿入する際に先端部4が向かう方向の変更や、被検物の撮影を指示する。また、操作部82の操作によって、ユーザは、3次元の計測を行う際の測定点の位置を、所望の位置に設定する。操作部82は、ユーザによって操作された内容を表す情報を、メイン制御部81に出力する。 The operation unit 82 is a user interface or a controller operated by a user (user) to control the operation of the endoscope apparatus 1. The user operates the operation unit 82 to cause the endoscope apparatus 1 to execute a desired operation or process. For example, by operating the operation unit 82, the user gives an instruction to change the direction in which the distal end portion 4 faces when inserting the insertion unit 3 into the test object, and to image the test object. Further, by operating the operation unit 82, the user sets the position of the measurement point when performing three-dimensional measurement to a desired position. The operation unit 82 outputs information indicating the content operated by the user to the main control unit 81.
モニタ87は、内視鏡装置1の動作や操作内容、撮影した被検物の画像を表示する表示部である。モニタ87は、メイン制御部81から入力された画像を表示する。ユーザは、モニタ87に表示された画像を確認しながら、操作部82を操作することによって、内視鏡装置1を使用した被検物の観察を行う。 The monitor 87 is a display unit that displays the operation and operation content of the endoscope apparatus 1 and the image of the photographed subject. The monitor 87 displays the image input from the main control unit 81. The user observes the image displayed on the monitor 87 and operates the operation unit 82 to observe the test object using the endoscope apparatus 1.
メイン制御部81は、内視鏡装置1の構成要素、すなわち、内視鏡装置1全体を制御する。例えば、内視鏡装置1が被検物を観察する際の撮像部5による撮影動作や、被検物の画像のモニタ87への表示動作などに応じて、内視鏡装置1内の各構成要素の動作を制御する。メイン制御部81には、RAM83、補助記憶部84、およびROM85などの外部記憶部が接続されている。メイン制御部81は、接続されたRAM83、補助記憶部84、またはROM85に記憶されたデータに基づいて、種々の処理を行う。 The main controller 81 controls the components of the endoscope device 1, that is, the entire endoscope device 1. For example, each component in the endoscope apparatus 1 is selected according to a photographing operation by the image pickup unit 5 when the endoscope apparatus 1 observes a subject, a display operation of an image of the subject on the monitor 87, and the like. Control the behavior of the element. The main control unit 81 is connected to an external storage unit such as a RAM 83, an auxiliary storage unit 84, and a ROM 85. The main control unit 81 performs various processes based on the data stored in the connected RAM 83, auxiliary storage unit 84, or ROM 85.
RAM83は、例えば、DRAMなどの書き換え可能な揮発性メモリであり、メイン制御部81が処理を実行するために用いるデータや、処理の途中で生成したデータなどが、一時的に格納される。RAM83には、映像処理部86が生成してメイン制御部81に出力した被検物の画像が一時的に格納される。また、RAM83に格納された被検物の画像は、メイン制御部81によって読み出されて、モニタ87に出力される。 The RAM 83 is, for example, a rewritable volatile memory such as a DRAM, and temporarily stores data used by the main control unit 81 to execute a process, data generated during the process, and the like. The RAM 83 temporarily stores the image of the test object generated by the video processing unit 86 and output to the main control unit 81. Further, the image of the inspection object stored in the RAM 83 is read by the main control unit 81 and output to the monitor 87.
補助記憶部84は、例えば、書き換え可能な不揮発メモリを有する記憶装置や磁気記憶装置などの記憶装置であり、メイン制御部81が処理を実行した最終的な結果のデータなどを格納する。ROM85は、例えば、EPROMやEEPROMなどの書き換え可能な不揮発性メモリであり、内視鏡装置1(メイン制御部81)を起動するためのファームウェアなどのプログラムや、メイン制御部81が実行する処理のプログラムなどが格納されている。 The auxiliary storage unit 84 is a storage device such as a storage device or a magnetic storage device having a rewritable non-volatile memory, and stores data of a final result of the processing executed by the main control unit 81 and the like. The ROM 85 is, for example, a rewritable non-volatile memory such as an EPROM or an EEPROM, and stores programs such as firmware for starting the endoscope apparatus 1 (main control unit 81) and processing executed by the main control unit 81. Stores programs, etc.
また、メイン制御部81は、映像処理部86が生成した被検物の画像に基づいて、内視鏡装置1における3次元の計測の処理を行う。このとき、メイン制御部81は、3次元の計測を行う際の測定点を設定するための被検物の画像をモニタ87に表示させる。そして、メイン制御部81は、操作部82から入力された操作の内容を表す情報に含まれる、ユーザによって指定された測定点の位置の情報に基づいて、ユーザが所望する3次元の計測を行い、計測結果をモニタ87に表示させる。なお、メイン制御部81における3次元の計測の処理手順に関する詳細な説明は、後述する。 In addition, the main control unit 81 performs a three-dimensional measurement process in the endoscope device 1 based on the image of the test object generated by the video processing unit 86. At this time, the main control unit 81 causes the monitor 87 to display an image of the test object for setting the measurement points when performing three-dimensional measurement. Then, the main control unit 81 performs three-dimensional measurement desired by the user, based on the information on the position of the measurement point designated by the user, which is included in the information indicating the content of the operation input from the operation unit 82. , The measurement result is displayed on the monitor 87. The detailed description of the processing procedure of the three-dimensional measurement in the main controller 81 will be described later.
このような構成によって、内視鏡装置1では、パターン光を位相シフトして被検物に複数回照射し、それぞれの位相で撮影した複数の画像から3次元画像を生成して3次元の計測を行う。なお、内視鏡装置1には、内視鏡装置1のユーザがモニタ87に表示された画像を確認しながら操作部82を操作することによって先端部4を観察する被検物の近傍に導く観察モードと、モニタ87に表示された画像を確認しながら操作部82を操作して所望の測定点を設定して3次元の計測を行う計測モードとの2つの動作モードがある。この動作モードの切り替えは、例えば、ユーザが操作部82を操作することによって行う。 With such a configuration, in the endoscopic device 1, the pattern light is phase-shifted and radiated to the test object a plurality of times, and a three-dimensional image is generated from a plurality of images captured in each phase to perform a three-dimensional measurement. I do. In the endoscope device 1, the user of the endoscope device 1 operates the operation unit 82 while checking the image displayed on the monitor 87 to guide the distal end portion 4 to the vicinity of the object to be observed. There are two operation modes: an observation mode and a measurement mode in which the operation section 82 is operated while checking the image displayed on the monitor 87 to set a desired measurement point and three-dimensional measurement is performed. The switching of the operation mode is performed, for example, by the user operating the operation unit 82.
内視鏡装置1の動作モードが観察モードのとき、照明部6は、白色の照明光(以下、「観察光」という)を照射し、撮像部5が予め定めた周期で被検物を順次撮影する。そして、映像処理部86が、撮像部5から順次出力された映像信号に基づいた被検物の映像(画像)(以下、「観察モード画像」という)を順次生成する。そして、メイン制御部81が、映像処理部86から出力された観察モード画像を一旦RAM83に格納した後、再度読み出してモニタ87に表示させる。これにより、内視鏡装置1のユーザは、観察モードにおいてモニタ87に表示された観察モード画像を確認しながら操作部82を操作して、先端部4を観察する被検物の近傍に導くことができる。 When the operation mode of the endoscope apparatus 1 is the observation mode, the illumination unit 6 emits white illumination light (hereinafter, referred to as “observation light”), and the imaging unit 5 sequentially inspects the object at a predetermined cycle. Take a picture. Then, the video processing unit 86 sequentially generates a video image (image) of the test object (hereinafter, referred to as “observation mode image”) based on the video signals sequentially output from the imaging unit 5. Then, the main control unit 81 temporarily stores the observation mode image output from the video processing unit 86 in the RAM 83, then reads it again and displays it on the monitor 87. Thereby, the user of the endoscope apparatus 1 operates the operation unit 82 while confirming the observation mode image displayed on the monitor 87 in the observation mode to guide the distal end portion 4 to the vicinity of the object to be observed. You can
一方、内視鏡装置1の動作モードが計測モードのとき、パターン投影部7は、パターン光(以下、「計測光」という)を照射し、撮像部5が予め定めた数の被検物の映像を撮影する。そして、映像処理部86が、撮像部5から出力された予め定めた数の映像信号に基づいた被検物の映像(画像)(以下、「計測モード画像」という)を生成する。そして、メイン制御部81が、映像処理部86から出力された計測モード画像を一旦RAM83に格納した後、再度読み出して3次元の計測の処理を行う。この3次元の計測の処理では、上述したように、計測モード画像に基づいて生成した、測定点を設定するための被検物の画像をモニタ87に表示される。これにより、内視鏡装置1のユーザは、計測モードにおいてモニタ87に表示された画像を確認しながら操作部82を操作して所望の測定点を設定することができる。つまり、内視鏡装置1では、計測モード画像に設定された測定点の位置での3次元の計測を行うことができる。 On the other hand, when the operation mode of the endoscope apparatus 1 is the measurement mode, the pattern projection unit 7 irradiates the pattern light (hereinafter, referred to as “measurement light”), and the imaging unit 5 causes a predetermined number of the test objects. Take a video. Then, the video processing unit 86 generates a video image (image) of the test object (hereinafter, referred to as “measurement mode image”) based on a predetermined number of video signals output from the imaging unit 5. Then, the main control unit 81 temporarily stores the measurement mode image output from the video processing unit 86 in the RAM 83 and then reads it again to perform a three-dimensional measurement process. In this three-dimensional measurement process, as described above, the image of the test object for setting the measurement point, which is generated based on the measurement mode image, is displayed on the monitor 87. Thereby, the user of the endoscope apparatus 1 can operate the operation unit 82 and set a desired measurement point while checking the image displayed on the monitor 87 in the measurement mode. That is, the endoscope apparatus 1 can perform three-dimensional measurement at the position of the measurement point set in the measurement mode image.
なお、図1に示した内視鏡装置1の構成では、挿入部3の先端に位置する先端部4内に撮像部5と、照明部6と、パターン投影部7との一部の構成要素が配置されている構成を示した。しかし、内視鏡装置1は、先端部4内に備えた構成要素を交換可能な構成にすることもできる。例えば、撮像部5を構成する対物光学系53の一部と、照明部6を構成する照明光学系64の一部と、パターン投影部7を構成する縞生成部74および投影光学系75の一部とを、光学アダプタとして形成する。このとき、先端部4には、撮像部5を構成する撮像素子52および対物光学系53の他の一部と、照明部6を構成する照明光学系64の他の一部と、パターン投影部7を構成する投影光学系75の他の一部とを配置した構成にする。そして、先端部4と光学アダプタとを着脱可能な構成にする。このような構成にすることによって、観測する被検物に応じた適切な光学アダプタに交換することができる。 In the configuration of the endoscope apparatus 1 shown in FIG. 1, some components of the imaging unit 5, the illumination unit 6, and the pattern projection unit 7 in the distal end portion 4 located at the distal end of the insertion unit 3. Shows the configuration in which is arranged. However, the endoscope device 1 may have a configuration in which the constituent elements provided in the distal end portion 4 are replaceable. For example, a part of the objective optical system 53 that forms the image pickup unit 5, a part of the illumination optical system 64 that forms the illumination unit 6, and one of the stripe generation unit 74 and the projection optical system 75 that form the pattern projection unit 7. And the part are formed as an optical adapter. At this time, at the tip portion 4, another part of the image pickup device 52 and the objective optical system 53 that form the image pickup part 5, another part of the illumination optical system 64 that forms the illumination part 6, and the pattern projection part. 7 and the other part of the projection optical system 75 that constitutes the optical system 7. Then, the distal end portion 4 and the optical adapter are made detachable. With such a configuration, the optical adapter can be replaced with an appropriate one according to the object to be observed.
次に、内視鏡装置1の動作について説明する。まず、照明光源61およびパターン投影光源71が発光する光の制御について説明する。図2は、第1の実施形態の内視鏡システム(内視鏡装置1)における光の照射タイミングの一例を示したタイミングチャートである。なお、図2に示したタイミングチャートは、計測モードにおいて、90°(π/2)ずつ位相シフトしたパターン光(計測光)を被検物に4回照射して4つの計測モード画像を撮影する場合、つまり、内視鏡装置1が4つの計測モード画像から3次元画像を生成する動作を行う場合の一例を示している。 Next, the operation of the endoscope device 1 will be described. First, control of light emitted by the illumination light source 61 and the pattern projection light source 71 will be described. FIG. 2 is a timing chart showing an example of the irradiation timing of light in the endoscope system (endoscope device 1) of the first embodiment. In the timing chart shown in FIG. 2, in the measurement mode, the pattern light (measurement light) phase-shifted by 90° (π/2) is applied to the test object four times to capture four measurement mode images. In this case, that is, an example in which the endoscope apparatus 1 performs an operation of generating a three-dimensional image from four measurement mode images.
内視鏡装置1が観察モードの動作をしているとき、光源制御部80は、照明光源61のみオン状態に制御することによって、観察光のみを被検物に照射するように制御する。このとき、光源制御部80は、撮像部5が被検物を撮影するのに適した光量に、観察光の光量を調光する。例えば、被検物の像が暗い場合や被検物が遠くにある場合には観察光の光量を多くし、被検物の像が明るい場合や被検物が近くにある場合には観察光の光量を少なくするように調光する。なお、光源制御部80における観察光の調光方法は、光量と露光時間とに基づいた既存の方法を用いることができるため、詳細な説明は省略する。これにより、撮像部5は、観察光が被検物に照射されたそれぞれのタイミングで撮影を行った映像信号を映像処理部86に出力し、映像処理部86が生成した観察モード画像をモニタ87に表示させる。 When the endoscope apparatus 1 is operating in the observation mode, the light source control unit 80 controls only the illumination light source 61 to be in the ON state, and controls so that only the observation light is emitted to the test object. At this time, the light source control unit 80 adjusts the light amount of the observation light to a light amount suitable for the imaging unit 5 to photograph the test object. For example, when the image of the test object is dark or the test object is distant, the amount of observation light is increased, and when the image of the test object is bright or when the test object is near, the observation light is increased. Dimming to reduce the amount of light. Since the existing method based on the amount of light and the exposure time can be used as the method of adjusting the observation light in the light source control unit 80, detailed description thereof will be omitted. As a result, the imaging unit 5 outputs to the video processing unit 86 a video signal obtained by shooting at each timing when the observation light is irradiated to the test object, and the monitor 87 displays the observation mode image generated by the video processing unit 86. To display.
また、内視鏡装置1が計測モードの動作をしているとき、光源制御部80は、照明光源61およびパターン投影光源71をオン状態に制御することによって、観察光と計測光との両方を被検物に照射するように制御する。このとき、光源制御部80は、観察光の光量を、計測光の光量に応じた光量に調光する。ただし、内視鏡装置1では、計測モードのときであっても、観測光の照射を行う。つまり、内視鏡装置1では、計測モードのときであっても、照明光源61を消灯しない。より具体的には、光源制御部80は、パターン投影部7が照射する計測光の構造化パターン(縦縞のパターン)を判別することができるように、観察光の光量を観察モードのときの光量よりも少なくし、観察光と計測光とを合わせた光量が、撮像部5が被検物を撮影するのに適した光量になるように調光する。図2に示したタイミングチャートでは、例えば、PWM(Pulse Width Modulation)制御によって、パターン投影光源71が発光する時間、すなわち、計測光の照射時間を長くし、例えば、電圧制御によって、照明光源61が発光する光の強度を低く、すなわち、観測光の明るさを暗くして、計測光と観測光とを調光している場合を示している。これにより、撮像部5は、観察光と計測光とを合わせた光が被検物に照射されたそれぞれのタイミングで撮影を行ったそれぞれの映像信号を映像処理部86に出力し、映像処理部86が生成した計測モード画像に基づいて、測定点の設定や3次元の計測を行う。 Further, when the endoscope apparatus 1 is operating in the measurement mode, the light source control unit 80 controls both the illumination light source 61 and the pattern projection light source 71 to be in the ON state, so that both the observation light and the measurement light are emitted. It is controlled to irradiate the test object. At this time, the light source control unit 80 adjusts the light amount of the observation light to a light amount according to the light amount of the measurement light. However, the endoscope apparatus 1 irradiates the observation light even in the measurement mode. That is, in the endoscope device 1, the illumination light source 61 is not turned off even in the measurement mode. More specifically, the light source control unit 80 sets the light amount of the observation light in the observation mode so that the structured pattern (vertical stripe pattern) of the measurement light emitted by the pattern projection unit 7 can be determined. The light amount is adjusted so that the combined light amount of the observation light and the measurement light becomes a light amount suitable for the imaging unit 5 to photograph the object. In the timing chart shown in FIG. 2, for example, the time during which the pattern projection light source 71 emits light, that is, the irradiation time of the measurement light is lengthened by PWM (Pulse Width Modulation) control, and the illumination light source 61 is controlled by voltage control, for example. This shows a case where the intensity of the emitted light is low, that is, the brightness of the observation light is darkened, and the measurement light and the observation light are dimmed. As a result, the image pickup unit 5 outputs to the image processing unit 86 the respective image signals obtained by taking images at the respective timings when the combined light of the observation light and the measurement light is applied to the test object, and the image processing unit 86. Based on the measurement mode image generated by 86, measurement points are set and three-dimensional measurement is performed.
なお、計測モードにおいてパターン投影部7が照射する計測光の構造化パターンを判別することができるようにする方法として、計測光の波長帯域の光と同じ波長帯域の光のみを調光する方法であってもよい。例えば、パターン投影光源71が赤色の波長帯域の光源である場合、計測モードのときに、赤色の波長帯域の光を減衰させ、赤色以外の波長帯域の光を透過する光学フィルタを観察光の光路に挿入する構成にすることによって、赤色の計測光の構造化パターンを判別することができるように調光してもよい。また、例えば、照明光源61が赤色と緑色と青色とのそれぞれのLEDによって構成されている白色の光源であり、パターン投影光源71が赤色の波長帯域の光源である場合、赤色のLEDの光量のみを観察モードのときよりも少なくし、緑色のLEDと青色のLEDとの光量は観察モードのときと同じにすることによって、赤色の計測光の構造化パターンを判別することができるように調光してもよい。 It should be noted that, as a method for making it possible to determine the structured pattern of the measurement light emitted by the pattern projection unit 7 in the measurement mode, a method of dimming only the light in the same wavelength band as the wavelength band of the measurement light is used. It may be. For example, when the pattern projection light source 71 is a light source in the red wavelength band, an optical filter for attenuating light in the red wavelength band and transmitting light in the wavelength band other than red is used as an optical path of the observation light in the measurement mode. The light adjustment may be performed so that the structured pattern of the red measuring light can be discriminated by adopting the configuration of being inserted into. Further, for example, when the illumination light source 61 is a white light source configured by red, green and blue LEDs and the pattern projection light source 71 is a light source in the red wavelength band, only the light amount of the red LED is emitted. Is less than in the observation mode, and the light amounts of the green LED and the blue LED are the same as in the observation mode, so that the structured pattern of the red measuring light can be discriminated. You may.
このように、内視鏡装置1では、計測モードにおいても、観察光を消灯することなく、被検物に照射する。これにより、内視鏡装置1では、観察光と計測光とを合わせた光で撮影した複数の計測モード画像を得ることができる。そして、内視鏡装置1では、複数の計測モード画像に対して種々の処理を行い、被検物の3次元形状の復元と、被検物の色再現とを行う。 As described above, in the endoscope device 1, the observation light is irradiated to the test object without being turned off even in the measurement mode. As a result, in the endoscope device 1, it is possible to obtain a plurality of measurement mode images photographed with the combined light of the observation light and the measurement light. Then, the endoscope apparatus 1 performs various processes on the plurality of measurement mode images to restore the three-dimensional shape of the test object and reproduce the color of the test object.
次に、内視鏡装置1において計測モード画像に対して行う処理について説明する。図3は、第1の実施形態の内視鏡システム(内視鏡装置1)における処理の概略を示した図である。内視鏡装置1において計測モード画像に対して行う処理は、被検物の3次元形状を復元する処理(以下、「3次元形状復元処理」という)と、被検物の色再現をする処理(以下、「色再現処理」という)とがある。図3に示した概略図は、4つの計測モード画像に基づいて行う、3次元形状復元処理と、色再現処理との概略を示している。なお、以下の説明においては、照明光源61が白色LED光源であり、パターン投影光源71が赤色の波長帯域のレーザー光源であるものとして説明する。 Next, processing performed on the measurement mode image in the endoscope apparatus 1 will be described. FIG. 3 is a diagram showing an outline of processing in the endoscope system (endoscope device 1) of the first embodiment. The process performed on the measurement mode image in the endoscope apparatus 1 is a process of restoring the three-dimensional shape of the test object (hereinafter referred to as “three-dimensional shape restoration process”) and a process of reproducing the color of the test object. (Hereinafter, referred to as “color reproduction processing”). The schematic diagram shown in FIG. 3 shows an outline of the three-dimensional shape restoration processing and the color reproduction processing performed based on the four measurement mode images. In the following description, it is assumed that the illumination light source 61 is a white LED light source and the pattern projection light source 71 is a laser light source in the red wavelength band.
内視鏡装置1は、計測モードにおいて、光量を少なくした観察光と位相を90°(π/2)ずつシフトした計測光とが混合された光を被検物に4回照射し、それぞれの光の照射において被検物を撮影することによって、図3に示したような4つの計測モード画像を取得する。メイン制御部81は、4つの計測モード画像を取得した後、まず、取得したそれぞれの計測モード画像に含まれるそれぞれの画素信号を色ごとに分離する。これにより、メイン制御部81は、赤色(R)の波長帯域に対応する画素信号のみが含まれる赤色計測モード画像と、緑色(G)の波長帯域に対応する画素信号のみが含まれる緑色計測モード画像と、青色(B)の波長帯域に対応する画素信号のみが含まれる青色計測モード画像とのそれぞれを生成する。そして、メイン制御部81は、赤色計測モード画像と、緑色計測モード画像と、青色計測モード画像とのそれぞれに基づいて、3次元形状復元処理と色再現処理とのそれぞれを並列に行う。 In the measurement mode, the endoscope apparatus 1 irradiates the test object four times with light in which the observation light with a reduced light amount and the measurement light with the phase shifted by 90° (π/2) are mixed, and the light is mixed four times. The four measurement mode images as shown in FIG. 3 are acquired by photographing the test object during light irradiation. After acquiring the four measurement mode images, the main control unit 81 first separates each pixel signal included in each acquired measurement mode image for each color. As a result, the main control unit 81 causes the red measurement mode image including only the pixel signals corresponding to the red (R) wavelength band and the green measurement mode including only the pixel signals corresponding to the green (G) wavelength band. An image and a blue measurement mode image including only pixel signals corresponding to the blue (B) wavelength band are generated. Then, the main control unit 81 performs the three-dimensional shape restoration process and the color reproduction process in parallel based on the red measurement mode image, the green measurement mode image, and the blue measurement mode image, respectively.
3次元形状復元処理は、赤色計測モード画像に基づいて行う。赤色計測モード画像は、赤色の波長帯域の光を反射した被検物の画像であり、図3に示したように、計測光として照射された構造化パターン(縦縞のパターン)が含まれている画像である。メイン制御部81は、4つの赤色計測モード画像に対して、例えば、下式(1)のような既存の3次元画像の演算を行って、赤色計測モード画像に含まれるそれぞれの画素の位相φを高速に算出する。 The three-dimensional shape restoration process is performed based on the red measurement mode image. The red measurement mode image is an image of a test object that reflects light in the red wavelength band, and includes a structured pattern (vertical stripe pattern) irradiated as measurement light, as shown in FIG. It is an image. The main control unit 81 performs an operation of an existing three-dimensional image, for example, as shown in the following formula (1) on the four red measurement mode images to obtain the phase φ of each pixel included in the red measurement mode image. Is calculated at high speed.
φ(x,y) = tan−1((I3−I1)/(I0−I2)) ・・・(1) φ(x,y)=tan −1 ((I 3 −I 1 )/(I 0 −I 2 )) (1)
上式(1)において、φ(x,y)は、撮像素子52に2次元の行列状に配置された画素の水平方向(列が並ぶ方向:列方向)x、垂直方向(行が並ぶ方向:行方向)yの座標位置に位置する画素(x,y)の位相を表す。また、上式(1)において、I0は1枚目の赤色計測モード画像に含まれる画素(x,y)の輝度を表し、I1は2枚目の赤色計測モード画像に含まれる画素(x,y)の輝度を表し、I2は3枚目の赤色計測モード画像に含まれる画素(x,y)の輝度を表し、I3は4枚目の赤色計測モード画像に含まれる画素(x,y)の輝度を表す。 In the above formula (1), φ(x, y) is a horizontal direction (direction in which columns are arranged: column direction) x of pixels arranged in a two-dimensional matrix in the image sensor 52, and a vertical direction (direction in which rows are arranged). Represents the phase of the pixel (x, y) located at the coordinate position of y). Further, in the above formula (1), I 0 represents the luminance of the pixel (x, y) included in the first red measurement mode image, and I 1 is the pixel ((1) included in the second red measurement mode image ( x, y) represents the luminance, I 2 represents the luminance of the pixel (x, y) included in the third red measurement mode image, and I 3 represents the pixel included in the fourth red measurement mode image ( x, y) represents the brightness.
そして、メイン制御部81は、算出した位相φと相対関係がある高さを、赤色計測モード画像に含まれるそれぞれの画素ごとに求める。これにより、メイン制御部81は、赤色計測モード画像に含まれる全ての画素が、水平方向、垂直方向、および高さの座標で表された画素群のデータ(以下、「3次元点群データ」という)を生成する。 Then, the main control unit 81 obtains a height having a relative relationship with the calculated phase φ for each pixel included in the red measurement mode image. Accordingly, the main control unit 81 causes the pixel group data (hereinafter, “three-dimensional point group data”) in which all the pixels included in the red measurement mode image are represented by the coordinates of the horizontal direction, the vertical direction, and the height. Is generated).
このようにして、メイン制御部81は、4つの計測モード画像に基づいて3次元形状復元処理を行う。そして、メイン制御部81は、3次元形状復元処理によって生成した3次元点群データに基づいて、3次元の計測の処理を行う。なお、図3に示した概略図では、4つの計測モード画像に基づいて3次元形状復元処理を行う場合を示したが、一般的に、3次元形状復元処理を行うために必要な計測モード画像の数は、3つ以上であればよい。従って、内視鏡装置1において3次元形状復元処理を行う、つまり、3次元点群データを生成するために用いる計測モード画像(図3では、赤色計測モード画像)の数は、特に規定しない。 In this way, the main control unit 81 performs the three-dimensional shape restoration process based on the four measurement mode images. Then, the main control unit 81 performs a three-dimensional measurement process based on the three-dimensional point cloud data generated by the three-dimensional shape restoration process. Note that, in the schematic diagram shown in FIG. 3, the case where the three-dimensional shape restoration process is performed based on the four measurement mode images is shown. However, in general, the measurement mode image necessary for performing the three-dimensional shape restoration process is shown. The number may be 3 or more. Therefore, the number of measurement mode images (red measurement mode images in FIG. 3) used for performing the three-dimensional shape restoration process in the endoscope apparatus 1, that is, for generating three-dimensional point cloud data is not particularly specified.
一方、色再現処理は、赤色計測モード画像と、緑色計測モード画像と、青色計測モード画像とのそれぞれに基づいて行う。なお、緑色計測モード画像は、緑色の波長帯域の光を反射した被検物の画像であり、計測光として照射された構造化パターン(縦縞のパターン)が含まれていない画像である。また、青色計測モード画像は、青色の波長帯域の光を反射した被検物の画像であり、緑色計測モード画像と同様に、計測光として照射された構造化パターン(縦縞のパターン)が含まれていない画像である。 On the other hand, the color reproduction processing is performed based on each of the red measurement mode image, the green measurement mode image, and the blue measurement mode image. The green measurement mode image is an image of the test object that reflects light in the green wavelength band, and does not include the structured pattern (vertical stripe pattern) irradiated as the measurement light. In addition, the blue measurement mode image is an image of the test object that reflects light in the blue wavelength band, and includes a structured pattern (vertical stripe pattern) irradiated as measurement light, like the green measurement mode image. Not an image.
色再現処理において、メイン制御部81は、4つの緑色計測モード画像および青色計測モード画像のそれぞれに対して、例えば、ノイズ除去処理などの既存の画像処理を行って、S/N(Signal/Noise)が高い1つの緑色の画像(以下、「緑色画像」という)、および1つの青色の画像(以下「青色画像」という)のそれぞれを生成する。以下の説明において、緑色画像と青色画像とを区別せずに表すときには、「縞なし画像」という。なお、メイン制御部81は、緑色画像を生成する際に、4つの緑色計測モード画像に含まれる同じ座標位置の画素の値同士を加算平均してもよい。同様に、メイン制御部81は、青色画像を生成する際に、4つの青色計測モード画像に含まれる同じ座標位置の画素の値同士を加算平均してもよい。 In the color reproduction processing, the main control unit 81 performs existing image processing such as noise removal processing on each of the four green measurement mode images and the blue measurement mode image to perform S/N (Signal/Noise). ) Is high, one green image (hereinafter referred to as “green image”) and one blue image (hereinafter referred to as “blue image”) are generated. In the following description, when a green image and a blue image are represented without being distinguished from each other, they are referred to as “stripeless images”. Note that the main control unit 81 may add and average the values of the pixels at the same coordinate positions included in the four green measurement mode images when generating the green image. Similarly, when generating the blue image, the main control unit 81 may average the values of the pixels at the same coordinate positions included in the four blue measurement mode images.
また、色再現処理において、メイン制御部81は、4つの赤色計測モード画像に基づいて、構造化パターン(縦縞のパターン)を除去した1つの赤色の画像(以下、「赤色画像」という)を生成する。より具体的には、4つの赤色計測モード画像に含まれる同じ座標位置の画素の値同士を加算平均する。これにより、それぞれの赤色計測モード画像に含まれる構造化パターン(縦縞のパターン)の位相の成分が除去(キャンセル)される。以下の説明においては、赤色画像を「縞消し画像」ともいう。なお、メイン制御部81は、赤色画像を生成する際に、赤色画像に含まれるそれぞれの画素の値、つまり、赤色のレベルを、緑色画像における緑色のレベルや青色画像における青色のレベルと同等になるように補正する処理を行ってもよい。 Further, in the color reproduction process, the main control unit 81 generates one red image (hereinafter, referred to as “red image”) from which the structured pattern (vertical stripe pattern) is removed, based on the four red measurement mode images. To do. More specifically, the values of the pixels at the same coordinate positions included in the four red measurement mode images are added and averaged. As a result, the phase component of the structured pattern (vertical stripe pattern) included in each red measurement mode image is removed (cancelled). In the following description, the red image is also referred to as “stripe erased image”. When generating the red image, the main control unit 81 sets the value of each pixel included in the red image, that is, the red level to be equal to the green level in the green image or the blue level in the blue image. You may perform the process which corrects so that.
このようにして、メイン制御部81は、色再現処理において、4つの計測モード画像に基づいたそれぞれの色ごとの画像(赤色画像、緑色画像、および青色画像)を生成する。そして、メイン制御部81は、生成した縞なし画像(緑色画像および青色画像)と縞消し画像(赤色画像)とを合成して、赤色(R)、緑色(G)、および青色(B)が再現された色再現画像を生成する。 In this way, the main control unit 81 generates images for each color (red image, green image, and blue image) based on the four measurement mode images in the color reproduction process. Then, the main control unit 81 combines the generated stripe-free image (green image and blue image) and the stripe-erased image (red image) to generate red (R), green (G), and blue (B). Generate a reproduced color reproduction image.
メイン制御部81は、色再現処理によって生成した色再現画像を、3次元の計測を行う際の測定点を設定するための被検物の画像としてモニタ87に表示させる。そして、メイン制御部81は、ユーザによって測定点の位置(座標)が指定された後に、指定された測定点に対応する3次元点群データの座標に基づいて、ユーザが所望する3次元の計測を行う。 The main control unit 81 causes the monitor 87 to display the color reproduction image generated by the color reproduction processing as an image of the test object for setting a measurement point when performing three-dimensional measurement. Then, after the position (coordinates) of the measurement points are designated by the user, the main control unit 81 performs three-dimensional measurement desired by the user based on the coordinates of the three-dimensional point group data corresponding to the designated measurement points. I do.
次に、内視鏡装置1における3次元の計測の処理手順について説明する。図4は、第1の実施形態の内視鏡システム(内視鏡装置1)における処理手順を示したフローチャートである。図4には、計測モードにおける処理手順を示している。 Next, a processing procedure of three-dimensional measurement in the endoscope device 1 will be described. FIG. 4 is a flowchart showing a processing procedure in the endoscope system (endoscope device 1) of the first embodiment. FIG. 4 shows a processing procedure in the measurement mode.
内視鏡装置1の動作モードが計測モードになると、メイン制御部81は、まず、光源制御部80を制御して、照明部6とパターン投影部7とに、計測モードにおける光の発光を行わせる。そして、メイン制御部81は、撮像部5を制御して被検物を複数撮影させ、映像処理部86に複数の計測モード画像を生成させてRAM83に格納させることによって、複数の計測モード画像を取得する(ステップS01)。 When the operation mode of the endoscope apparatus 1 becomes the measurement mode, the main control unit 81 first controls the light source control unit 80 to cause the illumination unit 6 and the pattern projection unit 7 to emit light in the measurement mode. Let Then, the main control unit 81 controls the imaging unit 5 to photograph a plurality of objects to be inspected, causes the video processing unit 86 to generate a plurality of measurement mode images, and causes the RAM 83 to store the measurement mode images. It is acquired (step S01).
続いて、メイン制御部81は、RAM83に格納したそれぞれの計測モード画像を読み出して、読み出した計測モード画像を色ごとに分離する(ステップS02)。これにより、それぞれの計測モード画像が、赤色計測モード画像と、緑色計測モード画像と、青色計測モード画像とのそれぞれに分離される。そして、メイン制御部81は、3次元形状復元処理と色再現処理とのそれぞれを並列に行う。なお、メイン制御部81は、ステップS02において分離した赤色計測モード画像と、緑色計測モード画像と、青色計測モード画像とのそれぞれを、再度RAM83に一時的に格納し、次の処理に必要な計測モード画像をRAM83から再度読み出して以降の処理を行ってもよい。 Subsequently, the main control unit 81 reads out each measurement mode image stored in the RAM 83, and separates the read measurement mode images for each color (step S02). As a result, each measurement mode image is separated into a red measurement mode image, a green measurement mode image, and a blue measurement mode image. Then, the main controller 81 performs the three-dimensional shape restoration process and the color reproduction process in parallel. The main control unit 81 temporarily stores again each of the red measurement mode image, the green measurement mode image, and the blue measurement mode image separated in step S02 in the RAM 83, and performs measurement required for the next process. The mode image may be read again from the RAM 83 and the subsequent processing may be performed.
3次元形状復元処理では、メイン制御部81は、まず、複数の赤色計測モード画像のそれぞれに対してノイズ除去処理を行う(ステップS11)。続いて、メイン制御部81は、上式(1)のような既存の3次元画像の演算を行って、赤色計測モード画像に含まれるそれぞれの画素の位相φを算出する(ステップS12)。続いて、メイン制御部81は、算出したそれぞれの画素の位相φに含まれるノイズ成分を除去するノイズ除去処理を行う(ステップS13)。そして、メイン制御部81は、算出した位相φと高さとの相対関係に基づいて、赤色計測モード画像に含まれるそれぞれの画素における空間座標(高さを表す座標)を算出し、水平方向xおよび垂直方向yの座標と、算出した高さ(以下、「高さ方向z」という)を表す座標とをそれぞれの画素ごとに対応付けた3次元の画素群データ(x,y,z)である3次元点群データを生成する(ステップS14)。そして、メイン制御部81は、生成した3次元点群データを、RAM83に格納する。 In the three-dimensional shape restoration processing, the main control unit 81 first performs noise removal processing on each of the plurality of red measurement mode images (step S11). Subsequently, the main control unit 81 performs computations on existing 3-dimensional image, such as the above equation (1), it calculates the phase φ of the respective pixels included in the red measurement mode image (step S12). Subsequently, the main control unit 81 performs a noise removal process of removing a noise component included in the calculated phase φ of each pixel (step S13). Then, the main control unit 81 calculates the spatial coordinates (coordinates indicating the height) of each pixel included in the red measurement mode image based on the calculated relative relationship between the phase φ and the height, and the horizontal direction x and It is three-dimensional pixel group data (x, y, z) in which coordinates in the vertical direction y and coordinates representing the calculated height (hereinafter, referred to as “height direction z”) are associated with each pixel. Three-dimensional point cloud data is generated (step S14). Then, the main control unit 81 stores the generated three-dimensional point cloud data in the RAM 83.
一方、色再現処理では、メイン制御部81は、まず、複数の赤色計測モード画像に基づいて、構造化パターン(縦縞のパターン)を除去する縞消し処理を行い、1つの縞消し画像を生成する(ステップS21)。続いて、メイン制御部81は、複数の緑色計測モード画像および青色計測モード画像のそれぞれに対してノイズ除去処理を行い、1つの縞なし画像を生成する(ステップS22)。続いて、メイン制御部81は、生成した縞消し画像と縞なし画像とのそれぞれを合成し、色再現画像を生成する(ステップS23)。そして、メイン制御部81は、生成した色再現画像を、RAM83に格納する。なお、メイン制御部81は、ステップS21において生成した縞消し画像や、ステップS22において生成した縞なし画像を一時的にRAM83に格納し、色再現画像を生成する際に、格納した縞消し画像や縞なし画像をRAM83から再度読み出して、ステップS23の処理を行ってもよい。 On the other hand, in the color reproduction process, the main control unit 81 first performs the stripe erasing process for removing the structured pattern (vertical stripe pattern) based on the plurality of red measurement mode images to generate one stripe erasing image. (Step S21). Then, the main control unit 81 performs noise removal processing on each of the plurality of green measurement mode images and each of the blue measurement mode images to generate one stripe-free image (step S22). Subsequently, the main control unit 81 combines the generated striped image and the striped image to generate a color reproduction image (step S23). Then, the main control unit 81 stores the generated color reproduction image in the RAM 83. The main control unit 81 temporarily stores the striped image generated in step S21 or the striped image generated in step S22 in the RAM 83, and stores the striped image or the stored striped image when generating the color reproduction image. The image without stripes may be read again from the RAM 83 and the process of step S23 may be performed.
続いて、メイン制御部81は、ステップS23において生成した色再現画像をRAM83から読み出して、モニタ87に出力する(ステップS24)。これにより、モニタ87は、メイン制御部81から入力された色再現画像を、3次元の計測を行う際の測定点を設定するための被検物の画像として表示する。そして、内視鏡装置1のユーザは、モニタ87に表示された色再現画像を確認しながら操作部82を操作して、所望する3次元の計測を行うための測定点を設定する。その後、メイン制御部81は、ユーザによって測定点の設定が行われると、操作部82から、ユーザの操作によって設定された測定点の位置を表す情報を取得する(ステップS25)。 Then, the main controller 81 reads out the color reproduction image generated in step S23 from the RAM 83 and outputs it to the monitor 87 (step S24). As a result, the monitor 87 displays the color reproduction image input from the main control unit 81 as an image of the test object for setting measurement points when performing three-dimensional measurement. Then, the user of the endoscope apparatus 1 operates the operation unit 82 while confirming the color reproduction image displayed on the monitor 87, and sets measurement points for performing desired three-dimensional measurement. After that, when the measurement point is set by the user, the main control unit 81 acquires information indicating the position of the measurement point set by the operation of the user from the operation unit 82 (step S25).
続いて、メイン制御部81は、ステップS25においてユーザによって設定された測定点の位置の情報を取得すると、取得した測定点の位置(座標(x,y))と3次元点群データ内の画素の座標(x,y)とを照合し、測定点の位置(座標(x,y))に対応する3次元点群データの画素データ(x,y,z)を取得する(ステップS31)。なお、メイン制御部81が取得する3次元点群データの画素データは、測定点の位置に位置する画素の画素データに限定されるものではなく、実行する3次元の計測において用いる全ての画素データを取得する。例えば、設定された2つの測定点の間の距離(2点間の距離)を計測する3次元の計測を行う場合には、2つの測定点の間に位置する全ての画素データを取得する。 Subsequently, when the main control unit 81 acquires the information on the position of the measurement point set by the user in step S25, the position (coordinate (x, y)) of the acquired measurement point and the pixels in the three-dimensional point cloud data are acquired. And the pixel data (x, y, z) of the three-dimensional point group data corresponding to the position (coordinate (x, y)) of the measurement point is acquired (step S31). The pixel data of the three-dimensional point cloud data acquired by the main control unit 81 is not limited to the pixel data of the pixel located at the position of the measurement point, and all the pixel data used in the three-dimensional measurement to be performed. To get. For example, when performing three-dimensional measurement for measuring the distance between two set measurement points (distance between two points), all pixel data located between the two measurement points is acquired.
続いて、メイン制御部81は、取得した3次元点群データの画素データ(x,y,z)のそれぞれに基づいて、3次元の計測を実行する(ステップS32)。そして、メイン制御部81は、実行した3次元の計測結果を表す画像、例えば、表示している色再現画像に、計測結果を示すためのOSD(On−Screen Display)用のデータを重畳する処理を行った画像をモニタ87に出力して表示させる(ステップS33)。そして、メイン制御部81は、計測モードにおける処理を終了する。 Next, the main control unit 81 executes three-dimensional measurement based on each of the acquired pixel data (x, y, z) of the three-dimensional point cloud data (step S32). Then, the main control unit 81 performs a process of superimposing OSD (On-Screen Display) data for indicating the measurement result on an image representing the executed three-dimensional measurement result, for example, the displayed color reproduction image. image Ru is displayed and output to a monitor 87 and performing (step S33). Then, the main control unit 81 ends the process in the measurement mode.
これにより、ユーザは、所望する3次元の計測の結果を確認することができる。なお、メイン制御部81は、3次元の計測結果をモニタ87に表示させてユーザに提示するのみではなく、例えば、補助記憶部84に、設定された測定点の位置を表す情報と3次元の計測結果とを対応付けて格納してもよい。これにより、ユーザは、以前行った3次元の計測結果を確認することができる。 This allows the user to confirm the desired three-dimensional measurement result. The main control unit 81 not only displays the three-dimensional measurement result on the monitor 87 and presents it to the user, but also, for example, in the auxiliary storage unit 84, the information indicating the position of the set measurement point and the three-dimensional measurement result. The measurement result may be stored in association with each other. As a result, the user can confirm the result of the three-dimensional measurement performed previously.
本第1の実施形態によれば、被検物を観察するための観察光(白色の照明光)を被検物に照射する照明部(照明部6)と、被検物を3次元で計測するために構造化したパターンの予め定めた波長帯域の計測光(縦縞のパターンのパターン光)を被検物に照射するパターン投影部(パターン投影部7)と、照明部6による観察光の被検物への照射と、パターン投影部7による計測光の被検物への照射とを制御する照射光制御部(光源制御部80)と、少なくとも計測光を照射して得た映像に応じた被検物の計測画像(計測モード画像)に基づいて、指定された測定点に応じた被検物に対する3次元の計測を行う3次元計測部(メイン制御部81)と、を備えた内視鏡システム(内視鏡装置1)であって、メイン制御部81は、計測モード画像に基づいて測定点を設定するための設定用画像(被検物の画像:色再現画像)を生成して表示部(モニタ87)に表示させ、被検物の画像に設定された測定点の位置に対応する計測モード画像の情報(3次元点群データ)に基づいて被検物に対する3次元の計測を行う内視鏡システム(内視鏡装置1)が構成される。 According to the first embodiment, the illumination unit (illumination unit 6) that irradiates the object with the observation light (white illumination light) for observing the object, and the object is three-dimensionally measured. A pattern projection unit (pattern projection unit 7) for irradiating the test object with measurement light in a predetermined wavelength band of a structured pattern (pattern light of a pattern of vertical stripes) and an observation light from the illumination unit 6. An irradiation light control unit (light source control unit 80) that controls irradiation of the inspection object and irradiation of the measurement light by the pattern projection unit 7 to the inspection object, and at least an image obtained by irradiation of the measurement light. An internal view including a three-dimensional measurement unit (main control unit 81) that performs three-dimensional measurement on the inspection object according to the designated measurement point based on the measurement image (measurement mode image) of the inspection object. In the endoscope system (endoscope device 1), the main control unit 81 generates a setting image (image of a test object: color reproduction image) for setting a measurement point based on the measurement mode image. Three-dimensional measurement is performed on the test object based on the information (three-dimensional point cloud data) of the measurement mode image corresponding to the position of the measurement point set on the image of the test object displayed on the display unit (monitor 87). An endoscope system (endoscope device 1) for performing is configured.
また、本第1の実施形態によれば、メイン制御部81は、3次元の計測を行う際に、計測モード画像に含まれる計測光と同じ波長帯域(赤色の波長帯域)の光の反射による被検物の映像である第1の波長帯域計測画像(赤色計測モード画像)に基づいて、3次元の計測に用いる3次元画素情報(3次元点群データの画素データ)を生成し、生成した画素データを含んだ3次元計測画像(3次元点群データ)を生成する3次元形状復元処理(ステップS11〜ステップS14)と、3次元点群データに含まれる、被検物の画像に設定された測定点の位置に対応する画素データに基づいて、3次元の計測を行う3次元計測処理(ステップS31〜ステップS33)と、を実行する内視鏡装置1が構成される。 Further, according to the first embodiment, the main control unit 81 reflects the light in the same wavelength band (red wavelength band) as the measurement light included in the measurement mode image when performing three-dimensional measurement. 3D pixel information (pixel data of 3D point cloud data) used for 3D measurement is generated and generated based on the first wavelength band measurement image (red measurement mode image) that is an image of the test object. A three-dimensional shape restoration process (steps S11 to S14) for generating a three-dimensional measurement image (three-dimensional point cloud data) including pixel data, and an image of the object included in the three-dimensional point cloud data are set. The endoscope apparatus 1 that executes the three-dimensional measurement processing (steps S31 to S33) that performs three-dimensional measurement based on the pixel data corresponding to the position of the measured point is configured.
また、本第1の実施形態によれば、光源制御部80は、3次元の計測を行う際に、観察光と計測光とを同時に被検物に照射させ、メイン制御部81は、3次元形状復元処理を実行する前に、計測モード画像を、赤色計測モード画像と、計測モード画像に含まれる計測光と異なる波長帯域の光の反射による被検物の映像である第2の波長帯域計測画像(緑色計測モード画像および青色計測モード画像)とに分離する画像分離処理(ステップS02)を実行し、3次元形状復元処理と並列に、赤色計測モード画像に含まれる計測光の成分(縦縞のパターン)を除去した計測光除去画像(赤色画像:縞消し画像)を生成する構造化パターン除去処理(縞消し処理:ステップS21)と、縞消し画像と、第2の波長帯域計測画像(ノイズ除去処理後の緑色画像および青色画像:縞なし画像)とを合成した合成画像(色再現画像)を生成する合成画像生成処理(ステップS22〜ステップS23)と、を順次実行する内視鏡装置1が構成される。 Further, according to the first embodiment, the light source control unit 80 causes the observation light and the measurement light to irradiate the test object at the same time when performing the three-dimensional measurement, and the main control unit 81 causes the three-dimensional measurement. Before the shape restoration process is performed, the measurement mode image is a red measurement mode image and a second wavelength band measurement which is an image of the test object due to reflection of light in a wavelength band different from the measurement light included in the measurement mode image. Image separation processing (step S02) for separating the image (green measurement mode image and blue measurement mode image) is performed, and the measurement light component (vertical stripes) included in the red measurement mode image is parallel to the three-dimensional shape restoration processing. Structured pattern removal processing (stripe removal processing: step S21) for generating a measurement light removal image (red image: striped image) from which a pattern is removed, a striped image, and a second wavelength band measurement image (noise removal) The endoscope apparatus 1 that sequentially executes a combined image generation process (steps S22 to S23) that generates a combined image (color reproduction image) by combining the processed green image and blue image: image without stripes. Composed.
また、本第1の実施形態によれば、光源制御部80は、計測光と同時に被検物に照射させる観察光の光量を、計測光の光量に応じて調光する内視鏡装置1が構成される。 Further, according to the first embodiment, the light source control unit 80 controls the light amount of the observation light to be irradiated to the object simultaneously with the measurement light according to the light amount of the measurement light. Composed.
また、本第1の実施形態によれば、メイン制御部81は、色再現画像を被検物の画像とする(ステップS24〜ステップS25)内視鏡装置1が構成される。 Further, according to the first embodiment, the main controller 81 configures the endoscope apparatus 1 in which the color reproduction image is the image of the test object (steps S24 to S25).
また、本第1の実施形態によれば、計測光は、構造化したパターンが、光の強度が(水平方向の)正弦波状に変化する縞状のパターン(縦縞のパターン)である内視鏡装置1が構成される。 Further, according to the first embodiment, the measurement light is an endoscope in which the structured pattern is a striped pattern (vertical striped pattern) in which the intensity of the light changes in a sinusoidal shape (in the horizontal direction). The device 1 is configured.
また、本第1の実施形態によれば、 パターン投影部7は、計測光における構造化したパターン(縦縞のパターン)の位相を予め定めたシフト量だけ位相シフトして被検物に複数回照射し、メイン制御部81は、位相シフトされたそれぞれの計測光の照射によって得たそれぞれの映像に応じた複数の計測モード画像に基づいて、3次元の計測を行う内視鏡装置1が構成される。 In addition, according to the first embodiment, the pattern projection unit 7 irradiates the test object multiple times by shifting the phase of the structured pattern (vertical stripe pattern) in the measurement light by a predetermined shift amount. Then, the main controller 81 configures the endoscope apparatus 1 that performs three-dimensional measurement based on a plurality of measurement mode images corresponding to respective images obtained by the irradiation of the respective phase-shifted measurement lights. It
また、本第1の実施形態によれば、計測光は、レーザー光である内視鏡装置1が構成される。 In addition, according to the first embodiment, the endoscope apparatus 1 that is the laser light is used as the measurement light.
また、本第1の実施形態によれば、計測光は、波長帯域が、可視光の波長帯域である内視鏡装置1が構成される。 Further, according to the first embodiment, the endoscope apparatus 1 in which the wavelength band of the measurement light is the wavelength band of visible light is configured.
また、本第1の実施形態によれば、計測光は、波長帯域が、赤色の波長帯域である内視鏡装置1が構成される。 Further, according to the first embodiment, the endoscope apparatus 1 in which the wavelength band of the measurement light is the red wavelength band is configured.
また、本第1の実施形態によれば、観察光は可視光の波長帯域であり、メイン制御部81は、画像分離処理において、計測モード画像を、赤色の波長帯域の光の反射による計測画像(赤色計測モード画像)と、緑色の波長帯域の光の反射による計測画像(緑色計測モード画像)と、青色の波長帯域の光の反射による計測画像(青色計測モード画像)とに分離し、計測光と同じ波長帯域(赤色の波長帯域)の光の反射による計測画像を赤色計測モード画像とし、計測光と異なる波長帯域の光の反射による計測画像のそれぞれを緑色計測モード画像および青色計測モード画像とする内視鏡装置1が構成される。 Further, according to the first embodiment, the observation light is in the wavelength band of visible light, and the main control unit 81 causes the measurement mode image to be a measurement image by reflection of light in the red wavelength band in the image separation processing. (Red measurement mode image), measurement image by reflection of light in green wavelength band (green measurement mode image), and measurement image by reflection of light in blue wavelength band (blue measurement mode image) The measurement image obtained by reflection of light in the same wavelength band as the light (red wavelength band) is used as the red measurement mode image, and the measurement images obtained by reflection of light in the wavelength band different from the measurement light are respectively measured in green and blue. The endoscope apparatus 1 is configured as follows.
また、本第1の実施形態によれば、メイン制御部81は、構造化パターン除去処理において、複数の計測モード画像のそれぞれに対応する複数の赤色計測モード画像に含まれる同じ位置(座標位置)のそれぞれの画素の値同士を加算平均して1つの縞消し画像を生成する内視鏡装置1が構成される。 Further, according to the first embodiment, the main control unit 81, in the structured pattern removal process, the same position (coordinate position) included in the plurality of red measurement mode images corresponding to each of the plurality of measurement mode images. The endoscope apparatus 1 configured to add and average the values of the respective pixels to generate one striped image is configured.
また、本第1の実施形態によれば、被検物を観察するための観察光(白色の照明光)を被検物に照射する照明部(照明部6)と、被検物を3次元で計測するために構造化したパターンの予め定めた波長帯域の計測光(縦縞のパターンのパターン光)を被検物に照射するパターン投影部(パターン投影部7)と、照明部6による観察光の被検物への照射と、パターン投影部7による計測光の被検物への照射とを制御する照射光制御部(光源制御部80)と、少なくとも計測光を照射して得た映像に応じた被検物の計測画像(計測モード画像)に基づいて、指定された測定点に応じた被検物に対する3次元の計測を行う3次元計測部(メイン制御部81)と、を備えた内視鏡システム(内視鏡装置1)における計測方法であって、メイン制御部81が、計測モード画像に基づいて測定点を設定するための設定用画像(被検物の画像:色再現画像)を生成して表示部(モニタ87)に表示させ、被検物の画像に設定された測定点の位置に対応する計測モード画像の情報(3次元点群データ)に基づいて被検物に対する3次元の計測を行う計測方法が構成される。 Further, according to the first embodiment, the illumination unit (illumination unit 6) that irradiates the test object with the observation light (white illumination light) for observing the test object, and the test object in three dimensions. The pattern projection unit (pattern projection unit 7) for irradiating the object with the measurement light in the predetermined wavelength band of the structured pattern for measurement in (the pattern light of the vertical stripe pattern), and the observation light by the illumination unit 6. The irradiation light control unit (light source control unit 80) for controlling the irradiation of the object to be inspected and the irradiation of the measuring light to the object by the pattern projection unit 7, and at least the image obtained by irradiating the measuring light. And a three-dimensional measurement unit (main control unit 81) that performs three-dimensional measurement on the test object corresponding to the designated measurement point based on the measured image (measurement mode image) of the corresponding test object. A measurement method in an endoscope system (endoscope device 1), in which a main control unit 81 sets an image for setting (measurement object image: color reproduction image) for setting a measurement point based on a measurement mode image. ) Is generated and displayed on the display unit (monitor 87), and the object is measured based on the information (three-dimensional point cloud data) of the measurement mode image corresponding to the position of the measuring point set in the image of the object. A measurement method for performing three-dimensional measurement is configured.
上記に述べたように、内視鏡装置1では、計測モードにおいて取得した計測モード画像から生成した色再現画像を、3次元の計測を行う際の測定点を設定するための被検物の画像として表示する。これにより、内視鏡装置1では、表示された被検物の画像を確認しながら、3次元の計測を行うために計測モードにおいて取得した計測モード画像に1対1で対応する位置に測定点を設定することができる。つまり、従来の内視鏡装置では、測定点を設定する画像と3次元の計測を行う画像とが異なるタイミングで撮影された異なる画像であったのに対し、内視鏡装置1では、3次元の計測を行う画像と同じ画像から生成した画像に測定点を設定することができる。このことにより、内視鏡装置1では、3次元の計測を正確に行った計測結果を得ることができる。 As described above, in the endoscope apparatus 1, the color reproduction image generated from the measurement mode image acquired in the measurement mode is used as the image of the object for setting the measurement points when performing the three-dimensional measurement. Display as. As a result, in the endoscope device 1, while checking the displayed image of the test object, the measurement point is located at a position corresponding to the measurement mode image acquired in the measurement mode in order to perform three-dimensional measurement. Can be set. That is, in the conventional endoscope apparatus, the image for setting the measurement point and the image for performing the three-dimensional measurement are different images taken at different timings, whereas the endoscope apparatus 1 has the three-dimensional image. Measurement points can be set on an image generated from the same image as the image on which measurement is performed. As a result, the endoscope device 1 can obtain a measurement result obtained by accurately performing three-dimensional measurement.
例えば、内視鏡装置1では、観察モードから計測モードに動作モードが切り替わった際に先端部4が動いてしまった場合でも、モニタ87に表示された色再現画像から、ユーザが画角の変化を確認することができる。これにより、内視鏡装置1では、モーションブラーに起因する異なる位置の計測を行うことなく、設定された測定点の位置に基づいた正しい計測結果を得ることができる。また、例えば、内視鏡装置1では、計測モード画像にハレーションなどが発生していた場合でも、モニタ87に表示された色再現画像から、発生しているハレーションなどを、ユーザが観測点を設定する前に確認することができる。そして、ユーザは、発生しているハレーションなどの状態に応じて、所望の測定点を設定することができる。つまり、ユーザが測定点を設定したい位置が、発生しているハレーションなどとは関係ない位置である場合には、現在の色再現画像に測定点を設定し、ユーザが測定点を設定したい位置にハレーションなどが発生している場合には、計測モードにおける被検物の撮影をやり直して、ハレーションなどが発生していない状態で測定点を設定することができる。これにより、内視鏡装置1では、ハレーションなどに起因する誤った計測を行うことなく、設定された測定点の位置に基づいた正しい計測結果を得ることができる。 For example, in the endoscope apparatus 1, even when the tip portion 4 moves when the operation mode is switched from the observation mode to the measurement mode, the user can change the angle of view from the color reproduction image displayed on the monitor 87. Can be confirmed. As a result, the endoscope apparatus 1 can obtain a correct measurement result based on the position of the set measurement point without measuring different positions due to motion blur. In addition, for example, in the endoscope apparatus 1, even when halation or the like occurs in the measurement mode image, the user sets the observation point of the halation or the like occurring from the color reproduction image displayed on the monitor 87. You can check it before you do. Then, the user can set a desired measurement point according to the state of halation that is occurring. In other words, if the position where the user wants to set the measurement point is not related to the halation that is occurring, set the measurement point in the current color reproduction image, and set the position where the user wants to set the measurement point. If halation or the like has occurred, the object to be photographed in the measurement mode can be redone and the measurement point can be set in the state in which halation or the like has not occurred. As a result, the endoscope device 1 can obtain a correct measurement result based on the position of the set measurement point without performing an incorrect measurement due to halation or the like.
<第2の実施形態>
次に、本発明の第2の実施形態の内視鏡システムについて説明する。第1の実施形態の内視鏡システム(内視鏡装置1)では、3次元の計測を行う際の測定点を設定するための被検物の画像として、色再現画像をモニタ87に表示する場合について説明した。つまり、第1の実施形態の内視鏡システム(内視鏡装置1)では、3次元の計測を行う際の測定点を設定するための被検物の画像が2次元の画像であり、3次元形状復元処理によって生成した3次元点群データは、3次元の計測の際に使用する場合について説明した。しかし、3次元点群データは、3次元の計測を行う際の測定点を設定するための被検物の画像に含める、つまり、ユーザが3次元画像に対して測定点を設定するようにすることもできる。第2の実施形態の内視鏡システムは、ユーザが3次元画像に対して測定点を設定することができる内視鏡システムである。なお、第2の実施形態の内視鏡システムも、工業用の内視鏡装置である場合について説明する。
<Second Embodiment>
Next, an endoscope system according to the second embodiment of the present invention will be described. In the endoscope system (endoscope device 1) of the first embodiment, a color reproduction image is displayed on the monitor 87 as an image of a test object for setting a measurement point when performing three-dimensional measurement. The case was explained. That is, in the endoscope system (endoscope device 1) of the first embodiment, the image of the test object for setting the measurement point when performing the three-dimensional measurement is a two-dimensional image. The case where the three-dimensional point cloud data generated by the three-dimensional shape restoration process is used in the three-dimensional measurement has been described. However, the three-dimensional point cloud data is included in the image of the test object for setting the measurement points when performing three-dimensional measurement, that is, the user sets the measurement points for the three-dimensional image. You can also The endoscope system of the second embodiment is an endoscope system that allows a user to set measurement points on a three-dimensional image. The case where the endoscope system of the second embodiment is also an industrial endoscope apparatus will be described.
第2の実施形態の内視鏡装置の構成は、図1に示した第1の実施形態の内視鏡装置1の構成と同様である。従って、第2の実施形態の内視鏡装置の構成に関する詳細な説明は省略し、以下の説明においては、第2の実施形態の内視鏡装置における3次元の計測の処理について説明する。なお、以下の説明において、第2の実施形態の内視鏡装置の構成要素を表すときには、図1に示した第1の実施形態の内視鏡装置1の構成要素と同一の符号を用いて説明する。 The configuration of the endoscope device of the second embodiment is similar to the configuration of the endoscope device 1 of the first embodiment shown in FIG. Therefore, detailed description of the configuration of the endoscope apparatus of the second embodiment will be omitted, and in the following description, the three-dimensional measurement processing in the endoscope apparatus of the second embodiment will be described. In the following description, when the constituent elements of the endoscope apparatus of the second embodiment are represented, the same reference numerals as the constituent elements of the endoscope apparatus 1 of the first embodiment shown in FIG. 1 are used. explain.
図5は、本発明の第2の実施形態による内視鏡システム(内視鏡装置1)における処理手順を示したフローチャートである。図5には、図4に示した第1の実施形態の内視鏡装置1における処理手順と同様に、計測モードにおける処理手順を示している。なお、以下の説明においては、第1の実施形態の内視鏡装置1と同様に、照明光源61が白色LED光源であり、パターン投影光源71が赤色の波長帯域のレーザー光源であるものとして説明する。 FIG. 5 is a flowchart showing a processing procedure in the endoscope system (endoscope device 1) according to the second embodiment of the present invention. FIG. 5 shows a processing procedure in the measurement mode, similar to the processing procedure in the endoscope apparatus 1 of the first embodiment shown in FIG. In the following description, the illumination light source 61 is a white LED light source and the pattern projection light source 71 is a laser light source in the red wavelength band, as in the endoscope device 1 of the first embodiment. To do.
内視鏡装置1の動作モードが計測モードになると、メイン制御部81は、ステップS01〜ステップS02において、第1の実施形態の内視鏡装置1における処理手順と同様に、複数の計測モード画像を取得し、取得した計測モード画像を色ごとに分離する。そして、メイン制御部81は、第1の実施形態の内視鏡装置1と同様に、3次元形状復元処理と色再現処理とのそれぞれを並列に行う。 When the operation mode of the endoscope apparatus 1 becomes the measurement mode, the main control unit 81, in steps S01 to S02, similarly to the processing procedure in the endoscope apparatus 1 of the first embodiment, a plurality of measurement mode images. Is acquired, and the acquired measurement mode image is separated for each color. Then, the main control unit 81 performs each of the three-dimensional shape restoration processing and the color reproduction processing in parallel, as in the endoscope device 1 of the first embodiment.
3次元形状復元処理では、メイン制御部81は、ステップS11〜ステップS14において、第1の実施形態の内視鏡装置1における処理手順と同様の3次元形状復元処理を行って、複数の赤色計測モード画像から3次元点群データを生成し、生成した3次元点群データをRAM83に格納する。一方、色再現処理では、メイン制御部81は、ステップS21〜ステップS23において、第1の実施形態の内視鏡装置1における処理手順と同様の色再現処理を行って、縞消し処理を行った1つの縞消し画像と、ノイズ除去処理を行った1つの縞なし画像とを生成し、縞消し画像と縞なし画像とのそれぞれを合成した色再現画像を生成してRAM83に格納する。 In the three-dimensional shape restoration processing, the main control unit 81 performs the three-dimensional shape restoration processing similar to the processing procedure in the endoscope apparatus 1 of the first embodiment in steps S11 to S14 to measure a plurality of red colors. Three-dimensional point cloud data is generated from the mode image, and the generated three-dimensional point cloud data is stored in the RAM 83. On the other hand, in the color reproduction processing, in step S21 to step S23, the main control unit 81 performs the color reproduction processing similar to the processing procedure in the endoscope apparatus 1 of the first embodiment, and performs the striping processing. One striped image and one noise-free striped image are generated, and a color reproduction image in which the striped image and the striped image are combined is generated and stored in the RAM 83.
続いて、メイン制御部81は、ステップS14において生成した3次元点群データと、ステップS23において生成した色再現画像とのそれぞれをRAM83から読み出し、3次元点群データに含まれるそれぞれの画素データに色再現画像に含まれる色の情報を重畳した3次元画像を生成し、生成した3次元画像を再びRAM83に格納する(ステップS311)。より具体的には、メイン制御部81は、3次元点群データに含まれるそれぞれの画素データの水平方向xおよび垂直方向yの座標と、色再現画像に含まれるそれぞれの画素の水平方向xおよび垂直方向yの座標とを照合し、同じ座標(x,y)に位置する3次元点群データの画素データ(x,y,z)に、対応する色の情報(r,g,b)を付加する。これにより、3次元点群データは、水平方向x、垂直方向y、および高さ方向zに加えて、赤色の情報r、緑色の情報g、および青色の情報bを含んだカラーの3次元画像の画素データとなる。 Subsequently, the main control unit 81 reads each of the three-dimensional point cloud data generated in step S14 and the color reproduction image generated in step S23 from the RAM 83, and sets them as pixel data included in the three-dimensional point cloud data. A three-dimensional image in which color information included in the color reproduction image is superimposed is generated, and the generated three-dimensional image is stored again in the RAM 83 (step S311). More specifically, the main controller 81 controls the horizontal x and vertical y coordinates of each pixel data included in the three-dimensional point cloud data, and the horizontal x and vertical coordinates of each pixel included in the color reproduction image. By collating with the coordinate in the vertical direction y, the corresponding color information (r, g, b) is added to the pixel data (x, y, z) of the three-dimensional point group data located at the same coordinate (x, y). Add. Thereby, the three-dimensional point cloud data is a color three-dimensional image including red information r, green information g, and blue information b in addition to the horizontal direction x, the vertical direction y, and the height direction z. Pixel data.
なお、3次元点群データの画素データには、色の情報以外にも、例えば、可視度の情報を付加してもよい。この可視度の情報は、それぞれの画像における画素ごと、または予め定めた矩形の範囲ごとに、透明(場合によっては半透明)であるか否かを表した情報であり、被検物の表面の凸凹によって影になる部分を表す際の表示方法を示す情報である。これにより、3次元点群データは、水平方向x、垂直方向y、高さ方向z、赤色の情報r、緑色の情報g、および青色の情報bに、さらに可視度aを含んだ画素データとなる。 In addition to color information, for example, visibility information may be added to the pixel data of the three-dimensional point cloud data. This visibility information is information indicating whether each pixel in each image or each predetermined rectangular range is transparent (translucent in some cases), and It is information indicating a display method when a shadowed portion is represented by unevenness. Accordingly, the three-dimensional point cloud data is pixel data including the horizontal direction x, the vertical direction y, the height direction z, the red information r, the green information g, and the blue information b, and the visibility a. Become.
続いて、メイン制御部81は、ステップS311においてRAM83に格納した3次元点群データ(x,y,z,r,g,b)を読み出して、モニタ87に出力する(ステップS312)。これにより、モニタ87は、メイン制御部81から入力された3次元点群データの画像を、3次元の計測を行う際の測定点を設定するための被検物の画像として表示する。そして、内視鏡装置1のユーザは、モニタ87に表示された3次元点群データの画像を確認しながら操作部82を操作して、所望する3次元の計測を行うための測定点を設定する。なお、ステップS312においてモニタ87に表示される3次元点群データの画像は、3次元画像である。従って、ユーザは、操作部82を操作することによって、モニタ87に表示された被検物の3次元画像を回転させるなど、被検物の形状を確認しながら所望の位置に測定点を設定することができる。その後、メイン制御部81は、ユーザによって測定点の設定が行われると、第1の実施形態の内視鏡装置1における処理手順におけるステップS25と同様に、操作部82から、ユーザの操作によって設定された測定点の位置を表す情報を取得する(ステップS313)。 Then, the main controller 81 reads the three-dimensional point cloud data (x, y, z, r, g, b) stored in the RAM 83 in step S311, and outputs it to the monitor 87 (step S312). As a result, the monitor 87 displays the image of the three-dimensional point cloud data input from the main control unit 81 as an image of the test object for setting the measurement points when performing three-dimensional measurement. Then, the user of the endoscope device 1 operates the operation unit 82 while confirming the image of the three-dimensional point cloud data displayed on the monitor 87, and sets the measurement points for performing the desired three-dimensional measurement. To do. The image of the three-dimensional point cloud data displayed on the monitor 87 in step S312 is a three-dimensional image. Therefore, the user operates the operation unit 82 to set the measurement point at a desired position while confirming the shape of the test object such as rotating the three-dimensional image of the test object displayed on the monitor 87. be able to. After that, when the measurement point is set by the user, the main control unit 81 sets the measurement point from the operation unit 82 by the user's operation, similarly to step S25 in the processing procedure in the endoscope apparatus 1 of the first embodiment. Information representing the position of the measured point is acquired (step S313).
続いて、メイン制御部81は、ステップS313においてユーザによって設定された測定点の位置の情報を取得すると、ステップS31〜ステップS33において、第1の実施形態の内視鏡装置1における処理手順と同様に、測定点の位置(座標(x,y))に対応する3次元点群データの画素データ(x,y,z)を取得して3次元の計測を実行し、実行した3次元の計測結果をモニタ87に出力して計測モードにおける処理を終了する。これにより、ユーザは、第1の実施形態の内視鏡装置1における処理手順と同様に、所望する3次元の計測の結果を確認することができる。 Subsequently, when the main control unit 81 acquires the information on the position of the measurement point set by the user in step S313, in step S31 to step S33, it is the same as the processing procedure in the endoscope apparatus 1 of the first embodiment. Then, the pixel data (x, y, z) of the three-dimensional point group data corresponding to the position of the measurement point (coordinates (x, y)) is acquired, three-dimensional measurement is executed, and the executed three-dimensional measurement is performed. The result is output to the monitor 87, and the processing in the measurement mode ends. As a result, the user can confirm the desired three-dimensional measurement result as in the processing procedure in the endoscope apparatus 1 according to the first embodiment.
本第2の実施形態によれば、3次元計測部(メイン制御部81)は、3次元計測画像(3次元点群データ)に合成画像(色再現画像)を重畳した画像(3次元画像)を設定用画像(被検物の画像)とする内視鏡システム(内視鏡装置1)が構成される。 According to the second embodiment, the three-dimensional measurement unit (main control unit 81) is an image (three-dimensional image) in which the composite image (color reproduction image) is superimposed on the three-dimensional measurement image (three-dimensional point cloud data). An endoscope system (endoscope device 1) having a setting image (image of the object to be inspected) is configured.
上記に述べたように、第2の実施形態の内視鏡装置1では、計測モードにおいて取得した計測モード画像に対する3次元形状復元処理によって生成した3次元点群データに、同じ計測モード画像から生成した色再現画像に含まれる色の情報を重畳して3次元画像を生成する。そして、第2の実施形態の内視鏡装置1では、生成した被検物の3次元画像を、3次元の計測を行う際の測定点を設定するための被検物の画像として表示する。つまり、第2の実施形態の内視鏡装置1でも、第1の実施形態の内視鏡装置1と同様に、3次元の計測を行う画像と同じ画像から生成した画像を、測定点を設定するための被検物の画像として表示する。そして、第2の実施形態の内視鏡装置1では、表示された被検物の3次元画像を回転させるなど、ユーザによる測定点の設定を補助する機能によって被検物の形状を確認しながら、より詳細な位置に測定点を設定することができる。このことにより、第2の実施形態の内視鏡装置1でも、第1の実施形態の内視鏡装置1と同様に、3次元の計測を正確に行った計測結果を得ることができる。 As described above, in the endoscope apparatus 1 according to the second embodiment, the 3D point cloud data generated by the 3D shape restoration process for the measurement mode image acquired in the measurement mode is generated from the same measurement mode image. The three-dimensional image is generated by superimposing the color information included in the color reproduction image. Then, in the endoscope apparatus 1 of the second embodiment, the generated three-dimensional image of the test object is displayed as an image of the test object for setting a measurement point when performing three-dimensional measurement. That is, also in the endoscope apparatus 1 of the second embodiment, as in the endoscope apparatus 1 of the first embodiment, an image generated from the same image as the image for performing three-dimensional measurement is set as the measurement point. The image is displayed as an image of the test object. Then, in the endoscope apparatus 1 of the second embodiment, while confirming the shape of the test object by a function of assisting the setting of the measurement point by the user, such as rotating the displayed three-dimensional image of the test object. , Measurement points can be set at more detailed positions. As a result, also in the endoscope apparatus 1 of the second embodiment, it is possible to obtain the measurement result obtained by accurately performing the three-dimensional measurement, as in the endoscope apparatus 1 of the first embodiment.
<第3の実施形態>
次に、本発明の第3の実施形態の内視鏡システムについて説明する。第3の実施形態の内視鏡システムも、第2の実施形態の内視鏡システム(内視鏡装置1)と同様に、ユーザが3次元画像に対して測定点を設定することができる内視鏡システムである。ただし、第3の実施形態の内視鏡システムは、生成する被検物の3次元画像が、第2の実施形態の内視鏡システム(内視鏡装置1)と異なる。なお、第3の実施形態の内視鏡システムも、工業用の内視鏡装置である場合について説明する。
<Third Embodiment>
Next, an endoscope system according to the third embodiment of the present invention will be described. In the endoscope system of the third embodiment as well, like the endoscope system (endoscope device 1) of the second embodiment, the user can set the measurement points on the three-dimensional image. It is an endoscope system. However, the endoscope system of the third embodiment differs from the endoscope system (endoscope device 1) of the second embodiment in the three-dimensional image of the test object to be generated. The case where the endoscope system of the third embodiment is also an industrial endoscope apparatus will be described.
第3の実施形態の内視鏡装置の構成は、図1に示した第1の実施形態の内視鏡装置1の構成と同様である。従って、第3の実施形態の内視鏡装置の構成に関する詳細な説明は省略し、以下の説明においては、第3の実施形態の内視鏡装置における3次元の計測の処理について説明する。なお、以下の説明においても、第3の実施形態の内視鏡装置の構成要素を表すときには、図1に示した第1の実施形態の内視鏡装置1の構成要素と同一の符号を用いて説明する。 The configuration of the endoscope device of the third embodiment is similar to the configuration of the endoscope device 1 of the first embodiment shown in FIG. Therefore, detailed description of the configuration of the endoscope apparatus of the third embodiment is omitted, and in the following description, the three-dimensional measurement processing in the endoscope apparatus of the third embodiment will be described. Note that, also in the following description, the same reference numerals as those of the constituent elements of the endoscope apparatus 1 of the first embodiment shown in FIG. 1 are used to represent the constituent elements of the endoscope apparatus of the third embodiment. Explain.
図6は、本発明の第3の実施形態による内視鏡システム(内視鏡装置1)における処理手順を示したフローチャートである。図6には、図4に示した第1の実施形態の内視鏡装置1における処理手順や、図5に示した第2の実施形態の内視鏡装置1における処理手順と同様に、計測モードにおける処理手順を示している。なお、以下の説明においても、第1の実施形態および第2の実施形態の内視鏡装置1と同様に、照明光源61が白色LED光源であり、パターン投影光源71が赤色の波長帯域のレーザー光源であるものとして説明する。 FIG. 6 is a flowchart showing a processing procedure in the endoscope system (endoscope device 1) according to the third embodiment of the present invention. FIG. 6 shows the measurement procedure similar to the processing procedure in the endoscope apparatus 1 of the first embodiment shown in FIG. 4 and the processing procedure in the endoscope apparatus 1 of the second embodiment shown in FIG. The processing procedure in mode is shown. In the following description, the illumination light source 61 is a white LED light source and the pattern projection light source 71 is a laser in the red wavelength band, as in the endoscope device 1 of the first and second embodiments. Description will be given assuming that the light source is a light source.
内視鏡装置1の動作モードが計測モードになると、メイン制御部81は、ステップS01〜ステップS02において、第1の実施形態および第2の実施形態の内視鏡装置1における処理手順と同様に、複数の計測モード画像を取得し、取得した計測モード画像を色ごとに分離する。そして、メイン制御部81は、第1の実施形態および第2の実施形態の内視鏡装置1と同様に、3次元形状復元処理と色再現処理とのそれぞれを並列に行う。 When the operation mode of the endoscope apparatus 1 becomes the measurement mode, the main control unit 81, in steps S01 to S02, similarly to the processing procedure in the endoscope apparatus 1 of the first embodiment and the second embodiment. , A plurality of measurement mode images are acquired, and the acquired measurement mode images are separated for each color. Then, the main control unit 81 performs each of the three-dimensional shape restoration processing and the color reproduction processing in parallel, as in the endoscope device 1 of the first and second embodiments.
3次元形状復元処理では、メイン制御部81は、ステップS11〜ステップS14において、第1の実施形態および第2の実施形態の内視鏡装置1における処理手順と同様の3次元形状復元処理を行って、複数の赤色計測モード画像から3次元点群データを生成し、生成した3次元点群データをRAM83に格納する。さらに、メイン制御部81は、生成した3次元点群データに基づいて、既存の画像処理技術の演算を行って、被検物の奥行きの情報を可視化して画像に表した深さ画像(デプスマップ)を生成し、生成したデプスマップをRAM83に格納する(ステップS151)。 In the three-dimensional shape restoration process, the main control unit 81 performs the same three-dimensional shape restoration process as the processing procedure in the endoscope device 1 of the first embodiment and the second embodiment in steps S11 to S14. Then, three-dimensional point cloud data is generated from the plurality of red measurement mode images, and the generated three-dimensional point cloud data is stored in the RAM 83. Further, the main control unit 81 performs an operation of the existing image processing technology based on the generated three-dimensional point cloud data to visualize the depth information of the object to be examined and display the depth image (depth). Map) and stores the generated depth map in the RAM 83 (step S151).
一方、色再現処理では、メイン制御部81は、ステップS21〜ステップS23において、第1の実施形態および第2の実施形態の内視鏡装置1における処理手順と同様の色再現処理を行って、縞消し処理によって生成した縞消し画像と、ノイズ除去処理によって生成した縞なし画像とのそれぞれを合成した色再現画像を生成してRAM83に格納する。 On the other hand, in the color reproduction process, in step S21 to step S23, the main control unit 81 performs the same color reproduction process as the processing procedure in the endoscope device 1 according to the first and second embodiments, A color reproduction image is generated by combining the striped image generated by the striping process and the non-striped image generated by the noise removal process, and is stored in the RAM 83.
続いて、メイン制御部81は、ステップS151において生成したデプスマップと、ステップS23において生成した色再現画像とのそれぞれをRAM83から読み出し、デプスマップに色再現画像をテクスチャ(質感)として貼り付けた、色の情報を含むデプスマップを生成し、生成したデプスマップを再びRAM83に格納する(ステップS321)。より具体的には、メイン制御部81は、既存の画像処理技術の演算を行って、3次元点群データに基づいて生成したモノクロのデプスマップの表面に当たるそれぞれの画素に、色再現画像に含まれる色の情報を重畳することによって、被検物のテクスチャ(質感)を表したカラーのデプスマップを生成する。 Subsequently, the main control unit 81 reads each of the depth map generated in step S151 and the color reproduction image generated in step S23 from the RAM 83, and pastes the color reproduction image on the depth map as a texture. A depth map including color information is generated, and the generated depth map is stored again in the RAM 83 (step S321). More specifically, the main control unit 81 calculates the existing image processing technology and includes each pixel corresponding to the surface of the monochrome depth map generated based on the three-dimensional point cloud data in the color reproduction image. The color depth map representing the texture of the test object is generated by superimposing the information of the colors to be displayed.
続いて、メイン制御部81は、ステップS321においてRAM83に格納したカラーのデプスマップを読み出して、モニタ87に出力する(ステップS322)。これにより、モニタ87は、メイン制御部81から入力されたカラーのデプスマップの画像を、3次元の計測を行う際の測定点を設定するための被検物の画像として表示する。そして、内視鏡装置1のユーザは、モニタ87に表示されたカラーのデプスマップの画像を確認しながら操作部82を操作して、所望する3次元の計測を行うための測定点を設定する。なお、ステップS312においてモニタ87に表示されるカラーのデプスマップの画像も、第2の実施形態の内視鏡装置1と同様に、3次元画像である。従って、ユーザは、第2の実施形態の内視鏡装置1と同様に、モニタ87に表示された被検物の形状を確認しながら、所望の位置に測定点を設定することができる。その後、メイン制御部81は、ユーザによって測定点の設定が行われると、第1の実施形態の内視鏡装置1の処理手順におけるステップS25や、第2の実施形態の内視鏡装置1の処理手順におけるステップS313と同様に、操作部82から、ユーザの操作によって設定された測定点の位置を表す情報を取得する(ステップS323)。 Subsequently, the main control unit 81 reads out the color depth map stored in the RAM 83 in step S321 and outputs it to the monitor 87 (step S322). As a result, the monitor 87 displays the image of the color depth map input from the main control unit 81 as an image of the test object for setting measurement points when performing three-dimensional measurement. Then, the user of the endoscope apparatus 1 operates the operation unit 82 while checking the image of the color depth map displayed on the monitor 87, and sets the measurement points for performing the desired three-dimensional measurement. .. The image of the color depth map displayed on the monitor 87 in step S312 is also a three-dimensional image, as in the endoscope apparatus 1 of the second embodiment. Therefore, the user can set the measurement point at a desired position while confirming the shape of the test object displayed on the monitor 87, as in the endoscopic device 1 of the second embodiment. After that, when the measurement point is set by the user, the main control unit 81 performs step S25 in the processing procedure of the endoscope apparatus 1 of the first embodiment or the endoscope apparatus 1 of the second embodiment. Similar to step S313 in the processing procedure, the information indicating the position of the measurement point set by the user operation is acquired from the operation unit 82 (step S323).
続いて、メイン制御部81は、ステップS31〜ステップS33において、第1の実施形態および第2の実施形態の内視鏡装置1における処理手順と同様に、ユーザによって設定された測定点の位置(座標(x,y))に対応する3次元点群データの画素データ(x,y,z)を取得して3次元の計測を実行し、実行した3次元の計測結果をモニタ87に出力して計測モードにおける処理を終了する。これにより、ユーザは、第1の実施形態および第2の実施形態の内視鏡装置1における処理手順と同様に、所望する3次元の計測の結果を確認することができる。 Subsequently, in steps S31 to S33, the main control unit 81, similar to the processing procedure in the endoscope apparatus 1 of the first and second embodiments, the position of the measurement point set by the user ( The pixel data (x, y, z) of the three-dimensional point group data corresponding to the coordinates (x, y) is acquired, three-dimensional measurement is executed, and the executed three-dimensional measurement result is output to the monitor 87. Then, the process in the measurement mode ends. Accordingly, the user can confirm the desired three-dimensional measurement result, as in the processing procedure in the endoscope apparatus 1 according to the first and second embodiments.
本第3の実施形態によれば、3次元計測部(メイン制御部81)は、3次元形状復元処理において、生成した3次元画素情報(3次元点群データの画素データ)に基づいて被検物の奥行きを表した深さ画像(デプスマップ)を生成し、生成したデプスマップを3次元計測画像とする内視鏡システム(内視鏡装置1)が構成される。 According to the third embodiment, the three-dimensional measurement unit (main control unit 81) performs the inspection based on the generated three-dimensional pixel information (pixel data of three-dimensional point cloud data) in the three-dimensional shape restoration process. An endoscope system (endoscope device 1) is configured that generates a depth image (depth map) representing the depth of an object and uses the generated depth map as a three-dimensional measurement image.
上記に述べたように、第3の実施形態の内視鏡装置1では、計測モードにおいて取得した計測モード画像に対する3次元形状復元処理によって生成した3次元点群データに基づいて、デプスマップを生成する。さらに、第3の実施形態の内視鏡装置1では、生成したデプスマップに、このデプスマップを生成した計測モード画像と同じ計測モード画像から生成した色再現画像に含まれる色の情報を重畳してカラーのデプスマップ(3次元画像)を生成する。そして、第3の実施形態の内視鏡装置1では、生成した被検物のカラーのデプスマップの画像を、3次元の計測を行う際の測定点を設定するための被検物の画像として表示する。つまり、第3の実施形態の内視鏡装置1でも、第1の実施形態および第2の実施形態の内視鏡装置1と同様に、3次元の計測を行う画像と同じ画像から生成した画像を、測定点を設定するための被検物の画像として表示する。そして、第3の実施形態の内視鏡装置1でも、第2の実施形態の内視鏡装置1と同様に、表示された被検物の3次元画像を回転させるなど、ユーザによる測定点の設定を補助する機能によって被検物の形状を確認しながら、詳細な位置に測定点を設定することができる。このことにより、第3の実施形態の内視鏡装置1でも、第1の実施形態および第2の実施形態の内視鏡装置1と同様に、3次元の計測を正確に行った計測結果を得ることができる。 As described above, in the endoscope apparatus 1 of the third embodiment, the depth map is generated based on the three-dimensional point cloud data generated by the three-dimensional shape restoration process for the measurement mode image acquired in the measurement mode. To do. Furthermore, in the endoscope apparatus 1 of the third embodiment, the generated depth map is superimposed with the color information included in the color reproduction image generated from the measurement mode image that is the same as the measurement mode image that generated this depth map. To generate a color depth map (three-dimensional image). Then, in the endoscope apparatus 1 according to the third embodiment, the generated color depth map image of the test object is used as an image of the test object for setting a measurement point when performing three-dimensional measurement. indicate. That is, also in the endoscope apparatus 1 of the third embodiment, an image generated from the same image as the image for performing three-dimensional measurement, as in the endoscope apparatus 1 of the first embodiment and the second embodiment. Is displayed as an image of a test object for setting a measurement point. Then, also in the endoscope apparatus 1 of the third embodiment, similar to the endoscope apparatus 1 of the second embodiment, the measurement point by the user such as rotating the three-dimensional image of the displayed object is measured. It is possible to set measurement points at detailed positions while confirming the shape of the object to be inspected by the function of assisting the setting. As a result, even in the endoscope apparatus 1 of the third embodiment, the measurement result obtained by accurately performing the three-dimensional measurement is obtained as in the endoscope apparatus 1 of the first embodiment and the second embodiment. Obtainable.
<第4の実施形態>
次に、本発明の第4の実施形態の内視鏡システムについて説明する。第1の実施形態〜第3の実施形態の内視鏡システム(内視鏡装置1)では、3次元の計測を行う際の測定点を設定するためにモニタ87に表示する被検物の画像が、カラーの画像である場合について説明した。しかし、3次元の計測を行う際の測定点を設定するための被検物の画像は、カラーの画像に限定されるものではなく、モノクロの画像、つまり、グレースケールの画像であってもよい。第4の実施形態の内視鏡システムは、ユーザがモノクロの画像に対して測定点を設定する内視鏡システムである。なお、第4の実施形態の内視鏡システムも、工業用の内視鏡装置である場合について説明する。
<Fourth Embodiment>
Next, an endoscope system according to the fourth embodiment of the present invention will be described. In the endoscope system (endoscope device 1) of the first to third embodiments, the image of the object to be displayed on the monitor 87 for setting the measurement points when performing three-dimensional measurement. However, the case where the image is a color image has been described. However, the image of the test object for setting the measurement points when performing three-dimensional measurement is not limited to a color image, and may be a monochrome image, that is, a grayscale image. .. The endoscope system of the fourth embodiment is an endoscope system in which a user sets measurement points on a monochrome image. The case where the endoscope system of the fourth embodiment is also an industrial endoscope apparatus will be described.
第4の実施形態の内視鏡装置の構成は、図1に示した第1の実施形態の内視鏡装置1の構成と同様である。従って、第4の実施形態の内視鏡装置の構成に関する詳細な説明は省略し、以下の説明においては、第4の実施形態の内視鏡装置における3次元の計測の処理について説明する。なお、以下の説明においても、第4の実施形態の内視鏡装置の構成要素を表すときには、図1に示した第1の実施形態の内視鏡装置1の構成要素と同一の符号を用いて説明する。 The configuration of the endoscope apparatus of the fourth embodiment is similar to that of the endoscope apparatus 1 of the first embodiment shown in FIG. Therefore, detailed description of the configuration of the endoscope apparatus of the fourth embodiment will be omitted, and in the following description, a three-dimensional measurement process in the endoscope apparatus of the fourth embodiment will be described. Note that, also in the following description, when the constituent elements of the endoscope apparatus of the fourth embodiment are represented, the same reference numerals as those of the constituent elements of the endoscope apparatus 1 of the first embodiment shown in FIG. 1 are used. Explain.
図7は、本発明の第4の実施形態による内視鏡システム(内視鏡装置1)における処理手順を示したフローチャートである。図7には、図4〜図6に示した第1の実施形態〜第3の実施形態の内視鏡装置1における処理手順と同様に、計測モードにおける処理手順を示している。なお、以下の説明においても、第1の実施形態〜第3の実施形態の内視鏡装置1と同様に、照明光源61が白色LED光源であり、パターン投影光源71が赤色の波長帯域のレーザー光源であるものとして説明する。 FIG. 7 is a flowchart showing a processing procedure in the endoscope system (endoscope device 1) according to the fourth embodiment of the present invention. FIG. 7 shows a processing procedure in the measurement mode, similar to the processing procedure in the endoscope apparatus 1 of the first to third embodiments shown in FIGS. 4 to 6. In the following description, the illumination light source 61 is a white LED light source and the pattern projection light source 71 is a laser in the red wavelength band, as in the endoscope devices 1 of the first to third embodiments. Description will be given assuming that the light source is a light source.
内視鏡装置1の動作モードが計測モードになると、メイン制御部81は、ステップS01〜ステップS02において、第1の実施形態〜第3の実施形態の内視鏡装置1における処理手順と同様に、複数の計測モード画像を取得して、それぞれの計測モード画像を色ごとに分離する。そして、メイン制御部81は、第1の実施形態〜第3の実施形態の内視鏡装置1と同様に、3次元形状復元処理と色再現処理とのそれぞれを並列に行う。 When the operation mode of the endoscope apparatus 1 becomes the measurement mode, the main control unit 81, in steps S01 to S02, similarly to the processing procedure in the endoscope apparatus 1 of the first to third embodiments. , Multiple measurement mode images are acquired, and each measurement mode image is separated for each color. Then, the main control unit 81 performs each of the three-dimensional shape restoration processing and the color reproduction processing in parallel, as in the endoscope device 1 of the first to third embodiments.
3次元形状復元処理では、メイン制御部81は、ステップS11〜ステップS14において、第1の実施形態〜第3の実施形態の内視鏡装置1における処理手順と同様の3次元形状復元処理を行って、複数の赤色計測モード画像から3次元点群データを生成し、生成した3次元点群データをRAM83に格納する。 In the three-dimensional shape restoration process, the main control unit 81 performs the same three-dimensional shape restoration process in steps S11 to S14 as the processing procedure in the endoscope device 1 of the first to third embodiments. Then, three-dimensional point cloud data is generated from the plurality of red measurement mode images, and the generated three-dimensional point cloud data is stored in the RAM 83.
一方、色再現処理では、メイン制御部81は、ステップS21において、第1の実施形態〜第3の実施形態の内視鏡装置1における処理手順と同様の縞消し処理を行って、複数の赤色計測モード画像に基づいて構造化パターン(縦縞のパターン)を除去した1つの縞消し画像(モノクロの画像)を生成し、生成した縞消し画像をRAM83に格納する。なお、第4の実施形態の内視鏡装置1では、モノクロの画像を3次元の計測を行う際の測定点を設定するための被検物の画像とするため、メイン制御部81は、第1の実施形態〜第3の実施形態の内視鏡装置1における処理手順で行っていたステップS22の処理とステップS23の処理とを、色再現処理において行わない。つまり、第4の実施形態の内視鏡装置1では、メイン制御部81は、色再現処理において、ノイズ除去処理を行った縞なし画像の生成処理と、縞消し画像と縞なし画像とのそれぞれを合成する色再現画像の生成処理とを行わない。 On the other hand, in the color reproduction process, in step S21, the main control unit 81 performs a striping process similar to the processing procedure in the endoscope device 1 of the first to third embodiments, and a plurality of red colors are obtained. One striped image (monochrome image) from which the structured pattern (vertical stripe pattern) has been removed is generated based on the measurement mode image, and the generated striped image is stored in the RAM 83. In the endoscopic device 1 of the fourth embodiment, since the monochrome image is the image of the test object for setting the measurement point when performing the three-dimensional measurement, the main control unit 81 The processing of step S22 and the processing of step S23, which are performed in the processing procedure in the endoscope apparatus 1 of the first to third embodiments, are not performed in the color reproduction processing. In other words, in the endoscope apparatus 1 of the fourth embodiment, the main control unit 81 generates the stripe-free image for which noise removal processing has been performed in the color reproduction processing, and the striped image and the stripe-free image, respectively. Is not performed.
続いて、メイン制御部81は、ステップS21において生成した縞消し画像をRAM83から読み出して、モニタ87に出力する(ステップS241)。これにより、モニタ87は、メイン制御部81から入力されたモノクロの縞消し画像を、3次元の計測を行う際の測定点を設定するための被検物の画像として表示する。そして、内視鏡装置1のユーザは、モニタ87に表示されたモノクロの縞消し画像を確認しながら操作部82を操作して、所望する3次元の計測を行うための測定点を設定する。その後、メイン制御部81は、ユーザによって測定点の設定が行われると、ステップS25において、第1の実施形態の内視鏡装置1における処理手順と同様に、操作部82から、ユーザの操作によって設定された測定点の位置を表す情報を取得する。 Subsequently, the main control unit 81 reads the striped image generated in step S21 from the RAM 83 and outputs it to the monitor 87 (step S241). As a result, the monitor 87 displays the monochrome striped image input from the main control unit 81 as an image of the test object for setting measurement points when performing three-dimensional measurement. Then, the user of the endoscope apparatus 1 operates the operation unit 82 while confirming the monochrome striped image displayed on the monitor 87, and sets a measurement point for performing desired three-dimensional measurement. After that, when the measurement point is set by the user, the main control unit 81 operates the operation unit 82 to operate the operation unit 82 in step S25 in the same manner as the processing procedure in the endoscope apparatus 1 of the first embodiment. Acquires information indicating the position of the set measurement point.
続いて、メイン制御部81は、ステップS25においてユーザによって設定された測定点の位置の情報を取得すると、ステップS31〜ステップS33において、第1の実施形態〜第3の実施形態の内視鏡装置1における処理手順と同様に、測定点の位置(座標(x,y))に対応する3次元点群データの画素データ(x,y,z)を取得して3次元の計測を実行し、実行した3次元の計測結果をモニタ87に出力して計測モードにおける処理を終了する。これにより、ユーザは、第1の実施形態〜第3の実施形態の内視鏡装置1における処理手順と同様に、所望する3次元の計測の結果を確認することができる。 Subsequently, when the main control unit 81 acquires the information on the position of the measurement point set by the user in step S25, in steps S31 to S33, the endoscope apparatus according to the first to third embodiments. Similar to the processing procedure in 1, the pixel data (x, y, z) of the three-dimensional point group data corresponding to the position of the measurement point (coordinates (x, y)) is acquired, and three-dimensional measurement is executed. The executed three-dimensional measurement result is output to the monitor 87, and the processing in the measurement mode ends. Thereby, the user can confirm the desired three-dimensional measurement result, as in the processing procedure in the endoscope apparatus 1 of the first to third embodiments.
本第4の実施形態によれば、3次元計測部(メイン制御部81)は、3次元形状復元処理と並列に、第1の波長帯域計測画像(赤色計測モード画像)に含まれる計測光の成分を除去した計測光除去画像(赤色画像:縞消し画像)を生成する構造化パターン除去処理(縞消し処理:ステップS21)、を実行し、縞消し画像を設定用画像(被検物の画像)とする内視鏡システム(内視鏡装置1)が構成される。 According to the fourth embodiment, the three-dimensional measurement unit (main control unit 81) performs the measurement light included in the first wavelength band measurement image (red measurement mode image) in parallel with the three-dimensional shape restoration process. Structured pattern removal processing (stripe removal processing: step S21) that generates a measurement light removal image (red image: striped image) in which components have been removed is executed, and the striped image is set as an image for setting (image of the object to be inspected). The endoscope system (endoscope device 1) is defined as follows.
上記に述べたように、第4の実施形態の内視鏡装置1では、モノクロの画像ではあるものの、第1の実施形態〜第3の実施形態の内視鏡装置1と同様に、3次元の計測を行う計測モード画像と同じ画像から生成した画像(縞消し画像)を、3次元の計測を行う際の測定点を設定するための被検物の画像として表示する。これにより、第4の実施形態の内視鏡装置1でも、第1の実施形態〜第3の実施形態の内視鏡装置1と同様に、被検物の画像を確認しながら、所望の位置に測定点を設定することができる。このことにより、第4の実施形態の内視鏡装置1でも、第1の実施形態〜第3の実施形態の内視鏡装置1と同様に、3次元の計測を正確に行った計測結果を得ることができる。 As described above, although the endoscope device 1 of the fourth embodiment is a monochrome image, it is three-dimensional like the endoscope device 1 of the first to third embodiments. An image generated from the same image as the measurement mode image for performing measurement (stripe erased image) is displayed as an image of the test object for setting a measurement point when performing three-dimensional measurement. Thereby, also in the endoscope apparatus 1 of the fourth embodiment, as in the endoscope apparatus 1 of the first to third embodiments, while confirming the image of the object to be inspected, the desired position can be obtained. The measurement point can be set to. As a result, even in the endoscope device 1 of the fourth embodiment, the measurement result obtained by accurately performing the three-dimensional measurement is obtained as in the endoscope device 1 of the first to third embodiments. Obtainable.
さらに、第4の実施形態の内視鏡装置1では、測定点を設定するための被検物の画像がモノクロの縞消し画像であるため、第1の実施形態〜第3の実施形態の内視鏡装置1のようにカラーの画像を生成する色再現処理の演算負荷を小さくすることができる。これにより、第4の実施形態の内視鏡装置1では、第1の実施形態〜第3の実施形態の内視鏡装置1よりも早いタイミングで、測定点を設定するための被検物の画像を表示させることができる。 Furthermore, in the endoscope apparatus 1 of the fourth embodiment, since the image of the object to be inspected for setting the measurement point is a monochrome striped image, one of the first to third embodiments It is possible to reduce the calculation load of color reproduction processing for generating a color image as in the endoscope apparatus 1. As a result, in the endoscope apparatus 1 of the fourth embodiment, the object to be measured for setting the measurement point is earlier than the endoscope apparatus 1 of the first to third embodiments. Images can be displayed.
なお、第4の実施形態の内視鏡装置1では、上述したように、色再現処理において、縞なし画像と色再現画像との生成を行わない。つまり、第4の実施形態の内視鏡装置1では、緑色計測モード画像および青色計測モード画像のそれぞれに基づいた処理を行わない。このため、第4の実施形態の内視鏡装置1では、計測モードにおいて、照明部6による観察光を、計測光と同時に被検物に照射しなくてもよい。すなわち、第4の実施形態の内視鏡装置1では、計測モードの動作をしているとき、光源制御部80は、照明光源61をオフ状態に制御して(消灯して)観察光の被検物への照射を行わないようにしてもよい。この場合、第4の実施形態の内視鏡装置1が計測モードの動作をしているときに被検物に照射される光は計測光のみとなり、計測モードにおいて取得した計測モード画像に対する3次元形状復元処理において、それぞれの赤色計測モード画像に含まれる計測光の階調の変化をより高い精度で判別することができ、3次元点群データを生成する際の空間座標(高さ)の演算をより高い精度で行うことができる。また、この場合に第4の実施形態の内視鏡装置1の計測モードにおいて取得する計測モード画像は、赤色計測モード画像であるため、図7に示した処理手順内のステップS02の処理を行わなくてもよく、処理手順を容易にすることができる。 In addition, in the endoscope apparatus 1 of the fourth embodiment, as described above, in the color reproduction processing, the image without stripes and the color reproduction image are not generated. That is, the endoscope apparatus 1 of the fourth embodiment does not perform the processing based on each of the green measurement mode image and the blue measurement mode image. For this reason, in the endoscope apparatus 1 of the fourth embodiment, the observation light from the illumination unit 6 does not have to be applied to the test object at the same time as the measurement light in the measurement mode. That is, in the endoscope apparatus 1 of the fourth embodiment, when operating in the measurement mode, the light source control unit 80 controls the illumination light source 61 to be in the off state (turns off) and is not exposed to the observation light. Irradiation to the specimen may not be performed. In this case, when the endoscope apparatus 1 according to the fourth embodiment is operating in the measurement mode, the light to be inspected is only the measurement light, and the three-dimensional image for the measurement mode image acquired in the measurement mode is obtained. In the shape restoration process, the change in the gradation of the measurement light included in each red measurement mode image can be discriminated with higher accuracy, and the spatial coordinates (height) can be calculated when generating the three-dimensional point cloud data. Can be performed with higher accuracy. Further, in this case, since the measurement mode image acquired in the measurement mode of the endoscope apparatus 1 of the fourth embodiment is the red measurement mode image, the processing of step S02 in the processing procedure shown in FIG. 7 is performed. It may not be necessary, and the processing procedure can be facilitated.
なお、第4の実施形態の内視鏡装置1では、3次元の計測を行う際の測定点を設定するための被検物の画像として、モノクロの縞消し画像をモニタ87に表示する場合について説明した。つまり、第4の実施形態の内視鏡装置1では、3次元の計測を行う際の測定点を設定するための被検物の画像が2次元の画像である場合について説明した。しかし、第4の実施形態の内視鏡装置1では、モノクロの画像ではあるが、第2の実施形態または第3の実施形態の内視鏡装置1と同様に、ユーザが3次元画像に対して測定点を設定するようにすることもできる。この場合の処理手順は、メイン制御部81が、色再現処理における全ての処理を行わず、3次元形状復元処理によって生成した3次元点群データやデプスマップに対して色再現画像に含まれる色の情報を重畳せずに画像をモニタ87に表示する処理となり、その他の処理手順は、図5に示した第2の実施形態の内視鏡装置1の処理手順、または図6に示した第3の実施形態の内視鏡装置1の処理手順と同様である。なお、計測モードにおいて計測光のみを被検物に照射する場合には、上述したように、ステップS02の処理も行わない処理手順となる。従って、第4の実施形態の内視鏡装置1において、3次元の計測を行う際の測定点を設定するための被検物の画像としてモノクロの3次元画像をモニタ87に表示する場合の処理手順に関する詳細な説明は省略する。 In the endoscopic device 1 according to the fourth embodiment, a case where a monochrome striped image is displayed on the monitor 87 as an image of a test object for setting measurement points when performing three-dimensional measurement explained. That is, in the endoscopic device 1 of the fourth embodiment, the case where the image of the test object for setting the measurement point when performing the three-dimensional measurement is a two-dimensional image has been described. However, in the endoscopic device 1 of the fourth embodiment, although the image is a monochrome image, the user does not see the three-dimensional image as in the endoscopic device 1 of the second embodiment or the third embodiment. It is also possible to set the measurement point by setting. The processing procedure in this case is such that the main control unit 81 does not perform all the processes in the color reproduction process and the colors included in the color reproduction image for the three-dimensional point cloud data and the depth map generated by the three-dimensional shape restoration process. Is a process of displaying an image on the monitor 87 without superimposing the information of No. 1, and the other processing procedure is the processing procedure of the endoscope apparatus 1 of the second embodiment shown in FIG. 5 or the processing procedure of FIG. It is the same as the processing procedure of the endoscope apparatus 1 of the third embodiment. In the measurement mode, when irradiating only the measurement light on the object to be inspected, the processing procedure does not include the processing of step S02 as described above. Therefore, in the endoscope apparatus 1 according to the fourth embodiment, a process of displaying a monochrome three-dimensional image on the monitor 87 as an image of a test object for setting a measurement point when performing three-dimensional measurement. Detailed description of the procedure is omitted.
本第4の実施形態によれば、メイン制御部81は、3次元計測画像(3次元画像:3次元点群データまたはデプスマップ)を被検物の画像とする内視鏡装置1が構成される。 According to the fourth embodiment, the main controller 81 configures the endoscope apparatus 1 in which the three-dimensional measurement image (three-dimensional image: three-dimensional point cloud data or depth map) is used as the image of the subject. It
<第5の実施形態>
次に、本発明の第5の実施形態の内視鏡システムについて説明する。第1の実施形態〜第3の実施形態の内視鏡システム(内視鏡装置1)では、3次元の計測を行う際の測定点を設定するためにモニタ87に表示する被検物の画像の色の情報として、3次元の計測を行う画像と同じ画像から生成した色再現画像に含まれる色の情報を使用する場合について説明した。しかし、3次元の計測を行う際の測定点を設定するための被検物の画像における色の情報として、観察モードで撮影した観察モード画像に含まれる色の情報を使用することもできる。第5の実施形態の内視鏡システムは、観察モード画像に含まれる色の情報を、3次元の計測を行う際の測定点を設定するための被検物の画像の色の情報として使用する内視鏡システムである。なお、第5の実施形態の内視鏡システムも、工業用の内視鏡装置である場合について説明する。
<Fifth Embodiment>
Next, an endoscope system according to the fifth embodiment of the present invention will be described. In the endoscope system (endoscope device 1) of the first to third embodiments, the image of the object to be displayed on the monitor 87 for setting the measurement points when performing three-dimensional measurement. The case where the color information included in the color reproduction image generated from the same image as the image on which the three-dimensional measurement is performed has been described as the color information of. However, the color information included in the observation mode image captured in the observation mode can also be used as the color information in the image of the test object for setting the measurement points when performing three-dimensional measurement. The endoscope system of the fifth embodiment uses the color information included in the observation mode image as the color information of the image of the object to be measured for setting the measurement point when performing the three-dimensional measurement. It is an endoscope system. The case where the endoscope system of the fifth embodiment is also an industrial endoscope apparatus will be described.
第5の実施形態の内視鏡装置の構成は、図1に示した第1の実施形態の内視鏡装置1の構成と同様である。従って、第5の実施形態の内視鏡装置の構成に関する詳細な説明は省略し、以下の説明においては、第5の実施形態の内視鏡装置における3次元の計測の処理について説明する。なお、以下の説明においても、第5の実施形態の内視鏡装置の構成要素を表すときには、図1に示した第1の実施形態の内視鏡装置1の構成要素と同一の符号を用いて説明する。 The configuration of the endoscope apparatus of the fifth embodiment is similar to that of the endoscope apparatus 1 of the first embodiment shown in FIG. Therefore, a detailed description of the configuration of the endoscope apparatus of the fifth embodiment will be omitted, and in the following description, a three-dimensional measurement process in the endoscope apparatus of the fifth embodiment will be described. Note that, also in the following description, when the constituent elements of the endoscope apparatus of the fifth embodiment are represented, the same reference numerals as those of the constituent elements of the endoscope apparatus 1 of the first embodiment shown in FIG. 1 are used. Explain.
図8は、本発明の第5の実施形態による内視鏡システム(内視鏡装置1)における処理手順を示したフローチャートである。図8には、図4〜図7に示した第1の実施形態〜第4の実施形態の内視鏡装置1における処理手順と同様に、計測モードにおける処理手順を示している。なお、以下の説明においても、第1の実施形態〜第4の実施形態の内視鏡装置1と同様に、照明光源61が白色LED光源であり、パターン投影光源71が赤色の波長帯域のレーザー光源であるものとして説明する。 FIG. 8 is a flowchart showing a processing procedure in the endoscope system (endoscope device 1) according to the fifth embodiment of the present invention. FIG. 8 shows a processing procedure in the measurement mode, similar to the processing procedure in the endoscope apparatus 1 of the first to fourth embodiments shown in FIGS. 4 to 7. In the following description, the illumination light source 61 is a white LED light source and the pattern projection light source 71 is a laser in the red wavelength band, as in the endoscope devices 1 of the first to fourth embodiments. Description will be given assuming that the light source is a light source.
内視鏡装置1の動作モードが計測モードになると、メイン制御部81は、ステップS01において、第1の実施形態〜第4の実施形態の内視鏡装置1における処理手順と同様に、複数の計測モード画像を取得する。続いて、メイン制御部81は、事前に取得した観察モード画像、例えば、計測モードに移行する前の観察モードの期間において最後に撮影されてRAM83に格納された観察モード画像を読み出す(取得する)(ステップS011)。続いて、メイン制御部81は、ステップS02において、第1の実施形態〜第4の実施形態の内視鏡装置1における処理手順と同様に、RAM83に格納したそれぞれの計測モード画像を読み出して、それぞれの計測モード画像を色ごとに分離する。そして、メイン制御部81は、第1の実施形態〜第4の実施形態の内視鏡装置1と同様に、3次元形状復元処理と色再現処理とのそれぞれを並列に行う。 When the operation mode of the endoscope apparatus 1 is changed to the measurement mode, the main control unit 81 determines in step S01 the same as the processing procedure in the endoscope apparatus 1 of the first to fourth embodiments. Acquire the measurement mode image. Subsequently, the main control unit 81 reads out (acquires) an observation mode image acquired in advance, for example, an observation mode image last captured and stored in the RAM 83 in the observation mode period before shifting to the measurement mode. (Step S011). Subsequently, in step S02, the main control unit 81 reads out each measurement mode image stored in the RAM 83, similarly to the processing procedure in the endoscope apparatus 1 of the first to fourth embodiments, Each measurement mode image is separated for each color. Then, the main control unit 81 performs the three-dimensional shape restoration process and the color reproduction process in parallel, as in the endoscope device 1 according to the first to fourth embodiments.
3次元形状復元処理では、メイン制御部81は、ステップS11〜ステップS14において、第1の実施形態〜第4の実施形態の内視鏡装置1における処理手順と同様の3次元形状復元処理を行って、複数の赤色計測モード画像から3次元点群データを生成し、生成した3次元点群データをRAM83に格納する。 In the three-dimensional shape restoration process, the main control unit 81 performs the three-dimensional shape restoration process similar to the processing procedure in the endoscope device 1 of the first to fourth embodiments in steps S11 to S14. Then, three-dimensional point cloud data is generated from the plurality of red measurement mode images, and the generated three-dimensional point cloud data is stored in the RAM 83.
一方、色再現処理では、メイン制御部81は、取得した観察モード画像に含まれるそれぞれの画素の色の情報(以下、「色情報」という)を抽出し、抽出した画素ごとの色情報をRAM83に格納する(ステップS261)。 On the other hand, in the color reproduction process, the main control unit 81 extracts color information of each pixel (hereinafter, referred to as “color information”) included in the acquired observation mode image, and the extracted color information of each pixel is stored in the RAM 83. (Step S261).
続いて、メイン制御部81は、ステップS14において生成した3次元点群データと、ステップS261において抽出した色情報とのそれぞれをRAM83から読み出し、3次元点群データに含まれるそれぞれの画素データと、色情報との位置のずれを検出する。そして、メイン制御部81は、検出した位置のずれに基づいて、色情報の位置を3次元点群データに含まれるそれぞれの画素データの位置に合わせる補正を行い、補正後の色情報を再びRAM83に格納する(ステップS331)。例えば、ステップS331の処理では、メイン制御部81は、ずれの検出処理において、3次元点群データに含まれる被検物において特徴的な形状を表している画素の位置(座標)と、色情報を抽出した観察モード画像に含まれる被検物において特徴的な形状を表している画素の位置(座標)との差を、画素データと色情報との位置のずれとして検出する。そして、メイン制御部81は、ずれの補正処理において、全ての色情報の位置(座標)を、ずれをなくした位置(座標)に変更し、再びRAM83に格納する。 Subsequently, the main control unit 81 reads each of the three-dimensional point cloud data generated in step S14 and the color information extracted in step S261 from the RAM 83, and each pixel data included in the three-dimensional point cloud data, The displacement of the color information is detected. Then, the main control unit 81 performs a correction to match the position of the color information with the position of each pixel data included in the three-dimensional point group data based on the detected position shift, and the corrected color information is again stored in the RAM 83. (Step S331). For example, in the process of step S331, the main control unit 81, in the shift detection process, the position (coordinates) of the pixel representing the characteristic shape of the object included in the three-dimensional point group data, and the color information. The difference between the position (coordinates) of the pixel representing the characteristic shape of the object included in the extracted observation mode image is detected as the positional shift between the pixel data and the color information. Then, the main control unit 81 changes the positions (coordinates) of all the color information to the positions (coordinates) in which the deviation has been eliminated in the deviation correction processing, and stores the positions in the RAM 83 again.
続いて、メイン制御部81は、3次元点群データに含まれるハレーションなどの領域(以下、「ハレーション領域」という)を抽出し、抽出したハレーション領域の情報を、RAM83に格納する(ステップS332)。 Subsequently, the main control unit 81 extracts a region such as halation included in the three-dimensional point cloud data (hereinafter, referred to as “halation region”), and stores information on the extracted halation region in the RAM 83 (step S332). ..
続いて、メイン制御部81は、ステップS331においてずれを補正した色情報と、ステップS332において抽出したハレーション領域の情報とをRAM83から読み出し、読み出したハレーション領域の情報に基づいて、ハレーション領域内に位置する色情報を補正する。そして、メイン制御部81は、補正後の色情報を再びRAM83に格納する(ステップS333)。より具体的には、メイン制御部81は、ハレーション領域の範囲内(座標で表される範囲内)に位置する色情報を、ハレーションなどが発生していることを表す色の情報、例えば、白色または黒色に変更し、再びRAM83に格納する。これにより、内視鏡装置1のユーザは、モニタ87に表示された画像から、ハレーションによる白飛びや黒つぶれなどを確認することができる。 Subsequently, the main control unit 81 reads the color information in which the misregistration is corrected in step S331 and the halation area information extracted in step S332 from the RAM 83, and positions the color information in the halation area based on the read halation area information. Correct the color information. Then, the main controller 81 stores the corrected color information in the RAM 83 again (step S333). More specifically, the main control unit 81 sets the color information located within the range of the halation region (within the range represented by the coordinates) to the color information indicating that halation or the like is occurring, for example, white color. Alternatively, it is changed to black and stored again in the RAM 83. This allows the user of the endoscope apparatus 1 to check the image displayed on the monitor 87 for whiteout or blackout due to halation.
続いて、メイン制御部81は、ステップS14において生成した3次元点群データと、ステップS333において補正した色情報とのそれぞれをRAM83から読み出し、3次元点群データに含まれるそれぞれの画素データに色情報を重畳した3次元画像を生成し、生成した3次元画像を再びRAM83に格納する(ステップS334)。より具体的には、メイン制御部81は、3次元点群データに含まれるそれぞれの画素データの水平方向xおよび垂直方向yの座標と、それぞれの色情報の水平方向xおよび垂直方向yの座標とを照合し、同じ座標(x,y)に位置する3次元点群データの画素データ(x,y,z)に、対応する色情報(r,g,b)を付加する。これにより、3次元点群データは、第2の実施形態の内視鏡装置1における3次元点群データと同様に、水平方向x、垂直方向y、および高さ方向zに加えて、赤色の情報r、緑色の情報g、および青色の情報bを含んだカラーの3次元画像の画素データとなる。なお、3次元点群データの画素データには、第2の実施形態の内視鏡装置1における3次元点群データと同様に、例えば、可視度の情報などの色以外の情報を付加してもよい。 Subsequently, the main control unit 81 reads out the three-dimensional point group data generated in step S14 and the color information corrected in step S333 from the RAM 83, and colors the pixel data included in the three-dimensional point group data. A three-dimensional image on which information is superimposed is generated, and the generated three-dimensional image is stored again in the RAM 83 (step S334). More specifically, the main controller 81 controls the horizontal x and vertical y coordinates of each pixel data included in the three-dimensional point cloud data and the horizontal x and vertical y coordinates of each color information. And the corresponding color information (r, g, b) is added to the pixel data (x, y, z) of the three-dimensional point group data located at the same coordinates (x, y). As a result, the three-dimensional point cloud data has a red color in addition to the horizontal direction x, the vertical direction y, and the height direction z, similarly to the three-dimensional point cloud data in the endoscope apparatus 1 of the second embodiment. It becomes pixel data of a color three-dimensional image including information r, green information g, and blue information b. Note that the pixel data of the three-dimensional point cloud data is added with information other than color, such as visibility information, for example, as in the three-dimensional point cloud data in the endoscope apparatus 1 according to the second embodiment. Good.
続いて、メイン制御部81は、ステップS334においてRAM83に格納した3次元画像を読み出して、モニタ87に出力する(ステップS312)。これにより、モニタ87は、メイン制御部81から入力された3次元画像を、3次元の計測を行う際の測定点を設定するための被検物の画像として表示する。そして、内視鏡装置1のユーザは、モニタ87に表示された3次元画像を確認しながら操作部82を操作して、所望する3次元の計測を行うための測定点を設定する。なお、ユーザは、第2の実施形態の内視鏡装置1と同様に、表示された被検物の3次元画像を回転させるなどによって被検物の形状を確認しながら、所望の位置に測定点を設定することができる。その後、メイン制御部81は、ユーザによって測定点の設定が行われると、操作部82から、ユーザの操作によって設定された測定点の位置を表す情報を取得する(ステップS313)。 Subsequently, the main control unit 81 reads the three-dimensional image stored in the RAM 83 in step S334 and outputs it to the monitor 87 (step S312). As a result, the monitor 87 displays the three-dimensional image input from the main control unit 81 as an image of the test object for setting measurement points when performing three-dimensional measurement. Then, the user of the endoscope apparatus 1 operates the operation unit 82 while confirming the three-dimensional image displayed on the monitor 87, and sets a measurement point for performing desired three-dimensional measurement. It should be noted that, similarly to the endoscope apparatus 1 according to the second embodiment, the user measures the desired position while confirming the shape of the test object by rotating the displayed three-dimensional image of the test object. You can set points. After that, when the measurement point is set by the user, the main control unit 81 acquires information indicating the position of the measurement point set by the operation of the user from the operation unit 82 (step S313).
続いて、メイン制御部81は、ステップS31〜ステップS33において、第1の実施形態〜第4の実施形態の内視鏡装置1における処理手順と同様に、ユーザによって設定された測定点の位置(座標(x,y))に対応する3次元点群データの画素データ(x,y,z)を取得して3次元の計測を実行し、実行した3次元の計測結果をモニタ87に出力して計測モードにおける処理を終了する。これにより、ユーザは、第1の実施形態〜第4の実施形態の内視鏡装置1における処理手順と同様に、所望する3次元の計測の結果を確認することができる。 Subsequently, in step S31 to step S33, the main control unit 81, similarly to the processing procedure in the endoscope apparatus 1 of the first to fourth embodiments, the position of the measurement point set by the user ( The pixel data (x, y, z) of the three-dimensional point group data corresponding to the coordinates (x, y) is acquired, three-dimensional measurement is executed, and the executed three-dimensional measurement result is output to the monitor 87. Then, the processing in the measurement mode ends. Thus, the user can confirm the desired three-dimensional measurement result, as in the processing procedure in the endoscope device 1 according to the first to fourth embodiments.
本第5の実施形態によれば、3次元計測部(メイン制御部81)は、3次元計測画像(3次元点群データ)に、事前に観察光を照射して得た映像に応じた被検物の観察画像(観察モード画像)を重畳した画像(3次元画像)を設定用画像(被検物の画像)とする内視鏡システム(内視鏡装置1)が構成される。 According to the fifth embodiment, the three-dimensional measurement unit (main control unit 81) causes the three-dimensional measurement image (three-dimensional point cloud data) to be irradiated with the observation light in advance, and the object corresponding to the image obtained. An endoscope system (endoscope device 1) is configured in which an image (three-dimensional image) on which an observation image (observation mode image) of an inspection object is superimposed is used as a setting image (image of the inspection object).
上記に述べたように、第5の実施形態の内視鏡装置1では、事前に取得した観察モード画像に含まれる色情報を、計測モードにおいて取得した計測モード画像に対する3次元形状復元処理によって生成した3次元点群データに重畳して3次元画像を生成する。そして、第5の実施形態の内視鏡装置1では、生成した被検物の3次元画像を、3次元の計測を行う際の測定点を設定するための被検物の画像として表示する。つまり、第5の実施形態の内視鏡装置1でも、第1の実施形態〜第4の実施形態の内視鏡装置1と同様に、3次元の計測を行う画像と同じ画像から生成した画像を、測定点を設定するための被検物の画像として表示する。そして、第5の実施形態の内視鏡装置1では、表示された被検物の3次元画像を回転させるなど、ユーザによる測定点の設定を補助する機能によって被検物の形状を確認しながら、3次元の計測を行うために計測モードにおいて取得した計測モード画像に1対1で対応する位置に測定点を設定することができる。このことにより、第5の実施形態の内視鏡装置1でも、第1の実施形態〜第4の実施形態の内視鏡装置1と同様に、3次元の計測を正確に行った計測結果を得ることができる。 As described above, in the endoscope apparatus 1 according to the fifth embodiment, the color information included in the observation mode image acquired in advance is generated by the three-dimensional shape restoration process for the measurement mode image acquired in the measurement mode. A three-dimensional image is generated by superimposing it on the three-dimensional point cloud data. Then, in the endoscope apparatus 1 of the fifth embodiment, the generated three-dimensional image of the test object is displayed as an image of the test object for setting measurement points when performing three-dimensional measurement. That is, also in the endoscope device 1 of the fifth embodiment, an image generated from the same image as the image for performing three-dimensional measurement, as in the endoscope devices 1 of the first to fourth embodiments. Is displayed as an image of a test object for setting a measurement point. Then, in the endoscope apparatus 1 of the fifth embodiment, while confirming the shape of the test object by a function of assisting the setting of the measurement point by the user, such as rotating the displayed three-dimensional image of the test object. In order to perform three-dimensional measurement, it is possible to set measurement points at positions corresponding to the measurement mode image acquired in the measurement mode on a one-to-one basis. As a result, even in the endoscope apparatus 1 of the fifth embodiment, the measurement result obtained by accurately performing the three-dimensional measurement is obtained as in the endoscope apparatus 1 of the first to fourth embodiments. Obtainable.
しかも、第5の実施形態の内視鏡装置1では、測定点を設定するための被検物の画像の色情報を、観察モードにおいて事前に取得した観察モード画像から抽出するため、赤色(R)、緑色(G)、および青色(B)のそれぞれの色のレベルが、白色の照明光(観察光)を被検物が反射したときの色のレベルである。このため、第5の実施形態の内視鏡装置1では、観察モード画像と同等の色のレベルで、測定点を設定するための被検物の画像を表示させることができる。 Moreover, in the endoscope apparatus 1 according to the fifth embodiment, since the color information of the image of the object for setting the measurement point is extracted from the observation mode image acquired in advance in the observation mode, the red (R ), green (G), and blue (B) are the color levels when the object reflects white illumination light (observation light). Therefore, the endoscope apparatus 1 according to the fifth embodiment can display the image of the test object for setting the measurement point at the same color level as the observation mode image.
なお、第5の実施形態の内視鏡装置1では、上述したように、観察モードにおいて事前に取得した観察モード画像から抽出した色情報を、計測モードにおいて取得した計測モード画像に対する3次元形状復元処理によって生成した3次元点群データに重畳して表示している。つまり、第5の実施形態の内視鏡装置1では、計測モードにおいて取得した計測モード画像に基づいた色再現処理を行っていない。このため、第5の実施形態の内視鏡装置1では、計測モードにおいて、照明部6による観察光を、計測光と同時に被検物に照射しなくてもよく、計測モードの動作をしているときに光源制御部80は、照明光源61をオフ状態に制御して(消灯して)観察光の被検物への照射を行わないようにしてもよい。すなわち、第5の実施形態の内視鏡装置1が計測モードの動作をしているときに被検物に照射される光を計測光のみとすることができる。このことにより、第5の実施形態の内視鏡装置1では、計測モードにおいて取得した計測モード画像に対して3次元形状復元処理を行う際に、それぞれの赤色計測モード画像に含まれる計測光の階調の変化をより高い精度で判別することができ、3次元点群データを生成する際の空間座標(高さ)の演算をより高い精度で行うことができる。また、図8に示した第5の実施形態の内視鏡装置1の処理手順内のステップS02の処理を行わなくてもよく、処理手順を容易にすることができる。 In the endoscope apparatus 1 of the fifth embodiment, as described above, the color information extracted from the observation mode image acquired in advance in the observation mode is used to restore the three-dimensional shape of the measurement mode image acquired in the measurement mode. It is displayed by being superimposed on the three-dimensional point cloud data generated by the processing. That is, the endoscope apparatus 1 according to the fifth embodiment does not perform the color reproduction process based on the measurement mode image acquired in the measurement mode. Therefore, in the endoscope apparatus 1 of the fifth embodiment, in the measurement mode, it is not necessary to irradiate the observation light from the illumination unit 6 to the test object at the same time as the measurement light, and the operation in the measurement mode is performed. The light source control unit 80 may control the illumination light source 61 to be in the off state (turn off the light) so as not to irradiate the test light with the observation light. That is, it is possible to make only the measurement light the light with which the test object is irradiated when the endoscope apparatus 1 of the fifth embodiment is operating in the measurement mode. As a result, in the endoscope apparatus 1 of the fifth embodiment, when the three-dimensional shape restoration process is performed on the measurement mode image acquired in the measurement mode, the measurement light included in each red measurement mode image The change in gradation can be determined with higher accuracy, and the calculation of spatial coordinates (height) when generating the three-dimensional point cloud data can be performed with higher accuracy. Further, the processing of step S02 in the processing procedure of the endoscope apparatus 1 of the fifth embodiment shown in FIG. 8 does not have to be performed, and the processing procedure can be simplified.
なお、第5の実施形態の内視鏡装置1では、ステップS011において取得する観察モード画像が、計測モードに移行する前の観察モードの期間において最後に撮影されてRAM83に格納された観察モード画像である場合について説明した。しかし、ステップS011において取得する観察モード画像は、観察モードにおいてRAM83に格納された観察モード画像に限定されるものではない。例えば、計測モードに移行した後、最初に観察光を被検物に照射することによって、観察モードの期間に取得する観察モード画像と同様の画像を、ステップS011において取得する観察モード画像としてもよい。この場合、図8に示したフローチャートにおけるステップS01とステップS011との順番を入れ替えてもよい。 In the endoscopic device 1 of the fifth embodiment, the observation mode image acquired in step S011 is the last observation image captured in the observation mode image before shifting to the measurement mode and stored in the RAM 83. The case has been described. However, the observation mode image acquired in step S011 is not limited to the observation mode image stored in the RAM 83 in the observation mode. For example, an image similar to the observation mode image acquired in the observation mode period by first irradiating the test object with the observation light after shifting to the measurement mode may be the observation mode image acquired in step S011. .. In this case, the order of step S01 and step S011 in the flowchart shown in FIG. 8 may be exchanged.
<第6の実施形態>
次に、本発明の第6の実施形態の内視鏡システムについて説明する。第6の実施形態の内視鏡システムも、第5の実施形態の内視鏡システム(内視鏡装置1)と同様に、観察モード画像に含まれる色情報を、3次元の計測を行う際の測定点を設定するための被検物の画像の色の情報として使用する内視鏡システムである。ただし、第6の実施形態の内視鏡システムは、被検物の画像の色の情報として観察モード画像を使用する形式が、第5の実施形態の内視鏡システム(内視鏡装置1)と異なる。なお、第6の実施形態の内視鏡システムも、工業用の内視鏡装置である場合について説明する。
<Sixth Embodiment>
Next, an endoscope system according to the sixth embodiment of the present invention will be described. Similarly to the endoscope system (endoscope device 1) of the fifth embodiment, the endoscope system of the sixth embodiment also performs three-dimensional measurement of the color information included in the observation mode image. The endoscope system is used as color information of an image of an object to be measured for setting the measurement points. However, in the endoscope system of the sixth embodiment, the format of using the observation mode image as the color information of the image of the subject is the endoscope system of the fifth embodiment (endoscope device 1). Different from The endoscopic system according to the sixth embodiment is also described as being an industrial endoscopic device.
第6の実施形態の内視鏡装置の構成は、図1に示した第1の実施形態の内視鏡装置1の構成と同様である。従って、第6の実施形態の内視鏡装置の構成に関する詳細な説明は省略し、以下の説明においては、第6の実施形態の内視鏡装置における3次元の計測の処理について説明する。なお、以下の説明においても、第6の実施形態の内視鏡装置の構成要素を表すときには、図1に示した第1の実施形態の内視鏡装置1の構成要素と同一の符号を用いて説明する。 The configuration of the endoscope apparatus of the sixth embodiment is similar to the configuration of the endoscope apparatus 1 of the first embodiment shown in FIG. Therefore, a detailed description of the configuration of the endoscope apparatus of the sixth embodiment will be omitted, and in the following description, a three-dimensional measurement process in the endoscope apparatus of the sixth embodiment will be described. Note that, also in the following description, when the constituent elements of the endoscope apparatus of the sixth embodiment are represented, the same reference numerals as those of the constituent elements of the endoscope apparatus 1 of the first embodiment shown in FIG. 1 are used. Explain.
図9は、本発明の第6の実施形態による内視鏡システム(内視鏡装置1)における処理手順を示したフローチャートである。図9には、図4〜図8に示した第1の実施形態〜第5の実施形態の内視鏡装置1における処理手順と同様に、計測モードにおける処理手順を示している。なお、以下の説明においても、第1の実施形態〜第5の実施形態の内視鏡装置1と同様に、照明光源61が白色LED光源であり、パターン投影光源71が赤色の波長帯域のレーザー光源であるものとして説明する。 FIG. 9 is a flowchart showing a processing procedure in the endoscope system (endoscope device 1) according to the sixth embodiment of the present invention. FIG. 9 shows a processing procedure in the measurement mode, similar to the processing procedure in the endoscope device 1 of the first to fifth embodiments shown in FIGS. 4 to 8. In the following description, the illumination light source 61 is a white LED light source and the pattern projection light source 71 is a laser in the red wavelength band, as in the endoscope devices 1 of the first to fifth embodiments. Description will be given assuming that the light source is a light source.
内視鏡装置1の動作モードが計測モードになると、メイン制御部81は、ステップS01〜ステップS02において、図8に示した第5の実施形態の内視鏡装置1における処理手順と同様に、複数の計測モード画像と、事前に取得した観察モード画像とのそれぞれを取得し、取得した計測モード画像を色ごとに分離する。そして、メイン制御部81は、第5の実施形態の内視鏡装置1と同様に、3次元形状復元処理と色再現処理とのそれぞれを並列に行う。 When the operation mode of the endoscope apparatus 1 becomes the measurement mode, the main control unit 81, in steps S01 to S02, similarly to the processing procedure in the endoscope apparatus 1 of the fifth embodiment shown in FIG. Each of a plurality of measurement mode images and an observation mode image acquired in advance is acquired, and the acquired measurement mode images are separated for each color. Then, the main control unit 81 performs each of the three-dimensional shape restoration processing and the color reproduction processing in parallel, as in the endoscope device 1 of the fifth embodiment.
3次元形状復元処理では、メイン制御部81は、ステップS11〜ステップS14において、第1の実施形態〜第5の実施形態の内視鏡装置1における処理手順と同様の3次元形状復元処理を行って、複数の赤色計測モード画像から3次元点群データを生成し、生成した3次元点群データをRAM83に格納する。 In the three-dimensional shape restoration processing, the main control unit 81 performs the same three-dimensional shape restoration processing in steps S11 to S14 as the processing procedure in the endoscope device 1 of the first to fifth embodiments. Then, three-dimensional point cloud data is generated from the plurality of red measurement mode images, and the generated three-dimensional point cloud data is stored in the RAM 83.
一方、色再現処理では、メイン制御部81は、取得した観察モード画像に対してノイズ除去処理などの既存の画像処理を行い、処理後の観察モード画像をRAM83に格納する(ステップS271)。 On the other hand, in the color reproduction processing, the main control unit 81 performs existing image processing such as noise removal processing on the acquired observation mode image and stores the processed observation mode image in the RAM 83 (step S271).
続いて、メイン制御部81は、ステップS14において生成した3次元点群データと、ステップS261において処理した観察モード画像とのそれぞれをRAM83から読み出し、3次元点群データに含まれるそれぞれの画素データと、観察モード画像との位置のずれを検出する。そして、メイン制御部81は、検出した位置のずれに基づいて、観察モード画像の位置を3次元点群データに含まれるそれぞれの画素データの位置に合わせる補正を行い、補正後の観察モード画像を再びRAM83に格納する(ステップS341)。例えば、ステップS341の処理では、メイン制御部81は、ずれの検出処理において、3次元点群データに含まれる被検物において特徴的な形状を表している画素の位置(座標)と、処理した観察モード画像に含まれる被検物において特徴的な形状を表している画素の位置(座標)との差を、画素データと観察モード画像との位置のずれとして検出する。そして、メイン制御部81は、ずれの補正処理において、観察モード画像内の全ての画素の位置(座標)を、ずれをなくした位置(座標)に変更し、再びRAM83に格納する。 Subsequently, the main control unit 81 reads each of the three-dimensional point cloud data generated in step S14 and the observation mode image processed in step S261 from the RAM 83, and the respective pixel data included in the three-dimensional point cloud data. , Detecting the positional deviation from the observation mode image. Then, the main control unit 81 performs a correction to match the position of the observation mode image with the position of each pixel data included in the three-dimensional point cloud data based on the detected positional deviation, and the corrected observation mode image is displayed. It is again stored in the RAM 83 (step S341). For example, in the process of step S341, the main control unit 81 processes the position (coordinates) of the pixels representing the characteristic shape of the object included in the three-dimensional point group data in the shift detection process. The difference between the position (coordinates) of the pixel representing the characteristic shape of the test object included in the observation mode image is detected as the positional deviation between the pixel data and the observation mode image. Then, in the shift correction process, the main control unit 81 changes the positions (coordinates) of all the pixels in the observation mode image to the positions (coordinates) where the shift has been eliminated, and stores them in the RAM 83 again.
続いて、メイン制御部81は、ステップS332において、図8に示した第5の実施形態の内視鏡装置1における処理手順と同様に、3次元点群データに含まれるハレーション領域を抽出し、抽出したハレーション領域の情報を、RAM83に格納する。 Subsequently, in step S332, the main control unit 81 extracts the halation region included in the three-dimensional point cloud data, similarly to the processing procedure in the endoscope apparatus 1 of the fifth embodiment shown in FIG. Information on the extracted halation area is stored in the RAM 83.
続いて、メイン制御部81は、ステップS341においてずれを補正した観察モード画像と、ステップS332において抽出したハレーション領域の情報とをRAM83から読み出し、読み出したハレーション領域の情報に基づいて、観察モード画像上にハレーション領域を表示する。そして、メイン制御部81は、ハレーション領域が表示された観察モード画像を再びRAM83に格納する(ステップS343)。より具体的には、メイン制御部81は、観察モード画像に含まれるそれぞれの画素の内、ハレーション領域の範囲内(座標で表される範囲内)に位置する画素の輝度の値を、ハレーションなどが発生していることを表す輝度の値、例えば、白飛びや黒つぶれのレベルの値に変更し、再びRAM83に格納する。これにより、内視鏡装置1のユーザは、モニタ87に表示された画像から、ハレーションによる白飛びや黒つぶれなどを確認することができる。 Subsequently, the main control unit 81 reads the observation mode image in which the shift is corrected in step S341 and the halation region information extracted in step S332 from the RAM 83, and based on the read halation region information, the observation mode image is displayed. Display the halation area on. Then, the main control unit 81 stores the observation mode image in which the halation region is displayed in the RAM 83 again (step S343). More specifically, the main control unit 81 determines, for each pixel included in the observation mode image, the value of the luminance of the pixel located within the range of the halation region (within the range represented by the coordinates), such as halation. Is changed to a value of the brightness indicating that the occurrence of the occurrence of, for example, a value of a whiteout or a blackout level, and is stored in the RAM 83 again. This allows the user of the endoscope apparatus 1 to check the image displayed on the monitor 87 for whiteout or blackout due to halation.
続いて、メイン制御部81は、ステップS14において生成した3次元点群データと、ステップS343においてハレーション領域を表示した観察モード画像とのそれぞれをRAM83から読み出し、3次元点群データに観察モード画像をテクスチャ(質感)として貼り付けた3次元点群データを生成し、生成した3次元点群データを再びRAM83に格納する(ステップS344)。より具体的には、メイン制御部81は、既存の画像処理技術の演算を行って、モノクロの3次元点群データに含まれるそれぞれの画素データに、観察モード画像に含まれるそれぞれの画素の色の情報を重畳することによって、被検物のテクスチャ(質感)を表したカラーの3次元点群データを生成する。 Subsequently, the main control unit 81 reads each of the three-dimensional point cloud data generated in step S14 and the observation mode image displaying the halation area in step S343 from the RAM 83 and sets the observation mode image in the three-dimensional point cloud data. Three-dimensional point cloud data attached as a texture is generated, and the generated three-dimensional point cloud data is stored again in the RAM 83 (step S344). More specifically, the main control unit 81 calculates the color of each pixel included in the observation mode image by performing the calculation of the existing image processing technology and adding each pixel data included in the monochrome three-dimensional point cloud data. By superimposing the above information, color three-dimensional point cloud data representing the texture of the object is generated.
続いて、メイン制御部81は、ステップS334においてRAM83に格納した3次元点群データを読み出して、モニタ87に出力する(ステップS345)。これにより、モニタ87は、メイン制御部81から入力された3次元点群データの画像を、3次元の計測を行う際の測定点を設定するための被検物の画像として表示する。そして、内視鏡装置1のユーザは、モニタ87に表示された3次元点群データの画像を確認しながら操作部82を操作して、所望する3次元の計測を行うための測定点を設定する。なお、ステップS345においてモニタ87に表示される3次元点群データの画像も、第5の実施形態の内視鏡装置1と同様に、被検物の3次元画像である。従って、ユーザは、第5の実施形態の内視鏡装置1と同様に、モニタ87に表示された被検物の形状を確認しながら所望の位置に測定点を設定することができる。その後、メイン制御部81は、ユーザによって測定点の設定が行われると、操作部82から、ユーザの操作によって設定された測定点の位置を表す情報を取得する(ステップS346)。 Subsequently, the main control unit 81 reads the three-dimensional point cloud data stored in the RAM 83 in step S334 and outputs it to the monitor 87 (step S345). As a result, the monitor 87 displays the image of the three-dimensional point cloud data input from the main control unit 81 as an image of the test object for setting the measurement points when performing three-dimensional measurement. Then, the user of the endoscope device 1 operates the operation unit 82 while confirming the image of the three-dimensional point cloud data displayed on the monitor 87, and sets the measurement points for performing the desired three-dimensional measurement. To do. The image of the three-dimensional point cloud data displayed on the monitor 87 in step S345 is also a three-dimensional image of the object to be inspected, as in the endoscope apparatus 1 of the fifth embodiment. Therefore, the user can set the measurement point at a desired position while confirming the shape of the test object displayed on the monitor 87, as in the endoscope apparatus 1 of the fifth embodiment. After that, when the measurement point is set by the user, the main control section 81 acquires information indicating the position of the measurement point set by the operation of the user from the operation section 82 (step S346).
続いて、メイン制御部81は、ステップS31〜ステップS33において、第1の実施形態〜第5の実施形態の内視鏡装置1における処理手順と同様に、ユーザによって設定された測定点の位置(座標(x,y))に対応する3次元点群データの画素データ(x,y,z)を取得して3次元の計測を実行し、実行した3次元の計測結果をモニタ87に出力して計測モードにおける処理を終了する。これにより、ユーザは、第1の実施形態〜第5の実施形態の内視鏡装置1における処理手順と同様に、所望する3次元の計測の結果を確認することができる。 Subsequently, in step S31 to step S33, the main control unit 81, similar to the processing procedure in the endoscope device 1 of the first to fifth embodiments, the position of the measurement point set by the user ( The pixel data (x, y, z) of the three-dimensional point group data corresponding to the coordinates (x, y) is acquired, three-dimensional measurement is executed, and the executed three-dimensional measurement result is output to the monitor 87. Then, the process in the measurement mode ends. This allows the user to confirm the desired three-dimensional measurement result, as in the processing procedure in the endoscope apparatus 1 according to the first to fifth embodiments.
上記に述べたように、第6の実施形態の内視鏡装置1では、事前に取得した観察モード画像を、計測モードにおいて取得した計測モード画像に対する3次元形状復元処理によって生成した3次元点群データに、テクスチャ(質感)として貼り付けてカラーの3次元点群データ(3次元画像)を生成する。そして、第6の実施形態の内視鏡装置1では、生成した3次元点群データの画像を、3次元の計測を行う際の測定点を設定するための被検物の画像として表示する。つまり、第6の実施形態の内視鏡装置1でも、第1の実施形態〜第5の実施形態の内視鏡装置1と同様に、3次元の計測を行う画像と同じ画像から生成した画像を、測定点を設定するための被検物の画像として表示する。しかも、第6の実施形態の内視鏡装置1でも、表示する3次元点群データの画像は、第5の実施形態の内視鏡装置1と同様に、観察モード画像と同等の色のレベルの画像である。そして、第6の実施形態の内視鏡装置1でも、第5の実施形態の内視鏡装置1と同様に、表示された被検物の3次元画像を回転させるなど、ユーザによる測定点の設定を補助する機能によって被検物の形状を確認しながら、所望の位置に測定点を設定することができる。このことにより、第6の実施形態の内視鏡装置1でも、第1の実施形態〜第5の実施形態の内視鏡装置1と同様に、3次元の計測を正確に行った計測結果を得ることができる。 As described above, in the endoscope apparatus 1 according to the sixth embodiment, the three-dimensional point group generated by the three-dimensional shape restoration process for the measurement mode image acquired in the measurement mode from the observation mode image acquired in advance. Color 3D point cloud data (3D image) is generated by pasting as texture onto the data. Then, in the endoscope apparatus 1 of the sixth embodiment, the image of the generated three-dimensional point cloud data is displayed as the image of the test object for setting the measurement points when performing three-dimensional measurement. That is, also in the endoscope device 1 of the sixth embodiment, an image generated from the same image as the image for performing three-dimensional measurement, as in the endoscope devices 1 of the first to fifth embodiments. Is displayed as an image of a test object for setting a measurement point. Moreover, also in the endoscope apparatus 1 of the sixth embodiment, the image of the three-dimensional point cloud data to be displayed has the same color level as that of the observation mode image, as in the endoscope apparatus 1 of the fifth embodiment. Is an image of. Then, also in the endoscope apparatus 1 of the sixth embodiment, similar to the endoscope apparatus 1 of the fifth embodiment, the measurement point by the user is rotated by rotating the three-dimensional image of the displayed test object. It is possible to set the measurement point at a desired position while confirming the shape of the test object by the function of assisting the setting. As a result, even in the endoscope device 1 of the sixth embodiment, the measurement result obtained by accurately performing the three-dimensional measurement is obtained as in the endoscope device 1 of the first to fifth embodiments. Obtainable.
なお、第6の実施形態の内視鏡装置1でも、上述したように、観察モードにおいて事前に取得した観察モード画像を3次元点群データに貼り付けて表示している。つまり、第6の実施形態の内視鏡装置1でも、第5の実施形態の内視鏡装置1と同様に、計測モードにおいて取得した計測モード画像に基づいた色再現処理を行っていない。このため、第6の実施形態の内視鏡装置1でも、計測モードにおいて観察光を被検物に照射せず、被検物に計測光のみを照射することができる。このことにより、第6の実施形態の内視鏡装置1でも、第5の実施形態の内視鏡装置1と同様に、計測モードにおいて取得した計測モード画像に対して3次元形状復元処理を行う際に計測光の階調の変化をより高い精度で判別することができ、3次元点群データを生成する際の空間座標(高さ)の演算をより高い精度で行うことができる。そして、図9に示した第6の実施形態の内視鏡装置1の処理手順内のステップS02の処理を行わずに、処理手順を容易にすることができる。 Note that, also in the endoscope apparatus 1 of the sixth embodiment, as described above, the observation mode image acquired in advance in the observation mode is pasted and displayed on the three-dimensional point cloud data. That is, also in the endoscope apparatus 1 of the sixth embodiment, similar to the endoscope apparatus 1 of the fifth embodiment, color reproduction processing based on the measurement mode image acquired in the measurement mode is not performed. Therefore, even in the endoscope apparatus 1 according to the sixth embodiment, it is possible to irradiate the test object with only the measurement light without irradiating the test object with the observation light in the measurement mode. As a result, also in the endoscope apparatus 1 of the sixth embodiment, the three-dimensional shape restoration process is performed on the measurement mode image acquired in the measurement mode, as in the endoscope apparatus 1 of the fifth embodiment. At this time, the change in the gradation of the measurement light can be determined with higher accuracy, and the calculation of the spatial coordinates (height) when generating the three-dimensional point cloud data can be performed with higher accuracy. Then, the processing procedure can be simplified without performing the processing of step S02 in the processing procedure of the endoscope apparatus 1 of the sixth embodiment shown in FIG.
なお、第6の実施形態の内視鏡装置1では、観察モード画像を3次元点群データに貼り付けて、3次元の計測を行う際の測定点を設定するための被検物の画像としてモニタ87に表示する場合について説明した。しかし、第6の実施形態の内視鏡装置1では、図6に示した第3の実施形態の内視鏡装置1と同様に、3次元形状復元処理によって生成したデプスマップの表面に当たるそれぞれの画素に観察モード画像をテクスチャ(質感)として貼り付けてモニタ87に表示させるようにすることもできる。この場合の処理手順は、メイン制御部81が、図6に示した第3の実施形態の内視鏡装置1と同様に、3次元形状復元処理においてデプスマップを生成し、ステップS344の処理においてデプスマップに観察モード画像を貼り付ける処理を行うのみで、その他の処理手順は、上述した第6の実施形態の内視鏡装置1の処理手順と同様に考えることができる。従って、第6の実施形態の内視鏡装置1において、観察モード画像を貼り付けたデプスマップを3次元の計測を行う際の測定点を設定するための被検物の画像として表示する場合の処理手順に関する詳細な説明は省略する。 In addition, in the endoscope apparatus 1 of the sixth embodiment, the observation mode image is attached to the three-dimensional point cloud data and used as an image of the object to be measured for setting the measurement point when performing three-dimensional measurement. The case of displaying on the monitor 87 has been described. However, in the endoscopic device 1 of the sixth embodiment, as in the endoscopic device 1 of the third embodiment shown in FIG. 6, each of the surfaces that hit the surface of the depth map generated by the three-dimensional shape restoration process. It is also possible to attach an observation mode image to the pixel as a texture and display it on the monitor 87. In the processing procedure in this case, the main control unit 81 generates the depth map in the three-dimensional shape restoration processing, as in the endoscope apparatus 1 of the third embodiment shown in FIG. 6, and in the processing of step S344. Only the process of pasting the observation mode image to the depth map is performed, and the other processing procedure can be considered similar to the processing procedure of the endoscope apparatus 1 of the sixth embodiment described above. Therefore, in the endoscope apparatus 1 of the sixth embodiment, when the depth map to which the observation mode image is attached is displayed as the image of the object to be measured for setting the measurement point when performing the three-dimensional measurement. Detailed description regarding the processing procedure is omitted.
上記に述べたように、本発明を実施するための形態によれば、計測モードにおいて取得した計測モード画像に基づいて3次元の計測を行う。このとき、本発明を実施するための形態では、3次元の計測を行う計測モード画像に基づいて、3次元の計測を行う際の測定点を設定するための被検物の画像を生成して表示する。これにより、本発明を実施するための形態では、3次元の計測を行う画像に含まれるそれぞれの画素の位置に1対1で対応する位置に、測定点を設定することができる。つまり、本発明を実施するための形態では、従来の内視鏡装置のように、3次元の計測を行う画像が異なるタイミングで撮影された画像(実施形態においては、観察モード画像)に対して測定点を設定するのではなく、3次元の計測を行う画像と同じ画像に基づいて生成した画像に測定点を設定することができる。このことにより、本発明を実施するための形態では、3次元の計測を正確に行った計測結果を得ることができる。 As described above, according to the embodiment for carrying out the present invention, three-dimensional measurement is performed based on the measurement mode image acquired in the measurement mode. At this time, in the embodiment for carrying out the present invention, an image of a test object for setting measurement points for performing three-dimensional measurement is generated based on a measurement mode image for performing three-dimensional measurement. indicate. Thereby, in the embodiment for carrying out the present invention, it is possible to set the measurement point at a position corresponding to the position of each pixel included in the image for which the three-dimensional measurement is performed, on a one-to-one basis. That is, in the embodiment for carrying out the present invention, the images (three-dimensional observation images in the embodiment) taken at different timings are used for images for performing three-dimensional measurement as in the conventional endoscope apparatus. Instead of setting the measurement points, the measurement points can be set on an image generated based on the same image as the image on which the three-dimensional measurement is performed. As a result, in the embodiment for carrying out the present invention, it is possible to obtain a measurement result obtained by accurately performing three-dimensional measurement.
また、本発明を実施するための形態では、3次元の計測を行う画像と同じ画像に基づいて生成した画像、すなわち、3次元の計測を行う画像を、3次元の計測を行う際の測定点を設定するための被検物の画像として表示するため、測定点を設定する前に、3次元の計測を行う画像自体を確認することができる。このため、本発明を実施するための形態では、観察モードから計測モードに動作モードが切り替わった際に先端部が動いてしまったことにより計測モード画像の画角が観察モード画像の画角から変化してしまった、つまり、モーションブラーが発生している場合でも、モーションブラーに起因した異なる測定点の位置での3次元の計測を行ってしまうことがなく、所望の測定点の位置での正しい計測結果を得ることができる。また、本発明を実施するための形態では、計測モード画像にハレーションなどが発生していた場合でも、測定点を設定する前に、計測モード画像にハレーションなどが発生していることを確認することができる。これにより、本発明を実施するための形態では、発生しているハレーションなどの状態に応じて、計測モード画像の再撮影やハレーションなどが発生している位置を避けた位置への測定点の設定などを行うことができ、ハレーションなどに起因した誤った3次元の計測を行ってしまうことがなく、所望の測定点の位置での正しい計測結果を得ることができる。 Further, in the embodiment for carrying out the present invention, an image generated based on the same image as the image on which three-dimensional measurement is performed, that is, an image on which three-dimensional measurement is performed is a measurement point when performing three-dimensional measurement. Since it is displayed as an image of the test object for setting, the image itself for performing three-dimensional measurement can be confirmed before setting the measurement point. Therefore, in the embodiment for carrying out the present invention, the angle of view of the measurement mode image changes from the angle of view of the observation mode image due to the movement of the tip when the operation mode is switched from the observation mode to the measurement mode. Even if the motion blur has occurred, there is no need to perform three-dimensional measurement at different measurement point positions due to motion blur, and the correct measurement point position is obtained. The measurement result can be obtained. Further, in the embodiment for carrying out the present invention, even if halation or the like occurs in the measurement mode image, it is necessary to confirm that halation or the like occurs in the measurement mode image before setting the measurement point. You can Accordingly, in the embodiment for carrying out the present invention, the measurement point is set at a position avoiding the position where re-imaging of the measurement mode image or the halation occurs in accordance with the state of the halation that occurs. It is possible to obtain the correct measurement result at the position of the desired measurement point without erroneously performing three-dimensional measurement due to halation or the like.
なお、本実施形態においては、内視鏡システム(内視鏡装置1)に備えたパターン投影光源71が赤色の波長帯域のレーザー光源である、つまり、パターン光(計測光)が赤色である場合について説明した。しかし、光源の種類やパターン光の色(波長帯域)は、本発明を実施するための形態で示したものに限定されるものではなく、上述したように、予め定めた色(波長帯域)のLEDや赤外光であってもよい。 In the present embodiment, the pattern projection light source 71 included in the endoscope system (endoscope device 1) is a laser light source in the red wavelength band, that is, the pattern light (measurement light) is red. I explained. However, the type of light source and the color of the pattern light (wavelength band) are not limited to those shown in the embodiment for carrying out the present invention, and as described above, the color (wavelength band) of the predetermined color It may be an LED or infrared light.
また、本実施形態においては、パターン光を位相シフトして複数の計測モード画像を取得することによって、3次元の計測を行うための3次元点群データを生成する場合について説明した。しかし、3次元の計測を行うためのデータを生成する方法は、本発明を実施するための形態で示したパターン光を位相シフトする方法に限定されるものではなく、何らかの構造化したパターンの光を被写体に照射することによって3次元の計測を行うためのデータを生成する方法であれば同様に、本発明の考え方を適用することができる。 Further, in the present embodiment, the case has been described in which the pattern light is phase-shifted and a plurality of measurement mode images are acquired to generate three-dimensional point cloud data for performing three-dimensional measurement. However, the method of generating data for performing three-dimensional measurement is not limited to the method of phase shifting the pattern light shown in the embodiment for carrying out the present invention, and the light of some structured pattern is used. Similarly, the idea of the present invention can be applied to any method of generating data for performing three-dimensional measurement by irradiating a subject with.
また、本実施形態においては、パターン光における構造化のパターンが、光の強度が水平方向の正弦波状に変化する縦縞のパターンである場合について説明した。しかし、パターン光における構造化のパターンは、本発明を実施するための形態で示した構造化のパターンに限定されるものではない。例えば、パターン光の構造化のパターンが、光の強度が垂直方向の正弦波状に変化する横縞のパターンである場合や、光の強度が水平方向および垂直方向のそれぞれに正弦波状に変化する格子状のパターンである場合であっても同様に、本発明の考え方を適用することができる。 Further, in the present embodiment, the case where the structured pattern in the patterned light is a vertical striped pattern in which the light intensity changes in the shape of a sine wave in the horizontal direction has been described. However, the structured pattern in the patterned light is not limited to the structured pattern shown in the mode for carrying out the invention. For example, when the structured light pattern is a horizontal stripe pattern in which the light intensity changes in a vertical sinusoidal pattern, or in a lattice pattern in which the light intensity changes in a horizontal and vertical sinusoidal pattern. Even in the case of the pattern, the concept of the present invention can be similarly applied.
また、本実施形態においては、メイン制御部81が、図4〜図9に示した処理手順による処理を実行する場合について説明した。しかし、それぞれの処理手順を実行する構成要素は、本発明を実施するための形態で示した構成要素に限定されるものではない。例えば、映像処理部86や、3次元の計測を行うために専用に備えた不図示の構成要素が、メイン制御部81からの制御に応じて、それぞれの処理手順を実行する構成であってもよい。この場合、それぞれの処理を実行するために用いるデータを一時的に格納する記憶部は、本発明を実施するための形態で示したRAM83ではなく、映像処理部86や不図示の構成要素に内蔵または接続された他の記憶部であってもよい。 Further, in the present embodiment, the case where the main control unit 81 executes the processing according to the processing procedure shown in FIGS. 4 to 9 has been described. However, the constituent elements that execute each processing procedure are not limited to the constituent elements shown in the embodiment for carrying out the present invention. For example, even if the video processing unit 86 or a component (not shown) dedicated for performing three-dimensional measurement is configured to execute each processing procedure under the control of the main control unit 81. Good. In this case, the storage unit that temporarily stores the data used to execute each processing is not the RAM 83 shown in the embodiment for carrying out the present invention, but the video processing unit 86 or a component (not shown). Alternatively, it may be another connected storage unit.
また、本実施形態においては、本発明の内視鏡システム(内視鏡装置)が、工業用の内視鏡装置である場合について説明した。しかし、本発明の考え方は、工業用の内視鏡装置への適用に限定されるものではなく、例えば、医療用の内視鏡装置にも適用することもできる。 Moreover, in this embodiment, the case where the endoscope system (endoscope device) of the present invention is an industrial endoscope device has been described. However, the idea of the present invention is not limited to application to an industrial endoscope device, and can also be applied to, for example, a medical endoscope device.
また、本実施形態においては、本体部2内に操作部82とモニタ87とを備えた構成について説明した。しかし、操作部82やモニタ87は、本体部2内に備える構成に限定されるものではなく、例えば、本体部2の外部に配置され、本体部2と接続される構成であってもよい。 Further, in the present embodiment, the configuration in which the operation unit 82 and the monitor 87 are provided in the main body 2 has been described. However, the operation unit 82 and the monitor 87 are not limited to the configuration provided inside the main body unit 2, and may be configured, for example, arranged outside the main body unit 2 and connected to the main body unit 2.
以上、本発明の実施形態について、図面を参照して説明してきたが、具体的な構成はこの実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲においての種々の変更も含まれる。 Although the embodiment of the present invention has been described above with reference to the drawings, the specific configuration is not limited to this embodiment and includes various modifications without departing from the spirit of the present invention. Be done.
1・・・内視鏡装置(内視鏡システム)
2・・・本体部
3・・・挿入部
4・・・先端部
40・・・端面
45・・・開口部
46・・・照明窓(照明部)
47・・・投影窓(パターン投影部)
5・・・撮像部
51・・・撮像制御部
52・・・撮像素子
53・・・対物光学系
54・・・カバー部材
55・・・信号線
6・・・照明部
61・・・照明光源(照明部)
62・・・カップリングレンズ(照明部)
63・・・ファイババンドル(照明部)
64・・・照明光学系(照明部)
7・・・パターン投影部
71・・・パターン投影光源(パターン投影部)
72・・・カップリングレンズ(パターン投影部)
73・・・光ファイバ(パターン投影部)
74・・・縞生成部(パターン投影部)
75・・・投影光学系(パターン投影部)
76・・・パターン制御部(パターン投影部)
77・・・信号線(パターン投影部)
80・・・光源制御部(照射光制御部)
81・・・メイン制御部(3次元計測部)
82・・・操作部
83・・・RAM(3次元計測部)
84・・・補助記憶部(3次元計測部)
85・・・ROM(3次元計測部)
86・・・映像処理部
87・・・モニタ(表示部)
1. Endoscope device (endoscope system)
2... Body part 3... Insertion part 4... Tip part 40... End face 45... Opening part 46... Illumination window (illumination part)
47... Projection window (pattern projection unit)
5... Imaging unit 51... Imaging control unit 52... Imaging device 53... Objective optical system 54... Cover member 55... Signal line 6... Illumination unit 61... Illumination light source (Illumination part)
62... Coupling lens (illumination part)
63... Fiber bundle (illumination part)
64... Illumination optical system (illumination section)
7: pattern projection unit 71: pattern projection light source (pattern projection unit)
72... Coupling lens (pattern projection unit)
73... Optical fiber (pattern projection unit)
74: Stripe generation unit (pattern projection unit)
75... Projection optical system (pattern projection unit)
76... Pattern control unit (pattern projection unit)
77... Signal line (pattern projection unit)
80... Light source control unit (irradiation light control unit)
81...Main control unit (three-dimensional measurement unit)
82: operation unit 83: RAM (three-dimensional measurement unit)
84... Auxiliary storage unit (three-dimensional measurement unit)
85...ROM (three-dimensional measurement unit)
86... Image processing section 87... Monitor (display section)
Claims (25)
前記被検物を3次元で計測するために構造化したパターンの予め定めた波長帯域の計測光を前記被検物に照射するパターン投影部と、
前記照明部による前記観察光の前記被検物への照射と、前記パターン投影部による前記計測光の前記被検物への照射とを制御する照射光制御部と、
前記被検物の計測画像に基づいて、指定された測定点に応じた前記被検物に対する3次元の計測を行う3次元計測部と、
設定用画像及び前記測定点を表示する表示部と、
を備え、
前記3次元計測部は、前記観察光及び前記計測光を同時に照射して得た前記被検物の計測画像に基づいて前記設定用画像を生成し、前記設定用画像に設定された前記測定点の位置に対応する前記計測画像の情報に基づいて前記被検物に対する前記3次元の計測を行う、
ことを特徴とする内視鏡システム。 An illumination unit that irradiates the test object with observation light for observing the test object,
A pattern projection unit that irradiates the test object with measurement light in a predetermined wavelength band of a structured pattern for measuring the test object in three dimensions.
An irradiation light control unit that controls irradiation of the observation light by the illumination unit to the test object, and irradiation of the measurement light by the pattern projection unit to the test object ,
Based on the measurement image before Symbol test object, the three-dimensional measurement unit that performs three-dimensional measurement with respect to the test object corresponding to the specified measurement point,
A display unit that displays the setting image and the measurement points,
Bei to give a,
The three-dimensional measurement unit, the observation light and the obtained by irradiating the measurement light at the same time on the basis of the measurement image of the object to generate the set titration, image, set the measurement to the setting image The three-dimensional measurement is performed on the object based on the information of the measurement image corresponding to the position of a point,
An endoscope system characterized in that.
前記3次元の計測を行う際に、
前記計測画像に含まれる前記計測光と同じ波長帯域の光の反射による前記被検物の映像である第1の波長帯域計測画像に基づいて、前記3次元の計測に用いる3次元画素情報を生成し、生成した前記3次元画素情報を含んだ3次元計測画像を生成する3次元形状復元処理と、
前記3次元計測画像に含まれる、前記設定用画像に設定された前記測定点の位置に対応する前記3次元画素情報に基づいて、前記3次元の計測を行う3次元計測処理と、
を実行する、
ことを特徴とする請求項1に記載の内視鏡システム。 The three-dimensional measurement unit,
When performing the three-dimensional measurement,
Three-dimensional pixel information used for the three-dimensional measurement is generated based on a first wavelength band measurement image which is an image of the test object due to reflection of light in the same wavelength band as the measurement light included in the measurement image. And a three-dimensional shape restoration process for generating a three-dimensional measurement image including the generated three-dimensional pixel information,
A three-dimensional measurement process for performing the three-dimensional measurement based on the three-dimensional pixel information included in the three-dimensional measurement image and corresponding to the position of the measurement point set in the setting image,
To run the
The endoscope system according to claim 1, wherein:
前記3次元の計測を行う際に、前記観察光と前記計測光とを同時に前記被検物に照射させ、
前記3次元計測部は、
前記3次元形状復元処理を実行する前に、
前記計測画像を、前記第1の波長帯域計測画像と、前記計測画像に含まれる前記計測光と異なる波長帯域の光の反射による前記被検物の映像である第2の波長帯域計測画像とに分離する画像分離処理を実行し、
前記3次元形状復元処理と並列に、
前記第1の波長帯域計測画像に含まれる前記計測光の成分を除去した計測光除去画像を生成する構造化パターン除去処理と、
前記計測光除去画像と、前記第2の波長帯域計測画像とを合成した合成画像を生成する合成画像生成処理と、
を順次実行する、
ことを特徴とする請求項2に記載の内視鏡システム。 The irradiation light control unit,
When performing the three-dimensional measurement, the observation light and the measurement light are simultaneously irradiated to the test object,
The three-dimensional measurement unit,
Before performing the three-dimensional shape restoration process,
The measurement image is a first wavelength band measurement image and a second wavelength band measurement image which is an image of the object to be measured by reflection of light in a wavelength band different from the measurement light included in the measurement image. Perform image separation processing to separate,
In parallel with the three-dimensional shape restoration processing,
A structured pattern removal process for generating a measurement light removal image in which the components of the measurement light included in the first wavelength band measurement image are removed,
A synthetic image generation process for generating a synthetic image by synthesizing the measurement light removal image and the second wavelength band measurement image,
Are executed sequentially,
The endoscope system according to claim 2, wherein:
前記計測光と同時に前記被検物に照射させる前記観察光の光量を、前記計測光の光量に応じて調光する、
ことを特徴とする請求項3に記載の内視鏡システム。 The irradiation light control unit,
The light amount of the observation light to be irradiated to the test object at the same time as the measurement light is adjusted according to the light amount of the measurement light,
The endoscope system according to claim 3, wherein:
前記合成画像を前記設定用画像とする、
ことを特徴とする請求項3または請求項4に記載の内視鏡システム。 The three-dimensional measurement unit,
The composite image as the setting image,
The endoscope system according to claim 3 or 4, wherein.
前記3次元計測画像に前記合成画像を重畳した画像を前記設定用画像とする、
ことを特徴とする請求項3または請求項4に記載の内視鏡システム。 The three-dimensional measurement unit,
An image obtained by superimposing the composite image on the three-dimensional measurement image is used as the setting image,
The endoscope system according to claim 3 or 4, wherein.
前記3次元形状復元処理と並列に、
前記第1の波長帯域計測画像に含まれる前記計測光の成分を除去した計測光除去画像を生成する構造化パターン除去処理、
を実行し、
前記計測光除去画像を前記設定用画像とする、
ことを特徴とする請求項2に記載の内視鏡システム。 The three-dimensional measurement unit,
In parallel with the three-dimensional shape restoration processing,
A structured pattern removal process for generating a measurement light removal image in which the component of the measurement light included in the first wavelength band measurement image is removed,
Run
The measurement light removal image as the setting image,
The endoscope system according to claim 2, wherein:
前記3次元計測画像を前記設定用画像とする、
ことを特徴とする請求項2に記載の内視鏡システム。 The three-dimensional measurement unit,
The three-dimensional measurement image is used as the setting image,
The endoscope system according to claim 2, wherein:
前記3次元計測画像に、事前に前記観察光を照射して得た映像に応じた前記被検物の観察画像を重畳した画像を前記設定用画像とする、
ことを特徴とする請求項2に記載の内視鏡システム。 The three-dimensional measurement unit,
An image obtained by superimposing an observation image of the test object according to an image obtained by previously irradiating the observation light on the three-dimensional measurement image is used as the setting image.
The endoscope system according to claim 2, wherein:
構造化したパターンが、光の強度が正弦波状に変化する縞状のパターンである、
ことを特徴とする請求項1から請求項9のいずれか1の項に記載の内視鏡システム。 The measurement light is
The structured pattern is a striped pattern in which the light intensity changes sinusoidally.
The endoscope system according to any one of claims 1 to 9, wherein:
前記計測光における前記構造化したパターンの位相を予め定めたシフト量だけ位相シフトして前記被検物に複数回照射し、
前記3次元計測部は、
前記位相シフトされたそれぞれの前記計測光の照射によって得たそれぞれの映像に応じた複数の前記計測画像に基づいて、前記3次元の計測を行う、
ことを特徴とする請求項1から請求項10のいずれか1の項に記載の内視鏡システム。 The pattern projection unit,
The phase of the structured pattern in the measurement light is phase-shifted by a predetermined shift amount, and the test object is irradiated a plurality of times,
The three-dimensional measurement unit,
The three-dimensional measurement is performed on the basis of a plurality of the measurement images corresponding to the respective images obtained by the irradiation of the respective measurement lights with the phase shifted,
The endoscope system according to any one of claims 1 to 10, wherein:
レーザー光である、
ことを特徴とする請求項1から請求項11のいずれか1の項に記載の内視鏡システム。 The measurement light is
Laser light,
The endoscope system according to any one of claims 1 to 11, wherein:
前記波長帯域が、可視光の波長帯域である、
ことを特徴とする請求項1から請求項12のいずれか1の項に記載の内視鏡システム。 The measurement light is
The wavelength band is a wavelength band of visible light,
The endoscope system according to any one of claims 1 to 12, wherein:
前記波長帯域が、赤色の波長帯域である、
ことを特徴とする請求項13に記載の内視鏡システム。 The measurement light is
The wavelength band is a red wavelength band,
The endoscope system according to claim 13, wherein:
前記3次元計測部は、
前記画像分離処理において、前記計測画像を、赤色の波長帯域の光の反射による前記計測画像と、緑色の波長帯域の光の反射による前記計測画像と、青色の波長帯域の光の反射による前記計測画像とに分離し、前記計測光と同じ波長帯域の光の反射による前記計測画像を前記第1の波長帯域計測画像とし、前記計測光と異なる波長帯域の光の反射による前記計測画像のそれぞれを前記第2の波長帯域計測画像とする、
ことを特徴とする請求項3から請求項6のいずれか1の項、または請求項3から請求項6のいずれか1の項を引用する請求項10から請求項14のいずれか1の項に記載の内視鏡システム。 The observation light is a wavelength band of visible light,
The three-dimensional measurement unit,
In the image separation processing, the measurement image, the measurement image by reflection of light in the red wavelength band, the measurement image by reflection of light in the green wavelength band, the measurement by reflection of light in the blue wavelength band An image, and the measurement image obtained by reflection of light in the same wavelength band as the measurement light is used as the first wavelength band measurement image, and each of the measurement images obtained by reflection of light in a wavelength band different from the measurement light is obtained. The second wavelength band measurement image,
In any one of Claims 3 to 6, or in any one of Claims 10 to 14, which refers to any one of Claims 3 to 6, The described endoscope system.
前記構造化パターン除去処理において、前記複数の前記計測画像のそれぞれに対応する複数の前記第1の波長帯域計測画像に含まれる同じ位置のそれぞれの画素の値同士を加算平均して1つの前記計測光除去画像を生成する、
ことを特徴とする請求項3から請求項7のいずれか1の項を引用する請求項11、または請求項3から請求項7のいずれか1の項を引用する請求項11を引用する請求項12から請求項15のいずれか1の項に記載の内視鏡システム。 The three-dimensional measurement unit,
In the structured pattern removal process, the values of respective pixels at the same positions included in the plurality of first wavelength band measurement images corresponding to the plurality of measurement images are arithmetically averaged to obtain one measurement. Generate a light removal image,
Claim 11 that cites any one of claims 3 to 7, or claim 11 that cites any one of claims 3 to 7. The endoscope system according to any one of claims 12 to 15.
前記3次元形状復元処理において、生成した前記3次元画素情報に基づいて前記被検物の奥行きを表した深さ画像を生成し、生成した前記深さ画像を前記3次元計測画像とする、
ことを特徴とする請求項6、請求項8、請求項9のいずれか1の項、または請求項6、請求項8、請求項9のいずれか1の項を引用する請求項10から請求項16のいずれか1の項に記載の内視鏡システム。 The three-dimensional measurement unit,
In the three-dimensional shape restoration process, a depth image representing the depth of the test object is generated based on the generated three-dimensional pixel information, and the generated depth image is used as the three-dimensional measurement image.
Claims 6, 8 or 9, wherein any one of claims 6, 8 or 9 is cited. 16. The endoscope system according to any one of 16 items.
被検物を観察するための観察光を前記被検物に出射する照明部と、
前記被検物を3次元で計測するために構造化したパターンの予め定めた波長帯域の計測光を前記被検物に出射するパターン投影部と、
前記照明部による前記観察光の前記被検物への出射と、前記パターン投影部による前記計測光の前記被検物への出射とを制御する出射光制御部と、
少なくとも前記計測光を出射して得た映像に応じた前記被検物の計測画像に基づいて、指定された測定点に応じた前記被検物に対する3次元の計測を行う3次元計測部と、
を備えた内視鏡装置において、
前記3次元計測部が、前記計測画像に基づいて前記測定点を設定するための設定用画像を生成して表示部に表示させるステップと、
前記3次元計測部が、前記設定用画像に設定された前記測定点の位置に対応する前記計測画像の情報に基づいて前記被検物に対する前記3次元の計測を行うステップと、
前記3次元の計測を行う際に、前記出射光制御部が、前記観察光と前記計測光とを同時に前記被検物に出射させるステップと、
前記3次元の計測を行う際に、前記3次元計測部が、前記計測画像に含まれる前記計測光と同じ波長帯域の光の反射による前記被検物の映像である第1の波長帯域計測画像に基づいて、前記3次元の計測に用いる3次元画素情報を生成し、かつ、生成した前記3次元画素情報を含んだ3次元計測画像を生成する3次元形状復元処理と、前記3次元計測画像に含まれる、前記設定用画像に設定された前記測定点の位置に対応する前記3次元画素情報に基づいて、前記3次元の計測を行う3次元計測処理と、を実行するステップと、
前記3次元計測部は、前記3次元形状復元処理を実行する前に、前記計測画像を、前記第1の波長帯域計測画像と、前記計測画像に含まれる前記計測光と異なる波長帯域の光の反射による前記被検物の映像である第2の波長帯域計測画像とに分離する画像分離処理を実行するステップと、
前記3次元計測部は、前記3次元形状復元処理と並列に、前記第1の波長帯域計測画像に含まれる前記計測光の成分を除去した計測光除去画像を生成する構造化パターン除去処理と、前記計測光除去画像と、前記第2の波長帯域計測画像とを合成した合成画像を生成する合成画像生成処理と、を順次実行するステップとからなる、
ことを特徴とする内視鏡装置の作動方法。 A method of operating an endoscopic device, comprising:
An illumination unit you emits observation light for observing the specimen in the specimen,
Wherein a pattern projection unit a predetermined wavelength band of the measurement light you exit the specimen of the structured pattern to be measured with the specimen three-dimensional,
An exit to the test object of the observation light by the illumination unit, and the emitted light controller that controls the emission into the test object of the measurement light by the pattern projection unit,
A three-dimensional measurement unit that performs three-dimensional measurement on the object to be measured according to a designated measurement point, based on at least a measurement image of the object to be measured according to an image obtained by emitting the measurement light.
In the endoscopic device provided with ,
A step in which the three-dimensional measurement unit generates a setting image for setting the measurement point based on the measurement image and causes the display unit to display the setting image ;
A step in which the three-dimensional measurement unit performs the three-dimensional measurement on the object based on the information of the measurement image corresponding to the position of the measurement point set in the setting image ,
When performing the three-dimensional measurement, pre SL emitted light control unit, a step of emitting on the said observation light and the measurement light at the same time the test object,
When performing the three-dimensional measurement, the three-dimensional measurement unit is a first wavelength band measurement image which is an image of the object to be measured by reflection of light in the same wavelength band as the measurement light included in the measurement image. A three-dimensional shape restoration process for generating three-dimensional pixel information used for the three-dimensional measurement and a three-dimensional measurement image including the generated three-dimensional pixel information, and the three-dimensional measurement image. A three-dimensional measurement process for performing the three-dimensional measurement based on the three-dimensional pixel information corresponding to the position of the measurement point set in the setting image included in
The three-dimensional measurement unit, before performing the three-dimensional shape restoration processing, the measurement image of the first wavelength band measurement image and the light of the wavelength band different from the measurement light included in the measurement image. a step of executing an image separation processing for separating the second wavelength band measurement image is an image of the test object by reflection,
The three-dimensional measurement unit, in parallel with the three-dimensional shape restoration process, a structured pattern removal process for generating a measurement light removal image in which the component of the measurement light included in the first wavelength band measurement image is removed. A step of sequentially executing a synthetic image generation process for generating a synthetic image by synthesizing the measurement light removed image and the second wavelength band measurement image .
Method of operating the endoscope apparatus you wherein a.
前記被検物を3次元で計測するために構造化したパターンの予め定めた波長帯域の計測光を前記被検物に照射するパターン投影部と、A pattern projection unit that irradiates the test object with measurement light in a predetermined wavelength band of a structured pattern for measuring the test object in three dimensions.
前記照明部による前記観察光の前記被検物への照射と、前記パターン投影部による前記計測光の前記被検物への照射とを制御する照射光制御部と、An irradiation light control unit that controls irradiation of the observation light by the illumination unit to the test object, and irradiation of the measurement light by the pattern projection unit to the test object,
少なくとも前記計測光を照射して得た映像に応じた前記被検物の計測画像に基づいて、指定された測定点に応じた前記被検物に対する3次元の計測を行う3次元計測部と、A three-dimensional measurement unit that performs three-dimensional measurement on the object to be measured according to a designated measurement point, based on at least a measurement image of the object to be measured that is obtained by irradiating the measurement light.
を備え、Equipped with
前記3次元計測部は、前記計測画像に基づいて前記測定点を設定するための設定用画像を生成して表示部に表示させ、前記設定用画像に設定された前記測定点の位置に対応する前記計測画像の情報に基づいて前記被検物に対する前記3次元の計測を行い、The three-dimensional measurement unit generates a setting image for setting the measurement point based on the measurement image and causes the display unit to display the setting image, which corresponds to the position of the measurement point set in the setting image. The three-dimensional measurement is performed on the object based on the information of the measurement image,
前記3次元の計測を行う際に、前記照射光制御部は、前記観察光と前記計測光とを同時に前記被検物に照射させ、When performing the three-dimensional measurement, the irradiation light control unit causes the observation light and the measurement light to be simultaneously irradiated to the test object,
前記3次元の計測を行う際に、前記3次元計測部は、前記計測画像に含まれる前記計測光と同じ波長帯域の光の反射による前記被検物の映像である第1の波長帯域計測画像に基づいて、前記3次元の計測に用いる3次元画素情報を生成し、生成した前記3次元画素情報を含んだ3次元計測画像を生成する3次元形状復元処理と、前記3次元計測画像に含まれる、前記設定用画像に設定された前記測定点の位置に対応する前記3次元画素情報に基づいて、前記3次元の計測を行う3次元計測処理と、を実行し、When performing the three-dimensional measurement, the three-dimensional measurement unit is a first wavelength band measurement image which is an image of the object to be measured by reflection of light in the same wavelength band as the measurement light included in the measurement image. A three-dimensional shape restoration process for generating three-dimensional pixel information used for the three-dimensional measurement based on the three-dimensional measurement information, and a three-dimensional measurement image including the generated three-dimensional pixel information; And a three-dimensional measurement process of performing the three-dimensional measurement based on the three-dimensional pixel information corresponding to the position of the measurement point set in the setting image,
前記3次元計測部は、前記3次元形状復元処理を実行する前に、前記計測画像を、前記第1の波長帯域計測画像と、前記計測画像に含まれる前記計測光と異なる波長帯域の光の反射による前記被検物の映像である第2の波長帯域計測画像とに分離する画像分離処理を実行し、The three-dimensional measurement unit, before performing the three-dimensional shape restoration processing, the measurement image of the first wavelength band measurement image and the light of the wavelength band different from the measurement light included in the measurement image. Image separation processing is performed to separate the second wavelength band measurement image, which is an image of the test object due to reflection,
前記3次元計測部は、前記3次元形状復元処理と並列に、前記第1の波長帯域計測画像に含まれる前記計測光の成分を除去した計測光除去画像を生成する構造化パターン除去処理と、前記計測光除去画像と、前記第2の波長帯域計測画像とを合成した合成画像を生成する合成画像生成処理と、を順次実行する、The three-dimensional measurement unit, in parallel with the three-dimensional shape restoration process, a structured pattern removal process for generating a measurement light removal image in which the component of the measurement light included in the first wavelength band measurement image is removed. A synthetic image generation process for generating a synthetic image by synthesizing the measurement light removal image and the second wavelength band measurement image is sequentially executed.
ことを特徴とする内視鏡システム。An endoscope system characterized in that.
前記計測光と同時に前記被検物に照射させる前記観察光の光量を、前記計測光の光量に応じて調光する、The light amount of the observation light to be irradiated to the test object at the same time as the measurement light is adjusted according to the light amount of the measurement light,
ことを特徴とする請求項19に記載の内視鏡システム。The endoscope system according to claim 19, wherein:
前記合成画像を前記設定用画像とする、The composite image as the setting image,
ことを特徴とする請求項19または請求項20に記載の内視鏡システム。21. The endoscope system according to claim 19 or 20, wherein:
前記3次元計測画像に前記合成画像を重畳した画像を前記設定用画像とする、An image obtained by superimposing the composite image on the three-dimensional measurement image is used as the setting image,
ことを特徴とする請求項19または請求項20に記載の内視鏡システム。21. The endoscope system according to claim 19 or 20, wherein:
前記3次元計測部は、The three-dimensional measurement unit,
前記画像分離処理において、前記計測画像を、赤色の波長帯域の光の反射による前記計測画像と、緑色の波長帯域の光の反射による前記計測画像と、青色の波長帯域の光の反射による前記計測画像とに分離し、前記計測光と同じ波長帯域の光の反射による前記計測画像を前記第1の波長帯域計測画像とし、前記計測光と異なる波長帯域の光の反射による前記計測画像のそれぞれを前記第2の波長帯域計測画像とする、In the image separation processing, the measurement image, the measurement image by reflection of light in the red wavelength band, the measurement image by reflection of light in the green wavelength band, the measurement by reflection of light in the blue wavelength band An image, and the measurement image obtained by reflection of light in the same wavelength band as the measurement light is used as the first wavelength band measurement image, and each of the measurement images obtained by reflection of light in a wavelength band different from the measurement light is obtained. The second wavelength band measurement image,
ことを特徴とする請求項19から請求項22のいずれか1の項に記載の内視鏡システム。The endoscope system according to any one of claims 19 to 22, wherein:
前記構造化パターン除去処理において、前記複数の前記計測画像のそれぞれに対応する複数の前記第1の波長帯域計測画像に含まれる同じ位置のそれぞれの画素の値同士を加算平均して1つの前記計測光除去画像を生成する、In the structured pattern removal process, the values of respective pixels at the same positions included in the plurality of first wavelength band measurement images corresponding to the plurality of measurement images are arithmetically averaged to obtain one measurement. Generate a light removal image,
ことを特徴とする請求項19から請求項22のいずれか1の項に記載の内視鏡システム。The endoscope system according to any one of claims 19 to 22, wherein:
前記3次元形状復元処理において、生成した前記3次元画素情報に基づいて前記被検物の奥行きを表した深さ画像を生成し、生成した前記深さ画像を前記3次元計測画像とする、In the three-dimensional shape restoration process, a depth image representing the depth of the test object is generated based on the generated three-dimensional pixel information, and the generated depth image is used as the three-dimensional measurement image.
ことを特徴とする請求項22に記載の内視鏡システム。23. The endoscope system according to claim 22, wherein:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015075375A JP6706026B2 (en) | 2015-04-01 | 2015-04-01 | Endoscope system and operating method of endoscope apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015075375A JP6706026B2 (en) | 2015-04-01 | 2015-04-01 | Endoscope system and operating method of endoscope apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016193144A JP2016193144A (en) | 2016-11-17 |
JP6706026B2 true JP6706026B2 (en) | 2020-06-03 |
Family
ID=57323224
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015075375A Expired - Fee Related JP6706026B2 (en) | 2015-04-01 | 2015-04-01 | Endoscope system and operating method of endoscope apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6706026B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018108274A (en) * | 2017-01-04 | 2018-07-12 | ソニー株式会社 | Endoscope apparatus and image generation method for endoscope apparatus |
JP7176855B2 (en) * | 2018-04-23 | 2022-11-22 | 株式会社エビデント | Endoscope device, method of operating endoscope device, program, and recording medium |
JP2020014808A (en) * | 2018-07-27 | 2020-01-30 | 富士フイルム株式会社 | Endoscope apparatus, operation method for the same, and program for endoscope apparatus |
KR20210146283A (en) * | 2018-12-28 | 2021-12-03 | 액티브 서지컬, 인크. | Generation of synthetic three-dimensional imaging from partial depth maps |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07104491B2 (en) * | 1988-02-17 | 1995-11-13 | 株式会社東芝 | Endoscope with measuring function |
JP3009521B2 (en) * | 1990-10-23 | 2000-02-14 | オリンパス光学工業株式会社 | Measurement endoscope |
US8107083B2 (en) * | 2008-03-05 | 2012-01-31 | General Electric Company | System aspects for a probe system that utilizes structured-light |
US7821649B2 (en) * | 2008-03-05 | 2010-10-26 | Ge Inspection Technologies, Lp | Fringe projection system and method for a probe suitable for phase-shift analysis |
JP5830270B2 (en) * | 2011-05-24 | 2015-12-09 | オリンパス株式会社 | Endoscope apparatus and measuring method |
-
2015
- 2015-04-01 JP JP2015075375A patent/JP6706026B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2016193144A (en) | 2016-11-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6586211B2 (en) | Projection mapping device | |
JP6454489B2 (en) | Observation system | |
KR102397254B1 (en) | Quantitative three-dimensional imaging of surgical scenes | |
JP2022062209A (en) | Intraoral scanner with dental diagnostics capabilities | |
JP5830270B2 (en) | Endoscope apparatus and measuring method | |
JP6618704B2 (en) | Endoscope system | |
CN102402799B (en) | Object classification for measured three-dimensional object scenes | |
WO2012147679A1 (en) | Endoscopic device and measurement method | |
WO2018051679A1 (en) | Measurement assistance device, endoscope system, processor for endoscope system, and measurement assistance method | |
US10708553B2 (en) | Measurement support device, endoscope system, processor for endoscope system | |
WO2012161246A1 (en) | Endoscope and image acquisition method | |
JP6706026B2 (en) | Endoscope system and operating method of endoscope apparatus | |
JP6478136B1 (en) | Endoscope system and operation method of endoscope system | |
US11025812B2 (en) | Imaging apparatus, imaging method, and imaging system | |
JPWO2017168986A1 (en) | Control device, endoscope imaging device, control method, program, and endoscope system | |
JP6745508B2 (en) | Image processing system, image processing device, projection device, and projection method | |
JP7385731B2 (en) | Endoscope system, image processing device operating method, and endoscope | |
JP2011139734A (en) | Endoscope apparatus | |
US10921577B2 (en) | Endoscope device | |
JPWO2016194179A1 (en) | Imaging apparatus, endoscope apparatus, and imaging method | |
JP6032870B2 (en) | Measuring method | |
JP6574101B2 (en) | Endoscope system | |
JP2012228459A (en) | Endoscopic apparatus, and measuring method | |
JP6120686B2 (en) | Corneal endothelial cell imaging device | |
US11648080B2 (en) | Medical observation control device and medical observation system that correct brightness differences between images acquired at different timings |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20150402 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180314 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20180315 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181227 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190108 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20190311 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190509 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191105 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191211 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200428 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200515 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6706026 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |