JP6179942B2 - Scanning confocal endoscope system - Google Patents

Scanning confocal endoscope system Download PDF

Info

Publication number
JP6179942B2
JP6179942B2 JP2013152508A JP2013152508A JP6179942B2 JP 6179942 B2 JP6179942 B2 JP 6179942B2 JP 2013152508 A JP2013152508 A JP 2013152508A JP 2013152508 A JP2013152508 A JP 2013152508A JP 6179942 B2 JP6179942 B2 JP 6179942B2
Authority
JP
Japan
Prior art keywords
index
image
array
scanning
assigned
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013152508A
Other languages
Japanese (ja)
Other versions
JP2015020003A (en
Inventor
貴雄 牧野
貴雄 牧野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hoya Corp
Original Assignee
Hoya Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hoya Corp filed Critical Hoya Corp
Priority to JP2013152508A priority Critical patent/JP6179942B2/en
Publication of JP2015020003A publication Critical patent/JP2015020003A/en
Application granted granted Critical
Publication of JP6179942B2 publication Critical patent/JP6179942B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Endoscopes (AREA)

Description

この発明は、渦巻状に走査された被写体の画像の歪みを補正する画像歪み補正装置及び画像歪み補正方法に関する。   The present invention relates to an image distortion correction apparatus and an image distortion correction method for correcting distortion of an image of a subject scanned in a spiral shape.

被写体を周期的に走査することにより得た信号を画像化する走査型イメージシステムが知られている(例えば特許文献1)。この種の走査型イメージシステムは、シングルモード型の光ファイバ及び二軸アクチュエータを有する走査型プローブを備えている。走査型プローブ内部において、光ファイバは、基端部が二軸アクチュエータによって片持ち梁状に保持されている。二軸アクチュエータは、振動の振幅を変調及び増幅させながら、光ファイバの先端部分を所定の周波数で二次元的に振動(例えば固有振動数で二次元的に共振)させることにより、光ファイバの先端を所定の面上で渦巻状に移動させる。これにより、光ファイバによって光源から伝送された走査光が被写体を渦巻状に走査する。走査型イメージシステムは、走査光により走査された被写体からの戻り光を検出し、検出された戻り光から走査領域の画像を生成し、生成された画像をモニタの表示画面に表示させる。   A scanning image system that images a signal obtained by periodically scanning a subject is known (for example, Patent Document 1). This type of scanning image system includes a scanning probe having a single-mode optical fiber and a biaxial actuator. Inside the scanning probe, the optical fiber is held in a cantilever shape by a biaxial actuator at the base end. The biaxial actuator modulates and amplifies the amplitude of vibration while vibrating the tip of the optical fiber two-dimensionally at a predetermined frequency (for example, two-dimensionally resonating at the natural frequency), thereby Is spirally moved on a predetermined surface. Thereby, the scanning light transmitted from the light source by the optical fiber scans the subject in a spiral shape. The scanning image system detects return light from a subject scanned with scanning light, generates an image of a scanning area from the detected return light, and displays the generated image on a display screen of a monitor.

より詳細には、この種の走査型イメージシステムは、走査光により走査された被写体からの戻り光を被写体情報をなす信号として検出する。走査型イメージシステムは、検出された信号に対し、信号の検出タイミングに応じて、走査領域内の走査位置と対応する位置関係にある二次元画素配列内の画素位置を割り当てる。走査型イメージシステムは、割り当てられた画素位置に各信号による被写体情報を配列して画像化し、画像化された被写体をモニタの表示画面に表示させる。   More specifically, this type of scanning image system detects return light from a subject scanned with scanning light as a signal that forms subject information. The scanning image system assigns a pixel position in the two-dimensional pixel array having a positional relationship corresponding to the scanning position in the scanning region in accordance with the detection timing of the signal to the detected signal. In the scanning image system, subject information by each signal is arranged and imaged at assigned pixel positions, and the imaged subject is displayed on a display screen of a monitor.

この種の走査型イメージシステムでは、CCD(Charge Coupled Device)イメージセンサ等を搭載する一般的な電子スコープと異なり、走査誤差による画像の歪みが問題となる。走査誤差による画像の歪みを抑えるには、例えば、各画素位置に対応する走査光の位置をモニタの表示座標系に精確に合わせるといった方法が考えられる。特許文献1には、この方法の具体例が記載されている。   In this type of scanning image system, unlike general electronic scopes equipped with a CCD (Charge Coupled Device) image sensor or the like, image distortion due to scanning errors becomes a problem. In order to suppress the distortion of the image due to the scanning error, for example, a method of accurately matching the position of the scanning light corresponding to each pixel position with the display coordinate system of the monitor can be considered. Patent Document 1 describes a specific example of this method.

特許文献1では、キャリブレーション治具を用いて走査光の軌跡をキャリブレーションする。特許文献1では、光ファイバより射出される走査光をキャリブレーション治具のPSD(Position Sensitive Detector)に受光させることにより走査光の軌跡を検出し、検出された軌跡と理想的な軌跡との差を二軸アクチュエータへの印加電圧の振幅、位相、周波数など、各種パラメータを調節することにより所定の許容差内に収束させる。実測の軌跡と理想的な軌跡との差が所定の許容差内に収束した時点で、各画素位置に対応する走査光の位置がモニタの表示座標系に精確に合う。   In Patent Document 1, the locus of scanning light is calibrated using a calibration jig. In Patent Document 1, a scanning light locus is detected by causing a PSD (Position Sensitive Detector) of a calibration jig to receive scanning light emitted from an optical fiber, and the difference between the detected locus and an ideal locus is detected. Is converged within a predetermined tolerance by adjusting various parameters such as the amplitude, phase, and frequency of the voltage applied to the biaxial actuator. When the difference between the measured trajectory and the ideal trajectory converges within a predetermined tolerance, the position of the scanning light corresponding to each pixel position accurately matches the display coordinate system of the monitor.

特表2008−514342号公報Special table 2008-514342 gazette

特許文献1に例示される走査型イメージシステムは、ラスタ走査のような単純な走査を行うものではなく、点光源(光ファイバの先端)を所定の面上で回転させることにより被写体を渦巻状に走査するという複雑な構成となっている。そのため、走査誤差による画像の歪みは単純な歪みではなく、複数の因子が組み合わさることによって生じる複雑な歪みとなっている。特許文献1では、キャリブレーションの際、このように画像が複雑に歪む特性を持つ走査型イメージシステムに対して各種パラメータが闇雲に調整されているものと考えられる。そのため、特許文献1に記載された画像の歪みを補正する方法では、パラメータ調整と走査軌跡の検出とを実測の軌跡と理想的な軌跡との差が所定の許容差内に収束するまで相当数繰り返す必要がある。そのため、特許文献1に記載の方法では、キャリブレーションに時間が掛かるという問題が指摘される。   The scanning image system exemplified in Patent Document 1 does not perform simple scanning such as raster scanning, but rotates a point light source (tip of an optical fiber) on a predetermined surface to make a subject spiral. It has a complicated configuration of scanning. Therefore, the image distortion due to the scanning error is not a simple distortion but a complicated distortion caused by a combination of a plurality of factors. In Patent Document 1, it is considered that various parameters are adjusted to a dark cloud for a scanning image system having such a characteristic that an image is complicatedly distorted during calibration. Therefore, in the method for correcting image distortion described in Patent Document 1, a considerable number of parameter adjustments and scanning trajectory detections are performed until the difference between the actual trajectory and the ideal trajectory converges within a predetermined tolerance. Need to repeat. Therefore, the method described in Patent Document 1 points out a problem that it takes time for calibration.

本発明は上記の事情に鑑みてなされたものであり、その目的とするところは、画像の歪みを時間的負荷の軽い処理で補正することが可能な画像歪み補正装置及び画像歪み補正方法を提供することである。   The present invention has been made in view of the above circumstances, and an object of the present invention is to provide an image distortion correction apparatus and an image distortion correction method capable of correcting image distortion by processing with a light temporal load. It is to be.

本実施形態に係る画像歪み補正装置は、所定の走査光により略円形の走査領域内で中心及び周辺の一方から他方に向かい所定の回転周期で渦巻状に走査された、複数の指標が規則的に配列された被写体からの戻り光を受光することによって検出された被写体の画像信号を取得する画像信号取得手段と、取得された画像信号に対し、走査光による走査領域内の走査位置と対応する位置関係にある二次元画素配列内の画素位置を、画像信号の検出タイミングに応じて割り当て、割り当てられた画素位置に各画像信号を配列することにより被写体の画像を生成する画像生成手段と、生成された画像内における各指標の画素位置を検出する指標位置検出手段と、検出された各指標の画素位置に基づいて複数の指標を並べた指標画像配列を作成する指標画像配列作成手段と、作成された指標画像配列を所定の理想配列と比較し、比較結果に基づいて画像内における各指標の歪みを補正する歪み補正手段とを備える。   In the image distortion correction apparatus according to the present embodiment, a plurality of indexes scanned in a spiral shape with a predetermined rotation period from one of the center and the periphery to the other within a substantially circular scanning region by a predetermined scanning light. The image signal acquisition means for acquiring the image signal of the object detected by receiving the return light from the object arranged in the position corresponding to the scanning position in the scanning area by the scanning light with respect to the acquired image signal Image generation means for generating a subject image by assigning pixel positions in a two-dimensional pixel array in a positional relationship according to the detection timing of an image signal, and arranging each image signal at the assigned pixel position; An index position detecting means for detecting a pixel position of each index in the generated image, and an index for creating an index image array in which a plurality of indices are arranged based on the detected pixel position of each index It compares the image sequence creation means, an index image array created with predetermined ideal sequence, and a distortion correction means for correcting the distortion of each index in the image based on the comparison result.

本実施形態に係る画像歪み補正装置を用いることにより、被写体画像の歪みが少なくとも指標の配置間隔に相当する細かい領域単位で補正される。そのため、被写体画像は、複雑な歪みを持つものであっても高い精度で補正される。また、歪みの補正は指標画像配列と理想配列との比較結果に基づいて補正される。本実施形態では、特許文献1に記載された方法のように、キャリブレーション作業を繰り返す必要がないため、歪み補正に必要な時間的負荷が軽い。   By using the image distortion correction apparatus according to the present embodiment, the distortion of the subject image is corrected in units of fine areas corresponding to at least the index arrangement interval. Therefore, the subject image is corrected with high accuracy even if it has complicated distortion. Further, the distortion is corrected based on a comparison result between the index image array and the ideal array. In the present embodiment, unlike the method described in Patent Document 1, it is not necessary to repeat the calibration work, so the time load required for distortion correction is light.

また、画像歪み補正装置は、画像内における各指標について、指標を始点としかつ指標に対して所定の方向に位置する少なくとも一つの隣接指標を終点とする直線を定義し、定義された直線の長さ及び傾きを算出する長さ傾き算出手段と、各指標に対して算出された直線の長さの出現回数を分布化したときの長さピーク及び直線の傾きの出現回数を分布化したときの傾きピークを検出するピーク検出手段と、傾きピークに対応する傾きの方向に長さピークに対応する長さの配置間隔で複数の指標を並べることにより理想配列を作成する理想配列作成手段とを備える構成としてもよい。   Further, the image distortion correction apparatus defines, for each index in the image, a straight line having the index as a start point and having at least one adjacent index positioned in a predetermined direction with respect to the index as an end point, and the length of the defined straight line Length slope calculating means for calculating the length and slope, and the distribution of the number of appearances of the length peak and the slope of the straight line when the number of appearances of the straight line length calculated for each index is distributed Peak detecting means for detecting an inclination peak, and an ideal arrangement creating means for creating an ideal arrangement by arranging a plurality of indexes at an arrangement interval having a length corresponding to the length peak in the direction of the inclination corresponding to the inclination peak. It is good also as a structure.

指標画像配列作成手段は、
(1a)指標画像配列内から注目指標を決定し、
(2a)決定された注目指標に指標画像配列内における配列位置情報を割り当て、
(3a)配列位置情報が割り当てられた注目指標を始点とする所定の長さ及び所定の傾きを持つ少なくとも一本の基準直線を定義し、定義された基準直線の終点を含む所定範囲内に位置する指標に対して注目指標に隣接する配列位置情報を割り当て、
(4a)全ての指標に配列位置情報が割り当てられるまで(1a)〜(3a)を繰り返す、
構成としてもよい。
The index image array creation means
(1a) An attention index is determined from the index image array,
(2a) assigning array position information in the index image array to the determined attention index,
(3a) Define at least one reference line having a predetermined length and a predetermined inclination starting from the attention index to which the array position information is assigned, and position within a predetermined range including the end point of the defined reference line Assign the sequence position information adjacent to the target index to the index to be
(4a) Repeat (1a) to (3a) until sequence position information is assigned to all indices.
It is good also as a structure.

理想配列作成手段は、
(1b)理想配列内から注目指標を決定し、
(2b)決定された注目指標に指標画像配列に対応する配列位置情報を割り当て、
(3b)配列位置情報が割り当てられた注目指標を始点とする所定の長さ及び所定の傾きを持つ少なくとも一本の基準直線を定義し、定義された基準直線の終点を含む所定範囲内に位置する指標に対して注目指標に隣接する配列位置情報を割り当て、
(4b)全ての指標に指標画像配列に対応する配列位置情報が割り当てられるまで(1b)〜(3b)を繰り返す、
構成としてもよい。
The ideal array creation means is
(1b) determining an attention index from within the ideal sequence;
(2b) assigning array position information corresponding to the index image array to the determined attention index,
(3b) Define at least one reference line having a predetermined length and a predetermined inclination starting from the attention index to which the array position information is assigned, and position within a predetermined range including the end point of the defined reference line Assign the sequence position information adjacent to the target index to the index to be
(4b) Repeat (1b) to (3b) until array position information corresponding to the index image array is assigned to all indices.
It is good also as a structure.

歪み補正手段は、指標画像配列内の各指標について、対応する配列位置情報が割り当てられた理想配列内の指標との画素位置の差に基づいて補正ベクトルを計算し、計算された補正ベクトルに基づいて各指標の歪みを補正する構成としてもよい。   The distortion correction means calculates a correction vector for each index in the index image array based on the difference in pixel position from the index in the ideal array to which the corresponding array position information is assigned, and based on the calculated correction vector The distortion of each index may be corrected.

被写体は、例えば、黒色の背景に白色の正方形の升目をマトリックス状に並べたものである。   The subject is, for example, a white square cell arranged in a matrix on a black background.

本実施形態に係る画像歪み補正方法は、所定の走査光により略円形の走査領域内で中心及び周辺の一方から他方に向かい所定の回転周期で渦巻状に走査された、複数の指標が規則的に配列された被写体からの戻り光を受光することによって検出された被写体の画像信号を取得する画像信号取得ステップと、取得された画像信号に対し、走査光による走査領域内の走査位置と対応する位置関係にある二次元画素配列内の画素位置を、画像信号の検出タイミングに応じて割り当て、割り当てられた画素位置に各画像信号を配列することにより被写体の画像を生成する画像生成ステップと、生成された画像内における各指標の画素位置を検出する指標位置検出ステップと、検出された各指標の画素位置に基づいて複数の指標を並べた指標画像配列を作成する指標画像配列作成ステップと、作成された指標画像配列を所定の理想配列と比較し、比較結果に基づいて画像内における各指標の歪みを補正する歪み補正ステップとを含む。   In the image distortion correction method according to the present embodiment, a plurality of indexes scanned in a spiral shape with a predetermined rotation period from one of the center and the periphery to the other within a substantially circular scanning region by a predetermined scanning light are regularly arranged. An image signal acquisition step for acquiring an image signal of the subject detected by receiving the return light from the subject arranged in the array, and the acquired image signal corresponds to the scanning position in the scanning region by the scanning light. An image generation step for generating a subject image by allocating pixel positions in a two-dimensional pixel array in a positional relationship according to the detection timing of an image signal, and arranging each image signal at the assigned pixel position, and generation An index position detecting step for detecting a pixel position of each index in the image, and an index image array in which a plurality of indices are arranged based on the detected pixel position of each index And index image array generating step of forming, by comparing the index image array created with predetermined ideal sequence, and a distortion correction step of correcting the distortion of each index in the image based on the comparison result.

本実施形態によれば、画像の歪みを時間的負荷の軽い処理で補正することが可能な画像歪み補正装置及び画像歪み補正方法が提供される。   According to the present embodiment, an image distortion correction apparatus and an image distortion correction method capable of correcting image distortion by processing with a light time load are provided.

本発明の実施形態の走査型共焦点内視鏡システムの構成を示すブロック図である。It is a block diagram which shows the structure of the scanning confocal endoscope system of embodiment of this invention. 本発明の実施形態の共焦点光学ユニットの構成を概略的に示す図(図2(a))と、共焦点光学ユニットに備えられる二軸アクチュエータの構成を概略的に示す図(図2(b))である。FIG. 2A schematically shows the configuration of the confocal optical unit according to the embodiment of the present invention (FIG. 2A), and FIG. 2B schematically shows the configuration of the biaxial actuator provided in the confocal optical unit. )). XY近似面上における共焦点光学ユニットの光ファイバの先端の回転軌跡を示す。The rotation locus | trajectory of the front-end | tip of the optical fiber of a confocal optical unit on an XY approximate surface is shown. 本発明の実施形態の治具の内部構成を示す側断面図(図4(a))、チャートを示す図(図4(b))及び撮影チャート画像を示す図(図4(c))である。FIG. 4A is a side sectional view showing the internal configuration of the jig according to the embodiment of the present invention (FIG. 4A), a diagram showing a chart (FIG. 4B), and a diagram showing a photographic chart image (FIG. 4C). is there. 撮影チャート画像に写る升目の中心座標を採取する升目中心座標採取処理のフローチャートを示す図である。It is a figure which shows the flowchart of the cell center coordinate collection process which collects the center coordinate of the cell reflected on the imaging | photography chart image. 図5の升目中心座標採取処理の説明を補助する説明補助図である。FIG. 6 is an explanatory auxiliary diagram for assisting the description of the cell center coordinate collection processing of FIG. 5. 中心座標が採取された升目に対してラベリングを行う升目ラベリング処理のフローチャートを示す図である。It is a figure which shows the flowchart of the grid labeling process which labels a grid with which the center coordinate was extract | collected. 図7の升目ラベリング処理の説明を補助する説明補助図である。FIG. 8 is an explanatory auxiliary diagram for assisting the description of the grid labeling process of FIG. 7. ラベリングされた中心座標の画素を含むチャート画像内の全画素に対応する歪み補正テーブルを作成する歪み補正テーブル作成処理のフローチャートを示す図である。It is a figure which shows the flowchart of the distortion correction table creation process which produces the distortion correction table corresponding to all the pixels in the chart image containing the pixel of the labeled center coordinate. 図9の歪み補正テーブル作成処理の説明を補助する説明補助図である。FIG. 10 is an explanatory auxiliary diagram for assisting the description of the distortion correction table creation processing of FIG. 9. 歪み補正ベクトルの概念図である。It is a conceptual diagram of a distortion correction vector. 歪み補正テーブルを用いて実行される画像歪み補正処理のフローチャートを示す図である。It is a figure which shows the flowchart of the image distortion correction process performed using a distortion correction table. 撮影チャート画像内の歪みを比較する比較図である。It is a comparison figure which compares the distortion in an imaging | photography chart image.

以下、本発明の実施形態について図面を参照しながら説明する。なお、以下においては、本発明の一実施形態として走査型共焦点内視鏡システムを例に取り説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following, a scanning confocal endoscope system will be described as an example of an embodiment of the present invention.

[走査型共焦点内視鏡システム1の構成]
図1は、本実施形態の走査型共焦点内視鏡システム1の構成を示すブロック図である。本実施形態の走査型共焦点内視鏡システム1は、共焦点顕微鏡の原理を応用して設計されたシステムであり、高倍率かつ高解像度の被写体を観察するのに好適に構成されている。図1に示されるように、走査型共焦点内視鏡システム1は、システム本体100、共焦点プローブ200及びモニタ300を有している。走査型共焦点内視鏡システム1を用いた共焦点観察は、可撓性を有する管状の共焦点プローブ200の先端面を被写体に当て付けた状態で行う。
[Configuration of Scanning Confocal Endoscopy System 1]
FIG. 1 is a block diagram illustrating a configuration of a scanning confocal endoscope system 1 according to the present embodiment. The scanning confocal endoscope system 1 according to the present embodiment is a system designed by applying the principle of a confocal microscope, and is preferably configured to observe a subject with high magnification and high resolution. As shown in FIG. 1, the scanning confocal endoscope system 1 includes a system main body 100, a confocal probe 200, and a monitor 300. The confocal observation using the scanning confocal endoscope system 1 is performed in a state where the distal end surface of the flexible tubular confocal probe 200 is applied to the subject.

システム本体100は、光源102、光分波合波器(フォトカップラ)104、ダンパ106、CPU108、CPUメモリ110、光ファイバ112、受光器114、映像信号処理回路116、画像メモリ118、映像信号出力回路120、レーザ制御回路122、リマップテーブル用メモリ124、操作パネル126及びA/D変換回路128を有している。共焦点プローブ200は、光ファイバ202、共焦点光学ユニット204、サブCPU206、サブメモリ208及び走査ドライバ210を有している。   The system body 100 includes a light source 102, an optical demultiplexer / multiplexer (photocoupler) 104, a damper 106, a CPU 108, a CPU memory 110, an optical fiber 112, a light receiver 114, a video signal processing circuit 116, an image memory 118, and a video signal output. A circuit 120, a laser control circuit 122, a remapping table memory 124, an operation panel 126, and an A / D conversion circuit 128 are included. The confocal probe 200 includes an optical fiber 202, a confocal optical unit 204, a sub CPU 206, a sub memory 208, and a scanning driver 210.

光源102は、レーザ制御回路122による駆動制御に従い、患者の体腔内に投与された薬剤に含有されている蛍光物質を励起する励起光(連続光又はパルス光)を射出する。光源102より射出された励起光は、光分波合波器104に入射される。光分波合波器104のポートの一つには、光コネクタ152が結合している。光分波合波器104の不要ポートには、光源102から射出された励起光を無反射終端するダンパ106が結合している。前者のポートに入射された励起光は、光コネクタ152を介して共焦点プローブ200内に配置された光学系に入射される。   The light source 102 emits excitation light (continuous light or pulsed light) that excites the fluorescent substance contained in the medicine administered into the body cavity of the patient in accordance with drive control by the laser control circuit 122. The excitation light emitted from the light source 102 enters the optical demultiplexer / multiplexer 104. An optical connector 152 is coupled to one of the ports of the optical demultiplexer / multiplexer 104. The unnecessary port of the optical demultiplexer-multiplexer 104 is coupled to a damper 106 that terminates the excitation light emitted from the light source 102 without reflection. The excitation light incident on the former port is incident on the optical system disposed in the confocal probe 200 via the optical connector 152.

光ファイバ202の基端は、光コネクタ152を通じて光分波合波器104と光学的に結合している。光ファイバ202の先端部分は、共焦点プローブ200の先端部に組み込まれた共焦点光学ユニット204内に収められている。光分波合波器104より射出された励起光は、光コネクタ152を介して光ファイバ202の基端に入射されると、光ファイバ202内を伝送される。   The proximal end of the optical fiber 202 is optically coupled to the optical demultiplexer / multiplexer 104 through the optical connector 152. The distal end portion of the optical fiber 202 is housed in a confocal optical unit 204 incorporated in the distal end portion of the confocal probe 200. When the excitation light emitted from the optical demultiplexer / multiplexer 104 is incident on the proximal end of the optical fiber 202 via the optical connector 152, it is transmitted through the optical fiber 202.

図2(a)は、共焦点光学ユニット204の構成を概略的に示す図である。以下、共焦点光学ユニット204を説明する便宜上、共焦点光学ユニット204の軸線方向(長手方向)をZ方向と定義し、Z方向に直交しかつ互いに直交する二方向をそれぞれ、X方向、Y方向と定義する。   FIG. 2A is a diagram schematically showing the configuration of the confocal optical unit 204. Hereinafter, for convenience of describing the confocal optical unit 204, the axial direction (longitudinal direction) of the confocal optical unit 204 is defined as the Z direction, and two directions orthogonal to the Z direction and orthogonal to each other are respectively defined as the X direction and the Y direction. It is defined as

図2(a)に示されるように、共焦点光学ユニット204は、各種構成部品を収容する金属製の外筒204Aを有している。外筒204Aは、外筒204Aの内壁面形状に対応する外壁面形状を持つ内筒204Bを同軸(Z方向)にスライド可能に保持している。光ファイバ202の先端202aは、外筒204A、内筒204Bの各基端面に形成された開口を通じて内筒204Bに収容支持されている。先端202aは、光ファイバ202内を伝送された励起光を射出する、走査型共焦点内視鏡システム1の二次的な点光源として機能する。点光源である先端202aの位置は、CPU108による制御に基づいて周期的に変化する。なお、図2(a)中、中心軸AXは、共焦点光学ユニット204の中心軸を示す。光ファイバ202が初期位置にあるときは(光ファイバ202が振動されていない状態では)、中心軸AXと光ファイバ202の軸心とが一致する。   As shown in FIG. 2A, the confocal optical unit 204 has a metal outer cylinder 204A that houses various components. The outer cylinder 204A holds an inner cylinder 204B having an outer wall surface shape corresponding to the inner wall surface shape of the outer cylinder 204A so as to be slidable coaxially (Z direction). The distal end 202a of the optical fiber 202 is accommodated and supported by the inner cylinder 204B through openings formed in the base end surfaces of the outer cylinder 204A and the inner cylinder 204B. The distal end 202 a functions as a secondary point light source of the scanning confocal endoscope system 1 that emits excitation light transmitted through the optical fiber 202. The position of the tip 202a, which is a point light source, periodically changes based on control by the CPU. In FIG. 2A, the central axis AX indicates the central axis of the confocal optical unit 204. When the optical fiber 202 is in the initial position (when the optical fiber 202 is not vibrated), the center axis AX and the axis of the optical fiber 202 coincide.

サブメモリ208は、共焦点プローブ200の識別情報や各種プロパティ等のプローブ情報を格納している。サブCPU206は、システム起動時にサブメモリ208からプローブ情報を読み出し、読み出されたプローブ情報をシステム本体100と共焦点プローブ200とを電気的に接続する電気コネクタ154を介してCPU108に送信する。CPU108は、サブCPU206より受信したプローブ情報をCPUメモリ110に格納する。CPU108は、CPUメモリ110に格納されたプローブ情報を必要時に読み出して共焦点プローブ200の制御に必要な制御信号を生成し、生成された制御信号をサブCPU206に送信する。サブCPU206は、CPU108より受信した制御信号に従って走査ドライバ210に必要な設定値を指定する。   The sub memory 208 stores probe information such as identification information and various properties of the confocal probe 200. The sub CPU 206 reads the probe information from the sub memory 208 when the system is activated, and transmits the read probe information to the CPU 108 via the electrical connector 154 that electrically connects the system main body 100 and the confocal probe 200. The CPU 108 stores the probe information received from the sub CPU 206 in the CPU memory 110. The CPU 108 reads the probe information stored in the CPU memory 110 when necessary, generates a control signal necessary for controlling the confocal probe 200, and transmits the generated control signal to the sub CPU 206. The sub CPU 206 designates necessary setting values for the scan driver 210 in accordance with the control signal received from the CPU 108.

先端202a付近の光ファイバ202の外周面には、二軸アクチュエータ204Cが接着固定されている。図2(b)は、二軸アクチュエータ204Cの構成を概略的に示す図である。図2(b)に示されるように、二軸アクチュエータ204Cは、走査ドライバ210と接続された一対のX軸用電極(図中「X」、「X’」)及びY軸用電極(図中「Y」、「Y’」)を圧電体上に形成した圧電アクチュエータである。   A biaxial actuator 204C is bonded and fixed to the outer peripheral surface of the optical fiber 202 near the tip 202a. FIG. 2B is a diagram schematically showing the configuration of the biaxial actuator 204C. As shown in FIG. 2B, the biaxial actuator 204C includes a pair of X-axis electrodes (“X” and “X ′” in the figure) and Y-axis electrodes (in the figure) connected to the scanning driver 210. “Y”, “Y ′”) are piezoelectric actuators formed on a piezoelectric body.

走査ドライバ210は、サブCPU206により指定される設定値に応じたドライブ信号を生成し、生成されたドライブ信号によって二軸アクチュエータ204Cを駆動制御する。より詳細には、走査ドライバ210は、交流電圧Xを二軸アクチュエータ204CのX軸用電極間に印加して圧電体をX方向に振動させると共に、交流電圧Xと同一周波数であって位相が直交する交流電圧YをY軸用電極間に印加して圧電体をY方向に振動させる。交流電圧X、Yはそれぞれ、振幅が時間に比例して線形に増加して、時間(X)、(Y)かけて実効値(X)、(Y)に達する電圧として定義される。光ファイバ202の先端202aは、二軸アクチュエータ204CによるX方向、Y方向への運動エネルギーが合成されることにより、X−Y平面に近似する面(以下、「XY近似面」と記す。)上において中心軸AXを中心に渦巻状のパターンを描くように移動する。先端202aの移動軌跡は、印加電圧に比例して大きくなり、実効値(X)、(Y)の交流電圧が印加された時点で最も大きい径を有する円の軌跡を描く。図3に、XY近似面上の先端202aの回転軌跡を示す。   The scan driver 210 generates a drive signal corresponding to the setting value designated by the sub CPU 206, and drives and controls the biaxial actuator 204C with the generated drive signal. More specifically, the scanning driver 210 applies the AC voltage X between the X-axis electrodes of the biaxial actuator 204C to vibrate the piezoelectric body in the X direction, and has the same frequency as the AC voltage X and the phase is orthogonal. An alternating voltage Y is applied between the Y-axis electrodes to vibrate the piezoelectric body in the Y direction. The AC voltages X and Y are respectively defined as voltages that increase linearly in proportion to time and reach effective values (X) and (Y) over time (X) and (Y). The tip 202a of the optical fiber 202 is on a surface that approximates the XY plane (hereinafter referred to as "XY approximate surface") by combining the kinetic energy in the X and Y directions by the biaxial actuator 204C. In FIG. 5, the coil moves so as to draw a spiral pattern around the central axis AX. The movement trajectory of the tip 202a increases in proportion to the applied voltage, and draws a circular trajectory having the largest diameter when an AC voltage having effective values (X) and (Y) is applied. FIG. 3 shows the rotation locus of the tip 202a on the XY approximate plane.

励起光は、二軸アクチュエータ204Cへの交流電圧の印加開始直後から印加停止までの期間中、光ファイバ202の先端202aより射出される。以下、説明の便宜上、この期間を「サンプリング期間」と記す。先端202aより射出される励起光は、先端202aがサンプリング期間中にXY近似面上で渦巻状に移動することにより、中心軸AXを中心とした所定の略円形の走査領域を渦巻状に走査する。   The excitation light is emitted from the tip 202a of the optical fiber 202 during the period from the start of application of the alternating voltage to the biaxial actuator 204C to the stop of application. Hereinafter, for convenience of explanation, this period is referred to as a “sampling period”. The excitation light emitted from the tip 202a scans a predetermined substantially circular scanning region centered on the central axis AX in a spiral shape by moving the tip 202a spirally on the XY approximate plane during the sampling period. .

サンプリング期間が経過して二軸アクチュエータ204Cへの交流電圧の印加が停止すると、光ファイバ202の振動が減衰する。XY近似面上における光ファイバ202の先端202aの運動は、光ファイバ202の振動の減衰に伴って収束し、所定時間後にほぼゼロとなる(すなわち、先端202aは、中心軸AX上でほぼ停止する)。以下、説明の便宜上、サンプリング期間が終了してから先端202aが中心軸AX上にほぼ停止するまでの期間を「ブレーキング期間」と記す。ブレーキング期間の経過後、更に所定時間待機してから、次のサンプリング期間が開始される。以下、説明の便宜上、ブレーキング期間が終了してから次のサンプリング期間の開始までの期間を「セトリング期間」と記す。セトリング期間は、先端202aを中心軸AX上に完全に停止させるための待機時間である。セトリング時間を設定することにより、先端202aの移動軌跡を安定させることができる。先端202aの移動軌跡を安定させることにより、被写体に対する走査の精度を保証できるようになる。また、一フレームに対応する期間は、サンプリング期間、ブレーキング期間及びセトリング期間で構成されている。フレームレートは、セトリング期間を調整することにより、柔軟に設定変更することができる。このように、セトリング期間は、先端202aが完全に停止するまでの時間とフレームレートとの関係から適宜設定することが可能となっている。なお、ブレーキング期間を短縮するため、ブレーキング期間の初期段階に二軸アクチュエータ204Cに逆相電圧を印加して制動トルクを積極的に加えてもよい。   When the application of the AC voltage to the biaxial actuator 204C is stopped after the sampling period has elapsed, the vibration of the optical fiber 202 is attenuated. The movement of the tip 202a of the optical fiber 202 on the approximate XY plane converges as the vibration of the optical fiber 202 is attenuated, and becomes substantially zero after a predetermined time (that is, the tip 202a almost stops on the central axis AX). ). Hereinafter, for convenience of explanation, a period from the end of the sampling period until the tip 202a substantially stops on the central axis AX is referred to as a “braking period”. After the braking period, the next sampling period is started after waiting for a predetermined time. Hereinafter, for convenience of description, a period from the end of the braking period to the start of the next sampling period is referred to as a “settling period”. The settling period is a waiting time for completely stopping the tip 202a on the central axis AX. By setting the settling time, the movement locus of the tip 202a can be stabilized. By stabilizing the movement trajectory of the tip 202a, it is possible to guarantee the scanning accuracy for the subject. In addition, the period corresponding to one frame includes a sampling period, a braking period, and a settling period. The frame rate can be flexibly changed by adjusting the settling period. Thus, the settling period can be set as appropriate from the relationship between the time until the tip 202a completely stops and the frame rate. In order to shorten the braking period, a braking torque may be positively applied by applying a reverse phase voltage to the biaxial actuator 204C in the initial stage of the braking period.

光ファイバ202の先端202aの前方には、対物光学系204Dが設置されている。対物光学系204Dは、複数枚の光学レンズで構成されており、図示省略されたレンズ枠を介して外筒204Aに保持されている。対物光学系204Aの光軸は、中心軸AXと一致する。レンズ枠は、外筒204Aの内部において、内筒204Bと相対的に固定され支持されている。そのため、レンズ枠に保持された光学レンズ群は、外筒204Aの内部を内筒204Bと一体となってZ方向にスライドする。   An objective optical system 204D is installed in front of the tip 202a of the optical fiber 202. The objective optical system 204D is composed of a plurality of optical lenses, and is held by the outer cylinder 204A via a lens frame (not shown). The optical axis of the objective optical system 204A coincides with the central axis AX. The lens frame is fixed and supported relative to the inner cylinder 204B inside the outer cylinder 204A. Therefore, the optical lens group held by the lens frame slides in the Z direction integrally with the inner cylinder 204B inside the outer cylinder 204A.

内筒204Bの基端面と外筒204Aの内壁面との間には、圧縮コイルばね204E及び形状記憶合金204Fが取り付けられている。圧縮コイルばね204Eは、自然長からZ方向に初期的に圧縮挟持されている。形状記憶合金204Fは、Z方向に長尺な棒形状を持ち、常温下で外力が加わると変形して、一定温度以上に加熱されると形状記憶効果で所定の形状に復元する性質を有している。形状記憶合金204Fは、形状記憶効果による復元力が圧縮コイルばね204Eの復元力より大きくなるように設計されている。走査ドライバ210は、サブCPU206により指定される設定値に応じたドライブ信号を生成し、生成されたドライブ信号によって形状記憶合金204Fを通電し加熱することにより、形状記憶合金204Fの伸縮量を制御する。形状記憶合金204Fは、伸縮量に応じて内筒204Bを光ファイバ202ごとZ方向に進退させる。具体的には、形状記憶合金204Fは、加熱されてZ方向に延びる(復元する)ことにより、内筒204Bを光ファイバ202ごと前方(Z方向)に押し出す。形状記憶合金204Fはまた、徐冷が進むにつれて形状記憶効果による復元力が低下することに伴い、圧縮コイルばね204EによりZ方向に圧縮されて、内筒204Bを光ファイバ202ごと後方(Z方向)に引っ込める。   A compression coil spring 204E and a shape memory alloy 204F are attached between the base end surface of the inner cylinder 204B and the inner wall surface of the outer cylinder 204A. The compression coil spring 204E is initially compressed and clamped in the Z direction from the natural length. The shape memory alloy 204F has a long bar shape in the Z direction, deforms when an external force is applied at room temperature, and has a property of restoring to a predetermined shape by a shape memory effect when heated to a certain temperature or higher. ing. The shape memory alloy 204F is designed such that the restoring force due to the shape memory effect is larger than the restoring force of the compression coil spring 204E. The scan driver 210 generates a drive signal corresponding to the set value specified by the sub CPU 206, and controls the amount of expansion / contraction of the shape memory alloy 204F by energizing and heating the shape memory alloy 204F with the generated drive signal. . The shape memory alloy 204F advances and retracts the inner tube 204B in the Z direction together with the optical fiber 202 according to the amount of expansion and contraction. Specifically, the shape memory alloy 204F is heated and extends (restores) in the Z direction, thereby pushing the inner tube 204B forward (Z direction) together with the optical fiber 202. The shape memory alloy 204F is also compressed in the Z direction by the compression coil spring 204E as the restoring force due to the shape memory effect decreases as the slow cooling progresses, and the inner tube 204B is moved backward along the optical fiber 202 (Z direction). Withdraw.

光ファイバ202の先端202aから射出された励起光は、対物光学系204Dを透過して被写体の表面又は表層でスポットを形成する。スポット形成位置は、点光源である先端202aの進退に応じてZ方向に変位する。すなわち、共焦点光学ユニット204は、二軸アクチュエータ204Cによる先端202aのXY近似面上の周期的な円運動とZ方向の進退を併せることで、被写体を三次元走査する。   The excitation light emitted from the tip 202a of the optical fiber 202 passes through the objective optical system 204D and forms a spot on the surface or surface layer of the subject. The spot forming position is displaced in the Z direction in accordance with the advance / retreat of the tip 202a which is a point light source. That is, the confocal optical unit 204 scans the subject three-dimensionally by combining the periodic circular motion of the tip 202a on the XY approximate plane by the biaxial actuator 204C and the advance and retreat in the Z direction.

光ファイバ202の先端202aは、対物光学系204Dの前側焦点位置に配置されているため、共焦点ピンホールとして機能する。先端202aには、励起光により励起された被写体より発せられる蛍光のうち先端202aと光学的に共役な集光点からの蛍光のみが入射される。先端202aより光ファイバ202内に入射された蛍光は、光ファイバ202を伝送された後、光コネクタ152を介して光分波合波器104に入射される。光分波合波器104は、入射された蛍光を光源102から射出される励起光と分離して光ファイバ112に導く。蛍光は、光ファイバ112内を伝送して受光器114により検出される。受光器114は、微弱な光を低ノイズで検出するため、例えば光電子増倍管等の高感度光検出器である。受光器114による検出信号は、図示省略された回路にて一定のレートでサンプルホールド及びAD変換される。AD変換後のデジタル検出信号は、被写体の共焦点画像をなす画像情報であり、以下、「共焦点画像検出信号」と記す。共焦点画像検出信号は、映像信号処理回路116に入力される。   Since the tip 202a of the optical fiber 202 is disposed at the front focal position of the objective optical system 204D, it functions as a confocal pinhole. Of the fluorescence emitted from the subject excited by the excitation light, only the fluorescence from the condensing point optically conjugate with the tip 202a is incident on the tip 202a. Fluorescence incident on the optical fiber 202 from the tip 202 a is transmitted through the optical fiber 202 and then incident on the optical demultiplexer-multiplexer 104 via the optical connector 152. The optical demultiplexer / multiplexer 104 separates the incident fluorescence from the excitation light emitted from the light source 102 and guides it to the optical fiber 112. The fluorescence is transmitted through the optical fiber 112 and detected by the light receiver 114. The photodetector 114 is a high-sensitivity photodetector such as a photomultiplier tube, for example, in order to detect weak light with low noise. The detection signal from the light receiver 114 is sampled and AD converted at a constant rate by a circuit not shown. The digital detection signal after AD conversion is image information forming a confocal image of the subject, and is hereinafter referred to as a “confocal image detection signal”. The confocal image detection signal is input to the video signal processing circuit 116.

ここで、サンプリング期間中の光ファイバ202の先端202aの位置(軌跡)が決まると、先端202aがある位置に来た時に射出される励起光による走査領域内の位置(スポット形成位置)と、このスポット形成位置からの戻り光(蛍光)を受光器114で受光して共焦点画像検出信号を得る信号取得タイミング(以下、「サンプリング点」と記す。)とがほぼ一義的に決まる。そこで、本実施形態では、設計データに基づいてスポット形成位置とサンプリング点との対応関係が定義され、その上で、各サンプリング点に対応する画素の位置(共焦点画像をなす各画素の画素アドレス)が定義される。リマップテーブル用メモリ124には、サンプリング点と画素アドレスとの対応関係(リマップテーブル)が格納されている。リマップテーブルでは、共焦点画像をなす全ての画素アドレスのそれぞれについて、対応するサンプリング点が1対1で対応付けられている。なお、リマップテーブルは、時間的要素(サンプリング点)を空間的要素(画素アドレス)に変換するものであるが、別の表現によれば、第一の空間的要素(スポット形成位置)を第二の空間的要素(画素アドレス)に変換するものである。   Here, when the position (trajectory) of the tip 202a of the optical fiber 202 during the sampling period is determined, the position (spot formation position) in the scanning region by the excitation light emitted when the tip 202a reaches a certain position, The signal acquisition timing (hereinafter referred to as “sampling point”) for obtaining the confocal image detection signal by receiving the return light (fluorescence) from the spot formation position by the light receiver 114 is almost uniquely determined. Therefore, in this embodiment, the correspondence relationship between the spot formation position and the sampling point is defined based on the design data, and then the position of the pixel corresponding to each sampling point (pixel address of each pixel forming the confocal image) ) Is defined. The remap table memory 124 stores the correspondence (remap table) between sampling points and pixel addresses. In the remapping table, corresponding sampling points are associated one-to-one with respect to each of all the pixel addresses forming the confocal image. The remap table converts temporal elements (sampling points) into spatial elements (pixel addresses). According to another expression, the first spatial element (spot formation position) is the first. This is converted into a second spatial element (pixel address).

映像信号処理回路116は、リマップテーブルを参照して、各サンプリング点で得られる共焦点画像検出信号に対して画素アドレスを割り当てる。以下、この割り当て作業を「リマッピング」と記す。リマッピングを行うことにより、各共焦点画像検出信号によって表現される点像を画素アドレスに従って二次元に配列したもの(共焦点画像)の生成が可能となる。   The video signal processing circuit 116 refers to the remapping table and assigns a pixel address to the confocal image detection signal obtained at each sampling point. Hereinafter, this assignment work is referred to as “remapping”. By performing the remapping, it is possible to generate a point image represented by each confocal image detection signal in a two-dimensional arrangement (confocal image) according to the pixel address.

リマッピング後(より正確には、後述の再リマッピング後)の共焦点画像検出信号は、画像メモリ118にフレーム単位でバッファリングされる。バッファリングされた共焦点画像検出信号は、所定のタイミングで画像メモリ118から映像信号出力回路120に掃き出されて、NTSC(National Television System Committee)やPAL(Phase Alternating Line)等の所定の規格に準拠した映像信号に変換されてモニタ300に出力される。これにより、高倍率かつ高解像度の被写体の共焦点画像がモニタ300の表示画面に表示される。   The confocal image detection signal after remapping (more precisely, after remapping described later) is buffered in the image memory 118 in units of frames. The buffered confocal image detection signal is swept from the image memory 118 to the video signal output circuit 120 at a predetermined timing, and conforms to a predetermined standard such as NTSC (National Television System Committee) or PAL (Phase Alternating Line). It is converted into a compliant video signal and output to the monitor 300. Thereby, a confocal image of the subject with high magnification and high resolution is displayed on the display screen of the monitor 300.

[共焦点画像の歪み補正]
このように、本実施形態の走査型共焦点内視鏡システム1は、点光源(光ファイバ202の先端202a)をXY近似面上で円周方向に周期的に移動させることにより被写体を渦巻状に走査するという複雑な構成となっている。そのため、走査誤差による画像の歪みは単純な歪みではなく、複数の因子が組み合わさることによって生じる複雑な歪みとなっている。本実施形態では、このような複雑な歪みを時間的負荷の軽い処理で補正することができる。
[Distortion correction for confocal images]
As described above, the scanning confocal endoscope system 1 according to the present embodiment spirals the subject by periodically moving the point light source (tip 202a of the optical fiber 202) in the circumferential direction on the XY approximate plane. It has a complicated configuration of scanning. Therefore, the image distortion due to the scanning error is not a simple distortion but a complicated distortion caused by a combination of a plurality of factors. In this embodiment, such a complicated distortion can be corrected by a process with a light time load.

[チャートの撮影]
走査型共焦点内視鏡システム1は、共焦点画像の歪みを補正するため、治具400にセットされる。図4(a)は、治具400の内部構成を示す側断面図であり、治具400に共焦点プローブ200をセットした状態を示している。図4(a)に示されるように、治具400は、箱状(例えば直方体状)の筐体402を有している。筐体402は、対向する壁部402aと402bを含む複数の壁部を有しており、これら複数の壁部によって、外部より実質遮光された内部空間を規定している。
[Shooting Chart]
The scanning confocal endoscope system 1 is set on a jig 400 to correct distortion of a confocal image. 4A is a side sectional view showing the internal configuration of the jig 400, and shows a state where the confocal probe 200 is set on the jig 400. FIG. As shown in FIG. 4A, the jig 400 has a box-like (for example, rectangular parallelepiped) case 402. The housing 402 has a plurality of wall portions including opposing wall portions 402a and 402b, and the plurality of wall portions define an internal space that is substantially shielded from the outside.

壁部402aの内部空間側の面には、チャートCHTがプリントされている。図4(b)に、チャートCHTを示す。チャートCHTは、図4(b)に示されるように、白色の下地に黒色のグリッド線(互いに直交する縦線及び横線)が等間隔に配置されることにより、白色の正方形の升目がマトリックス状に並んだものとなっている。なお、チャートCHTには、光源102より射出される励起光に対応する蛍光剤が塗布されていてもよい。   A chart CHT is printed on the surface of the wall portion 402a on the inner space side. FIG. 4B shows a chart CHT. In the chart CHT, as shown in FIG. 4B, black grid lines (vertical lines and horizontal lines orthogonal to each other) are arranged at equal intervals on a white base so that white squares are in a matrix form. It has become a lineup. Note that a fluorescent agent corresponding to excitation light emitted from the light source 102 may be applied to the chart CHT.

筐体402は、壁部402bのほぼ中央であってチャートCHTと正対する位置に保持部404が形成されている。保持部404は、壁部402bの外壁面上に形成された凹部であり、チャートCHTと正対する面(凹部をなす底面)に開口Aが形成されている。また、保持部404の凹形状は、共焦点プローブ200の先端部の外形状に対応する。そのため、保持部404には、図4(a)に示されるように、共焦点プローブ200の先端部を差し込むことができる。保持部404は、差し込まれた共焦点プローブ200の先端部を保持する。保持部404に保持された共焦点プローブ200の先端部は、チャートCHTに対して中心軸AX(及び対物光学系132Dの光軸)が垂直となる姿勢となり、かつチャートCHT上に走査光を走査することが可能な位置に決まる。   The housing 402 is formed with a holding portion 404 at a position substantially in the center of the wall portion 402b and facing the chart CHT. The holding portion 404 is a concave portion formed on the outer wall surface of the wall portion 402b, and an opening A is formed on a surface (bottom surface forming the concave portion) that faces the chart CHT. Further, the concave shape of the holding portion 404 corresponds to the outer shape of the distal end portion of the confocal probe 200. Therefore, the tip of the confocal probe 200 can be inserted into the holding unit 404 as shown in FIG. The holding unit 404 holds the tip of the inserted confocal probe 200. The tip of the confocal probe 200 held by the holding unit 404 has a posture in which the central axis AX (and the optical axis of the objective optical system 132D) is perpendicular to the chart CHT, and scans the scanning light on the chart CHT. It depends on where you can do it.

なお、本撮影ステップでは、走査型共焦点内視鏡システム1とチャートCHTとの相対位置の固定及び暗室での撮影が必ずしも必要というわけではない。本撮影ステップでは、最低限、走査型共焦点内視鏡システム1によってチャートCHTを撮影することができればよい。作業者は、例えば、作業室内の壁面にチャートCHTがプリントされたシートを貼り、それを走査型共焦点内視鏡システム1によって撮影するだけでもよい。このように、本撮影ステップでは、大掛かりな治具は必須ではない。   In this imaging step, the relative position between the scanning confocal endoscope system 1 and the chart CHT and the imaging in the dark room are not necessarily required. In this imaging step, it is sufficient that the chart CHT can be imaged by the scanning confocal endoscope system 1 at a minimum. For example, the operator may simply attach a sheet on which the chart CHT is printed on the wall surface in the work chamber, and photograph it with the scanning confocal endoscope system 1. Thus, a large jig is not essential in the main photographing step.

図4(c)は、走査型共焦点内視鏡システム1により撮影されたチャートCHTの一例を示す。図4(c)に示されるように、撮影されたチャートCHTの画像(以下、「撮影チャート画像」と記す。)は複雑に歪んだものとなる。   FIG. 4C shows an example of the chart CHT photographed by the scanning confocal endoscope system 1. As shown in FIG. 4C, the image of the captured chart CHT (hereinafter referred to as “photographed chart image”) is complicatedly distorted.

[升目中心座標の採取フロー]
システム本体100は、撮影チャート画像の歪みを補正するために必要な情報として、撮影チャート画像内に写る各升目の中心の座標(画素位置)を採取する。採取される中心座標は、升目の位置を示す情報として扱われる。図5に、システム本体100のCPU108によって実行される升目中心座標採取処理のフローチャートを示す。また、図6(a)〜図6(d)に、升目中心座標採取処理の説明を補助する説明補助図を示す。
[Flow of collecting center coordinates of grid]
The system main body 100 collects the coordinates (pixel position) of the center of each cell appearing in the photographing chart image as information necessary for correcting the distortion of the photographing chart image. The collected center coordinates are handled as information indicating the position of the mesh. FIG. 5 shows a flowchart of the cell center coordinate collection process executed by the CPU 108 of the system main body 100. FIGS. 6A to 6D are explanatory assistance diagrams for assisting the explanation of the cell center coordinate collection process.

[図5のS11(撮影チャート画像の二値化)]
本処理ステップS11では、撮影チャート画像を二値化することにより撮影チャート画像内のノイズが除去される。二値化処理の閾値には、升目を白と判定しかつグリッド線を黒と判定するための適切な値が設定される。設定される値は、例えば経験的に決められた固定値である。また、升目の輝度値及びグリッド線の輝度値から2つを分離する適切な閾値を自動的に決定してもよい。
[S11 in FIG. 5 (binarization of photographing chart image)]
In this processing step S11, noise in the photographic chart image is removed by binarizing the photographic chart image. The threshold value for the binarization process is set to an appropriate value for determining the cell as white and determining the grid line as black. The set value is a fixed value determined empirically, for example. Also, an appropriate threshold value for separating the two from the luminance value of the grid and the luminance value of the grid line may be automatically determined.

[図5のS12(升目画像の収縮)]
本処理ステップS12では、撮影チャート画像内の全ての升目に対して収縮(Erosion)をかけることにより、隣接する升目の間隔が広げられる(図6(a)参照)。具体的には、注目画素の周辺に1画素でも黒い画素がある場合に黒に置き換える処理(Erosion)を所定回数繰り返す。隣接する升目の間隔を広げることにより、隣接する升目の影響を受けることなく、升目の中心座標を検出できるようになる。
[S12 in FIG. 5 (shrinkage of the cell image)]
In this processing step S12, by applying an erosion to all the cells in the photographic chart image, the interval between the adjacent cells is increased (see FIG. 6A). Specifically, when there is even a black pixel around the pixel of interest, the process of replacing it with black (Erosion) is repeated a predetermined number of times. By expanding the interval between adjacent cells, the center coordinates of the cells can be detected without being affected by the adjacent cells.

[図5のS13(升目の探索)]
本処理ステップS13では、所定サイズの正方形のウィンドウWが撮影チャート画像内の所定位置に配置される。ウィンドウWは、撮影チャート画像の重心Gの計算領域を規定するものであり、収縮(Erosion)後の升目よりも大きい。ウィンドウWが所定位置に配置されると、ウィンドウW内に升目(すなわち白色の画素)が含まれるか否かが判定される。本フローチャートは、ウィンドウW内に升目(白色の画素)が含まれる場合(図5のS13:YES)、同図の処理ステップS16(升目中心の検出)に進む。ウィンドウW内に升目(白色の画素)が含まれない場合には(図5のS13:NO)、同図の処理ステップS14(走査完了判定)に進む。
[S13 in FIG. 5 (search for cells)]
In this processing step S13, a square window W having a predetermined size is arranged at a predetermined position in the photographing chart image. The window W defines a calculation area of the center of gravity G of the photographing chart image, and is larger than the cell after the erosion (Erosion). When the window W is arranged at a predetermined position, it is determined whether or not the window W includes a cell (that is, a white pixel). In this flowchart, when a cell (white pixel) is included in the window W (S13 in FIG. 5: YES), the process proceeds to processing step S16 (detection of the cell center). When the grid (white pixel) is not included in the window W (S13 in FIG. 5: NO), the process proceeds to the processing step S14 (scanning completion determination) in FIG.

[図5のS14(走査完了判定)]
本処理ステップS14では、ウィンドウWにより撮影チャート画像内の全ての領域を走査したか否かが判定される。本フローチャートは、ウィンドウWにより撮影チャート画像内の全ての領域が走査された場合(図5のS14:YES)、終了する。ウィンドウWにより走査されていない領域が残っている場合には(図5のS14:NO)、同図の処理ステップS15(ウィンドウWによる撮影チャート画像の走査)に進む。
[S14 in FIG. 5 (scanning completion determination)]
In this processing step S14, it is determined whether or not all areas in the photographic chart image have been scanned by the window W. This flowchart ends when all the areas in the photographing chart image are scanned by the window W (S14 in FIG. 5: YES). When the area not scanned by the window W remains (S14 in FIG. 5: NO), the process proceeds to the processing step S15 (scanning of the photographing chart image by the window W).

[図5のS15(ウィンドウWによる撮影チャート画像の走査)]
本処理ステップS15では、ウィンドウWが一画素走査される(すなわち、ウィンドウWの位置が一画素シフトする。)。本フローチャートは、ウィンドウWの走査後、同図の処理ステップS13(升目の探索)に戻る。処理ステップS13(升目の探索)では、一画素走査後のウィンドウW内に升目(白色の画素)が含まれるか否かが判定される。
[S15 in FIG. 5 (scanning of photographing chart image by window W)]
In this processing step S15, the window W is scanned by one pixel (that is, the position of the window W is shifted by one pixel). In this flowchart, after the window W is scanned, the processing returns to the processing step S13 (search for cell) in FIG. In process step S13 (search for cell), it is determined whether or not the cell (white pixel) is included in the window W after one pixel scan.

[図5のS16(升目の中心座標の検出)]
本処理ステップS16では、平均値シフト法(Mean-Shift)を用いて升目の中心座標が検出される。まず、ウィンドウWによって囲われた撮影チャート画像内の領域の重心Gが計算される。重心Gの計算は、図6(b)〜図6(d)に示されるように、ウィンドウWの中心Cと重心Gとが一致するまで繰り返される。ここで、升目は、黒いグリッド線で囲われた白色の正方形である。そのため、重心Gは、重心計算を繰り返して中心Cと一致する位置に収束したとき、升目の中心とも一致する(図6(d)参照)。そのため、重心Gが中心Cと一致する位置に収束した時点の中心Cの座標は、升目の中心座標としてCPUメモリ110に保存される。
[S16 in FIG. 5 (Detection of center coordinates of cell)]
In this processing step S16, the center coordinates of the cells are detected using the average value shift method (Mean-Shift). First, the center of gravity G of the area in the photographing chart image surrounded by the window W is calculated. The calculation of the center of gravity G is repeated until the center C and the center of gravity G of the window W coincide with each other, as shown in FIGS. Here, the squares are white squares surrounded by black grid lines. Therefore, the center of gravity G coincides with the center of the cell when the center of gravity calculation is repeated and converges to a position that coincides with the center C (see FIG. 6D). For this reason, the coordinates of the center C when the center of gravity G converges to a position that coincides with the center C are stored in the CPU memory 110 as the center coordinates of the cells.

[図5のS17(升目の擬似的消去)]
本処理ステップS17では、処理の便宜上、中心座標が保存された升目を擬似的に消去する。
[S17 in FIG. 5 (Pseudo Erase)]
In this processing step S17, for the sake of convenience of processing, the cell in which the center coordinates are stored is erased in a pseudo manner.

本フローチャートは次いで、同図の処理ステップS14(走査完了判定)に進み、ウィンドウWにより走査されていない領域が残っている場合には(図5のS14:NO)、同図の処理ステップS15(ウィンドウWによる撮影チャート画像の走査)の実行後、同図の処理ステップS13(升目の探索)に戻る。処理ステップS13(升目の探索)では、一画素走査後のウィンドウW内に升目(白色の画素)が含まれるか否かが判定される。ウィンドウWに囲われていた升目は消去されているため、一画素走査後のウィンドウW内にも升目(白色の画素)は含まれない。そのため、次の升目が検出されるまで、処理ステップS14(走査完了判定)、処理ステップS15(ウィンドウWによる撮影チャート画像の走査)及び処理ステップS13(升目の探索)が繰り返される。   The flowchart then proceeds to processing step S14 (scanning completion determination) in the figure, and when an area not scanned by the window W remains (S14: NO in FIG. 5), processing step S15 (in FIG. 5) ( After execution of the scanning of the captured chart image by the window W), the processing returns to the processing step S13 (retrieval search) in FIG. In process step S13 (search for cell), it is determined whether or not the cell (white pixel) is included in the window W after one pixel scan. Since the cells surrounded by the window W are deleted, the cells (white pixels) are not included in the window W after one pixel scan. Therefore, the processing step S14 (scanning completion determination), the processing step S15 (scanning of the photographed chart image by the window W) and the processing step S13 (searching for the cell) are repeated until the next cell is detected.

図5のフローチャートの処理を実行することにより、撮影チャート画像内に含まれる全ての升目の中心座標が採取される。   By executing the processing of the flowchart of FIG. 5, the center coordinates of all the cells included in the photographing chart image are collected.

[升目のラベリングフロー]
システム本体100は、撮影チャート画像の歪みを補正するために必要な処理として、升目に対するラベリングを行う。図7に、システム本体100のCPU108によって実行される升目ラベリング処理のフローチャートを示す。また、図8(a)〜図8(d)に、升目ラベリング処理の説明を補助する説明補助図を示す。
[Masame Labeling Flow]
The system main body 100 performs labeling on the grid as a process necessary for correcting the distortion of the photographing chart image. FIG. 7 shows a flowchart of the cell labeling process executed by the CPU 108 of the system main body 100. FIGS. 8A to 8D are explanatory assistance diagrams for assisting the explanation of the cell labeling process.

[図7のS21(注目中心座標の決定)]
本処理ステップS21では、CPUメモリ110に保存されている全ての升目の中心座標(画素位置)を配列したもの(以下、「中心座標配列」と記す。)が走査され、走査により検出された升目の中心座標が注目中心座標に決定される。
[S21 in FIG. 7 (Determination of Attention Center Coordinates)]
In this processing step S21, an array in which the center coordinates (pixel positions) of all cells stored in the CPU memory 110 are arrayed (hereinafter referred to as “center coordinate array”) is scanned, and the cells detected by the scanning are scanned. Is determined as the center coordinate of interest.

[図7のS22(中心座標の位置関係の計算)]
本処理ステップS22では、中心座標配列において注目中心座標に近い近傍中心座標と注目中心座標とを結ぶ直線が定義され、定義された直線の長さと傾きが計算される。近傍中心座標は、典型的には、注目中心座標の升目に隣接する升目の中心座標である。そのため、計算される直線の長さと傾きは、隣接する升目同士の位置関係(配置間隔、並び方向)を表す。ここで、直線は注目中心座標を始点とし、近傍中心座標を終点とする。直線の傾きは始点から終点への変化率であるため、始点である注目中心座標を基準に計算される。
[S22 in FIG. 7 (Calculation of positional relationship of center coordinates)]
In this processing step S22, a straight line connecting the neighboring center coordinates close to the attention center coordinates and the attention center coordinates in the center coordinate array is defined, and the length and inclination of the defined straight line are calculated. The neighborhood center coordinates are typically the center coordinates of a grid adjacent to the grid of the target center coordinates. Therefore, the calculated straight line length and inclination represent the positional relationship (arrangement interval, alignment direction) between adjacent cells. Here, the straight line has the center point of interest as the start point and the center point of the neighborhood as the end point. Since the slope of the straight line is the rate of change from the start point to the end point, it is calculated based on the center coordinate of interest that is the start point.

直線は、注目中心座標に対して規定の方向に位置する一つの近傍中心座標との間に引けばよい。規定の方向の位置の一例として、注目中心座標に対して−Y方向の位置であって、X座標は変わらずY座標だけ変わる位置が挙げられる。以下、この方向の位置を「−Y方向位置」と記す。他の方向の位置についても同様に記す。本実施形態では、直線は、歪み補正の精度を向上させるため、注目中心座標に対して+Y方向位置、−Y方向位置、+X方向位置、−X方向位置にある4つの近傍中心座標との間に引かれる。歪み補正の精度を更に向上させるため、斜め方向位置(X方向又はY方向に対して45°又は−45°をなす方向の位置)も含めた8つの近傍中心座標との間に直線を引いてもよい。   The straight line may be drawn between one neighboring center coordinate located in a prescribed direction with respect to the center coordinate of interest. As an example of the position in the specified direction, there is a position in the −Y direction with respect to the center coordinate of interest, where the X coordinate is not changed and only the Y coordinate is changed. Hereinafter, the position in this direction is referred to as “−Y direction position”. The same applies to positions in other directions. In the present embodiment, in order to improve the accuracy of distortion correction, the straight line is between four neighboring center coordinates at the + Y direction position, the −Y direction position, the + X direction position, and the −X direction position with respect to the center coordinate of interest. Be drawn to. In order to further improve the accuracy of distortion correction, a straight line is drawn between the eight neighboring central coordinates including the diagonal position (position in the direction of 45 ° or −45 ° with respect to the X direction or the Y direction). Also good.

−Y方向位置の近傍中心座標を特定する場合を例に取り、本処理ステップS22の説明を補足する。撮影チャート画像は歪みを持つため、図8(a)に示されるように、−Y方向位置に近傍中心座標があるケースは殆ど無い。そのため、Y方向位置側(注目中心座標に対して−Y方向側の位置であり、Y座標だけでなくX座標も変わる位置)にある複数の近傍中心座標のうち−Y方向位置に最も近い近傍中心座標が−Y方向位置の近傍中心座標として特定される。   Taking the case of specifying the near center coordinates of the position in the -Y direction as an example, the description of this processing step S22 will be supplemented. Since the photographed chart image has distortion, as shown in FIG. 8A, there is almost no case where there is a neighborhood center coordinate at the position in the −Y direction. Therefore, the neighborhood closest to the −Y direction position among a plurality of neighboring center coordinates on the Y direction position side (a position on the −Y direction side with respect to the center coordinate of interest and a position where not only the Y coordinate but also the X coordinate changes) The center coordinate is specified as the vicinity center coordinate of the position in the -Y direction.

[図7のS23(走査完了判定)]
本処理ステップS23では、中心座標配列内の全ての中心座標が注目中心座標として検出されたか否かが判定される。本フローチャートは、中心座標配列内の全ての中心座標が注目中心座標として検出されるまで、同図の処理ステップS21(注目中心座標の決定)から本処理ステップS23までのループを繰り返す(図7のS21、S22、S23:NO)。本フローチャートは、中心座標配列内の全ての中心座標が注目中心座標として検出された場合(図7のS23:YES)、上記ループから抜けて、同図の処理ステップS24(基準長Lの決定)に進む。
[S23 in FIG. 7 (scan completion determination)]
In this processing step S23, it is determined whether or not all center coordinates in the center coordinate array have been detected as the target center coordinates. This flowchart repeats the loop from processing step S21 (determination of attention center coordinates) to this processing step S23 in FIG. 7 until all center coordinates in the center coordinate array are detected as the attention center coordinates (FIG. 7). S21, S22, S23: NO). In this flowchart, when all the center coordinates in the center coordinate array are detected as the center coordinates of interest (S23 in FIG. 7: YES), the process goes out of the loop and processing step S24 (determination of the reference length L) in FIG. Proceed to

[図7のS24(基準長Lの決定)]
本処理ステップS24では、同図の処理ステップS22(中心座標の位置関係の計算)にて計算された全ての直線の長さがヒストグラム化される。すなわち、直線の長さを横軸に取り、直線の長さの出現回数を縦軸に取る統計グラフが作成される。本処理ステップS24では次いで、作成されたヒストグラムからピークを検出することにより、ピークに対応する(すなわち、出現回数が最も多い)直線の長さが特定され、特定された長さが基準長Lと定義される。
[S24 in FIG. 7 (Determination of Reference Length L)]
In this processing step S24, the lengths of all the straight lines calculated in the processing step S22 (calculation of the positional relationship of the center coordinates) in the figure are histogrammed. That is, a statistical graph is created in which the length of a straight line is taken on the horizontal axis and the number of appearances of the length of the straight line is taken on the vertical axis. Next, in this processing step S24, by detecting the peak from the created histogram, the length of the straight line corresponding to the peak (that is, having the highest number of appearances) is specified, and the specified length is the reference length L. Defined.

走査誤差による撮影チャート画像の歪みは不可避ではあるが、あくまで画像全体に対する割合は高くない。そのため、本実施形態では、出現回数の最も多い基準長Lが升目の理想的な配置間隔(走査誤差による撮影チャート画像の歪みがない状態での配置間隔)に近似するものとして扱われる。   Although the distortion of the photographic chart image due to the scanning error is inevitable, the ratio to the entire image is not high. For this reason, in the present embodiment, the reference length L having the highest number of appearances is treated as approximating the ideal arrangement interval (an arrangement interval in a state where there is no distortion of the captured chart image due to a scanning error).

[図7のS25(基準角度θ及びθの決定)]
傾きは最大で∞の値を取るため、処理上不都合なことが多い。本処理ステップS25では、処理の便宜上、同図の処理ステップS22(中心座標の位置関係の計算)にて計算された全ての直線の傾きが角度(−π〜π)に変換される。本実施形態において、角度は、+X方向の軸を基準(=0)としたものであり、第1象限及び第2象限の範囲で0〜πの値を取り、第3象限及び第4象限の範囲で0〜−πの値を取る。角度πと角度−πは処理の便宜上等しい角度とする。変換後の直線の角度はヒストグラム化される。すなわち、直線の角度を横軸に取り、直線の角度の出現回数を縦軸に取る統計グラフが作成される。
[(Determination of the reference angle theta h and theta v) S25 of FIG. 7
Since the slope takes a value of ∞ at the maximum, it is often inconvenient in processing. In this processing step S25, for the convenience of the processing, the inclinations of all straight lines calculated in the processing step S22 (calculation of the positional relationship of the center coordinates) in the figure are converted into angles (−π to π). In this embodiment, the angle is based on the axis in the + X direction (= 0), takes a value of 0 to π in the range of the first quadrant and the second quadrant, and in the third quadrant and the fourth quadrant. Take a value between 0 and -π in the range. The angle π and the angle −π are the same for convenience of processing. The angle of the straight line after conversion is converted into a histogram. That is, a statistical graph is created in which the angle of a straight line is taken on the horizontal axis and the number of appearances of the angle of the straight line is taken on the vertical axis.

直線の角度として、図8(a)に示されるように、注目中心座標と±X方向位置の近傍中心座標の各々とを接続する水平方向に近いものと、注目中心座標と±Y方向位置の近傍中心座標の各々とを接続する垂直方向に近いものが多く現れる。そのため、ヒストグラムには、図8(b)に示されるように、前者に対応するピークと後者に対応するピークの2つのピークが現れる。前者のピークに対応する角度は基準角度θと定義され、後者のピークに対応する角度は基準角度θと定義される。 As shown in FIG. 8A, the angle of the straight line is close to the horizontal direction connecting the center coordinates of interest and each of the vicinity center coordinates of the ± X direction positions, and Many things close to the vertical direction connecting each of the neighboring center coordinates appear. For this reason, as shown in FIG. 8B, the peak corresponding to the former and the peak corresponding to the latter appear in the histogram. Angle corresponding to the former peak is defined as a reference angle theta h, an angle corresponding to the latter peak is defined as the reference angle theta v.

基準角度θ、基準角度θはそれぞれ理想的には角度ゼロ、π/2であるが、撮影チャート画像が大なり小なり歪みを持つため、理想値と一致することは無い。そのため、小さい方の角度を基準角度θとしかつ大きい方の角度を基準角度θとするような単純な条件では、判断誤差が生じることが懸念される。そこで、本実施形態では、次の条件(1)及び(2)を導入することにより、判断精度を向上させている。
(1)2つのピークに対応する角度が|π/4|以上離れている。
(2)角度|π/4|より小さい方を基準角度θとし、それ以外を基準角度θとする。
The reference angle θ h and the reference angle θ v are ideally zero and π / 2, respectively. However, since the photographic chart image has a larger or smaller distortion, it does not match the ideal value. Therefore, in the simple condition such that the angle the larger the reference angle theta h Toshikatsu a smaller angle with the reference angle theta v, is a concern that decision errors may occur. Therefore, in the present embodiment, the following conditions (1) and (2) are introduced to improve the determination accuracy.
(1) The angle corresponding to two peaks is | π / 4 | or more apart.
(2) the angle | π / 4 | and than the smaller reference angle theta h, to the others with reference angle theta v.

本実施形態では、基準長Lと同様の理由により、基準角度θに対応する傾き方向が水平方向(X方向)に隣接する升目の理想的な並び方向(走査誤差による撮影チャート画像の歪みがない状態での並び方向)に近似するものとして扱われる。また、基準角度θに対応する傾き方向が垂直方向(Y方向)に隣接する升目の理想的な並び方向に近似するものとして扱われる。 In the present embodiment, for the same reason as the reference length L, the inclination direction corresponding to the reference angle θ h is the ideal alignment direction of the grids adjacent to the horizontal direction (X direction) (the distortion of the photographic chart image due to the scanning error is It is treated as approximating the direction of alignment in the absence). Also treated as tilt directions corresponding to the reference angle theta v approximates the ideal arrangement direction squares adjacent in the vertical direction (Y direction).

[図7のS26(注目中心座標の再設定)]
本処理ステップS26では、以降の処理ステップを実行するため、注目中心座標が改めて設定される。
[S26 in FIG. 7 (resetting of the center coordinates of interest)]
In this processing step S26, the center coordinates of interest are newly set in order to execute the subsequent processing steps.

本フローチャートにおいて、本処理ステップS26から同図の処理ステップS30(基準直線の更新)までの処理ステップ群はループする。そのため、本処理ステップS26は、ループを抜けるまで複数回実行される。初回の実行時には、撮影チャート画像の中心に最も近い中心座標に対してラベル(i(=0),j(=0))が割り当てられる。ラベル(i(=0),j(=0))が割り当てられた中心座標が注目中心座標として設定される。本処理ステップS26が再び実行されるときには、中心座標(i(=0),j(=0))から+X方向に隣接する中心座標が注目中心座標として順に設定され、続いて、中心座標(i(=0),j(=0))から−X方向に隣接する中心座標が注目中心座標として順に設定される。それが完了すると、中心座標(i(=0),j(=1))から+X方向に隣接する中心座標が注目中心座標として順に設定され、続いて、中心座標(i(=0),j(=1))から−X方向に隣接する中心座標が注目中心座標として順に設定される。それが完了すると、中心座標(i(=0),j(=2))から+X方向に隣接する中心座標が注目中心座標として順に設定され、続いて、中心座標(i(=0),j(=2))から−X方向に隣接する中心座標が注目中心座標として順に設定される。上記の処理は、全ての中心座標が注目中心座標として再設定されるまで繰り返し実行される。   In this flowchart, the processing step group from this processing step S26 to the processing step S30 (updating the reference straight line) in the figure loops. Therefore, this processing step S26 is executed a plurality of times until exiting the loop. At the first execution, a label (i (= 0), j (= 0)) is assigned to the center coordinate closest to the center of the photographing chart image. Center coordinates to which labels (i (= 0), j (= 0)) are assigned are set as attention center coordinates. When this processing step S26 is executed again, the center coordinates adjacent in the + X direction from the center coordinates (i (= 0), j (= 0)) are sequentially set as the center coordinates of interest, and then the center coordinates (i Center coordinates adjacent in the −X direction from (= 0), j (= 0)) are sequentially set as target center coordinates. When this is completed, the center coordinates adjacent in the + X direction from the center coordinates (i (= 0), j (= 1)) are sequentially set as the attention center coordinates, and then the center coordinates (i (= 0), j From (= 1)), the center coordinates adjacent in the −X direction are set in order as the center coordinates of interest. When this is completed, the center coordinates adjacent in the + X direction from the center coordinates (i (= 0), j (= 2)) are sequentially set as the attention center coordinates, and then the center coordinates (i (= 0), j From (= 2)), the center coordinates adjacent in the −X direction are sequentially set as the center coordinates of interest. The above processing is repeatedly executed until all center coordinates are reset as the center coordinates of interest.

[図7のS27(探索範囲の設定)]
本処理ステップS27では、図8(c)に示されるように、直前の処理ステップS26(注目中心座標の再設定)にて設定された注目中心座標を始点とする直線が4方向に引かれる。以下、「直前の処理ステップS26(注目中心座標の再設定)にて設定された注目中心座標」を「最新注目中心座標」と記す。具体的には、最新注目中心座標を始点として、基準長Lを持ちかつ基準角度θに対応する傾きを持つ直線が+X方向位置側と−X方向位置側に引かれると共に、基準長Lを持ちかつ基準角度θに対応する傾きを持つ直線が+Y方向位置側と−Y方向位置側に引かれる。本処理ステップS27では次いで、この4本の直線(以下、「基準直線」と記す。)の各々の終点を中心とした所定範囲が探索範囲(図8(c)中、点線)として設定される。
[S27 in FIG. 7 (Set Search Range)]
In this processing step S27, as shown in FIG. 8C, straight lines starting from the attention center coordinates set in the immediately preceding processing step S26 (resetting attention center coordinates) are drawn in four directions. Hereinafter, “the attention center coordinates set in the immediately preceding processing step S26 (resetting of the attention center coordinates)” will be referred to as “latest attention center coordinates”. Specifically, as a starting point the latest attention center coordinates, it has the reference length L and with a straight line having a slope corresponding to the reference angle theta h is pulled in the + X direction position side and the -X direction position side, the reference length L have and straight line having a slope corresponding to the reference angle theta v is pulled in the + Y direction position side and the -Y direction position. Next, in this processing step S27, a predetermined range centering on the end point of each of the four straight lines (hereinafter referred to as “reference straight line”) is set as a search range (dotted line in FIG. 8C). .

[図7のS28(隣接中心座標へのラベリング)]
本処理ステップS28では、同図の処理ステップS27(探索範囲の設定)にて設定された4つの探索範囲に属するそれぞれの中心座標が最新注目中心座標に隣接する隣接中心座標としてラベリングされる。+X方向位置側の隣接中心座標にはラベル(i+1,j)が割り当てられ、−X方向位置側の隣接中心座標にはラベル(i−1,j)が割り当てられる。また、+Y方向位置側の隣接中心座標にはラベル(i,j+1)が割り当てられ、−Y方向位置側の隣接中心座標にはラベル(i,j−1)が割り当てられる。なお、探索範囲に中心座標が存在しない場合は、ラベリングしない。又は、基準直線の終点を隣接中心座標とみなしてラベリングしてもよい。また、探索範囲に属する中心座標が既にラベリングされている場合は、再度のラベリングを行わない。
[S28 in FIG. 7 (labeling to adjacent center coordinates)]
In this processing step S28, the respective center coordinates belonging to the four search ranges set in the processing step S27 (search range setting) in the figure are labeled as adjacent center coordinates adjacent to the latest attention center coordinate. The label (i + 1, j) is assigned to the adjacent center coordinate on the + X direction position side, and the label (i−1, j) is assigned to the adjacent center coordinate on the −X direction position side. Further, a label (i, j + 1) is assigned to the adjacent center coordinate on the + Y direction position side, and a label (i, j−1) is assigned to the adjacent center coordinate on the −Y direction position side. Note that no labeling is performed when there is no center coordinate in the search range. Alternatively, labeling may be performed by regarding the end point of the reference straight line as the adjacent center coordinates. Further, when the center coordinates belonging to the search range are already labeled, the labeling is not performed again.

[図7のS29(走査完了判定)]
本処理ステップS29では、中心座標配列内の全ての中心座標に対してラベリングが行われたか否かが判定される。本フローチャートは、中心座標配列内の全ての中心座標に対してラベリングが行われた場合(図7のS29:YES)、終了する。ラベリングが行われていない中心座標が残っている場合には(図7のS29:NO)、同図の処理ステップS30(基準直線の更新)に進む。
[S29 in FIG. 7 (scan completion determination)]
In this processing step S29, it is determined whether or not labeling has been performed on all center coordinates in the center coordinate array. This flowchart is ended when the labeling is performed on all the center coordinates in the center coordinate array (S29 in FIG. 7: YES). If center coordinates that have not been labeled remain (S29 in FIG. 7: NO), the process proceeds to processing step S30 (update of the reference straight line) in FIG.

[図7のS30(基準直線の更新)]
探索範囲に属する隣接中心座標と基準直線の終点との画素位置の差は、最新注目中心座標に対応する升目とその隣接中心座標に対応する升目との撮影チャート画像上の歪みの差に相当する。また、光ファイバ202は、一定の共振周波数で動作制御される。そのため、走査領域の周辺ほど走査速度が高速である。本発明者は、これらの点を踏まえて実験及び検討を重ねた結果、走査速度が高速な走査領域の周辺に近付くにつれて歪みが徐々に大きくなるという知見を得た。
[S30 in FIG. 7 (Update of Reference Line)]
The difference in pixel position between the adjacent center coordinates belonging to the search range and the end point of the reference line corresponds to the distortion difference on the photographing chart image between the cell corresponding to the latest attention center coordinate and the cell corresponding to the adjacent center coordinate. . The operation of the optical fiber 202 is controlled at a constant resonance frequency. For this reason, the scanning speed is higher at the periphery of the scanning region. As a result of repeated experiments and examinations based on these points, the present inventor has found that the distortion gradually increases as it approaches the periphery of the scanning region where the scanning speed is high.

上記知見に基づき、本処理ステップS30では、図8(d)に示されるように、各基準直線の終点が同図の処理ステップS28(隣接中心座標へのラベリング)にてラベリングされた隣接中心座標に修正される。各基準直線は、終点位置の修正により更新されることにより、最新注目中心座標に対応する升目とその隣接中心座標に対応する升目との撮影チャート画像上の歪みの差に相当する分だけ長さ及び傾きが変わる。基準直線は、本処理ステップS30が実行される毎に上記歪みの差に応じて徐々に修正・更新される。   Based on the above knowledge, in this processing step S30, as shown in FIG. 8D, the adjacent center coordinates where the end points of the respective reference straight lines are labeled in the processing step S28 (labeling to the adjacent center coordinates) in the same figure. To be corrected. Each reference line is updated by correcting the end point position, so that the reference line has a length corresponding to the difference in distortion on the captured chart image between the cell corresponding to the latest attention center coordinate and the cell corresponding to the adjacent center coordinate. And the tilt changes. The reference straight line is gradually corrected and updated according to the difference in distortion every time this processing step S30 is executed.

図7の処理ステップS26(注目中心座標の再設定)から本処理ステップS30までのループが繰り返されることにより、中心座標配列内の全ての中心座標に対してラベル(i,j)が割り当てられる。   By repeating the loop from processing step S26 (resetting of the center coordinates of interest) to this processing step S30 in FIG. 7, labels (i, j) are assigned to all the center coordinates in the center coordinate array.

[撮影チャート画像の歪み補正テーブルの作成フロー]
システム本体100は、各画素における撮影チャート画像の歪みを補正するための歪み補正テーブルを作成する。図9に、システム本体100のCPU108によって実行される歪み補正テーブル作成処理のフローチャートを示す。また、図10(a)〜図10(c)に、歪み補正テーブル作成処理の説明を補助する説明補助図を示す。
[Flow for creating a distortion correction table for shooting chart images]
The system main body 100 creates a distortion correction table for correcting distortion of the photographing chart image in each pixel. FIG. 9 shows a flowchart of distortion correction table creation processing executed by the CPU 108 of the system main body 100. Also, FIGS. 10A to 10C are explanatory assistance diagrams for assisting the explanation of the distortion correction table creation processing.

[図9のS41(理想的な中心座標配列の作成)]
本処理ステップS41では、升目の理想的な配列に対応する中心座標配列が作成される。具体的には、撮影チャート画像に対応する所定の仮想領域の中心に一つの中心座標が配置される。次いで、図10(a)に示されるように、仮想領域の中心に配置された中心座標から、所定の四方向であって基準長Lだけ離れた位置のそれぞれに中心座標が配置される。所定の四方向とは、具体的には、基準角度θに対応する方向(+X方向位置側)、基準角度θに対応する方向(−X方向位置側)、基準角度θに対応する方向(+Y方向位置側)、基準角度θに対応する方向(−Y方向位置側)である。次に、図10(b)に示されるように、各位置に配置された4つの中心座標のそれぞれから、所定の少なくとも一方向であって基準長Lだけ離れた位置に中心座標が配置される。所定の少なくとも一方向とは、上記四方向のうち既に中心座標が配置されている方向を除く方向である。図10(b)の例では、4つの中心座標のそれぞれから、既に中心座標が配置されている方向を除く三方向であって基準長Lだけ離れた位置のそれぞれに中心座標が配置される。
[S41 in FIG. 9 (Creation of ideal center coordinate array)]
In this processing step S41, a center coordinate array corresponding to the ideal array of cells is created. Specifically, one center coordinate is arranged at the center of a predetermined virtual area corresponding to the photographing chart image. Next, as shown in FIG. 10A, center coordinates are arranged at respective positions in the predetermined four directions and by a reference length L from the center coordinates arranged at the center of the virtual region. Specifically, the four predetermined directions correspond to a direction corresponding to the reference angle θ h (+ X direction position side), a direction corresponding to the reference angle θ h (−X direction position side), and a reference angle θ v . direction (+ Y direction position side), a direction corresponding to the reference angle theta v (-Y direction position side). Next, as shown in FIG. 10B, the center coordinates are arranged at a position that is separated from each of the four center coordinates arranged at each position by a reference length L in at least one predetermined direction. . The predetermined at least one direction is a direction excluding the direction in which the center coordinates are already arranged among the four directions. In the example of FIG. 10B, the center coordinates are arranged at positions separated from each of the four center coordinates by the reference length L in three directions excluding the direction in which the center coordinates are already arranged.

本処理ステップS41では、図10(c)に示されるように、中心座標が仮想領域の全体に配置されるまで、中心座標の配置処理が繰り返される。以下、説明の便宜上、仮想領域全域に亘る中心座標の配列を「理想中心座標配列」と記す。   In this processing step S41, as shown in FIG. 10C, the center coordinate arrangement process is repeated until the center coordinates are arranged in the entire virtual area. Hereinafter, for convenience of explanation, an array of center coordinates over the entire virtual region is referred to as an “ideal center coordinate array”.

[図9のS42(理想中心座標配列へのラベリング)]
本処理ステップ42では、理想中心座標配列内の各中心座標に対して、撮影チャート画像の中心座標配列に対応するラベル(i,j)が割り当てられる。理想中心座標配列内の全ての中心座標に対してラベル(i,j)が割り当てられるまで、図7の処理ステップS26(注目中心座標の再設定)から同図の処理ステップS29(走査完了判定)までの処理ステップ群と同様の処理ステップ群がループ処理される。
[S42 in FIG. 9 (labeling to the ideal center coordinate array)]
In this processing step 42, a label (i, j) corresponding to the center coordinate array of the photographing chart image is assigned to each center coordinate in the ideal center coordinate array. Until the label (i, j) is assigned to all the center coordinates in the ideal center coordinate array, the processing step S26 in FIG. 7 (resetting the attention center coordinates) to the processing step S29 in FIG. 7 (scanning completion determination). A processing step group similar to the previous processing step group is loop-processed.

[図9のS43(歪み補正ベクトルの算出)]
本処理ステップ43では、注目ラベルが決定される。次いで、決定された注目ラベルが割り当てられた撮影チャート画像の中心座標配列内の中心座標を始点とし、同じく注目ラベルが割り当てられた理想中心座標配列の中心座標を終点とするベクトルが算出される。以下、このベクトルを「歪み補正ベクトル」と記す。歪み補正ベクトルは、CPUメモリ110に保存される。
[S43 in FIG. 9 (Calculation of Distortion Correction Vector)]
In this processing step 43, the attention label is determined. Next, a vector is calculated that starts from the center coordinates in the center coordinate array of the photographic chart image to which the determined attention label is assigned and starts from the center coordinates of the ideal center coordinate array to which the attention label is assigned. Hereinafter, this vector is referred to as a “distortion correction vector”. The distortion correction vector is stored in the CPU memory 110.

図11は、歪み補正ベクトルを示す概念図である。図11中、丸(実線)は、撮影チャート画像の中心座標配列内の中心座標を示し、丸(点線)は、理想中心座標配列の中心座標を示す。また、矢印は、対応するラベル(同一ラベル)が割り当てられた中心座標間の歪み補正ベクトルを示す。   FIG. 11 is a conceptual diagram showing a distortion correction vector. In FIG. 11, a circle (solid line) indicates the center coordinate in the center coordinate array of the imaging chart image, and a circle (dotted line) indicates the center coordinate of the ideal center coordinate array. An arrow indicates a distortion correction vector between center coordinates to which a corresponding label (same label) is assigned.

[図9のS44(歪み補正ベクトル算出完了判定)]
本処理ステップS44では、ラベルが割り当てられた全ての中心座標について歪み補正ベクトルが算出されたか否かが判定される。本フローチャートは、ラベルが割り当てられた全ての中心座標について歪み補正ベクトルが算出されるまで、同図のS43(歪み補正ベクトルの算出)から本処理ステップS44までのループを繰り返す(図9のS43、S44:NO)。本フローチャートは、ラベルが割り当てられた全ての中心座標について歪み補正ベクトルが算出された場合(図9のS44:YES)、上記ループから抜けて、同図の処理ステップS45(補間による歪み補正ベクトルの算出)に進む。
[S44 in FIG. 9 (Distortion Correction Vector Calculation Completion Determination)]
In this processing step S44, it is determined whether or not distortion correction vectors have been calculated for all center coordinates to which labels have been assigned. This flowchart repeats the loop from S43 (calculation of distortion correction vector) to this processing step S44 until the distortion correction vector is calculated for all center coordinates to which labels are assigned (S43, FIG. 9). S44: NO). In this flowchart, when the distortion correction vectors are calculated for all the center coordinates to which the labels are assigned (S44 in FIG. 9: YES), the process exits from the loop and the processing step S45 in FIG. Go to (Calculation).

[図9のS45(補間による歪み補正ベクトルの算出)]
上記ループを抜けた時点では、ラベルが割り当てられた全ての升目の中心座標の画素について歪み補正ベクトルが算出されているものの、各中心座標の画素の間の画素については歪み補正ベクトルが算出されていない。そこで、本処理ステップS45では、各中心座標の画素の間に配置されている画素について歪み補正ベクトルがスプライン補間など周知の補間法により求められる。
[S45 in FIG. 9 (calculation of distortion correction vector by interpolation)]
At the time of exiting the above loop, although the distortion correction vectors are calculated for all the pixels of the central coordinates to which the labels are assigned, the distortion correction vectors are calculated for the pixels between the pixels of the respective central coordinates. Absent. Therefore, in this processing step S45, a distortion correction vector is obtained by a known interpolation method such as spline interpolation for the pixels arranged between the pixels of the respective center coordinates.

[図9のS46(歪み補正テーブルの作成)]
本処理ステップS46では、同図の処理ステップS43(歪み補正ベクトルの算出)及び処理ステップS45(補間による歪み補正ベクトルの算出)にて求められた全画素の歪み補正ベクトルと画素アドレスとを対応させた歪み補正テーブルが作成される。作成された歪み補正テーブルは、CPUメモリ110に保存される。
[S46 in FIG. 9 (Create Distortion Correction Table)]
In this processing step S46, the distortion correction vectors and pixel addresses of all the pixels obtained in the processing step S43 (calculation of distortion correction vector) and the processing step S45 (calculation of distortion correction vector by interpolation) shown in FIG. A distortion correction table is created. The created distortion correction table is stored in the CPU memory 110.

図9のフローチャートの処理を実行することにより、画像の歪みに対する画素単位の補正データの集合である歪み補正テーブルが作成される。   By executing the processing of the flowchart of FIG. 9, a distortion correction table that is a set of correction data in pixel units for image distortion is created.

[チャート画像の歪み補正フロー]
システム本体100は、歪み補正テーブルを用いて共焦点画像の歪みを補正する。図12に、システム本体100のCPU108によって実行される画像歪み補正処理のフローチャートを示す。
[Chart correction flow of chart image]
The system main body 100 corrects the distortion of the confocal image using the distortion correction table. FIG. 12 shows a flowchart of image distortion correction processing executed by the CPU 108 of the system main body 100.

[図12のS51(リマッピング)]
本処理ステップS51では、リマップテーブルを用いたリマッピングが行われる。これにより、各共焦点画像検出信号によって表現される点像を画素アドレスに従って二次元に配列した共焦点画像の生成が可能となる。しかし、この段階では、走査誤差等による歪みが残存するものが生成されてしまう。
[S51 (Remapping) in FIG. 12]
In this processing step S51, remapping is performed using a remapping table. As a result, it is possible to generate a confocal image in which point images expressed by the respective confocal image detection signals are two-dimensionally arranged according to pixel addresses. However, at this stage, a distortion remains due to a scanning error or the like.

[図12のS52(再リマッピング)]
そこで、本処理ステップS52において、歪み補正テーブルを用いた再リマッピングが行われる。具体的には、同図の処理ステップS51(リマッピング)にてリマッピングされた共焦点画像検出信号によって表現される点像の位置が、当該位置(走査誤差等によって歪んだ位置であって、歪み補正ベクトルの始点に対応する位置)から歪みのない位置(理想中心座標配列に対応する位置であって、歪み補正ベクトルの終点に対応する位置)へ変換される。この画素アドレスの変換は、全ての共焦点画像検出信号に対して行われる。
[S52 in FIG. 12 (Re-Mapping)]
Therefore, in this processing step S52, remapping is performed using the distortion correction table. Specifically, the position of the point image expressed by the confocal image detection signal remapped in the processing step S51 (remapping) in FIG. The position is converted from a position corresponding to the start point of the distortion correction vector to a position without distortion (a position corresponding to the ideal center coordinate array and corresponding to the end point of the distortion correction vector). This pixel address conversion is performed for all confocal image detection signals.

[図12のS53(共焦点画像の出力)]
本処理ステップS53では、再リマッピング処理後の共焦点画像検出信号が画像メモリ118にフレーム単位でバッファリングされる。バッファリングされた共焦点画像検出信号は、所定のタイミングで画像メモリ118から映像信号出力回路120に掃き出されて、NTSCやPA等の所定の規格に準拠した映像信号に変換される。変換された映像信号がモニタ300に出力されることにより、歪みが補正された共焦点画像がモニタ300の表示画面に表示される。
[S53 in FIG. 12 (Output of Confocal Image)]
In this processing step S53, the confocal image detection signal after the remapping processing is buffered in the image memory 118 in units of frames. The buffered confocal image detection signal is swept from the image memory 118 to the video signal output circuit 120 at a predetermined timing, and converted into a video signal conforming to a predetermined standard such as NTSC or PA. By outputting the converted video signal to the monitor 300, a confocal image whose distortion has been corrected is displayed on the display screen of the monitor 300.

図13(a)は、図12の処理ステップS52(再リマッピング)を実行しない場合に生成される撮影チャート画像を示し、図13(b)は、処理ステップS52(再リマッピング)を実行した場合に生成される撮影チャート画像を示す。図13(a)と図13(b)とを比較すると、処理ステップS52(再リマッピング)を実行することにより、撮影チャート画像内の歪みが補正されることが判る。   FIG. 13A shows a captured chart image generated when the processing step S52 (re-remapping) of FIG. 12 is not executed, and FIG. 13B shows that the processing step S52 (re-remapping) is executed. The imaging | photography chart image produced | generated in a case is shown. Comparing FIG. 13 (a) and FIG. 13 (b), it can be seen that the distortion in the captured chart image is corrected by executing the processing step S52 (re-remapping).

歪みの補正は、画素単位など、細かい領域単位で行われる。そのため、共焦点画像は、複雑な歪みを持つものであっても高い精度で補正される。また、歪みの補正値は歪み補正ベクトルとして簡易に算出することができる。本実施形態では、特許文献1に記載された方法のように、キャリブレーション作業を繰り返す必要がないため、歪み補正に必要な時間的負荷が軽い。また、PSDを治具に備える必要がないため、特許文献1と比べて治具の構成が簡素化される。   Distortion correction is performed in units of fine areas such as pixels. Therefore, the confocal image is corrected with high accuracy even if it has complicated distortion. The distortion correction value can be easily calculated as a distortion correction vector. In the present embodiment, unlike the method described in Patent Document 1, it is not necessary to repeat the calibration work, so the time load required for distortion correction is light. Moreover, since it is not necessary to provide PSD with a jig, the structure of the jig is simplified as compared with Patent Document 1.

以上が本発明の例示的な実施形態の説明である。本発明の実施形態は、上記に説明したものに限定されず、本発明の技術的思想の範囲において様々な変形が可能である。例えば明細書中に例示的に明示される実施例等又は自明な実施例等を適宜組み合わせた内容も本願の実施形態に含まれる。   The above is the description of the exemplary embodiments of the present invention. Embodiments of the present invention are not limited to those described above, and various modifications are possible within the scope of the technical idea of the present invention. For example, the embodiment of the present application also includes contents appropriately combined with examples and the like clearly shown in the specification or obvious examples.

1 走査型共焦点内視鏡システム
100 システム本体
200 共焦点プローブ
300 モニタ
400 治具
1 Scanning Confocal Endoscope System 100 System Main Body 200 Confocal Probe 300 Monitor 400 Jig

Claims (5)

所定の走査光により略円形の走査領域内で中心及び周辺の一方から他方に向かい所定の回転周期で渦巻状に走査された、複数の指標が規則的に配列された被写体からの戻り光を受光することによって検出された該被写体の画像信号を取得する画像信号取得手段と、
取得された画像信号に対し、前記走査光による走査領域内の走査位置と対応する位置関係にある二次元画素配列内の画素位置を、該画像信号の検出タイミングに応じて割り当て、該割り当てられた画素位置に各該画像信号を配列することにより前記被写体の画像を生成する画像生成手段と、
生成された画像内における各前記指標の画素位置を検出する指標位置検出手段と、
検出された各指標の画素位置に基づいて前記複数の指標を並べた指標画像配列を作成する指標画像配列作成手段と、
前記画像内における各指標について、該指標を始点としかつ該指標に対して所定の方向に位置する少なくとも一つの隣接指標を終点とする直線を定義し、定義された直線の長さ及び傾きを算出する長さ傾き算出手段と、
前記各指標に対して算出された前記直線の長さの出現回数を分布化したときの長さピーク及び該直線の傾きの出現回数を分布化したときの傾きピークを検出するピーク検出手段と、
前記傾きピークに対応する傾きの方向に前記長さピークに対応する長さの配置間隔で前記複数の指標を並べることにより理想配列を作成する理想配列作成手段と、
前記指標画像配列作成手段により作成された指標画像配列と、前記理想配列作成手段により作成された理想配列と比較し、比較結果に基づいて前記画像内における各指標の歪みを補正する歪み補正手段と、
を備える、
走査型共焦点内視鏡システム
Receives return light from a subject in which a plurality of indicators are regularly arranged, scanned in a spiral shape with a predetermined rotation period from one of the center and the periphery to the other within a substantially circular scanning area by a predetermined scanning light. Image signal acquisition means for acquiring an image signal of the subject detected by
A pixel position in a two-dimensional pixel array having a positional relationship corresponding to a scanning position in a scanning area by the scanning light is assigned to the acquired image signal according to the detection timing of the image signal, and the assigned Image generating means for generating an image of the subject by arranging the image signals at pixel positions;
Index position detection means for detecting a pixel position of each index in the generated image;
Index image array creating means for creating an index image array in which the plurality of indices are arranged based on the detected pixel positions of the indices;
For each index in the image, a straight line starting from the index and having at least one adjacent index positioned in a predetermined direction with respect to the index is defined, and the length and inclination of the defined straight line are calculated. A length inclination calculating means to perform,
Peak detection means for detecting the length peak when distributing the number of appearances of the length of the straight line calculated for each index and the slope peak when distributing the number of appearances of the slope of the straight line;
Ideal array creating means for creating an ideal array by arranging the plurality of indices at an arrangement interval of a length corresponding to the length peak in the direction of the slope corresponding to the tilt peak;
Distortion correcting means for comparing the index image array created by the index image array creating means with the ideal array created by the ideal array creating means and correcting distortion of each index in the image based on the comparison result When,
Comprising
Scanning confocal endoscope system .
前記指標画像配列作成手段は、
(1a)前記指標画像配列内から注目指標を決定し、
(2a)決定された注目指標に前記指標画像配列内における配列位置情報を割り当て、
(3a)前記配列位置情報が割り当てられた注目指標を始点とする所定の長さ及び所定の傾きを持つ少なくとも一本の基準直線を定義し、定義された基準直線の終点を含む所定範囲内に位置する指標に対して前記注目指標に隣接する配列位置情報を割り当て、
(4a)全ての指標に前記配列位置情報が割り当てられるまで(1a)〜(3a)を繰り返す、
請求項1に記載の走査型共焦点内視鏡システム
The index image array creation means includes
(1a) determining a target index from within the index image array;
(2a) assigning array position information in the index image array to the determined target index,
(3a) Define at least one reference line having a predetermined length and a predetermined inclination starting from the attention index to which the array position information is assigned, and within a predetermined range including the end point of the defined reference line Assigning sequence position information adjacent to the target index to the index that is located,
(4a) Repeat (1a) to (3a) until the sequence position information is assigned to all indexes.
The scanning confocal endoscope system according to claim 1.
前記理想配列作成手段は、
(1b)前記理想配列内から注目指標を決定し、
(2b)決定された注目指標に前記指標画像配列に対応する配列位置情報を割り当て、
(3b)前記配列位置情報が割り当てられた注目指標を始点とする所定の長さ及び所定の傾きを持つ少なくとも一本の基準直線を定義し、定義された基準直線の終点を含む所定範囲内に位置する指標に対して前記注目指標に隣接する配列位置情報を割り当て、
(4b)全ての指標に前記指標画像配列に対応する前記配列位置情報が割り当てられるまで(1b)〜(3b)を繰り返す、
請求項に記載の走査型共焦点内視鏡システム
The ideal array creating means includes
(1b) determining an attention index from within the ideal sequence;
(2b) assigning array position information corresponding to the index image array to the determined target index,
(3b) Define at least one reference line having a predetermined length and a predetermined inclination starting from the attention index to which the array position information is assigned, and within a predetermined range including the end point of the defined reference line Assigning sequence position information adjacent to the target index to the index that is located,
(4b) Repeat (1b) to (3b) until the array position information corresponding to the index image array is assigned to all indices.
The scanning confocal endoscope system according to claim 2 .
前記歪み補正手段は、
前記指標画像配列内の各指標について、対応する配列位置情報が割り当てられた前記理想配列内の指標との画素位置の差に基づいて補正ベクトルを計算し、
計算された補正ベクトルに基づいて該各指標の歪みを補正する、
請求項に記載の走査型共焦点内視鏡システム
The distortion correction means includes
For each index in the index image array, calculate a correction vector based on the difference in pixel position from the index in the ideal array to which the corresponding array position information is assigned,
Correcting distortion of each index based on the calculated correction vector;
The scanning confocal endoscope system according to claim 3 .
前記被写体は、
黒色の背景に白色の正方形の升目をマトリックス状に並べたものである、
請求項1から請求項の何れか一項に記載の走査型共焦点内視鏡システム
The subject is
The white squares are arranged in a matrix on a black background.
The scanning confocal endoscope system according to any one of claims 1 to 4 .
JP2013152508A 2013-07-23 2013-07-23 Scanning confocal endoscope system Active JP6179942B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013152508A JP6179942B2 (en) 2013-07-23 2013-07-23 Scanning confocal endoscope system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013152508A JP6179942B2 (en) 2013-07-23 2013-07-23 Scanning confocal endoscope system

Publications (2)

Publication Number Publication Date
JP2015020003A JP2015020003A (en) 2015-02-02
JP6179942B2 true JP6179942B2 (en) 2017-08-16

Family

ID=52484990

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013152508A Active JP6179942B2 (en) 2013-07-23 2013-07-23 Scanning confocal endoscope system

Country Status (1)

Country Link
JP (1) JP6179942B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6465436B2 (en) * 2015-03-23 2019-02-06 オリンパス株式会社 Scanning endoscope system
WO2016170560A1 (en) 2015-04-24 2016-10-27 オリンパス株式会社 Method for measuring scan characteristics of optical scanning device, and chart for measuring scan characteristics used in same
WO2017138207A1 (en) * 2016-02-08 2017-08-17 オリンパス株式会社 Endoscope processor and endoscope system
CN113327202A (en) * 2021-03-30 2021-08-31 苏州微清医疗器械有限公司 Image distortion correction method and application thereof

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8305432B2 (en) * 2007-01-10 2012-11-06 University Of Washington Scanning beam device calibration

Also Published As

Publication number Publication date
JP2015020003A (en) 2015-02-02

Similar Documents

Publication Publication Date Title
JP5570436B2 (en) Calibration apparatus and calibration method
US10226162B2 (en) Calibration apparatus
JP5665552B2 (en) Calibration apparatus and calibration method
JP6179942B2 (en) Scanning confocal endoscope system
JP2010142597A (en) Endoscope system
JP2014147462A (en) Calibration method and scanning type endoscope system
US20140323878A1 (en) Scanning probe, scanning observation system, integrated endoscope, and integrated endoscope system
US10488647B2 (en) Method for measuring scanning pattern of optical scanning apparatus, apparatus for measuring scanning pattern, and method for calibrating image
JP2013081680A (en) Optical scanning endoscope system
JP6114609B2 (en) Scanning endoscope
JP2014018556A (en) Calibration apparatus
JP4307815B2 (en) Confocal laser scanning microscope apparatus and program thereof
JP2013142769A (en) Microscope system, autofocus program and autofocus method
JP2014149354A (en) Calibration method and scanning type endoscope system
JP2014090780A (en) Calibration jig, calibration system, and calibration method
JP6012363B2 (en) Scanning confocal endoscope system
JP2010080144A (en) Compound microscope device and method of observing sample
JP2008292809A (en) Microscope
JP6055420B2 (en) Scanning endoscope system
JP6161451B2 (en) Image distortion detection apparatus and image distortion detection method
JP4574758B2 (en) Microscope image observation device
JP6067309B2 (en) Endoscope system and endoscope processor
CN107427182B (en) Scanning type observation device and image display method for scanning type observation device
JP2014018555A (en) Scanning area adjustment apparatus
JP2012147831A (en) Scanning position correction device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160525

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170330

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170602

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170614

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170717

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170712

R150 Certificate of patent or registration of utility model

Ref document number: 6179942

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250