JP5957063B2 - Microscope system - Google Patents

Microscope system Download PDF

Info

Publication number
JP5957063B2
JP5957063B2 JP2014245014A JP2014245014A JP5957063B2 JP 5957063 B2 JP5957063 B2 JP 5957063B2 JP 2014245014 A JP2014245014 A JP 2014245014A JP 2014245014 A JP2014245014 A JP 2014245014A JP 5957063 B2 JP5957063 B2 JP 5957063B2
Authority
JP
Japan
Prior art keywords
objective lens
unit
pixel data
light receiving
receiving element
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014245014A
Other languages
Japanese (ja)
Other versions
JP2015079267A (en
Inventor
卓哉 苅部
卓哉 苅部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Keyence Corp
Original Assignee
Keyence Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Keyence Corp filed Critical Keyence Corp
Priority to JP2014245014A priority Critical patent/JP5957063B2/en
Publication of JP2015079267A publication Critical patent/JP2015079267A/en
Application granted granted Critical
Publication of JP5957063B2 publication Critical patent/JP5957063B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、顕微鏡システムに関する。   The present invention relates to a microscope system.

共焦点顕微鏡では、レーザ光源から出射されたレーザ光が対物レンズにより測定対象物に集光される。測定対象物からの反射光が受光レンズにより集光され、ピンホールを通して受光素子に入射する(例えば、特許文献1参照)。レーザ光は測定対象物の表面で二次元的に走査される。また、測定対象物と対物レンズとの間の相対的な距離を変化させることにより受光素子の受光量の分布が変化する。測定対象物の表面に焦点が合ったときに受光量のピークが現れる。受光量分布のピーク強度に基づいて非常に高い焦点深度を有する超深度画像を得ることができる。また、受光量分布のピーク位置に基づいて測定対象物の表面の高さ分布を示す高さ画像を得ることができる。   In the confocal microscope, laser light emitted from a laser light source is condensed on a measurement object by an objective lens. The reflected light from the measurement object is collected by the light receiving lens and enters the light receiving element through the pinhole (see, for example, Patent Document 1). The laser beam is scanned two-dimensionally on the surface of the measurement object. Further, the distribution of the amount of light received by the light receiving element is changed by changing the relative distance between the measurement object and the objective lens. A peak in the amount of received light appears when the surface of the measurement object is focused. An ultra-deep image having a very high depth of focus can be obtained based on the peak intensity of the received light amount distribution. Moreover, a height image showing the height distribution of the surface of the measurement object can be obtained based on the peak position of the received light amount distribution.

特開2008−83601号公報JP 2008-83601A

共焦点顕微鏡によれば、測定対象物と対物レンズとの間の相対的な距離を変化させつつレーザ光を測定対象物の表面で二次元的に走査させることにより、測定対象物と対物レンズとの間の相対的な複数の距離に対応する複数の共焦点画像データが生成される。生成された複数の共焦点画像データに基づいて超深度画像データまたは高さ画像データが生成される。超深度画像データまたは高さ画像データに基づいて超深度画像または高さ画像が表示部に表示される。使用者は、測定対象物の観察範囲を指定することができる。   According to the confocal microscope, a laser beam is scanned two-dimensionally on the surface of the measurement object while changing a relative distance between the measurement object and the objective lens, thereby allowing the measurement object and the objective lens to be scanned. A plurality of confocal image data corresponding to a plurality of relative distances are generated. Ultra-depth image data or height image data is generated based on the plurality of generated confocal image data. An ultra-deep image or a height image is displayed on the display unit based on the ultra-deep image data or the height image data. The user can specify the observation range of the measurement object.

特許文献1に記載の共焦点顕微鏡においては、測定対象物に対する対物レンズの高さ方向の移動範囲(上限位置および下限位置)が使用者により設定される。この場合、使用者は、受光量のピークが移動範囲内に現れるように、移動範囲を適切に設定する必要がある。移動範囲を広く設定すると、受光量のピークが移動範囲内に現れる確率が高くなるが、取得される共焦点画像データの量が多くなる。一方、移動範囲を狭く設定すると、取得される共焦点画像データの量が少なくなるが、受光量のピークが移動範囲内に現れる確率が低くなる。そこで、使用者は、受光量のピークが移動範囲内に現れかつ取得される共焦点画像データの量ができるだけ少なくなるように、対物レンズの移動範囲を適切に設定する必要がある。   In the confocal microscope described in Patent Literature 1, the movement range (upper limit position and lower limit position) of the objective lens in the height direction with respect to the measurement target is set by the user. In this case, the user needs to set the movement range appropriately so that the peak of the received light amount appears in the movement range. If the movement range is set wide, the probability that the peak of the received light amount appears in the movement range increases, but the amount of confocal image data to be acquired increases. On the other hand, when the movement range is set to be narrow, the amount of confocal image data acquired is reduced, but the probability that the peak of the received light amount appears in the movement range is reduced. Therefore, the user needs to appropriately set the movement range of the objective lens so that the peak of the received light amount appears in the movement range and the amount of confocal image data acquired is as small as possible.

使用者が共焦点顕微鏡の観察可能な領域よりも広い範囲を指定した場合には、共焦点顕微鏡のステージが移動することにより測定対象物の複数の領域の超深度画像データまたは高さ画像データがそれぞれ生成される。その後、複数の領域の超深度画像データまたは高さ画像データが連結されることにより測定対象物の広い範囲の超深度画像または高さ画像が作業用メモリを用いて表示部に表示される。   When the user specifies a wider range than the observable area of the confocal microscope, the ultra-depth image data or height image data of multiple areas of the measurement object is moved by moving the stage of the confocal microscope. Each is generated. Thereafter, the ultra-depth image data or height image data of a plurality of regions are connected to display a wide-range ultra-depth image or height image of the measurement object on the display unit using the work memory.

このような場合、測定対象物の領域ごとに表面の高さが異なる可能性がある。そのため、使用者は、各領域ごとに対物レンズの高さ方向の移動範囲を適切に設定する必要がある。   In such a case, the surface height may be different for each region of the measurement object. Therefore, the user needs to appropriately set the movement range in the height direction of the objective lens for each region.

本発明の目的は、複数の単位領域について測定対象物と対物レンズとの間の相対的な距離の範囲を容易かつ適切に設定可能な顕微鏡システムを提供することである。   The objective of this invention is providing the microscope system which can set the range of the relative distance between a measurement object and an objective lens easily and appropriately about several unit area | regions.

[A]本発明
(1)本発明に係る顕微鏡システムは、測定対象物の表面の状態を測定する顕微鏡システムであって、測定対象物の表面に観察範囲として複数の単位領域を設定する観察範囲設定部と、受光素子と、観察範囲設定部により設定された単位領域ごとに、対物レンズを介して当該単位領域に集光しつつ光を照射するとともに、当該単位領域に照射された光を受光素子に導く光学系と、観察範囲設定部により設定された単位領域ごとに、当該単位領域に垂直な方向に沿った複数の位置で光学系による光の照射が行われるように、単位領域ごとに決定される初期位置から対物レンズを測定対象物に対して光学系の光軸方向に相対的に移動させることにより光学系の焦点を光学系の光軸方向の複数の位置に移動させる移動部と、受光素子の出力信号に基づいて複数の画素にそれぞれ対応する複数の画素データを出力する画素データ出力部と、受光素子および移動部を制御する制御部とを備え、制御部は、観察範囲設定部により設定された単位領域ごとに、対物レンズが当該単位領域について決定された初期位置にある状態で、画素データ出力部から出力された画素データに基づいて受光素子のゲインを調整する第1の処理と、当該単位領域について決定された初期位置から光軸方向に移動部により対物レンズを移動させ、光軸方向の各位置で、画素データ出力部から出力される複数の画素データのうち所定数の画素に対応する画素データの値を用いた評価値を算出し、算出した評価値に基づいて光軸方向における上限位置および下限位置を自動的に設定する第2の処理と、第2の処理により設定された上限位置および下限位置により定まる移動範囲内で移動部により対物レンズを移動させ、光軸方向における各位置で画素データ出力部から出力される複数の画素データに基づいて、当該単位領域に対応する複数の画素についての複数の画素データの光軸方向におけるピーク位置を表すデータを高さ画像データとして生成する第3の処理とを実行し、観察範囲設定部により設定された複数の単位領域について第1の処理、第2の処理および第3の処理を繰り返し実行することにより生成された複数の高さ画像データを連結する連結処理を実行するものである。
[A] Present Invention (1) A microscope system according to the present invention is a microscope system for measuring the state of the surface of a measurement object, and an observation range in which a plurality of unit regions are set as an observation range on the surface of the measurement object. a setting unit, a light receiving element, for each unit region set by the observation range setting unit, irradiates the light while converging to the unit region through the objective lens, receives the light irradiated to the unit area an optical system for guiding the element, for each unit region set by the observation range setting unit, so that the irradiation of light is performed by optical science system at a plurality of positions along the direction perpendicular to the unit area, per unit area The moving unit moves the focal point of the optical system to a plurality of positions in the optical axis direction of the optical system by moving the objective lens relative to the measurement object in the optical axis direction of the optical system from the initial position determined by And the light receiving element A pixel data output unit that outputs a plurality of pixel data respectively corresponding to a plurality of pixels based on the output signal; and a control unit that controls the light receiving element and the moving unit . The control unit is set by the observation range setting unit A first process for adjusting the gain of the light receiving element based on the pixel data output from the pixel data output unit in a state where the objective lens is in the initial position determined for the unit area for each unit area; The objective lens is moved by the moving unit in the optical axis direction from the initial position determined for the unit area, and a predetermined number of pixels among a plurality of pixel data output from the pixel data output unit are supported at each position in the optical axis direction A second process of calculating an evaluation value using the pixel data value to be set, and automatically setting an upper limit position and a lower limit position in the optical axis direction based on the calculated evaluation value; Based on a plurality of pixel data output from the pixel data output unit at each position in the optical axis direction by moving the objective lens within the moving range determined by the upper limit position and lower limit position set by the And a third process for generating, as height image data, data representing peak positions in the optical axis direction of a plurality of pixel data for a plurality of pixels corresponding to the region, and a plurality of data set by the observation range setting unit A concatenation process for concatenating a plurality of height image data generated by repeatedly executing the first process, the second process, and the third process for the unit area is executed .

(2)制御部は、観察範囲設定部により設定された複数の単位領域の各々について複数の画素データに基づく超深度画像データを生成する処理を自動的に実行し、複数の単位領域についてそれぞれ生成された複数の超深度画像データを連結し、超深度画像データは、各単位領域に対応する複数の画素についての複数の画素データの光軸方向におけるピーク強度を表すデータであってもよい。   (2) The control unit automatically executes processing for generating ultra-depth image data based on the plurality of pixel data for each of the plurality of unit regions set by the observation range setting unit, and generates each of the plurality of unit regions. The plurality of ultra-deep image data may be connected, and the ultra-depth image data may be data representing the peak intensity in the optical axis direction of the plurality of pixel data for the plurality of pixels corresponding to each unit region.

(3)制御部は、第2の処理において対物レンズを光軸方向の複数の位置に移動させる際に、画素データ出力部から出力される画素データの値が予め定められた出力上限値よりも小さくなるように受光素子のゲインを減少させてもよい。 (3) When the control unit moves the objective lens to a plurality of positions in the optical axis direction in the second process, the value of the pixel data output from the pixel data output unit is greater than a predetermined output upper limit value. You may reduce the gain of a light receiving element so that it may become small.

(4)第2の処理は、各単位領域について決定された初期位置から対物レンズが観察対象物に近づく方向および遠ざかる方向に対物レンズを移動させつつ対物レンズの各位置で画素データ出力部から出力される複数の画素データを取得する処理を含み、制御部は、各単位領域についての第2の処理において、決定された初期位置から対物レンズと観察対象物とが近づく方向に対物レンズが移動している場合に、取得された画素データに基づいて、受光素子の出力信号のレベルが予め定められたレベルよりも高い状態から受光素子の出力信号のレベルが予め定められたレベル以下に変化する時点における対物レンズの位置を第1の相対位置として検出し、決定された初期位置から対物レンズと観察対象物とが遠ざかる方向に対物レンズが移動している場合に、取得された画素データに基づいて、受光素子の出力信号のレベルが予め定められたレベルよりも高い状態から受光素子の出力信号のレベルが予め定められたレベル以下に変化する時点における対物レンズの位置を第2の相対位置として検出し、検出された第1および第2の相対位置に基づいて当該単位領域についての移動範囲を設定してもよい。 (4) the second processing, the output from the pixel data output unit at each position of the objective lens while moving the objective lens in the direction and away from the direction toward the objective lens is the observation object from the initial position determined for each unit area In the second process for each unit region, the control unit moves the objective lens in a direction in which the objective lens and the observation target object approach each other from the determined initial position. When the level of the output signal of the light receiving element changes from a state higher than a predetermined level to a level equal to or lower than the predetermined level based on the acquired pixel data in detecting the position of the objective lens as the first relative position, the objective lens is moved from the determined initial position in a direction away the objective lens and the observation object If you are, based on the acquired pixel data, at the time the level of the output signal changes below a predetermined level at which the level of the light receiving element from the state higher than the predetermined level of the output signal of the light receiving element The position of the objective lens may be detected as the second relative position, and the movement range for the unit area may be set based on the detected first and second relative positions.

(5)第2の処理は、各単位領域について決定された初期位置から対物レンズが観察対象物に近づく方向および遠ざかる方向に対物レンズを移動させつつ対物レンズの各位置で画素データ出力部から出力される複数の画素データを取得する処理を含み、制御部は、各単位領域についての第2の処理において、決定された初期位置から対物レンズと観察対象物との相対的な距離が第1の距離から第1の距離よりも大きい第2の距離になるまでの予め定められた範囲にわたって対物レンズを観察対象物に対して相対的に移動させ、取得された画素データに基づいて、受光素子の出力信号のレベルが予め定められたレベルよりも高い状態から受光素子の出力信号のレベルが予め定められたレベル以下に変化する複数の時点における対物レンズの複数の位置をそれぞれ検出し、検出された複数の位置を含むように当該単位領域についての移動範囲を設定してもよい。 (5) the second processing, the output from the pixel data output unit at each position of the objective lens while moving the objective lens in the direction and away from the direction toward the objective lens is the observation object from the initial position determined for each unit area In the second process for each unit region, the control unit includes a process for acquiring a plurality of pixel data, and the relative distance between the objective lens and the observation object is determined from the determined initial position in the first process. The objective lens is moved relative to the object to be observed over a predetermined range from the distance to the second distance that is larger than the first distance, and based on the acquired pixel data, a plurality of objective lenses in a plurality of time varying from greater than the level that the level of the output signal reaches a predetermined state below the level of level predetermined output signal of the light receiving element Position detecting respectively, may be set movement range of the unit region so as to include the detected plurality of positions.

(6)制御部は、各単位領域についての第2の処理において、取得された画素データに基づいて受光素子の出力信号のレベルが予め定められたレベルよりも高いか否かを判定し、受光素子の出力信号のレベルが予め定められたレベルよりも大きいときに対物レンズを観察対象物に対して相対的に第1の移動量づつ移動させ、受光素子の出力信号のレベルが予め定められたレベル以下であるときに対物レンズを観察対象物に対して相対的に第2の移動量づつ移動させ、第2の移動量は、第1の移動量よりも大きくてもよい。 (6) In the second process for each unit region, the control unit determines whether the level of the output signal of the light receiving element is higher than a predetermined level based on the acquired pixel data, and receives light When the level of the output signal of the element is larger than a predetermined level, the objective lens is moved relative to the observation object by the first movement amount, and the level of the output signal of the light receiving element is predetermined. When the level is equal to or lower than the level, the objective lens may be moved relative to the observation object by the second movement amount, and the second movement amount may be larger than the first movement amount.

(7)制御部は、各単位領域についての第2の処理において、第1の距離から第2の距離になるまでの予め定められた範囲にわたって対物レンズを観察対象物に対して相対的に移動させても移動範囲が設定されない場合に、決定された初期位置から対物レンズと観察対象物との相対的な距離が第1の距離よりも小さい第3の距離から第2の距離よりも大きい第4の距離になるまでの予め定められた範囲にわたって対物レンズを観察対象物に対して相対的に移動させ、取得された画素データに基づいて、受光素子の出力信号のレベルが予め定められたレベルよりも高い状態から受光素子の出力信号のレベルが予め定められたレベル以下に変化する複数の時点における対物レンズの複数の位置をそれぞれ検出し、検出された複数の位置を含むように当該単位領域についての移動範囲を設定してもよい。 (7) In the second process for each unit region, the control unit moves the objective lens relative to the observation object over a predetermined range from the first distance to the second distance. If the moving range is not set even if the distance is set, the relative distance between the objective lens and the observation object from the determined initial position is larger than the second distance from the third distance smaller than the first distance. The objective lens is moved relative to the observation object over a predetermined range up to a distance of 4, and the level of the output signal of the light receiving element is determined based on the acquired pixel data. to include a plurality of positions respectively detected, it is detected a plurality of positions of the objective lens at a plurality of time varying below the level of level predetermined output signal of the light receiving element from higher than It may be set moving range of the unit region.

[B]参考形態
(1)第1の参考形態に係る顕微鏡システムは、観察対象物の表面の状態を観察する顕微鏡システムであって、受光素子と、観察対象物の表面に設定された単位領域に集光しつつ光を照射するとともに、単位領域に照射された光を受光素子に導く光学系と、単位領域に垂直な方向に沿った複数の位置で単位領域内での光学系による光の照射が行われるように光学系と観察対象物とを相対的に移動させる相対的移動部と、観察範囲として複数の単位領域を設定する観察範囲設定部と、観察範囲設定部により設定された複数の単位領域の各々について、光学系と観察対象物との相対的な移動範囲を設定する移動範囲設定処理を行い、光学系および相対的移動部を制御することにより移動範囲設定処理において設定された移動範囲内で光学系と観察対象物とを相対的に移動させるとともに受光素子の出力信号に基づいて当該単位領域についての複数の画素データを取得する測定処理を行う制御部とを備え、観察範囲設定部は、隣接する単位領域間で重複部分が形成されるように複数の単位領域を設定し、制御部は、各単位領域についての移動範囲設定処理において、光学系と観察対象物との相対的な初期位置を決定し、決定された初期位置から光学系と観察対象物とが近づく方向および遠ざかる方向に光学系と観察対象物とを相対的に移動させるとともに複数の画素データを取得し、取得された画素データに基づいて移動範囲を設定し、最初の単位領域を除く各単位領域については、隣接する他の単位領域の測定処理時に取得された画素データのうち当該単位領域の重複部分についての画素データに基づいて当該単位領域の少なくとも一部に光学系の焦点が合うように光学系と観察対象物との相対的な初期位置を決定するものである。
[B] Reference Form (1) A microscope system according to a first reference form is a microscope system for observing the state of the surface of an observation object, and includes a light receiving element and a unit region set on the surface of the observation object. The optical system irradiates the light while condensing the light on the unit area and guides the light irradiated to the unit area to the light receiving element, and the light by the optical system in the unit area at a plurality of positions along the direction perpendicular to the unit area A relative movement unit that relatively moves the optical system and the observation target so that irradiation is performed, an observation range setting unit that sets a plurality of unit areas as an observation range, and a plurality of sets set by the observation range setting unit For each of the unit areas, a movement range setting process for setting a relative movement range between the optical system and the observation object is performed, and the movement range setting process is set by controlling the optical system and the relative movement unit. Within moving range And a control unit that performs a measurement process of acquiring a plurality of pixel data for the unit region based on an output signal of the light receiving element while relatively moving the optical system and the observation target, and the observation range setting unit The plurality of unit areas are set so that overlapping portions are formed between adjacent unit areas, and the control unit sets the relative initial values of the optical system and the observation object in the movement range setting process for each unit area. The position is determined, and the optical system and the observation target are relatively moved in the direction in which the optical system and the observation target are approached and moved away from the determined initial position, and a plurality of pixel data are acquired and acquired. A moving range is set based on pixel data, and for each unit area other than the first unit area, an overlapping portion of the unit area of the pixel data acquired during measurement processing of other adjacent unit areas Based on the pixel data for those that determine the relative initial position of the optical system and the observation object such that the focal point of the optical system is aligned to at least a portion of the unit region.

この顕微鏡システムにおいては、観察範囲として複数の単位領域が設定される。このとき、隣接する単位領域間では、重複部分が形成される。複数の単位領域の各々について、移動範囲設定処理により光学系と観察対象物との相対的な移動範囲が設定され、測定処理により当該単位領域に設定された移動範囲内で光学系と観察対象物とが相対的に移動されるとともに受光素子の出力信号に基づいて当該単位領域についての複数の画素データが取得される。   In this microscope system, a plurality of unit areas are set as the observation range. At this time, an overlapping portion is formed between adjacent unit regions. For each of the plurality of unit areas, a relative movement range between the optical system and the observation object is set by the movement range setting process, and the optical system and the observation object are within the movement range set in the unit area by the measurement process. Are moved relative to each other, and a plurality of pixel data for the unit area is acquired based on the output signal of the light receiving element.

各単位領域についての移動範囲設定処理において、光学系と観察対象物との相対的な初期位置が決定される。決定された初期位置から光学系と観察対象物とが近づく方向および遠ざかる方向に光学系と観察対象物とが相対的に移動されるとともに複数の画素データが取得される。複数の画素データに基づいて当該単位領域について光学系と観察対象物との相対的な移動範囲が設定される。   In the movement range setting process for each unit region, a relative initial position between the optical system and the observation object is determined. The optical system and the observation object are relatively moved in a direction in which the optical system and the observation object approach and move away from the determined initial position, and a plurality of pixel data are acquired. Based on the plurality of pixel data, a relative movement range between the optical system and the observation object is set for the unit region.

最初の単位領域を除く各単位領域については、隣接する他の単位領域の測定処理時に取得された画素データのうち当該単位領域の重複部分についての画素データに基づいて、当該単位領域の少なくとも一部に光学系の焦点が合うように光学系と観察対象物との相対的な初期位置が決定される。   For each unit area other than the first unit area, at least a part of the unit area based on the pixel data of the overlapping part of the unit area among the pixel data acquired during the measurement process of the other adjacent unit areas The relative initial position of the optical system and the observation object is determined so that the optical system is in focus.

これにより、光学系と観察対象物とが初期位置にある状態で、当該単位領域の少なくとも一部から受光素子に光が導かれる。決定された初期位置から光学系と観察対象物とが近づく方向および遠ざかる方向に光学系と観察対象物とが相対的に移動されることにより、当該単位領域の少なくとも一部に光学系の焦点が合う状態から当該単位領域に光学系の焦点が合わなくなるときの光学系と観察対象物との相対的な位置を検出することができる。検出された位置に基づいて当該単位領域について光学系と観察対象物との相対的な移動範囲を適切に設定することができる。   Accordingly, light is guided from at least a part of the unit region to the light receiving element in a state where the optical system and the observation target are at the initial positions. By moving the optical system and the observation object relative to each other in a direction in which the optical system and the observation object approach and move away from the determined initial position, the focus of the optical system is focused on at least a part of the unit region. It is possible to detect a relative position between the optical system and the observation object when the optical system is out of focus on the unit region from the state of being matched. Based on the detected position, the relative movement range between the optical system and the observation object can be appropriately set for the unit region.

上記のように、最初の単位領域を除く各単位領域については、当該単位領域についての移動範囲設定処理において、重複部分について既に取得された画素データに基づいて初期位置を決定することができる。そのため、初期位置を決定するために画素データを取得する必要がない。したがって、初期位置を短時間で設定することができる。その結果、複数の単位領域についての複数の画素データを短時間で効率的に取得することができる。   As described above, for each unit area other than the first unit area, the initial position can be determined based on the pixel data already acquired for the overlapping portion in the movement range setting process for the unit area. Therefore, it is not necessary to acquire pixel data in order to determine the initial position. Therefore, the initial position can be set in a short time. As a result, a plurality of pixel data for a plurality of unit regions can be efficiently acquired in a short time.

(2)制御部は、各単位領域についての移動範囲設定処理において、決定された初期位置から光学系と観察対象物とが近づく方向および遠ざかる方向に光学系と観察対象物とを相対的に移動させるとともに複数の画素データを取得し、取得された画素データに基づいて受光素子の出力信号のレベルが予め定められたレベルよりも高い状態から受光素子の出力信号のレベルが予め定められたレベル以下に変化する時点における光学系と観察対象物との相対的な位置を検出し、検出された相対的な位置に基づいて当該単位領域について移動範囲を設定し、最初の単位領域を除く各単位領域については、相対的な位置が検出されない場合に、隣接する他の単位領域の測定処理時に取得された画素データのうち当該単位領域の重複部分についての画素データに基づいて、当該単位領域の重複部分の各部分にそれぞれ光学系の焦点が合うときの光学系と観察対象物との相対的な複数の位置を含むように当該単位領域についての移動範囲を設定してもよい。   (2) In the movement range setting process for each unit region, the control unit relatively moves the optical system and the observation object from the determined initial position in a direction in which the optical system and the observation object approach and away from each other. And a plurality of pixel data is acquired, and the level of the output signal of the light receiving element is lower than a predetermined level from a state where the level of the output signal of the light receiving element is higher than a predetermined level based on the acquired pixel data Detect the relative position between the optical system and the observation object at the time of changing to, set the movement range for the unit area based on the detected relative position, and each unit area except the first unit area In the case where the relative position is not detected, the pixel for the overlapping portion of the unit area among the pixel data acquired during the measurement processing of the other adjacent unit area Based on the data, the range of movement of the unit region so as to include a plurality of relative positions of the optical system and the observation object when the optical system is focused on each of the overlapping portions of the unit region. May be set.

各単位領域についての移動範囲設定処理において、初期位置では、当該単位領域の少なくとも一部に光学系の焦点が合っている。この場合、受光素子の出力信号のレベルは高い。一方、決定された初期位置から光学系と観察対象物とが近づく方向および遠ざかる方向に光学系と観察対象物とを相対的に移動させると、当該単位領域から光学系の焦点が離れるにつれて、受光素子の出力信号のレベルが低くなる。   In the movement range setting process for each unit region, at the initial position, the optical system is focused on at least a part of the unit region. In this case, the level of the output signal of the light receiving element is high. On the other hand, when the optical system and the observation object are relatively moved in the direction in which the optical system and the observation object are approached and moved away from the determined initial position, the light is received as the focus of the optical system is separated from the unit area. The level of the output signal of the element is lowered.

したがって、受光素子の出力信号のレベルが予め定められたレベルよりも高い状態から予め定められたレベル以下に変化する時点における光学系と観察対象物との相対的な位置を検出することにより当該単位領域について移動範囲を最小限に設定することができる。それにより、測定処理の時間が短縮される。   Therefore, by detecting the relative position between the optical system and the observation object at the time when the level of the output signal of the light receiving element changes from a state higher than the predetermined level to a predetermined level or less, the unit The moving range can be set to a minimum for the area. Thereby, the time for the measurement process is shortened.

また、光学系と観察対象物との相対的な位置が検出されない場合でも、光学系と観察対象物との相対的な移動範囲が設定されるので、当該単位領域の測定処理を行うことが可能となる。   In addition, even when the relative position between the optical system and the observation target is not detected, the relative movement range between the optical system and the observation target is set, so that the measurement processing of the unit area can be performed. It becomes.

(3)制御部は、各単位領域についての移動範囲設定処理において、決定された初期位置から光学系と観察対象物とが近づく方向に光学系と観察対象物とが相対的に移動している場合に、取得された画素データに基づいて、受光素子の出力信号のレベルが予め定められたレベルよりも高い状態から受光素子の出力信号のレベルが予め定められたレベル以下に変化する時点における光学系と観察対象物との相対的な位置を第1の相対位置として検出し、決定された初期位置から光学系と観察対象物とが遠ざかる方向に光学系と観察対象物とが相対的に移動している場合に、取得された画素データに基づいて、受光素子の出力信号のレベルが予め定められたレベルよりも高い状態から受光素子の出力信号のレベルが予め定められたレベル以下に変化する時点における光学系と観察対象物との相対的な位置を第2の相対位置として検出し、検出された第1および第2の相対位置に基づいて当該単位領域についての移動範囲を設定してもよい。   (3) In the moving range setting process for each unit region, the control unit relatively moves the optical system and the observation object in a direction in which the optical system and the observation object approach from the determined initial position. In this case, the optical at the time when the level of the output signal of the light receiving element changes below a predetermined level from a state where the level of the output signal of the light receiving element is higher than a predetermined level based on the acquired pixel data. The relative position between the system and the observation object is detected as the first relative position, and the optical system and the observation object move relatively in a direction in which the optical system and the observation object move away from the determined initial position. In this case, based on the acquired pixel data, the level of the output signal of the light receiving element is changed from a level higher than a predetermined level to a level equal to or lower than the predetermined level. Detecting the relative position between the optical system and the observation object at the time of the second relative position, and setting a movement range for the unit region based on the detected first and second relative positions. Also good.

この場合、決定された初期位置から光学系と観察対象物とが近づく方向に光学系と観察対象物とが相対的に移動している場合に、受光素子の出力信号のレベルが予め定められたレベルよりも高い状態から受光素子の出力信号のレベルが予め定められたレベル以下に変化する時点で第1の相対位置が検出される。   In this case, the level of the output signal of the light receiving element is determined in advance when the optical system and the observation object are relatively moving in the direction in which the optical system and the observation object approach from the determined initial position. The first relative position is detected when the level of the output signal of the light receiving element changes below a predetermined level from a state higher than the level.

また、決定された初期位置から光学系と観察対象物とが遠ざかる方向に光学系と観察対象物とが相対的に移動している場合に、受光素子の出力信号のレベルが予め定められたレベルよりも高い状態から受光素子の出力信号のレベルが予め定められたレベル以下に変化する時点で第2の相対位置が検出される。検出された第1および第2の相対位置に基づいて当該単位領域についての移動範囲が設定される。これにより、移動範囲設定処理の時間を十分に短くすることができる。   In addition, when the optical system and the observation object are relatively moved in the direction in which the optical system and the observation object are moved away from the determined initial position, the level of the output signal of the light receiving element is determined in advance. The second relative position is detected when the level of the output signal of the light receiving element changes below a predetermined level from a higher state. Based on the detected first and second relative positions, a movement range for the unit area is set. Thereby, the time for the movement range setting process can be sufficiently shortened.

(4)制御部は、各単位領域についての移動範囲設定処理において、決定された初期位置から光学系と観察対象物との相対的な距離が第1の距離から第1の距離よりも大きい第2の距離になるまでの予め定められた範囲にわたって光学系と観察対象物とを相対的に移動させ、取得された画素データに基づいて、受光素子の出力信号のレベルが予め定められたレベルよりも高い状態から受光素子の出力信号のレベルが予め定められたレベル以下に変化する複数の時点における光学系と観察対象物との相対的な複数の位置をそれぞれ検出し、検出された複数の位置を含むように当該単位領域についての移動範囲を設定してもよい。   (4) In the movement range setting process for each unit region, the control unit determines that the relative distance between the optical system and the observation object from the determined initial position is greater than the first distance from the first distance. The optical system and the observation object are relatively moved over a predetermined range up to a distance of 2, and based on the acquired pixel data, the level of the output signal of the light receiving element is higher than the predetermined level. Detecting a plurality of relative positions of the optical system and the observation object at a plurality of time points when the level of the output signal of the light receiving element changes from a high level to a predetermined level or less. The movement range for the unit region may be set so as to include

この場合、各単位領域についての移動範囲設定処理において、初期位置から光学系と観察対象物との相対的な距離が第1の距離から第1の距離よりも大きい第2の距離になるまで光学系と観察対象物とが相対的に移動する。受光素子の出力信号のレベルが予め定められたレベルよりも高い状態から予め定められたレベル以下に変化する複数の時点における光学系と観察対象物との相対的な複数の位置がそれぞれ検出される。検出された複数の位置を含むように当該単位領域についての移動範囲が設定される。   In this case, in the movement range setting process for each unit area, the optical distance is set until the relative distance between the optical system and the observation object from the initial position becomes a second distance that is larger than the first distance from the first distance. The system and the observation object move relatively. A plurality of relative positions of the optical system and the observation object are detected at a plurality of time points when the level of the output signal of the light receiving element changes from a state higher than a predetermined level to a predetermined level or less. . The movement range for the unit area is set so as to include a plurality of detected positions.

これにより、光学系と観察対象物とが第1の距離から第2の距離に移動する間に、受光素子の出力信号のレベルが予め定められたレベルよりも高くなる時点の光学系と観察対象物との相対的な距離が確実に含まれるように移動範囲を設定することができる。したがって、観察対象物の表面の状態によらず、当該単位領域の全面について測定処理を行うことができる。   As a result, the optical system and the observation target at the time when the level of the output signal of the light receiving element becomes higher than a predetermined level while the optical system and the observation target move from the first distance to the second distance. The movement range can be set so that the relative distance to the object is included reliably. Therefore, measurement processing can be performed on the entire surface of the unit region regardless of the state of the surface of the observation object.

(5)制御部は、各単位領域についての移動範囲設定処理において、取得された画素データに基づいて受光素子の出力信号のレベルが予め定められたレベルよりも高いか否かを判定し、受光素子の出力信号のレベルが予め定められたレベルよりも大きいときに光学系と観察対象物とを相対的に第1の移動量づつ移動させ、受光素子の出力信号のレベルが予め定められたレベル以下であるときに光学系と観察対象物とを相対的に第2の移動量づつ移動させ、第2の移動量は、第1の移動量よりも大きくてもよい。   (5) In the movement range setting process for each unit region, the control unit determines whether or not the level of the output signal of the light receiving element is higher than a predetermined level based on the acquired pixel data, and receives light When the level of the output signal of the element is larger than a predetermined level, the optical system and the observation object are relatively moved by the first movement amount, and the level of the output signal of the light receiving element is predetermined. When the following is true, the optical system and the observation object may be moved relative to each other by the second movement amount, and the second movement amount may be larger than the first movement amount.

受光素子の出力信号のレベルが予め定められたレベル以下であるときには、受光素子の出力信号のレベルが予め定められたレベルよりも高い状態から受光素子の出力信号のレベルが予め定められたレベル以下に変化する時点における光学系と観察対象物との相対的な位置は検出されない。したがって、受光素子の出力信号のレベルが予め定められたレベル以下であるときに、受光素子の出力信号のレベルが予め定められたレベルよりも高い状態に比べて光学系と観察対象物との相対的な移動量を大きくすることにより、移動範囲設定処理の時間を短くすることができる。   When the level of the output signal of the light receiving element is equal to or lower than the predetermined level, the level of the output signal of the light receiving element is lower than the predetermined level from the state where the level of the output signal of the light receiving element is higher than the predetermined level. The relative position between the optical system and the observation object at the time of changing to is not detected. Accordingly, when the level of the output signal of the light receiving element is equal to or lower than the predetermined level, the optical system and the object to be observed are relatively compared with the state in which the level of the output signal of the light receiving element is higher than the predetermined level. By increasing the typical movement amount, the time for the movement range setting process can be shortened.

(6)制御部は、各単位領域についての移動範囲設定処理において、第1の距離から第2の距離になるまでの予め定められた範囲にわたって光学系と観察対象物とを相対的に移動させても移動範囲が設定されない場合に、決定された初期位置から光学系と観察対象物との相対的な距離が第1の距離よりも小さい第3の距離から第2の距離よりも大きい第4の距離になるまでの予め定められた範囲にわたって光学系と観察対象物とを相対的に移動させ、取得された画素データに基づいて、受光素子の出力信号のレベルが予め定められたレベルよりも高い状態から受光素子の出力信号のレベルが予め定められたレベル以下に変化する複数の時点における光学系と観察対象物との相対的な複数の位置をそれぞれ検出し、検出された複数の位置を含むように当該単位領域についての移動範囲を設定してもよい。   (6) In the movement range setting process for each unit region, the control unit relatively moves the optical system and the observation object over a predetermined range from the first distance to the second distance. However, if the movement range is not set, the relative distance between the optical system and the observation object from the determined initial position is a third distance that is smaller than the first distance and a fourth distance that is larger than the second distance. The optical system and the observation object are moved relative to each other over a predetermined range until the distance reaches the distance, and based on the acquired pixel data, the level of the output signal of the light receiving element is higher than the predetermined level. Detecting the relative positions of the optical system and the observation object at multiple points in time when the level of the output signal of the light receiving element changes below a predetermined level from a high state, and detecting the detected multiple positions Include It may be set the moving range of the urchin the unit area.

この場合、第1の距離から第2の距離になるまでの予め定められた範囲にわたって光学系と観察対象物とを相対的に移動させても移動範囲が設定されない場合に、初期位置から光学系と観察対象物との相対的な距離が第1の距離よりも小さい第3の距離から第2の距離よりも大きい第4の距離になるまで光学系と観察対象物とが相対的に移動する。受光素子の出力信号のレベルが予め定められたレベルよりも高い状態から予め定められたレベル以下に変化する複数の時点における光学系と観察対象物との相対的な複数の位置がそれぞれ検出される。   In this case, when the movement range is not set even if the optical system and the observation object are relatively moved over a predetermined range from the first distance to the second distance, the optical system is moved from the initial position. The relative distance between the optical system and the observation object moves relatively from the third distance smaller than the first distance to the fourth distance larger than the second distance. . A plurality of relative positions of the optical system and the observation object are detected at a plurality of time points when the level of the output signal of the light receiving element changes from a state higher than a predetermined level to a predetermined level or less. .

このように、移動範囲設定処理において、光学系と観察対象物との相対的な複数の位置を検出するための光学系と観察対象物との相対的な距離範囲が拡大された状態で光学系と観察対象物とが相対的に移動し、光学系と観察対象物との相対的な複数の位置がそれぞれ検出される。これにより、光学系と観察対象物との相対的な複数の位置を広い範囲に渡って検出することができるので、広い範囲に渡って正確に各単位領域についての移動範囲を設定することが可能となる。   As described above, in the movement range setting process, the optical system for detecting a plurality of relative positions between the optical system and the observation object and the relative distance range between the observation object and the optical system are expanded. And the observation object move relatively, and a plurality of relative positions between the optical system and the observation object are detected. As a result, a plurality of relative positions between the optical system and the observation object can be detected over a wide range, so that it is possible to accurately set the movement range for each unit region over a wide range. It becomes.

(7)第2の参考形態に係る対象物観察方法は、観察対象物の表面の状態を観察する顕微鏡システムが備える光学系と観察対象物とを相対的に移動させる範囲を設定するための対象物観察方法であって、光学系により観察対象物の表面に設定された単位領域に集光しつつ光を照射するとともに、単位領域に照射された光を受光素子に導くステップと、単位領域に垂直な方向に沿った複数の位置で単位領域内での光学系による光の照射が行われるように光学系と観察対象物とを相対的に移動させるステップと、観察範囲として複数の単位領域を設定するステップと、設定された複数の単位領域の各々について、光学系と観察対象物との相対的な移動範囲を設定する移動範囲設定処理を行い、光学系および相対的移動部を制御することにより移動範囲設定処理において設定された移動範囲内で光学系と観察対象物とを相対的に移動させるとともに受光素子の出力信号に基づいて当該単位領域についての複数の画素データを取得する測定処理を行うステップとを備え、複数の単位領域を設定するステップは、隣接する単位領域間で重複部分が形成されるように複数の単位領域を設定するステップを含み、移動範囲設定処理を行い、測定処理を行うステップは、各単位領域についての移動範囲設定処理において、光学系と観察対象物との相対的な初期位置を決定し、決定された初期位置から光学系と観察対象物とが近づく方向および遠ざかる方向に光学系と観察対象物とを相対的に移動させるとともに複数の画素データを取得し、取得された画素データに基づいて移動範囲を設定し、最初の単位領域を除く各単位領域については、隣接する他の単位領域の測定処理時に取得された画素データのうち当該単位領域の重複部分についての画素データに基づいて当該単位領域の少なくとも一部に光学系の焦点が合うように光学系と初期位置を決定するステップを含むものである。   (7) The object observation method according to the second reference form is an object for setting a range in which the optical system included in the microscope system for observing the state of the surface of the observation object and the observation object are relatively moved. A method for observing an object, wherein the optical system irradiates light while condensing the unit area set on the surface of the observation target, guides the light irradiated to the unit area to the light receiving element, and A step of relatively moving the optical system and the observation target so that light is irradiated by the optical system in the unit region at a plurality of positions along a vertical direction, and a plurality of unit regions as an observation range. For each of the set unit areas, a setting step and a moving range setting process for setting a relative moving range between the optical system and the observation object are performed, and the optical system and the relative moving unit are controlled. Moved by A step of performing a measurement process of relatively moving the optical system and the observation object within the movement range set in the surrounding setting process and acquiring a plurality of pixel data for the unit area based on an output signal of the light receiving element And the step of setting the plurality of unit areas includes the step of setting the plurality of unit areas so that overlapping portions are formed between the adjacent unit areas, performing the movement range setting process, and performing the measurement process In the moving range setting process for each unit area, the relative initial position between the optical system and the observation target is determined, and the direction in which the optical system and the observation target are approached and away from the determined initial position. To move the optical system and the observation object relative to each other and acquire a plurality of pixel data, set a movement range based on the acquired pixel data, For each unit region excluding the unit region, an optical system is provided in at least a part of the unit region based on the pixel data for the overlapping portion of the unit region among the pixel data acquired during the measurement processing of the other adjacent unit regions. The method includes a step of determining an optical system and an initial position so as to be in focus.

この対象物観察方法においては、観察範囲として複数の単位領域が設定される。このとき、隣接する単位領域間では、重複部分が形成される。複数の単位領域の各々について、移動範囲設定処理により光学系と観察対象物との相対的な移動範囲が設定され、測定処理により当該単位領域に設定された移動範囲内で光学系と観察対象物とが相対的に移動されるとともに受光素子の出力信号に基づいて当該単位領域についての複数の画素データが取得される。   In this object observation method, a plurality of unit regions are set as the observation range. At this time, an overlapping portion is formed between adjacent unit regions. For each of the plurality of unit areas, a relative movement range between the optical system and the observation object is set by the movement range setting process, and the optical system and the observation object are within the movement range set in the unit area by the measurement process. Are moved relative to each other, and a plurality of pixel data for the unit area is acquired based on the output signal of the light receiving element.

各単位領域についての移動範囲設定処理において、光学系と観察対象物との相対的な初期位置が決定される。決定された初期位置から光学系と観察対象物とが近づく方向および遠ざかる方向に光学系と観察対象物とが相対的に移動されるとともに複数の画素データが取得される。複数の画素データに基づいて当該単位領域について光学系と観察対象物との相対的な移動範囲が設定される。   In the movement range setting process for each unit region, a relative initial position between the optical system and the observation object is determined. The optical system and the observation object are relatively moved in a direction in which the optical system and the observation object approach and move away from the determined initial position, and a plurality of pixel data are acquired. Based on the plurality of pixel data, a relative movement range between the optical system and the observation object is set for the unit region.

最初の単位領域を除く各単位領域については、隣接する他の単位領域の測定処理時に取得された画素データのうち当該単位領域の重複部分についての画素データに基づいて、当該単位領域の少なくとも一部に光学系の焦点が合うように光学系と観察対象物との相対的な初期位置が決定される。   For each unit area other than the first unit area, at least a part of the unit area based on the pixel data of the overlapping part of the unit area among the pixel data acquired during the measurement process of the other adjacent unit areas The relative initial position of the optical system and the observation object is determined so that the optical system is in focus.

これにより、光学系と観察対象物とが初期位置にある状態で、当該単位領域の少なくとも一部から受光素子に光が導かれる。決定された初期位置から光学系と観察対象物とが近づく方向および遠ざかる方向に光学系と観察対象物とが相対的に移動されることにより、当該単位領域の少なくとも一部に光学系の焦点が合う状態から当該単位領域に光学系の焦点が合わなくなるときの光学系と観察対象物との相対的な位置を検出することができる。検出された位置に基づいて当該単位領域について光学系と観察対象物との相対的な移動範囲を適切に設定することができる。   Accordingly, light is guided from at least a part of the unit region to the light receiving element in a state where the optical system and the observation target are at the initial positions. By moving the optical system and the observation object relative to each other in a direction in which the optical system and the observation object approach and move away from the determined initial position, the focus of the optical system is focused on at least a part of the unit region. It is possible to detect a relative position between the optical system and the observation object when the optical system is out of focus on the unit region from the state of being matched. Based on the detected position, the relative movement range between the optical system and the observation object can be appropriately set for the unit region.

上記のように、最初の単位領域を除く各単位領域については、当該単位領域についての移動範囲設定処理において、重複部分について既に取得された画素データに基づいて初期位置を決定することができる。そのため、初期位置を決定するために画素データを取得する必要がない。したがって、初期位置を短時間で設定することができる。その結果、複数の単位領域についての複数の画素データを短時間で効率的に取得することができる。   As described above, for each unit area other than the first unit area, the initial position can be determined based on the pixel data already acquired for the overlapping portion in the movement range setting process for the unit area. Therefore, it is not necessary to acquire pixel data in order to determine the initial position. Therefore, the initial position can be set in a short time. As a result, a plurality of pixel data for a plurality of unit regions can be efficiently acquired in a short time.

(8)第3の参考形態に係る対象物観察プログラムは、観察対象物の表面の状態を観察する顕微鏡システムが備える光学系と観察対象物とを相対的に移動させる範囲を設定する処理を処理装置に実行させる対象物観察プログラムであって、光学系により観察対象物の表面に設定された単位領域に集光しつつ光を照射するとともに、単位領域に照射された光を受光素子に導く処理と、単位領域に垂直な方向に沿った複数の位置で単位領域内での光学系による光の照射が行われるように光学系と観察対象物とを相対的に移動させる処理と、観察範囲として複数の単位領域を設定する処理と、設定された複数の単位領域の各々について、光学系と観察対象物との相対的な移動範囲を設定する移動範囲設定処理を行い、光学系および相対的移動部を制御することにより移動範囲設定処理において設定された移動範囲内で光学系と観察対象物とを相対的に移動させるとともに受光素子の出力信号に基づいて当該単位領域についての複数の画素データを取得する測定処理を行う処理とを、処理装置に実行させ、複数の単位領域を設定する処理は、隣接する単位領域間で重複部分が形成されるように複数の単位領域を設定する処理を含み、移動範囲設定処理を行い、測定処理を行う処理は、各単位領域についての移動範囲設定処理において、光学系と観察対象物との相対的な初期位置を決定し、決定された初期位置から光学系と観察対象物とが近づく方向および遠ざかる方向に光学系と観察対象物とを相対的に移動させるとともに複数の画素データを取得し、取得された画素データに基づいて移動範囲を設定し、最初の単位領域を除く各単位領域については、隣接する他の単位領域の測定処理時に取得された画素データのうち当該単位領域の重複部分についての画素データに基づいて当該単位領域の少なくとも一部に光学系の焦点が合うように光学系と初期位置を決定する処理を含むものである。   (8) The object observation program according to the third reference form processes a process of setting a range in which the optical system included in the microscope system that observes the state of the surface of the observation object and the observation object are relatively moved. An object observation program to be executed by the apparatus, which irradiates light while condensing the unit area set on the surface of the observation object by the optical system and guides the light irradiated to the unit area to the light receiving element. And a process of relatively moving the optical system and the observation object so that light is irradiated by the optical system in the unit region at a plurality of positions along a direction perpendicular to the unit region, and as an observation range A process for setting a plurality of unit areas and a movement range setting process for setting a relative movement range between the optical system and the observation object for each of the set unit areas are performed. Control In this way, the optical system and the observation object are relatively moved within the movement range set in the movement range setting process, and a plurality of pixel data for the unit area are acquired based on the output signal of the light receiving element. The processing for causing the processing device to execute processing and setting a plurality of unit areas includes a process of setting a plurality of unit areas so that overlapping portions are formed between adjacent unit areas, and includes a movement range. The setting process is performed, and the measurement process is performed by determining a relative initial position between the optical system and the observation object in the movement range setting process for each unit area, and observing the optical system and the observation from the determined initial position. Move the optical system and the observation object relative to each other toward and away from the object, acquire multiple pixel data, and move based on the acquired pixel data For each unit area excluding the first unit area, the unit area is determined based on the pixel data for the overlapping portion of the unit area among the pixel data acquired during the measurement processing of the other adjacent unit areas. And a process of determining an optical system and an initial position so that at least a part of the optical system is in focus.

この対象物観察プログラムにおいては、観察範囲として複数の単位領域が設定される。このとき、隣接する単位領域間では、重複部分が形成される。複数の単位領域の各々について、移動範囲設定処理により光学系と観察対象物との相対的な移動範囲が設定され、測定処理により当該単位領域に設定された移動範囲内で光学系と観察対象物とが相対的に移動されるとともに受光素子の出力信号に基づいて当該単位領域についての複数の画素データが取得される。   In this object observation program, a plurality of unit areas are set as the observation range. At this time, an overlapping portion is formed between adjacent unit regions. For each of the plurality of unit areas, a relative movement range between the optical system and the observation object is set by the movement range setting process, and the optical system and the observation object are within the movement range set in the unit area by the measurement process. Are moved relative to each other, and a plurality of pixel data for the unit area is acquired based on the output signal of the light receiving element.

各単位領域についての移動範囲設定処理において、光学系と観察対象物との相対的な初期位置が決定される。決定された初期位置から光学系と観察対象物とが近づく方向および遠ざかる方向に光学系と観察対象物とが相対的に移動されるとともに複数の画素データが取得される。複数の画素データに基づいて当該単位領域について光学系と観察対象物との相対的な移動範囲が設定される。   In the movement range setting process for each unit region, a relative initial position between the optical system and the observation object is determined. The optical system and the observation object are relatively moved in a direction in which the optical system and the observation object approach and move away from the determined initial position, and a plurality of pixel data are acquired. Based on the plurality of pixel data, a relative movement range between the optical system and the observation object is set for the unit region.

最初の単位領域を除く各単位領域については、隣接する他の単位領域の測定処理時に取得された画素データのうち当該単位領域の重複部分についての画素データに基づいて、当該単位領域の少なくとも一部に光学系の焦点が合うように光学系と観察対象物との相対的な初期位置が決定される。   For each unit area other than the first unit area, at least a part of the unit area based on the pixel data of the overlapping part of the unit area among the pixel data acquired during the measurement process of the other adjacent unit areas The relative initial position of the optical system and the observation object is determined so that the optical system is in focus.

これにより、光学系と観察対象物とが初期位置にある状態で、当該単位領域の少なくとも一部から受光素子に光が導かれる。決定された初期位置から光学系と観察対象物とが近づく方向および遠ざかる方向に光学系と観察対象物とが相対的に移動されることにより、当該単位領域の少なくとも一部に光学系の焦点が合う状態から当該単位領域に光学系の焦点が合わなくなるときの光学系と観察対象物との相対的な位置を検出することができる。検出された位置に基づいて当該単位領域について光学系と観察対象物との相対的な移動範囲を適切に設定することができる。   Accordingly, light is guided from at least a part of the unit region to the light receiving element in a state where the optical system and the observation target are at the initial positions. By moving the optical system and the observation object relative to each other in a direction in which the optical system and the observation object approach and move away from the determined initial position, the focus of the optical system is focused on at least a part of the unit region. It is possible to detect a relative position between the optical system and the observation object when the optical system is out of focus on the unit region from the state of being matched. Based on the detected position, the relative movement range between the optical system and the observation object can be appropriately set for the unit region.

上記のように、最初の単位領域を除く各単位領域については、当該単位領域についての移動範囲設定処理において、重複部分について既に取得された画素データに基づいて初期位置を決定することができる。そのため、初期位置を決定するために画素データを取得する必要がない。したがって、初期位置を短時間で設定することができる。その結果、複数の単位領域についての複数の画素データを短時間で効率的に取得することができる。   As described above, for each unit area other than the first unit area, the initial position can be determined based on the pixel data already acquired for the overlapping portion in the movement range setting process for the unit area. Therefore, it is not necessary to acquire pixel data in order to determine the initial position. Therefore, the initial position can be set in a short time. As a result, a plurality of pixel data for a plurality of unit regions can be efficiently acquired in a short time.

本発明によれば、複数の単位領域について測定対象物と対物レンズとの間の相対的な距離の範囲を容易かつ適切に設定することができる。   According to the present invention, it is possible to easily and appropriately set the range of the relative distance between the measurement object and the objective lens for a plurality of unit regions.

本発明の一実施の形態に係る共焦点顕微鏡システムの構成を示すブロック図である。It is a block diagram which shows the structure of the confocal microscope system which concerns on one embodiment of this invention. X方向、Y方向およびZ方向を定義するための図である。It is a figure for defining an X direction, a Y direction, and a Z direction. 画素データの取得範囲に4個の単位領域が設定される例を示す図である。It is a figure which shows the example in which four unit area | regions are set to the acquisition range of pixel data. 1つの画素において観察対象物のZ方向の位置と受光素子の受光強度との関係を示す図である。It is a figure which shows the relationship between the position of the Z direction of an observation target object, and the light reception intensity | strength of a light receiving element in one pixel. 画素データの取得範囲の設定前における表示部の表示例を示す図である。It is a figure which shows the example of a display of the display part before the setting of the acquisition range of pixel data. 1つの画素についての対物レンズのZ方向の位置と有効な画素データの値との関係を説明するための図である。It is a figure for demonstrating the relationship between the position of the Z direction of the objective lens about one pixel, and the value of effective pixel data. 評価値を用いたピーク位置探索処理を説明するための図である。It is a figure for demonstrating the peak position search process using an evaluation value. 高さ画像データおよび超深度画像データの生成時における対物レンズ3のZ方向の上限位置および下限位置の設定方法を説明するための図である。It is a figure for demonstrating the setting method of the upper limit position of the Z direction of the objective lens 3 at the time of the production | generation of height image data and ultra-depth image data. 表面に段差を有する観察対象物と対物レンズとの位置関係を示す模式図である。It is a schematic diagram which shows the positional relationship of the observation object which has a level | step difference in the surface, and an objective lens. 図9の観察対象物に対してレーザ光を走査させることにより得られる対物レンズのZ方向の位置と評価値との関係を示す図である。It is a figure which shows the relationship between the position of the Z direction of the objective lens obtained by scanning a laser beam with respect to the observation target object of FIG. 9, and an evaluation value. 共焦点顕微鏡システムにおいて実行される対象物観察処理を示すフローチャートである。It is a flowchart which shows the target object observation process performed in a confocal microscope system. 共焦点顕微鏡システムにおいて実行される対象物観察処理を示すフローチャートである。It is a flowchart which shows the target object observation process performed in a confocal microscope system. 図11の上下限自動設定処理を示すフローチャートである。It is a flowchart which shows the upper-lower limit automatic setting process of FIG. 図11の上下限自動設定処理を示すフローチャートである。It is a flowchart which shows the upper-lower limit automatic setting process of FIG. 図11の上下限自動設定処理を示すフローチャートである。It is a flowchart which shows the upper-lower limit automatic setting process of FIG. 図14および図15の境界位置探索処理を示すフローチャートである。It is a flowchart which shows the boundary position search process of FIG. 14 and FIG. 図14および図15の境界位置探索処理を示すフローチャートである。It is a flowchart which shows the boundary position search process of FIG. 14 and FIG. 図14および図15の境界位置探索処理を示すフローチャートである。It is a flowchart which shows the boundary position search process of FIG. 14 and FIG. 境界位置探索処理の他の例を示すフローチャートである。It is a flowchart which shows the other example of a boundary position search process.

本発明の一実施の形態に係る顕微鏡システムについて図面を参照しながら説明する。以下では、顕微鏡システムの一例として共焦点顕微鏡システムを説明する。   A microscope system according to an embodiment of the present invention will be described with reference to the drawings. Below, a confocal microscope system is demonstrated as an example of a microscope system.

(1)共焦点顕微鏡システムの基本構成
図1は、本発明の一実施の形態に係る共焦点顕微鏡システム500の構成を示すブロック図である。図1に示すように、共焦点顕微鏡システム500は、測定部100、PC(パーソナルコンピュータ)200、制御部300および表示部400を備える。測定部100は、レーザ光源10、X−Yスキャン光学系20、受光素子30、照明用白色光源40、カラーCCD(電荷結合素子)カメラ50およびステージ60を含む。ステージ60上には、観察対象物Sが載置される。
(1) Basic Configuration of Confocal Microscope System FIG. 1 is a block diagram showing a configuration of a confocal microscope system 500 according to an embodiment of the present invention. As shown in FIG. 1, the confocal microscope system 500 includes a measurement unit 100, a PC (personal computer) 200, a control unit 300, and a display unit 400. The measurement unit 100 includes a laser light source 10, an XY scan optical system 20, a light receiving element 30, an illumination white light source 40, a color CCD (charge coupled device) camera 50, and a stage 60. An observation object S is placed on the stage 60.

レーザ光源10は、例えば半導体レーザである。レーザ光源10から出射されたレーザ光は、レンズ1により平行光に変換された後、ハーフミラー4を透過してX−Yスキャン光学系20に入射する。なお、レーザ光源10に代えて水銀ランプ等の他の光源が用いられてもよい。この場合、水銀ランプ等の光源とX−Yスキャン光学系20との間に帯域通過フィルタが配置される。水銀ランプ等の光源から出射された光は、帯域通過フィルタを通過することにより単色光となり、X−Yスキャン光学系20に入射する。   The laser light source 10 is a semiconductor laser, for example. The laser light emitted from the laser light source 10 is converted into parallel light by the lens 1, passes through the half mirror 4, and enters the XY scan optical system 20. Instead of the laser light source 10, another light source such as a mercury lamp may be used. In this case, a band pass filter is disposed between the light source such as a mercury lamp and the XY scan optical system 20. Light emitted from a light source such as a mercury lamp passes through a band-pass filter, becomes monochromatic light, and enters the XY scan optical system 20.

X−Yスキャン光学系20は、例えばガルバノミラーである。X−Yスキャン光学系20は、ステージ60上の観察対象物Sの表面上においてレーザ光をX方向およびY方向に走査する機能を有する。X方向、Y方向およびZ方向の定義については後述する。X−Yスキャン光学系20により走査されたレーザ光は、ハーフミラー5により反射された後、ハーフミラー6を透過し、対物レンズ3によりステージ60上の観察対象物Sに集光される。なお、ハーフミラー4〜6に代えて偏光ビームスプリッタが用いられてもよい。   The XY scan optical system 20 is, for example, a galvanometer mirror. The XY scan optical system 20 has a function of scanning a laser beam in the X direction and the Y direction on the surface of the observation object S on the stage 60. The definitions of the X direction, the Y direction, and the Z direction will be described later. The laser beam scanned by the XY scanning optical system 20 is reflected by the half mirror 5, then passes through the half mirror 6, and is focused on the observation object S on the stage 60 by the objective lens 3. Instead of the half mirrors 4 to 6, a polarization beam splitter may be used.

観察対象物Sにより反射されたレーザ光は、対物レンズ3およびハーフミラー6を透過した後、ハーフミラー5により反射され、X−Yスキャン光学系20を透過する。X−Yスキャン光学系20を透過したレーザ光は、ハーフミラー4により反射され、レンズ2により集光され、ピンホール部材7のピンホールおよびND(Neutral Density)フィルタ8を透過して受光素子30に入射する。このように、本実施の形態においては反射型の共焦点顕微鏡システム500が用いられるが、観察対象物Sが細胞等の透明体である場合には、透過型の共焦点顕微鏡システムが用いられてもよい。   The laser light reflected by the observation object S passes through the objective lens 3 and the half mirror 6, then is reflected by the half mirror 5, and passes through the XY scan optical system 20. The laser beam that has passed through the XY scan optical system 20 is reflected by the half mirror 4, collected by the lens 2, and transmitted through the pinhole of the pinhole member 7 and the ND (Neutral Density) filter 8 to receive the light receiving element 30. Is incident on. As described above, the reflection type confocal microscope system 500 is used in the present embodiment, but when the observation object S is a transparent body such as a cell, a transmission type confocal microscope system is used. Also good.

ピンホール部材7のピンホールは、レンズ2の焦点位置に配置される。NDフィルタ8は、受光素子30に入射するレーザ光の強度を減衰させるために用いられる。そのため、レーザ光の強度が十分減衰されている場合には、NDフィルタ8は設けられなくてもよい。   The pinhole of the pinhole member 7 is disposed at the focal position of the lens 2. The ND filter 8 is used to attenuate the intensity of laser light incident on the light receiving element 30. Therefore, when the intensity of the laser beam is sufficiently attenuated, the ND filter 8 may not be provided.

本実施の形態では、受光素子30は光電子増倍管である。受光素子30としてフォトダイオードおよび増幅器を用いてもよい。受光素子30は、受光量に対応するアナログの電気信号(以下、受光信号と呼ぶ)を出力する。制御部300は、2つのA/D変換器(アナログ/デジタル変換器)、FIFO(First In First Out)メモリおよびCPU(中央演算処理装置)を含む。受光素子30から出力される受光信号は、制御部300の1つのA/D変換器により一定のサンプリング周期でサンプリングされるとともにデジタル信号に変換される。A/D変換器から出力されるデジタル信号は、FIFOメモリに順次蓄積される。FIFOメモリに蓄積されたデジタル信号は画素データとして順次PC200に転送される。   In the present embodiment, the light receiving element 30 is a photomultiplier tube. A photodiode and an amplifier may be used as the light receiving element 30. The light receiving element 30 outputs an analog electric signal (hereinafter referred to as a light receiving signal) corresponding to the amount of received light. The control unit 300 includes two A / D converters (analog / digital converter), a FIFO (First In First Out) memory, and a CPU (Central Processing Unit). The light reception signal output from the light receiving element 30 is sampled at a constant sampling period by one A / D converter of the control unit 300 and converted into a digital signal. Digital signals output from the A / D converter are sequentially stored in the FIFO memory. The digital signals stored in the FIFO memory are sequentially transferred to the PC 200 as pixel data.

照明用白色光源40は、例えばハロゲンランプまたは白色LED(発光ダイオード)である。照明用白色光源40により発生された白色光は、ハーフミラー6により反射された後、対物レンズ3によりステージ60上の観察対象物Sに集光される。   The illumination white light source 40 is, for example, a halogen lamp or a white LED (light emitting diode). White light generated by the illuminating white light source 40 is reflected by the half mirror 6 and then condensed by the objective lens 3 onto the observation object S on the stage 60.

観察対象物Sにより反射された白色光は、対物レンズ3、ハーフミラー6およびハーフミラー5を透過してカラーCCDカメラ50に入射する。カラーCCDカメラ50に代えてCMOS(相補性金属酸化膜半導体)イメージセンサ等の撮像素子が用いられてもよい。カラーCCDカメラ50は、受光量に対応する電気信号を出力する。カラーCCDカメラ50の出力信号は、制御部300の他の1つのA/D変換器により一定のサンプリング周期でサンプリングされるとともにデジタル信号に変換される。A/D変換器から出力されるデジタル信号は、カメラデータとして順次PC200に転送される。   White light reflected by the observation object S passes through the objective lens 3, the half mirror 6 and the half mirror 5 and enters the color CCD camera 50. An imaging element such as a CMOS (complementary metal oxide semiconductor) image sensor may be used in place of the color CCD camera 50. The color CCD camera 50 outputs an electrical signal corresponding to the amount of received light. The output signal of the color CCD camera 50 is sampled at a constant sampling period by another A / D converter of the control unit 300 and converted into a digital signal. Digital signals output from the A / D converter are sequentially transferred to the PC 200 as camera data.

制御部300は、画素データおよびカメラデータをPC200に与えるとともに、PC200からの指令に基づいて受光素子30の受光感度(ゲイン)およびカラーCCDカメラ50を制御する。また、制御部300は、PC200からの指令に基づいてX−Yスキャン光学系20を制御することによりレーザ光を観察対象物S上でX方向およびY方向に走査させる。   The control unit 300 supplies pixel data and camera data to the PC 200 and controls the light receiving sensitivity (gain) of the light receiving element 30 and the color CCD camera 50 based on a command from the PC 200. Further, the control unit 300 controls the XY scanning optical system 20 based on a command from the PC 200 to scan the laser light on the observation object S in the X direction and the Y direction.

対物レンズ3は、レンズ駆動部63によりZ方向に移動可能に設けられる。制御部300は、PC200からの指令に基づいてレンズ駆動部63を制御することにより対物レンズ3をZ方向に移動させることができる。これにより、対物レンズ3に対する観察対象物Sの相対的なZ方向の位置を変化させることができる。   The objective lens 3 is provided so as to be movable in the Z direction by the lens driving unit 63. The control unit 300 can move the objective lens 3 in the Z direction by controlling the lens driving unit 63 based on a command from the PC 200. Thereby, the position of the observation target S relative to the objective lens 3 in the Z direction can be changed.

PC200は、CPU(中央演算処理装置)210、ROM(リードオンリメモリ)220、作業用メモリ230および記憶装置240を含む。ROM220には、システムプログラムが記憶される。作業用メモリ230は、RAM(ランダムアクセスメモリ)からなり、種々のデータの処理のために用いられる。記憶装置240は、ハードディスク等からなる。記憶装置240には、対象物観察プログラムが記憶されるとともに、制御部300から与えられる画素データおよびカメラデータ等の種々のデータを保存するために用いられる。対象物観察プログラムの詳細は後述する。   The PC 200 includes a CPU (Central Processing Unit) 210, a ROM (Read Only Memory) 220, a work memory 230, and a storage device 240. The ROM 220 stores a system program. The working memory 230 includes a RAM (Random Access Memory), and is used for processing various data. The storage device 240 is composed of a hard disk or the like. The storage device 240 stores an object observation program and is used for storing various data such as pixel data and camera data given from the control unit 300. Details of the object observation program will be described later.

CPU210は、制御部300から与えられる画素データに基づいて画像データを生成する。以下、画素データに基づいて生成される画像データを共焦点画像データと呼ぶ。また、共焦点画像データに基づいて表示される画像を共焦点画像と呼ぶ。   The CPU 210 generates image data based on the pixel data given from the control unit 300. Hereinafter, the image data generated based on the pixel data is referred to as confocal image data. An image displayed based on the confocal image data is referred to as a confocal image.

CPU210は、制御部300から与えられるカメラデータに基づいて画像データを生成する。以下、カメラデータに基づいて生成される画像データをカメラ画像データと呼ぶ。また、カメラ画像データに基づいて表示される画像をカメラ画像と呼ぶ。   The CPU 210 generates image data based on the camera data given from the control unit 300. Hereinafter, the image data generated based on the camera data is referred to as camera image data. An image displayed based on the camera image data is called a camera image.

CPU210は、生成した共焦点画像データおよびカメラ画像データに作業用メモリ230を用いて各種処理を行うとともに、共焦点画像データに基づく共焦点画像およびカメラ画像データに基づくカメラ画像を表示部400に表示させる。また、CPU210は、後述するステージ駆動部62に駆動パルスを与える。   The CPU 210 performs various processes on the generated confocal image data and camera image data using the work memory 230, and displays a confocal image based on the confocal image data and a camera image based on the camera image data on the display unit 400. Let Further, the CPU 210 gives a driving pulse to the stage driving unit 62 described later.

表示部400は、例えば液晶ディスプレイパネルまたは有機EL(エレクトロルミネッセンス)パネルにより構成される。   The display unit 400 is configured by, for example, a liquid crystal display panel or an organic EL (electroluminescence) panel.

ステージ60は、X方向移動機構、Y方向移動機構およびZ方向移動機構を有する。X方向移動機構、Y方向移動機構およびZ方向移動機構には、ステッピングモータが用いられる。   The stage 60 has an X direction moving mechanism, a Y direction moving mechanism, and a Z direction moving mechanism. Stepping motors are used for the X direction moving mechanism, the Y direction moving mechanism, and the Z direction moving mechanism.

ステージ60のX方向移動機構、Y方向移動機構およびZ方向移動機構は、ステージ操作部61およびステージ駆動部62により駆動される。使用者は、ステージ操作部61を手動で操作することにより、ステージ60を対物レンズ3に対して相対的にX方向、Y方向およびZ方向に移動させることができる。   The X direction moving mechanism, the Y direction moving mechanism, and the Z direction moving mechanism of the stage 60 are driven by a stage operation unit 61 and a stage driving unit 62. The user can move the stage 60 in the X direction, the Y direction, and the Z direction relative to the objective lens 3 by manually operating the stage operation unit 61.

ステージ駆動部62は、PC200より与えられる駆動パルスに基づいて、ステージ60のステッピングモータに電流を供給することにより、ステージ60を対物レンズ3に相対的にX方向、Y方向またはZ方向に移動させることができる。   The stage drive unit 62 moves the stage 60 relative to the objective lens 3 in the X direction, the Y direction, or the Z direction by supplying a current to the stepping motor of the stage 60 based on the drive pulse given from the PC 200. be able to.

(2)共焦点画像、超深度画像および高さ画像
図2は、X方向、Y方向およびZ方向を定義するための図である。図2に示すように、対物レンズ3により集光されたレーザ光が観察対象物Sに照射される。本実施の形態においては、対物レンズ3の光軸の方向をZ方向と定義する。また、Z方向と直交する面において、互いに直交する二方向をそれぞれX方向およびY方向と定義する。X方向、Y方向およびZ方向を矢印X,Y,Zでそれぞれ示す。
(2) Confocal Image, Ultra-Deep Image, and Height Image FIG. 2 is a diagram for defining the X direction, the Y direction, and the Z direction. As shown in FIG. 2, the observation object S is irradiated with the laser light condensed by the objective lens 3. In the present embodiment, the direction of the optical axis of the objective lens 3 is defined as the Z direction. Further, two directions orthogonal to each other on the surface orthogonal to the Z direction are defined as an X direction and a Y direction, respectively. The X, Y, and Z directions are indicated by arrows X, Y, and Z, respectively.

Z方向において対物レンズ3に対する観察対象物Sの表面の相対的な位置を観察対象物SのZ方向の位置と呼ぶ。共焦点画像データの生成は、単位領域ごとに行なわれる。単位領域は対物レンズ3の倍率により定まる。   The relative position of the surface of the observation object S with respect to the objective lens 3 in the Z direction is referred to as the position of the observation object S in the Z direction. The confocal image data is generated for each unit area. The unit area is determined by the magnification of the objective lens 3.

観察対象物SのZ方向の位置が一定の状態で、X−Yスキャン光学系20により単位領域内のY方向の端部でレーザ光がX方向に走査される。X方向の走査が終了すると、レーザ光がX−Yスキャン光学系20によりY方向に一定の間隔変移される。この状態でレーザ光がX方向に走査される。単位領域内でレーザ光のX方向の走査およびY方向の変移が繰り返されることにより、単位領域のX方向およびY方向の走査が終了する。次に、対物レンズ3がZ方向に移動される。それにより、対物レンズ3のZ方向の位置が前回と異なる一定の状態で、単位領域のX方向およびY方向の走査が行なわれる。観察対象物SのZ方向の複数の位置で単位領域のX方向およびY方向の走査が行なわれる。   While the position of the observation object S in the Z direction is constant, the XY scanning optical system 20 scans the laser beam in the X direction at the end in the Y direction in the unit region. When the scanning in the X direction is completed, the laser beam is shifted by the XY scanning optical system 20 at a constant interval in the Y direction. In this state, the laser beam is scanned in the X direction. By repeating the scanning of the laser beam in the X direction and the shifting in the Y direction within the unit region, the scanning of the unit region in the X direction and the Y direction is completed. Next, the objective lens 3 is moved in the Z direction. Thereby, the scanning in the X direction and the Y direction of the unit area is performed in a constant state where the position of the objective lens 3 in the Z direction is different from the previous time. The unit region is scanned in the X and Y directions at a plurality of positions in the Z direction of the observation object S.

観察対象物SのZ方向の位置ごとにX方向およびY方向の走査により共焦点画像データが生成される。これにより、単位領域内でZ方向の位置が異なる複数の共焦点画像データが生成される。   Confocal image data is generated by scanning in the X and Y directions for each position of the observation object S in the Z direction. As a result, a plurality of confocal image data having different positions in the Z direction within the unit region is generated.

ここで、共焦点画像データのX方向の画素数は、X−Yスキャン光学系20によるレーザ光のX方向の走査速度と制御部300のサンプリング周期とにより定まる。1回のX方向の走査(1本の走査線)におけるサンプリング数がX方向の画素数となる。また、単位領域の共焦点画像データのY方向の画素数は、X方向の走査の終了ごとのX−Yスキャン光学系20によるレーザ光のY方向の変移量により定まる。Y方向における走査線の数がY方向の画素数となる。さらに、単位領域の共焦点画像データの数は、観察対象物SのZ方向の移動回数により定まる。単位領域の複数の共焦点画像データに基づいて、後述する方法で超深度画像データおよび高さ画像データが生成される。   Here, the number of pixels in the X direction of the confocal image data is determined by the scanning speed of the laser beam in the X direction by the XY scanning optical system 20 and the sampling period of the control unit 300. The number of samples in one X-direction scan (one scan line) is the number of pixels in the X direction. Further, the number of pixels in the Y direction of the confocal image data in the unit area is determined by the amount of shift in the Y direction of the laser beam by the XY scan optical system 20 at the end of scanning in the X direction. The number of scanning lines in the Y direction is the number of pixels in the Y direction. Furthermore, the number of confocal image data in the unit area is determined by the number of movements of the observation object S in the Z direction. Based on the plurality of confocal image data in the unit area, ultra-depth image data and height image data are generated by a method described later.

図2の例では、まず、ステージ60の最初の位置で単位領域s1における観察対象物Sの複数の共焦点画像データが生成されるとともに単位領域s1の超深度画像データおよび高さ画像データが生成される。続いて、ステージ60が順次移動することにより単位領域s2〜s4における観察対象物Sの複数の共焦点画像データが生成されるとともに単位領域s2〜s4の超深度画像データおよび高さ画像データが生成される。この場合、隣接する単位領域の一部が互いに重なるように、単位領域s1〜s4が設定される。互いに重なる単位領域の一部の超深度画像データおよび高さ画像データを用いてパターンマッチングを行うことにより、複数の単位領域s1〜s4の超深度画像データおよび高さ画像データを高い精度で連結することができる。本実施の形態においては、互いに隣接する複数の単位領域が重なる部分を重複部分と呼ぶ。   In the example of FIG. 2, first, a plurality of confocal image data of the observation object S in the unit region s1 is generated at the initial position of the stage 60, and ultra-depth image data and height image data of the unit region s1 are generated. Is done. Subsequently, the stage 60 is sequentially moved to generate a plurality of confocal image data of the observation object S in the unit regions s2 to s4 and to generate ultra-depth image data and height image data of the unit regions s2 to s4. Is done. In this case, the unit regions s1 to s4 are set so that adjacent unit regions partially overlap each other. By performing pattern matching using a part of the super-depth image data and the height image data of the overlapping unit regions, the ultra-depth image data and the height image data of the plurality of unit regions s1 to s4 are connected with high accuracy. be able to. In the present embodiment, a portion where a plurality of adjacent unit regions overlap each other is called an overlapping portion.

図3は、画素データの取得範囲に4個の単位領域s1〜s4が設定される例を示す図である。図3の例では、単位領域s1〜s4が2行2列で設定される。1行目に単位領域s1,s2が並び、2行目に単位領域s3,s4が並ぶ。   FIG. 3 is a diagram illustrating an example in which four unit regions s1 to s4 are set in the pixel data acquisition range. In the example of FIG. 3, the unit areas s1 to s4 are set in 2 rows and 2 columns. Unit areas s1 and s2 are arranged in the first line, and unit areas s3 and s4 are arranged in the second line.

この場合、横方向(行方向)において互いに隣接する単位領域s1と単位領域s2との間で重複部分ovが設定される。また、縦方向(列方向)において互いに隣接する単位領域s1と単位領域s3との間で重複部分ovが設定される。さらに、斜め方向において互いに隣接する単位領域s1と単位領域s4との間で重複部分ovが設定される。同様に、互いに隣接する各2つの単位領域間でそれぞれ重複部分ovが設定される。図3では、重複部分ovにハッチングが施されている。   In this case, an overlapping portion ov is set between the unit region s1 and the unit region s2 that are adjacent to each other in the horizontal direction (row direction). In addition, an overlapping portion ov is set between the unit region s1 and the unit region s3 that are adjacent to each other in the vertical direction (column direction). Furthermore, an overlapping portion ov is set between the unit region s1 and the unit region s4 that are adjacent to each other in the oblique direction. Similarly, an overlapping portion ov is set between each two adjacent unit regions. In FIG. 3, the overlapping portion ov is hatched.

図4は、1つの画素において観察対象物SのZ方向の位置と受光素子30の受光強度との関係を示す図である。図1に示したように、ピンホール部材7のピンホールはレンズ2の焦点位置に配置される。そのため、観察対象物Sの表面が対物レンズ3の焦点位置にあるときに、観察対象物Sにより反射されたレーザ光がピンホール部材7のピンホールの位置に集光される。それにより、観察対象物Sにより反射されたレーザ光の大部分がピンホール部材7のピンホールを通過して受光素子30に入射する。この場合、受光素子30の受光強度は最大になる。それにより、受光素子30から出力される受光信号の電圧値は最大となる。   FIG. 4 is a diagram illustrating the relationship between the position of the observation object S in the Z direction and the light receiving intensity of the light receiving element 30 in one pixel. As shown in FIG. 1, the pinhole of the pinhole member 7 is disposed at the focal position of the lens 2. Therefore, when the surface of the observation object S is at the focal position of the objective lens 3, the laser light reflected by the observation object S is condensed at the pinhole position of the pinhole member 7. Thereby, most of the laser beam reflected by the observation object S passes through the pinhole of the pinhole member 7 and enters the light receiving element 30. In this case, the light receiving intensity of the light receiving element 30 is maximized. As a result, the voltage value of the light reception signal output from the light receiving element 30 is maximized.

一方、観察対象物Sが対物レンズ3の焦点位置が外れた位置にあるときには、観察対象物Sにより反射されたレーザ光はピンホール部材7のピンホールの前または後の位置に集光される。それにより、観察対象物Sにより反射されたレーザ光の多くはピンホール部材7のピンホールの周囲の部分で遮られ、受光素子30の受光強度は低下する。それにより、受光素子30から出力される受光信号の電圧値は低下する。   On the other hand, when the observation object S is at a position out of the focal position of the objective lens 3, the laser light reflected by the observation object S is condensed at a position before or after the pinhole of the pinhole member 7. . Thereby, most of the laser light reflected by the observation object S is blocked by the portion around the pinhole of the pinhole member 7, and the light receiving intensity of the light receiving element 30 is reduced. As a result, the voltage value of the light reception signal output from the light receiving element 30 decreases.

このように、観察対象物Sの表面が対物レンズ3の焦点位置にある状態で受光素子30の受光強度分布にピークが現れる。各単位領域の複数の共焦点画像データから、画素ごとにZ方向における受光強度分布が得られる。それにより、画素ごとに受光強度分布のピーク位置とピーク強度(ピークの受光強度)とが得られる。   Thus, a peak appears in the light reception intensity distribution of the light receiving element 30 in a state where the surface of the observation object S is at the focal position of the objective lens 3. The received light intensity distribution in the Z direction is obtained for each pixel from a plurality of confocal image data of each unit region. Thereby, the peak position and peak intensity (peak received light intensity) of the received light intensity distribution are obtained for each pixel.

各単位領域に対応する複数の画素についてのZ方向におけるピーク位置を表すデータを高さ画像データと呼び、高さ画像データに基づいて表示される画像を高さ画像と呼ぶ。高さ画像は、観察対象物Sの表面形状を表す。また、各単位領域に対応する複数の画素についてのピーク強度を表すデータを超深度画像データと呼び、超深度画像データに基づいて表される画像を超深度画像と呼ぶ。超深度画像は、観察対象物Sの表面のすべての部分にピントが合った状態で得られる画像である。PC200は、制御部300から与えられる単位領域の複数の画素データに基づいて単位領域の複数の共焦点画像データを生成し、複数の共焦点画像データに基づいて単位領域の高さ画像データおよび超深度画像データを生成する。以下、高さ画像データおよび超深度画像データを総称して表面画像データと呼び、高さ画像および超深度画像を総称して表面の画像と呼ぶ。   Data representing peak positions in the Z direction for a plurality of pixels corresponding to each unit area is referred to as height image data, and an image displayed based on the height image data is referred to as a height image. The height image represents the surface shape of the observation object S. In addition, data representing the peak intensity for a plurality of pixels corresponding to each unit region is referred to as ultra-deep image data, and an image represented based on the ultra-depth image data is referred to as an ultra-deep image. The ultra-deep image is an image obtained in a state where all parts of the surface of the observation object S are in focus. The PC 200 generates a plurality of confocal image data of the unit region based on the plurality of pixel data of the unit region given from the control unit 300, and the height image data and the super image of the unit region based on the plurality of confocal image data. Generate depth image data. Hereinafter, the height image data and the ultradeep image data are collectively referred to as surface image data, and the height image and the ultradeep image are collectively referred to as a surface image.

(3)画素データの取得範囲(観察範囲)の設定
図5は、画素データの取得範囲の設定前における表示部400の表示例を示す図である。図5に示すように、表示部400の画面上には、画像表示領域410および条件設定領域420が表示される。画像表示領域410には、共焦点画像データに基づく共焦点画像またはカメラ画像データに基づくカメラ画像が表示される。条件設定領域420には、範囲設定ボタン421および取得開始ボタン422が表示される。
(3) Setting of Pixel Data Acquisition Range (Observation Range) FIG. 5 is a diagram illustrating a display example of the display unit 400 before setting of the pixel data acquisition range. As shown in FIG. 5, an image display area 410 and a condition setting area 420 are displayed on the screen of the display unit 400. In the image display area 410, a confocal image based on the confocal image data or a camera image based on the camera image data is displayed. In the condition setting area 420, a range setting button 421 and an acquisition start button 422 are displayed.

使用者は、図1の共焦点顕微鏡システム500のステージ60に観察対象物Sを載置する。制御部300は、カメラデータを順次PC200に与える。PC200のCPU210は、制御部300により与えられたカメラデータに基づいてカメラ画像データを生成し、観察対象物Sのカメラ画像を表示部400の画像表示領域410に表示させる。この場合、使用者は、ステージ60をX方向またはY方向に移動させることにより画像表示領域410に表示される観察対象物Sのカメラ画像の範囲を変更することができる。   The user places the observation object S on the stage 60 of the confocal microscope system 500 of FIG. The control unit 300 sequentially provides camera data to the PC 200. The CPU 210 of the PC 200 generates camera image data based on the camera data given by the control unit 300 and displays the camera image of the observation object S in the image display area 410 of the display unit 400. In this case, the user can change the range of the camera image of the observation object S displayed in the image display area 410 by moving the stage 60 in the X direction or the Y direction.

使用者は、PC200に接続されたマウス等のポインティングデバイスを用いて条件設定領域420の範囲設定ボタン421を操作する。これにより、PC200のCPU210は、表示部400に画素データの取得範囲の設定画面(図示せず)を表示させる。使用者は、取得範囲の設定画面が表示された状態で、ポインティングデバイスを用いて画素データの取得範囲を設定する。   The user operates the range setting button 421 in the condition setting area 420 using a pointing device such as a mouse connected to the PC 200. As a result, the CPU 210 of the PC 200 causes the display unit 400 to display a pixel data acquisition range setting screen (not shown). The user sets the pixel data acquisition range using a pointing device while the acquisition range setting screen is displayed.

PC200のCPU210は、設定された取得範囲が単位領域よりも大きい場合、設定された取得範囲にn個(nは2以上の自然数)の単位領域を設定する。この場合、CPU210は、互いに隣接する各2つの単位領域間に重複部分ovを設定する。以下では、取得範囲が単位領域よりも大きい場合に設定される複数の単位領域をそれぞれ1番目〜n番目の単位領域と呼ぶ。   When the set acquisition range is larger than the unit area, the CPU 210 of the PC 200 sets n (n is a natural number of 2 or more) unit areas in the set acquisition range. In this case, the CPU 210 sets an overlapping portion ov between each two unit areas adjacent to each other. Hereinafter, the plurality of unit areas set when the acquisition range is larger than the unit area are referred to as first to nth unit areas, respectively.

画素データの取得範囲が設定された後、使用者は、条件設定領域420の取得開始ボタン422を操作する。これにより、PC200のCPU210は、1番目の単位領域について、本発明の移動範囲設定処理に対応する処理として上下限自動設定処理を実行する。   After the pixel data acquisition range is set, the user operates the acquisition start button 422 in the condition setting area 420. As a result, the CPU 210 of the PC 200 executes the upper / lower limit automatic setting process as a process corresponding to the movement range setting process of the present invention for the first unit area.

上下限自動設定処理は、高さ画像データおよび超深度画像データの生成時に移動する対物レンズ3のZ方向における上限位置および下限位置を設定する処理である。上下限自動設定処理の詳細は後述する。   The upper / lower limit automatic setting process is a process of setting an upper limit position and a lower limit position in the Z direction of the objective lens 3 that moves when generating height image data and ultra-depth image data. Details of the upper / lower limit automatic setting process will be described later.

上下限自動設定処理の実行後、PC200のCPU210は、設定された上限位置と下限位置との間のZ方向の複数の位置でレーザ光をX方向およびY方向に走査させ、1番目の単位領域における複数の画素データを取得する。これにより、1番目の単位領域内においてZ方向の異なる複数の位置に対応する複数の共焦点画像データが生成され、生成された複数の共焦点画像データに基づいて表面画像データ(高さ画像データおよび超深度画像データ)が生成される。   After the upper / lower limit automatic setting process is executed, the CPU 210 of the PC 200 scans the laser beam in the X direction and the Y direction at a plurality of positions in the Z direction between the set upper limit position and lower limit position, and the first unit area A plurality of pixel data in is acquired. Thereby, a plurality of confocal image data corresponding to a plurality of positions different in the Z direction in the first unit region are generated, and surface image data (height image data) is generated based on the generated plurality of confocal image data. And ultra-deep image data).

続いて、PC200のCPU210は、2番目の単位領域について後述する上下限自動設定処理を実行する。また、PC200のCPU210は、設定された上限位置と下限位置との間のZ方向の複数の位置でレーザ光をX方向およびY方向に走査させ、2番目の単位領域における複数の画素データを取得する。これにより、2番目の単位領域において、Z方向の異なる複数の位置に対応する複数の共焦点画像データが生成され、生成された複数の共焦点画像データに基づいて表面画像データが生成される。   Subsequently, the CPU 210 of the PC 200 executes upper / lower limit automatic setting processing described later for the second unit area. Further, the CPU 210 of the PC 200 scans the laser beam in the X direction and the Y direction at a plurality of positions in the Z direction between the set upper limit position and lower limit position, and acquires a plurality of pixel data in the second unit area. To do. Thereby, in the second unit region, a plurality of confocal image data corresponding to a plurality of positions different in the Z direction are generated, and surface image data is generated based on the generated plurality of confocal image data.

以後同様に、PC200のCPU210は、3番目〜n番目の単位領域についても、それぞれ上下限自動設定処理を実行するとともに複数の画素データを取得する。このようにして、全ての単位領域について表面画像データが生成される。   Thereafter, similarly, the CPU 210 of the PC 200 executes the upper / lower limit automatic setting process for each of the third to nth unit areas and acquires a plurality of pixel data. In this way, surface image data is generated for all unit regions.

最後に、PC200のCPU210は、生成された全て(1番目〜n番目)の単位領域の表面画像データを連結し、連結された表面画像データに基づく観察対象物Sの表面の画像を表示部400に表示させる。   Finally, the CPU 210 of the PC 200 connects the generated surface image data of all (1st to nth) unit regions, and displays the image of the surface of the observation object S based on the connected surface image data on the display unit 400. To display.

以下、1番目の単位領域について実行される上下限自動設定処理を1番目の上下限自動設定処理と呼び、2番目以降のm(mは2以上n以下の自然数)番目の単位領域について実行される上下限自動設定処理をm番目の上下限自動設定処理と呼ぶ。   Hereinafter, the upper and lower limit automatic setting process executed for the first unit area is referred to as the first upper and lower limit automatic setting process, and is executed for the second and subsequent m (m is a natural number of 2 to n) unit areas. This upper / lower limit automatic setting process is called the mth upper / lower limit automatic setting process.

本実施の形態において、1番目の上下限自動設定処理は、m番目の上下限自動設定処理とは異なる。m番目の上下限自動設定処理では、m番目の単位領域とそのm番目の単位領域に隣接する単位領域との間の重複部分ovにおいて既に取得された複数の画素データが用いられる。それにより、m番目以降の上下限自動設定処理は、1番目の上下限自動設定処理に比べて単純化される。1番目の上下限自動設定処理およびm番目の上下限自動設定処理の詳細について説明する。   In the present embodiment, the first upper / lower limit automatic setting process is different from the mth upper / lower limit automatic setting process. In the m-th upper / lower limit automatic setting process, a plurality of pieces of pixel data already acquired in the overlapping portion ov between the m-th unit region and the unit region adjacent to the m-th unit region are used. Thereby, the upper and lower limit automatic setting process after the mth is simplified as compared with the first upper and lower limit automatic setting process. Details of the first upper / lower limit automatic setting process and the mth upper / lower limit automatic setting process will be described.

(4)1番目の上下限自動設定処理
1番目の上下限自動設定処理の詳細を説明する。図6は、1つの画素についての対物レンズ3のZ方向の位置と有効な画素データの値との関係を説明するための図である。図6において、縦軸は画素データの値を表し、横軸は対物レンズ3のZ方向の位置を表す。図6の横軸においては、左から右に向かって対物レンズ3のZ方向の位置が高くなる。
(4) First Upper / Lower Limit Automatic Setting Process Details of the first upper / lower limit automatic setting process will be described. FIG. 6 is a diagram for explaining the relationship between the position in the Z direction of the objective lens 3 for one pixel and the value of effective pixel data. In FIG. 6, the vertical axis represents the pixel data value, and the horizontal axis represents the position of the objective lens 3 in the Z direction. In the horizontal axis of FIG. 6, the position of the objective lens 3 in the Z direction increases from left to right.

以下では、受光素子30の出力信号のレベルとして、画素データの値を用いる。また、受光素子30の出力信号の予め定められたレベルとしてノイズレベルnlを用いる。   Hereinafter, the value of the pixel data is used as the level of the output signal of the light receiving element 30. Further, the noise level nl is used as a predetermined level of the output signal of the light receiving element 30.

画素データは受光素子30から出力される受光信号に対応するデジタル信号である。そのため、画素データの値は、受光素子30のゲインが大きくなるほど大きく、受光素子30のゲインが小さくなるほど小さい。また、画素データはA/D変換器から出力される。したがって、画素データの上限値は、A/D変換器の出力レンジの上限値(以下、出力上限値maxと呼ぶ)である。   The pixel data is a digital signal corresponding to the light reception signal output from the light receiving element 30. For this reason, the value of the pixel data increases as the gain of the light receiving element 30 increases and decreases as the gain of the light receiving element 30 decreases. Pixel data is output from the A / D converter. Therefore, the upper limit value of the pixel data is the upper limit value of the output range of the A / D converter (hereinafter referred to as the output upper limit value max).

画素データの値が出力上限値maxで飽和すると、受光素子30の受光強度に対応する画素データの値を得ることができない。また、画素データの値がノイズレベルnl以下であると、画素データのピークを受光素子30のノイズから明確に識別することはできない。以下では、出力上限値maxよりも小さく、ノイズレベルnlよりも大きい画素データの値を有効な画素データの値と呼ぶ。   When the pixel data value is saturated at the output upper limit value max, the pixel data value corresponding to the light receiving intensity of the light receiving element 30 cannot be obtained. If the pixel data value is less than or equal to the noise level nl, the peak of the pixel data cannot be clearly identified from the noise of the light receiving element 30. Hereinafter, pixel data values that are smaller than the output upper limit value max and larger than the noise level nl are referred to as effective pixel data values.

図6においては、有効な画素データの値の範囲が矢印HLで示される。この場合、曲線l1で示すように、受光素子30に任意の第1のゲインが設定されているときに、1つの画素についての画素データの値は、対物レンズ3がピーク位置z0よりも低い位置ma1からピーク位置z0よりも高い位置mb1までの範囲にある状態で有効となる。   In FIG. 6, the range of valid pixel data values is indicated by an arrow HL. In this case, as indicated by the curve l1, when an arbitrary first gain is set in the light receiving element 30, the pixel data value for one pixel is a position where the objective lens 3 is lower than the peak position z0. It is effective in a state where it is in a range from ma1 to a position mb1 higher than the peak position z0.

したがって、1つの画素についての有効な画素データの値を取得するための対物レンズ3のZ方向の上限位置および下限位置は、出力上限値maxおよびノイズレベルnlに応じて定まる。   Therefore, the upper limit position and the lower limit position in the Z direction of the objective lens 3 for obtaining a valid pixel data value for one pixel are determined according to the output upper limit value max and the noise level nl.

図6に曲線l2で示すように、受光素子30に第1のゲインよりも小さい第2のゲインが設定されると、画素データの値は、受光素子30に第1のゲインが設定されている場合に比べて全体的に小さくなる。この場合、1つの画素についての画素データの値は、対物レンズ3が位置ma1よりも高い位置ma2から位置mb1よりも低い位置mb2までの範囲にある状態で有効となる。このように、受光素子30に設定されるゲインが変化すると、有効な画素データの値を得ることができる対物レンズ3のZ方向の上限位置および下限位置も変化する。   As indicated by a curve l2 in FIG. 6, when a second gain smaller than the first gain is set in the light receiving element 30, the pixel data value is set to the first gain in the light receiving element 30. Compared to the case, it becomes smaller overall. In this case, the value of the pixel data for one pixel is effective when the objective lens 3 is in the range from the position ma2 higher than the position ma1 to the position mb2 lower than the position mb1. As described above, when the gain set in the light receiving element 30 is changed, the upper limit position and the lower limit position in the Z direction of the objective lens 3 capable of obtaining effective pixel data values are also changed.

1つの画素についての上限位置および下限位置を設定する場合には、ピーク位置z0における画素データの値が出力上限値maxにできる限り近づくようにゲインを設定する。この場合、画素データのピークがノイズレベルnlよりも十分に大きくなる。したがって、画素データのピークを受光素子30のノイズから明確に識別することが可能となる。   When setting the upper limit position and the lower limit position for one pixel, the gain is set so that the value of the pixel data at the peak position z0 is as close as possible to the output upper limit value max. In this case, the peak of the pixel data is sufficiently larger than the noise level nl. Therefore, the peak of the pixel data can be clearly identified from the noise of the light receiving element 30.

ここで、1つの画素についての上限位置および下限位置を設定する場合には、まず、焦点が観察対象物Sの表面に合うように対物レンズ3をZ方向に移動させる。すなわち、対物レンズ3を初期位置としてピーク位置z0に移動させる。対物レンズ3がピーク位置z0にある場合には、画素データの値が確実に有効となる。この場合、対物レンズ3をピーク位置z0から上に向かう方向および下に向かう方向に移動させることにより、対物レンズ3の焦点が観察対象物Sの表面から十分にずれるとき、すなわち画素データの値がノイズレベルnl以下となるときの対物レンズ3の位置を検出することができる。検出された位置に基づいて、対物レンズ3のZ方向の上限位置および下限位置を適切に設定することができる。   Here, when the upper limit position and the lower limit position for one pixel are set, first, the objective lens 3 is moved in the Z direction so that the focus is on the surface of the observation object S. That is, the objective lens 3 is moved to the peak position z0 as the initial position. When the objective lens 3 is at the peak position z0, the value of the pixel data is reliably valid. In this case, when the focus of the objective lens 3 is sufficiently deviated from the surface of the observation object S by moving the objective lens 3 in the upward direction and the downward direction from the peak position z0, that is, the value of the pixel data is It is possible to detect the position of the objective lens 3 when the noise level is nl or less. Based on the detected position, the upper limit position and the lower limit position of the objective lens 3 in the Z direction can be appropriately set.

このように、対物レンズ3のZ方向の上限位置および下限位置を設定することにより、有効な画素データが得られない範囲で対物レンズ3をZ方向に移動させる必要がなくなる。その結果、対物レンズ3のZ方向の上限位置および下限位置を設定するための処理の時間を短くすることができる。   Thus, by setting the upper limit position and the lower limit position of the objective lens 3 in the Z direction, it is not necessary to move the objective lens 3 in the Z direction within a range where effective pixel data cannot be obtained. As a result, it is possible to shorten the processing time for setting the upper limit position and the lower limit position of the objective lens 3 in the Z direction.

また、この場合、対物レンズ3のZ方向の下限位置は、対物レンズ3の焦点位置が観察対象物Sの表面よりも下方に移動し、画素データの値が有効な値からノイズレベルnl以下となる時点の位置に設定される。そのため、対物レンズ3のZ方向の下限位置が設定されるときに、対物レンズ3が下方に移動しすぎることにより観察対象物Sの表面に衝突することが防止される。   Further, in this case, the lower limit position of the objective lens 3 in the Z direction is such that the focal position of the objective lens 3 moves below the surface of the observation object S, and the pixel data value is from a valid value to a noise level nl or less. It is set to the position at the moment. For this reason, when the lower limit position in the Z direction of the objective lens 3 is set, the objective lens 3 is prevented from colliding with the surface of the observation object S due to excessive movement downward.

本実施の形態では、1番目の上下限自動設定処理時に、後述する評価値を用いて上記のピーク位置z0に対応する対物レンズ3のZ方向の位置(後述する評価ピーク位置Ez0)を検出するとともに、受光素子30のゲインを調整するためのピーク位置探索処理が行われる。   In the present embodiment, the position in the Z direction of the objective lens 3 corresponding to the peak position z0 (evaluation peak position Ez0 described later) is detected using the evaluation value described later during the first upper / lower limit automatic setting process. At the same time, a peak position search process for adjusting the gain of the light receiving element 30 is performed.

図7は、評価値を用いたピーク位置探索処理を説明するための図である。ここで、評価値は、観察対象物Sの表面のうち予め定められた領域についての複数の画素データの値に基づいて算出される値である。本実施の形態では、評価値は、単位領域についての全ての画素データの値の和である。評価値がピーク値を示すときの対物レンズ3のZ方向の位置を評価ピーク位置Ez0と呼ぶ。また、A/D変換器の出力上限値maxと評価値を算出するための複数の画素データの数(本例では、単位領域の全画素データの数)との乗算値を出力上限値Emaxと呼ぶ。さらに、ノイズレベルnlと評価値を算出するための複数の画素データの数(本例では、単位領域の全画素データの数)との乗算値をノイズ評価レベルEnlと呼ぶ。   FIG. 7 is a diagram for explaining the peak position search process using the evaluation value. Here, the evaluation value is a value calculated based on the values of a plurality of pixel data for a predetermined region of the surface of the observation object S. In the present embodiment, the evaluation value is the sum of the values of all the pixel data for the unit area. The position in the Z direction of the objective lens 3 when the evaluation value indicates the peak value is referred to as an evaluation peak position Ez0. Further, a product value of the output upper limit max of the A / D converter and the number of pieces of pixel data for calculating the evaluation value (the number of all pixel data in the unit area in this example) is set as the output upper limit Emax. Call. Further, a multiplication value of the noise level nl and the number of pixel data for calculating the evaluation value (in this example, the number of all pixel data in the unit area) is referred to as a noise evaluation level Enl.

以下では、受光素子30の出力信号のレベルとして、後述する評価値を用いる。また、受光素子30の出力信号の予め定められたレベルとして後述するノイズ評価レベルEnlを用いる。   Hereinafter, an evaluation value described later is used as the level of the output signal of the light receiving element 30. Further, a noise evaluation level Enl described later is used as a predetermined level of the output signal of the light receiving element 30.

図7(a)に対物レンズ3のZ方向の位置と評価値との関係が示される。図7(a)において、縦軸は評価値を表し、横軸は対物レンズ3のZ方向の位置を表す。図7(a)の横軸においては、左から右に向かって対物レンズ3のZ方向の位置が高くなる。   FIG. 7A shows the relationship between the position of the objective lens 3 in the Z direction and the evaluation value. In FIG. 7A, the vertical axis represents the evaluation value, and the horizontal axis represents the position of the objective lens 3 in the Z direction. On the horizontal axis in FIG. 7A, the position of the objective lens 3 in the Z direction increases from left to right.

ピーク位置探索処理の開始時においては、受光素子30のゲインは、算出される評価値が評価上限値Emaxよりも小さくかつノイズ評価レベルEnlよりも十分に大きくなるように設定される。本例では、受光素子30のゲインは、算出される評価値が評価上限値Emaxの1/2になるように設定される。   At the start of the peak position search process, the gain of the light receiving element 30 is set so that the calculated evaluation value is smaller than the evaluation upper limit value Emax and sufficiently larger than the noise evaluation level Enl. In this example, the gain of the light receiving element 30 is set so that the calculated evaluation value is ½ of the evaluation upper limit value Emax.

その後、図7(a)に太い実線の矢印で示すように、対物レンズ3を現在のZ方向の位置zs1(評価ピーク位置Ez0よりも低い位置)から徐々に上に向かう方向に移動させつつ設定されたゲインで単位領域についての全ての画素データを取得するとともに評価値を算出する。   Thereafter, as shown by a thick solid arrow in FIG. 7A, the objective lens 3 is set while being gradually moved upward from the current position zs1 in the Z direction (position lower than the evaluation peak position Ez0). All the pixel data for the unit area is acquired with the gain obtained and the evaluation value is calculated.

この場合、評価値は対物レンズ3が評価ピーク位置Ez0に到達するまでの間、指数関数的に増加する。そこで、このピーク位置探索処理においては、評価値が評価上限値Emaxに達するごとに一定量ゲインを減少させる。   In this case, the evaluation value increases exponentially until the objective lens 3 reaches the evaluation peak position Ez0. Therefore, in this peak position search process, the gain is decreased by a certain amount every time the evaluation value reaches the evaluation upper limit value Emax.

これにより、対物レンズ3がZ方向の位置zs1から評価ピーク位置Ez0に移動するまでの間、指数関数的に増加する評価値が評価上限値Emaxで飽和することが防止される。その結果、評価ピーク位置Ez0の近傍では、最終的に受光素子30のゲインが適切な値に設定される。   This prevents the evaluation value that increases exponentially from being saturated at the evaluation upper limit value Emax until the objective lens 3 moves from the position zs1 in the Z direction to the evaluation peak position Ez0. As a result, in the vicinity of the evaluation peak position Ez0, the gain of the light receiving element 30 is finally set to an appropriate value.

評価値は受光素子30のゲインが減少すると小さくなる。そのため、ピーク位置探索処理においては、受光素子30のゲインの減少回数に基づいて、算出された評価値を補正する。   The evaluation value decreases as the gain of the light receiving element 30 decreases. Therefore, in the peak position search process, the calculated evaluation value is corrected based on the number of times the gain of the light receiving element 30 is decreased.

本実施の形態では、算出された評価値にピーク位置探索処理の開始後の受光素子30のゲインの減少回数と評価上限値Emaxとの乗算値を加算することにより、評価値の補正を行う。これにより、対物レンズ3のZ方向の全範囲に渡って、補正後の評価値と受光素子30の受光強度とを近似的に対応付けることが可能となる。   In the present embodiment, the evaluation value is corrected by adding the multiplication value of the gain reduction count of the light receiving element 30 after the start of the peak position search process and the evaluation upper limit value Emax to the calculated evaluation value. Thereby, it is possible to approximately associate the corrected evaluation value with the light receiving intensity of the light receiving element 30 over the entire range of the objective lens 3 in the Z direction.

図7(b)に対物レンズ3のZ方向の位置と補正された評価値との関係が示される。図7(b)において、縦軸は補正後の評価値を表し、横軸は対物レンズ3のZ方向の位置を表す。図7(b)の横軸においては、左から右に向かって対物レンズ3のZ方向の位置が高くなる。   FIG. 7B shows the relationship between the position of the objective lens 3 in the Z direction and the corrected evaluation value. In FIG. 7B, the vertical axis represents the evaluation value after correction, and the horizontal axis represents the position of the objective lens 3 in the Z direction. On the horizontal axis of FIG. 7B, the position of the objective lens 3 in the Z direction increases from left to right.

図7(b)に示すように、補正後の評価値は、受光素子30の受光強度と同様に、ピーク値まで指数関数的に増加した後、ピーク値から指数関数的に減少する。これにより、対物レンズ3をZ方向の一方向(上に向かう方向)に移動させることにより、補正後の評価値の増減が切り替わったか否かを判定する。補正後の評価値の増減が切り替わった場合には、対物レンズ3をZ方向の一方向(上に向かう方向)にさらに移動させることにより、補正後の評価値がピーク値から予め定められた値pi2分減少したか否かを判定する。   As shown in FIG. 7B, the corrected evaluation value exponentially increases to the peak value and then decreases exponentially from the peak value, similarly to the light reception intensity of the light receiving element 30. Thereby, it is determined whether the increase / decrease in the evaluation value after correction is switched by moving the objective lens 3 in one direction (upward direction) in the Z direction. When the increase / decrease in the evaluation value after correction is switched, the evaluation value after correction is a predetermined value from the peak value by further moving the objective lens 3 in one direction (upward direction) in the Z direction. It is determined whether or not it has decreased by pi2.

補正後の評価値がピーク値から値pi2分減少した場合には、補正後の評価値の増減が切り替わる前に補正後の評価値が予め定められた値pi1分増加したか否かを判定する。補正後の評価値が予め定められた値pi1分増加した場合には、評価値がピーク値を示すときの対物レンズ3の位置を評価ピーク位置Ez0として検出することができる。   When the corrected evaluation value decreases by the value pi2 from the peak value, it is determined whether the corrected evaluation value has increased by a predetermined value pi1 before the increase / decrease in the corrected evaluation value is switched. . When the corrected evaluation value increases by a predetermined value pi1, the position of the objective lens 3 when the evaluation value indicates the peak value can be detected as the evaluation peak position Ez0.

対物レンズ3のZ方向に移動可能な範囲は、対物レンズ3の倍率により予め定められている。予め許容された対物レンズ3の下側の位置を下端位置zt1と呼び、予め許容された対物レンズ3の上側の位置を上端位置zt2と呼ぶ。   The range in which the objective lens 3 can move in the Z direction is determined in advance by the magnification of the objective lens 3. The lower position of the objective lens 3 allowed in advance is called a lower end position zt1, and the upper position of the objective lens 3 allowed in advance is called an upper end position zt2.

最初に対物レンズ3が評価ピーク位置Ez0よりも高い位置zs2にある場合、対物レンズ3を上に向かう方向に移動させても評価ピーク位置Ez0を検出することはできない。この場合、図7(b)に太い点線の矢印で示すように、対物レンズ3を上端位置zt2まで移動させた後、対物レンズ3を逆方向(下に向かう方向)に移動させる。これにより、上記と同様に、評価ピーク位置Ez0を検出することができる。   When the objective lens 3 is initially at a position zs2 higher than the evaluation peak position Ez0, the evaluation peak position Ez0 cannot be detected even if the objective lens 3 is moved upward. In this case, as indicated by a thick dotted line arrow in FIG. 7B, after the objective lens 3 is moved to the upper end position zt2, the objective lens 3 is moved in the reverse direction (downward direction). Thereby, the evaluation peak position Ez0 can be detected as described above.

画素データの値は、受光素子30のノイズの影響により変化する。そこで、上記の値pi1,pi2は、例えばノイズレベルnlと評価値を算出するための複数の画素データの数(本例では、単位領域の全画素データの数)とのノイズ評価レベルEnlよりも大きい値に設定される。これにより、補正後の評価値が受光素子30のノイズの影響により変化する場合でも、評価ピーク位置Ez0が誤って検出されることが防止される。値pi1,pi2は、同じ値であってもよいし、互いに異なる値であってもよい。   The value of the pixel data changes due to the influence of noise of the light receiving element 30. Therefore, the values pi1 and pi2 are higher than the noise evaluation level Enl, for example, the noise level nl and the number of pieces of pixel data for calculating the evaluation value (in this example, the number of all pixel data in the unit area). Set to a large value. Thereby, even when the corrected evaluation value changes due to the influence of noise of the light receiving element 30, it is possible to prevent the evaluation peak position Ez0 from being erroneously detected. The values pi1 and pi2 may be the same value or different values.

1番目の上下限自動設定処理においては、上記のように、ピーク位置探索処理により受光素子30のゲインが調整されつつ評価ピーク位置Ez0が探索される。   In the first upper / lower limit automatic setting process, as described above, the evaluation peak position Ez0 is searched while the gain of the light receiving element 30 is adjusted by the peak position search process.

本例では、1番目の単位領域に対して対物レンズ3の焦点が合う位置として近似的に評価ピーク位置Ez0を用いる。対物レンズ3を初期位置として評価ピーク位置Ez0に移動させ、対物レンズ3のZ方向の上限位置および下限位置を設定する。この場合、対物レンズ3の焦点位置に観察対象物Sの表面が存在する。そのため、後述するように、対物レンズ3のZ方向の位置を評価ピーク位置Ez0から上に向かう方向に変化させつつ評価値を算出することにより、評価値がノイズ評価レベルEnl以下となる位置を、対物レンズ3のZ方向の上限位置として適切に設定することができる。一方、対物レンズ3のZ方向の位置を評価ピーク位置Ez0から下に向かう方向に変化させつつ評価値を算出することにより、評価値がノイズ評価レベルEnl以下となる位置を、対物レンズ3のZ方向の下限位置として適切に設定することができる。   In this example, the evaluation peak position Ez0 is approximately used as the position where the objective lens 3 is focused on the first unit region. The objective lens 3 is moved to the evaluation peak position Ez0 as an initial position, and the upper limit position and the lower limit position in the Z direction of the objective lens 3 are set. In this case, the surface of the observation object S exists at the focal position of the objective lens 3. Therefore, as described later, by calculating the evaluation value while changing the position of the objective lens 3 in the Z direction upward from the evaluation peak position Ez0, the position where the evaluation value is equal to or lower than the noise evaluation level Enl is obtained. The upper limit position of the objective lens 3 in the Z direction can be set appropriately. On the other hand, by calculating the evaluation value while changing the position of the objective lens 3 in the Z direction downward from the evaluation peak position Ez0, the position where the evaluation value is equal to or lower than the noise evaluation level Enl The lower limit position of the direction can be set appropriately.

図8は、高さ画像データおよび超深度画像データの生成時における対物レンズ3のZ方向の上限位置および下限位置の設定方法を説明するための図である。   FIG. 8 is a diagram for explaining a method of setting the upper limit position and the lower limit position in the Z direction of the objective lens 3 when generating height image data and ultra-depth image data.

この設定方法においては、まず、対物レンズ3をピーク位置探索処理により検出された評価ピーク位置Ez0に保持した状態で、単位領域のX方向およびY方向の走査を行い、単位領域についての全ての画素データを取得する。   In this setting method, first, in the state where the objective lens 3 is held at the evaluation peak position Ez0 detected by the peak position search process, the unit area is scanned in the X direction and the Y direction, and all the pixels in the unit area are scanned. Get the data.

いずれかの画素データの値が出力上限値max(図6)である場合には、その画素データの値は有効ではない。そこで、受光素子30のゲインを一定量減少させる。その後、再び単位領域のX方向およびY方向の走査を行うことにより、単位領域についての全ての画素データを取得する。   When the value of any pixel data is the output upper limit value max (FIG. 6), the value of the pixel data is not valid. Therefore, the gain of the light receiving element 30 is decreased by a certain amount. After that, by scanning the unit area in the X direction and the Y direction again, all the pixel data for the unit area are acquired.

上記のゲイン調整および画素データの取得を繰り返すことにより、全ての画素データの値が出力上限値max(図6)よりも小さくなった場合に、評価値が所定のしきい値以下であるか否かを判定する。本実施の形態では、所定のしきい値は、ノイズ評価レベルEnl(図7および図10)である。評価値がノイズ評価レベルEnl(図7および図10)以下でない場合、図8に太い実線の矢印naで示すように、対物レンズ3を一定量上に向かう方向に移動させる。   Whether the evaluation value is equal to or less than a predetermined threshold when all the pixel data values are smaller than the output upper limit value max (FIG. 6) by repeating the above gain adjustment and pixel data acquisition. Determine whether. In the present embodiment, the predetermined threshold is the noise evaluation level Enl (FIGS. 7 and 10). If the evaluation value is not less than or equal to the noise evaluation level Enl (FIGS. 7 and 10), the objective lens 3 is moved in a direction upward by a certain amount, as indicated by a thick solid arrow na in FIG.

続いて、上記のゲイン調整、画素データの取得、画素データの判定動作および対物レンズ3の上に向かう方向への移動を繰り返す。それにより、評価値がノイズ評価レベルEnl以下であると判定されたときの対物レンズ3のZ方向の位置を上限位置UPとして設定する。   Subsequently, the above gain adjustment, pixel data acquisition, pixel data determination operation, and movement in the upward direction of the objective lens 3 are repeated. Thereby, the position in the Z direction of the objective lens 3 when the evaluation value is determined to be equal to or less than the noise evaluation level Enl is set as the upper limit position UP.

受光素子30のゲインが変化すると、取得される画素データの値も変化する。そこで、上限位置UPの設定後、図8に太い実線の矢印nbで示すように、最後に受光素子30のゲインが減少された時点の位置Ez1まで対物レンズ3をZ方向に移動させる。ピーク位置探索処理後上限位置UPが設定されるまでの間、受光素子30のゲインが変化しない場合には、対物レンズ3を評価ピーク位置Ez0までZ方向に移動させる。この状態で、単位領域のX方向およびY方向の走査を行うことにより、単位領域についての全ての画素データを取得する。   When the gain of the light receiving element 30 changes, the value of the acquired pixel data also changes. Therefore, after the upper limit position UP is set, the objective lens 3 is moved in the Z direction to the position Ez1 when the gain of the light receiving element 30 is finally decreased, as indicated by a thick solid arrow nb in FIG. If the gain of the light receiving element 30 does not change until the upper limit position UP is set after the peak position search process, the objective lens 3 is moved in the Z direction to the evaluation peak position Ez0. In this state, by scanning the unit area in the X direction and the Y direction, all pixel data for the unit area is acquired.

この場合においても、上記と同様に、いずれかの画素データの値が出力上限値max(図6)である場合には、受光素子30のゲインを一定量減少させる。その後、再び単位領域のX方向およびY方向の走査を行うことにより、単位領域についての全ての画素データを取得する。   Also in this case, as described above, when the value of any pixel data is the output upper limit value max (FIG. 6), the gain of the light receiving element 30 is decreased by a certain amount. After that, by scanning the unit area in the X direction and the Y direction again, all the pixel data for the unit area are acquired.

上記のゲイン調整および画素データの取得を繰り返すことにより、全ての画素データの値が出力上限値max(図6)よりも小さくなった場合には、評価値がノイズ評価レベルEnl以下であるか否かを判定する。   If the values of all the pixel data become smaller than the output upper limit max (FIG. 6) by repeating the above gain adjustment and pixel data acquisition, whether or not the evaluation value is equal to or less than the noise evaluation level Enl. Determine whether.

評価値がノイズ評価レベルEnl以下でない場合、図8に太い実線の矢印ncで示すように、対物レンズ3を一定量下に向かう方向に移動させる。続いて、上記のゲイン調整、画素データの取得、画素データの判定動作および対物レンズ3の下に向かう方向への移動を繰り返す。それにより、評価値がノイズ評価レベルEnl以下であると判定されたときの対物レンズ3のZ方向の位置を下限位置BPとして設定する。   If the evaluation value is not less than or equal to the noise evaluation level Enl, the objective lens 3 is moved in a direction downward by a certain amount as indicated by a thick solid arrow nc in FIG. Subsequently, the above gain adjustment, pixel data acquisition, pixel data determination operation, and movement downward in the objective lens 3 are repeated. Thereby, the position in the Z direction of the objective lens 3 when the evaluation value is determined to be equal to or less than the noise evaluation level Enl is set as the lower limit position BP.

上記のように、受光素子30のゲインが変化すると、取得される画素データの値も変化し、有効な画素データの値を得ることができる対物レンズ3のZ方向の範囲も変化する。すなわち、上限位置UPの設定後下限位置BPが設定されるまでの間に受光素子30のゲインが変化すると、ゲインの変化量に応じて上限位置UPも変化する。そこで、上限位置UPの設定後の下限位置BPの設定時に受光素子30のゲインが減少された場合、図8に太い実線の矢印ndで示すように、最後に受光素子30のゲインが減少された時点の位置Ez2まで対物レンズ3をZ方向に移動させる。   As described above, when the gain of the light receiving element 30 changes, the value of the acquired pixel data also changes, and the range of the objective lens 3 in which the effective pixel data value can be obtained also changes. That is, if the gain of the light receiving element 30 changes after the upper limit position UP is set and before the lower limit position BP is set, the upper limit position UP also changes according to the amount of gain change. Therefore, when the gain of the light receiving element 30 is reduced when the lower limit position BP is set after the setting of the upper limit position UP, the gain of the light receiving element 30 is finally reduced as shown by a thick solid line arrow nd in FIG. The objective lens 3 is moved in the Z direction to the current position Ez2.

その後、図8に太い実線の矢印neで示すように、再び上限位置UPの探索を行う。上記のように、一度上限位置UPおよび下限位置BPが設定されている場合には、受光素子30のゲインは十分に減少していると考えられる。そのため、再度の上限位置UPの探索時には、受光素子30のゲインはほとんど減少しない。したがって、受光素子30が下限位置BPの設定時のゲインとほぼ同じゲインに調整された状態で、上限位置UPが再設定される。   Thereafter, as shown by a thick solid line arrow ne in FIG. 8, the upper limit position UP is searched again. As described above, once the upper limit position UP and the lower limit position BP are set, it is considered that the gain of the light receiving element 30 is sufficiently reduced. Therefore, when searching for the upper limit position UP again, the gain of the light receiving element 30 hardly decreases. Therefore, the upper limit position UP is reset with the light receiving element 30 adjusted to a gain that is substantially the same as the gain when the lower limit position BP is set.

(5)m番目以降の上下限自動設定処理
上述のように、m番目の上下限自動設定処理では、m番目の単位領域とそのm番目の単位領域に隣接する単位領域との間の重複部分ovについて既に取得された複数の画素データが用いられる。以下、m番目以降の上下限自動設定処理の詳細を説明する。
(5) mth Upper / Lower Limit Automatic Setting Process As described above, in the mth upper / lower limit automatic setting process, an overlapping portion between the mth unit area and a unit area adjacent to the mth unit area. A plurality of pixel data already acquired for ov is used. Details of the upper and lower limit automatic setting processing after the mth will be described below.

m番目以降の上下限自動設定処理が開始される場合には、m番目の単位領域とそのm番目の単位領域に隣接する単位領域との間の重複部分ovについての複数の画素データが既に取得されている。   When the mth and subsequent upper / lower limit automatic setting processing is started, a plurality of pixel data is already acquired for the overlapping portion ov between the mth unit region and the unit region adjacent to the mth unit region. Has been.

例えば、図3の2番目の単位領域s2について2番目の上下限自動設定処理が開始される場合には、1番目の単位領域s1と2番目の単位領域s2との間の重複部分ovについての複数の画素データが既に取得されている。同様に、図3の4番目の単位領域s4について4番目の上下限自動設定処理が開始される場合には、2番目の単位領域s2と4番目の単位領域s4との間の重複部分ovおよび3番目の単位領域s3と4番目の単位領域s4との間の重複部分ovについての複数の画素データが既に取得されている。   For example, when the second upper / lower limit automatic setting process is started for the second unit region s2 of FIG. 3, the overlapping portion ov between the first unit region s1 and the second unit region s2 A plurality of pixel data has already been acquired. Similarly, when the fourth upper / lower limit automatic setting process is started for the fourth unit region s4 in FIG. 3, the overlapping portion ov between the second unit region s2 and the fourth unit region s4 and A plurality of pixel data has already been acquired for the overlapping portion ov between the third unit region s3 and the fourth unit region s4.

そこで、m番目の上下限自動設定処理では、1番目の単位領域の上下限自動設定処理で実行されるピーク位置探索処理の代わりに、m番目の単位領域とそのm番目の単位領域に隣接する単位領域との間の重複部分ovについて既に取得された複数の画素データに基づいて、上限位置UPおよび下限位置BPを探索するためのZ方向における対物レンズ3の初期位置が決定される。   Therefore, in the m-th upper / lower limit automatic setting process, the m-th unit area and the m-th unit area are adjacent to each other instead of the peak position search process executed in the first upper / lower-limit automatic setting process. The initial position of the objective lens 3 in the Z direction for searching for the upper limit position UP and the lower limit position BP is determined based on a plurality of pixel data already acquired for the overlapping portion ov with the unit area.

重複部分ovについて既に取得された複数の画素データは、有効な画素データである。したがって、これらの複数の有効な画素データを用いることにより、評価値がノイズ評価レベルEnlよりも大きくなるように対物レンズ3の初期位置を決定することができる。その結果、m番目の上下限自動設定処理において、対物レンズ3のZ方向の上限位置および下限位置を短時間で設定することが可能となる。   The plurality of pixel data already acquired for the overlapping portion ov is valid pixel data. Therefore, the initial position of the objective lens 3 can be determined so that the evaluation value becomes larger than the noise evaluation level Enl by using the plurality of effective pixel data. As a result, in the m-th upper / lower limit automatic setting process, the upper limit position and the lower limit position of the objective lens 3 in the Z direction can be set in a short time.

具体的には、初期位置は、次のように決定することができる。単位領域についての複数の画素データが取得されることにより、単位領域の高さ画像データおよび超深度画像データが生成される。したがって、m番目の上下限自動設定処理時には、既にm番目の単位領域とそのm番目の単位領域に隣接する単位領域との間の重複部分ovについての高さ画像データおよび超深度画像データが生成されている。そこで、m番目の上下限自動設定処理では、既に生成された重複部分ovについての高さ画像データに基づいて、Z方向における重複部分ovの表面のうち最も低い高さ(または最も高い高さ)を求める。求められた高さに焦点位置が一致するときの対物レンズ3のZ方向の位置を初期位置として決定する。   Specifically, the initial position can be determined as follows. By obtaining a plurality of pixel data for the unit region, height image data and ultra-depth image data of the unit region are generated. Therefore, during the m-th upper / lower limit automatic setting process, height image data and ultra-depth image data are already generated for the overlapping portion ov between the m-th unit region and the unit region adjacent to the m-th unit region. Has been. Therefore, in the m-th upper / lower limit automatic setting process, the lowest height (or the highest height) of the surfaces of the overlapping portion ov in the Z direction is based on the height image data about the already generated overlapping portion ov. Ask for. The position in the Z direction of the objective lens 3 when the focal position matches the obtained height is determined as the initial position.

または、初期位置は、次のように決定することができる。既に生成された重複部分ovの高さ画像データに基づいて、Z方向における重複部分ovの表面の平均高さを算出する。算出された平均高さに焦点位置が一致するときの対物レンズ3のZ方向の位置を初期位置として決定する。   Alternatively, the initial position can be determined as follows. Based on the height image data of the already generated overlapping portion ov, the average height of the surface of the overlapping portion ov in the Z direction is calculated. The position in the Z direction of the objective lens 3 when the focal position matches the calculated average height is determined as the initial position.

または、初期位置は、次のように決定することができる。既に生成された重複部分ovについての高さ画像データに基づいて、Z方向における重複部分ovの表面の高さについてのヒストグラム(度数分布)を求める。求められたヒストグラムにおいてピークを示す高さに焦点位置が一致するときの対物レンズ3の位置を初期位置として決定する。   Alternatively, the initial position can be determined as follows. Based on the height image data for the overlapped portion ov that has already been generated, a histogram (frequency distribution) for the height of the surface of the overlapped portion ov in the Z direction is obtained. The position of the objective lens 3 when the focal position coincides with the height indicating the peak in the obtained histogram is determined as the initial position.

画素データの値がノイズレベルnl以下であると、画素データの値のピークを受光素子30のノイズから明確に識別することは難しい。そこで、初期位置を決定する場合には、m番目の単位領域とそのm番目の単位領域に隣接する単位領域との間の重複部分ovについて既に取得された複数の画素データのうちノイズレベルnlを超える画素データを抽出してもよい。この場合、抽出された画素データに基づいて初期位置を決定することにより、有効な画素データに基づいて初期位置を適切に決定することができる。   When the pixel data value is less than or equal to the noise level nl, it is difficult to clearly distinguish the peak of the pixel data value from the noise of the light receiving element 30. Therefore, when the initial position is determined, the noise level nl among the plurality of pieces of pixel data already acquired for the overlapping portion ov between the mth unit region and the unit region adjacent to the mth unit region is set as the noise level nl. Exceeding pixel data may be extracted. In this case, by determining the initial position based on the extracted pixel data, the initial position can be appropriately determined based on the effective pixel data.

なお、m番目の単位領域が複数の単位領域に隣接する場合には、複数の重複部分ovについての複数の画素データに基づいて、対物レンズ3の初期位置が決定されてもよい。   When the mth unit region is adjacent to a plurality of unit regions, the initial position of the objective lens 3 may be determined based on a plurality of pixel data for a plurality of overlapping portions ov.

続いて、対物レンズ3をZ方向の初期位置に保持した状態で、m番目の単位領域のX方向およびY方向の走査を行うことにより、単位領域についての全ての画素データを取得する。この状態で、全ての画素データの値が予め定められた規定値以上でない場合、受光素子30のゲインを一定量増加させる。画素データの取得および受光素子30のゲインの調整を繰り返し、全ての画素データの値が予め定められた規定値以上になると、初期位置を基準として対物レンズ3の上限位置UPおよび下限位置BPの探索を開始する。   Subsequently, in a state where the objective lens 3 is held at the initial position in the Z direction, scanning of the m-th unit area in the X direction and the Y direction is performed, thereby acquiring all pixel data for the unit area. In this state, when the values of all the pixel data are not equal to or greater than a predetermined value, the gain of the light receiving element 30 is increased by a certain amount. When the acquisition of the pixel data and the adjustment of the gain of the light receiving element 30 are repeated and the values of all the pixel data are equal to or greater than a predetermined value, the search for the upper limit position UP and the lower limit position BP of the objective lens 3 with the initial position as a reference To start.

m番目の上下限自動設定処理における上限位置UPおよび下限位置BPの探索動作は、1番目の上下限自動設定処理における上限位置UPおよび下限位置BPの探索動作と同じである。   The search operation for the upper limit position UP and the lower limit position BP in the m-th upper / lower limit automatic setting process is the same as the search operation for the upper limit position UP and the lower limit position BP in the first upper / lower limit automatic setting process.

上記のように、m番目の上下限自動設定処理においては、既に取得されている重複部分ovについての画素データに基づいて対物レンズ3の上限位置UPおよび下限位置BPを探索するための初期位置が決定される。したがって、ピーク位置探索処理を実行する必要がない。その結果、上下限自動設定処理の処理時間が十分に短くなる。   As described above, in the m-th upper / lower limit automatic setting process, the initial position for searching for the upper limit position UP and the lower limit position BP of the objective lens 3 based on the already acquired pixel data for the overlapping portion ov is set. It is determined. Therefore, it is not necessary to execute the peak position search process. As a result, the processing time of the upper / lower limit automatic setting process is sufficiently shortened.

(6)上下限自動設定処理の他の例
図9は、表面に段差を有する観察対象物Sと対物レンズ3との位置関係を示す模式図である。図9の例では、観察対象物Sの表面に第1、第2および第3の面Sa1,Sa2,Sa3からなる段差が形成されている。第1および第3の面Sa1,Sa3はXY方向に平行であり、第2の面Sa2はYZ方向に平行である。Z方向において、第1の面Sa1は第3の面Sa3よりも高い。X方向において、第2の面Sa2は第1および第3の面Sa1,Sa3の間に位置する。
(6) Another Example of Upper / Lower Limit Automatic Setting Process FIG. 9 is a schematic diagram showing the positional relationship between the observation object S having a step on the surface and the objective lens 3. In the example of FIG. 9, a step including the first, second, and third surfaces Sa1, Sa2, Sa3 is formed on the surface of the observation object S. The first and third surfaces Sa1 and Sa3 are parallel to the XY direction, and the second surface Sa2 is parallel to the YZ direction. In the Z direction, the first surface Sa1 is higher than the third surface Sa3. In the X direction, the second surface Sa2 is located between the first and third surfaces Sa1 and Sa3.

図9(a)に示すように、Z方向において対物レンズ3の焦点位置fpが第1の面Sa1と第2の面Sa2との交差部に位置するときの対物レンズ3のZ方向の位置を第1のZ位置zp1と呼ぶ。図9(b)に示すように、Z方向において対物レンズ3の焦点位置fpが第2の面Sa2上でかつZ方向における第1の面Sa1と第3の面Sa3との間に位置するときの対物レンズ3のZ方向の位置を第2のZ位置zp2と呼ぶ。図9(c)に示すように、Z方向において対物レンズ3の焦点位置fpが第2の面Sa2と第3の面Sa3との交差部に位置するときの対物レンズ3のZ方向の位置を第3のZ位置zp3と呼ぶ。   As shown in FIG. 9A, the position of the objective lens 3 in the Z direction when the focal position fp of the objective lens 3 is located at the intersection of the first surface Sa1 and the second surface Sa2 in the Z direction. Called the first Z position zp1. As shown in FIG. 9B, when the focal position fp of the objective lens 3 is located on the second surface Sa2 and between the first surface Sa1 and the third surface Sa3 in the Z direction in the Z direction. The position of the objective lens 3 in the Z direction is referred to as a second Z position zp2. As shown in FIG. 9C, the position of the objective lens 3 in the Z direction when the focal position fp of the objective lens 3 is located at the intersection of the second surface Sa2 and the third surface Sa3 in the Z direction. This is called the third Z position zp3.

図9の観察対象物SのZ方向の複数の位置でレーザ光をX方向およびY方向に走査させる。図10は、図9の観察対象物Sに対してレーザ光を走査させることにより得られる対物レンズ3のZ方向の位置と評価値との関係を示す図である。図10の縦軸は評価値を表し、横軸は対物レンズ3のZ方向の位置を表す。横軸においては、左から右に向かって対物レンズ3のZ方向の位置が高くなる。また、図10の横軸には、上述の下端位置zt1、上端位置zt2および第1〜第3のZ位置zp1〜zp3が示される。   The laser beam is scanned in the X direction and the Y direction at a plurality of positions in the Z direction of the observation object S in FIG. FIG. 10 is a diagram showing the relationship between the evaluation value and the position in the Z direction of the objective lens 3 obtained by scanning the observation target S of FIG. 9 with laser light. The vertical axis in FIG. 10 represents the evaluation value, and the horizontal axis represents the position of the objective lens 3 in the Z direction. On the horizontal axis, the position of the objective lens 3 in the Z direction increases from left to right. Further, the above-described lower end position zt1, upper end position zt2, and first to third Z positions zp1 to zp3 are shown on the horizontal axis of FIG.

図10に示すように、対物レンズ3のZ方向の位置が第1のZ位置zp1にある場合には、対物レンズ3の焦点位置fpが第1の面Sa1上に位置する(図9(a)参照)。この場合、対物レンズ3の焦点位置fpでレーザ光の一部が第1の面Sa1で反射することにより評価値が大きくなる。また、対物レンズ3のZ方向の位置が第3のZ位置zp3にある場合には、対物レンズ3の焦点位置fpが第3の面Sa3上に位置する(図9(c)参照)。この場合、対物レンズ3の焦点位置fpでレーザ光の一部が第3の面Sa3で反射することにより評価値が大きくなる。一方、対物レンズ3が第2のZ位置zp2にある場合には、対物レンズ3の焦点位置fpが対物レンズ3の光軸に直交する面(XY方向に平行な面)上に存在しない。この場合、対物レンズ3の焦点位置fpにはZ方向にレーザ光を反射する面が存在しない。そのため、評価値が小さくなる。   As shown in FIG. 10, when the position of the objective lens 3 in the Z direction is at the first Z position zp1, the focal position fp of the objective lens 3 is located on the first surface Sa1 (FIG. 9A )reference). In this case, a part of the laser light is reflected by the first surface Sa1 at the focal position fp of the objective lens 3, so that the evaluation value is increased. Further, when the position of the objective lens 3 in the Z direction is at the third Z position zp3, the focal position fp of the objective lens 3 is located on the third surface Sa3 (see FIG. 9C). In this case, a part of the laser light is reflected by the third surface Sa3 at the focal position fp of the objective lens 3, so that the evaluation value is increased. On the other hand, when the objective lens 3 is at the second Z position zp2, the focal position fp of the objective lens 3 does not exist on a plane orthogonal to the optical axis of the objective lens 3 (a plane parallel to the XY direction). In this case, there is no surface that reflects the laser beam in the Z direction at the focal position fp of the objective lens 3. Therefore, the evaluation value becomes small.

本例では、対物レンズ3が下端位置zt1から位置zn1までの間の範囲AZ1、位置zn2から位置zn3までの間の範囲AZ2、および位置zn4から上端位置zt2までの間の範囲AZ3にある場合、評価値が上述のノイズ評価レベルEnl以下である。第1のZ位置zp1は、位置zn1と位置zn2との間に位置し、第2のZ位置zp2は、位置zn2と位置zn3との間に位置し、第3のZ位置zp3は、位置zn3と位置zn4との間に位置する。   In this example, when the objective lens 3 is in the range AZ1 from the lower end position zt1 to the position zn1, the range AZ2 from the position zn2 to the position zn3, and the range AZ3 from the position zn4 to the upper end position zt2. The evaluation value is equal to or less than the above-described noise evaluation level Enl. The first Z position zp1 is located between the position zn1 and the position zn2, the second Z position zp2 is located between the position zn2 and the position zn3, and the third Z position zp3 is located at the position zn3. And the position zn4.

上記の上下限自動設定処理によれば、対物レンズ3を第1の位置zp1に移動させた後、ゲイン調整、画素データの取得および対物レンズ3の上に向かう方向への移動を繰り返す。これにより、評価値が最初にノイズ評価レベルEnl以下となったときの対物レンズ3のZ方向の位置zn2が上限位置UPとして設定される。また、上限位置UPの設定後、対物レンズ3を最後に受光素子30のゲインが減少された時点の位置に移動させた後、ゲイン調整、画素データの取得および対物レンズ3の下に向かう方向への移動を繰り返す。これにより、評価値が最初にノイズ評価レベルEnl以下となったときの対物レンズ3のZ方向の位置zn1が下限位置BPとして設定される。受光素子30のゲインが変化した場合には、上限位置UPの再探索および再設定が行われる。このように上限位置UPおよび下限位置BPが設定される場合には、第3のZ位置zp3が上限位置UPと下限位置BPとの間の範囲から外れる。そのため、使用者は第3の面Sa3を観察することができなくなる。   According to the above upper / lower limit automatic setting process, after the objective lens 3 is moved to the first position zp1, the gain adjustment, the acquisition of pixel data, and the movement in the upward direction of the objective lens 3 are repeated. Thereby, the position zn2 in the Z direction of the objective lens 3 when the evaluation value first becomes equal to or lower than the noise evaluation level Enl is set as the upper limit position UP. In addition, after setting the upper limit position UP, the objective lens 3 is finally moved to the position when the gain of the light receiving element 30 is decreased, and then gain adjustment, acquisition of pixel data, and downward direction of the objective lens 3 are performed. Repeat the move. Thereby, the position zn1 in the Z direction of the objective lens 3 when the evaluation value first becomes equal to or lower than the noise evaluation level Enl is set as the lower limit position BP. When the gain of the light receiving element 30 changes, the upper limit position UP is searched again and reset. Thus, when the upper limit position UP and the lower limit position BP are set, the third Z position zp3 deviates from the range between the upper limit position UP and the lower limit position BP. Therefore, the user cannot observe the third surface Sa3.

そこで、本実施の形態に係る共焦点顕微鏡システム500においては、上記の図8を用いて説明した上下限自動設定処理に加えて、以下の上下限自動設定処理が行われてもよい。   Therefore, in the confocal microscope system 500 according to the present embodiment, the following upper / lower limit automatic setting process may be performed in addition to the upper / lower limit automatic setting process described with reference to FIG.

本例の上下限自動設定処理においては、対物レンズ3を第1の位置zp1に移動させた後、対物レンズ3が上端位置zt2に達するまで、ゲイン調整、画素データの取得および対物レンズ3の上に向かう方向への移動を繰り返す(図10の太い矢印参照)。評価値が最後にノイズ評価レベルEnlよりも大きい値からノイズ評価レベルEnl以下となるときの対物レンズ3のZ方向の位置(本例では位置zn4)を上限位置UPとして設定する。   In the upper and lower limit automatic setting processing of this example, after the objective lens 3 is moved to the first position zp1, the gain adjustment, the acquisition of pixel data, and the top of the objective lens 3 are performed until the objective lens 3 reaches the upper end position zt2. The movement in the direction toward is repeated (see the thick arrow in FIG. 10). The position in the Z direction (position zn4 in this example) of the objective lens 3 when the evaluation value is finally lower than the noise evaluation level Enl from a value larger than the noise evaluation level Enl is set as the upper limit position UP.

また、上限位置UPの設定後、対物レンズ3を最後に受光素子30のゲインが減少された時点の位置に移動させた後、対物レンズ3が下端位置zt1に達するまで、ゲイン調整、画素データの取得および対物レンズ3の下に向かう方向への移動を繰り返す。評価値が最後にノイズ評価レベルEnlよりも大きい値からノイズ評価レベルEnl以下となるときの対物レンズ3のZ方向の位置(本例では位置zn1)を下限位置BPとして設定する。   After the upper limit position UP is set, the objective lens 3 is moved to the position at the time when the gain of the light receiving element 30 is finally decreased, and then the gain adjustment and pixel data are changed until the objective lens 3 reaches the lower end position zt1. The acquisition and movement in the downward direction of the objective lens 3 are repeated. The position in the Z direction (position zn1 in this example) of the objective lens 3 when the evaluation value is finally lower than the noise evaluation level Enl from a value larger than the noise evaluation level Enl is set as the lower limit position BP.

受光素子30のゲインが変化した場合には、対物レンズ3を最後に受光素子30のゲインが減少された位置に移動させた後、対物レンズ3が上端位置zt2に達するまで、ゲイン調整、画素データの取得および対物レンズ3の上に向かう方向への移動を繰り返す。評価値が最後にノイズ評価レベルEnlよりも大きい値からノイズ評価レベルEnl以下となるときの対物レンズ3のZ方向の位置を上限位置UPとして再設定する。   When the gain of the light receiving element 30 changes, the objective lens 3 is finally moved to a position where the gain of the light receiving element 30 is decreased, and then gain adjustment and pixel data are performed until the objective lens 3 reaches the upper end position zt2. And the movement toward the top of the objective lens 3 are repeated. The position in the Z direction of the objective lens 3 when the evaluation value is finally lower than the noise evaluation level Enl from a value larger than the noise evaluation level Enl is reset as the upper limit position UP.

この方法によれば、観察対象物Sの表面が大きな段差を有する場合でも、使用者は、段差を構成する全ての面(図9の第1および第3の面Sa1,Sa3)を観察することができる。   According to this method, even when the surface of the observation object S has a large step, the user observes all the surfaces (the first and third surfaces Sa1 and Sa3 in FIG. 9) constituting the step. Can do.

上記のように、対物レンズ3のZ方向に移動可能な範囲は、対物レンズ3の倍率により予め定められている。しかしながら、下限位置BPおよび上限位置UPは、必ずしも対物レンズ3の倍率により予め定められた下端位置zt1と上端位置zt2との間に位置するとは限らない。   As described above, the range in which the objective lens 3 can move in the Z direction is determined in advance by the magnification of the objective lens 3. However, the lower limit position BP and the upper limit position UP are not necessarily located between the lower end position zt1 and the upper end position zt2 that are predetermined according to the magnification of the objective lens 3.

したがって、上下限自動設定処理において、下限位置BPおよび上限位置UPが設定できない場合には、上端位置zt2(図7、図9および図10)よりも一定距離高い位置を新たな上端位置とし、下端位置zt1(図7、図9および図10)よりも一定距離低い位置を新たな下端位置として設定した後、新たに設定された上端位置および下端位置に基づいて上下限自動設定処理を再度行ってもよい。   Accordingly, in the upper / lower limit automatic setting process, when the lower limit position BP and the upper limit position UP cannot be set, a position that is a certain distance higher than the upper end position zt2 (FIGS. 7, 9, and 10) is set as a new upper end position. After setting a position lower than the position zt1 (FIGS. 7, 9, and 10) by a certain distance as a new lower end position, the upper / lower limit automatic setting process is performed again based on the newly set upper end position and lower end position. Also good.

このように、上限位置UPおよび下限位置BPが予め定められた対物レンズ3のZ方向に移動可能な範囲内に設定されない場合に、新たな上端位置および下限位置が設定される。これにより、対物レンズ3のZ方向に移動可能な範囲が拡大された状態で再度上下限自動設定処理が行われるので、Z方向の広い範囲に渡って上限位置UPおよび下限位置BPを正確に設定することが可能となる。   As described above, when the upper limit position UP and the lower limit position BP are not set within a predetermined range in which the objective lens 3 can move in the Z direction, new upper limit positions and lower limit positions are set. Thus, the upper / lower limit automatic setting process is performed again in a state where the range in which the objective lens 3 can move in the Z direction is expanded, so that the upper limit position UP and the lower limit position BP are accurately set over a wide range in the Z direction. It becomes possible to do.

上限位置UPおよび下限位置BPの探索時には、実質的に下端位置zt1から上端位置zt2までの範囲でゲイン調整および画素データの取得が行われる。そのため、上下限自動設定処理の時間が長くなる。そこで、本例の上下限自動設定処理においては、以下のように上限位置UPおよび下限位置BPを探索してもよい。   When searching for the upper limit position UP and the lower limit position BP, gain adjustment and pixel data acquisition are performed substantially in the range from the lower end position zt1 to the upper end position zt2. Therefore, the upper and lower limit automatic setting process takes longer time. Therefore, in the upper / lower limit automatic setting process of this example, the upper limit position UP and the lower limit position BP may be searched as follows.

上記のように、上限位置UPまたは下限位置BPの探索時には、評価値が最後にノイズ評価レベルEnlよりも大きい値からノイズ評価レベルEnl以下となるときの対物レンズ3のZ方向の位置が上限位置UPまたは下限位置BPとして設定される。したがって、上限位置UPまたは下限位置BPの探索時には、評価値がノイズ評価レベルEnlよりも大きい場合に、対物レンズ3のZ方向の移動ピッチを小さく設定する。この理由について、移動ピッチの具体的な設定例とともに説明する。   As described above, when searching for the upper limit position UP or the lower limit position BP, the position in the Z direction of the objective lens 3 when the evaluation value is finally lower than the noise evaluation level Enl from a value larger than the noise evaluation level Enl is the upper limit position. It is set as UP or lower limit position BP. Therefore, when searching for the upper limit position UP or the lower limit position BP, if the evaluation value is larger than the noise evaluation level Enl, the movement pitch in the Z direction of the objective lens 3 is set small. This reason will be described together with a specific setting example of the movement pitch.

Z方向において、対物レンズ3から観察対象物Sに照射されるレーザ光の強度は、対物レンズ3の焦点位置fpで最も大きくなり、対物レンズ3の焦点位置fpから離れるほど小さくなる。観察対象物Sの表面に照射されるレーザ光の強度が小さすぎると、観察対象物Sの表面を正確に観察することができない。そのため、上限位置UPまたは下限位置BPの探索時における対物レンズ3のZ方向の移動ピッチは、単位領域の表面全体に一定強度以上のレーザ光が照射されるように設定される。   In the Z direction, the intensity of the laser light emitted from the objective lens 3 to the observation object S is highest at the focal position fp of the objective lens 3 and decreases as the distance from the focal position fp of the objective lens 3 increases. If the intensity of the laser light applied to the surface of the observation object S is too small, the surface of the observation object S cannot be observed accurately. Therefore, the movement pitch in the Z direction of the objective lens 3 when searching for the upper limit position UP or the lower limit position BP is set so that the entire surface of the unit region is irradiated with laser light having a certain intensity or higher.

上述のように、1つの画素についての上限位置および下限位置を設定する場合には、ピーク位置z0における画素データの値が出力上限値maxにできる限り近づくようにゲインが設定される。したがって、観察対象物Sの表面にピーク強度の1/2の強度でレーザ光が照射される場合でも、観察対象物Sの表面を観察するために十分な反射光を得ることができる。   As described above, when setting the upper limit position and the lower limit position for one pixel, the gain is set so that the value of the pixel data at the peak position z0 is as close as possible to the output upper limit value max. Therefore, even when the surface of the observation object S is irradiated with laser light with a half intensity of the peak intensity, sufficient reflected light can be obtained for observing the surface of the observation object S.

ここで、対物レンズ3が固定された状態で、レーザ光の強度がピーク強度の1/2になるときのZ方向の位置と焦点位置fpとの間の距離を強度半減距離と呼ぶ。本例では、評価値がノイズ評価レベルEnlよりも大きい値である場合に、対物レンズ3のZ方向の移動ピッチを強度半減距離に設定する。この場合、上限位置UPまたは下限位置BPの探索時において、単位領域の表面全体にピーク強度の1/2以上の強度でレーザ光を照射することができる。これにより、上限位置UPまたは下限位置BPを精度よく設定することができる。   Here, the distance between the position in the Z direction and the focal position fp when the intensity of the laser light is ½ of the peak intensity in a state where the objective lens 3 is fixed is called an intensity half distance. In this example, when the evaluation value is larger than the noise evaluation level Enl, the movement pitch in the Z direction of the objective lens 3 is set to the intensity half distance. In this case, when searching for the upper limit position UP or the lower limit position BP, it is possible to irradiate the entire surface of the unit region with laser light with an intensity of ½ or more of the peak intensity. Thereby, the upper limit position UP or the lower limit position BP can be set with high accuracy.

評価値がノイズ評価レベルEnl以下である場合(例えば、対物レンズ3の位置が図10の範囲AZ1,AZ2,AZ3にある場合)には、Z方向の移動ピッチを大きく設定する。この理由について、移動ピッチの具体的な設定例とともに説明する。   When the evaluation value is equal to or less than the noise evaluation level Enl (for example, when the position of the objective lens 3 is in the range AZ1, AZ2, AZ3 in FIG. 10), the movement pitch in the Z direction is set large. This reason will be described together with a specific setting example of the movement pitch.

評価値がノイズ評価レベルEnl以下である状態では、上限位置UPおよび下限位置BPは設定されない。評価値がノイズ評価レベルEnl以下である場合には、評価値がノイズ評価レベルEnlよりも大きい値に変化したか否かが判定できればよい。   In a state where the evaluation value is equal to or lower than the noise evaluation level Enl, the upper limit position UP and the lower limit position BP are not set. When the evaluation value is equal to or lower than the noise evaluation level Enl, it is only necessary to determine whether or not the evaluation value has changed to a value larger than the noise evaluation level Enl.

そこで、本例では、評価値がノイズ評価レベルEnl以下である場合に、受光素子30のゲインを一定量大きくする。この場合、取得される複数の画素データの値がそれぞれ大きくなり、評価値が大きくなる。これにより、単位領域の表面に照射されるレーザ光の強度が低い場合でも、評価値とノイズ評価レベルEnlとを比較することが可能となる。それにより、対物レンズ3のZ方向の移動ピッチを上記の強度半減距離よりも大きく設定することができる。   Therefore, in this example, when the evaluation value is equal to or less than the noise evaluation level Enl, the gain of the light receiving element 30 is increased by a certain amount. In this case, the value of the acquired plurality of pixel data is increased, and the evaluation value is increased. Thereby, even when the intensity of the laser beam irradiated on the surface of the unit region is low, the evaluation value and the noise evaluation level Enl can be compared. Thereby, the movement pitch of the objective lens 3 in the Z direction can be set larger than the above-mentioned intensity half-distance.

このように、評価値がノイズ評価レベルEnlよりも大きい場合に比べて、対物レンズ3のZ方向の移動ピッチを大きく設定する。これにより、画素データの取得回数を低減することができるので、上下限自動設定処理の時間が短くなる。   In this way, the movement pitch in the Z direction of the objective lens 3 is set larger than in the case where the evaluation value is larger than the noise evaluation level Enl. As a result, the number of pixel data acquisition times can be reduced, so that the upper and lower limit automatic setting processing time is shortened.

評価値がノイズ評価レベルEnl以下である場合には、受光素子30のゲインを一定量増加させる代わりにレーザ光源10から出射されるレーザ光の光量を一定量増加させてもよい。この場合、上記の強度半減距離が大きくなる。それにより、評価値がノイズ評価レベルEnlよりも大きい値である場合に比べて、対物レンズ3のZ方向の移動ピッチを大きく設定することができる。   When the evaluation value is equal to or less than the noise evaluation level Enl, the amount of laser light emitted from the laser light source 10 may be increased by a certain amount instead of increasing the gain of the light receiving element 30 by a certain amount. In this case, the above-mentioned strength half distance is increased. Thereby, the movement pitch in the Z direction of the objective lens 3 can be set larger than when the evaluation value is larger than the noise evaluation level Enl.

評価値がノイズ評価レベルEnl以下である場合には、受光素子30のゲインを一定量増加させる代わりにNDフィルタ8の減衰率を一定量低下させてもよい。この場合、上記の強度半減距離が大きくなる。それにより、評価値がノイズ評価レベルEnlよりも大きい値である場合に比べて、対物レンズ3のZ方向の移動ピッチを大きく設定することができる。   When the evaluation value is equal to or lower than the noise evaluation level Enl, the attenuation factor of the ND filter 8 may be decreased by a certain amount instead of increasing the gain of the light receiving element 30 by a certain amount. In this case, the above-mentioned strength half distance is increased. Thereby, the movement pitch in the Z direction of the objective lens 3 can be set larger than when the evaluation value is larger than the noise evaluation level Enl.

上記の例では、上限位置UPの設定後、対物レンズ3を最後に受光素子30のゲインが減少された時点の位置に移動させた後、対物レンズ3が下端位置zt1に達するまで、ゲイン調整、画素データの取得および対物レンズ3の下に向かう方向への移動が繰り返され、評価値が最後にノイズ評価レベルEnlよりも大きい値からノイズ評価レベルEnl以下となるときの対物レンズ3のZ方向の位置が下限位置BPとして設定される。   In the above example, after the upper limit position UP is set, the objective lens 3 is finally moved to the position at the time when the gain of the light receiving element 30 is decreased, and then the gain adjustment is performed until the objective lens 3 reaches the lower end position zt1. The acquisition of pixel data and the movement in the downward direction of the objective lens 3 are repeated, and the objective lens 3 in the Z direction when the evaluation value is finally lower than the noise evaluation level Enl from a value larger than the noise evaluation level Enl. The position is set as the lower limit position BP.

(7)対象物観察処理
共焦点顕微鏡システム500において、観察対象物Sを観察する場合に図1のPC200のCPU210が行う対象物観察処理について説明する。
(7) Object Observation Process In the confocal microscope system 500, the object observation process performed by the CPU 210 of the PC 200 in FIG. 1 when observing the observation object S will be described.

図11および図12は、共焦点顕微鏡システム500において実行される対象物観察処理を示すフローチャートである。図1のPC200のCPU210は、記憶装置240に記憶される対象物観察プログラムに従って動作する。   FIG. 11 and FIG. 12 are flowcharts showing the object observation process executed in the confocal microscope system 500. The CPU 210 of the PC 200 in FIG. 1 operates according to the object observation program stored in the storage device 240.

以下に説明する対象物観察処理においては、本発明の移動範囲設定処理として上下限自動設定処理(後述するステップS4)が実行され、本発明の測定処理として単位領域についての画素データを取得する処理(後述するステップS7)が実行される。なお、フローチャートのステップS8,S9では、共焦点画像データおよび表面画像データを画像データと略記する。対象物観察処理には、上記の上下限自動設定処理が含まれる。上記のように、m番目の上下限自動設定処理では、m番目の単位領域とそのm番目の単位領域に隣接する単位領域との間の重複部分ovにおいて既に取得された複数の画素データが用いられる。それにより、m番目以降の上下限自動設定処理が1番目の上下限自動設定処理に比べて単純化されるので、m番目の上下限自動設定処理の時間が十分に短くなる。   In the object observation process described below, an upper / lower limit automatic setting process (step S4 to be described later) is executed as a movement range setting process of the present invention, and a process of acquiring pixel data for a unit region as a measurement process of the present invention. (Step S7 described later) is executed. In steps S8 and S9 of the flowchart, the confocal image data and the surface image data are abbreviated as image data. The object observation process includes the above upper / lower limit automatic setting process. As described above, in the m-th upper / lower limit automatic setting process, a plurality of pieces of pixel data already acquired in the overlapping portion ov between the m-th unit area and the unit area adjacent to the m-th unit area are used. It is done. This simplifies the m-th and subsequent upper / lower limit automatic setting processes compared to the first upper / lower limit automatic setting process, so that the time of the mth upper / lower limit automatic setting process is sufficiently short.

まず、CPU210は、制御部300により与えられるカメラデータに基づいてカメラ画像データを生成し、カメラ画像データに基づいて観察対象物Sのカメラ画像を図5の表示部400の画像表示領域410に表示させる(ステップS1)。   First, the CPU 210 generates camera image data based on the camera data given by the control unit 300, and displays the camera image of the observation object S in the image display area 410 of the display unit 400 of FIG. 5 based on the camera image data. (Step S1).

次に、使用者は、ポインティングデバイスを用いて画素データの取得範囲を指示する。CPU210は、使用者の指示に基づいて、画素データの取得範囲を設定する(ステップS2)。本実施の形態では、画素データの取得範囲が単位領域よりも大きい場合に、隣接する単位領域の一部が互いに重なるように、取得範囲内の各単位領域の位置および単位領域の数が決定される。決定された取得範囲内の各単位領域の位置および単位領域の数が作業用メモリ230に記憶される。   Next, the user instructs the acquisition range of the pixel data using the pointing device. CPU210 sets the acquisition range of pixel data based on a user's instruction (step S2). In the present embodiment, when the pixel data acquisition range is larger than the unit region, the position of each unit region and the number of unit regions in the acquisition range are determined so that adjacent unit regions partially overlap each other. The The position of each unit area and the number of unit areas within the determined acquisition range are stored in the work memory 230.

続いて、CPU210は、作業用メモリ230に記憶された単位領域の位置に基づいて図1のステージ駆動部62に駆動パルスを与えることによりステージ60を移動させる(ステップS3)。   Subsequently, the CPU 210 moves the stage 60 by applying a driving pulse to the stage driving unit 62 of FIG. 1 based on the position of the unit area stored in the work memory 230 (step S3).

続いて、CPU210は、上記の上下限自動設定処理を行う(ステップS4)。上下限自動設定処理により、対物レンズ3のZ方向の移動範囲が設定される。上下限自動設定処理の詳細については後述する(図13〜図16参照)。その後、CPU210は、上下限自動設定処理が成功したか否かを判定する(ステップS5)。上下限自動設定処理が成功した場合、CPU210は、制御部300にX方向の走査におけるサンプリング数、走査線数およびZ方向の移動範囲を通知するとともに単位領域についての画素データの取得を指令する(ステップS6)。   Subsequently, the CPU 210 performs the above upper / lower limit automatic setting process (step S4). The movement range in the Z direction of the objective lens 3 is set by the upper / lower limit automatic setting process. Details of the upper and lower limit automatic setting processing will be described later (see FIGS. 13 to 16). Thereafter, the CPU 210 determines whether or not the upper / lower limit automatic setting process has succeeded (step S5). When the upper / lower limit automatic setting process is successful, the CPU 210 notifies the control unit 300 of the number of samplings in the X-direction scanning, the number of scanning lines, and the movement range in the Z-direction, and commands acquisition of pixel data for the unit area ( Step S6).

制御部300は、CPU210から通知されたX方向の走査におけるサンプリング数、走査線数およびZ方向の移動範囲に基づいて、図1のX−Yスキャン光学系20を制御するとともに対物レンズ3のZ位置(観察対象物SのZ方向の位置)を移動させ、受光素子30から出力される受光信号に基づいて画素データをPC200のCPU210に与える。CPU210は、制御部300から単位領域についての画素データを取得する(ステップS7)。CPU210は、取得した画素データに基づいて単位領域の複数の共焦点画像データを生成するとともに表面画像データを生成し(ステップS8)、記憶装置240に記憶する。   The control unit 300 controls the XY scan optical system 20 of FIG. 1 and the Z of the objective lens 3 based on the number of samplings in the X direction, the number of scanning lines, and the movement range in the Z direction notified from the CPU 210. The position (position in the Z direction of the observation object S) is moved, and pixel data is given to the CPU 210 of the PC 200 based on the light reception signal output from the light receiving element 30. CPU210 acquires the pixel data about a unit area from the control part 300 (step S7). The CPU 210 generates a plurality of confocal image data of the unit area based on the acquired pixel data and also generates surface image data (step S8) and stores it in the storage device 240.

ここで、CPU210は、全ての単位領域の共焦点画像データおよび表面画像データを生成したか否かを判定する(ステップS9)。全ての単位領域の共焦点画像データおよび表面画像データを生成していない場合、CPU210は、ステップS3の処理に戻る。CPU210は、次の単位領域の共焦点画像データの生成が可能な位置にステージ60を移動させ、ステップS4〜S9の処理を繰り返す。   Here, the CPU 210 determines whether or not the confocal image data and the surface image data of all the unit areas have been generated (step S9). When the confocal image data and the surface image data of all the unit areas have not been generated, the CPU 210 returns to the process of step S3. The CPU 210 moves the stage 60 to a position where the confocal image data of the next unit area can be generated, and repeats the processes of steps S4 to S9.

一方、ステップS9において、全ての単位領域の共焦点画像データおよび表面画像データを生成した場合、CPU210は、記憶装置240に記憶された複数の単位領域の表面画像データを記憶装置240を用いて連結する(ステップS10)。これにより、指示された取得範囲の表面画像データが生成される。画素データの取得範囲内に単位領域が1つしか含まれない場合、ステップS10において表面画像データの連結は行われない。   On the other hand, when the confocal image data and the surface image data of all the unit areas are generated in step S <b> 9, the CPU 210 connects the surface image data of the plurality of unit areas stored in the storage device 240 using the storage device 240. (Step S10). Thereby, surface image data of the designated acquisition range is generated. When only one unit region is included in the pixel data acquisition range, the surface image data is not connected in step S10.

その後、CPU210は、連結された表面画像データに基づく観察対象物Sの表面の画像を作業用メモリ230を用いて表示部400に表示させる(ステップS11)。最後に、CPU210は、連結された表面画像データを記憶装置240に記憶し、対象物観察処理を終了する。   Thereafter, the CPU 210 causes the display unit 400 to display an image of the surface of the observation object S based on the connected surface image data using the work memory 230 (step S11). Finally, the CPU 210 stores the connected surface image data in the storage device 240 and ends the object observation process.

上記のステップS5において、上下限自動設定処理が失敗した場合、CPU210は、画像処理が失敗したことを示す画像を表示部400に表示させ(ステップS12)、対象物観察処理を終了する。   If the upper / lower limit automatic setting process fails in step S5, the CPU 210 displays an image indicating that the image process has failed on the display unit 400 (step S12), and ends the object observation process.

このように、図11および図12の対象物観察処理においては、ステップS5,S12により上下限自動設定処理が失敗した場合に対象物観察処理が終了する。これに限らず、ステップS5において上下限自動設定処理が失敗した場合に、CPU210は、上端位置zt2(図7、図9および図10)を上限位置UPとして設定し、下端位置zt1(図7、図9および図10)を下限位置BPとして設定してもよい。この場合、CPU210は、下限位置BPおよび上限位置UPの設定後、ステップS6の処理に進んでもよい。これにより、上下限自動設定処理が失敗した場合でも、観察対象物Sの表面の画像を表示部400に表示させることが可能となる。   Thus, in the object observation process of FIGS. 11 and 12, the object observation process ends when the upper and lower limit automatic setting process fails in steps S5 and S12. Not limited to this, when the upper / lower limit automatic setting process fails in step S5, the CPU 210 sets the upper end position zt2 (FIGS. 7, 9, and 10) as the upper limit position UP, and sets the lower end position zt1 (FIG. 7, 9 and 10) may be set as the lower limit position BP. In this case, the CPU 210 may proceed to step S6 after setting the lower limit position BP and the upper limit position UP. Thereby, even when the upper / lower limit automatic setting process fails, the display unit 400 can display an image of the surface of the observation object S.

上記の例に限らず、ステップS5において上下限自動設定処理が失敗した場合に、CPU210は、上端位置zt2(図7、図9および図10)よりも一定距離高い位置を新たな上端位置とし、下端位置zt1(図7、図9および図10)よりも一定距離低い位置を新たな下端位置として設定した後、新たに設定された上端位置および下端位置に基づいてステップS4の上下限自動設定処理を再度行ってもよい。   Not limited to the above example, when the upper / lower limit automatic setting process fails in step S5, the CPU 210 sets a position a certain distance higher than the upper end position zt2 (FIGS. 7, 9, and 10) as a new upper end position, After a position lower than the lower end position zt1 (FIGS. 7, 9, and 10) by a certain distance is set as a new lower end position, an upper / lower limit automatic setting process in step S4 based on the newly set upper end position and lower end position. May be performed again.

上端位置zt2(図7、図9および図10)と新たな上端位置との間の一定距離、および下端位置zt1(図7、図9および図10)と新たな下端位置との間の一定距離は、等しくてもよいし、互いに異なってもよい。また、これらの一定距離は、対物レンズ3の倍率により予め定められた距離であってもよいし、使用者がPC200(図1)に接続されたマウス等のポインティングデバイスを用いて設定した距離であってもよい。   A constant distance between the upper end position zt2 (FIGS. 7, 9, and 10) and the new upper end position, and a constant distance between the lower end position zt1 (FIGS. 7, 9, and 10) and the new lower end position. May be equal or different from each other. These fixed distances may be predetermined distances depending on the magnification of the objective lens 3 or may be distances set by a user using a pointing device such as a mouse connected to the PC 200 (FIG. 1). There may be.

上記のように、上限位置UPおよび下限位置BPが予め定められた対物レンズ3のZ方向に移動可能な範囲内に設定されない場合に、新たな上端位置および下限位置が設定される。これにより、対物レンズ3のZ方向に移動可能な範囲が拡大された状態で再度上下限自動設定処理が行われるので、Z方向の広い範囲に渡って上限位置UPおよび下限位置BPを正確に設定することが可能となる。   As described above, when the upper limit position UP and the lower limit position BP are not set within a predetermined range in which the objective lens 3 can move in the Z direction, new upper limit positions and lower limit positions are set. Thus, the upper / lower limit automatic setting process is performed again in a state where the range in which the objective lens 3 can move in the Z direction is expanded, so that the upper limit position UP and the lower limit position BP are accurately set over a wide range in the Z direction. It becomes possible to do.

なお、CPU210は、上限位置UPが設定されかつ下限位置BPが設定されない場合に、新たな上端位置のみを設定し、新たに設定された上端位置および下端位置zt1(図7、図9および図10)に基づいてステップS4の上下限自動設定処理を再度行ってもよい。同様に、CPU210は、下限位置BPが設定されかつ上限位置UPが設定されない場合に、新たな下端位置のみを設定し、新たに設定された下端位置および上端位置zt2(図7、図9および図10)に基づいてステップS4の上下限自動設定処理を再度行ってもよい。   When the upper limit position UP is set and the lower limit position BP is not set, the CPU 210 sets only the new upper end position and sets the newly set upper end position and lower end position zt1 (FIGS. 7, 9, and 10). ), The upper / lower limit automatic setting process of step S4 may be performed again. Similarly, when the lower limit position BP is set and the upper limit position UP is not set, the CPU 210 sets only the new lower end position, and sets the newly set lower end position and upper end position zt2 (FIG. 7, FIG. 9 and FIG. The upper and lower limit automatic setting process of step S4 may be performed again based on 10).

(8)上下限自動設定処理
図13〜図15は、図11の上下限自動設定処理を示すフローチャートである。図13に示すように、CPU210は、まず現在の上下限自動設定処理が1番目の上下限自動設定処理であるか否かを判定する(ステップS20)。現在の上下限自動設定処理が1番目の上下限自動設定処理である場合、CPU210は、上記の評価値を用いたピーク位置探索処理(図7参照)を行うことにより、評価ピーク位置Ez0を検出する(ステップS21)。続いて、CPU210は、検出された評価ピーク位置Ez0を1番目の上下限自動設定処理の初期位置とし、対物レンズ3をその初期位置に移動させる(ステップS22)。
(8) Upper / Lower Limit Automatic Setting Process FIGS. 13 to 15 are flowcharts showing the upper / lower limit automatic setting process of FIG. As shown in FIG. 13, the CPU 210 first determines whether or not the current upper / lower limit automatic setting process is the first upper / lower limit automatic setting process (step S20). When the current upper / lower limit automatic setting process is the first upper / lower limit automatic setting process, the CPU 210 detects the evaluation peak position Ez0 by performing the peak position search process (see FIG. 7) using the evaluation value. (Step S21). Subsequently, the CPU 210 sets the detected evaluation peak position Ez0 as the initial position of the first upper / lower limit automatic setting process, and moves the objective lens 3 to the initial position (step S22).

m番目の上下限自動設定処理が開始される時点では、m番目の単位領域とそのm番目の単位領域に隣接する単位領域との間の重複部分ovについての複数の画素データが既に取得されている。そのため、ステップS20において、現在の上下限自動設定処理が1番目以外のm番目の上下限自動設定処理である場合、CPU210は、重複部分ovについての複数の画素データに基づいて上述の初期位置を決定し、決定した初期位置を作業用メモリ230に記憶する(ステップS23)。その後、CPU210は、対物レンズ3をその初期位置に移動させる(ステップS24)。また、CPU210は、対物レンズ3が初期位置にある状態で、受光素子30のゲインを調整する(ステップS25)。具体的には、CPU210は、対物レンズ3が初期位置にある状態で、単位領域についての全ての画素データの値を取得し、取得される全ての画素データの値が予め定められた規定値以上になるように受光素子30のゲインを調整する。これにより、取得される複数の画素データの値をノイズレベルnlよりも十分に大きくすることができる。   At the time when the m-th upper / lower limit automatic setting process is started, a plurality of pixel data is already acquired for the overlapping portion ov between the m-th unit region and the unit region adjacent to the m-th unit region. Yes. Therefore, when the current upper / lower limit automatic setting process is the mth upper / lower limit automatic setting process other than the first in step S20, the CPU 210 determines the initial position based on the plurality of pixel data for the overlapping portion ov. The determined initial position is stored in the work memory 230 (step S23). Thereafter, the CPU 210 moves the objective lens 3 to the initial position (step S24). Further, the CPU 210 adjusts the gain of the light receiving element 30 in a state where the objective lens 3 is at the initial position (step S25). Specifically, the CPU 210 acquires all the pixel data values for the unit area in a state where the objective lens 3 is at the initial position, and all the acquired pixel data values are equal to or greater than a predetermined value. The gain of the light receiving element 30 is adjusted so that Thereby, the value of the acquired several pixel data can be made sufficiently larger than the noise level nl.

上記のように、m番目の上下限自動設定処理では、m番目の単位領域とそのm番目の単位領域に隣接する単位領域との間の重複部分ovにおいて既に取得された複数の画素データが用いられる。それにより、m番目以降の上下限自動設定処理では、評価ピーク位置Ez0を検出する必要がない。したがって、m番目以降の上下限自動設定処理が1番目の上下限自動設定処理に比べて単純化されるので、m番目の上下限自動設定処理の時間が十分に短くなる。   As described above, in the m-th upper / lower limit automatic setting process, a plurality of pieces of pixel data already acquired in the overlapping portion ov between the m-th unit area and the unit area adjacent to the m-th unit area are used. It is done. Thereby, it is not necessary to detect the evaluation peak position Ez0 in the m-th and later upper and lower limit automatic setting processes. Accordingly, since the m-th and lower upper / lower limit automatic setting processes are simplified compared to the first upper / lower limit automatic setting process, the time of the mth upper / lower limit automatic setting process is sufficiently shortened.

ステップS22またはステップS25の処理後、CPU210は、対物レンズ3が初期位置にある状態で、Z方向の一方向(例えば上に向かう方向)について後述する図16〜図18の境界位置探索処理を開始する(ステップS26)。境界位置探索処理は、受光素子30のゲイン調整を行いつつ上限位置UPまたは下限位置BPを探索する処理である。境界位置探索処理の詳細は後述する。   After the process of step S22 or step S25, the CPU 210 starts the boundary position search process of FIGS. 16 to 18 described later in one direction of the Z direction (for example, the upward direction) with the objective lens 3 in the initial position. (Step S26). The boundary position search process is a process of searching for the upper limit position UP or the lower limit position BP while adjusting the gain of the light receiving element 30. Details of the boundary position search processing will be described later.

続いて、CPU210は、ステップS28で上限位置UPが設定されたか否か、すなわち境界位置探索処理が成功したか否かを判定する(ステップS27)。境界位置探索処理が失敗した場合、CPU210は、後述するステップS149の処理に進む。   Subsequently, the CPU 210 determines whether or not the upper limit position UP is set in step S28, that is, whether or not the boundary position search process is successful (step S27). When the boundary position search process fails, the CPU 210 proceeds to the process of step S149 described later.

境界位置探索処理においては、後述する図16のステップS81で受光素子30のゲインが一定量減少される場合がある。そこで、ステップS27において境界位置探索処理が成功した場合、CPU210は、ステップS26の境界位置探索処理において受光素子30のゲインが減少したか否かを判定する(ステップS28)。受光素子30のゲインが減少していない場合、CPU210は、対物レンズ3を初期位置に移動させる(ステップS29)。一方、受光素子30のゲインが減少している場合、CPU210は、対物レンズ3を後述する境界位置探索処理のステップS71(図16)またはステップS82(図16)で最後に記憶された対物レンズ3のZ位置へ移動させる(ステップS30)。その後、CPU210は、Z方向の逆方向(例えば下に向かう方向)について後述する図16〜図18の境界位置探索処理を開始する(ステップS31)。   In the boundary position search process, the gain of the light receiving element 30 may be decreased by a certain amount in step S81 of FIG. Therefore, when the boundary position search process is successful in step S27, the CPU 210 determines whether or not the gain of the light receiving element 30 has decreased in the boundary position search process of step S26 (step S28). If the gain of the light receiving element 30 has not decreased, the CPU 210 moves the objective lens 3 to the initial position (step S29). On the other hand, when the gain of the light receiving element 30 is decreased, the CPU 210 stores the objective lens 3 last stored in step S71 (FIG. 16) or step S82 (FIG. 16) of the boundary position search process described later. To the Z position (step S30). Thereafter, the CPU 210 starts the boundary position search process of FIGS. 16 to 18 described later in the reverse direction of the Z direction (for example, the downward direction) (step S31).

続いて、CPU210は、ステップS31で下限位置BPが設定されたか否か、すなわち境界位置探索処理が成功したか否かを判定する(ステップS32)。境界位置探索処理が失敗した場合、CPU210は、後述するステップS149の処理に進む。   Subsequently, the CPU 210 determines whether or not the lower limit position BP is set in step S31, that is, whether or not the boundary position search process is successful (step S32). When the boundary position search process fails, the CPU 210 proceeds to the process of step S149 described later.

境界位置探索処理が成功した場合、CPU210は、ステップS28と同様に、ステップS31の境界位置探索処理において受光素子30のゲインが減少したか否かを判定する(ステップS33)。   When the boundary position search process is successful, the CPU 210 determines whether or not the gain of the light receiving element 30 has decreased in the boundary position search process of step S31 (step S33), similarly to step S28.

後述する境界位置探索処理においては、図17のステップS76の処理で作業用メモリ230に対物レンズ3のZ位置の境界位置が記憶または更新される。ステップS33において受光素子30のゲインが減少していない場合、CPU210は、ステップS26で境界位置探索処理により記憶された境界位置に基づいて対物レンズ3の上限位置UPを設定し、ステップS31で境界位置探索処理により記憶された境界位置に基づいて対物レンズ3の下限位置BPを設定し(ステップS34)、上下限自動設定処理を終了する。   In the boundary position search process described later, the boundary position of the Z position of the objective lens 3 is stored or updated in the work memory 230 in the process of step S76 in FIG. If the gain of the light receiving element 30 has not decreased in step S33, the CPU 210 sets the upper limit position UP of the objective lens 3 based on the boundary position stored by the boundary position search process in step S26, and the boundary position in step S31. The lower limit position BP of the objective lens 3 is set based on the boundary position stored by the search process (step S34), and the upper / lower limit automatic setting process is terminated.

ステップS34において、受光素子30のゲインが減少している場合には、CPU210は、対物レンズ3を後述する境界位置探索処理のステップS71(図16)またはステップS82(図16)で最後に記憶された対物レンズ3のZ位置へ移動させる(ステップS146)。その後、CPU210は、Z方向の一方向(例えば上に向かう方向)について再度後述する図16〜図18の境界位置探索処理を開始する(ステップS147)。   When the gain of the light receiving element 30 is decreased in step S34, the CPU 210 stores the objective lens 3 last in step S71 (FIG. 16) or step S82 (FIG. 16) of the boundary position search process described later. The objective lens 3 is moved to the Z position (step S146). Thereafter, the CPU 210 starts again the boundary position search process of FIGS. 16 to 18 described later with respect to one direction (eg, upward direction) in the Z direction (step S147).

続いて、CPU210は、ステップS147で上限位置UPが設定されたか否か、すなわち境界位置探索処理が成功したか否かを判定する(ステップS148)。境界位置探索処理が失敗した場合、CPU210は、後述するステップS149の処理に進む。   Subsequently, the CPU 210 determines whether or not the upper limit position UP is set in step S147, that is, whether or not the boundary position search process is successful (step S148). When the boundary position search process fails, the CPU 210 proceeds to the process of step S149 described later.

境界位置探索処理が成功した場合、CPU210は、ステップS34の処理に進む。ステップS34において、CPU210は、ステップS147で記憶された境界位置に基づいて対物レンズ3の上限位置UPを設定し、ステップS31で記憶された境界位置に基づいて対物レンズ3の下限位置BPを設定する。これにより、受光素子30のゲインが最適な値に調整された状態で、対物レンズ3の上限位置UPおよび下限位置BPが設定される。   When the boundary position search process is successful, the CPU 210 proceeds to the process of step S34. In step S34, the CPU 210 sets the upper limit position UP of the objective lens 3 based on the boundary position stored in step S147, and sets the lower limit position BP of the objective lens 3 based on the boundary position stored in step S31. . Accordingly, the upper limit position UP and the lower limit position BP of the objective lens 3 are set in a state where the gain of the light receiving element 30 is adjusted to an optimum value.

ステップS148において、境界位置探索処理が失敗した場合、CPU210は、現在の上下限自動設定処理が1番目の上下限自動設定処理であるか否かを判定する(ステップS149)。現在の上下限自動設定処理が1番目の上下限自動設定処理である場合、CPU210は、図11のステップS12の処理に進み、画像処理が失敗したことを示す画像を表示部400に表示させる。   When the boundary position search process fails in step S148, the CPU 210 determines whether or not the current upper / lower limit automatic setting process is the first upper / lower limit automatic setting process (step S149). When the current upper / lower limit automatic setting process is the first upper / lower limit automatic setting process, the CPU 210 proceeds to the process of step S12 in FIG. 11 and causes the display unit 400 to display an image indicating that the image process has failed.

m番目の上下限自動設定処理が開始される時点では、m番目の単位領域とそのm番目の単位領域に隣接する単位領域との間の重複部分ovについての複数の画素データが既に取得されている。そのため、ステップS149において、現在の上下限自動設定処理が1番目以外のm番目の上下限自動設定処理である場合、CPU210は、重複部分ovについての複数の画素データに基づいて上限位置UPおよび下限位置BPを設定し(ステップS150)、上下限自動設定処理を終了する。これにより、m番目の上下限自動設定処理においては、後述する境界位置探索処理が失敗した場合でも、既に記憶されている重複部分ovについての複数の画素データに基づいて上限位置UPおよび下限位置BPが設定される。   At the time when the m-th upper / lower limit automatic setting process is started, a plurality of pixel data is already acquired for the overlapping portion ov between the m-th unit region and the unit region adjacent to the m-th unit region. Yes. Therefore, in step S149, when the current upper / lower limit automatic setting process is the mth upper / lower limit automatic setting process other than the first, the CPU 210 determines the upper limit position UP and the lower limit based on the plurality of pixel data for the overlapping portion ov. The position BP is set (step S150), and the upper / lower limit automatic setting process is terminated. Thus, in the m-th upper / lower limit automatic setting process, even when the boundary position search process described later fails, the upper limit position UP and the lower limit position BP are based on a plurality of pieces of pixel data for the overlapped portion ov already stored. Is set.

ステップS150において、CPU210は、重複部分ovの複数の画素データに基づいて、Z方向における重複部分ovの表面のうち最も低い高さを求め、求められた高さに焦点位置が一致するときの対物レンズ3のZ方向の位置を下限位置BPとして設定してもよい。XY方向における対物レンズ3の大きさは各単位領域の大きさよりも十分に大きい。したがって、重複部分ovの表面のうち最も低い高さに焦点位置が一致するときの対物レンズ3のZ方向の位置を下限位置BPとした場合には、複数の画素データの取得時に対物レンズ3が観察対象物Sの表面に衝突することが防止される。   In step S150, the CPU 210 obtains the lowest height of the surfaces of the overlapping portion ov in the Z direction based on the plurality of pixel data of the overlapping portion ov, and the objective when the focal position matches the obtained height. The position of the lens 3 in the Z direction may be set as the lower limit position BP. The size of the objective lens 3 in the XY directions is sufficiently larger than the size of each unit area. Therefore, when the position in the Z direction of the objective lens 3 when the focal position coincides with the lowest height among the surfaces of the overlapped portion ov is set as the lower limit position BP, the objective lens 3 is used when acquiring a plurality of pixel data. Colliding with the surface of the observation object S is prevented.

ステップS150において、CPU210は、重複部分ovの複数の画素データに基づいて、Z方向における重複部分ovの表面のうち最も高い高さを求め、求められた高さに焦点位置が一致するときの対物レンズ3のZ方向の位置を上限位置BPとして設定してもよい。   In step S150, the CPU 210 obtains the highest height among the surfaces of the overlapping portion ov in the Z direction based on the plurality of pixel data of the overlapping portion ov, and the objective when the focal position matches the determined height. The position in the Z direction of the lens 3 may be set as the upper limit position BP.

ステップS150において、CPU210は、隣接する単位領域に既に設定された上限位置UPおよび下限位置BPを、それぞれ現在の単位領域の上限位置UPおよび下限位置BPとして設定してもよい。   In step S150, the CPU 210 may set the upper limit position UP and the lower limit position BP already set in the adjacent unit area as the upper limit position UP and the lower limit position BP of the current unit area, respectively.

さらに、ステップS150において、CPU210は、隣接する単位領域に既に設定された上限位置UPよりも高い位置に、現在の単位領域の上限位置UPを設定してもよい。また、CPU210は、隣接する単位領域に既に設定された下限位置BPよりも低い位置に、現在の単位領域の下限位置BPを設定してもよい。   Further, in step S150, the CPU 210 may set the upper limit position UP of the current unit area at a position higher than the upper limit position UP already set in the adjacent unit area. Further, the CPU 210 may set the lower limit position BP of the current unit area at a position lower than the lower limit position BP that has already been set in the adjacent unit area.

(9)境界位置探索処理方法
図16〜図18は、図14および図15の境界位置探索処理を示すフローチャートである。本実施の形態に係る共焦点顕微鏡システム500においては、境界位置探索処理方法を2つのモードに切り替えることができる。2つのモードのうちの一方は図8を用いて説明した上下限自動設定処理であり、2つのモードのうちの他方は図10を用いて説明した上下限自動設定処理である。本フローチャートは、図10を用いて説明した上下限自動設定処理に対応する。
(9) Boundary Position Search Processing Method FIGS. 16 to 18 are flowcharts showing the boundary position search process of FIGS. 14 and 15. In the confocal microscope system 500 according to the present embodiment, the boundary position search processing method can be switched between two modes. One of the two modes is the upper / lower limit automatic setting process described with reference to FIG. 8, and the other of the two modes is the upper / lower limit automatic setting process described with reference to FIG. This flowchart corresponds to the upper and lower limit automatic setting processing described with reference to FIG.

図16に示すように、CPU210は、現在の対物レンズ3のZ位置を作業用メモリ230に記憶する(ステップS70)。   As shown in FIG. 16, the CPU 210 stores the current Z position of the objective lens 3 in the work memory 230 (step S70).

続いて、CPU210は、現在の対物レンズ3のZ位置において、単位領域についての全ての画素データの値を取得し、取得された画素データの値を図1の作業用メモリ230に記憶する(ステップS71)。   Subsequently, the CPU 210 acquires all pixel data values for the unit area at the current Z position of the objective lens 3, and stores the acquired pixel data values in the work memory 230 of FIG. S71).

次に、CPU210は、記憶された複数の画素データのうちのいずれかの値が出力上限値max(図6)であるか否かを判定する(ステップS72)。全ての画素データの値が出力上限値max(図6)でない場合、CPU210は、単位領域についての全ての画素データの値を取得することにより評価値を算出し(ステップS73)、算出された評価値が予め定められたしきい値以下であるか否かを判定する(ステップS74)。ここで、しきい値は、上記のノイズ評価レベルEnl(図7および図10)と等しい値に設定されてもよいし、そのノイズ評価レベルEnl(図7および図10)よりも大きい値に設定されてもよい。さらに、しきい値は、互いに異なる受光素子30の複数のゲインにそれぞれ対応するように複数設定されてもよい。この場合、ステップS74において、CPU210は、算出された評価値が現在設定されている受光素子30のゲインに対応するしきい値以下であるか否かを判定する。   Next, the CPU 210 determines whether or not any value of the stored plurality of pixel data is the output upper limit value max (FIG. 6) (step S72). When the values of all the pixel data are not the output upper limit value max (FIG. 6), the CPU 210 calculates the evaluation value by acquiring the values of all the pixel data for the unit area (step S73), and the calculated evaluation It is determined whether or not the value is equal to or less than a predetermined threshold value (step S74). Here, the threshold value may be set to a value equal to the noise evaluation level Enl (FIGS. 7 and 10), or set to a value larger than the noise evaluation level Enl (FIGS. 7 and 10). May be. Furthermore, a plurality of threshold values may be set so as to correspond to a plurality of gains of light receiving elements 30 different from each other. In this case, in step S74, the CPU 210 determines whether or not the calculated evaluation value is equal to or less than a threshold value corresponding to the gain of the light receiving element 30 that is currently set.

後述するステップS77の処理において、対物レンズ3のZ位置が下端位置zt1(図7、図9および図10)または上端位置zt2(図7、図9および図10)に達しない場合には、上記のステップS71〜S74の処理が繰り返される。算出された評価値がしきい値以下である場合、CPU210は、前回のステップS74の処理時に評価値がしきい値よりも大きかったか否かを判定する(ステップS75)。前回のステップS74の処理時に評価値がしきい値以下であった場合、CPU210は後述するステップS77の処理に進む。   If the Z position of the objective lens 3 does not reach the lower end position zt1 (FIGS. 7, 9, and 10) or the upper end position zt2 (FIGS. 7, 9, and 10) in the process of step S77 described later, The processes of steps S71 to S74 are repeated. When the calculated evaluation value is equal to or less than the threshold value, the CPU 210 determines whether or not the evaluation value was larger than the threshold value during the previous processing of step S74 (step S75). If the evaluation value is equal to or less than the threshold value during the previous processing in step S74, the CPU 210 proceeds to processing in step S77 described later.

一方、前回のステップS74の処理時に評価値がしきい値よりも大きかった場合、CPU210は、現在の対物レンズ3のZ位置をZ方向の一方向における境界位置として作業用メモリ230に記憶する。または、CPU210は、境界位置が既に作業用メモリ230に記憶されている場合、現在の対物レンズ3のZ位置で境界位置を更新する(ステップS76)。   On the other hand, if the evaluation value is larger than the threshold value in the previous processing of step S74, the CPU 210 stores the current Z position of the objective lens 3 in the work memory 230 as a boundary position in one direction of the Z direction. Alternatively, when the boundary position is already stored in the work memory 230, the CPU 210 updates the boundary position with the current Z position of the objective lens 3 (step S76).

続いて、CPU210は、対物レンズ3のZ位置が下端位置zt1または上端位置zt2に達したか否かを判定する(ステップS77)。対物レンズ3のZ位置が下端位置zt1または上端位置zt2に達した場合に境界位置探索処理が終了する。一方、対物レンズ3のZ位置が下端位置zt1または上端位置zt2に達していない場合、CPU210は対物レンズ3をZ方向の一方向に第2のピッチ移動させ(ステップS87)、ステップS71の処理に戻る。第2のピッチは、後述する第1のピッチよりも大きくなるように設定される。第2のピッチが第1のピッチよりも大きく設定されることにより、境界位置探索処理の時間が短くなる。   Subsequently, the CPU 210 determines whether or not the Z position of the objective lens 3 has reached the lower end position zt1 or the upper end position zt2 (step S77). When the Z position of the objective lens 3 reaches the lower end position zt1 or the upper end position zt2, the boundary position search process ends. On the other hand, when the Z position of the objective lens 3 does not reach the lower end position zt1 or the upper end position zt2, the CPU 210 moves the objective lens 3 in the Z direction in the second pitch (step S87), and performs the process of step S71. Return. The second pitch is set to be larger than the first pitch described later. By setting the second pitch to be larger than the first pitch, the time for the boundary position search process is shortened.

ステップS72において、いずれかの画素データの値が出力上限値maxである場合、CPU210は、受光素子30のゲインを一定量減少させるとともにゲインを減少した旨を作業用メモリ230に記憶する(ステップS81)。続いて、CPU210は、現在の対物レンズ3のZ位置によりステップS70で作業用メモリ230に記憶された対物レンズ3のZ位置を更新し(ステップS82)、ステップS71の処理に戻る。   In step S72, when the value of any pixel data is the output upper limit value max, the CPU 210 reduces the gain of the light receiving element 30 by a certain amount and stores the fact that the gain has been reduced in the work memory 230 (step S81). ). Subsequently, the CPU 210 updates the Z position of the objective lens 3 stored in the work memory 230 in step S70 with the current Z position of the objective lens 3 (step S82), and returns to the process of step S71.

ステップS74において、算出された評価値がしきい値よりも大きい場合、CPU210は対物レンズ3をZ方向の一方向に第1のピッチ移動させ(ステップS83)、対物レンズ3のZ位置が下端位置zt1または上端位置zt2に達したか否かを判定する(ステップS84)。第1のピッチは、上記の強度半減距離と等しい大きさに設定される。これにより、対物レンズ3の上限位置UPおよび下限位置BPを精度よく設定することが可能となる。   If the calculated evaluation value is larger than the threshold value in step S74, the CPU 210 moves the objective lens 3 in the Z direction in the first pitch (step S83), and the Z position of the objective lens 3 is the lower end position. It is determined whether or not zt1 or upper end position zt2 has been reached (step S84). The first pitch is set to a size equal to the above-described intensity half distance. Thereby, the upper limit position UP and the lower limit position BP of the objective lens 3 can be set with high accuracy.

ステップS84において、Z位置が下端位置zt1または上端位置zt2に達していない場合、CPU210はステップS71の処理に戻る。一方、Z位置が下端位置zt1または上端位置zt2に達した場合、図18に示すように、CPU210は、ステップS76の処理により作業用メモリ230に境界位置が記憶されているか否かを判定する(ステップS85)。   In step S84, when the Z position has not reached the lower end position zt1 or the upper end position zt2, the CPU 210 returns to the process of step S71. On the other hand, when the Z position reaches the lower end position zt1 or the upper end position zt2, as shown in FIG. 18, the CPU 210 determines whether or not the boundary position is stored in the work memory 230 by the process of step S76 ( Step S85).

作業用メモリ230に境界位置が記憶されている場合、境界位置探索処理が終了する。一方、作業用メモリ230に境界位置が記憶されていない場合、CPU210は、境界位置探索処理の失敗を判定する(ステップS86)。   If the boundary position is stored in the work memory 230, the boundary position search process ends. On the other hand, when the boundary position is not stored in the work memory 230, the CPU 210 determines that the boundary position search process has failed (step S86).

上記のように、図16〜図18の境界位置探索処理において、CPU210は、対物レンズ3のZ位置が下端位置zt1または上端位置zt2に達するまで、対物レンズ3をZ方向に移動させる。   As described above, in the boundary position search process of FIGS. 16 to 18, the CPU 210 moves the objective lens 3 in the Z direction until the Z position of the objective lens 3 reaches the lower end position zt1 or the upper end position zt2.

上記に対して、CPU210は、図8を用いて説明した上下限自動設定処理ではステップS75,S77,S84,S87の処理を行わない。すなわち、CPU210は、図17のステップS76の処理において、境界位置が作業用メモリ230に記憶された時点で境界位置探索処理を終了する。この場合、境界位置探索処理時に下端位置zt1から上端位置zt2までの全ての範囲に渡って対物レンズ3をZ方向に移動させる必要がなくなる。その結果、境界位置探索処理の時間が短くなる。   In contrast, the CPU 210 does not perform steps S75, S77, S84, and S87 in the upper and lower limit automatic setting process described with reference to FIG. That is, the CPU 210 ends the boundary position search process when the boundary position is stored in the work memory 230 in the process of step S76 of FIG. In this case, it is not necessary to move the objective lens 3 in the Z direction over the entire range from the lower end position zt1 to the upper end position zt2 during the boundary position search process. As a result, the time for the boundary position search process is shortened.

(10)境界位置探索処理方法の他の例
図19は、境界位置探索処理の他の例を示すフローチャートである。図19には、図16〜図18の境界位置探索処理と異なる処理のみ図示される。
(10) Another Example of Boundary Position Search Processing Method FIG. 19 is a flowchart illustrating another example of the boundary position search process. FIG. 19 illustrates only processing different from the boundary position search processing of FIGS.

図19に示すように、図17のステップS87の処理後、CPU210は、図16〜図18の境界位置探索処理に加えて以下の処理を行ってもよい。   As shown in FIG. 19, after the process of step S <b> 87 in FIG. 17, the CPU 210 may perform the following process in addition to the boundary position search process in FIGS. 16 to 18.

ステップS87の処理後、CPU210は、受光素子30のゲインを一定量増加させる(ステップS91)。続いて、CPU210は、現在の対物レンズ3のZ位置において、単位領域についての全ての画素データの値を取得し、取得された画素データの値を図1の作業用メモリ230に記憶する(ステップS92)。   After step S87, the CPU 210 increases the gain of the light receiving element 30 by a certain amount (step S91). Subsequently, the CPU 210 acquires all pixel data values for the unit area at the current Z position of the objective lens 3, and stores the acquired pixel data values in the work memory 230 of FIG. S92).

次に、CPU210は、ステップS92において取得された画素データの値に基づいて評価値を算出し(ステップS93)、算出された評価値が予め定められたしきい値以下であるか否かを判定する(ステップS94)。   Next, the CPU 210 calculates an evaluation value based on the value of the pixel data acquired in step S92 (step S93), and determines whether or not the calculated evaluation value is equal to or less than a predetermined threshold value. (Step S94).

ここで、ステップS91において受光素子30のゲインが増加された場合には、算出される評価値が大きくなる。そのため、本例では、ステップS94のしきい値は、ステップS91の処理の前後の受光素子30のゲインの比と上記のノイズ評価レベルEnl(図7および図10)とを乗算した値に設定される。   Here, when the gain of the light receiving element 30 is increased in step S91, the calculated evaluation value is increased. Therefore, in this example, the threshold value in step S94 is set to a value obtained by multiplying the gain ratio of the light receiving element 30 before and after the process in step S91 by the noise evaluation level Enl (FIGS. 7 and 10). The

算出された評価値がしきい値以下である場合、CPU210は、図17のステップS87の処理に進む。一方、算出された評価値が予め定められたしきい値よりも大きい場合、CPU210は、受光素子30のゲインを一定量減少させる(ステップS95)。このときのゲインの減少量は、ステップS91におけるゲインの増加量に等しく設定される。その後、CPU210は、図16のステップS83の処理に進む。   When the calculated evaluation value is equal to or less than the threshold value, the CPU 210 proceeds to the process of step S87 in FIG. On the other hand, when the calculated evaluation value is larger than a predetermined threshold value, the CPU 210 decreases the gain of the light receiving element 30 by a certain amount (step S95). The amount of gain decrease at this time is set equal to the amount of gain increase in step S91. Thereafter, the CPU 210 proceeds to the process of step S83 in FIG.

上記のように、本例では、評価値がしきい値以下であるときに受光素子30のゲインが一時的に増加する。それにより、取得される複数の画素データの値が大きくなり、評価値が大きくなる。これにより、単位領域の表面に照射されるレーザ光の強度が低い場合でも、評価値とノイズ評価レベルEnlとを比較することが可能となる。それにより、第2のピッチを第1のピッチに比べて十分に大きく設定することができる。その結果、画素データの取得回数を十分に低減することができるので、境界位置探索処理の時間がさらに短くなる。   As described above, in this example, when the evaluation value is equal to or less than the threshold value, the gain of the light receiving element 30 temporarily increases. Thereby, the value of the acquired plurality of pixel data is increased, and the evaluation value is increased. Thereby, even when the intensity of the laser beam irradiated on the surface of the unit region is low, the evaluation value and the noise evaluation level Enl can be compared. Thereby, the second pitch can be set sufficiently larger than the first pitch. As a result, the number of pixel data acquisition times can be sufficiently reduced, and the time for the boundary position search process is further shortened.

なお、上記のステップS91において、CPU210は受光素子30のゲインを一定量増加させる代わりに、レーザ光源10から出射されるレーザ光の光量を一定量大きく設定してもよいし、NDフィルタ8の減衰率を一定量小さく設定してもよい。この場合、CPU210は、ステップS95において、CPU210は受光素子30のゲインを一定量減少させる代わりに、レーザ光源10から出射されるレーザ光の光量を一定量小さく設定し、またはNDフィルタ8の減衰率を一定量大きく設定する。これらの場合においても、境界位置探索処理の時間をさらに短くすることができる。   In step S91, instead of increasing the gain of the light receiving element 30 by a certain amount, the CPU 210 may set the light amount of the laser light emitted from the laser light source 10 to be larger by a certain amount, or the attenuation of the ND filter 8. The rate may be set smaller by a certain amount. In this case, in step S95, the CPU 210 sets the light amount of the laser light emitted from the laser light source 10 to a small amount instead of decreasing the gain of the light receiving element 30 by a certain amount, or the attenuation factor of the ND filter 8 Is set larger by a certain amount. Even in these cases, the time for the boundary position search process can be further shortened.

(11)他の実施の形態
(11−1)上記の実施の形態では、共焦点顕微鏡システム500において上下限自動設定処理が実行される。これに限らず、上記の上下限自動設定処理は、観察対象物に投射され、受光素子30に導かれる光の強さに対応して取得されるデジタル信号に基づいて観察対象物の表面の状態を観察する顕微鏡システムに適用することができる。このような顕微鏡システムとして、例えば光干渉法を用いた顕微鏡システムがある。
(11) Other Embodiments (11-1) In the above embodiment, the upper and lower limit automatic setting process is executed in the confocal microscope system 500. However, the upper and lower limit automatic setting processing is not limited to this, and the state of the surface of the observation object is projected based on the digital signal that is projected to the observation object and acquired in accordance with the intensity of the light guided to the light receiving element 30. It can be applied to a microscope system for observing. As such a microscope system, for example, there is a microscope system using optical interferometry.

(11−2)上記の実施の形態において、対物レンズ3がZ方向に移動されることにより対物レンズ3に対する観察対象物Sの相対的なZ方向の位置が変化されるが、これに限定されない。ステージ60がZ方向に移動されることにより対物レンズ3に対する観察対象物Sの相対的なZ方向の位置が変化されてもよい。   (11-2) In the above embodiment, the relative position of the observation object S with respect to the objective lens 3 in the Z direction is changed by moving the objective lens 3 in the Z direction. However, the present invention is not limited to this. . The relative position of the observation object S with respect to the objective lens 3 in the Z direction may be changed by moving the stage 60 in the Z direction.

(11−3)上記の実施の形態において、X−Yスキャン光学系20が制御されることによりレーザ光が観察対象物S上でX方向およびY方向に走査されるが、これに限定されない。ステージ60が移動されることによりレーザ光が観察対象物S上でX方向およびY方向に走査されてもよい。   (11-3) In the above-described embodiment, the laser beam is scanned on the observation object S in the X direction and the Y direction by controlling the XY scan optical system 20, but the present invention is not limited to this. The laser beam may be scanned on the observation object S in the X direction and the Y direction by moving the stage 60.

また、レーザ光としてライン光(例えばX方向に延びる細長い光)が用いられてもよい。この場合、X−Yスキャン光学系20に代えてX方向への走査を行わないYスキャン光学系が用いられる。また、受光素子30に代えて、X方向に対応する方向に配列された複数の受光素子からなるラインCCDカメラ等が用いられる。   Further, line light (for example, elongated light extending in the X direction) may be used as the laser light. In this case, instead of the XY scan optical system 20, a Y scan optical system that does not perform scanning in the X direction is used. Further, instead of the light receiving element 30, a line CCD camera or the like including a plurality of light receiving elements arranged in a direction corresponding to the X direction is used.

なお、ラインCCDカメラの各受光素子のY方向に対応する方向の受光面のサイズは一般的に数10μmである。この場合、ラインCCDカメラの受光面がレンズ2の焦点位置に配置される。観察対象物Sの表面が対物レンズ3の焦点位置にあるときに、観察対象物Sにより反射されたライン光がラインCCDカメラの受光面に集光される。それにより、観察対象物Sにより反射されたライン光の大部分がラインCCDカメラの受光面に入射する。   The size of the light receiving surface in the direction corresponding to the Y direction of each light receiving element of the line CCD camera is generally several tens of μm. In this case, the light receiving surface of the line CCD camera is disposed at the focal position of the lens 2. When the surface of the observation object S is at the focal position of the objective lens 3, the line light reflected by the observation object S is collected on the light receiving surface of the line CCD camera. Thereby, most of the line light reflected by the observation object S enters the light receiving surface of the line CCD camera.

一方、観察対象物Sが対物レンズ3の焦点位置から外れた位置にあるときには、観察対象物Sにより反射されたライン光はラインCCDカメラの受光面の前または後の位置に集光される。それにより、観察対象物Sにより反射されたライン光の一部のみがラインCCDカメラの受光面に入射する。したがって、ラインCCDカメラの前にピンホール部材7を配置することが不要となる。   On the other hand, when the observation object S is at a position deviating from the focal position of the objective lens 3, the line light reflected by the observation object S is condensed at a position before or after the light receiving surface of the line CCD camera. Thereby, only part of the line light reflected by the observation object S enters the light receiving surface of the line CCD camera. Therefore, it is not necessary to arrange the pinhole member 7 in front of the line CCD camera.

(11−4)上記の実施の形態において、PC200のCPU210が制御部300の機能を有していてもよい。この場合、制御部300は設けられなくてもよい。   (11-4) In the above embodiment, the CPU 210 of the PC 200 may have the function of the control unit 300. In this case, the control unit 300 may not be provided.

(11−5)上記の実施の形態では、評価値は、単位領域についての全画素データの値の和である。これに限らず、評価値は、単位領域についての全画素データの値の平均値であってもよい。また、評価値は、単位領域内についての一部の画素データの値の和または平均値であってもよい。   (11-5) In the above embodiment, the evaluation value is the sum of the values of all the pixel data for the unit area. However, the evaluation value is not limited to this, and may be an average value of all pixel data values for the unit area. Further, the evaluation value may be a sum or average value of some pixel data values in the unit area.

(12)請求項の各構成要素と実施の形態の各部との対応関係
以下、請求項の各構成要素と実施の形態の各部との対応の例について説明するが、本発明は下記の例に限定されない。
(12) Correspondence between each component of claim and each part of embodiment The following describes an example of a correspondence between each component of the claim and each part of the embodiment. It is not limited.

上記実施の形態においては、観察対象物Sが観察対象物の例であり、共焦点顕微鏡システム500が顕微鏡システムの例であり、対物レンズ3が光学系の例である。   In the above embodiment, the observation object S is an example of the observation object, the confocal microscope system 500 is an example of the microscope system, and the objective lens 3 is an example of the optical system.

また、単位領域s1〜s4が単位領域の例であり、レンズ駆動部63が移動部の例であり、制御部300およびPC200のCPU210が制御部の例であり、PC200が観察範囲設定部の例であり、制御部300が画素データ出力部の例である。   The unit regions s1 to s4 are examples of unit regions, the lens driving unit 63 is an example of a moving unit, the control unit 300 and the CPU 210 of the PC 200 are examples of control units, and the PC 200 is an example of an observation range setting unit. The control unit 300 is an example of a pixel data output unit.

さらに、上限位置UPおよび下限位置BPにより定められる範囲が高さ画像データ生成処理において設定される移動範囲の例である。   Furthermore, the range defined by the upper limit position UP and the lower limit position BP is an example of the movement range set in the height image data generation process.

また、下端位置zt1が予め定められた第1の距離の例であり、上端位置zt2が予め定められた第2の距離の例であり、第1のピッチが第1の移動量の例であり、第2のピッチが第2の移動量の例である。   The lower end position zt1 is an example of a predetermined first distance, the upper end position zt2 is an example of a predetermined second distance, and the first pitch is an example of a first movement amount. The second pitch is an example of the second movement amount.

また、図11のステップS5において上下限自動設定処理が失敗した場合に設定される下端位置zt1(図7、図9および図10)よりも一定距離低い新たな下端位置が第3の距離の例である。さらに、図11のステップS5において上下限自動設定処理が失敗した場合に設定される上端位置zt2(図7、図9および図10)よりも一定距離高い新たな上端位置が第4の距離の例である。   Further, a new lower end position that is lower than the lower end position zt1 (FIGS. 7, 9, and 10) set when the upper / lower limit automatic setting process fails in step S5 of FIG. 11 is the third distance. It is. Furthermore, a new upper end position that is a fixed distance higher than the upper end position zt2 (FIGS. 7, 9, and 10) set when the upper / lower limit automatic setting process fails in step S5 in FIG. 11 is an example of the fourth distance. It is.

請求項の各構成要素として、請求項に記載されている構成または機能を有する他の種々の要素を用いることもできる。   As each constituent element in the claims, various other elements having configurations or functions described in the claims can be used.

本発明は、種々の顕微鏡システムに有効に利用することができる。   The present invention can be effectively used in various microscope systems.

1,2 レンズ
3 対物レンズ
4〜6 ハーフミラー
7 ピンホール部材
8 NDフィルタ
10 レーザ光源
20 X−Yスキャン光学系
30 受光素子
40 照明用白色光源
50 カラーCCDカメラ
60 ステージ
61 ステージ操作部
62 ステージ駆動部
63 レンズ駆動部
200 PC
210 CPU
220 ROM
230 作業用メモリ
240 記憶装置
300 制御部
400 表示部
410 画像表示領域
420 条件設定領域
421 範囲設定ボタン
422 取得開始ボタン
500 共焦点顕微鏡システム
AZ1,AZ2,AZ3 範囲
BP 下限位置
Emax,max 出力上限値
Enl ノイズ評価レベル
Ez0 評価ピーク位置
Ez1,Ez2,ma1,ma2,mb1,mb2,zn1,zn2,zn3,zn4,zs1,zs2 位置
fp 焦点位置
nl ノイズレベル
s1〜s4 単位領域
ov 重複部分
pi1,pi2 値
UP 上限位置
S 観察対象物
Sa1 第1の面
Sa2 第2の面
Sa3 第3の面
z0 ピーク位置
zp1 第1のZ位置
zp2 第2のZ位置
zp3 第3のZ位置
zt1 下端位置
zt2 上端位置
DESCRIPTION OF SYMBOLS 1, 2 Lens 3 Objective lens 4-6 Half mirror 7 Pinhole member 8 ND filter 10 Laser light source 20 XY scan optical system 30 Light receiving element 40 White light source for illumination 50 Color CCD camera 60 Stage 61 Stage operation part 62 Stage drive Part 63 Lens drive part 200 PC
210 CPU
220 ROM
230 Working Memory 240 Storage Device 300 Control Unit 400 Display Unit 410 Image Display Area 420 Condition Setting Area 421 Range Setting Button 422 Acquisition Start Button 500 Confocal Microscope System AZ1, AZ2, AZ3 Range BP Lower Limit Position Emax, max Output Upper Limit Value Enl Noise evaluation level Ez0 Evaluation peak position Ez1, Ez2, ma1, ma2, mb1, mb2, zn1, zn2, zn3, zn4, zs1, zs2 Position fp Focal position nl Noise level s1 to s4 Unit area ov Overlapping part pi1, pi2 Value UP Upper limit position S Observation target Sa1 First surface Sa2 Second surface Sa3 Third surface z0 Peak position zp1 First Z position zp2 Second Z position zp3 Third Z position zt1 Lower end position zt2 Upper end position

Claims (7)

測定対象物の表面の状態を測定する顕微鏡システムであって、
測定対象物の表面に観察範囲として複数の単位領域を設定する観察範囲設定部と、
受光素子と、
前記観察範囲設定部により設定された単位領域ごとに、対物レンズを介して当該単位領域に集光しつつ光を照射するとともに、当該単位領域に照射された光を前記受光素子に導く光学系と、
前記観察範囲設定部により設定された単位領域ごとに、当該単位領域に垂直な方向に沿った複数の位置で前記光学系による光の照射が行われるように、単位領域ごとに決定される初期位置から前記対物レンズを前記測定対象物に対して前記光学系の光軸方向に相対的に移動させることにより前記光学系の焦点を前記光学系の光軸方向の複数の位置に移動させる移動部と、
前記受光素子の出力信号に基づいて複数の画素にそれぞれ対応する複数の画素データを出力する画素データ出力部と、
前記受光素子および前記移動部を制御する制御部とを備え、
前記制御部は、
前記観察範囲設定部により設定された単位領域ごとに、前記対物レンズが当該単位領域について決定された初期位置にある状態で、前記画素データ出力部から出力された画素データに基づいて前記受光素子のゲインを調整する第1の処理と、
当該単位領域について決定された前記初期位置から前記光軸方向に前記移動部により前記対物レンズを移動させ、前記光軸方向の各位置で、前記画素データ出力部から出力される複数の画素データのうち所定数の画素に対応する画素データの値を用いた評価値を算出し、算出した評価値に基づいて前記光軸方向における上限位置および下限位置を自動的に設定する第2の処理と、
前記第2の処理により設定された上限位置および下限位置により定まる移動範囲内で前記移動部により前記対物レンズを移動させ、前記光軸方向における各位置で前記画素データ出力部から出力される複数の画素データに基づいて、当該単位領域に対応する複数の画素についての複数の画素データの前記光軸方向におけるピーク位置を表すデータを高さ画像データとして生成する第3の処理とを実行し、
前記観察範囲設定部により設定された複数の単位領域について前記第1の処理、前記第2の処理および前記第3の処理を繰り返し実行することにより生成された複数の高さ画像データを連結する連結処理を実行することを特徴とする顕微鏡システム。
A microscope system for measuring the surface state of a measurement object,
An observation range setting unit for setting a plurality of unit areas as an observation range on the surface of the measurement object;
A light receiving element;
For each unit region set by the observation range setting unit, it irradiates the light while converging to the unit region through the objective lens, an optical system for guiding light irradiated to the unit region in the light receiving element ,
For each unit region set by the observation range setting unit, so that the irradiation of light by the optical system at a plurality of positions along the direction perpendicular to the unit region is performed, the initial position determined for each unit area A moving unit that moves the focal point of the optical system to a plurality of positions in the optical axis direction of the optical system by moving the objective lens relative to the measurement object in the optical axis direction of the optical system; ,
A pixel data output unit that outputs a plurality of pixel data respectively corresponding to a plurality of pixels based on an output signal of the light receiving element;
A control unit for controlling the light receiving element and the moving unit ,
The controller is
For each unit region set by the observation range setting unit, the objective lens is in the initial position determined for the unit region, and based on the pixel data output from the pixel data output unit, the light receiving element A first process for adjusting the gain;
The objective lens is moved by the moving unit in the optical axis direction from the initial position determined for the unit region, and a plurality of pieces of pixel data output from the pixel data output unit at each position in the optical axis direction. A second process of calculating an evaluation value using pixel data values corresponding to a predetermined number of pixels and automatically setting an upper limit position and a lower limit position in the optical axis direction based on the calculated evaluation value;
The objective lens is moved by the moving unit within a moving range determined by the upper limit position and the lower limit position set by the second processing, and a plurality of pixels output from the pixel data output unit at each position in the optical axis direction. A third process for generating, as height image data, data representing peak positions in the optical axis direction of a plurality of pixel data for a plurality of pixels corresponding to the unit region, based on the pixel data;
Concatenation that connects a plurality of height image data generated by repeatedly executing the first process, the second process, and the third process for a plurality of unit areas set by the observation range setting unit A microscope system characterized by executing processing .
前記制御部は、前記観察範囲設定部により設定された複数の単位領域の各々について複数の画素データに基づく超深度画像データを生成する処理を自動的に実行し、複数の単位領域についてそれぞれ生成された複数の超深度画像データを連結し、
前記超深度画像データは、各単位領域に対応する複数の画素についての複数の画素データの前記光軸方向におけるピーク強度を表すデータであることを特徴とする請求項1記載の顕微鏡システム。
The control unit automatically executes a process of generating ultra-depth image data based on a plurality of pixel data for each of the plurality of unit regions set by the observation range setting unit, and is generated for each of the plurality of unit regions. Concatenating multiple ultra-deep image data,
The microscope system according to claim 1, wherein the ultra-deep image data is data representing peak intensity in the optical axis direction of a plurality of pixel data for a plurality of pixels corresponding to each unit region.
前記制御部は、前記第2の処理において前記対物レンズを前記光軸方向の複数の位置に移動させる際に、前記画素データ出力部から出力される画素データの値が予め定められた出力上限値よりも小さくなるように前記受光素子のゲインを減少させることを特徴とする請求項1または2記載の顕微鏡システム。 When the control unit moves the objective lens to a plurality of positions in the optical axis direction in the second processing, the pixel data value output from the pixel data output unit is a predetermined output upper limit value. The microscope system according to claim 1, wherein the gain of the light receiving element is decreased so as to be smaller than the minimum. 前記第2の処理は、各単位領域について決定された初期位置から前記対物レンズが前記観察対象物に近づく方向および遠ざかる方向に前記対物レンズを移動させつつ前記対物レンズの各位置で前記画素データ出力部から出力される複数の画素データを取得する処理を含み、
前記制御部は、各単位領域についての前記第2の処理において、前記決定された初期位置から前記対物レンズと前記観察対象物とが近づく方向に前記対物レンズが移動している場合に、取得された画素データに基づいて、前記受光素子の出力信号のレベルが予め定められたレベルよりも高い状態から前記受光素子の出力信号のレベルが前記予め定められたレベル以下に変化する時点における前記対物レンズの位置を第1の相対位置として検出し、前記決定された初期位置から前記対物レンズと前記観察対象物とが遠ざかる方向に前記対物レンズが移動している場合に、取得された画素データに基づいて、前記受光素子の出力信号のレベルが前記予め定められたレベルよりも高い状態から前記受光素子の出力信号のレベルが前記予め定められたレベル以下に変化する時点における前記対物レンズの位置を第2の相対
位置として検出し、検出された第1および第2の相対位置に基づいて当該単位領域についての前記移動範囲を設定することを特徴とする請求項1〜3のいずれか一項に記載の顕微鏡システム。
The second processing, the pixel data output at each position of the objective lens while moving the objective lens in a direction and away from the direction of approaching the objective lens is the observation object from the determined initial position for each unit area Including a process of acquiring a plurality of pixel data output from the unit,
The control unit is acquired when the objective lens is moving in the direction in which the objective lens and the observation object approach from the determined initial position in the second processing for each unit region. The objective lens at a time point when the level of the output signal of the light receiving element changes below the predetermined level from a state in which the level of the output signal of the light receiving element is higher than a predetermined level based on the pixel data. Based on the acquired pixel data when the objective lens is moved in a direction in which the objective lens and the observation object move away from the determined initial position. The level of the output signal of the light receiving element is determined from the state in which the level of the output signal of the light receiving element is higher than the predetermined level. Characterized in that detecting the position of the objective lens at the time that changes below the bell as a second relative position, sets the movement range of the unit region on the basis of the first and second relative position detected The microscope system according to any one of claims 1 to 3.
前記第2の処理は、各単位領域について決定された初期位置から前記対物レンズが前記観察対象物に近づく方向および遠ざかる方向に前記対物レンズを移動させつつ前記対物レンズの各位置で前記画素データ出力部から出力される複数の画素データを取得する処理を含み、
前記制御部は、各単位領域についての前記第2の処理において、前記決定された初期位置から前記対物レンズと前記観察対象物との相対的な距離が第1の距離から前記第1の距離よりも大きい第2の距離になるまでの予め定められた範囲にわたって前記対物レンズを前記観察対象物に対して相対的に移動させ、取得された画素データに基づいて、前記受光素子の出力信号のレベルが予め定められたレベルよりも高い状態から前記受光素子の出力信号のレベルが前記予め定められたレベル以下に変化する複数の時点における前記対物レンズの複数の位置をそれぞれ検出し、検出された複数の位置を含むように当該単位領域についての前記移動範囲を設定することを特徴とする請求項1〜3のいずれか一項に記載の顕微鏡システム。
The second processing, the pixel data output at each position of the objective lens while moving the objective lens in a direction and away from the direction of approaching the objective lens is the observation object from the determined initial position for each unit area Including a process of acquiring a plurality of pixel data output from the unit,
In the second process for each unit region, the control unit determines that the relative distance between the objective lens and the observation object from the determined initial position is greater than the first distance from the first distance. The objective lens is moved relative to the object to be observed over a predetermined range until the second distance becomes greater, and the level of the output signal of the light receiving element is determined based on the acquired pixel data. Detecting a plurality of positions of the objective lens at a plurality of points in time when the level of the output signal of the light receiving element changes below the predetermined level from a state where is higher than a predetermined level. The microscope system according to claim 1, wherein the movement range for the unit region is set so as to include the position of the unit region.
前記制御部は、各単位領域についての前記第2の処理において、前記取得された画素データに基づいて前記受光素子の出力信号のレベルが予め定められたレベルよりも高いか否かを判定し、前記受光素子の出力信号のレベルが前記予め定められたレベルよりも大きいときに前記対物レンズを前記観察対象物に対して相対的に第1の移動量づつ移動させ、前記受光素子の出力信号のレベルが前記予め定められたレベル以下であるときに前記対物レンズを前記観察対象物に対して相対的に第2の移動量づつ移動させ、
前記第2の移動量は、前記第1の移動量よりも大きいことを特徴とする請求項5記載の顕微鏡システム。
In the second process for each unit region, the control unit determines whether the level of the output signal of the light receiving element is higher than a predetermined level based on the acquired pixel data, When the level of the output signal of the light receiving element is larger than the predetermined level, the objective lens is moved relative to the observation object by a first movement amount, and the output signal of the light receiving element is When the level is equal to or lower than the predetermined level, the objective lens is moved relative to the observation object by a second movement amount;
The microscope system according to claim 5, wherein the second movement amount is larger than the first movement amount.
前記制御部は、各単位領域についての前記第2の処理において、前記第1の距離から前記第2の距離になるまでの予め定められた範囲にわたって前記対物レンズを前記観察対象物に対して相対的に移動させても前記移動範囲が設定されない場合に、前記決定された初期位置から前記対物レンズと前記観察対象物との相対的な距離が前記第1の距離よりも小さい第3の距離から前記第2の距離よりも大きい第4の距離になるまでの予め定められた範囲にわたって前記対物レンズを前記観察対象物に対して相対的に移動させ、取得された画素データに基づいて、前記受光素子の出力信号のレベルが予め定められたレベルよりも高い状態から前記受光素子の出力信号のレベルが前記予め定められたレベル以下に変化する複数の時点における前記対物レンズの複数の位置をそれぞれ検出し、検出された複数の位置を含むように当該単位領域についての前記移動範囲を設定することを特徴とする請求項5または6記載の顕微鏡システム。 In the second processing for each unit region, the control unit moves the objective lens relative to the observation object over a predetermined range from the first distance to the second distance. When the movement range is not set even if the movement is performed, the relative distance between the objective lens and the observation object is smaller than the first distance from the determined initial position. The objective lens is moved relative to the observation object over a predetermined range until the fourth distance is larger than the second distance, and the light reception is performed based on the acquired pixel data. wherein the plurality of time the level of the output signal changes below said predetermined level of said light receiving element from a state higher than the level at which the level reaches a predetermined output signal of the element objective Lens of the plurality of positions respectively detected, the microscope system according to claim 5 or 6, wherein the setting the movement range of the unit region so as to include the detected plurality of positions.
JP2014245014A 2014-12-03 2014-12-03 Microscope system Active JP5957063B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014245014A JP5957063B2 (en) 2014-12-03 2014-12-03 Microscope system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014245014A JP5957063B2 (en) 2014-12-03 2014-12-03 Microscope system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2011163632A Division JP5663428B2 (en) 2011-07-26 2011-07-26 Microscope system, object observation method, and object observation program

Publications (2)

Publication Number Publication Date
JP2015079267A JP2015079267A (en) 2015-04-23
JP5957063B2 true JP5957063B2 (en) 2016-07-27

Family

ID=53010668

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014245014A Active JP5957063B2 (en) 2014-12-03 2014-12-03 Microscope system

Country Status (1)

Country Link
JP (1) JP5957063B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7433121B2 (en) 2020-04-07 2024-02-19 株式会社キーエンス displacement measuring device

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3344763B2 (en) * 1993-04-21 2002-11-18 オリンパス光学工業株式会社 Automatic image forming equipment for scanning optical microscope
JP3518923B2 (en) * 1995-04-04 2004-04-12 オリンパス株式会社 Automatic image forming equipment for confocal scanning optical microscope
JP4307815B2 (en) * 2002-10-10 2009-08-05 オリンパス株式会社 Confocal laser scanning microscope apparatus and program thereof
JP5043629B2 (en) * 2007-12-17 2012-10-10 オリンパス株式会社 Laser scanning microscope and measuring method of surface shape thereof

Also Published As

Publication number Publication date
JP2015079267A (en) 2015-04-23

Similar Documents

Publication Publication Date Title
JP5732265B2 (en) Microscope system, focus position detection method, and focus position detection program
JP5663428B2 (en) Microscope system, object observation method, and object observation program
JP2005156554A (en) Estimation optimum focus position determination control method for image measurement inspection system, and control method for training mode operation of image measurement inspection system
JP6266601B2 (en) Image acquisition device, method and system for creating focus map of sample
JP5941395B2 (en) Image acquisition device and focus method of image acquisition device
JP2012155010A (en) Microscope system, surface state observation method, and surface state observation program
JP6132650B2 (en) Confocal microscope
JP5202936B2 (en) Scanning microscope
JP6009005B2 (en) Confocal microscope system, image processing method and image processing program
JP2013180342A (en) Laser beam machining apparatus and laser beam machining method
JP5957063B2 (en) Microscope system
JP2009288162A (en) Three-dimensional measuring device
JP5700797B2 (en) Confocal microscope system, image processing method and image processing program
US20220043247A1 (en) White light interference microscope
JP2012150335A (en) Confocal microscope system, image processing method and image processing program
JP5956932B2 (en) Shape measuring device, shape measuring method, and shape measuring program
JP6161678B2 (en) Confocal microscope system
JP5847282B2 (en) Confocal microscope system
JP5809325B2 (en) Microscope system
JP2011237616A (en) Scanning microscope
JP4914567B2 (en) Scanning confocal microscope
JP4128256B2 (en) Scanning laser microscope
JP6128862B2 (en) Microscope device and microscope system
JP4679840B2 (en) Laser scanning microscope
JP6140025B2 (en) Optical surface shape detection system, surface shape detection method, and surface shape detection program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151030

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160607

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160617

R150 Certificate of patent or registration of utility model

Ref document number: 5957063

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250