JP2012150335A - Confocal microscope system, image processing method and image processing program - Google Patents

Confocal microscope system, image processing method and image processing program Download PDF

Info

Publication number
JP2012150335A
JP2012150335A JP2011009675A JP2011009675A JP2012150335A JP 2012150335 A JP2012150335 A JP 2012150335A JP 2011009675 A JP2011009675 A JP 2011009675A JP 2011009675 A JP2011009675 A JP 2011009675A JP 2012150335 A JP2012150335 A JP 2012150335A
Authority
JP
Japan
Prior art keywords
unit
image
image data
confocal
pixel data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011009675A
Other languages
Japanese (ja)
Inventor
Yoichi Okamoto
陽一 岡本
Jun Tabuchi
潤 田淵
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Keyence Corp
Original Assignee
Keyence Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Keyence Corp filed Critical Keyence Corp
Priority to JP2011009675A priority Critical patent/JP2012150335A/en
Publication of JP2012150335A publication Critical patent/JP2012150335A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a confocal microscope system, image processing method, and an image processing program, which are able to display an image on a surface, as an observation object, without wasting time even if a user specifies a wide range as an observation range.SOLUTION: If the total of the pixels of pixel data within an acquired range specified by a user exceeds the number of displayable pixels of an operation memory 230, the acquisition rate of plural pixel data in unit areas is adjusted. Based on an output signal from a light receiving element 30, the plural pixel data in the unit areas are sequentially obtained. Confocal image data are created based on the plural pixel data, and surface image data are created based on the confocal image data. Surface image data created for the set plural unit areas are connected. Based on the connected surface image data, an image on the surface, as an observation object S, is displayed on a display part 400 by using an operation memory 230.

Description

本発明は、共焦点顕微鏡システム、画像処理方法および画像処理プログラムに関する。   The present invention relates to a confocal microscope system, an image processing method, and an image processing program.

共焦点顕微鏡では、レーザ光源から出射されたレーザ光が対物レンズにより測定対象物に集光される。測定対象物からの反射光が受光レンズにより集光され、ピンホールを通して受光素子に入射する(例えば、特許文献1参照)。レーザ光は測定対象物の表面で二次元的に走査される。また、測定対象物と対物レンズとの間の相対的な距離を変化させることにより受光素子の受光量の分布が変化する。測定対象物の表面に焦点が合ったときに受光量のピークが現れる。受光量分布のピーク強度に基づいて非常に高い焦点深度を有する超深度画像を得ることができる。また、受光量分布のピーク位置に基づいて測定対象物の表面の高さ分布を示す高さ画像を得ることができる。   In the confocal microscope, laser light emitted from a laser light source is condensed on a measurement object by an objective lens. The reflected light from the measurement object is collected by the light receiving lens and enters the light receiving element through the pinhole (see, for example, Patent Document 1). The laser beam is scanned two-dimensionally on the surface of the measurement object. Further, the distribution of the amount of light received by the light receiving element is changed by changing the relative distance between the measurement object and the objective lens. A peak in the amount of received light appears when the surface of the measurement object is focused. An ultra-deep image having a very high depth of focus can be obtained based on the peak intensity of the received light amount distribution. Moreover, a height image showing the height distribution of the surface of the measurement object can be obtained based on the peak position of the received light amount distribution.

特開2008−83601号公報JP 2008-83601A

共焦点顕微鏡によれば、ステージに載置された測定対象物の一定の領域の共焦点画像データが生成され、生成された共焦点画像データに基づいて超深度画像データまたは高さ画像データが生成される。超深度画像データまたは高さ画像データに基づいて超深度画像または高さ画像が表示部に表示される。使用者は、測定対象物の観察範囲を指定することができる。使用者が共焦点顕微鏡の観察可能な領域よりも広い範囲を指定した場合には、共焦点顕微鏡のステージが移動することにより測定対象物の複数の領域の超深度画像データまたは高さ画像データがそれぞれ生成される。その後、複数の領域の超深度画像データまたは高さ画像データが連結されることにより測定対象物の広い範囲の超深度画像または高さ画像が作業用メモリを用いて表示部に表示される。   According to the confocal microscope, confocal image data of a certain region of the measurement object placed on the stage is generated, and ultra-depth image data or height image data is generated based on the generated confocal image data. Is done. An ultra-deep image or a height image is displayed on the display unit based on the ultra-deep image data or the height image data. The user can specify the observation range of the measurement object. When the user specifies a wider range than the observable area of the confocal microscope, the ultra-depth image data or height image data of multiple areas of the measurement object is moved by moving the stage of the confocal microscope. Each is generated. Thereafter, the ultra-depth image data or height image data of a plurality of regions are connected to display a wide-range ultra-depth image or height image of the measurement object on the display unit using the work memory.

しかしながら、使用者が測定対象物の観察範囲としてより広い範囲を指定した場合には、複数の領域の超深度画像データまたは高さ画像データの容量が作業用メモリの使用可能容量を超えてしまう。このような場合は、連結前または後の超深度画像データもしくは高さ画像データを間引いてその画像データの容量を小さくすることにより、連結前または後の超深度画像データもしくは高さ画像データを作業用メモリを用いて表示のための処理を可能にする必要がある。   However, when the user designates a wider range as the observation range of the measurement object, the capacity of the ultra-depth image data or the height image data in a plurality of areas exceeds the usable capacity of the work memory. In such a case, the ultra-depth image data or height image data before or after the connection is thinned out to reduce the capacity of the image data. It is necessary to enable processing for display using the memory for the image.

一方、共焦点顕微鏡は測定対象物と対物レンズとの間の相対的な距離を変化させながら、二次元的に光を走査して1つの領域の超深度画像データおよび高さ画像データを生成する。そのため、使用者が測定対象物の観察範囲としてより広い範囲を指定したために複数の領域の画像データを連結する必要がある場合には、連結された画像データを生成するのには極めて時間がかかる。   On the other hand, the confocal microscope scans light two-dimensionally while changing the relative distance between the measurement object and the objective lens, and generates ultra-depth image data and height image data of one region. . Therefore, when the user has specified a wider range as the observation range of the measurement object and it is necessary to link the image data of a plurality of regions, it takes a very long time to generate the linked image data. .

本発明の目的は、使用者が広い範囲を観察範囲として指定した場合にも無駄な時間を費やさずに観察対象物の表面の画像を表示可能な共焦点顕微鏡システム、画像処理方法および画像処理プログラムを提供することである。   An object of the present invention is to provide a confocal microscope system, an image processing method, and an image processing program capable of displaying an image of the surface of an observation object without wasting time even when a user designates a wide range as an observation range. Is to provide.

(1)第1の発明に係る共焦点顕微鏡システムは、観察対象物の表面の画像を表示する共焦点顕微鏡システムであって、受光素子と、観察対象物の表面に設定された単位領域に光を照射するとともに、単位領域に照射された光を受光素子に導く共焦点光学系と、単位領域に垂直な方向に沿った複数の位置で単位領域内での共焦点光学系による光の照射が行われるように共焦点光学系と観察対象物との相対的な距離を変化させる相対的距離変化部と、共焦点光学系および相対的距離変化部を制御するとともに、受光素子の出力信号に基づいて単位領域内で互いに直交する第1および第2の方向に並ぶ複数の画素に対応する複数の画素データを順次取得する制御部と、制御部により取得された複数の画素データに基づいて単位領域の共焦点画像データを生成するとともに共焦点画像データに基づいて観察対象物の表面の画像を表示するための表面画像データを生成する画像データ生成部と、使用者による観察範囲の指示を受け付ける観察範囲指示受付部と、観察範囲指示受付部により受け付けられた指示に基づいて観察範囲として複数の単位領域を設定する観察範囲設定部と、観察範囲設定部により設定された複数の単位領域について画像データ生成部により生成された表面画像データを連結する画像データ処理部と、観察範囲設定部により設定された複数の単位領域に含まれる画素数と予め設定されたしきい値とを比較し、比較結果に基づいて各単位領域について制御部により取得される画素データの数を調整するデータ取得量調整部と、画像データ処理部により連結された複数の単位領域の表面画像データに基づいて観察対象物の表面の画像を表示する表示部とを備えるものである。   (1) A confocal microscope system according to a first aspect of the present invention is a confocal microscope system that displays an image of the surface of an observation object, and that receives light in a light receiving element and a unit region set on the surface of the observation object. The confocal optical system that guides the light irradiated to the unit area to the light receiving element, and the light irradiation by the confocal optical system in the unit area at a plurality of positions along the direction perpendicular to the unit area. Control the relative distance changing unit that changes the relative distance between the confocal optical system and the observation object, the confocal optical system and the relative distance changing unit, and based on the output signal of the light receiving element. A control unit that sequentially acquires a plurality of pixel data corresponding to a plurality of pixels arranged in the first and second directions orthogonal to each other in the unit region, and the unit region based on the plurality of pixel data acquired by the control unit Confocal image de An image data generation unit that generates surface image data for displaying an image of the surface of the observation target based on the confocal image data, and an observation range instruction reception unit that receives an instruction of the observation range from the user And an observation range setting unit that sets a plurality of unit areas as an observation range based on an instruction received by the observation range instruction reception unit, and a plurality of unit areas set by the observation range setting unit are generated by the image data generation unit The image data processing unit that connects the surface image data that has been made, and the number of pixels included in the plurality of unit areas set by the observation range setting unit and a preset threshold value are compared, and each based on the comparison result A data acquisition amount adjusting unit that adjusts the number of pixel data acquired by the control unit for a unit area, and a plurality of units connected by the image data processing unit. In which a display unit for displaying an image of the surface of the observation object based on the surface image data of the area.

この共焦点顕微鏡システムにおいては、観察対象物の表面に設定された単位領域に光が照射され、単位領域に照射された光が受光素子に導かれる。ここで、単位領域に垂直な方向に沿った複数の位置で単位領域内での共焦点光学系による光の照射が行われるように共焦点光学系と観察対象物との相対的な距離が変化される。受光素子の出力信号に基づいて単位領域内で互いに直交する第1および第2の方向に並ぶ複数の画素に対応する複数の画素データが順次取得される。取得された複数の画素データに基づいて共焦点画像データが生成されるとともに、共焦点画像データに基づいて観察対象物の表面の画像を表示するための表面画像データが生成される。   In this confocal microscope system, light is irradiated to a unit region set on the surface of an observation object, and the light irradiated to the unit region is guided to a light receiving element. Here, the relative distance between the confocal optical system and the observation object changes so that light is emitted from the confocal optical system in the unit area at a plurality of positions along the direction perpendicular to the unit area. Is done. Based on the output signal of the light receiving element, a plurality of pixel data corresponding to the plurality of pixels arranged in the first and second directions orthogonal to each other in the unit region are sequentially acquired. Confocal image data is generated based on the acquired plurality of pixel data, and surface image data for displaying an image of the surface of the observation object is generated based on the confocal image data.

使用者による観察範囲の指示が受け付けられると、その指示に基づいて観察範囲として複数の単位領域が設定される。設定された複数の単位領域について生成された表面画像データが連結される。連結された複数の単位領域の表面画像データに基づいて観察対象物の表面の画像が表示される。   When an instruction for the observation range is received from the user, a plurality of unit areas are set as the observation range based on the instruction. The surface image data generated for a plurality of set unit areas is connected. An image of the surface of the observation object is displayed based on the surface image data of the plurality of unit regions that are connected.

この場合、設定された複数の単位領域に含まれる画素数と予め設定されたしきい値とが比較され、比較結果に基づいて各単位領域について取得される画素データの数が調整される。そのため、使用者が観察範囲として広い範囲を指定した場合でも、連結された表面画像データの量が表示のために使用可能な作業用メモリの容量を超えることを防止することができる。これにより、観察範囲にかかわらず観察対象物の表面の画像を表示することができる。また、画素データの取得に要する時間を短縮化することができる。   In this case, the number of pixels included in the plurality of set unit areas is compared with a preset threshold value, and the number of pixel data acquired for each unit area is adjusted based on the comparison result. Therefore, even when the user designates a wide range as the observation range, it is possible to prevent the amount of the connected surface image data from exceeding the capacity of the working memory that can be used for display. Thereby, the image of the surface of the observation object can be displayed regardless of the observation range. In addition, the time required to acquire pixel data can be shortened.

さらに、複数の単位領域についての表面画像データが生成された後に、複数の単位領域についての表面画像データの量が表示のために使用可能な作業用メモリの容量を超えないように使用者が表面画像データを間引く必要がない。そのため、表示できない量の表面画像データの生成に多大な時間を費やす必要がない。その結果、無駄な時間を費やさずに観察対象物の表面の画像を表示することできる。   Further, after the surface image data for the plurality of unit areas is generated, the user can check that the amount of the surface image data for the plurality of unit areas does not exceed the capacity of the working memory that can be used for display. There is no need to thin out image data. Therefore, it is not necessary to spend a great deal of time in generating the amount of surface image data that cannot be displayed. As a result, an image of the surface of the observation object can be displayed without wasting time.

(2)共焦点顕微鏡システムは、観察対象物の非共焦点画像を取得する非共焦点画像取得部をさらに備え、観察範囲指示受付部は、非共焦点画像取得部により取得された非共焦点画像を表示部に表示させるとともに、表示された非共焦点画像上で使用者による観察範囲の指示を受け付けてもよい。   (2) The confocal microscope system further includes a non-confocal image acquisition unit that acquires a non-confocal image of the observation object, and the observation range instruction reception unit is a non-confocal image acquired by the non-confocal image acquisition unit An image may be displayed on the display unit, and an instruction for an observation range by the user may be received on the displayed non-confocal image.

この場合、観察対象物の非共焦点画像が取得され、取得された非共焦点画像が表示部に表示される。表示された非共焦点画像上で使用者による観察範囲の指示が受け付けられる。これにより、使用者は、観察範囲を容易に指示することができる。   In this case, a non-confocal image of the observation object is acquired, and the acquired non-confocal image is displayed on the display unit. An instruction of the observation range by the user is received on the displayed non-confocal image. Thereby, the user can easily indicate the observation range.

(3)観察範囲指示受付部は、表示された非共焦点画像を使用者が指定可能な複数の領域に分割し、使用者により取得除外対象として指定された領域を観察範囲から除外してもよい。   (3) The observation range instruction receiving unit divides the displayed non-confocal image into a plurality of regions that can be designated by the user, and excludes the region designated as an acquisition exclusion target by the user from the observation range. Good.

この場合、表示された非共焦点画像は、使用者が指定可能な複数の領域に分割される。使用者は、複数の領域のいずれかを取得除外対象として指定することができる。取得除外対象として指定された領域は観察範囲から除外される。そのため、指定された領域においては、レーザ光の走査を行う必要がない。これにより、画素データの取得に要する時間を短縮化することができる。   In this case, the displayed non-confocal image is divided into a plurality of areas that can be designated by the user. The user can designate any of a plurality of areas as an acquisition exclusion target. The area designated as the acquisition exclusion target is excluded from the observation range. Therefore, it is not necessary to scan the laser beam in the designated area. Thereby, the time required for obtaining pixel data can be shortened.

(4)共焦点顕微鏡システムは、観察対象物を支持するとともに第1および第2の方向に移動可能に設けられた支持部と、表示部に表示される非共焦点画像の範囲の拡大の指示を受け付ける拡大指示受付部と、拡大指示受付部により拡大の指示が受け付けられた場合に、支持部を移動させることにより表示部に表示される非共焦点画像の範囲を拡大させる表示範囲拡大部とをさらに備えてもよい。   (4) The confocal microscope system supports the object to be observed and is provided so as to be movable in the first and second directions, and an instruction to enlarge the range of the non-confocal image displayed on the display unit An enlargement instruction accepting unit that accepts an image, and a display range enlarging unit that enlarges the range of the non-confocal image displayed on the display unit by moving the support unit when an enlargement instruction is accepted by the enlargement instruction accepting unit; May be further provided.

この場合、観察対象物が支持部により支持される。使用者が表示される非共焦点画像の範囲の拡大を指示すると、支持部が第1および第2の方向に移動することにより表示される非共焦点画像の範囲が拡大される。これにより、使用者は、拡大された範囲の非共焦点画像上で観察範囲を指示することができる。その結果、より広い観察範囲内の画素データを取得することができる。   In this case, the observation object is supported by the support part. When the user instructs to expand the range of the non-confocal image to be displayed, the range of the non-confocal image to be displayed is expanded by the support unit moving in the first and second directions. Thereby, the user can specify the observation range on the non-confocal image of the enlarged range. As a result, pixel data within a wider observation range can be acquired.

(5)第2の発明に係る画像処理方法は、観察対象物の表面の画像を表示する画像処理方法であって、共焦点光学系により観察対象物の表面に設定された単位領域に光を照射するとともに、単位領域に照射された光を受光素子に導くステップと、単位領域に垂直な方向に沿った複数の位置で単位領域内での共焦点光学系による光の照射が行われるように共焦点光学系と観察対象物との相対的な距離を変化させるステップと、受光素子の出力信号に基づいて単位領域内で互いに直交する第1および第2の方向に並ぶ複数の画素に対応する複数の画素データを順次取得するステップと、取得された複数の画素データに基づいて単位領域の共焦点画像データを生成するとともに共焦点画像データに基づいて観察対象物の表面の画像を表示するための表面画像データを生成するステップと、使用者による観察範囲の指示を受け付けるステップと、受け付けられた指示に基づいて観察範囲として複数の単位領域を設定するステップと、設定された複数の単位領域について生成された表面画像データを連結するステップと、設定された複数の単位領域に含まれる画素数と予め設定されたしきい値とを比較し、比較結果に基づいて各単位領域について取得される画素データの数を調整するステップと、連結された複数の単位領域の表面画像データに基づいて観察対象物の表面の画像を表示するステップとを含むものである。   (5) An image processing method according to a second aspect of the present invention is an image processing method for displaying an image of the surface of an observation object, and applies light to a unit area set on the surface of the observation object by a confocal optical system. Irradiating and guiding the light irradiated to the unit area to the light receiving element, and irradiating the light by the confocal optical system in the unit area at a plurality of positions along the direction perpendicular to the unit area Corresponding to a step of changing the relative distance between the confocal optical system and the observation object, and a plurality of pixels arranged in the first and second directions orthogonal to each other in the unit area based on the output signal of the light receiving element. Sequentially acquiring a plurality of pixel data, generating confocal image data of a unit region based on the acquired plurality of pixel data, and displaying an image of the surface of the observation object based on the confocal image data of A step of generating plane image data; a step of receiving an instruction of an observation range by a user; a step of setting a plurality of unit areas as an observation range based on the received instruction; and generation of the set unit areas Pixel data acquired for each unit region based on the comparison result by comparing the step of connecting the surface image data, the number of pixels included in the set plurality of unit regions and a preset threshold value And a step of displaying an image of the surface of the object to be observed based on the surface image data of the plurality of connected unit regions.

この画像処理方法においては、観察対象物の表面に設定された単位領域に光が照射され、単位領域に照射された光が受光素子に導かれる。ここで、単位領域に垂直な方向に沿った複数の位置で単位領域内での共焦点光学系による光の照射が行われるように共焦点光学系と観察対象物との相対的な距離が変化される。受光素子の出力信号に基づいて単位領域内で互いに直交する第1および第2の方向に並ぶ複数の画素に対応する複数の画素データが順次取得される。取得された複数の画素データに基づいて共焦点画像データが生成されるとともに、共焦点画像データに基づいて観察対象物の表面の画像を表示するための表面画像データが生成される。   In this image processing method, light is irradiated to a unit region set on the surface of the observation object, and the light irradiated to the unit region is guided to the light receiving element. Here, the relative distance between the confocal optical system and the observation object changes so that light is emitted from the confocal optical system in the unit area at a plurality of positions along the direction perpendicular to the unit area. Is done. Based on the output signal of the light receiving element, a plurality of pixel data corresponding to the plurality of pixels arranged in the first and second directions orthogonal to each other in the unit region are sequentially acquired. Confocal image data is generated based on the acquired plurality of pixel data, and surface image data for displaying an image of the surface of the observation object is generated based on the confocal image data.

使用者による観察範囲の指示が受け付けられると、その指示に基づいて観察範囲として複数の単位領域が設定される。設定された複数の単位領域について生成された表面画像データが連結される。連結された複数の単位領域の表面画像データに基づいて観察対象物の表面の画像が表示される。   When an instruction for the observation range is received from the user, a plurality of unit areas are set as the observation range based on the instruction. The surface image data generated for a plurality of set unit areas is connected. An image of the surface of the observation object is displayed based on the surface image data of the plurality of unit regions that are connected.

この場合、設定された複数の単位領域に含まれる画素数と予め設定されたしきい値とが比較され、比較結果に基づいて各単位領域について取得される画素データの数が調整される。そのため、使用者が観察範囲として広い範囲を指定した場合でも、連結された表面画像データの量が表示のために使用可能な作業用メモリの容量を超えることを防止することができる。これにより、観察範囲にかかわらず観察対象物の表面の画像を表示することができる。また、画素データの取得に要する時間を短縮化することができる。   In this case, the number of pixels included in the plurality of set unit areas is compared with a preset threshold value, and the number of pixel data acquired for each unit area is adjusted based on the comparison result. Therefore, even when the user designates a wide range as the observation range, it is possible to prevent the amount of the connected surface image data from exceeding the capacity of the working memory that can be used for display. Thereby, the image of the surface of the observation object can be displayed regardless of the observation range. In addition, the time required to acquire pixel data can be shortened.

さらに、複数の単位領域についての表面画像データが生成された後に、複数の単位領域についての表面画像データの量が表示のために使用可能な作業用メモリの容量を超えないように使用者が表面画像データを間引く必要がない。そのため、表示できない量の表面画像データの生成に多大な時間を費やす必要がない。その結果、無駄な時間を費やさずに観察対象物の表面の画像を表示することできる。   Further, after the surface image data for the plurality of unit areas is generated, the user can check that the amount of the surface image data for the plurality of unit areas does not exceed the capacity of the working memory that can be used for display. There is no need to thin out image data. Therefore, it is not necessary to spend a great deal of time in generating the amount of surface image data that cannot be displayed. As a result, an image of the surface of the observation object can be displayed without wasting time.

(6)第3の発明に係る画像処理プログラムは、観察対象物の表面の画像を表示する画像処理を処理装置に実行させる画像処理プログラムであって、共焦点光学系により観察対象物の表面に設定された単位領域に光を照射するとともに、単位領域に照射されたレーザ光を受光素子に導く処理と、単位領域に垂直な方向に沿った複数の位置で単位領域内での共焦点光学系による光の照射が行われるように共焦点光学系と観察対象物との相対的な距離を変化させる処理と、受光素子の出力信号に基づいて単位領域内で互いに直交する第1および第2の方向に並ぶ複数の画素に対応する複数の画素データを順次取得する処理と、取得された複数の画素データに基づいて単位領域の共焦点画像データを生成するとともに共焦点画像データに基づいて観察対象物の表面の画像を表示するための表面画像データを生成する処理と、使用者による観察範囲の指示を受け付ける処理と、受け付けられた指示に基づいて観察範囲として複数の単位領域を設定する処理と、設定された複数の単位領域について生成された表面画像データを連結する処理と、設定された複数の単位領域に含まれる画素数と予め設定されたしきい値とを比較し、比較結果に基づいて各単位領域について取得される画素データの数を調整する処理と、連結された複数の単位領域の表面画像データに基づいて観察対象物の表面の画像を表示する処理とを、処理装置に実行させるものである。   (6) An image processing program according to a third invention is an image processing program for causing a processing device to execute image processing for displaying an image of the surface of an observation object, and is applied to the surface of the observation object by a confocal optical system. A process for irradiating the set unit area with light and guiding the laser light irradiated to the unit area to the light receiving element, and a confocal optical system in the unit area at a plurality of positions along a direction perpendicular to the unit area First and second orthogonal to each other in the unit area based on the process of changing the relative distance between the confocal optical system and the observation object so that the light is irradiated by the light source and the output signal of the light receiving element A process of sequentially acquiring a plurality of pixel data corresponding to a plurality of pixels arranged in a direction, generating confocal image data of a unit region based on the acquired plurality of pixel data, and viewing based on the confocal image data Processing for generating surface image data for displaying an image of the surface of an object, processing for receiving an instruction for an observation range by a user, and processing for setting a plurality of unit areas as an observation range based on the received instructions And the process of connecting the surface image data generated for the set unit areas, the number of pixels included in the set unit areas and a preset threshold value are compared, and a comparison result is obtained. Processing for adjusting the number of pixel data acquired for each unit region based on the processing unit, and processing for displaying an image of the surface of the observation object based on the surface image data of a plurality of unit regions connected to the processing device. To be executed.

この画像処理プログラムにおいては、観察対象物の表面に設定された単位領域に光が照射され、単位領域に照射された光が受光素子に導かれる。ここで、単位領域に垂直な方向に沿った複数の位置で単位領域内での共焦点光学系による光の照射が行われるように共焦点光学系と観察対象物との相対的な距離が変化される。受光素子の出力信号に基づいて単位領域内で互いに直交する第1および第2の方向に並ぶ複数の画素に対応する複数の画素データが順次取得される。取得された複数の画素データに基づいて共焦点画像データが生成されるとともに、共焦点画像データに基づいて観察対象物の表面の画像を表示するための表面画像データが生成される。   In this image processing program, light is irradiated to a unit area set on the surface of the observation object, and the light irradiated to the unit area is guided to the light receiving element. Here, the relative distance between the confocal optical system and the observation object changes so that light is emitted from the confocal optical system in the unit area at a plurality of positions along the direction perpendicular to the unit area. Is done. Based on the output signal of the light receiving element, a plurality of pixel data corresponding to the plurality of pixels arranged in the first and second directions orthogonal to each other in the unit region are sequentially acquired. Confocal image data is generated based on the acquired plurality of pixel data, and surface image data for displaying an image of the surface of the observation object is generated based on the confocal image data.

使用者による観察範囲の指示が受け付けられると、その指示に基づいて観察範囲として複数の単位領域が設定される。設定された複数の単位領域について生成された表面画像データが連結される。連結された複数の単位領域の表面画像データに基づいて観察対象物の表面の画像が表示される。   When an instruction for the observation range is received from the user, a plurality of unit areas are set as the observation range based on the instruction. The surface image data generated for a plurality of set unit areas is connected. An image of the surface of the observation object is displayed based on the surface image data of the plurality of unit regions that are connected.

この場合、設定された複数の単位領域に含まれる画素数と予め設定されたしきい値とが比較され、比較結果に基づいて各単位領域について取得される画素データの数が調整される。そのため、使用者が観察範囲として広い範囲を指定した場合でも、連結された表面画像データの量が表示のために使用可能な作業用メモリの容量を超えることを防止することができる。これにより、観察範囲にかかわらず観察対象物の表面の画像を表示することができる。また、画素データの取得に要する時間を短縮化することができる。   In this case, the number of pixels included in the plurality of set unit areas is compared with a preset threshold value, and the number of pixel data acquired for each unit area is adjusted based on the comparison result. Therefore, even when the user designates a wide range as the observation range, it is possible to prevent the amount of the connected surface image data from exceeding the capacity of the working memory that can be used for display. Thereby, the image of the surface of the observation object can be displayed regardless of the observation range. In addition, the time required to acquire pixel data can be shortened.

さらに、複数の単位領域についての表面画像データが生成された後に、複数の単位領域についての表面画像データの量が表示のために使用可能な作業用メモリの容量を超えないように使用者が表面画像データを間引く必要がない。そのため、表示できない量の表面画像データの生成に多大な時間を費やす必要がない。その結果、無駄な時間を費やさずに観察対象物の表面の画像を表示することできる。   Further, after the surface image data for the plurality of unit areas is generated, the user can check that the amount of the surface image data for the plurality of unit areas does not exceed the capacity of the working memory that can be used for display. There is no need to thin out image data. Therefore, it is not necessary to spend a great deal of time in generating the amount of surface image data that cannot be displayed. As a result, an image of the surface of the observation object can be displayed without wasting time.

本発明によれば、使用者が広い範囲を観察範囲として指定した場合にも無駄な時間を費やさずに観察対象物の表面の画像を表示可能になる。   According to the present invention, even when the user designates a wide range as the observation range, it is possible to display an image of the surface of the observation object without wasting time.

本発明の一実施の形態に係る共焦点顕微鏡システムの構成を示すブロック図である。It is a block diagram which shows the structure of the confocal microscope system which concerns on one embodiment of this invention. X方向、Y方向およびZ方向を定義するための図である。It is a figure for defining an X direction, a Y direction, and a Z direction. 1つの画素において観察対象物のZ方向の位置と受光素子の受光強度との関係を示す図である。It is a figure which shows the relationship between the position of the Z direction of an observation target object, and the light reception intensity | strength of a light receiving element in one pixel. 画素データの取得範囲の設定時における表示部の表示例を示す図である。It is a figure which shows the example of a display of a display part at the time of the setting of the acquisition range of pixel data. 画素データの取得範囲の第1の指示方法を実行するための取得範囲設定画面を示す図である。It is a figure which shows the acquisition range setting screen for performing the 1st instruction | indication method of the acquisition range of pixel data. 画素データの取得範囲の第1の指示方法の実行時における表示部の表示例を示す図である。It is a figure which shows the example of a display of a display part at the time of execution of the 1st instruction | indication method of the acquisition range of pixel data. 画素データの取得範囲の第2の指示方法を実行するための取得範囲設定画面を示す図である。It is a figure which shows the acquisition range setting screen for performing the 2nd instruction | indication method of the acquisition range of pixel data. 画素データの取得範囲の第2の指示方法の実行時における表示部の表示例を示す図である。It is a figure which shows the example of a display of a display part at the time of execution of the 2nd instruction | indication method of the acquisition range of pixel data. 画素データの取得範囲の第3の指示方法を実行するための取得範囲設定画面を示す図である。It is a figure which shows the acquisition range setting screen for performing the 3rd instruction | indication method of the acquisition range of pixel data. 画素データの取得範囲の第3の指示方法の実行時における表示部の表示例を示す図である。It is a figure which shows the example of a display of a display part at the time of execution of the 3rd instruction | indication method of the acquisition range of pixel data. カラーCCDカメラの撮影領域よりも広い範囲の画素データを取得する場合の表示部の表示例を示す図である。It is a figure which shows the example of a display of a display part in the case of acquiring the pixel data of the range wider than the imaging | photography area | region of a color CCD camera. ナビゲーション表示画面を示す図である。It is a figure which shows a navigation display screen. ナビゲーション表示画面を示す図である。It is a figure which shows a navigation display screen. ナビゲーション表示画面を示す図である。It is a figure which shows a navigation display screen. ナビゲーション表示画面を示す図である。It is a figure which shows a navigation display screen. 複数の撮影領域に含まれる観察対象物Sの共焦点画像を示す図である。It is a figure which shows the confocal image of the observation target object S contained in a some imaging | photography area | region. 共焦点顕微鏡システムにおける共焦点画像データの画像処理方法を示すフローチャートである。It is a flowchart which shows the image processing method of the confocal image data in a confocal microscope system. 共焦点顕微鏡システムにおける共焦点画像データの画像処理方法を示すフローチャートである。It is a flowchart which shows the image processing method of the confocal image data in a confocal microscope system. 画素データの取得率が1の場合に生成される共焦点画像データを示す図である。It is a figure which shows the confocal image data produced | generated when the acquisition rate of pixel data is 1. 画素データの取得率が1/4の場合に生成される共焦点画像データを示す図である。It is a figure which shows the confocal image data produced | generated when the acquisition rate of pixel data is 1/4. 画素データの取得率が1/16の場合に生成される共焦点画像データを示す図である。It is a figure which shows the confocal image data produced | generated when the acquisition rate of pixel data is 1/16. 画素データの取得率が1の場合の観察対象物の超深度画像を示す図である。It is a figure which shows the ultra-deep image of the observation target object when the acquisition rate of pixel data is 1. 画素データの取得率が1/4の場合の観察対象物の超深度画像を示す図である。It is a figure which shows the ultra-deep image of the observation target object when the acquisition rate of pixel data is 1/4. 画素データの取得率が1/16の場合の観察対象物の超深度画像を示す図である。It is a figure which shows the ultra-deep image of the observation target object when the acquisition rate of pixel data is 1/16. 画像処理の並行処理のタイミングチャートである。It is a timing chart of parallel processing of image processing. 1つの画素についての対物レンズのZ方向の位置と有効な画素データの値との関係を説明するための図である。It is a figure for demonstrating the relationship between the position of the Z direction of the objective lens about one pixel, and the value of effective pixel data. 高さ画像データおよび超深度画像データの生成時における対物レンズのZ方向の上限位置および下限位置の設定方法を説明するための図である。It is a figure for demonstrating the setting method of the upper limit position and the minimum position of the Z direction of an objective lens at the time of the production | generation of height image data and ultra-deep image data. 評価値のピーク位置探索処理を説明するための図である。It is a figure for demonstrating the peak position search process of an evaluation value.

以下、本発明の一実施の形態に係る共焦点顕微鏡システムについて図面を参照しながら説明する。   Hereinafter, a confocal microscope system according to an embodiment of the present invention will be described with reference to the drawings.

(1)共焦点顕微鏡システムの基本構成
図1は、本発明の一実施の形態に係る共焦点顕微鏡システム500の構成を示すブロック図である。図1に示すように、共焦点顕微鏡システム500は、測定部100、PC(パーソナルコンピュータ)200、制御部300および表示部400を備える。測定部100は、レーザ光源10、X−Yスキャン光学系20、受光素子30、照明用白色光源40、カラーCCD(電荷結合素子)カメラ50およびステージ60を含む。ステージ60上には、観察対象物Sが載置される。
(1) Basic Configuration of Confocal Microscope System FIG. 1 is a block diagram showing a configuration of a confocal microscope system 500 according to an embodiment of the present invention. As shown in FIG. 1, the confocal microscope system 500 includes a measurement unit 100, a PC (personal computer) 200, a control unit 300, and a display unit 400. The measurement unit 100 includes a laser light source 10, an XY scan optical system 20, a light receiving element 30, an illumination white light source 40, a color CCD (charge coupled device) camera 50, and a stage 60. An observation object S is placed on the stage 60.

レーザ光源10は、例えば半導体レーザである。レーザ光源10から出射されたレーザ光は、レンズ1により平行光に変換された後、ハーフミラー4を透過してX−Yスキャン光学系20に入射する。なお、レーザ光源10に代えて水銀ランプ等の他の光源が用いられてもよい。この場合、水銀ランプ等の光源とX−Yスキャン光学系20との間に帯域通過フィルタが配置される。水銀ランプ等の光源から出射された光は、帯域通過フィルタを通過することにより単色光となり、X−Yスキャン光学系20に入射する。   The laser light source 10 is a semiconductor laser, for example. The laser light emitted from the laser light source 10 is converted into parallel light by the lens 1, passes through the half mirror 4, and enters the XY scan optical system 20. Instead of the laser light source 10, another light source such as a mercury lamp may be used. In this case, a band pass filter is disposed between the light source such as a mercury lamp and the XY scan optical system 20. Light emitted from a light source such as a mercury lamp passes through a band-pass filter, becomes monochromatic light, and enters the XY scan optical system 20.

X−Yスキャン光学系20は、例えばガルバノミラーである。X−Yスキャン光学系20は、ステージ60上の観察対象物Sの表面上においてレーザ光をX方向およびY方向に走査する機能を有する。X方向、Y方向およびZ方向の定義については後述する。X−Yスキャン光学系20により走査されたレーザ光は、ハーフミラー5により反射された後、ハーフミラー6を透過し、対物レンズ3によりステージ60上の観察対象物Sに集光される。なお、ハーフミラー4〜6に代えて偏光ビームスプリッタが用いられてもよい。   The XY scan optical system 20 is, for example, a galvanometer mirror. The XY scan optical system 20 has a function of scanning a laser beam in the X direction and the Y direction on the surface of the observation object S on the stage 60. The definitions of the X direction, the Y direction, and the Z direction will be described later. The laser beam scanned by the XY scanning optical system 20 is reflected by the half mirror 5, then passes through the half mirror 6, and is focused on the observation object S on the stage 60 by the objective lens 3. Instead of the half mirrors 4 to 6, a polarization beam splitter may be used.

観察対象物Sにより反射されたレーザ光は、対物レンズ3およびハーフミラー6を透過した後、ハーフミラー5により反射され、X−Yスキャン光学系20を透過する。X−Yスキャン光学系20を透過したレーザ光は、ハーフミラー4により反射され、レンズ2により集光され、ピンホール部材7のピンホールおよびND(Neutral Density)フィルタ8を透過して受光素子30に入射する。このように、本実施の形態においては反射型の共焦点顕微鏡システム500が用いられるが、観察対象物Sが細胞等の透明体である場合には、透過型の共焦点顕微鏡システムが用いられてもよい。   The laser light reflected by the observation object S passes through the objective lens 3 and the half mirror 6, then is reflected by the half mirror 5, and passes through the XY scan optical system 20. The laser beam that has passed through the XY scan optical system 20 is reflected by the half mirror 4, collected by the lens 2, and transmitted through the pinhole of the pinhole member 7 and the ND (Neutral Density) filter 8 to receive the light receiving element 30. Is incident on. As described above, the reflection type confocal microscope system 500 is used in the present embodiment, but when the observation object S is a transparent body such as a cell, a transmission type confocal microscope system is used. Also good.

ピンホール部材7のピンホールは、レンズ2の焦点位置に配置される。NDフィルタ8は、受光素子30に入射するレーザ光の強度を減衰させるために用いられる。そのため、レーザ光の強度が十分減衰されている場合には、NDフィルタ8は設けられなくてもよい。   The pinhole of the pinhole member 7 is disposed at the focal position of the lens 2. The ND filter 8 is used to attenuate the intensity of laser light incident on the light receiving element 30. Therefore, when the intensity of the laser beam is sufficiently attenuated, the ND filter 8 may not be provided.

本実施の形態では、受光素子30は光電子増倍管である。受光素子30としてフォトダイオードおよび増幅器を用いてもよい。受光素子30は、受光量に対応するアナログの電気信号(以下、受光信号と呼ぶ)を出力する。制御部300は、2つのA/D変換器(アナログ/デジタル変換器)、FIFO(First In First Out)メモリおよびCPU(中央演算処理装置)を含む。受光素子30から出力される受光信号は、制御部300の1つのA/D変換器により一定のサンプリング周期でサンプリングされるとともにデジタル信号に変換される。A/D変換器から出力されるデジタル信号は、FIFOメモリに順次蓄積される。FIFOメモリに蓄積されたデジタル信号は画素データとして順次PC200に転送される。   In the present embodiment, the light receiving element 30 is a photomultiplier tube. A photodiode and an amplifier may be used as the light receiving element 30. The light receiving element 30 outputs an analog electric signal (hereinafter referred to as a light receiving signal) corresponding to the amount of received light. The control unit 300 includes two A / D converters (analog / digital converter), a FIFO (First In First Out) memory, and a CPU (Central Processing Unit). The light reception signal output from the light receiving element 30 is sampled at a constant sampling period by one A / D converter of the control unit 300 and converted into a digital signal. Digital signals output from the A / D converter are sequentially stored in the FIFO memory. The digital signals stored in the FIFO memory are sequentially transferred to the PC 200 as pixel data.

照明用白色光源40は、例えばハロゲンランプまたは白色LED(発光ダイオード)である。照明用白色光源40により発生された白色光は、ハーフミラー6により反射された後、対物レンズ3によりステージ60上の観察対象物Sに集光される。   The illumination white light source 40 is, for example, a halogen lamp or a white LED (light emitting diode). White light generated by the illuminating white light source 40 is reflected by the half mirror 6 and then condensed by the objective lens 3 onto the observation object S on the stage 60.

観察対象物Sにより反射された白色光は、対物レンズ3、ハーフミラー6およびハーフミラー5を透過してカラーCCDカメラ50に入射する。カラーCCDカメラ50に代えてCMOS(相補性金属酸化膜半導体)イメージセンサ等の撮像素子が用いられてもよい。カラーCCDカメラ50は、受光量に対応する電気信号を出力する。カラーCCDカメラ50の出力信号は、制御部300の他の1つのA/D変換器により一定のサンプリング周期でサンプリングされるとともにデジタル信号に変換される。A/D変換器から出力されるデジタル信号は、カメラデータとして順次PC200に転送される。   White light reflected by the observation object S passes through the objective lens 3, the half mirror 6 and the half mirror 5 and enters the color CCD camera 50. An imaging element such as a CMOS (complementary metal oxide semiconductor) image sensor may be used in place of the color CCD camera 50. The color CCD camera 50 outputs an electrical signal corresponding to the amount of received light. The output signal of the color CCD camera 50 is sampled at a constant sampling period by another A / D converter of the control unit 300 and converted into a digital signal. Digital signals output from the A / D converter are sequentially transferred to the PC 200 as camera data.

制御部300は、画素データおよびカメラデータをPC200に与えるとともに、PC200からの指令に基づいて受光素子30の受光感度(ゲイン)およびカラーCCDカメラ50を制御する。また、制御部300は、PC200からの指令に基づいてX−Yスキャン光学系20を制御することによりレーザ光を観察対象物S上でX方向およびY方向に走査させる。   The control unit 300 supplies pixel data and camera data to the PC 200 and controls the light receiving sensitivity (gain) of the light receiving element 30 and the color CCD camera 50 based on a command from the PC 200. Further, the control unit 300 controls the XY scanning optical system 20 based on a command from the PC 200 to scan the laser light on the observation object S in the X direction and the Y direction.

対物レンズ3は、レンズ駆動部63によりZ方向に移動可能に設けられる。制御部300は、PC200からの指令に基づいてレンズ駆動部63を制御することにより対物レンズ3をZ方向に移動させることができる。これにより、対物レンズ3に対する観察対象物Sの相対的なZ方向の位置を変化させることができる。   The objective lens 3 is provided so as to be movable in the Z direction by the lens driving unit 63. The control unit 300 can move the objective lens 3 in the Z direction by controlling the lens driving unit 63 based on a command from the PC 200. Thereby, the position of the observation target S relative to the objective lens 3 in the Z direction can be changed.

PC200は、CPU(中央演算処理装置)210、ROM(リードオンリメモリ)220、作業用メモリ230および記憶装置240を含む。ROM220には、システムプログラムが記憶される。作業用メモリ230は、RAM(ランダムアクセスメモリ)からなり、種々のデータの処理のために用いられる。記憶装置240は、ハードディスク等からなる。記憶装置240には、画像処理プログラムが記憶されるとともに、制御部300から与えられる画素データおよびカメラデータ等の種々のデータを保存するために用いられる。画像処理プログラムの詳細は後述する。   The PC 200 includes a CPU (Central Processing Unit) 210, a ROM (Read Only Memory) 220, a work memory 230, and a storage device 240. The ROM 220 stores a system program. The working memory 230 includes a RAM (Random Access Memory), and is used for processing various data. The storage device 240 is composed of a hard disk or the like. The storage device 240 stores an image processing program and is used for storing various data such as pixel data and camera data given from the control unit 300. Details of the image processing program will be described later.

CPU210は、制御部300から与えられる画素データに基づいて画像データを生成する。以下、画素データに基づいて生成される画像データを共焦点画像データと呼ぶ。また、共焦点画像データに基づいて表示される画像を共焦点画像と呼ぶ。   The CPU 210 generates image data based on the pixel data given from the control unit 300. Hereinafter, the image data generated based on the pixel data is referred to as confocal image data. An image displayed based on the confocal image data is referred to as a confocal image.

CPU210は、制御部300から与えられるカメラデータに基づいて画像データを生成する。以下、カメラデータに基づいて生成される画像データをカメラ画像データと呼ぶ。また、カメラ画像データに基づいて表示される画像をカメラ画像と呼ぶ。   The CPU 210 generates image data based on the camera data given from the control unit 300. Hereinafter, the image data generated based on the camera data is referred to as camera image data. An image displayed based on the camera image data is called a camera image.

CPU210は、生成した共焦点画像データおよびカメラ画像データに作業用メモリ230を用いて各種処理を行うとともに、共焦点画像データに基づく共焦点画像およびカメラ画像データに基づくカメラ画像を表示部400に表示させる。また、CPU210は、後述するステージ駆動部62に駆動パルスを与える。   The CPU 210 performs various processes on the generated confocal image data and camera image data using the work memory 230, and displays a confocal image based on the confocal image data and a camera image based on the camera image data on the display unit 400. Let Further, the CPU 210 gives a driving pulse to the stage driving unit 62 described later.

表示部400は、例えば液晶ディスプレイパネルまたは有機EL(エレクトロルミネッセンス)パネルにより構成される。   The display unit 400 is configured by, for example, a liquid crystal display panel or an organic EL (electroluminescence) panel.

ステージ60は、X方向移動機構、Y方向移動機構およびZ方向移動機構を有する。X方向移動機構、Y方向移動機構およびZ方向移動機構には、ステッピングモータが用いられる。   The stage 60 has an X direction moving mechanism, a Y direction moving mechanism, and a Z direction moving mechanism. Stepping motors are used for the X direction moving mechanism, the Y direction moving mechanism, and the Z direction moving mechanism.

ステージ60のX方向移動機構、Y方向移動機構およびZ方向移動機構は、ステージ操作部61およびステージ駆動部62により駆動される。使用者は、ステージ操作部61を手動で操作することにより、ステージ60を対物レンズ3に対して相対的にX方向、Y方向およびZ方向に移動させることができる。   The X direction moving mechanism, the Y direction moving mechanism, and the Z direction moving mechanism of the stage 60 are driven by a stage operation unit 61 and a stage driving unit 62. The user can move the stage 60 in the X direction, the Y direction, and the Z direction relative to the objective lens 3 by manually operating the stage operation unit 61.

ステージ駆動部62は、PC200より与えられる駆動パルスに基づいて、ステージ60のステッピングモータに電流を供給することにより、ステージ60を対物レンズ3に相対的にX方向、Y方向またはZ方向に移動させることができる。   The stage drive unit 62 moves the stage 60 relative to the objective lens 3 in the X direction, the Y direction, or the Z direction by supplying a current to the stepping motor of the stage 60 based on the drive pulse given from the PC 200. be able to.

(2)共焦点画像、超深度画像および高さ画像
図2は、X方向、Y方向およびZ方向を定義するための図である。図2に示すように、対物レンズ3により集光されたレーザ光が観察対象物Sに照射される。本実施の形態においては、対物レンズ3の光軸の方向をZ方向と定義する。また、Z方向と直交する面において、互いに直交する二方向をそれぞれX方向およびY方向と定義する。X方向、Y方向およびZ方向を矢印X,Y,Zでそれぞれ示す。
(2) Confocal Image, Ultra-Deep Image, and Height Image FIG. 2 is a diagram for defining the X direction, the Y direction, and the Z direction. As shown in FIG. 2, the observation object S is irradiated with the laser light condensed by the objective lens 3. In the present embodiment, the direction of the optical axis of the objective lens 3 is defined as the Z direction. Further, two directions orthogonal to each other on the surface orthogonal to the Z direction are defined as an X direction and a Y direction, respectively. The X, Y, and Z directions are indicated by arrows X, Y, and Z, respectively.

Z方向において対物レンズ3に対する観察対象物Sの表面の相対的な位置を観察対象物SのZ方向の位置と呼ぶ。共焦点画像データの生成は、単位領域ごとに行なわれる。単位領域は対物レンズ3の倍率により定まる。   The relative position of the surface of the observation object S with respect to the objective lens 3 in the Z direction is referred to as the position of the observation object S in the Z direction. The confocal image data is generated for each unit area. The unit area is determined by the magnification of the objective lens 3.

観察対象物SのZ方向の位置が一定の状態で、X−Yスキャン光学系20により単位領域内のY方向の端部でレーザ光がX方向に走査される。X方向の走査が終了すると、レーザ光がX−Yスキャン光学系20によりY方向に一定の間隔変移される。この状態でレーザ光がX方向に走査される。単位領域内でレーザ光のX方向の走査およびY方向の変移が繰り返されることにより、単位領域のX方向およびY方向の走査が終了する。次に、対物レンズ3がZ方向に移動される。それにより、対物レンズ3のZ方向の位置が前回と異なる一定の状態で、単位領域のX方向およびY方向の走査が行なわれる。観察対象物SのZ方向の複数の位置で単位領域のX方向およびY方向の走査が行なわれる。   While the position of the observation object S in the Z direction is constant, the XY scanning optical system 20 scans the laser beam in the X direction at the end in the Y direction in the unit region. When the scanning in the X direction is completed, the laser beam is shifted by the XY scanning optical system 20 at a constant interval in the Y direction. In this state, the laser beam is scanned in the X direction. By repeating the scanning of the laser beam in the X direction and the shifting in the Y direction within the unit region, the scanning of the unit region in the X direction and the Y direction is completed. Next, the objective lens 3 is moved in the Z direction. Thereby, the scanning in the X direction and the Y direction of the unit area is performed in a constant state where the position of the objective lens 3 in the Z direction is different from the previous time. The unit region is scanned in the X and Y directions at a plurality of positions in the Z direction of the observation object S.

観察対象物SのZ方向の位置ごとにX方向およびY方向の走査により共焦点画像データが生成される。これにより、単位領域内でZ方向の位置が異なる複数の共焦点画像データが生成される。   Confocal image data is generated by scanning in the X and Y directions for each position of the observation object S in the Z direction. As a result, a plurality of confocal image data having different positions in the Z direction within the unit region is generated.

ここで、共焦点画像データのX方向の画素数は、X−Yスキャン光学系20によるレーザ光のX方向の走査速度と制御部300のサンプリング周期とにより定まる。1回のX方向の走査(1本の走査線)におけるサンプリング数がX方向の画素数となる。また、単位領域の共焦点画像データのY方向の画素数は、X方向の走査の終了ごとのX−Yスキャン光学系20によるレーザ光のY方向の変移量により定まる。Y方向における走査線の数がY方向の画素数となる。さらに、単位領域の共焦点画像データの数は、観察対象物SのZ方向の移動回数により定まる。単位領域の複数の共焦点画像データに基づいて、後述する方法で超深度画像データおよび高さ画像データが生成される。   Here, the number of pixels in the X direction of the confocal image data is determined by the scanning speed of the laser beam in the X direction by the XY scanning optical system 20 and the sampling period of the control unit 300. The number of samples in one X-direction scan (one scan line) is the number of pixels in the X direction. Further, the number of pixels in the Y direction of the confocal image data in the unit area is determined by the amount of shift in the Y direction of the laser beam by the XY scan optical system 20 at the end of scanning in the X direction. The number of scanning lines in the Y direction is the number of pixels in the Y direction. Furthermore, the number of confocal image data in the unit area is determined by the number of movements of the observation object S in the Z direction. Based on the plurality of confocal image data in the unit area, ultra-depth image data and height image data are generated by a method described later.

図2の例では、まず、ステージ60の最初の位置で単位領域s1における観察対象物Sの複数の共焦点画像データが生成されるとともに単位領域s1の超深度画像データおよび高さ画像データが生成される。続いて、ステージ60が順次移動することにより単位領域s2〜s4における観察対象物Sの複数の共焦点画像データが生成されるとともに単位領域s2〜s4の超深度画像データおよび高さ画像データが生成される。この場合、隣接する単位領域の一部が互いに重なるように、単位領域s1〜s4が設定されてもよい。それにより、パターンマッチングを行うことにより、複数の単位領域s1〜s4の超深度画像データおよび高さ画像データを高い精度で連結することができる。特に、複数の単位領域の合計の面積が後述する画素データの取得範囲よりも大きい場合には、取得範囲からはみ出す部分の面積に相当する部分が重なり部分として設定される。   In the example of FIG. 2, first, a plurality of confocal image data of the observation object S in the unit region s1 is generated at the initial position of the stage 60, and ultra-depth image data and height image data of the unit region s1 are generated. Is done. Subsequently, the stage 60 is sequentially moved to generate a plurality of confocal image data of the observation object S in the unit regions s2 to s4 and to generate ultra-depth image data and height image data of the unit regions s2 to s4. Is done. In this case, the unit regions s1 to s4 may be set so that adjacent unit regions partially overlap each other. Thereby, by performing pattern matching, the ultra-depth image data and the height image data of the plurality of unit regions s1 to s4 can be connected with high accuracy. In particular, when the total area of the plurality of unit regions is larger than the pixel data acquisition range described later, a portion corresponding to the area of the portion that protrudes from the acquisition range is set as an overlapping portion.

図3は、1つの画素において観察対象物SのZ方向の位置と受光素子30の受光強度との関係を示す図である。図1に示したように、ピンホール部材7のピンホールはレンズ2の焦点位置に配置される。そのため、観察対象物Sの表面が対物レンズ3の焦点位置にあるときに、観察対象物Sにより反射されたレーザ光がピンホール部材7のピンホールの位置に集光される。それにより、観察対象物Sにより反射されたレーザ光の大部分がピンホール部材7のピンホールを通過して受光素子30に入射する。この場合、受光素子30の受光強度は最大になる。それにより、受光素子30から出力される受光信号の電圧値は最大となる。   FIG. 3 is a diagram showing the relationship between the position of the observation object S in the Z direction and the light receiving intensity of the light receiving element 30 in one pixel. As shown in FIG. 1, the pinhole of the pinhole member 7 is disposed at the focal position of the lens 2. Therefore, when the surface of the observation object S is at the focal position of the objective lens 3, the laser light reflected by the observation object S is condensed at the pinhole position of the pinhole member 7. Thereby, most of the laser beam reflected by the observation object S passes through the pinhole of the pinhole member 7 and enters the light receiving element 30. In this case, the light receiving intensity of the light receiving element 30 is maximized. As a result, the voltage value of the light reception signal output from the light receiving element 30 is maximized.

一方、観察対象物Sが対物レンズ3の焦点位置が外れた位置にあるときには、観察対象物Sにより反射されたレーザ光はピンホール部材7のピンホールの前または後の位置に集光される。それにより、観察対象物Sにより反射されたレーザ光の多くはピンホール部材7のピンホールの周囲の部分で遮られ、受光素子30の受光強度は低下する。それにより、受光素子30から出力される受光信号の電圧値は低下する。   On the other hand, when the observation object S is at a position out of the focal position of the objective lens 3, the laser light reflected by the observation object S is condensed at a position before or after the pinhole of the pinhole member 7. . Thereby, most of the laser light reflected by the observation object S is blocked by the portion around the pinhole of the pinhole member 7, and the light receiving intensity of the light receiving element 30 is reduced. As a result, the voltage value of the light reception signal output from the light receiving element 30 decreases.

このように、観察対象物Sの表面が対物レンズ3の焦点位置にある状態で受光素子30の受光強度分布にピークが現れる。各単位領域の複数の共焦点画像データから、画素ごとにZ方向における受光強度分布が得られる。それにより、画素ごとに受光強度分布のピーク位置とピーク強度(ピークの受光強度)とが得られる。   Thus, a peak appears in the light reception intensity distribution of the light receiving element 30 in a state where the surface of the observation object S is at the focal position of the objective lens 3. The received light intensity distribution in the Z direction is obtained for each pixel from a plurality of confocal image data of each unit region. Thereby, the peak position and peak intensity (peak received light intensity) of the received light intensity distribution are obtained for each pixel.

各単位領域の複数の画素についてのZ方向におけるピーク位置を表すデータを高さ画像データと呼び、高さ画像データに基づいて表示される画像を高さ画像と呼ぶ。高さ画像は、観察対象物Sの表面形状を表す。また、各単位領域の複数の画素についてのピーク強度を表すデータを超深度画像データと呼び、超深度画像データに基づいて表される画像を超深度画像と呼ぶ。超深度画像は、観察対象物Sの表面のすべての部分にピントが合った状態で得られる画像である。PC200は、制御部300から与えられる単位領域の複数の画素データに基づいて単位領域の複数の共焦点画像データを生成し、複数の共焦点画像データに基づいて単位領域の高さ画像データおよび超深度画像データを生成する。以下、高さ画像データおよび超深度画像データを総称して表面画像データと呼び、高さ画像および超深度画像を総称して表面の画像と呼ぶ。   Data representing peak positions in the Z direction for a plurality of pixels in each unit area is referred to as height image data, and an image displayed based on the height image data is referred to as a height image. The height image represents the surface shape of the observation object S. In addition, data representing the peak intensity for a plurality of pixels in each unit area is referred to as ultra-deep image data, and an image represented based on the ultra-depth image data is referred to as an ultra-depth image. The ultra-deep image is an image obtained in a state where all parts of the surface of the observation object S are in focus. The PC 200 generates a plurality of confocal image data of the unit region based on the plurality of pixel data of the unit region given from the control unit 300, and the height image data and the super image of the unit region based on the plurality of confocal image data. Generate depth image data. Hereinafter, the height image data and the ultradeep image data are collectively referred to as surface image data, and the height image and the ultradeep image are collectively referred to as a surface image.

(3)画素データの取得範囲(観察範囲)の設定
図4は、画素データの取得範囲の設定前における表示部400の表示例を示す図である。図4に示すように、表示部400の画面上には、画像表示領域410および条件設定領域420が表示される。画像表示領域410には、共焦点画像データに基づく共焦点画像またはカメラ画像データに基づくカメラ画像が表示される。条件設定領域420には、範囲設定ボタン421、取得開始ボタン422およびナビゲーション表示ボタン423が表示される。
(3) Setting of Acquisition Range (Observation Range) of Pixel Data FIG. 4 is a diagram illustrating a display example of the display unit 400 before setting of the acquisition range of pixel data. As shown in FIG. 4, an image display area 410 and a condition setting area 420 are displayed on the screen of the display unit 400. In the image display area 410, a confocal image based on the confocal image data or a camera image based on the camera image data is displayed. In the condition setting area 420, a range setting button 421, an acquisition start button 422, and a navigation display button 423 are displayed.

使用者は、図1の共焦点顕微鏡システム500のステージ60に観察対象物Sを載置する。これにより、制御部300は、カメラデータを順次PC200に与える。PC200のCPU210は、制御部300により与えられたカメラデータに基づいてカメラ画像データを生成し、観察対象物Sのカメラ画像を表示部400の画像表示領域410に表示させる。この状態で、使用者は、以下に示す種々の方法により画素データの取得範囲を容易に指示することができる。この場合、使用者は、ステージ60をX方向またはY方向に移動させることにより画像表示領域410に表示される観察対象物Sのカメラ画像の範囲を変更することができる。   The user places the observation object S on the stage 60 of the confocal microscope system 500 of FIG. Thereby, the control part 300 gives camera data to PC200 sequentially. The CPU 210 of the PC 200 generates camera image data based on the camera data given by the control unit 300 and displays the camera image of the observation object S in the image display area 410 of the display unit 400. In this state, the user can easily specify the acquisition range of the pixel data by various methods described below. In this case, the user can change the range of the camera image of the observation object S displayed in the image display area 410 by moving the stage 60 in the X direction or the Y direction.

(3−1)画素データの取得範囲の第1の指示方法
図5は、画素データの取得範囲の第1の指示方法を実行するための取得範囲設定画面を示す図である。図6は、画素データの取得範囲の第1の指示方法の実行時における表示部400の表示例を示す図である。
(3-1) First Instructing Method for Obtaining Range of Pixel Data FIG. 5 is a diagram illustrating an obtaining range setting screen for executing the first instructing method for the obtaining range of pixel data. FIG. 6 is a diagram illustrating a display example of the display unit 400 at the time of executing the first instruction method of the acquisition range of pixel data.

使用者は、PC200に接続されたマウス等のポインティングデバイスを用いて図4の条件設定領域420の範囲設定ボタン421を操作する。これにより、表示部400に画像表示領域410と並ぶように図5の取得範囲設定画面430aが表示される。取得範囲設定画面430aは、指定方法設定欄431、指定範囲設定欄432、設定値表示欄433、次へボタン434aおよび終了ボタン434bを含む。指定方法設定欄431は、チェックボックス431a,431b,431cを含む。指定範囲設定欄432は、上端設定部432a、左端設定部432b、右端設定部432cおよび下端設定部432dを含む。   The user operates the range setting button 421 in the condition setting area 420 of FIG. 4 using a pointing device such as a mouse connected to the PC 200. Accordingly, the acquisition range setting screen 430a of FIG. 5 is displayed on the display unit 400 so as to be aligned with the image display area 410. The acquisition range setting screen 430a includes a designation method setting column 431, a designation range setting column 432, a setting value display column 433, a next button 434a, and an end button 434b. The designation method setting field 431 includes check boxes 431a, 431b, and 431c. The designated range setting field 432 includes an upper end setting unit 432a, a left end setting unit 432b, a right end setting unit 432c, and a lower end setting unit 432d.

使用者がチェックボックス431bを指定した場合、表示部400には取得範囲設定画面430aに代えて後述する図7の取得範囲設定画面430bが表示される。これにより、後述する画素データの取得範囲の第2の指示方法が実行可能になる。使用者がチェックボックス431cを指定した場合、表示部400には取得範囲設定画面430aに代えて後述する図9の取得範囲設定画面430cが表示される。これにより、後述する画素データの取得範囲の第3の指示方法が実行可能になる。   When the user designates the check box 431b, the display unit 400 displays an acquisition range setting screen 430b of FIG. 7 described later instead of the acquisition range setting screen 430a. This makes it possible to execute a second instruction method for the acquisition range of pixel data, which will be described later. When the user specifies the check box 431c, the display unit 400 displays an acquisition range setting screen 430c of FIG. 9 described later instead of the acquisition range setting screen 430a. This makes it possible to execute a third instruction method for the acquisition range of pixel data, which will be described later.

チェックボックス431aが指定された状態で、図6に示すように、使用者が表示部400の画像表示領域410上で所望の点p1を指定する。次に、使用者が図5の上端設定部432aおよび左端設定部432bを操作する。これにより、CPU210は、点p1を画素データの取得範囲の始点として定める。本例において、CPU210は、点p1を画素データの取得範囲の上端でかつ左端として認識する。   In a state where the check box 431a is designated, as shown in FIG. 6, the user designates a desired point p1 on the image display area 410 of the display unit 400. Next, the user operates the upper end setting unit 432a and the left end setting unit 432b of FIG. Thus, the CPU 210 determines the point p1 as the start point of the pixel data acquisition range. In this example, the CPU 210 recognizes the point p1 as the upper end and the left end of the pixel data acquisition range.

その後、図6に示すように、使用者が表示部400の画像表示領域410上で点p1と異なる所望の点p2を指定する。次に、使用者が図5の右端設定部432cおよび下端設定部432dを操作する。これにより、CPU210は、点p2を画素データの取得範囲の終点として定める。本例において、CPU210は、点p2を画素データの取得範囲の右端でかつ下端として認識する。   Thereafter, as shown in FIG. 6, the user designates a desired point p2 different from the point p1 on the image display area 410 of the display unit 400. Next, the user operates the right end setting unit 432c and the lower end setting unit 432d of FIG. As a result, the CPU 210 determines the point p2 as the end point of the pixel data acquisition range. In this example, the CPU 210 recognizes the point p2 as the right end and the lower end of the pixel data acquisition range.

続いて、使用者が図5の次へボタン434aを操作する。これにより、図6に示すように、CPU210は、点p1,p2を対角の頂点とする矩形状の取得範囲表示枠Rを画像表示領域410に表示する。図6においては、取得範囲表示枠Rは一点鎖線で示される。取得範囲表示枠Rの内部のカメラ画像に対応する画素データの部分が取得範囲として設定される。取得範囲設定画面430aの設定値表示欄433には、画像表示領域410上における始点および終点の座標ならびに取得範囲表示枠Rを構成する単位領域の数が表示される。   Subsequently, the user operates the next button 434a in FIG. Thereby, as shown in FIG. 6, the CPU 210 displays in the image display area 410 a rectangular acquisition range display frame R having the points p <b> 1 and p <b> 2 as diagonal vertices. In FIG. 6, the acquisition range display frame R is indicated by a one-dot chain line. The pixel data portion corresponding to the camera image inside the acquisition range display frame R is set as the acquisition range. In the set value display field 433 of the acquisition range setting screen 430a, the coordinates of the start and end points on the image display area 410 and the number of unit areas constituting the acquisition range display frame R are displayed.

(3−2)画素データの取得範囲の第2の指示方法
図7は、画素データの取得範囲の第2の指示方法に基づく取得範囲設定画面を示す図である。図8は、画素データの取得範囲の第2の指示方法の実行時における表示部400の表示例を示す図である。
(3-2) Second Indication Method of Pixel Data Acquisition Range FIG. 7 is a diagram illustrating an acquisition range setting screen based on the second instruction method of the acquisition range of pixel data. FIG. 8 is a diagram illustrating a display example of the display unit 400 at the time of executing the second instruction method of the acquisition range of pixel data.

使用者は、図5の取得範囲設定画面430aまたは後述する図9の取得範囲設定画面430cにおいて、チェックボックス431bを指定する。これにより、表示部400に画像表示領域410と並ぶように取得範囲設定画面430a,430cに代えて図7の取得範囲設定画面430bが表示される。取得範囲設定画面430bは、図5の右端設定部432cおよび下端設定部432dに代えて数値を入力可能な長さ指定部432e,432fを含む点を除いて、取得範囲設定画面430aと同様の構成を有する。   The user designates the check box 431b on the acquisition range setting screen 430a in FIG. 5 or the acquisition range setting screen 430c in FIG. Accordingly, the acquisition range setting screen 430b of FIG. 7 is displayed in place of the acquisition range setting screens 430a and 430c so as to be aligned with the image display area 410 on the display unit 400. The acquisition range setting screen 430b has the same configuration as the acquisition range setting screen 430a except that it includes length designation units 432e and 432f that can input numerical values instead of the right end setting unit 432c and the lower end setting unit 432d of FIG. Have

使用者がチェックボックス431aを指定した場合、表示部400には取得範囲設定画面430bに代えて図5の取得範囲設定画面430aが表示される。これにより、上述の画素データの取得範囲の第1の指示方法が実行可能になる。使用者がチェックボックス431cを指定した場合、表示部400には取得範囲設定画面430bに代えて後述する図9の取得範囲設定画面430cが表示される。これにより、後述する画素データの取得範囲の第3の指示方法が実行可能になる。   When the user designates the check box 431a, the acquisition range setting screen 430a of FIG. 5 is displayed on the display unit 400 instead of the acquisition range setting screen 430b. This makes it possible to execute the first instruction method for the acquisition range of the pixel data described above. When the user specifies the check box 431c, the display unit 400 displays an acquisition range setting screen 430c of FIG. 9 described later instead of the acquisition range setting screen 430b. This makes it possible to execute a third instruction method for the acquisition range of pixel data, which will be described later.

チェックボックス431bが指定された状態で、図8に示すように、使用者が表示部400の画像表示領域410上で所望の点p1を指定する。次に、使用者が図7の上端設定部432aおよび左端設定部432bを操作する。これにより、CPU210は、点p1を画素データの取得範囲の始点として定める。本例において、CPU210は、点p1を画素データの取得範囲の上端でかつ左端として認識する。   With the check box 431b designated, the user designates a desired point p1 on the image display area 410 of the display unit 400 as shown in FIG. Next, the user operates the upper end setting unit 432a and the left end setting unit 432b of FIG. Thus, the CPU 210 determines the point p1 as the start point of the pixel data acquisition range. In this example, the CPU 210 recognizes the point p1 as the upper end and the left end of the pixel data acquisition range.

その後、使用者が指定範囲設定欄432の長さ指定部432eに数値を入力する。これにより、CPU210は、図8に示すように、画像表示領域410上において点p1を始点とするX方向の線分Lxの長さを定める。また、使用者が指定範囲設定欄432の長さ指定部432fに数値を入力する。これにより、CPU210は、図8に示すように、画像表示領域410上において点p1を始点とするY方向の線分Lyの長さを定める。   Thereafter, the user inputs a numerical value into the length designation section 432e of the designated range setting field 432. As a result, the CPU 210 determines the length of the line segment Lx in the X direction starting from the point p1 on the image display area 410 as shown in FIG. In addition, the user inputs a numerical value into the length designation part 432 f of the designated range setting field 432. As a result, the CPU 210 determines the length of the line segment Ly in the Y direction starting from the point p1 on the image display area 410, as shown in FIG.

続いて、使用者が図7の次へボタン434aを操作する。これにより、図8に示すように、CPU210は、線分Lx,Lyを直交する2辺とする矩形状の取得範囲表示枠Rを画像表示領域410に表示する。図8においては、取得範囲表示枠Rは一点鎖線で示される。取得範囲表示枠Rの内部のカメラ画像に対応する画素データの部分が取得範囲として設定される。取得範囲設定画面430bの設定値表示欄433には、画像表示領域410上における始点および終点の座標ならびに取得範囲表示枠Rを構成する単位領域の数が表示される。なお、本例においては、取得範囲表示枠Rの右端でかつ下端の点が終点となる。   Subsequently, the user operates the next button 434a in FIG. As a result, as shown in FIG. 8, the CPU 210 displays in the image display area 410 a rectangular acquisition range display frame R having the line segments Lx, Ly as two orthogonal sides. In FIG. 8, the acquisition range display frame R is indicated by a one-dot chain line. The pixel data portion corresponding to the camera image inside the acquisition range display frame R is set as the acquisition range. In the set value display field 433 of the acquisition range setting screen 430b, the coordinates of the start and end points on the image display area 410 and the number of unit areas constituting the acquisition range display frame R are displayed. In this example, the right end and lower end point of the acquisition range display frame R is the end point.

(3−3)画素データの取得範囲の第3の指示方法
図9は、画素データの取得範囲の第3の指示方法に基づく取得範囲設定画面を示す図である。図10は、画素データの取得範囲の第3の指示方法の実行時における表示部400の表示例を示す図である。
(3-3) Third Instruction Method for Obtaining Range of Pixel Data FIG. 9 is a diagram showing an obtaining range setting screen based on a third instruction method for the obtaining range of pixel data. FIG. 10 is a diagram illustrating a display example of the display unit 400 at the time of execution of the third instruction method of the acquisition range of pixel data.

使用者は、図5の取得範囲設定画面430aまたは図7の取得範囲設定画面430bにおいて、チェックボックス431cを指定する。これにより、表示部400に画像表示領域410と並ぶように取得範囲設定画面430a,430bに代えて図9の取得範囲設定画面430cが表示される。取得範囲設定画面430cは、図5の右端設定部432cおよび下端設定部432dに代えて数値を入力可能な単位領域数指定部432g,432hを含む点を除いて、取得範囲設定画面430aと同様の構成を有する。   The user designates the check box 431c on the acquisition range setting screen 430a in FIG. 5 or the acquisition range setting screen 430b in FIG. Accordingly, the acquisition range setting screen 430c of FIG. 9 is displayed in place of the acquisition range setting screens 430a and 430b so as to be aligned with the image display area 410 on the display unit 400. The acquisition range setting screen 430c is the same as the acquisition range setting screen 430a except that the acquisition range setting screen 430c includes unit area number designation units 432g and 432h that can input numerical values instead of the right end setting unit 432c and the lower end setting unit 432d of FIG. It has a configuration.

使用者がチェックボックス431aを指定した場合、表示部400には取得範囲設定画面430cに代えて図5の取得範囲設定画面430aが表示される。これにより、上述の画素データの取得範囲の第1の指示方法が実行可能になる。使用者がチェックボックス431bを指定した場合、表示部400には取得範囲設定画面430cに代えて図7の取得範囲設定画面430bが表示される。これにより、後述する画素データの取得範囲の第2の指示方法が実行可能になる。   When the user specifies the check box 431a, the display unit 400 displays the acquisition range setting screen 430a in FIG. 5 instead of the acquisition range setting screen 430c. This makes it possible to execute the first instruction method for the acquisition range of the pixel data described above. When the user designates the check box 431b, the display unit 400 displays the acquisition range setting screen 430b of FIG. 7 instead of the acquisition range setting screen 430c. This makes it possible to execute a second instruction method for the acquisition range of pixel data, which will be described later.

チェックボックス431cが指定された状態で、図10に示すように、使用者が表示部400の画像表示領域410上で所望の点p1を指定する。次に、使用者が図7の上端設定部432aおよび左端設定部432bを操作する。これにより、CPU210は、点p1を含む単位領域を始領域として定める。本例において、CPU210は、点p1を画素データの取得範囲の上端でかつ左端として認識する。この場合、CPU210は、始領域の上端でかつ左端の点を始点として定める。   With the check box 431c designated, the user designates a desired point p1 on the image display area 410 of the display unit 400, as shown in FIG. Next, the user operates the upper end setting unit 432a and the left end setting unit 432b of FIG. Thereby, the CPU 210 determines the unit area including the point p1 as the start area. In this example, the CPU 210 recognizes the point p1 as the upper end and the left end of the pixel data acquisition range. In this case, the CPU 210 determines a point at the upper end and the left end of the start area as the start point.

その後、使用者が指定範囲設定欄432の単位領域数指定部432gに数値を入力する。これにより、CPU210は、図10に示すように、画像表示領域410上において始領域を含むX方向の単位領域の取得数Nxを定める。また、使用者が指定範囲設定欄432の単位領域数指定部432hに数値を入力する。これにより、CPU210は、図10に示すように、画像表示領域410上において始領域を含むY方向の単位領域の取得数Nyを定める。   Thereafter, the user inputs a numerical value into the unit area number designation section 432g of the designated range setting field 432. Thereby, as shown in FIG. 10, the CPU 210 determines the acquisition number Nx of unit areas in the X direction including the start area on the image display area 410. In addition, the user inputs a numerical value into the unit area number designation section 432 h of the designated range setting field 432. Thereby, as shown in FIG. 10, the CPU 210 determines the acquisition number Ny of the unit area in the Y direction including the start area on the image display area 410.

続いて、使用者が図9の次へボタン434aを操作する。これにより、図10に示すように、CPU210は、始領域を含めてX方向に取得数Nxの単位領域を含みかつ始領域を含めてY方向に取得数Nyの単位領域を含むように矩形状の取得範囲表示枠Rを画像表示領域410に表示する。図10においては、取得範囲表示枠Rは太線で示される。取得範囲表示枠Rの内部のカメラ画像に対応する画素データの部分が取得範囲として設定される。取得範囲設定画面430cの設定値表示欄433には、画像表示領域410上における始点および終点の座標ならびに取得範囲表示枠Rを構成する単位領域の数が表示される。なお、本例においては、取得範囲表示枠Rの右端でかつ下端の点が終点となる。   Subsequently, the user operates the next button 434a in FIG. As a result, as shown in FIG. 10, the CPU 210 has a rectangular shape so as to include the unit area of the acquisition number Nx in the X direction including the start area and include the unit area of the acquisition number Ny in the Y direction including the start area. The acquisition range display frame R is displayed in the image display area 410. In FIG. 10, the acquisition range display frame R is indicated by a bold line. The pixel data portion corresponding to the camera image inside the acquisition range display frame R is set as the acquisition range. In the set value display field 433 of the acquisition range setting screen 430c, the coordinates of the start point and end point on the image display area 410 and the number of unit areas constituting the acquisition range display frame R are displayed. In this example, the right end and lower end point of the acquisition range display frame R is the end point.

(4)画素データの取得範囲の拡大方法
図1のステージ60を固定した状態でのカラーCCDカメラ50の撮影範囲を撮影領域と呼ぶ。使用者は、以下の操作により、カラーCCDカメラ50の撮影領域よりも広い範囲に対応する画素データを取得することができる。
(4) Method for Enlarging Pixel Data Acquisition Range The shooting range of the color CCD camera 50 with the stage 60 in FIG. 1 fixed is called a shooting area. The user can acquire pixel data corresponding to a wider range than the photographing region of the color CCD camera 50 by the following operation.

図11は、カラーCCDカメラ50の撮影領域よりも広い範囲の画素データを取得する場合の表示部400の表示例を示す図である。図12〜図15は、ナビゲーション表示画面を示す図である。使用者は、PC200に接続されたマウス等のポインティングデバイスを用いて図11の条件設定領域420の撮影範囲設定ボタン423を操作する。これにより、表示部400に画像表示領域410と並ぶようにナビゲーション表示画面440が表示される。   FIG. 11 is a diagram illustrating a display example of the display unit 400 when acquiring pixel data in a wider range than the imaging region of the color CCD camera 50. 12 to 15 are diagrams showing navigation display screens. The user operates the shooting range setting button 423 in the condition setting area 420 of FIG. 11 using a pointing device such as a mouse connected to the PC 200. As a result, the navigation display screen 440 is displayed on the display unit 400 so as to be aligned with the image display area 410.

図12に示すように、ナビゲーション表示画面440は、カメラ画像表示領域441、撮影範囲決定ボタン442および撮影範囲拡大ボタン443を含む。カメラ画像表示領域441には、カメラ画像データに基づくカメラ画像が表示される。図12の例では、カメラ画像表示領域441に1つの撮影領域r1に含まれる観察対象物Sのカメラ画像が表示されている。   As shown in FIG. 12, the navigation display screen 440 includes a camera image display area 441, a shooting range determination button 442, and a shooting range enlargement button 443. In the camera image display area 441, a camera image based on the camera image data is displayed. In the example of FIG. 12, the camera image display area 441 displays a camera image of the observation object S included in one shooting area r1.

この状態で、使用者が撮影範囲決定ボタン442を操作し、カメラ画像表示領域441に表示された撮影領域r1内で上述の画素データの取得範囲の第1、第2または第3の指示方法を実行することにより、画素データの取得範囲を指示することができる。   In this state, the user operates the shooting range determination button 442, and the first, second, or third instruction method for the above-described pixel data acquisition range in the shooting area r1 displayed in the camera image display area 441 is performed. By executing, it is possible to indicate the acquisition range of the pixel data.

一方、図12のナビゲーション表示画面440において、使用者が撮影範囲拡大ボタン443を操作すると、CPU210は、図1のカラーCCDカメラ50により撮影領域r1の周囲の領域が撮影されるようにステージ駆動部62を制御することによりステージ60を移動させる。それにより、CPU210は、図13に示すように、撮影領域r1の周囲の撮影領域r2〜r9のカメラ画像データを取得し、撮影領域r1〜r9のカメラ画像データに基づいて撮影領域r1〜r9のカメラ画像をカメラ画像表示領域441に表示させる。   On the other hand, when the user operates the shooting range enlargement button 443 on the navigation display screen 440 in FIG. 12, the CPU 210 causes the stage drive unit to take a picture around the shooting area r1 with the color CCD camera 50 in FIG. The stage 60 is moved by controlling 62. Thereby, as shown in FIG. 13, the CPU 210 acquires the camera image data of the shooting areas r2 to r9 around the shooting area r1, and based on the camera image data of the shooting areas r1 to r9, A camera image is displayed in the camera image display area 441.

この状態で、使用者が撮影範囲決定ボタン442を操作し、カメラ画像表示領域441に表示された撮影領域r1〜r9内で上述の画素データの取得範囲の第1、第2または第3の指示方法を実行することにより、画素データの取得範囲を指示することができる。カメラ画像表示領域441に表示されている観察対象物Sの全体の画素データを取得する場合、使用者は、観察対象物Sが含まれている四角形の領域(図13の例では撮影領域r1〜r9)内で取得範囲表示枠Rを指示することができる。   In this state, the user operates the shooting range determination button 442, and the first, second, or third instruction of the pixel data acquisition range in the shooting areas r1 to r9 displayed in the camera image display area 441 is displayed. By executing the method, the acquisition range of the pixel data can be indicated. When acquiring the entire pixel data of the observation object S displayed in the camera image display area 441, the user can obtain a rectangular area including the observation object S (in the example of FIG. 13, the imaging areas r1 to r1). The acquisition range display frame R can be designated within r9).

一方、図13のナビゲーション表示画面440において、使用者が撮影範囲拡大ボタン443を操作すると、CPU210は、図1のカラーCCDカメラ50により撮影領域r1〜r9の周囲の領域が撮影されるようにステージ駆動部62を制御することによりステージ60を移動させる。それにより、CPU210は、図14に示すように、カメラ画像表示領域441に表示されている撮影領域r1〜r9の周囲の撮影領域撮影領域r10〜r25のカメラ画像データを取得し、撮影領域r1〜r25のカメラ画像データに基づいて、撮影領域r1〜r25のカメラ画像をカメラ画像表示領域441に表示させる。   On the other hand, when the user operates the shooting range expansion button 443 on the navigation display screen 440 in FIG. 13, the CPU 210 causes the stage around the shooting areas r1 to r9 to be shot by the color CCD camera 50 in FIG. The stage 60 is moved by controlling the drive unit 62. Thereby, as shown in FIG. 14, the CPU 210 acquires the camera image data of the shooting areas shooting areas r10 to r25 around the shooting areas r1 to r9 displayed in the camera image display area 441, and the shooting areas r1 to r1. Based on the camera image data of r25, the camera images of the shooting areas r1 to r25 are displayed in the camera image display area 441.

この状態で、使用者が撮影範囲決定ボタン442を操作し、カメラ画像表示領域441に表示された撮影領域r1〜r25内で上述の画素データの取得範囲の第1、第2または第3の指示方法を実行することにより、画素データの取得範囲を指示することができる。カメラ画像表示領域441に表示されている観察対象物Sの全体の画素データを取得する場合、使用者は、観察対象物Sが含まれている四角形の領域(図14の例では撮影領域r1〜r9,r11〜r13,r22〜r24)内で取得範囲表示枠Rを指示することができる。   In this state, the user operates the shooting range determination button 442, and the first, second, or third instruction of the pixel data acquisition range in the shooting areas r1 to r25 displayed in the camera image display area 441 is displayed. By executing the method, the acquisition range of the pixel data can be indicated. When acquiring the entire pixel data of the observation object S displayed in the camera image display area 441, the user can obtain a rectangular area including the observation object S (in the example of FIG. 14, the imaging areas r1 to r1). r9, r11 to r13, r22 to r24) can indicate the acquisition range display frame R.

使用者は、カメラ画像表示領域441の任意の撮影領域にマスクを設定することができる。図14において、観察対象物Sが含まれない撮影領域(図14の例では撮影領域r5,r13,r24)が存在する。このような場合、使用者は、撮影領域r5,r13,r24を指定することにより、図15に示すように撮影領域r5,r13,r24にマスクMを設定することができる。マスクMが設定された撮影領域r5,r13,r24においては、画素データの取得時にレーザ光の走査が行われない。これにより、マスクMが設定された撮影領域は、画素データの取得範囲から除外される。   The user can set a mask in an arbitrary shooting area of the camera image display area 441. In FIG. 14, there are imaging regions (imaging regions r5, r13, r24 in the example of FIG. 14) that do not include the observation object S. In such a case, the user can set the mask M in the imaging regions r5, r13, r24 as shown in FIG. 15 by designating the imaging regions r5, r13, r24. In the imaging regions r5, r13, and r24 in which the mask M is set, the laser beam is not scanned when the pixel data is acquired. As a result, the imaging region in which the mask M is set is excluded from the pixel data acquisition range.

図16は、複数の撮影領域に含まれる観察対象物Sの共焦点画像を示す図である。図15のカメラ画像表示領域441に表示される画素データの取得範囲において、後述する画像処理方法を実行する。これにより、図16に示すように、複数の撮影領域に含まれる観察対象物Sの画素データを取得することができる。この場合、画素データを取得しない撮影領域にマスクMを設定することにより、画素データの取得に要する時間を低減することができる。   FIG. 16 is a diagram illustrating a confocal image of the observation object S included in a plurality of imaging regions. An image processing method to be described later is executed in the acquisition range of the pixel data displayed in the camera image display area 441 in FIG. Thereby, as shown in FIG. 16, the pixel data of the observation object S included in the plurality of imaging regions can be acquired. In this case, it is possible to reduce the time required for acquiring the pixel data by setting the mask M in the imaging region where the pixel data is not acquired.

(5)画像処理方法
図17および図18は、共焦点顕微鏡システム500における画像処理方法を示すフローチャートである。図1のPC200のCPU210は、記憶装置240に記憶される画像処理プログラムに従って画像処理方法を実行する。以下、CPU210による画像処理方法を説明する。なお、フローチャートのステップS15,S16では、共焦点画像データおよび表面画像データを画像データと略記する。
(5) Image Processing Method FIGS. 17 and 18 are flowcharts showing an image processing method in the confocal microscope system 500. 1 executes an image processing method according to an image processing program stored in the storage device 240. Hereinafter, an image processing method by the CPU 210 will be described. In steps S15 and S16 of the flowchart, the confocal image data and the surface image data are abbreviated as image data.

CPU210は、制御部300により与えられるカメラデータに基づいてカメラ画像データを生成し、カメラ画像データに基づいて観察対象物Sのカメラ画像を図4の表示部400の画像表示領域410に表示させる(ステップS1)。   CPU210 produces | generates camera image data based on the camera data given by the control part 300, and displays the camera image of the observation target S on the image display area 410 of the display part 400 of FIG. 4 based on camera image data (FIG. Step S1).

次に、使用者は、上述の画素データの取得範囲の第1、第2または第3の指示方法により画素データの取得範囲を指示する。CPU210は、使用者の指示に基づいて、画素データの取得範囲を設定する(ステップS2)。この場合、取得範囲内の各単位領域の位置および単位領域の数が作業用メモリ230に記憶される。   Next, the user instructs the pixel data acquisition range by the first, second, or third instruction method of the pixel data acquisition range. CPU210 sets the acquisition range of pixel data based on a user's instruction (step S2). In this case, the position of each unit area within the acquisition range and the number of unit areas are stored in the work memory 230.

続いて、使用者は、観察対象物Sに対する図1の対物レンズ3の相対的なZ方向の移動範囲を指示する。CPU210は、使用者の指示に基づいて対物レンズ3のZ方向の移動範囲を設定する(ステップS3)。なお、対物レンズ3のZ方向の移動範囲の指示画面は、図5、図7または図9の取得範囲設定画面430a〜430cにおいて、次へボタン434aが操作されたときに表示される。   Subsequently, the user instructs the movement range of the objective lens 3 in FIG. The CPU 210 sets a movement range in the Z direction of the objective lens 3 based on a user instruction (step S3). The instruction screen for the movement range of the objective lens 3 in the Z direction is displayed when the next button 434a is operated on the acquisition range setting screens 430a to 430c of FIG. 5, FIG. 7, or FIG.

その後、使用者は、図6、図8または図10の表示部400において、条件設定領域420の取得開始ボタン422を操作する。CPU210は、使用者により取得開始ボタン422が操作されたことを検出すると、取得範囲表示枠R内の総画素数を算出する(ステップS4)。   Thereafter, the user operates the acquisition start button 422 in the condition setting area 420 on the display unit 400 of FIG. 6, FIG. 8, or FIG. When the CPU 210 detects that the acquisition start button 422 has been operated by the user, the CPU 210 calculates the total number of pixels in the acquisition range display frame R (step S4).

次に、CPU210は、算出された総画素数と予め図1の記憶装置240に記憶されたしきい値とを比較する(ステップS5)。しきい値は、作業用メモリ230において画像データの表示処理に使用可能な容量(表示処理可能画素数)に設定される。しきい値は、例えば5000×5000画素または10000×10000画素である。算出された総画素数がしきい値以下である場合、CPU210は、画素データの取得率を1に決定し(ステップS6)、ステップS10の処理に移る。   Next, the CPU 210 compares the calculated total number of pixels with a threshold value stored in advance in the storage device 240 of FIG. 1 (step S5). The threshold value is set to a capacity (number of display processable pixels) that can be used for the display process of image data in the work memory 230. The threshold value is, for example, 5000 × 5000 pixels or 10000 × 10000 pixels. If the calculated total number of pixels is equal to or less than the threshold value, the CPU 210 determines the pixel data acquisition rate to be 1 (step S6), and proceeds to the process of step S10.

一方、ステップS5において、算出された総画素数がしきい値よりも大きい場合、CPU210は、算出された総画素数としきい値の2倍とを比較する(ステップS7)。算出された総画素数がしきい値の2倍以下である場合、CPU210は、画素データの取得率を1/4に決定し(ステップS8)、ステップS10の処理に移る。   On the other hand, when the calculated total number of pixels is larger than the threshold value in step S5, the CPU 210 compares the calculated total number of pixels with twice the threshold value (step S7). If the calculated total number of pixels is less than or equal to twice the threshold value, the CPU 210 determines the pixel data acquisition rate to be ¼ (step S8), and proceeds to the process of step S10.

一方、ステップS7において、算出された総画素数がしきい値の2倍よりも大きい場合、CPU210は、画素データの取得率を1/16に決定し(ステップS9)、ステップS10の処理に移る。   On the other hand, if the calculated total number of pixels is larger than twice the threshold value in step S7, the CPU 210 determines the pixel data acquisition rate to be 1/16 (step S9), and proceeds to the processing in step S10. .

次に、CPU210は、ステップS6、ステップS8またはステップS9において決定された画素データの取得率を図1の作業用メモリ230に記憶する(ステップS10)。記憶された取得率に基づいてX方向の走査におけるサンプリング数および走査線数(X方向の走査の回数)を算出する(ステップS11)。   Next, the CPU 210 stores the pixel data acquisition rate determined in step S6, step S8, or step S9 in the work memory 230 of FIG. 1 (step S10). Based on the stored acquisition rate, the number of samplings and the number of scanning lines (the number of scans in the X direction) in scanning in the X direction are calculated (step S11).

続いて、CPU210は、作業用メモリ230に記憶された単位領域の位置に基づいて図1のステージ駆動部62に駆動パルスを与えることによりステージ60を移動させる(ステップS12)。その後、CPU210は、制御部300にX方向の走査におけるサンプリング数、走査線数およびZ方向の移動範囲を通知するとともに単位領域の画素データの取得を指令する(ステップS13)。   Subsequently, the CPU 210 moves the stage 60 by applying a drive pulse to the stage drive unit 62 of FIG. 1 based on the position of the unit area stored in the work memory 230 (step S12). Thereafter, the CPU 210 notifies the control unit 300 of the number of samplings in the scanning in the X direction, the number of scanning lines, and the movement range in the Z direction, and commands the acquisition of the pixel data of the unit area (step S13).

制御部300は、CPU210から通知されたX方向の走査におけるサンプリング数、走査線数およびZ方向の移動範囲に基づいて、図1のX−Yスキャン光学系20を制御するとともに観察対象物SのZ方向の位置を移動させ、受光素子30から出力される受光信号に基づいて画素データをPC200のCPU210に与える。CPU210は、制御部300から単位領域の画素データを取得する(ステップS14)。CPU210は、取得した画素データに基づいて単位領域の複数の共焦点画像データを生成するとともに表面画像データを生成し(ステップS15)、記憶装置240に記憶する。   The control unit 300 controls the XY scan optical system 20 of FIG. 1 and controls the observation object S based on the number of samplings in the X direction, the number of scanning lines, and the movement range in the Z direction notified from the CPU 210. The position in the Z direction is moved, and pixel data is given to the CPU 210 of the PC 200 based on the light reception signal output from the light receiving element 30. CPU210 acquires the pixel data of a unit area from the control part 300 (step S14). The CPU 210 generates a plurality of confocal image data of the unit area based on the acquired pixel data and also generates surface image data (step S15) and stores it in the storage device 240.

ここで、CPU210は、全ての単位領域の共焦点画像データおよび表面画像データを生成したか否かを判定する(ステップS16)。全ての単位領域の共焦点画像データおよび表面画像データを生成していない場合、CPU210は、ステップS12の処理に戻る。CPU210は、次の単位領域の共焦点画像データの生成が可能な位置にステージ60を移動させ、ステップS13〜S16の処理を繰り返す。   Here, the CPU 210 determines whether or not the confocal image data and the surface image data of all the unit areas have been generated (step S16). When the confocal image data and the surface image data of all the unit areas have not been generated, the CPU 210 returns to the process of step S12. The CPU 210 moves the stage 60 to a position where the confocal image data of the next unit area can be generated, and repeats the processes of steps S13 to S16.

一方、ステップS16において、全ての単位領域の共焦点画像データおよび表面画像データを生成した場合、CPU210は、記憶装置240に記憶された複数の単位領域の表面画像データを記憶装置240を用いて連結する(ステップS17)。これにより、指示された取得範囲の表面画像データが生成される。取得範囲表示枠R内に単位領域が1つしか含まれない場合、ステップS17において表面画像データの連結は行われない。   On the other hand, when the confocal image data and the surface image data of all the unit areas are generated in step S <b> 16, the CPU 210 connects the surface image data of the plurality of unit areas stored in the storage device 240 using the storage device 240. (Step S17). Thereby, surface image data of the designated acquisition range is generated. When only one unit region is included in the acquisition range display frame R, the surface image data is not connected in step S17.

その後、CPU210は、連結された表面画像データに基づく観察対象物Sの表面の画像を作業用メモリ230を用いて表示部400に表示させる(ステップS18)。最後に、CPU210は、連結された表面画像データを記憶装置240に記憶し、画像処理方法を終了する。   Thereafter, the CPU 210 causes the display unit 400 to display an image of the surface of the observation object S based on the connected surface image data using the work memory 230 (step S18). Finally, the CPU 210 stores the connected surface image data in the storage device 240 and ends the image processing method.

図19は、画素データの取得率が1の場合に生成される共焦点画像データを示す図である。図20は、画素データの取得率が1/4の場合に生成される共焦点画像データを示す図である。図21は、画素データの取得率が1/16の場合に生成される共焦点画像データを示す図である。ここで、Z方向の1つの位置で生成される画素データが示される。   FIG. 19 is a diagram illustrating the confocal image data generated when the pixel data acquisition rate is 1. FIG. FIG. 20 is a diagram illustrating the confocal image data generated when the pixel data acquisition rate is 1/4. FIG. 21 is a diagram illustrating the confocal image data generated when the pixel data acquisition rate is 1/16. Here, pixel data generated at one position in the Z direction is shown.

図19〜図21においては、共焦点画像データの取得率を視覚的に表現するために、1または複数の単位領域の共焦点画像データを構成する画素データをドットで図示している。   In FIG. 19 to FIG. 21, the pixel data constituting the confocal image data of one or a plurality of unit areas is illustrated by dots in order to visually express the acquisition rate of the confocal image data.

図19の例では、1つの単位領域s1の共焦点画像データが生成される。ステップS6において画素データの取得率が1に決定された場合、X方向の走査におけるサンプリング数は取得範囲表示枠R内のX方向の走査における最大サンプリング数に設定され、走査線数は取得範囲表示枠R内の最大走査線数に設定される。この場合、図19に示すように、単位領域s1における最大画素数に対応する画素データがX方向およびY方向において間引きされることなく取得される。   In the example of FIG. 19, confocal image data of one unit region s1 is generated. When the pixel data acquisition rate is determined to be 1 in step S6, the sampling number in the X-direction scanning is set to the maximum sampling number in the X-direction scanning in the acquisition range display frame R, and the scanning line number is displayed in the acquisition range display. The maximum number of scanning lines in the frame R is set. In this case, as shown in FIG. 19, pixel data corresponding to the maximum number of pixels in the unit region s1 is acquired without being thinned out in the X direction and the Y direction.

図20の例では、4つの単位領域s1〜s4の共焦点画像データが生成される。ステップS8において画素データの取得率が1/4に決定された場合、X方向の走査におけるサンプリング数は取得範囲表示枠R内のX方向の走査における最大サンプリング数の1/2に設定され、走査線数は取得範囲表示枠R内の最大走査線数の1/2に設定される。この場合、図20に示すように、単位領域s1〜s4における最大画素数に対応する画素データがX方向およびY方向において1/2に間引きされて取得される。   In the example of FIG. 20, the confocal image data of the four unit regions s1 to s4 is generated. When the pixel data acquisition rate is determined to be ¼ in step S8, the number of samplings in the X-direction scanning is set to ½ of the maximum number of samplings in the X-direction scanning in the acquisition range display frame R, and scanning is performed. The number of lines is set to ½ of the maximum number of scanning lines in the acquisition range display frame R. In this case, as shown in FIG. 20, pixel data corresponding to the maximum number of pixels in the unit regions s1 to s4 is acquired by being thinned out in half in the X direction and the Y direction.

図21の例では、16つの単位領域s1の共焦点画像データが生成される。ステップS9において画素データの取得率が1/16に決定された場合、X方向の走査におけるサンプリング数は取得範囲表示枠R内のX方向の走査における最大サンプリング数の1/4に設定され、走査線数は取得範囲表示枠R内の最大走査線数の1/4に設定される。この場合、図21に示すように、単位領域s1〜s16における最大画素数に対応する画素データがX方向およびY方向において1/4に間引きされて取得される。   In the example of FIG. 21, confocal image data of 16 unit regions s1 is generated. When the pixel data acquisition rate is determined to be 1/16 in step S9, the sampling number in the X-direction scanning is set to ¼ of the maximum sampling number in the X-direction scanning in the acquisition range display frame R. The number of lines is set to ¼ of the maximum number of scanning lines in the acquisition range display frame R. In this case, as shown in FIG. 21, pixel data corresponding to the maximum number of pixels in the unit areas s1 to s16 is acquired by being thinned out to 1/4 in the X direction and the Y direction.

図22は、画素データの取得率が1の場合の観察対象物Sの超深度画像を示す図である。図23は、画素データの取得率が1/4の場合の観察対象物Sの超深度画像を示す図である。図24は、画素データの取得率が1/16の場合の観察対象物Sの超深度画像を示す図である。   FIG. 22 is a diagram illustrating an ultra-deep image of the observation object S when the pixel data acquisition rate is 1. FIG. FIG. 23 is a diagram illustrating an ultra-deep image of the observation target S when the pixel data acquisition rate is ¼. FIG. 24 is a diagram illustrating an ultra-deep image of the observation target S when the pixel data acquisition rate is 1/16.

図22〜図24に示すように、CPU210は、使用者の指示に基づいて、記憶装置240に記憶された超深度画像データに対応する超深度画像を作業用メモリ230を用いて表示部400の画像表示領域410に表示させることができる。同様に、CPU210は、使用者の指示に基づいて、記憶装置240に記憶された高さ画像データに対応する高さ画像を作業用メモリ230を用いて表示部400の画像表示領域410に表示させることができる。   As illustrated in FIGS. 22 to 24, the CPU 210 uses the work memory 230 to display an ultra-depth image corresponding to the ultra-depth image data stored in the storage device 240 based on a user instruction. It can be displayed in the image display area 410. Similarly, the CPU 210 displays a height image corresponding to the height image data stored in the storage device 240 on the image display area 410 of the display unit 400 using the work memory 230 based on a user instruction. be able to.

なお、本実施の形態では、使用者により指定された画素データの取得範囲内の総画素数と記憶装置240に記憶されたしきい値との比較結果に応じて、X方向のサンプリング数および走査線数の両方が間引かれるが、これに限定されない。使用者により指定された取得範囲内の総画素数と記憶装置240に記憶されたしきい値との比較結果に応じて、走査線数のみが間引かれてもよい。   In the present embodiment, the number of samples in the X direction and the scanning are determined according to the comparison result between the total number of pixels in the pixel data acquisition range designated by the user and the threshold value stored in the storage device 240. Although both of the number of lines are thinned out, the present invention is not limited to this. Only the number of scanning lines may be thinned out according to the comparison result between the total number of pixels within the acquisition range designated by the user and the threshold value stored in the storage device 240.

サンプリング数が間引かれても、X方向の走査回数および走査間隔は変化しないため、実質的に単位領域の画素データの取得に要する時間はほとんど短縮されない。一方、走査線数が間引かれると、X−Yスキャン光学系20のY方向への走査回数が減少するため、単位領域の画素データの取得に要する時間が大幅に短縮される。   Even if the number of samplings is thinned out, the number of scans in the X direction and the scan interval do not change, so that the time required for acquiring pixel data of the unit region is substantially shortened. On the other hand, when the number of scanning lines is thinned, the number of scans in the Y direction of the XY scan optical system 20 decreases, so that the time required to acquire pixel data of the unit region is greatly shortened.

このように、使用者により指定された取得範囲内の総画素数に相当する画素データの量がCPU210により算出される。算出された画素データの量と表示のために使用可能な作業用メモリ230の容量とが比較される。算出された画素データの量が表示のために使用可能な作業用メモリ230の容量よりも大きい場合、X−Yスキャン光学系20の機械的な走査、すなわちX方向のサンプリング数および走査線数が間引かれる。これにより、生成される表面画像データの量を削減することができる。また、表面画像データの生成後に間引きを行う場合と異なり、表示できない量の表面画像データの生成に多大な時間を費やす必要がない。その結果、観察対象物Sの表面の画像の表示に要する時間を短縮することができる。   Thus, the CPU 210 calculates the amount of pixel data corresponding to the total number of pixels within the acquisition range specified by the user. The calculated amount of pixel data is compared with the capacity of the working memory 230 that can be used for display. When the calculated amount of pixel data is larger than the capacity of the working memory 230 that can be used for display, the mechanical scanning of the XY scan optical system 20, that is, the number of samplings and the number of scanning lines in the X direction is large. Thinned out. Thereby, the amount of surface image data to be generated can be reduced. Further, unlike the case where thinning is performed after the generation of surface image data, it is not necessary to spend a great deal of time in generating the amount of surface image data that cannot be displayed. As a result, the time required for displaying the image of the surface of the observation object S can be shortened.

なお、走査線数を間引くことにより表面画像データの量を削減しても、表面画像データの量が表示のために使用可能な作業用メモリ230の容量よりも大きくなる場合には、生成された表面画像データを間引くことにより表面画像データの量を表示のために使用可能な作業用メモリ230の容量よりも小さくしてもよい。   If the amount of surface image data is larger than the capacity of the work memory 230 that can be used for display even if the amount of surface image data is reduced by thinning out the number of scanning lines, the generated data is generated. By thinning out the surface image data, the amount of the surface image data may be made smaller than the capacity of the working memory 230 that can be used for display.

(6)画像処理の並行処理
画像処理において、CPU210は、図18のステップS12〜S16の処理を順次実行するが、これに限定されない。CPU210は、ステップS12〜S16の処理の一部を並行して実行してもよい。
(6) Parallel processing of image processing In the image processing, the CPU 210 sequentially executes the processing of steps S12 to S16 in Fig. 18, but is not limited thereto. The CPU 210 may execute part of the processes of steps S12 to S16 in parallel.

図25は、画像処理の取得処理の並行処理のタイミングチャートである。図25の横軸は時間である。   FIG. 25 is a timing chart of parallel processing of image processing acquisition processing. The horizontal axis of FIG. 25 is time.

1つの単位領域の画像処理は、走査前の処理(以下、前処理と呼ぶ)、走査中の処理(以下、走査中処理と呼ぶ)および走査後の処理(以下、後処理と呼ぶ)からなる。   The image processing of one unit area includes processing before scanning (hereinafter referred to as preprocessing), processing during scanning (hereinafter referred to as processing during scanning), and processing after scanning (hereinafter referred to as postprocessing). .

前処理は、記憶装置240における共焦点画像データの記憶領域の確保、単位領域の位置等のパラメータの設定、ステージ60の移動、およびX−Yスキャン光学系20の安定待ちを含む。走査中処理は、X−Yスキャン光学系20によるレーザ光の走査、対物レンズ3のZ方向の移動、制御部300からPC200への画素データの転送およびPCでの画素データの記憶を含む。後処理は、PC200での共焦点画像データの生成、表面画像データの生成および表面画像データの記憶を含む。   The preprocessing includes securing a confocal image data storage area in the storage device 240, setting parameters such as the position of the unit area, moving the stage 60, and waiting for stability of the XY scan optical system 20. The processing during scanning includes scanning of laser light by the XY scanning optical system 20, movement of the objective lens 3 in the Z direction, transfer of pixel data from the control unit 300 to the PC 200, and storage of pixel data in the PC. The post-processing includes generation of confocal image data on the PC 200, generation of surface image data, and storage of the surface image data.

図25に示すように、1番目の単位領域についての前処理および走査中処理が行われた後、1番目の単位領域についての後処理の開始と同時に2番目の単位領域についての前処理が開始される。2番目の単位領域についての前処理の終了後に2番目の単位領域についての走査中処理および後処理が順に行われる。同様に、2番目の単位領域についての後処理の開始と同時に3番目の単位領域についての前処理が開始される。3番目の単位領域の前処理の終了後に3番目の単位領域の走査中処理および後処理が順に行われる。   As shown in FIG. 25, after the preprocessing for the first unit area and the processing during scanning are performed, the preprocessing for the second unit area starts simultaneously with the start of the postprocessing for the first unit area. Is done. After the pre-processing for the second unit area is completed, the in-scan process and the post-process for the second unit area are sequentially performed. Similarly, pre-processing for the third unit region is started simultaneously with the start of post-processing for the second unit region. After the preprocessing for the third unit area is completed, the in-scan process and the post-process for the third unit area are sequentially performed.

このように、各単位領域の後処理と次の単位領域の走査中処理および後処理を並列して行うことができる。それにより、複数の単位領域の画素データの取得に要する時間を低減することができる。   In this way, the post-processing of each unit area can be performed in parallel with the in-scan processing and post-processing of the next unit area. Thereby, it is possible to reduce the time required to acquire pixel data of a plurality of unit areas.

(7)対物レンズのZ方向の移動範囲の自動設定
図17のステップS3においては、対物レンズ3のZ方向の移動範囲は、使用者により手動で設定されるが、これに限定されない。対物レンズ3のZ方向の移動範囲は、CPU210により自動的に設定されてもよい。
(7) Automatic setting of the Z-direction movement range of the objective lens In step S3 of FIG. 17, the Z-direction movement range of the objective lens 3 is manually set by the user, but is not limited thereto. The movement range of the objective lens 3 in the Z direction may be automatically set by the CPU 210.

手動設定においては、対物レンズ3のZ方向の移動範囲は、観察対象物Sの表面の最も低い部分および最も高い部分に対応する画素データが適切に取得されるように設定される。したがって、観察対象物Sの表面が大きな凹凸または大きな傾斜を含む場合、対物レンズ3のZ方向の移動範囲を大きくする必要がある。そのため、取得される画素データの容量および画素データの取得に要する時間が増加する。   In the manual setting, the movement range of the objective lens 3 in the Z direction is set so that pixel data corresponding to the lowest and highest portions of the surface of the observation object S is appropriately acquired. Therefore, when the surface of the observation object S includes large unevenness or large inclination, it is necessary to increase the movement range of the objective lens 3 in the Z direction. Therefore, the capacity of the acquired pixel data and the time required for acquiring the pixel data increase.

一方、自動設定においては、観察対象物Sの表面の高低差に対応して単位領域ごとに対物レンズ3のZ方向の移動範囲が設定される。以下、対物レンズ3のZ方向の移動範囲を自動設定するための上下限自動設定処理の詳細について説明する。   On the other hand, in the automatic setting, the movement range in the Z direction of the objective lens 3 is set for each unit area corresponding to the height difference of the surface of the observation object S. Hereinafter, details of the upper and lower limit automatic setting processing for automatically setting the movement range of the objective lens 3 in the Z direction will be described.

図26は、1つの画素についての対物レンズ3のZ方向の位置と有効な画素データの値との関係を説明するための図である。図26において、縦軸は画素データの値を表し、横軸は対物レンズ3のZ方向の位置を表す。図26の横軸においては、左から右に向かって対物レンズ3のZ方向の位置が高くなる。   FIG. 26 is a diagram for explaining the relationship between the position in the Z direction of the objective lens 3 for one pixel and the value of effective pixel data. In FIG. 26, the vertical axis represents pixel data values, and the horizontal axis represents the position of the objective lens 3 in the Z direction. In the horizontal axis of FIG. 26, the position of the objective lens 3 in the Z direction increases from left to right.

画素データは受光素子30から出力される受光信号に対応するデジタル信号である。そのため、画素データの値は、受光素子30のゲインが大きくなるほど大きく、受光素子30のゲインが小さくなるほど小さい。また、画素データはA/D変換器から出力される。したがって、画素データの上限値は、A/D変換器の出力レンジの上限値(以下、出力上限値と呼ぶ)である。   The pixel data is a digital signal corresponding to the light reception signal output from the light receiving element 30. For this reason, the value of the pixel data increases as the gain of the light receiving element 30 increases and decreases as the gain of the light receiving element 30 decreases. Pixel data is output from the A / D converter. Therefore, the upper limit value of the pixel data is the upper limit value of the output range of the A / D converter (hereinafter referred to as the output upper limit value).

画素データの値が出力上限値maxで飽和すると、受光素子30の受光強度に対応する画素データの値を得ることができない。また、画素データの値がノイズレベルnl以下であると、画素データのピークを受光素子30のノイズから明確に識別することはできない。以下では、出力上限値maxよりも小さく、ノイズレベルnlよりも大きい画素データの値を有効な画素データの値と呼ぶ。   When the pixel data value is saturated at the output upper limit value max, the pixel data value corresponding to the light receiving intensity of the light receiving element 30 cannot be obtained. If the pixel data value is less than or equal to the noise level nl, the peak of the pixel data cannot be clearly identified from the noise of the light receiving element 30. Hereinafter, pixel data values that are smaller than the output upper limit value max and larger than the noise level nl are referred to as effective pixel data values.

図26においては、有効な画素データの値の範囲が矢印HLで示される。この場合、曲線l1で示すように、受光素子30に任意の第1のゲインが設定されているときに、1つの画素についての画素データの値は、対物レンズ3がピーク位置z0よりも低い位置ma1からピーク位置z0よりも高い位置mb1までの範囲にある状態で有効となる。   In FIG. 26, a range of valid pixel data values is indicated by an arrow HL. In this case, as indicated by the curve l1, when an arbitrary first gain is set in the light receiving element 30, the pixel data value for one pixel is a position where the objective lens 3 is lower than the peak position z0. It is effective in a state where it is in a range from ma1 to a position mb1 higher than the peak position z0.

したがって、1つの画素についての有効な画素データの値を取得するための対物レンズ3のZ方向の上限位置および下限位置は、出力上限値maxおよびノイズレベルnlに応じて定まる。   Therefore, the upper limit position and the lower limit position in the Z direction of the objective lens 3 for obtaining a valid pixel data value for one pixel are determined according to the output upper limit value max and the noise level nl.

図26に曲線l2で示すように、受光素子30に第1のゲインよりも小さい第2のゲインが設定されると、画素データの値は、受光素子30に第1のゲインが設定されている場合に比べて全体的に小さくなる。この場合、1つの画素についての画素データの値は、対物レンズ3が位置ma1よりも高い位置ma2から位置mb1よりも低い位置mb2までの範囲にある状態で有効となる。このように、受光素子30に設定されるゲインが変化すると、有効な画素データの値を得ることができる対物レンズ3のZ方向の上限位置および下限位置も変化する。   As indicated by a curve l2 in FIG. 26, when a second gain smaller than the first gain is set in the light receiving element 30, the pixel data value is set to the first gain in the light receiving element 30. Compared to the case, it becomes smaller overall. In this case, the value of the pixel data for one pixel is effective when the objective lens 3 is in the range from the position ma2 higher than the position ma1 to the position mb2 lower than the position mb1. As described above, when the gain set in the light receiving element 30 is changed, the upper limit position and the lower limit position in the Z direction of the objective lens 3 capable of obtaining effective pixel data values are also changed.

図27は、高さ画像データおよび超深度画像データの生成時における対物レンズ3のZ方向の上限位置および下限位置の設定方法を説明するための図である。   FIG. 27 is a diagram for explaining a method of setting the upper limit position and the lower limit position in the Z direction of the objective lens 3 when generating the height image data and the ultra-depth image data.

初めに対物レンズ3をZ方向の任意の位置zs1に保持した状態で、単位領域のX方向およびY方向の走査を行うことにより、単位領域内の全ての画素に対応する画素データを取得する。この状態で、全ての画素データの値が予め定められた規定値以上でない場合、受光素子30のゲインを一定量増加させる。   First, pixel data corresponding to all the pixels in the unit region is acquired by performing scanning in the X direction and Y direction of the unit region with the objective lens 3 held at an arbitrary position zs1 in the Z direction. In this state, when the values of all the pixel data are not equal to or greater than a predetermined value, the gain of the light receiving element 30 is increased by a certain amount.

次に、後述する評価値のピーク位置探索処理により、図27に太い実線の矢印naで示すように、例えば対物レンズ3を一定量ずつZ方向に移動させつつ評価値を算出し、算出された評価値に基づいて評価ピーク位置Ez0を探索する。ここで、評価値は、単位領域の全画素に対応する画素データの値の和である。また、評価値がピーク値を示すときの対物レンズ3のZ方向の位置を評価ピーク位置Ez0と呼ぶ。この探索時には、算出される評価値が、出力上限値Emaxに達するごとに一定量ゲインを減少させる。出力上限値Emaxは、A/D変換器30の出力上限値maxと単位領域内の全画素数との乗算値である。これにより、検出される評価ピーク位置Ez0を基準として対物レンズ3の上限位置UPおよび下限位置BPを探索することができる。   Next, as shown by a thick solid line arrow na in FIG. 27, the evaluation value is calculated by moving the objective lens 3 in the Z direction by a certain amount, for example, by a peak position search process of the evaluation value described later. The evaluation peak position Ez0 is searched based on the evaluation value. Here, the evaluation value is the sum of the values of pixel data corresponding to all the pixels in the unit area. The position in the Z direction of the objective lens 3 when the evaluation value shows the peak value is referred to as an evaluation peak position Ez0. During this search, the gain is decreased by a certain amount each time the calculated evaluation value reaches the output upper limit Emax. The output upper limit Emax is a product of the output upper limit max of the A / D converter 30 and the total number of pixels in the unit area. Thereby, the upper limit position UP and the lower limit position BP of the objective lens 3 can be searched with the detected evaluation peak position Ez0 as a reference.

続いて、対物レンズ3を評価ピーク位置Ez0に移動させる。この状態で、単位領域のX方向およびY方向の走査を行うことにより、単位領域内の全ての画素に対応する画素データを取得する。   Subsequently, the objective lens 3 is moved to the evaluation peak position Ez0. In this state, pixel data corresponding to all the pixels in the unit region is acquired by scanning the unit region in the X direction and the Y direction.

いずれかの画素データの値が出力上限値maxである場合には、その画素データの値は有効ではない。そこで、受光素子30のゲインを一定量減少させる。その後、再び単位領域のX方向およびY方向の走査を行うことにより、単位領域内の全ての画素に対応する画素データを取得する。   When the value of any pixel data is the output upper limit value max, the value of the pixel data is not valid. Therefore, the gain of the light receiving element 30 is decreased by a certain amount. Thereafter, by scanning the unit region in the X direction and the Y direction again, pixel data corresponding to all the pixels in the unit region is acquired.

上記のゲイン調整および画素データの取得を繰り返すことにより、全ての画素データの値が出力上限値maxよりも小さくなった場合に、全ての画素データの値がノイズレベルnl以下であるか否かを判定する。   Whether the values of all the pixel data are equal to or less than the noise level nl when the values of all the pixel data become smaller than the output upper limit value max by repeating the above gain adjustment and the acquisition of the pixel data. judge.

全ての画素データの値がノイズレベルnl以下でない場合、図27に太い実線の矢印nbで示すように、対物レンズ3を一定量上方向に移動させる。   If all the pixel data values are not less than or equal to the noise level nl, the objective lens 3 is moved upward by a certain amount, as shown by a thick solid arrow nb in FIG.

続いて、上記のゲイン調整、画素データの取得、画素データの判定動作および対物レンズ3の上方向への移動を繰り返す。それにより、最終的に、全ての画素データの値がノイズレベルnl以下であると判定されたときの対物レンズ3のZ方向の位置を上限位置UPとして設定する。   Subsequently, the above gain adjustment, pixel data acquisition, pixel data determination operation, and upward movement of the objective lens 3 are repeated. Thereby, finally, the position in the Z direction of the objective lens 3 when it is determined that the values of all the pixel data are equal to or less than the noise level nl is set as the upper limit position UP.

上限位置UPの設定後、対物レンズ3を最後に受光素子30のゲインが減少された時点の位置までZ方向に移動させる。この状態で、単位領域のX方向およびY方向の走査を行うことにより、単位領域内の全ての画素に対応する画素データを取得する。   After the upper limit position UP is set, the objective lens 3 is moved in the Z direction to the position when the gain of the light receiving element 30 is finally decreased. In this state, pixel data corresponding to all the pixels in the unit region is acquired by scanning the unit region in the X direction and the Y direction.

この場合においても、上記と同様に、いずれかの画素データの値が出力上限値maxである場合には、受光素子30のゲインを一定量減少させる。その後、再び単位領域のX方向およびY方向の走査を行うことにより、単位領域内の全ての画素に対応する画素データを取得する。   Also in this case, similarly to the above, when the value of any pixel data is the output upper limit value max, the gain of the light receiving element 30 is decreased by a certain amount. Thereafter, by scanning the unit region in the X direction and the Y direction again, pixel data corresponding to all the pixels in the unit region is acquired.

上記のゲイン調整および画素データの取得を繰り返すことにより、全ての画素データの値が出力上限値maxよりも小さくなった場合には、全ての画素データの値がノイズレベルnl以下であるか否かを判定する。   If the values of all the pixel data become smaller than the output upper limit value max by repeating the above gain adjustment and pixel data acquisition, whether or not the values of all the pixel data are equal to or less than the noise level nl Determine.

全ての画素データの値がノイズレベルnl以下でない場合、図27に太い実線の矢印ncで示すように、対物レンズ3を一定量下方向に移動させる。続いて、上記のゲイン調整、画素データの取得、画素データの判定動作および対物レンズ3の下方向への移動を繰り返す。最終的に、全ての画素データの値がノイズレベルnl以下であると判定されたときの対物レンズ3のZ方向の位置を下限位置BPとして設定する。   If all the pixel data values are not less than or equal to the noise level nl, the objective lens 3 is moved downward by a certain amount, as indicated by the thick solid arrow nc in FIG. Subsequently, the above gain adjustment, pixel data acquisition, pixel data determination operation, and downward movement of the objective lens 3 are repeated. Finally, the position in the Z direction of the objective lens 3 when it is determined that all the pixel data values are equal to or less than the noise level nl is set as the lower limit position BP.

ここで、受光素子30のゲインが変化すると、有効な画素データの値を得ることができる対物レンズ3のZ方向の範囲も変化する。そこで、上限位置UPの設定後の下限位置BPの設定時に受光素子30のゲインが減少された場合、対物レンズ3を最後に受光素子30のゲインが減少された時点の位置に移動させた後、図27に太い実線の矢印ndで示すように、再び上限位置UPを探索する。   Here, when the gain of the light receiving element 30 changes, the range in the Z direction of the objective lens 3 in which effective pixel data values can be obtained also changes. Therefore, when the gain of the light receiving element 30 is reduced when the lower limit position BP is set after the upper limit position UP is set, the objective lens 3 is moved to the position at the time when the gain of the light receiving element 30 is finally reduced, As shown by a thick solid line arrow nd in FIG. 27, the upper limit position UP is searched again.

再度の上限位置UPの探索時には、対物レンズ3は初回の上限位置UPの探索時とほぼ同じ範囲でZ方向に移動する。そのため、受光素子30のゲインはほとんど減少されない。これにより、受光素子30が下限位置BPの設定時のゲインとほぼ同じゲインに調整された状態で、上限位置UPが再設定される。   When searching for the upper limit position UP again, the objective lens 3 moves in the Z direction within substantially the same range as when searching for the first upper limit position UP. Therefore, the gain of the light receiving element 30 is hardly reduced. As a result, the upper limit position UP is reset while the light receiving element 30 is adjusted to substantially the same gain as that when the lower limit position BP is set.

上記のように、上下限自動設定処理が実行された場合には、ピーク位置探索処理により受光素子30のゲインが調整されつつ対物レンズ3のピーク位置z0が探索される。この場合、画素データの値が出力上限値maxで飽和しない。また、画素データの値がノイズレベルnlよりも小さくならない。これにより、対物レンズ3が移動することによる画素データの値の変化におけるピークの位置が検出され、ピーク位置z0が自動的に検出される。   As described above, when the upper and lower limit automatic setting process is executed, the peak position z0 of the objective lens 3 is searched while the gain of the light receiving element 30 is adjusted by the peak position search process. In this case, the value of the pixel data is not saturated at the output upper limit value max. Further, the value of the pixel data does not become smaller than the noise level nl. Thereby, the peak position in the change in the value of the pixel data due to the movement of the objective lens 3 is detected, and the peak position z0 is automatically detected.

その後、検出されたピーク位置z0に対物レンズ3が移動され、上限位置UPおよび下限位置BPの探索が行われる。これにより、高さ画像データおよび超深度画像データの生成時の対物レンズ3の上限位置UPおよび下限位置BPが設定される。   Thereafter, the objective lens 3 is moved to the detected peak position z0, and the upper limit position UP and the lower limit position BP are searched. Thereby, the upper limit position UP and the lower limit position BP of the objective lens 3 when the height image data and the ultra-depth image data are generated are set.

次に、評価値のピーク位置探索処理について説明する。図28は、評価値のピーク位置探索処理を説明するための図である。図28(a)に対物レンズ3のZ方向の位置と評価値との関係が示される。図28(a)において、縦軸は評価値を表し、横軸は対物レンズ3のZ方向の位置を表す。図28(a)の横軸においては、左から右に向かって対物レンズ3のZ方向の位置が高くなる。   Next, evaluation value peak position search processing will be described. FIG. 28 is a diagram for explaining an evaluation value peak position search process. FIG. 28A shows the relationship between the position of the objective lens 3 in the Z direction and the evaluation value. In FIG. 28A, the vertical axis represents the evaluation value, and the horizontal axis represents the position of the objective lens 3 in the Z direction. On the horizontal axis in FIG. 28A, the position of the objective lens 3 in the Z direction increases from left to right.

ピーク位置探索処理の開始時においては、受光素子30のゲインは、算出される評価値が出力上限値Emaxよりも小さくかつノイズレベルnlよりも十分に大きくなるように設定される。出力上限値Emaxは、A/D変換器の出力上限値maxと単位領域の画素数との乗算値である。受光素子30のゲインは、算出される評価値が出力上限値Emaxの例えば1/2になるように設定される。   At the start of the peak position search process, the gain of the light receiving element 30 is set so that the calculated evaluation value is smaller than the output upper limit Emax and sufficiently larger than the noise level nl. The output upper limit Emax is a product of the output upper limit max of the A / D converter and the number of pixels in the unit area. The gain of the light receiving element 30 is set such that the calculated evaluation value is, for example, 1/2 of the output upper limit value Emax.

その後、図28(a)に太い実線の矢印で示すように、対物レンズ3を現在のZ方向の位置zs1(評価ピーク位置z0よりも低い位置)から徐々に上に向かう方向に移動させつつ設定されたゲインで単位領域の全画素に対応する画素データを取得するとともに評価値を算出する。   Thereafter, as shown by a thick solid arrow in FIG. 28A, the objective lens 3 is set while being gradually moved upward from the current position zs1 in the Z direction (position lower than the evaluation peak position z0). The pixel data corresponding to all the pixels in the unit area is acquired with the gain obtained and the evaluation value is calculated.

この場合、評価値は対物レンズ3がピーク位置z0に到達するまでの間、指数関数的に増加する。そこで、このピーク位置探索処理においては、評価値が出力上限値Emaxに達するごとに一定量ゲインを減少させる。   In this case, the evaluation value increases exponentially until the objective lens 3 reaches the peak position z0. Therefore, in this peak position search process, the gain is decreased by a certain amount every time the evaluation value reaches the output upper limit value Emax.

これにより、対物レンズ3がZ方向の位置zs1から評価ピーク位置Ez0に移動するまでの間、指数関数的に増加する画素データの値が出力上限値maxで飽和することが防止される。その結果、評価ピーク位置Ez0の近傍では、最終的に受光素子30のゲインが適切な値に設定される。   This prevents the value of the pixel data that increases exponentially from being saturated at the output upper limit max until the objective lens 3 moves from the position zs1 in the Z direction to the evaluation peak position Ez0. As a result, in the vicinity of the evaluation peak position Ez0, the gain of the light receiving element 30 is finally set to an appropriate value.

評価値は受光素子30のゲインが減少すると小さくなる。そのため、ピーク位置探索処理においては、受光素子30のゲインの減少回数に基づいて、算出された評価値を補正する。   The evaluation value decreases as the gain of the light receiving element 30 decreases. Therefore, in the peak position search process, the calculated evaluation value is corrected based on the number of times the gain of the light receiving element 30 is decreased.

この補正は、例えば、算出された評価値にピーク位置探索処理の開始後の受光素子30のゲインの減少回数と出力上限値Emaxとの乗算値を加算することにより行う。これにより、対物レンズ3のZ方向の全範囲に渡って、補正後の評価値と受光素子30の受光強度とを近似的に対応付けることが可能となる。   This correction is performed, for example, by adding a multiplication value of the gain reduction count of the light receiving element 30 after the start of the peak position search process and the output upper limit value Emax to the calculated evaluation value. Thereby, it is possible to approximately associate the corrected evaluation value with the light receiving intensity of the light receiving element 30 over the entire range of the objective lens 3 in the Z direction.

図28(b)に対物レンズ3のZ方向の位置と補正された評価値との関係が示される。図28(b)において、縦軸は補正後の評価値を表し、横軸は対物レンズ3のZ方向の位置を表す。図28(b)の横軸においては、左から右に向かって対物レンズ3のZ方向の位置が高くなる。   FIG. 28B shows the relationship between the position of the objective lens 3 in the Z direction and the corrected evaluation value. In FIG. 28B, the vertical axis represents the evaluation value after correction, and the horizontal axis represents the position of the objective lens 3 in the Z direction. On the horizontal axis in FIG. 28B, the position of the objective lens 3 in the Z direction increases from left to right.

図28(b)に示すように、補正後の評価値は、受光素子30の受光強度と同様に、ピーク値まで指数関数的に増加した後、ピーク値から指数関数的に減少する。これにより、対物レンズ3をZ方向の一方向(上に向かう方向)に移動させることにより、補正後の評価値の増減が切り替わったことが検出され、補正後の評価値の増減の切り替わりの後に補正後の評価値が予め定められた値pi2分減少したことが検出され、補正後の評価値の増減の切り替わりの前に補正後の評価値が予め定められた値pi1分増加したことが検出された場合に、評価値がピーク値を示すときの対物レンズ3の位置を評価ピーク位置Ez0として検出することができる。   As shown in FIG. 28B, the corrected evaluation value increases exponentially to the peak value and then decreases exponentially from the peak value, similarly to the light receiving intensity of the light receiving element 30. Thereby, it is detected that the increase or decrease in the evaluation value after correction is switched by moving the objective lens 3 in one direction (upward direction) in the Z direction. It is detected that the evaluation value after correction has decreased by a predetermined value pi2, and it is detected that the evaluation value after correction has increased by a predetermined value pi1 before switching the increase / decrease in the evaluation value after correction. In this case, the position of the objective lens 3 when the evaluation value shows the peak value can be detected as the evaluation peak position Ez0.

画素データの値は、受光素子30のノイズの影響により変化する。そこで、上記の値pi1,pi2は、例えばノイズレベルnlと単位領域の画素数との乗算値よりも大きい値に設定される。これにより、補正後の評価値が受光素子30のノイズの影響により変化する場合でも、評価ピーク位置Ez0が誤って検出されることが防止される。上記の値pi1,pi2は、後述する第1および第2の識別値にそれぞれ対応する。値pi1,pi2は、同じ値であってもよいし、互いに異なる値であってもよい。   The value of the pixel data changes due to the influence of noise of the light receiving element 30. Therefore, the above values pi1 and pi2 are set to a value larger than, for example, a product of the noise level nl and the number of pixels in the unit area. Thereby, even when the corrected evaluation value changes due to the influence of noise of the light receiving element 30, it is possible to prevent the evaluation peak position Ez0 from being erroneously detected. The values pi1 and pi2 correspond to first and second identification values described later, respectively. The values pi1 and pi2 may be the same value or different values.

上記のように、ピーク位置探索処理により受光素子30のゲインが調整されつつ評価ピーク位置Ez0が探索される。   As described above, the evaluation peak position Ez0 is searched while the gain of the light receiving element 30 is adjusted by the peak position search process.

このように、単位領域ごとに上下限自動設定処理が行われるので、レーザ光の無駄な走査が低減され、高さ画像データおよび超深度画像データの生成時間が短縮される。   Thus, since the upper and lower limit automatic setting processing is performed for each unit region, useless scanning of laser light is reduced, and the generation time of height image data and ultra-depth image data is shortened.

その後、単位領域ごとに設定されたZ方向の移動範囲内で対物レンズ3が移動されることにより、単位領域ごとに画素データが取得される。この場合、受光素子30のゲインは複数の単位領域において同一に設定される。   Thereafter, the objective lens 3 is moved within the movement range in the Z direction set for each unit region, whereby pixel data is acquired for each unit region. In this case, the gain of the light receiving element 30 is set to be the same in the plurality of unit regions.

(8)実施の形態の効果
本実施の形態に係る共焦点顕微鏡システム500においては、使用者により画素データの取得範囲が指示されると、その指示に基づいて複数の単位領域が設定されるとともに、取得範囲内の画素データの総画素数が算出される。算出された総画素数と作業用メモリ230の表示処理可能画素数とが比較され、算出された総画素数が作業用メモリ230の表示処理可能画素数を超える場合、単位領域の複数の画素データの取得率が調整される。そのため、使用者が画素データの取得範囲として広い範囲を指示した場合でも、連結された表面画像データの量が表示のために使用可能な作業用メモリ230の容量を超えることを防止することができる。これにより、画素データの取得範囲にかかわらず観察対象物Sの表面の画像を表示することができる。また、画素データの取得に要する時間を短縮化することができる。
(8) Effects of the Embodiment In the confocal microscope system 500 according to the present embodiment, when the acquisition range of the pixel data is instructed by the user, a plurality of unit areas are set based on the instruction. Then, the total number of pixels of the pixel data within the acquisition range is calculated. When the calculated total number of pixels is compared with the display processable pixel number of the work memory 230 and the calculated total pixel number exceeds the display processable pixel number of the work memory 230, a plurality of pixel data in the unit area The acquisition rate is adjusted. Therefore, even when the user designates a wide range as the pixel data acquisition range, it is possible to prevent the amount of the connected surface image data from exceeding the capacity of the work memory 230 that can be used for display. . Thereby, the image of the surface of the observation object S can be displayed regardless of the acquisition range of the pixel data. In addition, the time required to acquire pixel data can be shortened.

さらに、複数の単位領域についての表面画像データが生成された後に、複数の単位領域についての表面画像データの量が表示のために使用可能な作業用メモリ230の容量を超えないように使用者が表面画像データを間引く必要がない。そのため、表示できない量の表面画像データの生成に多大な時間を費やす必要がない。その結果、無駄な時間を費やさずに観察対象物Sの表面の画像を表示することできる。   Further, after the surface image data for the plurality of unit areas is generated, the user can prevent the amount of the surface image data for the plurality of unit areas from exceeding the capacity of the work memory 230 that can be used for display. There is no need to thin out the surface image data. Therefore, it is not necessary to spend a great deal of time in generating the amount of surface image data that cannot be displayed. As a result, an image of the surface of the observation object S can be displayed without wasting time.

(9)他の実施の形態
(9−1)上記実施の形態において、X−Yスキャン光学系20が制御されることによりレーザ光が観察対象物S上でX方向およびY方向に走査されるが、これに限定されない。ステージ60が移動されることによりレーザ光が観察対象物S上でX方向およびY方向に走査されてもよい。
(9) Other Embodiments (9-1) In the above embodiment, the laser beam is scanned in the X direction and the Y direction on the observation object S by controlling the XY scan optical system 20. However, it is not limited to this. The laser beam may be scanned on the observation object S in the X direction and the Y direction by moving the stage 60.

また、レーザ光としてライン光(例えばX方向に延びる細長い光)が用いられてもよい。この場合、X−Yスキャン光学系20に代えてX方向への走査を行わないYスキャン光学系が用いられる。また、受光素子30に代えて、X方向に対応する方向に配列された複数の受光素子からなるラインCCDカメラ等が用いられる。   Further, line light (for example, elongated light extending in the X direction) may be used as the laser light. In this case, instead of the XY scan optical system 20, a Y scan optical system that does not perform scanning in the X direction is used. Further, instead of the light receiving element 30, a line CCD camera or the like including a plurality of light receiving elements arranged in a direction corresponding to the X direction is used.

なお、ラインCCDカメラの各受光素子のY方向に対応する方向の受光面のサイズは一般的に数10μmである。この場合、ラインCCDカメラの受光面がレンズ2の焦点位置に配置される。観察対象物Sの表面が対物レンズ3の焦点位置にあるときに、観察対象物Sにより反射されたライン光がラインCCDカメラの受光面に集光される。それにより、観察対象物Sにより反射されたライン光の大部分がラインCCDカメラの受光面に入射する。   The size of the light receiving surface in the direction corresponding to the Y direction of each light receiving element of the line CCD camera is generally several tens of μm. In this case, the light receiving surface of the line CCD camera is disposed at the focal position of the lens 2. When the surface of the observation object S is at the focal position of the objective lens 3, the line light reflected by the observation object S is collected on the light receiving surface of the line CCD camera. Thereby, most of the line light reflected by the observation object S enters the light receiving surface of the line CCD camera.

一方、観察対象物Sが対物レンズ3の焦点位置が外れた位置にあるときには、観察対象物Sにより反射されたライン光はラインCCDカメラの受光面の前または後の位置に集光される。それにより、観察対象物Sにより反射されたライン光の一部のみがラインCCDカメラの受光面に入射する。したがって、ラインCCDカメラの前にピンホール部材7を配置することが不要となる。   On the other hand, when the observation object S is at a position out of the focal position of the objective lens 3, the line light reflected by the observation object S is condensed at a position before or after the light receiving surface of the line CCD camera. Thereby, only part of the line light reflected by the observation object S enters the light receiving surface of the line CCD camera. Therefore, it is not necessary to arrange the pinhole member 7 in front of the line CCD camera.

(9−2)上記実施の形態において、対物レンズ3がZ方向に移動されることにより対物レンズ3に対する観察対象物Sの相対的なZ方向の位置が変化されるが、これに限定されない。ステージ60がZ方向に移動されることにより対物レンズ3に対する観察対象物Sの相対的なZ方向の位置が変化されてもよい。   (9-2) In the above embodiment, the relative position of the observation object S with respect to the objective lens 3 in the Z direction is changed by moving the objective lens 3 in the Z direction. However, the present invention is not limited to this. The relative position of the observation object S with respect to the objective lens 3 in the Z direction may be changed by moving the stage 60 in the Z direction.

(9−3)上記実施の形態において、PC200のCPU210が制御部300の機能を有していてもよい。この場合、制御部300は設けられなくてもよい。   (9-3) In the above embodiment, the CPU 210 of the PC 200 may have the function of the control unit 300. In this case, the control unit 300 may not be provided.

(10)請求項の各構成要素と実施の形態の各部との対応関係
以下、請求項の各構成要素と実施の形態の各部との対応の例について説明するが、本発明は下記の例に限定されない。
(10) Correspondence between each component of claim and each part of embodiment The following describes an example of a correspondence between each component of the claim and each part of the embodiment. It is not limited.

観察対象物Sが観察対象物の例であり、超深度画像または高さ画像が表面の画像の例であり、共焦点顕微鏡システム500が共焦点顕微鏡システムの例であり、受光素子30が受光素子の例である。レンズ1,2、対物レンズ3、ピンホール部材7およびレーザ光源10が共焦点光学系の例である。単位領域s1〜s16が単位領域の例であり、撮影領域r1〜r25が領域の例であり、X方向が第1の方向の例であり、Y方向が第2の方向の例であり、Z方向が第3の方向の例である。   The observation object S is an example of the observation object, the ultra-depth image or the height image is an example of the surface image, the confocal microscope system 500 is an example of the confocal microscope system, and the light receiving element 30 is the light receiving element. It is an example. The lenses 1 and 2, the objective lens 3, the pinhole member 7, and the laser light source 10 are examples of confocal optical systems. The unit areas s1 to s16 are examples of unit areas, the imaging areas r1 to r25 are examples of areas, the X direction is an example of the first direction, the Y direction is an example of the second direction, and Z The direction is an example of the third direction.

レンズ駆動部63が相対的距離変化部の例であり、制御部300が制御部の例であり、表示部400が表示部の例であり、カメラ画像が非共焦点画像の例である。カラーCCDカメラ50、制御部300およびPC200が非共焦点画像取得部の例であり、ステージ60が支持部の例である。PC200が画像データ生成部、観察範囲指示受付部、観察範囲設定部、画像データ処理部、データ取得量調整部、拡大指示受付部、表示範囲拡大部および処理装置の例である。   The lens driving unit 63 is an example of a relative distance changing unit, the control unit 300 is an example of a control unit, the display unit 400 is an example of a display unit, and the camera image is an example of a non-confocal image. The color CCD camera 50, the control unit 300, and the PC 200 are examples of non-confocal image acquisition units, and the stage 60 is an example of a support unit. The PC 200 is an example of an image data generation unit, an observation range instruction reception unit, an observation range setting unit, an image data processing unit, a data acquisition amount adjustment unit, an enlargement instruction reception unit, a display range expansion unit, and a processing device.

請求項の各構成要素として、請求項に記載されている構成または機能を有する他の種々の要素を用いることもできる。   As each constituent element in the claims, various other elements having configurations or functions described in the claims can be used.

本発明は、種々の共焦点顕微鏡システム、画像処理方法および画像処理プログラムに有効に利用することができる。   The present invention can be effectively used for various confocal microscope systems, image processing methods, and image processing programs.

1,2 レンズ
3 対物レンズ
4〜6 ハーフミラー
7 ピンホール部材
8 NDフィルタ
10 レーザ光源
20 X−Yスキャン光学系
30 受光素子
40 照明用白色光源
50 カラーCCDカメラ
60 ステージ
61 ステージ操作部
62 ステージ駆動部
63 レンズ駆動部
100 測定部
200 PC
210 CPU
220 ROM
230 作業用メモリ
240 記憶装置
300 制御部
400 表示部
410 画像表示領域
420 条件設定領域
421 範囲設定ボタン
422 取得開始ボタン
423 ナビゲーション表示ボタン
430a〜430c 取得範囲設定画面
431 指定方法設定欄
431a〜431c チェックボックス
432 指定範囲設定欄
432a 上端設定部
432b 左端設定部
432c 右端設定部
432d 下端設定部
432e,432f 長さ指定部
432g,432h 単位領域数指定部
433 設定値表示欄
434a 次へボタン
434b 終了ボタン
440 ナビゲーション表示画面
441 カメラ画像表示領域
442 撮影範囲決定ボタン
443 撮影範囲拡大ボタン
500 共焦点顕微鏡システム
BP 下限位置
Emax,max 出力上限値
Ez0 評価ピーク位置
fp 焦点位置
HL,na〜nd 矢印
Lx,Ly 線分
l1,l2 曲線
M マスク
ma1,ma2,mb1,mb2,zs1 位置
Nx,Ny 取得数
nl ノイズレベル
p1,p2 点
pi1,pi2 値
R 取得範囲表示枠
r1〜r25 撮影領域
S 観察対象物
s1〜s16 単位領域
UP 上限位置
z0 ピーク位置
DESCRIPTION OF SYMBOLS 1, 2 Lens 3 Objective lens 4-6 Half mirror 7 Pinhole member 8 ND filter 10 Laser light source 20 XY scan optical system 30 Light receiving element 40 White light source for illumination 50 Color CCD camera 60 Stage 61 Stage operation part 62 Stage drive Unit 63 Lens drive unit 100 Measurement unit 200 PC
210 CPU
220 ROM
230 Working Memory 240 Storage Device 300 Control Unit 400 Display Unit 410 Image Display Area 420 Condition Setting Area 421 Range Setting Button 422 Acquisition Start Button 423 Navigation Display Buttons 430a to 430c Acquisition Range Setting Screen 431 Specification Method Setting Field 431a to 431c Check Box 432 designated range setting field 432a upper end setting part 432b left end setting part 432c right end setting part 432d lower end setting part 432e, 432f length designation part 432g, 432h unit area number designation part 433 setting value display field 434a next button 434b end button 440 navigation Display screen 441 Camera image display area 442 Shooting range determination button 443 Shooting range expansion button 500 Confocal microscope system BP Lower limit position Emax, max Output upper limit value Ez0 Evaluation peak position fp Focus position HL, na to nd Arrow Lx, Ly Line segment l1, l2 Curve M Mask ma1, ma2, mb1, mb2, zs1 Position Nx, Ny Acquisition number nl Noise level p1, p2 Points pi1, pi2 Value R Acquisition range display frame r1 to r25 Shooting area S Observation object s1 to s16 Unit area UP Upper limit position z0 Peak position

Claims (6)

観察対象物の表面の画像を表示する共焦点顕微鏡システムであって、
受光素子と、
観察対象物の表面に設定された単位領域に光を照射するとともに、単位領域に照射された光を前記受光素子に導く共焦点光学系と、
単位領域に垂直な方向に沿った複数の位置で単位領域内での前記共焦点光学系による光の照射が行われるように前記共焦点光学系と前記観察対象物との相対的な距離を変化させる相対的距離変化部と、
前記共焦点光学系および前記相対的距離変化部を制御するとともに、前記受光素子の出力信号に基づいて単位領域内で互いに直交する第1および第2の方向に並ぶ複数の画素に対応する複数の画素データを順次取得する制御部と、
前記制御部により取得された複数の画素データに基づいて単位領域の共焦点画像データを生成するとともに前記共焦点画像データに基づいて観察対象物の表面の画像を表示するための表面画像データを生成する画像データ生成部と、
使用者による観察範囲の指示を受け付ける観察範囲指示受付部と、
前記観察範囲指示受付部により受け付けられた指示に基づいて観察範囲として複数の単位領域を設定する観察範囲設定部と、
前記観察範囲設定部により設定された複数の単位領域について前記画像データ生成部により生成された表面画像データを連結する画像データ処理部と、
前記観察範囲設定部により設定された複数の単位領域に含まれる画素数と予め設定されたしきい値とを比較し、比較結果に基づいて各単位領域について前記制御部により取得される画素データの数を調整するデータ取得量調整部と、
前記画像データ処理部により連結された複数の単位領域の表面画像データに基づいて観察対象物の表面の画像を表示する表示部とを備えることを特徴とする共焦点顕微鏡システム。
A confocal microscope system that displays an image of the surface of an observation object,
A light receiving element;
Irradiating the unit area set on the surface of the observation object with light, and confocal optical system for guiding the light irradiated to the unit area to the light receiving element;
The relative distance between the confocal optical system and the observation object is changed so that light is emitted from the confocal optical system in the unit region at a plurality of positions along a direction perpendicular to the unit region. A relative distance change part to be
Controlling the confocal optical system and the relative distance changing unit, and a plurality of pixels corresponding to a plurality of pixels arranged in the first and second directions orthogonal to each other in the unit region based on the output signal of the light receiving element A control unit for sequentially acquiring pixel data;
Generate confocal image data of a unit area based on a plurality of pixel data acquired by the control unit, and generate surface image data for displaying an image of the surface of the observation object based on the confocal image data An image data generation unit to perform,
An observation range instruction receiving unit for receiving an instruction of an observation range by a user;
An observation range setting unit that sets a plurality of unit regions as an observation range based on an instruction received by the observation range instruction reception unit;
An image data processing unit for linking the surface image data generated by the image data generation unit for a plurality of unit areas set by the observation range setting unit;
The number of pixels included in the plurality of unit regions set by the observation range setting unit is compared with a preset threshold value, and pixel data acquired by the control unit for each unit region based on the comparison result A data acquisition amount adjustment unit for adjusting the number;
A confocal microscope system comprising: a display unit configured to display an image of a surface of an observation target based on surface image data of a plurality of unit regions connected by the image data processing unit.
観察対象物の非共焦点画像を取得する非共焦点画像取得部をさらに備え、
前記観察範囲指示受付部は、前記非共焦点画像取得部により取得された非共焦点画像を前記表示部に表示させるとともに、前記表示された非共焦点画像上で使用者による観察範囲の指示を受け付けることを特徴とする請求項1記載の共焦点顕微鏡システム。
A non-confocal image acquisition unit that acquires a non-confocal image of the observation object;
The observation range instruction receiving unit displays the non-confocal image acquired by the non-confocal image acquisition unit on the display unit, and instructs the observation range on the displayed non-confocal image by a user. The confocal microscope system according to claim 1, wherein the confocal microscope system is received.
前記観察範囲指示受付部は、前記表示された非共焦点画像を使用者が指定可能な複数の領域に分割し、使用者により取得除外対象として指定された領域を観察範囲から除外することを特徴とする請求項2記載の共焦点顕微鏡システム。 The observation range instruction reception unit divides the displayed non-confocal image into a plurality of regions that can be designated by the user, and excludes the region designated as an acquisition exclusion target by the user from the observation range. The confocal microscope system according to claim 2. 前記観察対象物を支持するとともに前記第1および第2の方向に移動可能に設けられた支持部と、
前記表示部に表示される非共焦点画像の範囲の拡大の指示を受け付ける拡大指示受付部と、
前記拡大指示受付部により前記拡大の指示が受け付けられた場合に、前記支持部を移動させることにより前記表示部に表示される非共焦点画像の範囲を拡大させる表示範囲拡大部とをさらに備えた請求項2または3記載の共焦点顕微鏡システム。
A support portion provided to support the observation object and to be movable in the first and second directions;
An enlargement instruction receiving unit that receives an instruction to enlarge the range of the non-confocal image displayed on the display unit;
A display range enlarging unit for enlarging a range of a non-confocal image displayed on the display unit by moving the support unit when the enlargement instruction accepting unit is accepted by the enlargement instruction accepting unit; The confocal microscope system according to claim 2 or 3.
観察対象物の表面の画像を表示する画像処理方法であって、
共焦点光学系により観察対象物の表面に設定された単位領域に光を照射するとともに、単位領域に照射された光を受光素子に導くステップと、
単位領域に垂直な方向に沿った複数の位置で単位領域内での前記共焦点光学系による光の照射が行われるように前記共焦点光学系と観察対象物との相対的な距離を変化させるステップと、
前記受光素子の出力信号に基づいて単位領域内で互いに直交する第1および第2の方向に並ぶ複数の画素に対応する複数の画素データを順次取得するステップと、
取得された複数の画素データに基づいて単位領域の共焦点画像データを生成するとともに前記共焦点画像データに基づいて観察対象物の表面の画像を表示するための表面画像データを生成するステップと、
使用者による観察範囲の指示を受け付けるステップと、
受け付けられた指示に基づいて観察範囲として複数の単位領域を設定するステップと、
設定された複数の単位領域について生成された表面画像データを連結するステップと、
設定された複数の単位領域に含まれる画素数と予め設定されたしきい値とを比較し、比較結果に基づいて各単位領域について取得される画素データの数を調整するステップと、
連結された複数の単位領域の表面画像データに基づいて観察対象物の表面の画像を表示するステップとを含むことを特徴とする画像処理方法。
An image processing method for displaying an image of the surface of an observation object,
Irradiating the unit region set on the surface of the observation object with the confocal optical system, and guiding the light irradiated to the unit region to the light receiving element;
The relative distance between the confocal optical system and the observation object is changed so that light is emitted from the confocal optical system in the unit region at a plurality of positions along a direction perpendicular to the unit region. Steps,
Sequentially obtaining a plurality of pixel data corresponding to a plurality of pixels arranged in first and second directions orthogonal to each other in a unit region based on an output signal of the light receiving element;
Generating the confocal image data of the unit region based on the acquired plurality of pixel data and generating the surface image data for displaying the image of the surface of the observation object based on the confocal image data;
Receiving an instruction of an observation range by a user;
Setting a plurality of unit areas as observation ranges based on received instructions;
Concatenating surface image data generated for a plurality of set unit areas;
Comparing the number of pixels included in a plurality of set unit areas with a preset threshold value, and adjusting the number of pixel data acquired for each unit area based on the comparison results;
And a step of displaying an image of the surface of the observation object based on the surface image data of the plurality of connected unit regions.
観察対象物の表面の画像を表示する画像処理を処理装置に実行させる画像処理プログラムであって、
共焦点光学系により観察対象物の表面に設定された単位領域に光を照射するとともに、単位領域に照射されたレーザ光を受光素子に導く処理と、
単位領域に垂直な方向に沿った複数の位置で単位領域内での前記共焦点光学系による光の照射が行われるように前記共焦点光学系と観察対象物との相対的な距離を変化させる処理と、
前記受光素子の出力信号に基づいて単位領域内で互いに直交する第1および第2の方向に並ぶ複数の画素に対応する複数の画素データを順次取得する処理と、
取得された複数の画素データに基づいて単位領域の共焦点画像データを生成するとともに前記共焦点画像データに基づいて観察対象物の表面の画像を表示するための表面画像データを生成する処理と、
使用者による観察範囲の指示を受け付ける処理と、
受け付けられた指示に基づいて観察範囲として複数の単位領域を設定する処理と、
設定された複数の単位領域について生成された表面画像データを連結する処理と、
設定された複数の単位領域に含まれる画素数と予め設定されたしきい値とを比較し、比較結果に基づいて各単位領域について取得される画素データの数を調整する処理と、
連結された複数の単位領域の表面画像データに基づいて観察対象物の表面の画像を表示する処理とを、
前記処理装置に実行させることを特徴とする画像処理プログラム。
An image processing program for causing a processing device to execute image processing for displaying an image of a surface of an observation object,
Irradiating light to the unit region set on the surface of the observation object by the confocal optical system, and guiding the laser light irradiated to the unit region to the light receiving element;
The relative distance between the confocal optical system and the observation object is changed so that light is emitted from the confocal optical system in the unit region at a plurality of positions along a direction perpendicular to the unit region. Processing,
A process of sequentially obtaining a plurality of pixel data corresponding to a plurality of pixels arranged in the first and second directions orthogonal to each other in the unit region based on an output signal of the light receiving element;
A process of generating confocal image data of a unit region based on a plurality of acquired pixel data and generating surface image data for displaying an image of the surface of the observation object based on the confocal image data;
A process of accepting an instruction of the observation range by the user;
A process of setting a plurality of unit areas as an observation range based on an accepted instruction;
A process of connecting the surface image data generated for a plurality of set unit areas;
A process of comparing the number of pixels included in a plurality of set unit areas with a preset threshold value and adjusting the number of pixel data acquired for each unit area based on the comparison result;
A process of displaying an image of the surface of the observation object based on the surface image data of a plurality of connected unit areas,
An image processing program that is executed by the processing apparatus.
JP2011009675A 2011-01-20 2011-01-20 Confocal microscope system, image processing method and image processing program Pending JP2012150335A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011009675A JP2012150335A (en) 2011-01-20 2011-01-20 Confocal microscope system, image processing method and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011009675A JP2012150335A (en) 2011-01-20 2011-01-20 Confocal microscope system, image processing method and image processing program

Publications (1)

Publication Number Publication Date
JP2012150335A true JP2012150335A (en) 2012-08-09

Family

ID=46792626

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011009675A Pending JP2012150335A (en) 2011-01-20 2011-01-20 Confocal microscope system, image processing method and image processing program

Country Status (1)

Country Link
JP (1) JP2012150335A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9383569B2 (en) 2011-10-14 2016-07-05 Keyence Corporation Magnification observation device
JP2019074669A (en) * 2017-10-17 2019-05-16 株式会社キーエンス Magnifying observation apparatus

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9383569B2 (en) 2011-10-14 2016-07-05 Keyence Corporation Magnification observation device
JP2019074669A (en) * 2017-10-17 2019-05-16 株式会社キーエンス Magnifying observation apparatus
US10539775B2 (en) 2017-10-17 2020-01-21 Kerence Corporation Magnifying observation apparatus
JP7023667B2 (en) 2017-10-17 2022-02-22 株式会社キーエンス Magnifying observation device

Similar Documents

Publication Publication Date Title
JP5732353B2 (en) Magnification observation apparatus, magnification observation method, and magnification observation program
JP5732265B2 (en) Microscope system, focus position detection method, and focus position detection program
JP5846844B2 (en) Magnifying observation device
US9798129B2 (en) Microscope system and method for deciding stitched area
JP6147079B2 (en) Microscope system, method for determining bonded area, and program
JP6132650B2 (en) Confocal microscope
JP2012155010A (en) Microscope system, surface state observation method, and surface state observation program
JP2005172805A (en) Sample information measuring method and scanning type confocal microscope
JP2010112969A (en) Confocal microscope
JP5663428B2 (en) Microscope system, object observation method, and object observation program
JP2018194780A (en) Microscope system, control method and program
US10721413B2 (en) Microscopy system, microscopy method, and computer readable recording medium
JP2012150335A (en) Confocal microscope system, image processing method and image processing program
JP5019279B2 (en) Confocal microscope and method for generating focused color image
JP2017173683A (en) Microscope system and specimen observation method
JP2010020206A (en) Microscope apparatus
JP7430597B2 (en) white interference microscope
JP6161678B2 (en) Confocal microscope system
JP5957063B2 (en) Microscope system
JP5847282B2 (en) Confocal microscope system
JP5892424B2 (en) Image acquisition method, image acquisition device, and scanning microscope
JP5809325B2 (en) Microscope system
JP4914567B2 (en) Scanning confocal microscope
JP4679840B2 (en) Laser scanning microscope
JP2017044752A (en) Microscope system, control method, program, and bonded image creating method