JP2015084057A - Device, method, and program for capturing microscopic images - Google Patents

Device, method, and program for capturing microscopic images Download PDF

Info

Publication number
JP2015084057A
JP2015084057A JP2013222722A JP2013222722A JP2015084057A JP 2015084057 A JP2015084057 A JP 2015084057A JP 2013222722 A JP2013222722 A JP 2013222722A JP 2013222722 A JP2013222722 A JP 2013222722A JP 2015084057 A JP2015084057 A JP 2015084057A
Authority
JP
Japan
Prior art keywords
light
image data
measurement
unit
pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013222722A
Other languages
Japanese (ja)
Other versions
JP6246555B2 (en
Inventor
宇範 康
Woobum Kang
宇範 康
武志 片岡
Takeshi Kataoka
武志 片岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Keyence Corp
Original Assignee
Keyence Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Keyence Corp filed Critical Keyence Corp
Priority to JP2013222722A priority Critical patent/JP6246555B2/en
Publication of JP2015084057A publication Critical patent/JP2015084057A/en
Application granted granted Critical
Publication of JP6246555B2 publication Critical patent/JP6246555B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a device, method, and program for capturing microscopic images, which enable users to recognize it when light reception signal strength is saturated.SOLUTION: Measurement light having a predetermined pattern is produced by a pattern imparting unit 110 and is irradiated on an object S under measurement. A spatial phase of the produced pattern is sequentially shifted on the object S under measurement by predetermined increments by the pattern imparting unit 110. A light receiving unit 120 receives light from the object S under measurement and outputs a light reception signal that represents received light intensity. Based on a plurality of sets of patterned image data generated at a plurality of phases of the pattern using the light reception signal, sectioning image data representing an image of the object S under measurement is generated. Assessment is made as to whether the light reception signal is saturated or not based on at least one of the plurality of sets of patterned image data. A user is notified if the light reception signal is saturated.

Description

本発明は、顕微鏡撮像装置、顕微鏡撮像方法および顕微鏡撮像プログラムに関する。   The present invention relates to a microscope imaging apparatus, a microscope imaging method, and a microscope imaging program.

顕微鏡撮像装置においては、測定対象物に光が照射されることにより、測定対象物により光が反射または放出される。測定対象物により反射または放出された光が検出器で検出されることにより、測定対象物の画像データが生成される。ここで、測定対象物の周囲に迷光が存在する場合には、生成された画像データに基づく測定対象物の画像にボケが生じる。特許文献1には、迷光の影響を低減するように構成された顕微鏡装置が記載されている。   In the microscope imaging apparatus, light is reflected or emitted by the measurement object by irradiating the measurement object with light. The light reflected or emitted by the measurement object is detected by the detector, thereby generating image data of the measurement object. Here, when stray light is present around the measurement object, the image of the measurement object is blurred based on the generated image data. Patent Document 1 describes a microscope apparatus configured to reduce the influence of stray light.

特許文献1の顕微鏡装置においては、標本に光が照射されることにより、標本により迷光を含む信号光が反射される。標本により反射された信号光が検出器で検出されることにより、標本の像が形成される。また、迷光のみの受光信号の強度が別途検出される。標本により反射された信号光に対応する受光信号の強度から迷光に対応する強度が減算されることにより、迷光の影響が低減された標本の像が得られる。   In the microscope apparatus of Patent Document 1, signal light including stray light is reflected by the specimen when the specimen is irradiated with light. The signal light reflected by the sample is detected by a detector, thereby forming an image of the sample. Further, the intensity of the received light signal including only stray light is separately detected. By subtracting the intensity corresponding to the stray light from the intensity of the received light signal corresponding to the signal light reflected by the sample, an image of the sample with reduced influence of the stray light is obtained.

特開2012−212018号公報JP 2012-212018 A

特許文献1のように、迷光の影響を低減するために信号光に対応する受光信号の強度から迷光に対応する受光信号の強度を減算する場合、測定対象物に照射される光の強度が十分に大きいにもかかわらず、測定対象物の画像が暗くなることがある。そのため、使用者は、測定対象物の画像を見ても、受光信号が飽和していることを認識することができない。   When the intensity of the light reception signal corresponding to the stray light is subtracted from the intensity of the light reception signal corresponding to the signal light in order to reduce the influence of the stray light as in Patent Document 1, the intensity of the light irradiated to the measurement object is sufficient. The image of the measurement object may become dark despite being large. Therefore, the user cannot recognize that the received light signal is saturated even when viewing the image of the measurement object.

本発明の目的は、受光信号の強度が飽和していることを容易に使用者に認識させることが可能な顕微鏡撮像装置、顕微鏡撮像方法および顕微鏡撮像プログラムを提供することである。   An object of the present invention is to provide a microscope imaging apparatus, a microscope imaging method, and a microscope imaging program that allow a user to easily recognize that the intensity of a received light signal is saturated.

(1)第1の発明に係る顕微鏡撮像装置は、光を出射する投光部と、投光部により出射された光から所定のパターンを有する測定光を生成するように構成された測定光生成部と、測定光生成部により生成された測定光を測定対象物に照射する光学系と測定対象物からの光を受光し、受光量を示す受光信号を出力する受光部と、受光部から出力される受光信号に基づいて画像データを生成する画像データ生成部と、生成されたパターンの空間的な位相を所定量ずつ測定対象物上で順次移動させるように測定光生成部を制御し、パターンの複数の位相で生成される複数の画像データに基づいて測定対象物の画像を示すセクショニング画像データを生成するように測定光生成部を制御する制御部と、画像データ生成部により生成されたセクショニング画像データに基づく画像を表示可能に構成された表示部とを備え、制御部は、画像データ生成部により生成された複数の画像データの少なくとも1つについて受光部により出力される受光信号が飽和しているか否かを判定し、受光信号が飽和している場合には使用者に受光信号が飽和していることを通知するものである。   (1) A microscope imaging apparatus according to a first invention includes a light projecting unit that emits light, and a measurement light generator configured to generate measurement light having a predetermined pattern from the light emitted from the light projecting unit. , An optical system that irradiates the measurement object with the measurement light generated by the measurement light generation part, a light reception part that receives light from the measurement object, and outputs a light reception signal indicating the amount of light received, and is output from the light reception part An image data generation unit that generates image data based on the received light signal, and a measurement light generation unit that sequentially moves the spatial phase of the generated pattern by a predetermined amount on the measurement target, A control unit that controls the measurement light generation unit to generate sectioning image data indicating an image of the measurement object based on a plurality of image data generated in a plurality of phases, and a sectionin generated by the image data generation unit A display unit configured to display an image based on the image data, and the control unit saturates a light reception signal output by the light reception unit for at least one of the plurality of image data generated by the image data generation unit. If the light reception signal is saturated, the user is notified that the light reception signal is saturated.

この顕微鏡撮像装置においては、所定のパターンを有する測定光が、投光部により出射された光から測定光生成部により生成される。測定光生成部により生成された測定光が光学系により測定対象物に照射される。また、生成されたパターンの空間的な位相が測定光生成部により所定量ずつ測定対象物上で順次移動される。受光部により測定対象物からの光が受光され、受光量を示す受光信号が出力される。   In this microscope imaging apparatus, measurement light having a predetermined pattern is generated by the measurement light generation unit from light emitted by the light projecting unit. The measurement light generated by the measurement light generation unit is irradiated onto the measurement object by the optical system. Further, the spatial phase of the generated pattern is sequentially moved on the measurement object by a predetermined amount by the measurement light generation unit. Light from the measurement object is received by the light receiving unit, and a light reception signal indicating the amount of light received is output.

受光部から出力される受光信号に基づいてパターンの複数の位相で生成される複数の画像データに基づいて測定対象物の画像を示すセクショニング画像データが生成される。セクショニング画像データに基づく測定対象物の画像は、表示部に表示される。   Sectioning image data indicating an image of the measurement object is generated based on a plurality of image data generated at a plurality of phases of the pattern based on the light reception signal output from the light receiving unit. An image of the measurement object based on the sectioning image data is displayed on the display unit.

ここで、生成された複数の画像データの少なくとも1つについて受光部により出力される受光信号が飽和しているか否かが判定される。また、受光信号が飽和している場合には、使用者に受光信号が飽和していることが通知される。これにより、使用者は受光信号が飽和していることを容易に認識することができる。   Here, it is determined whether or not the light reception signal output by the light receiving unit is saturated for at least one of the plurality of generated image data. When the light reception signal is saturated, the user is notified that the light reception signal is saturated. Thereby, the user can easily recognize that the light reception signal is saturated.

(2)画像データ生成部は、複数の画像データの各画素について、測定光のパターンのうち一定の強度よりも高い強度を有する第1の部分が測定対象物に照射されたときの画素の値から測定光のパターンのうち一定の強度以下の強度を有する第2の部分が測定対象物に照射されたときの画素の値を除去することによりセクショニング画像データを生成してもよい。   (2) The image data generation unit, for each pixel of the plurality of image data, has a pixel value when a measurement target is irradiated with a first portion having a higher intensity than a certain intensity in the measurement light pattern. From the pattern of measurement light, sectioning image data may be generated by removing the value of the pixel when the measurement object is irradiated with the second portion having a certain intensity or less.

この場合、セクショニング画像データの各画素の値は、測定光のパターンの第1の部分が測定対象物に照射されたときの画素の値と測定光のパターンの第2の部分が測定対象物に照射されたときの画素の値との差になる。ここで、複数の画像データにおける各画素について、測定光の第2の部分が測定対象物に照射されたときの画素の値は、迷光による画像のボケ成分に相当する。したがって、セクショニング画像データの各画素から迷光によるボケ成分が除去される。それにより、鮮明な測定対象物の画像を得ることができる。   In this case, the value of each pixel of the sectioning image data is the pixel value when the first portion of the measurement light pattern is irradiated on the measurement object and the second portion of the measurement light pattern is the measurement object. It becomes a difference from the value of the pixel when irradiated. Here, for each pixel in the plurality of image data, the value of the pixel when the measurement object is irradiated with the second portion of the measurement light corresponds to a blur component of the image due to stray light. Therefore, the blur component due to stray light is removed from each pixel of the sectioning image data. Thereby, a clear image of the measurement object can be obtained.

一方、セクショニング画像データの各画素から迷光によるボケ成分が除去されると、セクショニング画像データに基づく画像は、各画素から迷光によるボケ成分が除去されない場合に比べて暗くなる。そのため、使用者は画像を見ても、受光信号が飽和しているか否かを認識することができない。   On the other hand, when the blur component due to stray light is removed from each pixel of the sectioning image data, the image based on the sectioning image data becomes darker than when the blur component due to stray light is not removed from each pixel. Therefore, the user cannot recognize whether or not the received light signal is saturated even when viewing the image.

このような場合でも、生成された複数の画像データの少なくとも1つについて受光信号が飽和しているか否かが判定され、受光信号が飽和している場合には、使用者に受光信号が飽和していることが通知される。これにより、セクショニング画像データに基づく画像に明るい部分が存在しない場合でも、使用者は受光信号が飽和していることを容易に認識することができる。   Even in such a case, it is determined whether or not the light reception signal is saturated for at least one of the plurality of generated image data. If the light reception signal is saturated, the light reception signal is saturated to the user. Is notified. Thereby, even when the bright part does not exist in the image based on the sectioning image data, the user can easily recognize that the light reception signal is saturated.

(3)制御部は、画像データ生成部により生成された複数の画像データに基づいて画像の明るさの分布状態を明度画像として示す明度画像データを生成するように画像データ生成部を制御し、表示部は、明度画像データに基づく明度画像を表示可能に構成されてもよい。   (3) The control unit controls the image data generation unit to generate brightness image data indicating a brightness distribution state of the image as a brightness image based on the plurality of image data generated by the image data generation unit, The display unit may be configured to display a brightness image based on the brightness image data.

この場合、画像の明るさの分布状態を示す明度画像が表示部に表示される。そのため、使用者は、明度画像を見ることにより、画像の明るさを認識することができる。これにより、使用者は受光信号が飽和していることを容易に認識することができる。   In this case, a brightness image indicating the brightness distribution state of the image is displayed on the display unit. Therefore, the user can recognize the brightness of the image by looking at the brightness image. Thereby, the user can easily recognize that the light reception signal is saturated.

(4)制御部は、画像データ生成部により生成された明度画像データに基づいて受光部により出力される受光信号が飽和しているか否かを判定してもよい。   (4) The control unit may determine whether the light reception signal output from the light receiving unit is saturated based on the brightness image data generated by the image data generation unit.

明度画像データは、生成部により生成された複数の画像データの画像の明るさの分布状態を示す。そのため、明度画像データを用いることにより、受光信号が飽和しているか否かを容易に判定することができる。   The brightness image data indicates the brightness distribution state of the images of the plurality of image data generated by the generation unit. Therefore, it is possible to easily determine whether or not the light reception signal is saturated by using the brightness image data.

(5)制御部は、画像データ生成部により生成された明度画像データに基づいて画像の明るさに関する情報を算出し、表示部は、制御部により算出された明るさに関する情報を表示可能に構成されてもよい。   (5) The control unit calculates information related to the brightness of the image based on the brightness image data generated by the image data generation unit, and the display unit is configured to be able to display information related to the brightness calculated by the control unit. May be.

この場合、画像の明るさに関する情報が表示部に表示される。使用者は、画像の明るさに関する情報を見ることにより、画像の明るさをより詳細に認識することができる。これにより、使用者は受光信号が飽和していることをより容易に認識することができる。   In this case, information regarding the brightness of the image is displayed on the display unit. The user can recognize the brightness of the image in more detail by viewing the information related to the brightness of the image. As a result, the user can more easily recognize that the received light signal is saturated.

(6)明るさに関する情報は、複数の画像データの複数の画素の値と各値を有する画素の数との関係を示すヒストグラムを含んでもよい。   (6) The information on brightness may include a histogram indicating the relationship between the values of a plurality of pixels of a plurality of image data and the number of pixels having each value.

この場合、複数の画像データの複数の画素の値と各値を有する画素の数との関係を示すヒストグラムが表示部に表示される。使用者は、ヒストグラムを見ることにより、複数の画像データの複数の画素の値と各値を有する画素の数との関係を認識することができる。これにより、使用者は受光信号が飽和していることおよび飽和の程度を認識することができる。   In this case, a histogram indicating the relationship between the values of the plurality of pixels of the plurality of image data and the number of pixels having each value is displayed on the display unit. The user can recognize the relationship between the values of the plurality of pixels of the plurality of image data and the number of pixels having each value by looking at the histogram. Thereby, the user can recognize that the received light signal is saturated and the degree of saturation.

(7)制御部は、セクショニング画像データの複数の画素の値を増幅することにより画像の明るさを補正し、明るさに関する情報は、複数の画素の値の増幅率を含んでもよい。   (7) The control unit may correct the brightness of the image by amplifying the values of the plurality of pixels of the sectioning image data, and the information related to the brightness may include an amplification factor of the values of the plurality of pixels.

この場合、セクショニング画像データに基づく画像が明るくなるように補正される。これにより、使用者は明るい画像を観察することができる。また、セクショニング画像データの複数の画素の値の増幅率が表示部に表示される。使用者は、増幅率を見ることにより、補正前の画像の明るさを認識することができる。これにより、受光信号が飽和していることおよび飽和の程度を認識することができる。   In this case, the image based on the sectioning image data is corrected so as to be bright. Thereby, the user can observe a bright image. Further, the amplification factors of the values of the plurality of pixels of the sectioning image data are displayed on the display unit. The user can recognize the brightness of the image before correction by looking at the amplification factor. Thereby, it is possible to recognize that the received light signal is saturated and the degree of saturation.

(8)制御部は、受光部により出力される受光信号が飽和している場合には、画像データ生成部により生成されたセクショニング画像データにおいて受光信号の飽和している部分に対応する画素の値を受光信号の飽和していない部分に対応する画素の値よりも大きく増幅してもよい。   (8) When the light receiving signal output from the light receiving unit is saturated, the control unit, the pixel value corresponding to the portion where the light receiving signal is saturated in the sectioning image data generated by the image data generating unit May be amplified larger than the value of the pixel corresponding to the non-saturated portion of the received light signal.

この場合、セクショニング画像データに基づく画像において、受光信号の飽和している部分に対応する画素が受光信号の飽和していない部分に対応する画素よりも明るく表示される。それにより、使用者は、画像を見ることにより受光信号が飽和していることを容易に認識することができる。   In this case, in the image based on the sectioning image data, the pixel corresponding to the portion where the light reception signal is saturated is displayed brighter than the pixel corresponding to the portion where the light reception signal is not saturated. Thereby, the user can easily recognize that the received light signal is saturated by viewing the image.

(9)制御部は、受光部により出力される受光信号が飽和している場合には、表示部に表示される画像のうち飽和している受光信号の部分に対応する画素を識別可能に表示するように表示部を制御してもよい。この場合、使用者は、画像を見ることにより受光信号が飽和していることを容易に認識することができる。   (9) When the light receiving signal output from the light receiving unit is saturated, the control unit displays the pixel corresponding to the saturated light receiving signal portion in the image displayed on the display unit in an identifiable manner. The display unit may be controlled to do so. In this case, the user can easily recognize that the received light signal is saturated by looking at the image.

(10)制御部は、画像データ生成部による複数の画像データの生成条件が変更された場合、測定対象物に測定光が照射されるように測定光生成部を制御するとともに、生成部により生成された複数の画像データに基づいてセクショニング画像データを更新するように制御部を制御し、生成部による複数の画像データの生成条件が変更されない場合、測定対象物への測定光の照射を停止するように測定光生成部を制御してもよい。   (10) When the generation condition of the plurality of image data by the image data generation unit is changed, the control unit controls the measurement light generation unit so that the measurement object is irradiated with the measurement light, and the generation unit generates The control unit is controlled to update the sectioning image data based on the plurality of image data, and when the generation conditions of the plurality of image data by the generation unit are not changed, the irradiation of the measurement light to the measurement target is stopped In this way, the measurement light generator may be controlled.

この構成によれば、画像データ生成部による複数の画像データの生成条件が変更された場合、測定対象物に測定光が照射される。また、画像データ生成部により生成された複数の画像データに基づいてセクショニング画像データが更新される。それにより、使用者は、受光信号が飽和しないように画像データ生成部による複数の画像データの生成条件を変更することができる。   According to this configuration, when the generation conditions of the plurality of image data by the image data generation unit are changed, the measurement object is irradiated with the measurement light. Further, the sectioning image data is updated based on the plurality of image data generated by the image data generation unit. Accordingly, the user can change the generation conditions of the plurality of image data by the image data generation unit so that the light reception signal is not saturated.

一方、画像データ生成部による複数の画像データの生成条件が変更されない場合、測定対象物への測定光の照射が停止される。そのため、測定対象物に測定光が照射され続けることによる測定対象物の劣化を最小限にすることができる。   On the other hand, when the generation conditions of the plurality of image data by the image data generation unit are not changed, the irradiation of the measurement light to the measurement object is stopped. Therefore, it is possible to minimize the deterioration of the measurement object due to the measurement object being continuously irradiated with the measurement light.

(11)制御部は、画像データ生成部による複数の画像データの生成条件が変更された場合、画像データ生成部による複数の画像データの生成条件が変更される前に測定光が照射された測定対象物の部分と異なる部分に測定光が照射されるように測定光生成部を制御してもよい。   (11) When the generation condition of the plurality of image data by the image data generation unit is changed, the control unit is irradiated with measurement light before the generation condition of the plurality of image data by the image data generation unit is changed. The measurement light generation unit may be controlled so that the measurement light is irradiated to a part different from the part of the object.

この構成によれば、画像データ生成部による複数の画像データの生成条件が変更された場合、画像データ生成部による複数の画像データの生成条件が変更される前に測定光が照射された測定対象物の部分と異なる部分に測定光が照射される。この場合、測定対象物の特定の部分にのみ連続的に測定光が照射されることがない。それにより、測定対象物の特定の部分のみが劣化することを防止することができる。   According to this configuration, when the generation conditions of the plurality of image data by the image data generation unit are changed, the measurement target irradiated with the measurement light before the generation conditions of the plurality of image data by the image data generation unit are changed Measurement light is irradiated to a part different from the part of the object. In this case, the measurement light is not continuously irradiated only on a specific part of the measurement object. Thereby, it can prevent that only the specific part of a measuring object deteriorates.

(12)制御部は、受光部により出力される受光信号のレベルが第1のレベルと第1のレベルよりも低い第2のレベルとの間で変更されるように投光部および受光部の少なくとも一方を制御し、受光信号のレベルが第1のレベルである状態における複数の画像データを複数の第1の画像データとして生成するとともに、受光信号のレベルが第2のレベルである状態における複数の画像データを複数の第2の画像データとして生成し、生成された複数の第1の画像データおよび複数の第2の画像データを受光部のダイナミックレンジが拡大されるように合成することにより複数の第3の画像データを生成し、複数の第3の画像データに基づいてセクショニング画像データを生成するように画像データ生成部を制御してもよい。   (12) The control unit may change the level of the light receiving signal output from the light receiving unit between the light projecting unit and the light receiving unit so that the level is changed between the first level and a second level lower than the first level. A plurality of image data in a state where the level of the light reception signal is the first level is generated as a plurality of first image data by controlling at least one, and a plurality in the state where the level of the light reception signal is the second level Are generated as a plurality of second image data, and the plurality of generated first image data and the plurality of second image data are combined so that the dynamic range of the light receiving unit is expanded. The third image data may be generated, and the image data generation unit may be controlled to generate sectioning image data based on the plurality of third image data.

この場合、受光部のダイナミックレンジが拡大される。そのため、受光信号が比較的大きい場合または受光信号が比較的小さい場合でも、黒つぶれおよび白とびが含まれないセクショニング画像データを生成することができる。   In this case, the dynamic range of the light receiving unit is expanded. Therefore, even when the light reception signal is relatively large or the light reception signal is relatively small, sectioning image data that does not include blackout and overexposure can be generated.

(13)第2の発明に係る顕微鏡撮像方法は、投光部により光を出射するステップと、所定のパターンを有する測定光を投光部により出射された光から測定光生成部により生成するステップと、測定光生成部により生成された測定光を光学系により測定対象物に照射するステップと、生成されたパターンの空間的な位相を測定光生成部により所定量ずつ測定対象物上で順次移動させるステップと、受光部により測定対象物からの光を受光し、受光量を示す受光信号を出力するステップと、受光部から出力される受光信号に基づいてパターンの複数の位相で生成される複数の画像データに基づいて測定対象物の画像を示すセクショニング画像データを生成するステップと、生成されたセクショニング画像データに基づく画像を表示部に表示させるステップと、生成された複数の画像データの少なくとも1つについて受光部により出力される受光信号が飽和しているか否かを判定するステップと、受光信号が飽和している場合には使用者に受光信号が飽和していることを通知するステップとを含むものである。   (13) In the microscope imaging method according to the second invention, a step of emitting light by the light projecting unit, and a step of generating the measurement light having a predetermined pattern by the measurement light generating unit from the light emitted by the light projecting unit Irradiating the measurement object generated by the measurement light generation unit to the measurement object by the optical system, and sequentially moving the spatial phase of the generated pattern on the measurement object by a predetermined amount by the measurement light generation unit. A step of receiving light from the measurement object by the light receiving unit, outputting a light receiving signal indicating the amount of light received, and a plurality of patterns generated at a plurality of phases of the pattern based on the light receiving signal output from the light receiving unit Generating sectioning image data indicating an image of the measurement object based on the image data of the image, and causing the display unit to display an image based on the generated sectioning image data. Determining whether the received light signal output by the light receiving unit is saturated for at least one of the generated plurality of image data; and receiving light to the user if the received light signal is saturated And notifying that the signal is saturated.

この顕微鏡撮像方法によれば、所定のパターンを有する測定光が、投光部により出射された光から測定光生成部により生成される。測定光生成部により生成された測定光が光学系により測定対象物に照射される。また、生成されたパターンの空間的な位相が測定光生成部により所定量ずつ測定対象物上で順次移動される。受光部により測定対象物からの光が受光され、受光量を示す受光信号が出力される。   According to this microscope imaging method, the measurement light having a predetermined pattern is generated by the measurement light generation unit from the light emitted by the light projecting unit. The measurement light generated by the measurement light generation unit is irradiated onto the measurement object by the optical system. Further, the spatial phase of the generated pattern is sequentially moved on the measurement object by a predetermined amount by the measurement light generation unit. Light from the measurement object is received by the light receiving unit, and a light reception signal indicating the amount of light received is output.

受光部から出力される受光信号に基づいてパターンの複数の位相で生成される複数の画像データに基づいて測定対象物の画像を示すセクショニング画像データが生成される。セクショニング画像データに基づく測定対象物の画像は、表示部に表示される。   Sectioning image data indicating an image of the measurement object is generated based on a plurality of image data generated at a plurality of phases of the pattern based on the light reception signal output from the light receiving unit. An image of the measurement object based on the sectioning image data is displayed on the display unit.

ここで、生成された複数の画像データの少なくとも1つについて受光部により出力される受光信号が飽和しているか否かが判定される。また、受光信号が飽和している場合には、使用者に受光信号が飽和していることが通知される。これにより、使用者は受光信号が飽和していることを容易に認識することができる。   Here, it is determined whether or not the light reception signal output by the light receiving unit is saturated for at least one of the plurality of generated image data. When the light reception signal is saturated, the user is notified that the light reception signal is saturated. Thereby, the user can easily recognize that the light reception signal is saturated.

(14)第3の発明に係る顕微鏡撮像プログラムは、処理装置により実行可能な顕微鏡撮像プログラムであって、投光部により光を出射する処理と、所定のパターンを有する測定光を投光部により出射された光から測定光生成部により生成する処理と、測定光生成部により生成された測定光を光学系により測定対象物に照射する処理と、生成されたパターンの空間的な位相を測定光生成部により所定量ずつ測定対象物上で順次移動させる処理と、受光部により測定対象物からの光を受光し、受光量を示す受光信号を出力する処理と、受光部から出力される受光信号に基づいてパターンの複数の位相で生成される複数の画像データに基づいて測定対象物の画像を示すセクショニング画像データを生成する処理と、生成されたセクショニング画像データに基づく画像を表示部に表示させる処理と、生成された複数の画像データの少なくとも1つについて受光部により出力される受光信号が飽和しているか否かを判定する処理と、受光信号が飽和している場合には使用者に受光信号が飽和していることを通知する処理とを、処理装置に実行させるものである。   (14) A microscope imaging program according to a third invention is a microscope imaging program that can be executed by a processing device, and a process of emitting light by a light projecting unit and measurement light having a predetermined pattern by the light projecting unit. A process for generating the measurement light from the emitted light, a process for irradiating the measurement target with the measurement light generated by the measurement light generation part using an optical system, and a spatial phase of the generated pattern as a measurement light A process for sequentially moving a predetermined amount on the measurement target by the generation unit, a process for receiving light from the measurement target by the light receiving unit, and outputting a light reception signal indicating the amount of received light, and a light reception signal output from the light reception unit Generating sectioning image data indicating an image of a measurement object based on a plurality of image data generated at a plurality of phases of a pattern based on the pattern, and a generated sectioning image A process of displaying an image based on the data on the display unit, a process of determining whether or not the light reception signal output by the light reception unit is saturated for at least one of the plurality of generated image data, and the light reception signal When saturated, the processing device is caused to execute processing for notifying the user that the received light signal is saturated.

この顕微鏡撮像プログラムによれば、所定のパターンを有する測定光が、投光部により出射された光から測定光生成部により生成される。測定光生成部により生成された測定光が光学系により測定対象物に照射される。また、生成されたパターンの空間的な位相が測定光生成部により所定量ずつ測定対象物上で順次移動される。受光部により測定対象物からの光が受光され、受光量を示す受光信号が出力される。   According to this microscope imaging program, the measurement light having a predetermined pattern is generated by the measurement light generation unit from the light emitted by the light projecting unit. The measurement light generated by the measurement light generation unit is irradiated onto the measurement object by the optical system. Further, the spatial phase of the generated pattern is sequentially moved on the measurement object by a predetermined amount by the measurement light generation unit. Light from the measurement object is received by the light receiving unit, and a light reception signal indicating the amount of light received is output.

受光部から出力される受光信号に基づいてパターンの複数の位相で生成される複数の画像データに基づいて測定対象物の画像を示すセクショニング画像データが生成される。セクショニング画像データに基づく測定対象物の画像は、表示部に表示される。   Sectioning image data indicating an image of the measurement object is generated based on a plurality of image data generated at a plurality of phases of the pattern based on the light reception signal output from the light receiving unit. An image of the measurement object based on the sectioning image data is displayed on the display unit.

ここで、生成された複数の画像データの少なくとも1つについて受光部により出力される受光信号が飽和しているか否かが判定される。また、受光信号が飽和している場合には、使用者に受光信号が飽和していることが通知される。これにより、使用者は受光信号が飽和していることを容易に認識することができる。   Here, it is determined whether or not the light reception signal output by the light receiving unit is saturated for at least one of the plurality of generated image data. When the light reception signal is saturated, the user is notified that the light reception signal is saturated. Thereby, the user can easily recognize that the light reception signal is saturated.

本発明によれば、受光信号の強度が飽和していることを容易に使用者に認識させることができる。   According to the present invention, the user can easily recognize that the intensity of the received light signal is saturated.

本発明の一実施の形態に係る顕微鏡撮像装置の構成を示すブロック図である。It is a block diagram which shows the structure of the microscope imaging device which concerns on one embodiment of this invention. 図1の顕微鏡撮像装置の測定部および測定光供給部の構成を示す模式図である。It is a schematic diagram which shows the structure of the measurement part and measurement light supply part of the microscope imaging device of FIG. 図1の顕微鏡撮像装置の測定部における光路を示す模式図である。It is a schematic diagram which shows the optical path in the measurement part of the microscope imaging device of FIG. CPUの構成を示すブロック図である。It is a block diagram which shows the structure of CPU. パターン付与部により出射される測定光の例を示す図である。It is a figure which shows the example of the measurement light radiate | emitted by a pattern provision part. 測定条件および明度パラメータの種類を示す図である。It is a figure which shows the kind of measurement conditions and a brightness parameter. 矩形波状測定光の強度分布を示す図である。It is a figure which shows intensity distribution of rectangular wave-shaped measurement light. 図7(b)の矩形波状測定光のパターンの位相の移動量を説明するための図である。It is a figure for demonstrating the moving amount | distance of the phase of the pattern of the rectangular wave shaped measurement light of FIG.7 (b). 1次元正弦波状測定光の強度分布を示す図である。It is a figure which shows intensity distribution of one-dimensional sinusoidal measurement light. 図9(b)の1次元正弦波状測定光のパターンの位相の移動量を説明するための図である。It is a figure for demonstrating the moving amount | distance of the phase of the pattern of the one-dimensional sinusoidal measurement light of FIG.9 (b). 空間周期を図7の空間周期よりも小さくした場合における矩形波状測定光の強度分布を示す図である。It is a figure which shows intensity distribution of the rectangular-wave-shaped measurement light when a spatial period is made smaller than the spatial period of FIG. 空間周期を図7の空間周期よりも小さくした場合における矩形波状測定光の強度分布を示す図である。It is a figure which shows intensity distribution of the rectangular-wave-shaped measurement light when a spatial period is made smaller than the spatial period of FIG. 明部分の幅を図7の明部分の幅よりも大きくした場合における矩形波状測定光の強度分布を示す図である。It is a figure which shows intensity distribution of the rectangular-wave-shaped measurement light when the width | variety of a bright part is made larger than the width | variety of the bright part of FIG. 明部分の幅を図7の明部分の幅よりも小さくした場合における矩形波状測定光の強度分布を示す図である。It is a figure which shows intensity distribution of the rectangular wave shaped measurement light when the width | variety of a bright part is made smaller than the width | variety of the bright part of FIG. CPUによる光変調素子の制御処理を示すフローチャートである。It is a flowchart which shows the control process of the light modulation element by CPU. 受光部から出力される受光信号を示す図である。It is a figure which shows the light reception signal output from a light-receiving part. 表示部の表示例を示す図である。It is a figure which shows the example of a display of a display part. 表示部の表示例を示す図である。It is a figure which shows the example of a display of a display part. 通常表示においてメインウインドウに表示された画像の一例を示す図である。It is a figure which shows an example of the image displayed on the main window in normal display. 通常表示においてメインウインドウに表示された画像の他の例を示す図である。It is a figure which shows the other example of the image displayed on the main window in normal display. 通常表示においてメインウインドウに重畳表示された画像の一例を示す図である。It is a figure which shows an example of the image superimposed and displayed on the main window in normal display. 通常表示においてメインウインドウに重畳表示された画像の他の例を示す図である。It is a figure which shows the other example of the image superimposed and displayed on the main window in normal display. プレビュー表示においてメインウインドウに表示された測定対象物のセクショニング画像を示す図である。It is a figure which shows the sectioning image of the measuring object displayed on the main window in the preview display. プレビュー表示においてメインウインドウに表示された測定対象物のセクショニング画像を示す図である。It is a figure which shows the sectioning image of the measuring object displayed on the main window in the preview display. 測定条件詳細設定ウインドウの一例を示す図である。It is a figure which shows an example of a measurement condition detailed setting window. セクショニング観察における合焦点画素データの判定方式を説明するための図である。It is a figure for demonstrating the determination method of the focused pixel data in sectioning observation. 通常観察における合焦点画素データの判定方式を説明するための図である。It is a figure for demonstrating the determination method of the focused pixel data in normal observation. 全焦点画像作成ウインドウの一例を示す図である。It is a figure which shows an example of an omnifocal image creation window. 全焦点画像データ生成処理を示すフローチャートである。It is a flowchart which shows an omnifocal image data generation process. 全焦点画像データ生成処理を示すフローチャートである。It is a flowchart which shows an omnifocal image data generation process.

(1)顕微鏡撮像装置の構成
図1は、本発明の一実施の形態に係る顕微鏡撮像装置の構成を示すブロック図である。図2は、図1の顕微鏡撮像装置500の測定部および測定光供給部300の構成を示す模式図である。図3は、図1の顕微鏡撮像装置500の測定部における光路を示す模式図である。
(1) Configuration of Microscope Imaging Device FIG. 1 is a block diagram showing a configuration of a microscope imaging device according to an embodiment of the present invention. FIG. 2 is a schematic diagram illustrating the configuration of the measurement unit and the measurement light supply unit 300 of the microscope imaging apparatus 500 of FIG. FIG. 3 is a schematic diagram showing an optical path in the measurement unit of the microscope imaging apparatus 500 of FIG.

以下、本実施の形態に係る顕微鏡撮像装置500について、図1〜図3を参照しながら説明する。図1に示すように、顕微鏡撮像装置500は、測定部100、PC(パーソナルコンピュータ)200、測定光供給部300および表示部400を備える。   Hereinafter, a microscope imaging apparatus 500 according to the present embodiment will be described with reference to FIGS. As shown in FIG. 1, the microscope imaging apparatus 500 includes a measurement unit 100, a PC (personal computer) 200, a measurement light supply unit 300, and a display unit 400.

図2に示すように、測定光供給部300は、電源装置310、投光部320および導光部材330を含む。本例においては、導光部材330は液体ライトガイドである。導光部材330は、例えばガラスファイバまたは石英ファイバであってもよい。電源装置310は、投光部320に電力を供給するとともに、図示しない電源ケーブルを介して測定部100に電力を供給する。   As shown in FIG. 2, the measurement light supply unit 300 includes a power supply device 310, a light projecting unit 320, and a light guide member 330. In this example, the light guide member 330 is a liquid light guide. The light guide member 330 may be, for example, a glass fiber or a quartz fiber. The power supply device 310 supplies power to the light projecting unit 320 and supplies power to the measurement unit 100 via a power cable (not shown).

投光部320は、測定光源321、減光機構322および遮光機構323を含む。測定光源321は、例えばメタルハライドランプである。測定光源321は、水銀ランプまたは白色LED(発光ダイオード)等の他の光源であってもよい。以下、測定光源321により出射される光を測定光と呼ぶ。   The light projecting unit 320 includes a measurement light source 321, a light reduction mechanism 322, and a light shielding mechanism 323. The measurement light source 321 is, for example, a metal halide lamp. The measurement light source 321 may be another light source such as a mercury lamp or a white LED (light emitting diode). Hereinafter, the light emitted from the measurement light source 321 is referred to as measurement light.

減光機構322は、互いに透過率が異なる複数のND(Neutral Density)フィルタを含む。減光機構322は、複数のNDフィルタのいずれかが測定光源321から出射された測定光の光路上に位置するように配置される。測定光の光路上に位置するNDフィルタを選択的に切り替えることにより、減光機構322を通過する測定光の強度を調整することができる。減光機構322は、複数のNDフィルタに代えて、光の強度を調整可能な光変調器等の光学素子を含んでもよい。   The dimming mechanism 322 includes a plurality of ND (Neutral Density) filters having different transmittances. The dimming mechanism 322 is arranged such that any one of the plurality of ND filters is positioned on the optical path of the measurement light emitted from the measurement light source 321. By selectively switching the ND filter located on the optical path of the measurement light, the intensity of the measurement light passing through the dimming mechanism 322 can be adjusted. The dimming mechanism 322 may include an optical element such as an optical modulator capable of adjusting the light intensity instead of the plurality of ND filters.

遮光機構323は、例えばメカニカルシャッタである。遮光機構323は、減光機構322を通過した測定光の光路上に配置される。遮光機構323が開状態である場合には、測定光は遮光機構323を通過し、導光部材330に入力される。一方、遮光機構323が閉状態である場合には、測定光は遮断され、導光部材330に入力されない。遮光機構323は、光の通過および遮断を切り替え可能な光変調器等の光学素子を含んでもよい。   The light shielding mechanism 323 is, for example, a mechanical shutter. The light shielding mechanism 323 is disposed on the optical path of the measurement light that has passed through the dimming mechanism 322. When the light shielding mechanism 323 is in the open state, the measurement light passes through the light shielding mechanism 323 and is input to the light guide member 330. On the other hand, when the light shielding mechanism 323 is in the closed state, the measurement light is blocked and is not input to the light guide member 330. The light blocking mechanism 323 may include an optical element such as an optical modulator that can switch between passage and blocking of light.

測定部100は、例えば蛍光顕微鏡であり、パターン付与部110、受光部120、透過光供給部130、ステージ140、フィルタユニット150、レンズユニット160および制御基板170を含む。受光部120、フィルタユニット150、レンズユニット160、ステージ140および透過光供給部130は、下方から上方に向かってこの順で配置される。   The measurement unit 100 is, for example, a fluorescence microscope, and includes a pattern applying unit 110, a light receiving unit 120, a transmitted light supply unit 130, a stage 140, a filter unit 150, a lens unit 160, and a control board 170. The light receiving unit 120, the filter unit 150, the lens unit 160, the stage 140, and the transmitted light supply unit 130 are arranged in this order from the bottom to the top.

ステージ140上には、測定対象物Sが載置される。本例においては、測定対象物Sは種々のタンパク質を含む生物標本である。測定対象物Sには、特定のタンパク質に融合する蛍光試薬が塗布されている。蛍光試薬は、例えばGFP(緑色蛍光タンパク質)、Texas Red(テキサスレッド)およびDAPI(ジアミジノフェニルインドール)を含む。   On the stage 140, the measuring object S is placed. In this example, the measuring object S is a biological specimen containing various proteins. The measuring object S is coated with a fluorescent reagent that fuses with a specific protein. Fluorescent reagents include, for example, GFP (green fluorescent protein), Texas Red (Texas Red), and DAPI (diamidinophenylindole).

GFPは、490nm付近の光を吸収して510nm付近の波長の光を放出する。Texas Redは、波長596nm付近の光を吸収して波長620nm付近の光を放出する。DAPIは、波長345nm付近の光を吸収して波長455nm付近の光を放出する。   GFP absorbs light near 490 nm and emits light with a wavelength near 510 nm. Texas Red absorbs light near a wavelength of 596 nm and emits light near a wavelength of 620 nm. DAPI absorbs light near a wavelength of 345 nm and emits light near a wavelength of 455 nm.

測定対象物Sが載置されるステージ140上の平面(以下、載置面と呼ぶ)内で互いに直交する2方向をX方向およびY方向と定義し、載置面に対して直交する方向をZ方向と定義する。本実施の形態においては、X方向およびY方向は水平方向であり、Z方向は上下方向である。また、本実施の形態においては、ステージ140はX−Yステージであり、図示しないステージ駆動部によりX方向およびY方向に移動可能に配置される。   Two directions perpendicular to each other in a plane (hereinafter referred to as a placement surface) on the stage 140 on which the measurement object S is placed are defined as an X direction and a Y direction, and the directions perpendicular to the placement surface are defined as the directions. It is defined as the Z direction. In the present embodiment, the X direction and the Y direction are horizontal directions, and the Z direction is a vertical direction. In the present embodiment, stage 140 is an XY stage, and is arranged so as to be movable in the X direction and the Y direction by a stage drive unit (not shown).

測定部100には、測定光供給部300から出射される測定光を測定対象物Sに導く光学系、透過光供給部130から出射される光を測定対象物Sに導く光学系および測定対象物Sからの光を受光部120に導く光学系が構成される。   The measurement unit 100 includes an optical system that guides measurement light emitted from the measurement light supply unit 300 to the measurement object S, an optical system that guides light emitted from the transmitted light supply unit 130 to the measurement object S, and the measurement object. An optical system for guiding the light from S to the light receiving unit 120 is configured.

パターン付与部110は、光出力部111、光変調素子112および複数(本例では2個)のミラー113を含む。光出力部111は、導光部材330に入力された測定光を出力する。光出力部111から出力された光は、複数のミラー113により反射され、光変調素子112に入射する。   The pattern providing unit 110 includes a light output unit 111, a light modulation element 112, and a plurality (two in this example) of mirrors 113. The light output unit 111 outputs the measurement light input to the light guide member 330. The light output from the light output unit 111 is reflected by the plurality of mirrors 113 and enters the light modulation element 112.

光変調素子112は、例えばDMD(デジタルマイクロミラーデバイス)である。DMDは2次元状に配列された複数のマイクロミラーにより構成される。光変調素子112は、LCOS(Liquid Crystal on Silicon:反射型液晶素子)またはLCD(液晶ディスプレイ)であってもよい。光変調素子112に入射した光は、後述するパターン生成部212により予め設定されたパターンおよび予め設定された強度(明るさ)に変換されてフィルタユニット150に出射される。   The light modulation element 112 is, for example, a DMD (digital micromirror device). The DMD is composed of a plurality of micromirrors arranged two-dimensionally. The light modulation element 112 may be LCOS (Liquid Crystal on Silicon: reflection type liquid crystal element) or LCD (liquid crystal display). The light incident on the light modulation element 112 is converted into a preset pattern and a preset intensity (brightness) by a pattern generation unit 212 described later, and is emitted to the filter unit 150.

フィルタユニット150は、複数(本例では3個)のフィルタキューブ151およびフィルタターレット152を含む。複数のフィルタキューブ151は、測定対象物Sに塗布される複数種類の蛍光試薬に対応する。図3に示すように、各フィルタキューブ151は、フレーム151a、励起フィルタ151b、ダイクロイックミラー151cおよび吸収フィルタ151dを含む。フレーム151aは、励起フィルタ151b、ダイクロイックミラー151cおよび吸収フィルタ151dを支持する立方体状の部材である。   The filter unit 150 includes a plurality (three in this example) of filter cubes 151 and filter turrets 152. The plurality of filter cubes 151 correspond to a plurality of types of fluorescent reagents applied to the measurement object S. As shown in FIG. 3, each filter cube 151 includes a frame 151a, an excitation filter 151b, a dichroic mirror 151c, and an absorption filter 151d. The frame 151a is a cubic member that supports the excitation filter 151b, the dichroic mirror 151c, and the absorption filter 151d.

図2の励起フィルタ151bは、第1の波長帯域の光を通過させる帯域通過フィルタである。吸収フィルタ151dは、第1の波長帯域と異なる第2の波長帯域の光を通過させる帯域通過フィルタである。ダイクロイックミラー151cは、第1の波長帯域を含む波長帯域の光を反射し、第2の波長帯域を含む波長帯域の光を通過させるミラーである。第1および第2の波長帯域は、蛍光試薬の吸収波長および放出波長に応じてフィルタキューブ151ごとに互いに異なる。   The excitation filter 151b in FIG. 2 is a band-pass filter that passes light in the first wavelength band. The absorption filter 151d is a band-pass filter that passes light in a second wavelength band different from the first wavelength band. The dichroic mirror 151c is a mirror that reflects light in a wavelength band including the first wavelength band and passes light in a wavelength band including the second wavelength band. The first and second wavelength bands are different for each filter cube 151 depending on the absorption wavelength and emission wavelength of the fluorescent reagent.

フィルタターレット152は、円板状を有する。本実施の形態においては、フィルタターレット152に略90°間隔で4個のフィルタキューブ取付部152aが設けられている。各フィルタキューブ取付部152aは、フィルタキューブ151を取り付け可能に形成された開口である。   The filter turret 152 has a disk shape. In the present embodiment, the filter turret 152 is provided with four filter cube mounting portions 152a at approximately 90 ° intervals. Each filter cube attaching part 152a is an opening formed so that the filter cube 151 can be attached.

本実施の形態においては、3個のフィルタキューブ取付部152aにそれぞれ3個のフィルタキューブ151が取り付けられ、残り1個のフィルタキューブ取付部152aにはフィルタキューブ151が取り付けられない。そのため、フィルタキューブ151が取り付けられないフィルタキューブ取付部152aを測定光の光路上に配置させることにより、フィルタキューブ151を用いない明視野観察を行うことが可能である。なお、図2の例においては、フィルタターレット152に2個のフィルタキューブ151が取り付けられている。   In the present embodiment, three filter cubes 151 are attached to the three filter cube attachment parts 152a, respectively, and the filter cube 151 is not attached to the remaining one filter cube attachment part 152a. Therefore, it is possible to perform bright field observation without using the filter cube 151 by arranging the filter cube attachment portion 152a to which the filter cube 151 is not attached on the optical path of the measurement light. In the example of FIG. 2, two filter cubes 151 are attached to the filter turret 152.

フィルタターレット152は、図示しないフィルタターレット駆動部によりZ方向に平行な軸を中心に所定の角度間隔(本例では90°間隔)で回転可能に配置される。使用者は、後述するPC200の操作部250を操作してフィルタターレット152を回転させることにより、測定対象物Sの測定に用いるフィルタキューブ151を選択する。   The filter turret 152 is rotatably arranged at a predetermined angular interval (90 ° interval in this example) around an axis parallel to the Z direction by a filter turret driving unit (not shown). The user selects the filter cube 151 used for measuring the measurement object S by rotating the filter turret 152 by operating the operation unit 250 of the PC 200 described later.

選択されたフィルタキューブ151は、測定光が励起フィルタ151bに入射するようにフィルタユニット150に取り付けられている。図3に示すように、励起フィルタ151bに測定光が入射すると、測定光のうち第1の波長帯域を有する成分のみが励起フィルタ151bを通過する。励起フィルタ151bを通過した測定光は、ダイクロイックミラー151cにより上方のレンズユニット160(図2)に向けて反射される。   The selected filter cube 151 is attached to the filter unit 150 so that the measurement light enters the excitation filter 151b. As shown in FIG. 3, when the measurement light is incident on the excitation filter 151b, only the component having the first wavelength band in the measurement light passes through the excitation filter 151b. The measurement light that has passed through the excitation filter 151b is reflected by the dichroic mirror 151c toward the upper lens unit 160 (FIG. 2).

レンズユニット160は、複数(本例では6個)の対物レンズ161、レンズターレット162および焦点位置調整機構163を含む。複数の対物レンズ161は、互いに異なる倍率を有する。レンズターレット162は、円板状を有する。本実施の形態においては、レンズターレット162上に略60°間隔で6個の対物レンズ取付部162aが設けられている。各対物レンズ取付部162aは、対物レンズ161を取付可能に形成された開口である。   The lens unit 160 includes a plurality (six in this example) of objective lenses 161, a lens turret 162, and a focal position adjustment mechanism 163. The plurality of objective lenses 161 have different magnifications. The lens turret 162 has a disk shape. In the present embodiment, six objective lens mounting portions 162 a are provided on the lens turret 162 at approximately 60 ° intervals. Each objective lens attachment portion 162a is an opening formed so that the objective lens 161 can be attached.

本実施の形態においては、6個の対物レンズ取付部162aにそれぞれ6個の対物レンズ161が取り付けられる。なお、図2の例においては、レンズユニット160に3個の対物レンズ161が取り付けられている。   In the present embodiment, six objective lenses 161 are attached to the six objective lens attachment portions 162a, respectively. In the example of FIG. 2, three objective lenses 161 are attached to the lens unit 160.

レンズターレット162は、図示しないレンズターレット駆動部によりZ方向に平行な軸を中心に所定の角度間隔(本例では60°間隔)で回転可能に配置される。使用者は、後述するPC200の操作部250を操作してレンズターレット162を回転させることにより、測定対象物Sの測定に用いる対物レンズ161を選択する。選択された対物レンズ161は、選択されたフィルタキューブ151と重なる。これにより、図3に示すように、フィルタキューブ151のダイクロイックミラー151cにより反射された測定光は、選択された対物レンズ161を通過する。   The lens turret 162 is disposed so as to be rotatable at a predetermined angular interval (60 ° interval in this example) around an axis parallel to the Z direction by a lens turret driving unit (not shown). The user selects the objective lens 161 used for measuring the measuring object S by operating the operation unit 250 of the PC 200 described later and rotating the lens turret 162. The selected objective lens 161 overlaps the selected filter cube 151. Thereby, as shown in FIG. 3, the measurement light reflected by the dichroic mirror 151 c of the filter cube 151 passes through the selected objective lens 161.

図2の焦点位置調整機構163は、図示しない焦点位置調整機構駆動部によりレンズターレット162をZ方向に移動可能に配置される。これにより、ステージ140上の測定対象物Sと選択された対物レンズ161との相対的な距離が調整される。ステージ140は、略中央部に開口を有する。対物レンズ161を通過した測定光は、集光されつつステージ140の開口を通過して測定対象物Sに照射される。   The focal position adjusting mechanism 163 in FIG. 2 is arranged so that the lens turret 162 can be moved in the Z direction by a focal position adjusting mechanism driving unit (not shown). Thereby, the relative distance between the measuring object S on the stage 140 and the selected objective lens 161 is adjusted. The stage 140 has an opening at a substantially central portion. The measurement light that has passed through the objective lens 161 passes through the opening of the stage 140 while being condensed and is applied to the measurement object S.

測定光が照射された測定対象物Sは、測定光を吸収して、第2の波長帯域を含む波長帯域の蛍光を放出する。測定対象物Sの下方に放出された蛍光は、選択された対物レンズ161ならびに選択されたフィルタキューブ151のダイクロイックミラー151cおよび吸収フィルタ151dを通過する。これにより、蛍光のうち第2の波長帯域を有する成分が受光部120に入射する。   The measurement object S irradiated with the measurement light absorbs the measurement light and emits fluorescence in a wavelength band including the second wavelength band. The fluorescence emitted below the measuring object S passes through the selected objective lens 161 and the dichroic mirror 151c and the absorption filter 151d of the selected filter cube 151. Thereby, a component having the second wavelength band in the fluorescence enters the light receiving unit 120.

本実施の形態において、測定部100は測定対象物Sからの蛍光を観察可能な蛍光顕微鏡であるが、これに限定されない。測定部100は、例えば反射型顕微鏡であってもよい。この場合、フィルタターレット152のフィルタキューブ取付部152aには、フィルタキューブ151に代えてハーフミラーが取り付けられる。   In the present embodiment, the measurement unit 100 is a fluorescence microscope capable of observing fluorescence from the measurement object S, but is not limited thereto. The measurement unit 100 may be, for example, a reflection microscope. In this case, a half mirror is attached to the filter cube attachment portion 152 a of the filter turret 152 instead of the filter cube 151.

透過光供給部130は、測定対象物Sの明視野観察、位相差観察、微分干渉観察、暗視野観察、偏斜観察または偏光観察に用いられる。透過光供給部130は、透過光源131および透過光学系132を含む。透過光源131は、例えば白色LEDである。透過光源131は、ハロゲンランプ等の他の光源であってもよい。以下、透過光源131により出射される光を透過光と呼ぶ。   The transmitted light supply unit 130 is used for bright field observation, phase difference observation, differential interference observation, dark field observation, declination observation, or polarization observation of the measurement object S. The transmitted light supply unit 130 includes a transmitted light source 131 and a transmitted optical system 132. The transmissive light source 131 is, for example, a white LED. The transmissive light source 131 may be another light source such as a halogen lamp. Hereinafter, the light emitted from the transmissive light source 131 is referred to as transmitted light.

透過光学系132は、開口絞り、位相差スリット、リレーレンズ、コンデンサレンズおよびシャッタ等の光学素子を含む。透過光源131により出射された透過光は、透過光学系132を通過してステージ140上の測定対象物Sに照射される。   The transmission optical system 132 includes optical elements such as an aperture stop, a phase difference slit, a relay lens, a condenser lens, and a shutter. The transmitted light emitted from the transmissive light source 131 passes through the transmissive optical system 132 and is applied to the measurement object S on the stage 140.

透過光は、測定対象物Sを透過して、対物レンズ161を通過する。その後、透過光は、フィルタキューブ151が取り付けられていないフィルタターレット152のフィルタキューブ取付部152a(以下、フィルタターレット152の開口部と呼ぶ)を通過して受光部120に入射する。   The transmitted light passes through the measuring object S and passes through the objective lens 161. Thereafter, the transmitted light passes through a filter cube attachment portion 152a (hereinafter referred to as an opening portion of the filter turret 152) of the filter turret 152 to which the filter cube 151 is not attached, and enters the light receiving portion 120.

受光部120は、カメラ121、カラーフィルタ122および結像レンズ123を含む。カメラ121は、例えば撮像素子を含むCCD(電荷結合素子)カメラである。撮像素子は、例えばモノクロCCDである。撮像素子は、CMOS(相補性金属酸化膜半導体)イメージセンサ等の他の撮像素子であってもよい。   The light receiving unit 120 includes a camera 121, a color filter 122, and an imaging lens 123. The camera 121 is, for example, a CCD (charge coupled device) camera including an image sensor. The image sensor is, for example, a monochrome CCD. The imaging device may be another imaging device such as a CMOS (complementary metal oxide semiconductor) image sensor.

カラーフィルタ122は、赤色波長の光を通過させるR(赤色)フィルタ、緑色波長の光を通過させるG(緑色)フィルタおよび青色波長の光を通過させるB(青色)フィルタを含む。受光部120に入射した蛍光または透過光は、結像レンズ123により集光および結像された後、カラーフィルタ122を通ってカメラ121により受光される。これにより、測定対象物Sの画像が得られる。カメラ121の撮像素子の各画素からは、受光量に対応するアナログの電気信号(以下、受光信号と呼ぶ)が制御基板170に出力される。   The color filter 122 includes an R (red) filter that passes light of red wavelength, a G (green) filter that passes light of green wavelength, and a B (blue) filter that passes light of blue wavelength. The fluorescence or transmitted light incident on the light receiving unit 120 is collected and imaged by the imaging lens 123 and then received by the camera 121 through the color filter 122. Thereby, the image of the measuring object S is obtained. From each pixel of the image sensor of the camera 121, an analog electric signal (hereinafter referred to as a light reception signal) corresponding to the amount of received light is output to the control board 170.

モノクロCCDには、カラーCCDとは異なり、赤色波長の光を受光する画素、緑色波長の光を受光する画素および青色波長の光を受光する画素を設ける必要がない。そのため、モノクロCCDの計測の分解能はカラーCCDの分解能よりも高くなる。また、モノクロCCDには、カラーCCDとは異なり、各画素にカラーフィルタを設ける必要がない。そのため、モノクロCCDの感度はカラーCCDの感度よりも高くなる。これらの理由により、本例におけるカメラ121にはモノクロCCDが設けられる。   Unlike a color CCD, a monochrome CCD does not need to be provided with pixels that receive red wavelength light, pixels that receive green wavelength light, and pixels that receive blue wavelength light. Therefore, the measurement resolution of the monochrome CCD is higher than the resolution of the color CCD. Further, unlike a color CCD, a monochrome CCD does not require a color filter for each pixel. Therefore, the sensitivity of the monochrome CCD is higher than that of the color CCD. For these reasons, the camera 121 in this example is provided with a monochrome CCD.

本例においては、カラーフィルタ122のRフィルタ、GフィルタおよびBフィルタを通過した光が時分割でカメラ121により受光される。この構成によれば、モノクロCCDを用いた受光部120により測定対象物Sのカラー画像を得ることができる。   In this example, light that has passed through the R filter, G filter, and B filter of the color filter 122 is received by the camera 121 in a time-sharing manner. According to this configuration, a color image of the measuring object S can be obtained by the light receiving unit 120 using a monochrome CCD.

一方、カラーCCDが十分な分解能および感度を有する場合には、撮像素子は、カラーCCDであってもよい。この場合、カメラ121は、Rフィルタ、GフィルタおよびBフィルタを通過した光を時分割で受光する必要がないので、受光部120にカラーフィルタ122が設けられない。それにより、受光部120の構成を単純にすることができる。   On the other hand, when the color CCD has sufficient resolution and sensitivity, the image sensor may be a color CCD. In this case, since the camera 121 does not need to receive light that has passed through the R filter, G filter, and B filter in a time-sharing manner, the color filter 122 is not provided in the light receiving unit 120. Thereby, the configuration of the light receiving unit 120 can be simplified.

制御基板170には、図示しないA/D変換器(アナログ/デジタル変換器)およびFIFO(First In First Out)メモリが実装される。カメラ121から出力される受光信号は、PC200による制御に基づいて、A/D変換器により一定のサンプリング周期でサンプリングされるとともにデジタル信号に変換される。A/D変換器から出力されるデジタル信号は、FIFOメモリに順次蓄積される。FIFOメモリに蓄積されたデジタル信号は画素データとして順次PC200に転送される。   On the control board 170, an A / D converter (analog / digital converter) and a FIFO (First In First Out) memory (not shown) are mounted. The light reception signal output from the camera 121 is sampled at a constant sampling period by the A / D converter and converted into a digital signal based on control by the PC 200. Digital signals output from the A / D converter are sequentially stored in the FIFO memory. The digital signals stored in the FIFO memory are sequentially transferred to the PC 200 as pixel data.

また、制御基板170は、PC200による制御に基づいて、パターン付与部110、受光部120、透過光供給部130、ステージ140、フィルタユニット150およびレンズユニット160の動作を制御する。さらに、制御基板170は、PC200による制御に基づいて、測定光供給部300の投光部320の動作を制御する。   The control board 170 controls operations of the pattern applying unit 110, the light receiving unit 120, the transmitted light supply unit 130, the stage 140, the filter unit 150, and the lens unit 160 based on control by the PC 200. Further, the control board 170 controls the operation of the light projecting unit 320 of the measurement light supply unit 300 based on the control by the PC 200.

図1に示すように、PC200は、CPU(中央演算処理装置)210、ROM(リードオンリメモリ)220、RAM(ランダムアクセスメモリ)230、記憶装置240および操作部250を含む。操作部250は、キーボードおよびポインティングデバイスを含む。ポインティングデバイスとしては、マウスまたはジョイスティック等が用いられる。   As shown in FIG. 1, the PC 200 includes a CPU (Central Processing Unit) 210, a ROM (Read Only Memory) 220, a RAM (Random Access Memory) 230, a storage device 240 and an operation unit 250. The operation unit 250 includes a keyboard and a pointing device. A mouse or a joystick is used as the pointing device.

表示部400は、例えばLCDパネルまたは有機EL(エレクトロルミネッセンス)パネルにより構成される。図2の例においては、PC200および表示部400は、1台のノート型パーソナルコンピュータにより実現される。   The display unit 400 is configured by, for example, an LCD panel or an organic EL (electroluminescence) panel. In the example of FIG. 2, the PC 200 and the display unit 400 are realized by a single notebook personal computer.

ROM220には、システムプログラムが記憶される。RAM230は、種々のデータの処理のために用いられる。記憶装置240は、ハードディスク等からなる。記憶装置240には、画像処理プログラムおよび顕微鏡撮像プログラムが記憶される。また、記憶装置240は、測定部100から与えられる画素データ等の種々のデータを保存するために用いられる。   The ROM 220 stores a system program. The RAM 230 is used for processing various data. The storage device 240 is composed of a hard disk or the like. The storage device 240 stores an image processing program and a microscope imaging program. The storage device 240 is used for storing various data such as pixel data provided from the measurement unit 100.

図4は、CPU210の構成を示すブロック図である。図4に示すように、CPU210は、画像データ生成部211、パターン生成部212、制御部213および合焦検出部214を含む。画像データ生成部211は、測定部100から与えられる画素データに基づいて画像データを生成する。画像データは複数の画素データの集合である。   FIG. 4 is a block diagram showing the configuration of the CPU 210. As illustrated in FIG. 4, the CPU 210 includes an image data generation unit 211, a pattern generation unit 212, a control unit 213, and a focus detection unit 214. The image data generation unit 211 generates image data based on the pixel data given from the measurement unit 100. Image data is a set of a plurality of pixel data.

パターン生成部212は、図2の光変調素子112により出射される測定光のパターンとして、空間的な位相を所定量ずつ順次移動させつつ前記測定対象物に照射すべきパターンを生成する。制御部213は、パターン生成部212により生成されたパターンに基づいて図2の制御基板170を介して光変調素子112を制御することにより、所定のパターンを有する測定光を測定対象物Sに照射しつつパターンの位相を移動させる。   The pattern generation unit 212 generates a pattern to be irradiated to the measurement object while sequentially moving the spatial phase by a predetermined amount as the measurement light pattern emitted from the light modulation element 112 in FIG. The control unit 213 irradiates the measurement object S with measurement light having a predetermined pattern by controlling the light modulation element 112 via the control board 170 in FIG. 2 based on the pattern generated by the pattern generation unit 212. While shifting the phase of the pattern.

また、制御部213は、制御基板170を介して受光部120、透過光供給部130、ステージ140、フィルタユニット150、レンズユニット160および投光部320の動作を制御する。さらに、制御部213は、生成した画像データにRAM230を用いて各種処理を行うとともに、画像データに基づく画像を表示部400に表示させる。   The control unit 213 controls operations of the light receiving unit 120, the transmitted light supply unit 130, the stage 140, the filter unit 150, the lens unit 160, and the light projecting unit 320 via the control board 170. Further, the control unit 213 performs various processes on the generated image data using the RAM 230 and causes the display unit 400 to display an image based on the image data.

測定部100においては、測定対象物Sと図3の対物レンズ161との相対的な距離を変化させることにより、測定対象物Sに対する対物レンズ161の焦点の位置(以下、対物レンズ161の焦点位置と呼ぶ)が変化する。対物レンズ161の焦点位置が変化されつつ測定光が測定対象物Sに照射される。これにより、各焦点位置における測定対象物Sの画像データが生成される。合焦検出部214は、焦点位置調整機構163により対物レンズ161の焦点位置が複数変化されたときに画像データ生成部211によりそれぞれ生成された複数の画像データに基づいて合焦位置を検出する。   In the measurement unit 100, the position of the focal point of the objective lens 161 with respect to the measurement target S (hereinafter, the focal position of the objective lens 161) is changed by changing the relative distance between the measurement target S and the objective lens 161 of FIG. Changes). The measuring object S is irradiated with measurement light while the focal position of the objective lens 161 is changed. Thereby, image data of the measuring object S at each focal position is generated. The focus detection unit 214 detects a focus position based on a plurality of image data respectively generated by the image data generation unit 211 when a plurality of focus positions of the objective lens 161 are changed by the focus position adjustment mechanism 163.

本実施の形態に係る顕微鏡撮像装置500では、図2の投光部320を用いて測定対象物Sの落射観察を行うことができ、透過光供給部130を用いて測定対象物Sの透過通常観察(透過観察)を行うことができる。   In the microscope imaging apparatus 500 according to the present embodiment, it is possible to perform epi-illumination observation of the measurement object S using the light projecting unit 320 of FIG. 2, and normal transmission of the measurement object S using the transmitted light supply unit 130. Observation (transmission observation) can be performed.

落射観察としては、以下に説明するパターン化された測定光を用いるセクショニング観察および均一な測定光を用いる落射通常観察を行うことができる。以下の説明においては、透過通常観察および落射通常観察を総称して通常観察と呼ぶ。   As the epi-illumination observation, sectioning observation using patterned measurement light and normal epi-illumination observation using uniform measurement light described below can be performed. In the following description, transmission normal observation and epi-illumination normal observation are collectively referred to as normal observation.

(2)セクショニング観察および落射通常観察
セクショニング観察では、1次元状または2次元状のパターンを有する測定光を測定対象物Sに照射しつつそのパターンの位相を一定量ずつ移動させる。1次元状のパターンを有する測定光は、XY平面上の一方向(例えばY方向)において周期的に変化する強度を有する。2次元状のパターンを有する測定光は、XY平面上の互いに交差する二方向(例えばX方向およびY方向)において周期的に変化する強度を有する。
(2) Sectioning Observation and Epi-illumination Normal Observation In sectioning observation, the phase of the pattern is moved by a certain amount while irradiating the measuring object S with measuring light having a one-dimensional or two-dimensional pattern. The measurement light having a one-dimensional pattern has an intensity that periodically changes in one direction (for example, the Y direction) on the XY plane. The measurement light having a two-dimensional pattern has an intensity that periodically changes in two directions (for example, the X direction and the Y direction) intersecting each other on the XY plane.

以下、パターンを有する測定光をパターン測定光と呼ぶ。特に、1次元状のパターンを有する測定光を1次元状パターン測定光と呼び、2次元状のパターンを有する測定光を2次元状パターン測定光と呼ぶ。また、均一な強度を有する測定光を均一測定光と呼ぶ。   Hereinafter, measurement light having a pattern is referred to as pattern measurement light. In particular, measurement light having a one-dimensional pattern is called a one-dimensional pattern measurement light, and measurement light having a two-dimensional pattern is called a two-dimensional pattern measurement light. Further, measurement light having a uniform intensity is referred to as uniform measurement light.

パターン測定光のパターンは、光変調素子112により制御される。以下、パターン測定光のパターンについて説明する。ここで、強度が所定の値以上のパターン測定光の部分を明部分と呼び、強度が所定の値より小さいパターン測定光の部分を暗部分と呼ぶ。図5は、パターン付与部110により出射される測定光の例を示す図である。   The pattern of the pattern measurement light is controlled by the light modulation element 112. Hereinafter, the pattern of the pattern measuring light will be described. Here, the portion of the pattern measurement light having an intensity equal to or higher than a predetermined value is called a bright portion, and the portion of the pattern measurement light having an intensity smaller than the predetermined value is called a dark portion. FIG. 5 is a diagram illustrating an example of measurement light emitted by the pattern imparting unit 110.

図5(a)は、1次元状パターン測定光の一例を示す。図5(a)の1次元状パターン測定光を矩形波状測定光と呼ぶ。矩形波状測定光の断面は、一方向(例えばX方向)に平行でかつ一方向に直交する他の方向(例えばY方向)に略等間隔で並ぶ複数の直線状の明部分を含み、複数の明部分の間に複数の直線状の暗部分を含む。   FIG. 5A shows an example of the one-dimensional pattern measurement light. The one-dimensional pattern measurement light in FIG. 5A is referred to as rectangular wave measurement light. The cross section of the rectangular wave-shaped measurement light includes a plurality of linear bright portions that are parallel to one direction (for example, the X direction) and arranged at substantially equal intervals in another direction (for example, the Y direction) orthogonal to the one direction. A plurality of linear dark portions are included between the light portions.

図5(b)は、1次元状パターン測定光の他の例を示す。図5(b)の1次元状パターン測定光を1次元正弦波状測定光と呼ぶ。1次元正弦波状測定光の断面は、例えばX方向に平行でかつY方向に強度が正弦波状に変化するパターンを含む。   FIG. 5B shows another example of the one-dimensional pattern measurement light. The one-dimensional pattern measurement light in FIG. 5B is referred to as a one-dimensional sinusoidal measurement light. The cross section of the one-dimensional sinusoidal measurement light includes, for example, a pattern that is parallel to the X direction and whose intensity changes sinusoidally in the Y direction.

図5(c)は、2次元状パターン測定光の一例を示す。図5(c)の2次元状パターン測定光をドット状測定光と呼ぶ。ドット状測定光の断面は、X方向およびY方向に略等間隔で並ぶ複数のドット状の明部分を含む。   FIG. 5C shows an example of the two-dimensional pattern measurement light. The two-dimensional pattern measurement light in FIG. 5C is referred to as dot measurement light. The cross section of the dot-shaped measuring light includes a plurality of dot-shaped bright portions arranged at substantially equal intervals in the X direction and the Y direction.

2次元状パターン測定光の他の例として、パターン測定光は2次元正弦波状測定光であってもよい。2次元正弦波状測定光の断面は、X方向およびY方向に強度が正弦波状に変化するパターンを含む。2次元状パターン測定光のさらに他の例として、パターン測定光は格子状のパターンまたはチェッカーパターン(市松模様)を有してもよい。   As another example of the two-dimensional pattern measurement light, the pattern measurement light may be a two-dimensional sinusoidal measurement light. The cross section of the two-dimensional sinusoidal measurement light includes a pattern in which the intensity changes sinusoidally in the X direction and the Y direction. As still another example of the two-dimensional pattern measurement light, the pattern measurement light may have a lattice pattern or a checker pattern (checkered pattern).

セクショニング観察では、パターン測定光の明部分が測定光の照射範囲の全体に少なくとも1回照射されるようにパターン測定光のパターンの位相を一定量ずつ移動させつつ、測定対象物Sにより放出される蛍光を検出する。これにより、測定対象物Sの複数の画像データが生成される。   In sectioning observation, the pattern measurement light is emitted by the measurement object S while moving the phase of the pattern measurement light by a certain amount so that the bright part of the pattern measurement light is irradiated at least once over the entire irradiation range of the measurement light. Detect fluorescence. Thereby, a plurality of image data of the measuring object S is generated.

以下、測定対象物Sにパターン測定光が照射された場合に得られる画像データをパターン画像データと呼ぶ。パターン画像データに基づく画像をパターン画像と呼ぶ。   Hereinafter, the image data obtained when the measurement object S is irradiated with the pattern measurement light is referred to as pattern image data. An image based on the pattern image data is called a pattern image.

各パターン画像データにおいて、パターン測定光の明部分に対応する画素データは高い値(輝度値)を有し、パターン測定光の暗部分に対応する画素データは低い値(輝度値)を有する。そのため、各パターン画像において、パターン測定光の明部分に対応する画素は明るく、パターン測定光の暗部分に対応する画素は暗い。   In each pattern image data, pixel data corresponding to a bright portion of the pattern measurement light has a high value (luminance value), and pixel data corresponding to a dark portion of the pattern measurement light has a low value (luminance value). Therefore, in each pattern image, the pixel corresponding to the bright part of the pattern measurement light is bright, and the pixel corresponding to the dark part of the pattern measurement light is dark.

複数のパターン画像データから画素ごとに複数の画素データの値を用いて明暗差の度合いを表わす成分(以下、合焦成分と呼ぶ)が算出される。合焦成分を有する画素をつなぎ合わせることにより生成される画像データをセクショニング画像データと呼ぶ。セクショニング画像データに基づく画像をセクショニング画像と呼ぶ。   A component (hereinafter referred to as an in-focus component) representing the degree of contrast is calculated from the plurality of pattern image data using the values of the plurality of pixel data for each pixel. Image data generated by connecting pixels having a focusing component is referred to as sectioning image data. An image based on the sectioning image data is called a sectioning image.

矩形波状測定光またはドット状測定光を用いて生成されたパターン画像データにおいては、合焦成分は、例えば画素データの最大値(最大輝度値)と最小値(最小輝度値)との差、または画素データの値の標準偏差である。1次元正弦波状測定光または2次元正弦波状測定光を用いて生成されたパターン画像データにおいては、合焦成分は、例えば画素データの振幅(ピークトゥピーク)である。   In pattern image data generated using rectangular wave-shaped measurement light or dot-shaped measurement light, the focus component is, for example, the difference between the maximum value (maximum luminance value) and minimum value (minimum luminance value) of pixel data, or This is the standard deviation of the pixel data value. In the pattern image data generated using the one-dimensional sinusoidal measurement light or the two-dimensional sinusoidal measurement light, the focus component is, for example, the amplitude (peak-to-peak) of the pixel data.

最も簡単な方法では、各画素について、複数のパターン画像データから最大値を有する画素データを選択し、全画素について、選択された画素データをつなぎ合せることにより、セクショニング画像データを生成することが可能である。   In the simplest method, it is possible to generate sectioning image data by selecting pixel data having the maximum value from a plurality of pattern image data for each pixel and connecting the selected pixel data for all pixels. It is.

ここで、各パターン画像は、迷光の影響を受ける。それにより、パターン画像のパターンにはボケが生じる。各パターン画像データにおいて迷光による成分をボケ成分と呼ぶ。ボケ成分は、パターン測定光の各明部分自体において発生する迷光によるボケ成分と、パターン測定光の各明部分に隣り合う他の明部分からの迷光によるボケ成分とを含む。   Here, each pattern image is affected by stray light. As a result, the pattern of the pattern image is blurred. A component caused by stray light in each pattern image data is called a blur component. The blur component includes a blur component due to stray light generated in each bright portion of the pattern measurement light and a blur component due to stray light from another bright portion adjacent to each bright portion of the pattern measurement light.

そこで、迷光の影響を除去するために、各画素について、パターン測定光の明部分および暗部分が照射されたときのパターン画像データの画素データの差を算出する。算出された全画素についての差をつなぎ合せることにより、セクショニング画像データを生成する。各画素について、パターン測定光の暗部分が照射されたときのパターン画像データの画素データの値は、ボケ成分に相当する。したがって、迷光の影響が除去されたセクショニング画像データを得ることができる。   Therefore, in order to remove the influence of stray light, the difference between the pixel data of the pattern image data when the bright portion and the dark portion of the pattern measurement light are irradiated is calculated for each pixel. Sectioning image data is generated by connecting the calculated differences for all pixels. For each pixel, the value of the pixel data of the pattern image data when the dark portion of the pattern measurement light is irradiated corresponds to a blur component. Therefore, sectioning image data from which the influence of stray light is removed can be obtained.

セクショニング画像データの生成方法の一例として、本実施の形態では、各画素について、複数のパターン画像データの複数の画素データの最大値(最大輝度値)と最小値(最小輝度値)との差を算出する。算出された全画素についての差をつなぎ合せることにより、セクショニング画像データを生成する。他の方法により、複数のパターン画像データの複数の画素データに基づいてセクショニング画像が生成されてもよい。   As an example of a method for generating sectioning image data, in this embodiment, for each pixel, a difference between a maximum value (maximum luminance value) and a minimum value (minimum luminance value) of a plurality of pixel data of a plurality of pattern image data is calculated. calculate. Sectioning image data is generated by connecting the calculated differences for all pixels. The sectioning image may be generated based on a plurality of pixel data of the plurality of pattern image data by another method.

例えば、各画素について、複数のパターン画像データの複数の画素データの値の標準偏差を算出する。算出された全画素についての標準偏差をつなぎ合せることにより、セクショニング画像データを生成してもよい。   For example, for each pixel, the standard deviation of the values of the plurality of pixel data of the plurality of pattern image data is calculated. Sectioning image data may be generated by connecting standard deviations for all the calculated pixels.

セクショニング観察において、1次元状パターン測定光を用いる場合には、パターン測定光の位相が例えばY方向に移動されるので、Y方向におけるボケ成分が除去されたセクショニング画像データが生成される。また、パターン測定光の位相は例えばX方向に移動される必要がないので、撮像回数が低減される。そのため、比較的高い画質を有するセクショニング画像を高速に得ることができる。   In sectioning observation, when the one-dimensional pattern measurement light is used, the phase of the pattern measurement light is moved in the Y direction, for example, so that sectioning image data from which the blur component in the Y direction has been removed is generated. Further, since the phase of the pattern measurement light does not need to be moved in the X direction, for example, the number of imaging is reduced. Therefore, a sectioning image having a relatively high image quality can be obtained at high speed.

一方、セクショニング観察において、2次元状パターン測定光を用いる場合には、パターン測定光の位相がX方向およびY方向に移動されるので、X方向Y方向におけるボケ成分が除去されたセクショニング画像データが生成される。そのため、1次元状パターン測定光を用いる場合よりも撮像回数が増加するが、非常に高い画質を有するセクショニング画像を得ることができる。   On the other hand, in the sectioning observation, when the two-dimensional pattern measurement light is used, the phase of the pattern measurement light is moved in the X direction and the Y direction, so that the sectioning image data from which the blur component in the X direction and Y direction is removed. Generated. Therefore, although the number of times of imaging is increased as compared with the case where the one-dimensional pattern measurement light is used, a sectioning image having a very high image quality can be obtained.

特に測定部100が蛍光顕微鏡である場合には、多数回のパターン測定光を測定対象物Sに照射することにより測定対象物Sの蛍光試薬が褪色することがある。そのため、測定対象物Sによっては、撮像回数を低減させることが重視されることがある。   In particular, when the measurement unit 100 is a fluorescence microscope, the fluorescent reagent of the measurement object S may be faded by irradiating the measurement object S with a number of times of pattern measurement light. Therefore, depending on the measurement object S, it may be important to reduce the number of times of imaging.

本実施の形態においては、光変調素子112を制御することにより、1次元状パターン測定光と2次元状パターン測定光とを容易かつ高速に切り替えることができる。したがって、使用者は、セクショニング画像データの生成に要する時間(撮像回数)と、得られるセクショニング画像の画質とを考慮して、セクショニング観察に用いるパターン測定光を選択することができる。   In the present embodiment, the one-dimensional pattern measurement light and the two-dimensional pattern measurement light can be switched easily and at high speed by controlling the light modulation element 112. Therefore, the user can select the pattern measurement light used for sectioning observation in consideration of the time required for generating the sectioning image data (number of imaging) and the image quality of the obtained sectioning image.

図5(d)は、均一測定光の一例を示す。均一測定光は、均一な強度分布を有する。すなわち、均一測定光は明部分のみからなる測定光である。落射通常観察では、図5(d)の均一測定光が測定対象物Sの全ての部分に照射され、測定対象物Sにより放出される蛍光が検出される。これにより、測定対象物Sの画像データが生成される。落射通常観察において得られる画像データを落射通常画像データと呼び、落射通常画像データに基づく画像を落射通常画像と呼ぶ。   FIG. 5D shows an example of uniform measurement light. The uniform measurement light has a uniform intensity distribution. That is, the uniform measurement light is measurement light composed of only a bright part. In the epi-illumination normal observation, the uniform measurement light shown in FIG. 5D is irradiated to all parts of the measurement object S, and the fluorescence emitted by the measurement object S is detected. Thereby, the image data of the measuring object S is generated. The image data obtained in the reflected normal observation is called reflected normal image data, and an image based on the reflected normal image data is called the reflected normal image.

測定対象物Sが立体的な構造を有する場合、測定対象物Sの一部に対物レンズ161の焦点が合っていても、測定対象物Sの他の部分に対物レンズ161の焦点が合っていない。したがって、ある焦点位置におけるセクショニング画像データまた落射通常画像データのうち一部の画素データは測定対象物Sの部分に焦点が合った状態で得られ、他の部分の画素データは測定対象物Sの部分に焦点が合っていない状態で得られる。以下、測定対象物Sの一部に焦点が合った状態で得られる画素データを合焦点画素データと呼ぶ。   When the measuring object S has a three-dimensional structure, the objective lens 161 is not focused on the other part of the measuring object S even if the objective lens 161 is focused on a part of the measuring object S. . Therefore, some pixel data of the sectioning image data or the epi-illumination normal image data at a certain focus position is obtained in a state where the measurement object S is in focus, and the other part of the pixel data is obtained from the measurement object S. Obtained when the part is out of focus. Hereinafter, pixel data obtained in a state where a part of the measuring object S is in focus is referred to as focused pixel data.

複数の焦点位置で得られた複数のセクショニング画像データまたは落射通常画像データのうち、合焦点画素データが合成されることにより、測定対象物Sの全体に焦点が合った状態で得られる画像データが生成される。以下、測定対象物Sの全体に焦点が合った状態で得られる画像データを全焦点画像データと呼ぶ。全焦点画像データに基づく画像を全焦点画像と呼ぶ。   Among the plurality of sectioning image data or epi-illumination normal image data obtained at a plurality of focal positions, the image data obtained in a state in which the whole measuring object S is in focus by combining the focused pixel data. Generated. Hereinafter, the image data obtained in a state where the entire measurement object S is in focus is referred to as omnifocal image data. An image based on the omnifocal image data is referred to as an omnifocal image.

(3)測定条件の設定
(a)測定条件および明度パラメータ
セクショニング観察における測定条件ならびにセクショニング観察および落射通常観察における明度パラメータについて説明する。図6は、測定条件および明度パラメータの種類を示す図である。
(3) Setting of measurement conditions (a) Measurement conditions and brightness parameters Measurement conditions in sectioning observation and brightness parameters in sectioning observation and epi-illumination normal observation will be described. FIG. 6 is a diagram showing types of measurement conditions and brightness parameters.

図6に示すように、セクショニング観察における測定条件は、パターン種別および測定パラメータを含む。パターン種別は、パターン測定光および均一測定光を含む。パターン測定光は、1次元状パターン測定光および2次元状パターン測定光を含む。1次元状パターン測定光は、矩形波状測定光および1次元正弦波状測定光を含む。2次元状パターン測定光は、ドット状測定光および2次元正弦波状測定光を含む。   As shown in FIG. 6, the measurement conditions in sectioning observation include a pattern type and measurement parameters. The pattern type includes pattern measurement light and uniform measurement light. The pattern measurement light includes one-dimensional pattern measurement light and two-dimensional pattern measurement light. The one-dimensional pattern measurement light includes rectangular wave measurement light and one-dimensional sinusoidal measurement light. The two-dimensional pattern measurement light includes dot-shaped measurement light and two-dimensional sinusoidal measurement light.

セクショニング観察における測定パラメータは、撮像回数、パターン測定光の位相の移動量、パターン測定光の明部分および暗部分の幅、ならびにパターン測定光の位相の空間周期を含む。撮像回数は、パターン画像データの生成回数である。   Measurement parameters in sectioning observation include the number of times of imaging, the amount of movement of the phase of the pattern measurement light, the width of the bright and dark portions of the pattern measurement light, and the spatial period of the phase of the pattern measurement light. The number of times of imaging is the number of times pattern image data is generated.

明度パラメータは、受光部120の露光時間、受光部120のゲイン、パターン画像データまたは落射通常画像データにおけるビニング数および蛍光(測定光)の強度を含む。ここで、ビニング数とは、複数の画素データを擬似的に結合させて1つの画素データとして扱うビニング処理において結合される画素データの数を意味する。   The brightness parameter includes the exposure time of the light receiving unit 120, the gain of the light receiving unit 120, the number of bins in the pattern image data or the incident normal image data, and the intensity of fluorescence (measurement light). Here, the binning number means the number of pixel data to be combined in a binning process in which a plurality of pixel data is pseudo combined and handled as one pixel data.

セクショニング観察において適切な測定パラメータは、パターン種別に応じて異なる。明度パラメータは、測定条件に連動して自動的に適切に設定される。以下、パターン種別に応じた測定パラメータの設定について説明する。   An appropriate measurement parameter in sectioning observation varies depending on the pattern type. The brightness parameter is automatically set appropriately in conjunction with the measurement conditions. Hereinafter, the setting of the measurement parameter according to the pattern type will be described.

(b)矩形波状測定光
図7は、矩形波状測定光の強度分布を示す図である。図7(a),(b)の横軸は矩形波状測定光の位置(例えばY方向における位置)を示し、縦軸は矩形波状測定光の強度を示す。図7(a)は、理想的な矩形波状測定光の強度分布を示す。理想的な矩形波状測定光においては、各明部分は略矩形状の強度分布を有する。
(B) Rectangular wave-like measurement light FIG. 7 is a diagram showing the intensity distribution of the rectangular wave-like measurement light. 7A and 7B, the horizontal axis indicates the position of the rectangular wave measuring light (for example, the position in the Y direction), and the vertical axis indicates the intensity of the rectangular wave measuring light. FIG. 7A shows an ideal intensity distribution of the rectangular wave-shaped measurement light. In an ideal rectangular wave measuring light, each bright portion has a substantially rectangular intensity distribution.

矩形波状測定光の最大強度(各明部分の強度)はImaxである。矩形波状測定光の最小強度(各暗部分の強度)はIminである。矩形波状測定光の最大強度Imaxと最小強度Iminとの差が大きいほど、パターン画像の画質を向上させることができる。   The maximum intensity (intensity of each bright part) of the rectangular wave measuring light is Imax. The minimum intensity (intensity of each dark part) of the rectangular wave measuring light is Imin. As the difference between the maximum intensity Imax and the minimum intensity Imin of the rectangular wave measuring light is larger, the image quality of the pattern image can be improved.

矩形波状測定光の平均強度はIaveである。矩形波状測定光の平均強度Iaveが大きいほど、パターン画像が明るくなる。矩形波状測定光の平均強度Iaveは比較的小さいので、パターン画像は比較的暗い。したがって、矩形状測定光が選択された場合には、自動的に明度パラメータが比較的大きく設定される。これにより、パターン画像を明るくすることができる。   The average intensity of the rectangular wave measuring light is Iave. The larger the average intensity Iave of the rectangular wave measuring light, the brighter the pattern image. Since the average intensity Iave of the rectangular wave measuring light is relatively small, the pattern image is relatively dark. Therefore, when the rectangular measurement light is selected, the brightness parameter is automatically set to be relatively large. Thereby, the pattern image can be brightened.

矩形波状測定光の各明部分の幅はW1であり、矩形波状測定光の各暗部分の幅はW2である。パターンは一定の空間周期Tsで繰り返される。空間周期Tsは、明部分の幅W1と暗部分の幅W2との和である。   The width of each bright part of the rectangular wave-like measurement light is W1, and the width of each dark part of the rectangular wave-like measurement light is W2. The pattern is repeated with a constant spatial period Ts. The spatial period Ts is the sum of the width W1 of the bright portion and the width W2 of the dark portion.

光変調素子112がDMDである場合には、各マイクロミラーの寸法を1単位とする。矩形波状測定光の各明部分の幅W1は例えば4単位であり、矩形波状測定光の各暗部分の幅W2は例えば12単位である。この場合、空間周期Tsは16単位である。なお、明部分および暗部分の単位は、光変調素子112の構成により異なる。例えば、光変調素子112がLCDである場合には、1単位は1画素の寸法である。   When the light modulation element 112 is a DMD, the dimension of each micromirror is 1 unit. The width W1 of each bright portion of the rectangular wave measuring light is 4 units, for example, and the width W2 of each dark portion of the rectangular wave measuring light is 12 units, for example. In this case, the spatial period Ts is 16 units. The unit of the bright part and the dark part varies depending on the configuration of the light modulation element 112. For example, when the light modulation element 112 is an LCD, one unit is the size of one pixel.

空間周期Tsが小さい場合、矩形波状測定光の一の明部分が照射されるべき測定対象物Sの部分に他の明部分から迷光が照射されることがある。この場合、パターン画像に発生するボケが増加する。そのため、空間周期Tsを大きく設定することにより、パターン画像に発生するボケを低減することができる。   When the spatial period Ts is small, stray light may be irradiated from the other bright part to the part of the measuring object S to be irradiated with one bright part of the rectangular wave-shaped measurement light. In this case, blurring generated in the pattern image increases. Therefore, blurring generated in the pattern image can be reduced by setting the spatial period Ts large.

また、矩形波状測定光の各明部分の幅W1が大きい場合、各明部分における迷光が測定対象物Sに照射されることにより、測定対象物Sの細部におけるパターン画像の画質が低下する。そのため、矩形波状明部分の幅W1を小さく設定することにより、測定対象物Sの細部におけるパターン画像の画質を向上させることができる。   Further, when the width W1 of each bright portion of the rectangular wave measurement light is large, the image quality of the pattern image in the details of the measurement target S is deteriorated by irradiating the measurement target S with stray light in each bright portion. Therefore, the image quality of the pattern image in the details of the measuring object S can be improved by setting the width W1 of the rectangular wave bright portion small.

図7(b)は、現実的な矩形波状測定光の強度分布を示す。現実的な矩形波状測定光においては、各明部分の強度分布は略台形状となる。また、現実的な矩形波状測定光の最大強度Imaxは、図7(a)の理想的な矩形波状測定光の最大強度Imaxよりも小さくなる。現実的な矩形波状測定光の最小強度Iminは、図7(a)の理想的な矩形波状測定光の最小強度Iminよりも大きくなる。   FIG. 7B shows an actual intensity distribution of the rectangular wave measuring light. In realistic rectangular wave-shaped measurement light, the intensity distribution of each bright part is substantially trapezoidal. Further, the actual maximum intensity Imax of the rectangular wave-shaped measurement light is smaller than the ideal maximum intensity Imax of the rectangular wave-shaped measurement light in FIG. The actual minimum intensity Imin of the rectangular wave-like measurement light is larger than the ideal minimum intensity Imin of the rectangular wave-like measurement light in FIG.

図7(b)の矩形波状測定光の明部分が測定光の照射範囲の全体に少なくとも1回照射されるように矩形波状測定光のパターンの位相の移動量を設定する。図8は、図7(b)の矩形波状測定光のパターンの位相の移動量を説明するための図である。図8(a),(b)の横軸は矩形波状測定光の位置(例えばY方向における位置)を示し、縦軸は矩形波状測定光の強度を示す。   The movement amount of the phase of the rectangular wave measuring light pattern is set so that the bright portion of the rectangular wave measuring light in FIG. 7B is irradiated at least once over the entire irradiation range of the measuring light. FIG. 8 is a diagram for explaining a phase shift amount of the rectangular wave-shaped measurement light pattern of FIG. 8A and 8B, the horizontal axis indicates the position of the rectangular wave measuring light (for example, the position in the Y direction), and the vertical axis indicates the intensity of the rectangular wave measuring light.

図8(a)の例においては、第1の時点において、測定対象物Sの部分Aに明部分が位置するように、矩形波状測定光が測定対象物Sに照射される。これにより、測定対象物Sの部分Aから放出される蛍光が受光部120により受光される。蛍光の受光量に基づいて、測定対象物Sの1番目のパターン画像データが生成される。   In the example of FIG. 8A, the measurement target object S is irradiated with the rectangular wave measurement light so that the bright part is located in the part A of the measurement target object S at the first time point. Thereby, the fluorescence emitted from the portion A of the measuring object S is received by the light receiving unit 120. Based on the amount of received fluorescence, the first pattern image data of the measuring object S is generated.

その後、矩形波状測定光のパターンの位相を空間周期Tsの略1/3だけY方向に移動させる。次に、第1の時点後の第2の時点において、測定対象物Sの部分Bに明部分が位置するように、矩形波状測定光が測定対象物Sに照射される。これにより、測定対象物Sの部分Bから放出される蛍光が受光部120により受光される。蛍光の受光量に基づいて、測定対象物Sの2番目のパターン画像データが生成される。   Thereafter, the phase of the pattern of the rectangular wave measuring light is moved in the Y direction by approximately 1/3 of the spatial period Ts. Next, at a second time point after the first time point, the measurement object S is irradiated with the rectangular wave-shaped measurement light so that the bright part is located at the part B of the measurement object S. Thereby, the fluorescence emitted from the portion B of the measuring object S is received by the light receiving unit 120. Based on the amount of received fluorescence, second pattern image data of the measuring object S is generated.

その後、矩形波状測定光のパターンの位相を空間周期Tsの略1/3だけY方向にさらに移動させる。次に、第2の時点後の第3の時点において、測定対象物Sの部分Cに明部分が位置するように、矩形波状測定光が測定対象物Sに照射される。これにより、測定対象物Sの部分Cから放出される蛍光が受光部120により受光される。蛍光の受光量に基づいて、測定対象物Sの3番目のパターン画像データが生成される。   Thereafter, the phase of the rectangular wave-shaped measurement light pattern is further moved in the Y direction by approximately 1/3 of the spatial period Ts. Next, at the third time point after the second time point, the measurement object S is irradiated with the rectangular wave-shaped measurement light so that the bright part is located at the part C of the measurement object S. Thereby, the fluorescence emitted from the part C of the measuring object S is received by the light receiving unit 120. Based on the amount of received fluorescence, the third pattern image data of the measuring object S is generated.

このように、パターンの位相を移動させつつ矩形波状測定光を測定対象物Sに3回照射することにより、測定対象物Sの全ての部分に明部分が照射される。生成された1番目〜3番目のパターン画像データに基づいて、セクショニング画像データが生成される。このセクショニング画像データは、測定対象物Sの全ての部分に図8(a)の太い曲線で示される強度分布の測定光が照射された場合に生成されるパターン画像データと等価である。   In this way, by irradiating the measuring object S three times with the rectangular wave-shaped measuring light while moving the phase of the pattern, all the portions of the measuring object S are irradiated with the bright part. Sectioning image data is generated based on the generated first to third pattern image data. This sectioning image data is equivalent to the pattern image data generated when the measurement light having the intensity distribution indicated by the thick curve in FIG.

しかしながら、図8(a)の例においては、部分A,Bの境界付近、部分B,Cの境界付近、および部分C,Aの境界付近に照射される明部分の強度は、部分A〜Cの中央付近に照射される明部分の強度よりも小さい。この場合、部分A,Bの境界付近、部分B,Cの境界付近、および部分C,Aの境界付近に対応するセクショニング画像データの画素は暗くなるか、または欠落する。そのため、正確なセクショニング画像データを生成することができない。   However, in the example of FIG. 8A, the intensities of the bright portions irradiated near the boundaries of the portions A and B, near the boundaries of the portions B and C, and near the boundaries of the portions C and A are the portions A to C. It is smaller than the intensity of the bright part irradiated near the center. In this case, the pixels of the sectioning image data corresponding to the vicinity of the boundary between the parts A and B, the vicinity of the boundary between the parts B and C, and the vicinity of the boundary between the parts C and A become dark or missing. Therefore, accurate sectioning image data cannot be generated.

図8(b)の例においては、第1の時点において、測定対象物Sの部分Aに明部分が位置するように、矩形波状測定光が測定対象物Sに照射されることにより、測定対象物Sの1番目のパターン画像データが生成される。その後、矩形波状測定光のパターンの位相を空間周期Tsの略1/5だけY方向に移動させる。   In the example of FIG. 8B, at the first time point, the measurement object S is irradiated with the rectangular wave-shaped measurement light so that the bright part is positioned on the part A of the measurement object S, thereby measuring the measurement object. First pattern image data of the object S is generated. Thereafter, the phase of the pattern of the rectangular wave measuring light is moved in the Y direction by about 1/5 of the spatial period Ts.

この状態で、同様の矩形波状測定光の出射およびパターンの位相の移動が繰り返される。これにより、第2〜第5の時点において、それぞれ測定対象物Sの部分B〜Eに明部分が位置するように、矩形波状測定光が測定対象物Sに照射され、2番目〜5番目のパターン画像データが生成される。   In this state, the emission of the same rectangular wave-shaped measurement light and the movement of the pattern phase are repeated. Thereby, at the second to fifth time points, the rectangular wave-shaped measurement light is irradiated to the measurement object S so that the bright portions are located in the parts B to E of the measurement object S, respectively, and the second to fifth points. Pattern image data is generated.

このように、パターンの位相を移動させつつ矩形波状測定光を測定対象物Sに5回照射することにより、測定対象物Sの全ての部分に明部分が照射される。生成された1番目〜5番目のパターン画像データに基づいて、セクショニング画像データが生成される。このセクショニング画像データは、測定対象物Sの全ての部分に図8(b)の太い曲線で示される強度分布の測定光が照射された場合に生成されるパターン画像データと等価である。   In this way, by irradiating the measurement object S with the rectangular wave-shaped measurement light five times while shifting the phase of the pattern, the bright part is irradiated to all the parts of the measurement object S. Sectioning image data is generated based on the generated first to fifth pattern image data. This sectioning image data is equivalent to the pattern image data generated when the measurement light of the intensity distribution indicated by the thick curve in FIG.

図8(b)の例においては、測定対象物Sの全ての部分に照射される明部分の強度は略均一である。これにより、測定対象物Sの正確なセクショニング画像データを生成することができる。   In the example of FIG. 8B, the intensity of the bright part irradiated to all the parts of the measuring object S is substantially uniform. Thereby, the accurate sectioning image data of the measuring object S can be generated.

(c)1次元正弦波状測定光
図9は、1次元正弦波状測定光の強度分布を示す図である。図9(a),(b)の横軸は1次元正弦波状測定光の位置(例えばY方向における位置)を示し、縦軸は1次元正弦波状測定光の強度を示す。
(C) One-dimensional sinusoidal measurement light FIG. 9 is a diagram showing the intensity distribution of the one-dimensional sinusoidal measurement light. 9A and 9B, the horizontal axis indicates the position of the one-dimensional sinusoidal measurement light (for example, the position in the Y direction), and the vertical axis indicates the intensity of the one-dimensional sinusoidal measurement light.

図9(a)は、理想的な1次元正弦波状測定光の強度分布を示す。1次元正弦波状測定光の最大強度はImaxである。1次元正弦波状測定光の最小強度はIminである。1次元正弦波状測定光の平均強度はIaveである。1次元正弦波状測定光の平均強度Iaveは、矩形波状測定光の平均強度Iaveよりも大きい。そのため、1次元正弦波状測定光を用いたパターン画像は、矩形波状測定光を用いたパターン画像よりも明るくなる。したがって、1次元正弦波状測定光が選択された場合には、自動的に明度パラメータが比較的小さく設定される。   FIG. 9A shows an ideal intensity distribution of the one-dimensional sinusoidal measurement light. The maximum intensity of the one-dimensional sinusoidal measurement light is Imax. The minimum intensity of the one-dimensional sinusoidal measurement light is Imin. The average intensity of the one-dimensional sinusoidal measurement light is Iave. The average intensity Iave of the one-dimensional sinusoidal measurement light is larger than the average intensity Iave of the rectangular wave measurement light. Therefore, the pattern image using the one-dimensional sinusoidal measurement light is brighter than the pattern image using the rectangular wave measurement light. Therefore, when the one-dimensional sinusoidal measurement light is selected, the brightness parameter is automatically set to be relatively small.

パターンは一定の空間周期Tsで繰り返される。空間周期Tsが大きい場合、セクショニング画像に発生する広域的なボケ成分を低減することができる反面、測定対象物Sの細部におけるセクショニング画像の画質が低下する。そのため、空間周期Tsは、セクショニング画像に発生する広域的なボケと測定対象物Sの細部におけるセクショニング画像の画質とのトレードオフにより適切に設定される。   The pattern is repeated with a constant spatial period Ts. When the spatial period Ts is large, it is possible to reduce a wide range blur component generated in the sectioning image, but the image quality of the sectioning image in the details of the measurement object S is deteriorated. Therefore, the spatial period Ts is appropriately set by a trade-off between wide-area blurring generated in the sectioning image and the image quality of the sectioning image in the details of the measurement object S.

図9(b)は、現実的な1次元正弦波状測定光の強度分布を示す。現実的な正弦波状測定光の最大強度Imaxは、図9(a)の理想的な1次元正弦波状測定光の最大強度Imaxよりも小さくなる。現実的な1次元正弦波状測定光の最小強度Iminは、図9(a)の理想的な1次元正弦波状測定光の最小強度Iminよりも大きくなる。   FIG. 9B shows a realistic intensity distribution of the one-dimensional sinusoidal measurement light. The actual maximum intensity Imax of the sinusoidal measurement light is smaller than the ideal maximum intensity Imax of the one-dimensional sinusoidal measurement light in FIG. The actual minimum intensity Imin of the one-dimensional sinusoidal measurement light is larger than the ideal minimum intensity Imin of the one-dimensional sinusoidal measurement light in FIG.

図9(b)の1次元正弦波状測定光の明部分が測定光の照射範囲の全体に少なくとも1回照射されるように1次元正弦波状測定光のパターンの位相の移動量を設定する。図10は、図9(b)の1次元正弦波状測定光のパターンの位相の移動量を説明するための図である。図10の横軸は1次元正弦波状測定光の位置(例えばY方向における位置)を示し、縦軸は1次元正弦波状測定光の強度を示す。   The movement amount of the phase of the pattern of the one-dimensional sinusoidal measurement light is set so that the bright portion of the one-dimensional sinusoidal measurement light in FIG. 9B is irradiated at least once over the entire irradiation range of the measurement light. FIG. 10 is a diagram for explaining the amount of phase shift of the pattern of the one-dimensional sinusoidal measurement light in FIG. 9B. The horizontal axis of FIG. 10 indicates the position of the one-dimensional sinusoidal measurement light (for example, the position in the Y direction), and the vertical axis indicates the intensity of the one-dimensional sinusoidal measurement light.

図10の例においては、第1の時点において、測定対象物Sの部分Aに明部分が位置するように、1次元正弦波状測定光が測定対象物Sに照射されることにより、測定対象物Sの1番目のパターン画像データが生成される。その後、1次元正弦波状測定光のパターンの位相を空間周期Tsの略1/3だけY方向に移動させる。   In the example of FIG. 10, the measurement target object is irradiated with the one-dimensional sinusoidal measurement light so that the bright part is positioned at the part A of the measurement target object S at the first time point. S first pattern image data is generated. Thereafter, the phase of the pattern of the one-dimensional sinusoidal measurement light is moved in the Y direction by approximately 1/3 of the spatial period Ts.

この状態で、同様の1次元正弦波状測定光の出射およびパターンの位相の移動が繰り返される。これにより、第2および第3の時点において、それぞれ測定対象物Sの部分B,Cに明部分が位置するように、1次元正弦波状測定光が測定対象物Sに照射され、2番目および3番目のパターン画像データが生成される。   In this state, the emission of the same one-dimensional sinusoidal measurement light and the movement of the pattern phase are repeated. Thus, at the second and third time points, the measurement object S is irradiated with the one-dimensional sinusoidal measurement light so that the bright portions are located at the parts B and C of the measurement object S, respectively. The th pattern image data is generated.

このように、パターンの位相を移動させつつ1次元正弦波状測定光を測定対象物Sに3回照射することにより、測定対象物Sの全ての部分に明部分が照射される。生成された1番目〜3番目のパターン画像データに基づいて、セクショニング画像データが生成される。   In this way, by irradiating the measuring object S three times with the one-dimensional sinusoidal measuring light while moving the phase of the pattern, the bright part is irradiated on all the parts of the measuring object S. Sectioning image data is generated based on the generated first to third pattern image data.

具体的には、1番目〜3番目のパターン画像データにおける任意の画素データの値をそれぞれL,L,Lとすると、下記式(1)により当該画素データの値Lが算出される。全画素について、算出された画素データをつなぎ合せることにより、1次元正弦波状測定光を用いたセクショニング画像データを生成することができる。 Specifically, first to 3-th of the respective values of any pixel data in the pattern image data L A, L B, when the L C, values L of the pixel data is calculated by the following equation (1) . By connecting the calculated pixel data for all pixels, sectioning image data using one-dimensional sinusoidal measurement light can be generated.

Figure 2015084057
Figure 2015084057

(d)ドット状測定光
ドット状測定光を用いた測定パラメータの設定は、以下の点を除いて、矩形波状測定光を用いた測定パラメータの設定と同様である。
(D) Dot measurement light The measurement parameter setting using the dot measurement light is the same as the measurement parameter setting using the rectangular wave measurement light except for the following points.

ドット状測定光のパターンは、例えばY方向だけでなくX方向にも一定の空間周期Tsで繰り返される。そのため、ドット状測定光を用いる場合には、設定された回数(本例においては5回)だけY方向へパターンの位相を移動させた後に、設定された回数(本例においては5回)だけX方向へパターンの位相を移動させる。   The pattern of dot-shaped measurement light is repeated, for example, not only in the Y direction but also in the X direction with a constant spatial period Ts. Therefore, when dot-shaped measurement light is used, the pattern phase is moved in the Y direction by the set number of times (in this example, 5 times), and then the set number of times (in this example, 5 times). The phase of the pattern is moved in the X direction.

パターンの位相を移動させた状態において、測定対象物Sから放出される蛍光が受光部120により受光される。これにより、蛍光の受光量に基づいて、測定対象物Sの1番目〜25番目のパターン画像データが生成される。   In a state where the phase of the pattern is moved, the fluorescence emitted from the measuring object S is received by the light receiving unit 120. Thereby, the 1st to 25th pattern image data of the measuring object S is generated based on the amount of received fluorescence.

このように、パターンの位相を移動させつつドット状測定光を測定対象物Sに25回照射することにより、測定対象物Sの全ての部分に明部分が照射される。生成された1番目〜25番目のパターン画像データに基づいて、セクショニング画像データが生成される。   In this way, by irradiating the measurement object S 25 times with the dot-shaped measurement light while moving the phase of the pattern, all the portions of the measurement object S are irradiated with the bright portions. Sectioning image data is generated based on the generated first to 25th pattern image data.

(e)2次元正弦波状測定光
2次元正弦状測定光を用いた測定パラメータの設定は、以下の点を除いて、1次元正弦波状測定光を用いた測定パラメータの設定と同様である。
(E) Two-dimensional sinusoidal measurement light The measurement parameter setting using the two-dimensional sinusoidal measurement light is the same as the measurement parameter setting using the one-dimensional sinusoidal measurement light except for the following points.

2次元正弦状測定光のパターンは、例えばY方向だけでなくX方向にも一定の空間周期Tsで繰り返される。そのため、2次元正弦状測定光を用いる場合には、設定された回数(本例においては3回)だけY方向へパターンの位相を移動させる。このY方向へのパターンの位相の移動を、設定された回数(本例においては3回)だけX方向へパターンの位相を移動させつつ繰り返す。   The pattern of the two-dimensional sinusoidal measurement light is repeated, for example, not only in the Y direction but also in the X direction with a constant spatial period Ts. Therefore, when two-dimensional sinusoidal measurement light is used, the pattern phase is moved in the Y direction a set number of times (three times in this example). This movement of the phase of the pattern in the Y direction is repeated while moving the phase of the pattern in the X direction a set number of times (in this example, 3 times).

パターンの位相を移動させた状態において、測定対象物Sから放出される蛍光が受光部120により受光される。これにより、蛍光の受光量に基づいて、測定対象物Sの1番目〜9番目のパターン画像データが生成される。   In a state where the phase of the pattern is moved, the fluorescence emitted from the measuring object S is received by the light receiving unit 120. Thereby, the 1st to 9th pattern image data of the measuring object S is generated based on the amount of received fluorescence.

このように、パターンの位相を移動させつつ2次元正弦状測定光を測定対象物Sに9回照射することにより、測定対象物Sの全ての部分に明部分が照射される。生成された1番目〜9番目のパターン画像データに基づいて、セクショニング画像データが生成される。具体的には、全画素について式(1)と同様の画素データの値Lを算出し、算出された画素データをつなぎ合せることにより2次元正弦波状測定光を用いたセクショニング画像データを生成することができる。   In this way, by irradiating the measuring object S nine times with the two-dimensional sinusoidal measuring light while moving the phase of the pattern, the bright part is irradiated on all parts of the measuring object S. Sectioning image data is generated based on the generated first to ninth pattern image data. Specifically, the pixel data value L similar to that in Expression (1) is calculated for all pixels, and sectioning image data using the two-dimensional sinusoidal measurement light is generated by connecting the calculated pixel data. Can do.

(f)均一測定光
セクショニング観察を行わない場合には、落射通常観察により均一測定光を用いて落射通常画像データを生成することができる。均一測定光を用いる場合には、明部分が測定対象物Sの全ての部分に照射されるので、均一測定光の位相を移動させる必要がない。そのため、空間周期Tsの設定は行われない。均一測定光の強度は十分に大きいので、均一測定光を用いた測定対象物Sの画像は十分に明るい。したがって、均一測定光が選択された場合には、自動的に明度パラメータが十分に小さく設定される。均一測定光を測定対象物Sに1回照射することにより、1つの落射通常画像データが生成される。
(F) Uniform measurement light When sectioning observation is not performed, the incident normal image data can be generated by using the uniform measurement light by the normal incident observation. When the uniform measurement light is used, the bright part is irradiated to all the parts of the measurement object S, so that it is not necessary to move the phase of the uniform measurement light. For this reason, the spatial period Ts is not set. Since the intensity of the uniform measurement light is sufficiently large, the image of the measuring object S using the uniform measurement light is sufficiently bright. Therefore, when the uniform measurement light is selected, the brightness parameter is automatically set sufficiently small. By irradiating the measurement object S once with the uniform measurement light, one incident normal image data is generated.

このように、セクショニング観察と落射通常観察とを使い分けることができる。セクショニング観察においては、パターン種別が設定される。これにより、パターン種別に応じた特性を有するセクショニング画像データを生成することができる。設定されたパターン種別に応じて、測定パラメータが設定される。   Thus, sectioning observation and epi-illumination normal observation can be used properly. In sectioning observation, a pattern type is set. Thereby, sectioning image data having characteristics according to the pattern type can be generated. Measurement parameters are set according to the set pattern type.

測定パラメータの一例として、撮像回数は、矩形波状測定光においては5〜10回に設定され、1次元正弦波状測定光においては3〜4回に設定される。また、撮像回数は、ドット状測定光においては25〜100回に設定され、2次元正弦波状測定光においては9〜16回に設定される。なお、撮像回数は、均一測定光においては1回である。   As an example of the measurement parameter, the number of times of imaging is set to 5 to 10 times for the rectangular wave-shaped measurement light, and is set to 3 to 4 times for the one-dimensional sinusoidal measurement light. The number of times of imaging is set to 25 to 100 times for the dot-shaped measurement light, and is set to 9 to 16 times for the two-dimensional sinusoidal measurement light. Note that the number of times of imaging is one for uniform measurement light.

本例においては、パターン種別、パターンの位相の移動量および空間周期Tsが設定されることにより撮像回数が自動的に設定される。例えば、撮像回数は、1次元状測定光を用いる場合にはパターンの位相の移動量に対する空間周期Tsの比により与えられ、2次元状測定光を用いる場合にはパターンの位相の移動量に対する空間周期Tsの比の二乗により与えられる。   In this example, the number of times of imaging is automatically set by setting the pattern type, the amount of movement of the pattern phase, and the spatial period Ts. For example, the number of times of imaging is given by the ratio of the spatial period Ts to the movement amount of the pattern phase when using the one-dimensional measurement light, and the space with respect to the movement amount of the pattern phase when using the two-dimensional measurement light. It is given by the square of the ratio of the period Ts.

明度パラメータは、測定条件により変化するパターン測定光の暗部分に対する明部分の比率に連動して自動的に適切に設定される。明度パラメータの第1の例として、受光部120の露光時間は、矩形波状測定光およびドット状測定光においては比較的長く設定される。受光部120の露光時間は、1次元正弦波状測定光および2次元正弦波状測定光においては比較的短く設定される。受光部120の露光時間は、均一測定光においては十分に短く設定される。   The brightness parameter is automatically and appropriately set in conjunction with the ratio of the bright part to the dark part of the pattern measurement light that changes depending on the measurement conditions. As a first example of the brightness parameter, the exposure time of the light receiving unit 120 is set to be relatively long in the rectangular wave measurement light and the dot measurement light. The exposure time of the light receiving unit 120 is set to be relatively short for the one-dimensional sinusoidal measurement light and the two-dimensional sinusoidal measurement light. The exposure time of the light receiving unit 120 is set sufficiently short for uniform measurement light.

明度パラメータの第2の例として、蛍光の強度すなわち測定光の強度が、矩形波状測定光およびドット状測定光においては比較的大きく設定されてもよい。測定光の強度が、1次元正弦波状測定光および2次元正弦波状測定光においては比較的小さく設定されてもよい。測定光の強度が、均一測定光においては十分に小さく設定されてもよい。   As a second example of the brightness parameter, the intensity of the fluorescence, that is, the intensity of the measurement light may be set to be relatively large in the rectangular wave measurement light and the dot measurement light. The intensity of the measurement light may be set to be relatively small in the one-dimensional sinusoidal measurement light and the two-dimensional sinusoidal measurement light. The intensity of the measurement light may be set sufficiently small for uniform measurement light.

明度パラメータの第3の例として、パターン画像データにおけるビニング数が、矩形波状測定光およびドット状測定光においては比較的大きく設定されてもよい。パターン画像データにおけるビニング数が、1次元正弦波状測定光および2次元正弦波状測定光においては比較的小さく設定されてもよい。落射通常画像データにおけるビニング数が、均一測定光においては十分に小さく設定されてもよい。   As a third example of the brightness parameter, the binning number in the pattern image data may be set to be relatively large in the rectangular wave measurement light and the dot measurement light. The number of bins in the pattern image data may be set to be relatively small in the one-dimensional sine wave measurement light and the two-dimensional sine wave measurement light. The binning number in the incident normal image data may be set to be sufficiently small in the uniform measurement light.

明度パラメータの第4の例として、受光部120のゲインが、矩形波状測定光およびドット状測定光においては比較的大きく設定されてもよい。受光部120のゲインが、1次元正弦波状測定光および2次元正弦波状測定光においては比較的小さく設定されてもよい。受光部120のゲインが、均一測定光においては十分に小さく設定されてもよい。   As a fourth example of the brightness parameter, the gain of the light receiving unit 120 may be set to be relatively large in the rectangular wave measurement light and the dot measurement light. The gain of the light receiving unit 120 may be set to be relatively small in the one-dimensional sinusoidal measurement light and the two-dimensional sinusoidal measurement light. The gain of the light receiving unit 120 may be set sufficiently small for uniform measurement light.

パターン測定光においては、パターン画像に発生するボケの許容度合に応じて空間周期Tsが設定される。また、矩形波状測定光およびドット状測定光においては、明部分の幅W1が設定される。   In the pattern measurement light, the spatial period Ts is set according to the tolerance of the blur generated in the pattern image. In addition, in the rectangular wave measurement light and the dot measurement light, the width W1 of the bright portion is set.

図11は、空間周期Tsを図7の空間周期Tsよりも小さくした場合における矩形波状測定光の強度分布を示す図である。図11(a)は理想的な矩形波状測定光の強度分布を示し、図11(b)は現実的な矩形波状測定光の強度分布を示す。   FIG. 11 is a diagram showing the intensity distribution of the rectangular wave measuring light when the spatial period Ts is smaller than the spatial period Ts of FIG. FIG. 11A shows an ideal intensity distribution of the rectangular wave-like measurement light, and FIG. 11B shows an actual intensity distribution of the rectangular wave-like measurement light.

空間周期Tsが小さい場合、矩形波状測定光の一の明部分が照射されるべき測定対象物Sの部分に他の明部分からの迷光が照射されることがある。図11(b)の例においては、例えば明部分bが照射されるべき測定対象物Sの部分に明部分aまたは明部分cからの迷光が照射されることがある。この場合、セクショニング画像に発生する広域的なボケ成分が増加する。   When the spatial period Ts is small, stray light from another bright part may be irradiated to the part of the measuring object S to be irradiated with one bright part of the rectangular wave-shaped measurement light. In the example of FIG. 11B, for example, the stray light from the bright part a or the bright part c may be irradiated to the part of the measuring object S to be irradiated with the bright part b. In this case, wide-area blur components generated in the sectioning image increase.

一方、空間周期Tsが小さい場合、明部分a〜e間の間隔が小さいので、測定光の照射範囲の全体への明部分a〜eの照射が短時間で行われる。これにより、撮像回数を低減させるとともに、セクショニング画像データを短時間で生成することができる。   On the other hand, when the spatial period Ts is small, since the interval between the bright portions a to e is small, the irradiation of the bright portions a to e over the entire measurement light irradiation range is performed in a short time. Thereby, the number of times of imaging can be reduced, and sectioning image data can be generated in a short time.

図12は、空間周期Tsを図7の空間周期Tsよりも大きくした場合における矩形波状測定光の強度分布を示す図である。図12(a)は理想的な矩形波状測定光の強度分布を示し、図12(b)は現実的な矩形波状測定光の強度分布を示す。   FIG. 12 is a diagram showing the intensity distribution of the rectangular wave measuring light when the spatial period Ts is larger than the spatial period Ts of FIG. 12A shows an ideal intensity distribution of the rectangular wave-like measurement light, and FIG. 12B shows an actual intensity distribution of the rectangular wave-like measurement light.

空間周期Tsが大きい場合、明部分a〜e間の間隔が大きいので、測定光の照射範囲の全体への明部分a〜eの照射を終了するまでに長時間を要する。この場合、撮像回数が増加するとともに、セクショニング画像データが生成されるまでに長時間を要する。   When the spatial period Ts is large, since the interval between the bright portions a to e is large, it takes a long time to finish the irradiation of the bright portions a to e over the entire irradiation range of the measurement light. In this case, the number of times of imaging increases and it takes a long time until sectioning image data is generated.

一方、空間周期Tsが大きい場合、矩形波状測定光の一の明部分が照射されるべき測定対象物Sの部分には他の明部分からの迷光が照射されることがほとんどない。これにより、セクショニング画像の広域的なボケ成分を低減することができる。   On the other hand, when the spatial period Ts is large, the portion of the measuring object S to be irradiated with one bright portion of the rectangular wave-shaped measurement light is hardly irradiated with stray light from another bright portion. As a result, it is possible to reduce a wide range blur component of the sectioning image.

図13は、明部分の幅W1を図7の明部分の幅W1よりも大きくした場合における矩形波状測定光の強度分布を示す図である。図13(a)は理想的な矩形波状測定光の強度分布を示し、図13(b)は現実的な矩形波状測定光の強度分布を示す。   FIG. 13 is a diagram showing the intensity distribution of rectangular wave-shaped measurement light when the width W1 of the bright portion is larger than the width W1 of the bright portion in FIG. FIG. 13A shows an ideal intensity distribution of the rectangular wave-like measurement light, and FIG. 13B shows an actual intensity distribution of the rectangular wave-like measurement light.

明部分の幅W1が大きい場合、矩形波状測定光の各明部分自体において発生する迷光が測定対象物Sの対応する部分に照射されることがある。図13(b)の例においては、明部分a〜eにおいてそれぞれ発生する迷光が測定対象物Sの対応する部分に照射されることがある。この場合、測定対象物Sの細部におけるセクショニング画像の画質が低下する。   When the width W1 of the bright part is large, stray light generated in each bright part of the rectangular wave measurement light may be irradiated to the corresponding part of the measurement object S. In the example of FIG. 13B, stray light generated in each of the bright portions a to e may be irradiated to the corresponding portion of the measurement object S. In this case, the image quality of the sectioning image in the details of the measuring object S is degraded.

一方、明部分の幅W1が大きい場合、暗部分の幅W2が小さいので、測定光の照射範囲の全体への明部分a〜dの照射が短時間で行われる。これにより、撮像回数を低減させるとともに、セクショニング画像データを短時間で生成することができる。   On the other hand, when the width W1 of the bright portion is large, the width W2 of the dark portion is small, and therefore, the irradiation of the bright portions a to d to the entire measurement light irradiation range is performed in a short time. Thereby, the number of times of imaging can be reduced, and sectioning image data can be generated in a short time.

図14は、明部分の幅W1を図7の明部分の幅W1よりも小さくした場合における矩形波状測定光の強度分布を示す図である。図14(a)は理想的な矩形波状測定光の強度分布を示し、図14(b)は現実的な矩形波状測定光の強度分布を示す。   FIG. 14 is a diagram showing the intensity distribution of the rectangular wave-shaped measurement light when the bright portion width W1 is smaller than the bright portion width W1 of FIG. FIG. 14A shows an ideal intensity distribution of the rectangular wave-like measurement light, and FIG. 14B shows an actual intensity distribution of the rectangular wave-like measurement light.

明部分の幅W1が小さい場合、暗部分の幅W2が大きいので、測定光の照射範囲の全体への明部分a〜dの照射を終了するまでに長時間を要する。この場合、撮像回数が増加するとともに、セクショニング画像データが生成されるまでに長時間を要する。   When the width W1 of the bright part is small, the width W2 of the dark part is large. Therefore, it takes a long time to finish the irradiation of the bright parts a to d over the entire irradiation range of the measurement light. In this case, the number of times of imaging increases and it takes a long time until sectioning image data is generated.

一方、明部分の幅W1が小さい場合、矩形波状測定光の各明部分自体において発生する迷光が測定対象物Sの対応する部分に照射されることがほとんどない。これにより、測定対象物Sの細部におけるセクショニング画像の画質を向上させることができる。   On the other hand, when the width W1 of the bright part is small, the stray light generated in each bright part of the rectangular wave measurement light is hardly irradiated to the corresponding part of the measurement object S. Thereby, the image quality of the sectioning image in the detail of the measuring object S can be improved.

使用者は、パターンの位相の移動量を任意に設定することができる。ここで、矩形波状測定光の明部分を測定光の照射範囲の全体に少なくとも1回照射するため、パターンの位相の移動量を、明部分の幅W1よりも僅かに小さく設定されることが好ましい。設定されたパターンの位相の移動量に対する空間周期Tsの比が撮像回数となる。   The user can arbitrarily set the movement amount of the phase of the pattern. Here, in order to irradiate the entire light irradiation range of the rectangular wave-shaped measurement light at least once, it is preferable that the movement amount of the phase of the pattern is set slightly smaller than the width W1 of the light portion. . The ratio of the spatial period Ts to the set movement amount of the phase of the pattern is the number of times of imaging.

本実施の形態においては、パターン種別を切り替えることにより、パターン種別に対応して設定された測定パラメータが自動的に切り替わる。測定パラメータは、パターン種別に対応して固定値であってもよいし、予め定められた複数の値から選択されてもよい。また、複数の測定パラメータの一部が使用者により選択された場合、測定パラメータの他の一部が自動的に決定されてもよい。   In the present embodiment, the measurement parameters set corresponding to the pattern type are automatically switched by switching the pattern type. The measurement parameter may be a fixed value corresponding to the pattern type, or may be selected from a plurality of predetermined values. In addition, when some of the plurality of measurement parameters are selected by the user, the other part of the measurement parameters may be automatically determined.

上記の測定条件および明度パラメータ以外に他の設定項目が追加されてもよい。例えば、本実施の形態においては、使用者は、図1の操作部250を用いてROI(関心領域)を設定することができる。この場合、ROIに対応する測定対象物Sの部分にのみ測定光が照射され、他の部分に測定光が照射されないように光変調素子112が制御されてもよい。これにより、複数のパターン画像データまたは落射通常画像データを高速に生成することができる。   Other setting items may be added in addition to the above measurement conditions and brightness parameters. For example, in the present embodiment, the user can set an ROI (region of interest) using the operation unit 250 of FIG. In this case, the light modulation element 112 may be controlled so that the measurement light is irradiated only on the portion of the measurement object S corresponding to the ROI and the measurement light is not irradiated on the other portions. Thereby, a plurality of pattern image data or epi-illumination normal image data can be generated at high speed.

また、受光部120が均一な強度を有する光を受光した場合でも、受光部120から出力される各画素における受光信号のレベルは均一にならないことがある。これは、光の強度が本来的に一様でないこと、ミラーの反射率が反射面の全体において一様でないこと、またはレンズの透過率がレンズ全体において一様でないこと等が原因である。これにより、画像の中心部が明るくなり、画像の周縁部が暗くなるシェーディング現象が発生する。   Even when the light receiving unit 120 receives light having uniform intensity, the level of the light reception signal in each pixel output from the light receiving unit 120 may not be uniform. This is because the intensity of light is not inherently uniform, the reflectance of the mirror is not uniform over the entire reflecting surface, or the transmittance of the lens is not uniform over the entire lens. As a result, a shading phenomenon occurs in which the central portion of the image becomes bright and the peripheral portion of the image becomes dark.

そのため、不均一な受光信号のレベルを均一に補正(以下、シェーディング補正と呼ぶ)するために、シェーディング補正係数が乗じられた強度の測定光を出射するように光変調素子112が制御されてもよい。これにより、複数のパターン画像データまたは落射通常画像データを正確に生成することができる。   Therefore, even if the light modulation element 112 is controlled to emit intensity measurement light multiplied by the shading correction coefficient in order to uniformly correct the level of the non-uniform received light signal (hereinafter referred to as shading correction). Good. Thereby, a plurality of pattern image data or epi-illumination normal image data can be generated accurately.

図15は、CPU210による光変調素子112の制御処理を示すフローチャートである。CPU210は、使用者により測定条件が指示されるまで待機する(ステップS1)。ステップS1において、使用者により測定条件が指示された場合、CPU210は、指示された測定条件のパターン種別に基づいてパターン種別を設定する(ステップS2)。   FIG. 15 is a flowchart showing a control process of the light modulation element 112 by the CPU 210. The CPU 210 waits until the measurement conditions are instructed by the user (step S1). When the measurement condition is instructed by the user in step S1, the CPU 210 sets the pattern type based on the instructed measurement condition pattern type (step S2).

また、CPU210は、指示された測定条件の測定パラメータの空間周期Tsおよびパターンの位相の移動量に基づいて撮像回数を算出する(ステップS3)。ステップS2,S3の処理はいずれが先に実行されてもよい。続いて、CPU210は、設定されたパターン種別の測定光を出射するように光変調素子112を制御する(ステップS4)。その後、CPU210は、光変調素子112が算出された撮像回数だけ測定光を出射したか否かを判定する(ステップS5)。   Further, the CPU 210 calculates the number of imaging based on the spatial period Ts of the measurement parameter of the instructed measurement condition and the movement amount of the pattern phase (step S3). Either of the processes of steps S2 and S3 may be executed first. Subsequently, the CPU 210 controls the light modulation element 112 so as to emit the measurement light of the set pattern type (step S4). Thereafter, the CPU 210 determines whether or not the measurement light is emitted by the number of times of imaging calculated by the light modulation element 112 (step S5).

ステップS5において、光変調素子112が算出された撮像回数だけ測定光を出射していない場合、CPU210は、設定された移動量だけパターンの位相を移動させるように光変調素子112を制御する(ステップS6)。その後、CPU210は、ステップS4の処理に戻る。これにより、光変調素子112が算出された撮像回数だけ測定光を出射するまでステップS4〜S6の処理が繰り返される。ステップS5において、光変調素子112が算出された撮像回数だけ測定光を出射した場合、CPU210は、光変調素子112の制御処理を終了する。   In step S5, when the light modulation element 112 has not emitted the measurement light by the calculated number of times of imaging, the CPU 210 controls the light modulation element 112 to move the phase of the pattern by the set movement amount (step S5). S6). Thereafter, the CPU 210 returns to the process of step S4. Thereby, the processing of steps S4 to S6 is repeated until the measurement light is emitted by the light modulation element 112 for the calculated number of times of imaging. In step S <b> 5, when the light modulation element 112 emits the measurement light for the calculated number of times of imaging, the CPU 210 ends the control process for the light modulation element 112.

(4)受光量レベル調整
測定光が測定対象物Sに照射されることにより、測定対象物Sから蛍光が放出される。測定対象物Sから放出される蛍光の強度は、測定対象物Sに照射される測定光の強度に比例する。したがって、測定対象物Sにパターン測定光が照射された場合には、測定対象物Sはパターン測定光のパターンと略同一のパターンを有する蛍光を放出する。なお、蛍光の強度は測定光の強度の10−6倍程度である。
(4) Light reception level adjustment The measurement object S is irradiated with measurement light, whereby fluorescence is emitted from the measurement object S. The intensity of the fluorescence emitted from the measuring object S is proportional to the intensity of the measuring light applied to the measuring object S. Therefore, when the measurement object S is irradiated with the pattern measurement light, the measurement object S emits fluorescence having substantially the same pattern as the pattern measurement light pattern. The intensity of fluorescence is about 10 −6 times the intensity of measurement light.

測定対象物Sから放出された蛍光は、受光部120により受光される。それにより、受光部120から受光量を示す受光信号が出力される。受光部120から出力される受光信号に基づいて、測定対象物Sのパターン画像データが生成される。受光信号のレベルは、測定対象物Sから放出される蛍光の強度、受光部120の露光時間および受光部120のゲインに比例する。測定対象物Sから放出される蛍光の強度は測定光の強度に比例する。   The fluorescence emitted from the measuring object S is received by the light receiving unit 120. As a result, a light reception signal indicating the amount of received light is output from the light receiving unit 120. Based on the light reception signal output from the light receiving unit 120, the pattern image data of the measuring object S is generated. The level of the received light signal is proportional to the intensity of the fluorescence emitted from the measuring object S, the exposure time of the light receiving unit 120, and the gain of the light receiving unit 120. The intensity of the fluorescence emitted from the measuring object S is proportional to the intensity of the measuring light.

したがって、測定光の強度、受光部120の露光時間および受光部120のゲインの少なくとも1つを調整することにより、受光信号のレベルを調整することができる。以下、測定光の強度、受光部120の露光時間および受光部120のゲインの少なくとも1つを調整することにより受光信号のレベルを調整することを受光レベル調整と呼ぶ。測定光の強度、受光部120の露光時間または受光部120のゲインを高くしすぎると、受光部120から出力される受光信号が飽和する。   Therefore, the level of the light reception signal can be adjusted by adjusting at least one of the intensity of the measurement light, the exposure time of the light receiving unit 120, and the gain of the light receiving unit 120. Hereinafter, adjusting the level of the received light signal by adjusting at least one of the intensity of the measurement light, the exposure time of the light receiving unit 120, and the gain of the light receiving unit 120 is referred to as received light level adjustment. If the intensity of the measurement light, the exposure time of the light receiving unit 120 or the gain of the light receiving unit 120 is excessively increased, the light reception signal output from the light receiving unit 120 is saturated.

セクショニング観察では、上記のように、パターンの位相を移動させつつパターン測定光が測定対象物Sに複数回照射される。そのため、測定対象物Sから放出された蛍光は、受光部120により複数回受光される。   In sectioning observation, as described above, the measurement object S is irradiated with the pattern measurement light a plurality of times while shifting the phase of the pattern. Therefore, the fluorescence emitted from the measuring object S is received by the light receiving unit 120 a plurality of times.

これにより、複数回の照射時の各画素についての受光信号のレベルに基づいて、複数のパターン画像データがそれぞれ生成される。本実施の形態では、生成された複数のパターン画像データに基づいて、各画素について、最大受光レベルに相当する画素データの最大値と最小受光レベルに相当する画素データの最小値との差が算出される。全画素について算出された差をつなぎ合せることによりセクショニング画像データが生成される。これにより、生成されるセクショニング画像データから迷光の影響が除去される。   As a result, a plurality of pattern image data is generated based on the level of the light reception signal for each pixel at the time of multiple irradiations. In the present embodiment, the difference between the maximum value of pixel data corresponding to the maximum light reception level and the minimum value of pixel data corresponding to the minimum light reception level is calculated for each pixel based on the generated plurality of pattern image data. Is done. Sectioning image data is generated by connecting the differences calculated for all pixels. Thereby, the influence of stray light is removed from the generated sectioning image data.

このように、セクショニング画像データから迷光の影響を除去するために、各画素について画素データの最大値と画素データの最小値との差が算出される。そのため、迷光の影響を除去したセクショニング画像は、迷光の影響を除去しないセクショニング画像よりも暗くなる。   Thus, in order to remove the influence of stray light from the sectioning image data, the difference between the maximum value of the pixel data and the minimum value of the pixel data is calculated for each pixel. Therefore, the sectioning image from which the influence of stray light is removed becomes darker than the sectioning image from which the influence of stray light is not removed.

本実施の形態においては、セクショニング画像データの各画素データの値に1よりも大きい一定のコントラスト補正量が乗算されることにより、セクショニング画像データのコントラストが補正される。コントラスト補正量は、例えばセクショニング画像データの複数の値のうち最大値に対する受光部120の出力レンジの上限値の比である。   In the present embodiment, the contrast of the sectioning image data is corrected by multiplying the value of each pixel data of the sectioning image data by a constant contrast correction amount larger than 1. The contrast correction amount is, for example, the ratio of the upper limit value of the output range of the light receiving unit 120 to the maximum value among a plurality of values of the sectioning image data.

コントラスト補正量は、セクショニング画像データの最大値に対する受光部120の出力レンジの上限値の比ではなく、例えば最大値から上位数%までの値を有するセクショニング画像データの複数の値の平均値に対する受光部120の出力レンジの上限値の比であってもよい。   The contrast correction amount is not the ratio of the upper limit value of the output range of the light receiving unit 120 to the maximum value of the sectioning image data, but, for example, the light reception with respect to the average value of a plurality of values of the sectioning image data having values from the maximum value to the upper few percent. The ratio of the upper limit value of the output range of the unit 120 may be used.

上記のコントラストの補正により、セクショニング画像を明るくすることができる。一方、コントラストが補正された場合、複数のセクショニング画像の明るさを定量的に比較することができない。そこで、本実施の形態においては、生成されたセクショニング画像データが図1の記憶装置240に保存される際には、コントラストが補正される前のセクショニング画像データとコントラスト補正量を示すメタデータとが独立して保存される。   The sectioning image can be brightened by correcting the contrast. On the other hand, when the contrast is corrected, the brightness of a plurality of sectioning images cannot be compared quantitatively. Therefore, in the present embodiment, when the generated sectioning image data is stored in the storage device 240 of FIG. 1, the sectioning image data before the contrast is corrected and the metadata indicating the contrast correction amount are included. Stored independently.

この場合、コントラストが補正される前のセクショニング画像データに基づいて、複数のセクショニング画像の明るさを定量的に比較することができる。また、コントラストが補正される前のセクショニング画像データとメタデータとに基づいてコントラストが補正された後のセクショニング画像を表示することができる。なお、セクショニング画像データの保存形式は、一般的な保存形式であってもよいし、他の独自の保存形式であってもよい。   In this case, the brightness of a plurality of sectioning images can be quantitatively compared based on the sectioning image data before the contrast is corrected. Further, it is possible to display the sectioning image after the contrast is corrected based on the sectioning image data and the metadata before the contrast is corrected. Note that the storage format of the sectioning image data may be a general storage format or another unique storage format.

一般的な保存形式は、TIFF(Tagged Image File)形式、JPEG(Joint Photographic Experts Group)形式、BMP(Windows(登録商標) bitmap)形式またはPNG(Portable Network Graphics)形式を含む。一般的な保存形式でセクショニング画像データを保存する場合において、画像を表示するソフトウェアがメタデータの読み込みに対応している場合には、コントラストが補正された後のセクショニング画像を表示することができる。   Common storage formats include a TIFF (Tagged Image File) format, a JPEG (Joint Photographic Experts Group) format, a BMP (Windows (registered trademark) bitmap) format, or a PNG (Portable Network Graphics) format. When storing sectioning image data in a general storage format, if the software for displaying the image supports reading of metadata, the sectioning image after the contrast is corrected can be displayed.

一方、画像を表示するソフトウェアがメタデータの読み込みに対応していない場合には、コントラストが補正された後のセクショニング画像を表示することができない。この場合には、コントラストが補正される前のセクショニング画像データおよびメタデータに加えて、コントラストが補正された後のセクショニング画像データがサムネイルデータとして別個に保存されてもよい。   On the other hand, when the software for displaying an image does not support reading of metadata, the sectioned image after the contrast is corrected cannot be displayed. In this case, in addition to the sectioning image data and metadata before the contrast is corrected, the sectioning image data after the contrast is corrected may be separately stored as thumbnail data.

サムネイルデータに基づいてブラウザ上にセクショニング画像のサムネイルが表示されることにより、ブラウザ上でのセクショニング画像の視認性を向上させることができる。その結果、セクショニング画像データの探索性を向上させることができる。   By displaying the thumbnail of the sectioning image on the browser based on the thumbnail data, the visibility of the sectioning image on the browser can be improved. As a result, the searchability of sectioning image data can be improved.

補正前のセクショニング画像データのコントラストが大きいほど、セクショニング画像の画質を向上させることができる。そのため、受光部120から出力される受光信号のレベルを適切に設定することが好ましい。図16は、受光部120から出力される受光信号を示す図である。図16(a)〜(c)の横軸は測定対象物Sの水平方向の位置(例えばY方向における位置)を示し、縦軸はを示す。最大受光レベルはLmaxであり、最小受光レベルはLminであり、受光部120の出力レンジの上限値はLsatである。   The higher the contrast of the sectioning image data before correction, the more the image quality of the sectioning image can be improved. For this reason, it is preferable to appropriately set the level of the light reception signal output from the light receiving unit 120. FIG. 16 is a diagram illustrating a light reception signal output from the light receiving unit 120. 16A to 16C, the horizontal axis indicates the horizontal position of the measuring object S (for example, the position in the Y direction), and the vertical axis indicates. The maximum light receiving level is Lmax, the minimum light receiving level is Lmin, and the upper limit value of the output range of the light receiving unit 120 is Lsat.

図16(a)は、受光信号のレベルが適正である場合の例を示す。図16(a)の例においては、最大受光レベルLmaxが出力レンジの上限値Lsatよりも僅かに低くなり、かつ最小受光レベルLminが出力レンジの下限値よりも僅かに高くなる。これにより、コントラストCtが大きくなる。   FIG. 16A shows an example where the level of the received light signal is appropriate. In the example of FIG. 16A, the maximum light reception level Lmax is slightly lower than the upper limit value Lsat of the output range, and the minimum light reception level Lmin is slightly higher than the lower limit value of the output range. This increases the contrast Ct.

図16(b)は、受光信号のレベルが低すぎる場合の例を示す。受光信号のレベルを図16(a)の状態から低下させていく場合、最小受光レベルLminは、受光部120の出力レンジの下限値まで低下した後は一定になる。これに対し、受光信号のレベルを図16(a)の状態から低下させていく場合、最大受光レベルLmaxは、最小受光レベルLminが受光部120の出力レンジの下限値で一定になった後も低下し得る。そのため、図16(b)に示すように、受光信号のレベルが低すぎるとコントラストCtが低下する。この場合、セクショニング画像が暗くなる。   FIG. 16B shows an example when the level of the received light signal is too low. When the level of the light reception signal is decreased from the state of FIG. 16A, the minimum light reception level Lmin becomes constant after the level is decreased to the lower limit value of the output range of the light receiving unit 120. On the other hand, when the level of the received light signal is lowered from the state of FIG. 16A, the maximum received light level Lmax remains after the minimum received light level Lmin becomes constant at the lower limit value of the output range of the light receiving unit 120. Can be reduced. For this reason, as shown in FIG. 16B, if the level of the received light signal is too low, the contrast Ct is lowered. In this case, the sectioning image becomes dark.

また、測定光の明部分に対応する測定対象物Sの部分と測定光の暗部分に対応する測定対象物Sの部分とを区別することができないので、セクショニング画像を正確に生成することができない。さらに、セクショニング画像が暗いので、コントラストの補正が行われる場合には、コントラスト補正量が大きくなる。そのため、セクショニング画像のノイズ成分も大きくなる。   Further, since the part of the measuring object S corresponding to the bright part of the measuring light and the part of the measuring object S corresponding to the dark part of the measuring light cannot be distinguished, the sectioning image cannot be generated accurately. . Furthermore, since the sectioning image is dark, the contrast correction amount increases when contrast correction is performed. For this reason, the noise component of the sectioning image also increases.

図16(c)は、受光信号のレベルが高すぎる場合の例を示す。受光信号のレベルを図16(a)の状態から上昇させていく場合、最大受光レベルLmaxは、受光部120の出力レンジの上限値Lsatまで上昇した後は一定になる。これに対し、受光信号のレベルを図16(a)の状態から上昇させていく場合、最小受光レベルLminは、最大受光レベルLmaxが受光部120の出力レンジの上限値Lsatで一定になった後も上昇し得る。そのため、図16(c)に示すように、受光信号のレベルが高すぎるとコントラストCtが低下する。この場合、受光信号のレベルを高くしたにもかかわらず、セクショニング画像が暗くなる。   FIG. 16C shows an example when the level of the received light signal is too high. When the level of the received light signal is increased from the state of FIG. 16A, the maximum received light level Lmax becomes constant after increasing to the upper limit value Lsat of the output range of the light receiving unit 120. On the other hand, when the level of the received light signal is increased from the state of FIG. 16A, the minimum received light level Lmin is after the maximum received light level Lmax becomes constant at the upper limit value Lsat of the output range of the light receiving unit 120. Can also rise. Therefore, as shown in FIG. 16C, if the level of the received light signal is too high, the contrast Ct is lowered. In this case, the sectioning image becomes dark although the level of the light reception signal is increased.

受光信号のレベルを図16(c)の状態からさらに上昇させることにより、最小受光レベルLminも受光部120の出力レンジの上限値Lsatまで上昇した場合は、コントラストCtが0になる。また、最大受光レベルLmax付近における蛍光のパターンが変形するため、セクショニング画像を正確に生成することができない。   When the level of the received light signal is further increased from the state shown in FIG. 16C, the contrast Ct becomes 0 when the minimum received light level Lmin also increases to the upper limit value Lsat of the output range of the light receiving unit 120. Further, since the fluorescence pattern near the maximum light receiving level Lmax is deformed, the sectioning image cannot be generated accurately.

(5)表示部
(a)画像表示領域
図17および図18は、表示部400の表示例を示す図である。図17および図18に示すように、表示部400には画像表示領域410および設定表示領域420が並ぶように設けられる。設定表示領域420については後述する。画像表示領域410には、メインウインドウ411およびサブウインドウ412が表示される。サブウインドウ412の表示および非表示は切り替え可能である。
(5) Display Unit (a) Image Display Area FIGS. 17 and 18 are diagrams showing display examples of the display unit 400. FIG. As shown in FIGS. 17 and 18, the display unit 400 is provided with an image display area 410 and a setting display area 420 arranged side by side. The setting display area 420 will be described later. In the image display area 410, a main window 411 and a sub window 412 are displayed. The display and non-display of the sub window 412 can be switched.

図2の透過光供給部130から出射された透過光が測定対象物Sを透過して受光部120により受光されることにより、測定対象物Sの画像データが生成される。以下、透過光を用いて生成される測定対象物Sの画像データを透過通常画像データと呼び、透過通常画像データに基づく画像を透過通常画像と呼ぶ。また、透過通常画像データおよび落射通常画像データを総称して通常画像データと呼び、透過通常画像および落射通常画像を総称して通常画像と呼ぶ。メインウインドウ411には、パターン画像、セクショニング画像、通常画像または全焦点画像等の種々の画像が表示される。   The transmitted light emitted from the transmitted light supply unit 130 of FIG. 2 passes through the measurement object S and is received by the light receiving unit 120, whereby image data of the measurement object S is generated. Hereinafter, the image data of the measuring object S generated using transmitted light is referred to as transmitted normal image data, and an image based on the transmitted normal image data is referred to as transmitted normal image. The transmitted normal image data and the reflected normal image data are collectively referred to as normal image data, and the transmitted normal image and the reflected normal image are collectively referred to as a normal image. In the main window 411, various images such as a pattern image, a sectioning image, a normal image, and an omnifocal image are displayed.

具体的には、メインウインドウ411は、通常表示とプレビュー表示とを選択的にまたは同時に実行可能に構成される。通常表示は、既に生成された画像データに基づいてパターン画像、セクショニング画像、通常画像または全焦点画像等を表示する方式である。プレビュー表示は、測定条件が変更された際に生成される画像データに基づくパターン画像またはセクショニング画像を表示する方式である。通常表示においては、既に生成された画像データに基づいて、メインウインドウ411に複数の画像を重畳表示することができる。   Specifically, the main window 411 is configured so that normal display and preview display can be executed selectively or simultaneously. The normal display is a method for displaying a pattern image, a sectioning image, a normal image, an omnifocal image, or the like based on already generated image data. The preview display is a method for displaying a pattern image or a sectioning image based on image data generated when a measurement condition is changed. In normal display, a plurality of images can be superimposed and displayed on the main window 411 based on already generated image data.

プレビュー表示においては、測定条件、明度パラメータまたは視野が変更された場合のみ、測定対象物Sに再度測定光が照射される。例えば、パターン種別、パターン測定光の位相の移動量、明部分の幅W1もしくは位相の空間周期Ts、受光部120の露光時間またはビニング数等が変更された場合、測定対象物Sに再度測定光が照射される。あるいは、ステージ140がX方向またはY方向に移動された場合、または焦点位置調整機構163が制御された場合、測定対象物Sに再度測定光が照射される。   In the preview display, the measurement object S is again irradiated with the measurement light only when the measurement condition, the brightness parameter, or the field of view is changed. For example, when the pattern type, the amount of movement of the phase of the pattern measurement light, the width W1 of the bright portion or the spatial period Ts of the phase, the exposure time of the light receiving unit 120 or the number of binning is changed, the measurement light is again applied to the measurement object S. Is irradiated. Alternatively, when the stage 140 is moved in the X direction or the Y direction, or when the focus position adjustment mechanism 163 is controlled, the measurement object S is irradiated with the measurement light again.

これにより、受光される蛍光に基づいてパターン画像またはセクショニング画像データが生成されるとともに、明度画像データが生成される。その結果、メインウインドウ411に表示されるパターン画像またはセクショニング画像が更新される。   Accordingly, pattern image or sectioning image data is generated based on the received fluorescence, and brightness image data is generated. As a result, the pattern image or sectioning image displayed on the main window 411 is updated.

一方、測定条件が変更されない場合には、測定対象物Sに再度測定光を照射する必要がないので、CPU210は、光変調素子112を制御することにより、測定対象物Sへの測定光の照射を遮断する。これにより、測定対象物Sに測定光が照射され続けることによる蛍光試薬の不必要な褪色を低減することができる。   On the other hand, when the measurement conditions are not changed, there is no need to irradiate the measurement object S with the measurement light again. Therefore, the CPU 210 controls the light modulation element 112 to irradiate the measurement object S with the measurement light. Shut off. Thereby, unnecessary fading of the fluorescent reagent due to the measurement object S being continuously irradiated with the measurement light can be reduced.

本実施の形態においては、測定対象物Sへの測定光の照射と照射の遮断とを光変調素子112により高速に切り替えることができる。したがって、複数のパターン画像データを高速で生成することができる。これにより、複数のパターン画像データにより生成されるセクショニング画像データを高速で生成することができる。その結果、測定条件が変更された際のセクショニング画像を高い応答性でプレビュー表示することができる。   In the present embodiment, the light modulation element 112 can switch between irradiation of the measurement object S with the measurement light and blocking of the irradiation at high speed. Therefore, a plurality of pattern image data can be generated at high speed. Thereby, sectioning image data generated from a plurality of pattern image data can be generated at high speed. As a result, the sectioning image when the measurement condition is changed can be preview-displayed with high responsiveness.

プレビュー表示においては、例えばビニング数を大きくしてパターン画像データを生成するように設定されていてもよい。この場合、パターン画像データおよびセクショニング画像データをより高速に生成することができる。これにより、プレビュー表示において、パターン画像またはセクショニング画像をより高速に表示することができる。使用者は、プレビュー表示されたパターン画像またはセクショニング画像を見ながら、適切な測定条件を容易にかつ短時間で選択することができる。   In the preview display, for example, it may be set to generate pattern image data by increasing the number of binning. In this case, pattern image data and sectioning image data can be generated at higher speed. Thereby, in the preview display, the pattern image or the sectioning image can be displayed at a higher speed. The user can select an appropriate measurement condition easily and in a short time while viewing the pattern image or sectioning image displayed as a preview.

図19は、通常表示においてメインウインドウ411に表示された画像の一例を示す図である。図19(a)は、GFPの吸収波長を有する測定光を測定対象物Sに照射した場合のセクショニング画像を示す。図19(b)は、Texas Redの吸収波長を有する測定光を測定対象物Sに照射した場合のセクショニング画像を示す。   FIG. 19 is a diagram illustrating an example of an image displayed on the main window 411 in the normal display. FIG. 19A shows a sectioning image when the measurement object S is irradiated with measurement light having an absorption wavelength of GFP. FIG. 19B shows a sectioning image when the measuring object S is irradiated with measurement light having an absorption wavelength of Texas Red.

図20は、通常表示においてメインウインドウ411に表示された画像の他の例を示す図である。図20(a)は、DAPIの吸収波長を有する測定光を測定対象物Sに照射した場合のセクショニング画像を示す。図20(b)は、位相差観察用の透過光を測定対象物Sに照射した場合の透過通常画像を示す。   FIG. 20 is a diagram illustrating another example of an image displayed on the main window 411 in the normal display. FIG. 20A shows a sectioning image when the measurement object S is irradiated with measurement light having an absorption wavelength of DAPI. FIG. 20B shows a normal transmission image when the measurement object S is irradiated with transmitted light for phase difference observation.

図21は、通常表示においてメインウインドウ411に重畳表示された画像の一例を示す図である。図21(a)は、2つの画像が重畳表示された画像を示す。図21(a)の画像には、図19(a)のセクショニング画像および図19(b)のセクショニング画像が含まれる。図21(b)は、3つの画像が重畳表示された画像を示す。図21(b)の画像には、図19(a)のセクショニング画像、図19(b)のセクショニング画像および図20(b)の透過通常画像が含まれる。   FIG. 21 is a diagram illustrating an example of an image superimposed and displayed on the main window 411 in normal display. FIG. 21A shows an image in which two images are superimposed and displayed. The image in FIG. 21 (a) includes the sectioning image in FIG. 19 (a) and the sectioning image in FIG. 19 (b). FIG. 21B shows an image in which three images are superimposed and displayed. The image in FIG. 21B includes the sectioning image in FIG. 19A, the sectioning image in FIG. 19B, and the transparent normal image in FIG. 20B.

図22は、通常表示においてメインウインドウ411に重畳表示された画像の他の例を示す図である。図22は、4つの画像が重畳表示された画像を示す。図22の画像には、図19(a)のセクショニング画像、図19(b)のセクショニング画像、図20(a)のセクショニング画像および図20(b)の透過通常画像が含まれる。   FIG. 22 is a diagram showing another example of an image superimposed and displayed on the main window 411 in normal display. FIG. 22 shows an image in which four images are superimposed and displayed. The image of FIG. 22 includes the sectioning image of FIG. 19A, the sectioning image of FIG. 19B, the sectioning image of FIG. 20A, and the transparent normal image of FIG. 20B.

特に、測定対象物Sが生物標本である場合には、測定対象物Sの細胞の形状を観察する際に、セクショニング画像と透過通常画像(例えば位相差観察された画像)とを重畳表示することが有効である。これにより、使用者は、タンパク質の組成により特定の波長を有する光を照射した場合のみ蛍光が発生する測定対象物Sの部分を容易に認識することができる。その結果、細胞中の核、細胞膜またはDNA(デオキシリボ核酸)等を容易に識別することができる。   In particular, when the measurement object S is a biological specimen, when observing the shape of the cell of the measurement object S, a sectioning image and a transmission normal image (for example, an image obtained by phase difference observation) are displayed in a superimposed manner. Is effective. Thereby, the user can easily recognize the part of the measuring object S where the fluorescence is generated only when the light having a specific wavelength is irradiated by the composition of the protein. As a result, the nucleus, cell membrane or DNA (deoxyribonucleic acid) in the cell can be easily identified.

セクショニング画像データまたは通常画像データを生成する際にビニング処理が行われた場合、当該セクショニング画像データに基づくセクショニング画像または当該通常画像データに基づく通常画像のサイズは変更される。したがって、当該セクショニング画像または当該通常画像のサイズは、ビニング処理が行われない他の画像データに基づくセクショニング画像または通常画像のサイズと異なる。   When binning processing is performed when generating sectioning image data or normal image data, the size of the sectioning image based on the sectioning image data or the normal image based on the normal image data is changed. Therefore, the size of the sectioning image or the normal image is different from the size of the sectioning image or the normal image based on other image data that is not subjected to the binning process.

そのため、画像の重畳表示が行われる場合には、表示される全ての画像が同一のサイズになるように画像の拡大または縮小が行われる。あるいは、ビニング処理等の画像のサイズに関連する明度パラメータは、全ての画像データを生成する際に共通に設定されてもよい。この場合、生成される画像データに基づく画像のサイズは統一されるので、画像の重畳表示を容易に行うことができる。   For this reason, when the superimposed display of images is performed, the images are enlarged or reduced so that all displayed images have the same size. Alternatively, the brightness parameter related to the image size, such as binning processing, may be set in common when all image data is generated. In this case, the size of the image based on the generated image data is unified, so that the superimposed display of the image can be easily performed.

使用者は、図1のPC200の操作部250を用いて図18の設定表示領域420のサブウインドウ表示チェックボックス450を指定することにより、画像表示領域410にサブウインドウ412を表示させることができる。サブウインドウ412には、コントラストが補正される前の画像が表示される。以下、コントラストが補正される前の画像を明度画像と呼び、明度画像を表示するための画像データを明度画像データと呼ぶ。   The user can display the sub window 412 in the image display area 410 by designating the sub window display check box 450 of the setting display area 420 in FIG. 18 using the operation unit 250 of the PC 200 in FIG. The sub window 412 displays an image before the contrast is corrected. Hereinafter, an image before the contrast is corrected is referred to as a brightness image, and image data for displaying the brightness image is referred to as brightness image data.

図23および図24は、プレビュー表示においてメインウインドウ411に表示された測定対象物Sのセクショニング画像を示す図である。メインウインドウ411には、測定対象物Sのパターン画像が表示されてもよい。   23 and 24 are diagrams showing a sectioning image of the measuring object S displayed on the main window 411 in the preview display. In the main window 411, a pattern image of the measuring object S may be displayed.

図23のセクショニング画像の取得時の受光部120の露光時間は、図24のセクショニング画像の取得時の受光部120の露光時間よりも長い。すなわち、図23の例における受光部120の受光信号のレベルは、図24の例における受光部120の受光信号のレベルよりも高い。したがって、図23の例における受光部120の受光信号は、図24の例における受光部120の受光信号よりも飽和しやすい。   The exposure time of the light receiving unit 120 when acquiring the sectioning image of FIG. 23 is longer than the exposure time of the light receiving unit 120 when acquiring the sectioning image of FIG. That is, the level of the light receiving signal of the light receiving unit 120 in the example of FIG. 23 is higher than the level of the light receiving signal of the light receiving unit 120 in the example of FIG. Therefore, the light reception signal of the light receiving unit 120 in the example of FIG. 23 is more likely to be saturated than the light reception signal of the light receiving unit 120 in the example of FIG.

図23の例においては、セクショニング画像の例えば白い円で囲まれた領域R内の画素に対応する受光信号は飽和している。一方、図24の例においては、セクショニング画像の当該領域R内の画素に対応する受光信号は飽和していない。しかしながら、コントラストの補正が行われているため、図23の例における領域R内の画素は、図24の例における領域R内の画素よりも暗く表示される。   In the example of FIG. 23, the light reception signal corresponding to the pixels in the region R surrounded by, for example, a white circle of the sectioning image is saturated. On the other hand, in the example of FIG. 24, the light reception signal corresponding to the pixels in the region R of the sectioning image is not saturated. However, since the contrast is corrected, the pixels in the region R in the example of FIG. 23 are displayed darker than the pixels in the region R in the example of FIG.

使用者の直感によれば、受光信号のレベルが高いほど、セクショニング画像は明るくなる。受光信号のレベルを低い状態から上昇させる場合、受光信号のレベルが一定値に達するまでは、セクショニング画像は明るくなる。しかしながら、受光信号のレベルが一定値を超えると、パターンの明部分が照射された測定対象物Sの部分に対応する画素における受光信号は飽和する。これに対し、パターンの暗部分が照射された測定対象物Sの部分に対応する画素における受光信号のレベルが上昇する。そのため、これらの画素データの値の差により生成されるセクショニング画像データに基づくセクショニング画像は徐々に暗くなる。   According to the user's intuition, the higher the level of the received light signal, the brighter the sectioning image. When the level of the light reception signal is increased from a low state, the sectioning image becomes bright until the level of the light reception signal reaches a certain value. However, when the level of the light reception signal exceeds a certain value, the light reception signal in the pixel corresponding to the portion of the measuring object S irradiated with the bright portion of the pattern is saturated. On the other hand, the level of the light reception signal in the pixel corresponding to the part of the measuring object S irradiated with the dark part of the pattern increases. Therefore, the sectioning image based on the sectioning image data generated by the difference between the pixel data values becomes gradually darker.

そのため、使用者は、図23のセクショニング画像を得る際の受光部120の受光信号のレベルが図24のセクショニング画像を得る際の受光部120の受光信号のレベルよりも高いことを認識することができない。また、使用者は、図23のメインウインドウ411のセクショニング画像を見ても、受光信号が飽和していることを認識することができない。   Therefore, the user may recognize that the level of the light reception signal of the light receiving unit 120 when obtaining the sectioning image of FIG. 23 is higher than the level of the light reception signal of the light receiving unit 120 when obtaining the sectioning image of FIG. Can not. Further, the user cannot recognize that the received light signal is saturated even when viewing the sectioning image of the main window 411 in FIG.

そこで、図23および図24の例においては、メインウインドウ411に表示されるセクショニング画像を構成する複数のパターン画像データに基づいて、各画素における最大受光レベルが抽出される。抽出された各画素についての最大受光レベルに基づいて、明度画像データが生成される。生成された明度画像データに基づいて、サブウインドウ412に明度画像が表示される。また、明度画像データに基づいて受光部120により出力される受光信号が飽和しているか否か判定される。   Therefore, in the example of FIGS. 23 and 24, the maximum light reception level in each pixel is extracted based on a plurality of pattern image data constituting the sectioning image displayed on the main window 411. Lightness image data is generated based on the maximum received light level for each extracted pixel. A brightness image is displayed in the sub-window 412 based on the generated brightness image data. Further, it is determined whether the light reception signal output from the light receiving unit 120 is saturated based on the brightness image data.

明度画像は、メインウインドウ411に表示されるセクショニング画像を構成する複数のパターン画像の明るさの分布状態を示す。そのため、図23のサブウインドウ412の明度画像は、図24のサブウインドウ412の明度画像よりも明るく表示される。受光信号が飽和した画素が存在する場合には、明度画像における当該画素が識別可能に(本例においては異なる色で)サブウインドウ412に表示されることにより、受光信号が飽和した画素が使用者に通知される。   The brightness image indicates the brightness distribution state of a plurality of pattern images constituting the sectioning image displayed on the main window 411. Therefore, the brightness image in the subwindow 412 in FIG. 23 is displayed brighter than the brightness image in the subwindow 412 in FIG. When there is a pixel in which the light reception signal is saturated, the pixel in the lightness image is displayed in the sub-window 412 so that the pixel can be identified (in a different color in this example). Will be notified.

使用者は、明度画像を見ることにより、図23のセクショニング画像を得る際の受光部120の受光信号のレベルが図24のセクショニング画像を得る際の受光部120の受光信号のレベルよりも大きいことを認識することができる。また、使用者は、明度画像を見ることにより、受光信号が飽和していることを認識することができる。   The user sees the brightness image so that the level of the light receiving signal of the light receiving unit 120 when obtaining the sectioning image of FIG. 23 is higher than the level of the light receiving signal of the light receiving unit 120 when obtaining the sectioning image of FIG. Can be recognized. Further, the user can recognize that the light reception signal is saturated by looking at the brightness image.

使用者は、受光信号が飽和していることを認識することにより、測定光の強度等の明度パラメータを変更することができる。ここで、上記のように、プレビュー表示においては、測定条件が変更された場合のみ、測定対象物Sに再度測定光が照射される。これにより、受光される蛍光に基づいてパターン画像またはセクショニング画像データが生成されるとともに、明度画像データが生成される。その結果、メインウインドウ411に表示されるパターン画像またはセクショニング画像が更新され、サブウインドウ412に表示される明度画像が更新される。   The user can change the brightness parameter such as the intensity of the measurement light by recognizing that the received light signal is saturated. Here, as described above, in the preview display, the measurement object S is again irradiated with the measurement light only when the measurement condition is changed. Accordingly, pattern image or sectioning image data is generated based on the received fluorescence, and brightness image data is generated. As a result, the pattern image or sectioning image displayed in the main window 411 is updated, and the brightness image displayed in the sub window 412 is updated.

なお、測定対象物Sへの測定光の遮断は、光変調素子112が制御されることにより高速で行われるが、これに限定されない。測定対象物Sへの測定光の遮断は、図2の投光部320の遮光機構323が制御されることにより行われてもよい。   Note that the measurement light to the measurement object S is blocked at a high speed by controlling the light modulation element 112, but is not limited thereto. The measurement light may be blocked from the measurement object S by controlling the light shielding mechanism 323 of the light projecting unit 320 in FIG.

また、メインウインドウ411にパターン画像を表示させる場合には、CPU210は、測定条件が変更されるたびに、パターンの位相が一定量だけ移動された測定光が測定対象物Sに照射されるように光変調素子112を制御する。この場合、測定対象物Sの特定の部分にのみ測定光が照射されることが防止される。これにより、測定対象物Sの特定の部分における蛍光試薬のみが褪色することが防止される。   Further, when displaying the pattern image on the main window 411, the CPU 210 irradiates the measurement object S with the measurement light whose pattern phase is moved by a certain amount each time the measurement condition is changed. The light modulation element 112 is controlled. In this case, the measurement light is prevented from being irradiated only on a specific portion of the measurement object S. Thereby, it is prevented that only the fluorescent reagent in the specific part of the measuring object S fades.

本実施の形態においては、明度画像データは、複数のパターン画像データの各画素における最大受光レベルに基づいて生成されるが、これに限定されない。明度画像データは、複数のパターン画像データの各画素における受光信号の平均値に基づいて生成されてもよい。   In the present embodiment, the brightness image data is generated based on the maximum light reception level in each pixel of the plurality of pattern image data, but is not limited thereto. The brightness image data may be generated based on an average value of the light reception signals in each pixel of the plurality of pattern image data.

あるいは、明度画像データは、複数のパターン画像データのうちのいずれか1つまたは2つ以上の画像データであってもよい。明度画像データが複数のパターン画像データのうちのいずれか2つ以上である場合には、2以上のパターン画像が明度画像として交互にサブウインドウ412に表示されてもよい。   Alternatively, the lightness image data may be any one of the plurality of pattern image data or two or more image data. When the brightness image data is any two or more of the plurality of pattern image data, two or more pattern images may be alternately displayed in the sub-window 412 as the brightness image.

本実施の形態においては、コントラスト補正量はセクショニング画像の全ての画素について一律に決定されるが、これに限定されない。コントラスト補正量は、受光信号が飽和した画素が存在する場合には、セクショニング画像における当該画素が明るく表示されるように決定されてもよい。   In the present embodiment, the contrast correction amount is uniformly determined for all the pixels of the sectioning image, but is not limited thereto. The contrast correction amount may be determined so that the pixel in the sectioning image is displayed brightly when there is a pixel in which the light reception signal is saturated.

この場合、セクショニング画像において、受光信号の飽和している部分に対応する画素が受光信号の飽和していない部分に対応する画素よりも明るく表示される。それにより、使用者は、セクショニング画像を見ることにより受光信号が飽和していることを容易に認識することができる。   In this case, in the sectioning image, the pixel corresponding to the portion where the light reception signal is saturated is displayed brighter than the pixel corresponding to the portion where the light reception signal is not saturated. Thereby, the user can easily recognize that the received light signal is saturated by looking at the sectioning image.

本実施の形態においては、受光信号が飽和した画素が存在する場合には、明度画像における当該画素が識別可能に表示されることにより、受光信号が飽和した画素が使用者に通知されるが、これに限定されない。明度画像ではなくセクショニング画像またはパターン画像における当該画素が識別可能に表示されることにより、受光信号が飽和した画素が使用者に通知されてもよい。   In this embodiment, when there is a pixel in which the light reception signal is saturated, the pixel in the lightness image is displayed in an identifiable manner, so that the user is notified of the pixel in which the light reception signal is saturated. It is not limited to this. The pixel in which the light reception signal is saturated may be notified to the user by displaying the pixel in the sectioning image or the pattern image in a distinguishable manner instead of the brightness image.

例えば、セクショニング画像の飽和した画素を識別可能に塗りつぶす塗りつぶし処理が行われてもよい。塗りつぶし処理は、通常表示されたセクショニング画像およびプレビュー表示されたセクショニング画像のいずれにも適用可能である。塗りつぶされる画素データの値は、例えば画素データの最大値である。なお、本例では、画素データは8ビットを有するので、画素データの最大値は255である。   For example, a painting process for painting a saturated pixel of the sectioning image so as to be identifiable may be performed. The filling process can be applied to both the normally displayed sectioning image and the previewed sectioning image. The value of pixel data to be filled is, for example, the maximum value of pixel data. In this example, since the pixel data has 8 bits, the maximum value of the pixel data is 255.

塗りつぶされる画素データの値は、飽和した画素の周囲の画素群の画素データの最大値、平均値、最小値、中央値および最頻値のいずれかであってもよい。この場合、塗りつぶされた画素(飽和した画素)の明るさと当該画素の周囲の画素群の明るさとが大きく異なることがない。これにより、使用者に違和感のない塗りつぶし処理を飽和した画素に行うことができる。   The value of the pixel data to be filled may be any one of the maximum value, the average value, the minimum value, the median value, and the mode value of the pixel data of the pixel group around the saturated pixel. In this case, the brightness of the filled pixel (saturated pixel) and the brightness of the pixel group around the pixel do not differ greatly. As a result, it is possible to perform a painting process that does not give the user a sense of incongruity on saturated pixels.

あるいは、受光信号が飽和した画素が存在する場合には、受光信号が飽和したことを示す通知画面が表示部400に表示されてもよい。あるいは、受光信号が飽和した画素が存在する場合には、受光信号が飽和したことを示す通知音声が図示しないスピーカから出力されてもよい。   Alternatively, when there is a pixel in which the light reception signal is saturated, a notification screen indicating that the light reception signal is saturated may be displayed on the display unit 400. Alternatively, when there is a pixel in which the light reception signal is saturated, a notification sound indicating that the light reception signal is saturated may be output from a speaker (not shown).

あるいは、受光信号が飽和した画素が存在する場合には、以下のHDR(ハイダイナミックレンジ)処理がCPU210により自動的に行われてもよい。あるいは、受光信号が飽和した画素が存在する場合には、HDR処理を行うことを推奨する画面が表示部400に表示されてもよい。あるいは、受光信号が飽和した画素が存在する場合には、HDR処理を行うことを推奨する音声が図示しないスピーカから出力されてもよい。   Alternatively, when there is a pixel in which the light reception signal is saturated, the following HDR (High Dynamic Range) processing may be automatically performed by the CPU 210. Alternatively, when there is a pixel in which the light reception signal is saturated, a screen that recommends performing HDR processing may be displayed on the display unit 400. Alternatively, when there is a pixel in which the light reception signal is saturated, sound recommending that HDR processing be performed may be output from a speaker (not shown).

HDR処理においては、測定対象物Sの複数パターン画像に白とびした部分が含まれないように受光レベル調整が行われた状態で、複数の第1のパターン画像データが生成される。また、測定対象物Sの複数パターン画像に黒つぶれした部分が含まれないように受光レベル調整が行われた状態で、複数の第2のパターン画像データが生成される。   In the HDR process, a plurality of first pattern image data is generated in a state where the light reception level is adjusted so that the overexposed portion is not included in the plurality of pattern images of the measuring object S. In addition, a plurality of second pattern image data is generated in a state where the light reception level is adjusted so that the black pattern is not included in the plurality of pattern images of the measuring object S.

生成された複数の第1のパターン画像データと複数の第2のパターン画像データが合成される。これにより、ダイナミックレンジが拡大された複数の第3のパターン画像データが生成される。複数の第3のパターン画像データを合成することにより、ダイナミックレンジが拡大されたセクショニング画像データを生成することができる。   The plurality of generated first pattern image data and the plurality of second pattern image data are combined. Thereby, a plurality of third pattern image data having an expanded dynamic range is generated. By synthesizing a plurality of third pattern image data, sectioning image data with an expanded dynamic range can be generated.

なお、本実施の形態におけるHDR処理においては、第1の受光レベル調整が行われた状態で測定光が測定対象物Sに順次照射され、その後、第2の受光レベル調整が行われた状態で測定光が測定対象物Sに順次される。この手順によれば、受光レベル調整と測定対象物Sへの測定光の照射とを交互に行う手順と異なり、測定対象物Sの特定の部分に連続的に測定光が照射されることがない。これにより、測定対象物Sの特定の部分における蛍光試薬のみが褪色することが防止される。   In the HDR processing according to the present embodiment, the measurement light is sequentially irradiated onto the measurement object S in a state where the first light reception level adjustment is performed, and then the second light reception level adjustment is performed. Measurement light is sequentially applied to the measurement object S. According to this procedure, unlike the procedure of alternately adjusting the light reception level and irradiating the measurement object S with the measurement light, the measurement light is not continuously irradiated to a specific portion of the measurement object S. . Thereby, it is prevented that only the fluorescent reagent in the specific part of the measuring object S fades.

(b)設定表示領域
図17および図18に示すように、設定表示領域420には、フィルタ選択欄430、測定条件設定欄440、サブウインドウ表示チェックボックス450および付随機能設定欄460が表示される。また、設定表示領域420には、複数のタブが表示される。複数のタブは、焦点位置調整タブ470およびコントラスト補正設定タブ480を含む。使用者は、図1のPC200の操作部250を用いて表示部400に表示されたGUI(Graphical User Interface)を操作することにより、CPU210に各種の指示を与えることができる。
(B) Setting Display Area As shown in FIGS. 17 and 18, in the setting display area 420, a filter selection field 430, a measurement condition setting field 440, a sub window display check box 450, and an accompanying function setting field 460 are displayed. . In the setting display area 420, a plurality of tabs are displayed. The plurality of tabs include a focus position adjustment tab 470 and a contrast correction setting tab 480. The user can give various instructions to the CPU 210 by operating a GUI (Graphical User Interface) displayed on the display unit 400 using the operation unit 250 of the PC 200 of FIG.

フィルタ選択欄430には、複数(本例では3個)のフィルタ選択ボタン431,432,433,434が表示される。3個のフィルタ選択ボタン431〜433は、3個のフィルタキューブ151にそれぞれ対応し、フィルタ選択ボタン434はフィルタターレット152の開口部に対応する。   In the filter selection field 430, a plurality of (three in this example) filter selection buttons 431, 432, 433, and 434 are displayed. The three filter selection buttons 431 to 433 correspond to the three filter cubes 151, respectively, and the filter selection button 434 corresponds to the opening of the filter turret 152.

フィルタ選択ボタン431〜434のいずれかが使用者により選択される。CPU210は、選択されたフィルタ選択ボタンに対応するフィルタキューブ151または開口部が受光部120の光軸上に位置するようにフィルタターレット駆動部を駆動する。   Any one of the filter selection buttons 431 to 434 is selected by the user. The CPU 210 drives the filter turret driving unit so that the filter cube 151 or the opening corresponding to the selected filter selection button is positioned on the optical axis of the light receiving unit 120.

測定条件設定欄440には、パターン選択欄441、パターン設定バー442、露光時間設定バー443、露光時間設定ボタン444、オートボタン445および詳細設定ボタン446が表示される。パターン選択欄441から矩形波状測定光、1次元正弦波状測定光、ドット状測定光、2次元正弦波状測定光および均一測定光のいずれかが使用者により選択される。CPU210は、選択された測定光がパターン付与部110から出射されるように光変調素子112を制御する。   In the measurement condition setting field 440, a pattern selection field 441, a pattern setting bar 442, an exposure time setting bar 443, an exposure time setting button 444, an auto button 445, and a detailed setting button 446 are displayed. From the pattern selection column 441, one of rectangular wave-shaped measurement light, one-dimensional sinusoidal measurement light, dot-shaped measurement light, two-dimensional sinusoidal measurement light, and uniform measurement light is selected by the user. The CPU 210 controls the light modulation element 112 so that the selected measurement light is emitted from the pattern applying unit 110.

パターン設定バー442は、水平方向に移動可能なスライダを有する。矩形波状測定光またはドット状測定光が選択されている場合、パターン設定バー442のスライダが移動されることにより、パターンの空間周期Ts、明部分の幅W1およびパターンの位相の移動量が設定される。   The pattern setting bar 442 has a slider that can move in the horizontal direction. When rectangular wave measurement light or dot measurement light is selected, the slider of the pattern setting bar 442 is moved to set the spatial period Ts of the pattern, the width W1 of the bright portion, and the movement amount of the pattern phase. The

また、1次元正弦波状測定光または2次元正弦波状測定光が選択されている場合、パターン設定バー442のスライダが移動されることにより、パターンの空間周期Tsおよび位相の移動量が設定される。CPU210は、測定光が設定されたパターンの空間周期Ts、明部分の幅W1を有するように光変調素子112を制御する。また、CPU210は、設定された移動量でパターンの位相が移動するように光変調素子112を制御する。   When the one-dimensional sinusoidal measurement light or the two-dimensional sinusoidal measurement light is selected, the pattern space bar Ts and the phase movement amount are set by moving the slider of the pattern setting bar 442. The CPU 210 controls the light modulation element 112 so as to have the spatial period Ts of the pattern in which the measurement light is set and the width W1 of the bright portion. Further, the CPU 210 controls the light modulation element 112 so that the phase of the pattern moves by the set movement amount.

露光時間設定バー443は、水平方向に移動可能なスライダを有する。露光時間設定バー443のスライダが移動されるか、または露光時間設定ボタン444が操作されることにより、受光部120の露光時間が設定される。また、オートボタン445が操作されることにより、受光部120の露光時間が自動的に適切に設定される。CPU210は、受光部120の露光時間が設定された露光時間になるように受光部120を制御する。   The exposure time setting bar 443 has a slider that can move in the horizontal direction. The exposure time of the light receiving unit 120 is set by moving the slider of the exposure time setting bar 443 or operating the exposure time setting button 444. Further, when the auto button 445 is operated, the exposure time of the light receiving unit 120 is automatically set appropriately. The CPU 210 controls the light receiving unit 120 so that the exposure time of the light receiving unit 120 becomes the set exposure time.

使用者は、詳細設定ボタン446を操作することにより、測定条件をより詳細に設定することができる。詳細は後述する。   The user can set the measurement conditions in more detail by operating the detailed setting button 446. Details will be described later.

付随機能設定欄460には、自動コントラスト補正チェックボックス461、コントラスト補正量表示欄462および全焦点ボタン463が表示される。自動コントラスト補正チェックボックス461が指定された場合、CPU210は、全てのセクショニング画像データまたは落射通常画像データの各画素データの値に一定のコントラスト補正量を乗算する。これにより、セクショニング画像または落射通常画像のコントラストが補正される。   In the accompanying function setting field 460, an automatic contrast correction check box 461, a contrast correction amount display field 462, and an all-focus button 463 are displayed. When the automatic contrast correction check box 461 is designated, the CPU 210 multiplies the value of each pixel data of all sectioning image data or epi-illumination normal image data by a certain contrast correction amount. As a result, the contrast of the sectioning image or the reflected normal image is corrected.

また、CPU210は、コントラスト補正量表示欄462にコントラスト補正量を表示する。使用者は、コントラスト補正量表示欄462に表示されたコントラスト補正量を見ることにより、コントラスト補正前のセクショニング画像の明るさを認識することができる。これにより、受光信号が飽和していることおよび飽和の程度を認識することができる。全焦点ボタン463は、全焦点画像データを生成する場合等に操作される。詳細は後述する。   Further, the CPU 210 displays the contrast correction amount in the contrast correction amount display field 462. The user can recognize the brightness of the sectioning image before contrast correction by looking at the contrast correction amount displayed in the contrast correction amount display field 462. Thereby, it is possible to recognize that the received light signal is saturated and the degree of saturation. The omnifocal button 463 is operated, for example, when generating omnifocal image data. Details will be described later.

複数のタブからいずれかのタブが選択される。図17に示すように、焦点位置調整タブ470が選択されている場合には、設定表示領域420に対物レンズ選択欄471、焦点位置調整欄472およびステージ位置調整欄473が表示される。   One of the tabs is selected from the plurality of tabs. As shown in FIG. 17, when the focus position adjustment tab 470 is selected, an objective lens selection field 471, a focus position adjustment field 472, and a stage position adjustment field 473 are displayed in the setting display area 420.

対物レンズ選択欄471には、複数(本例では6個)の対物レンズ選択ボタン471a,471b,471c,471d,471e,471fが表示される。6個の対物レンズ選択ボタン471a〜471fは、6個の対物レンズ161にそれぞれ対応する。   In the objective lens selection field 471, a plurality (six in this example) of objective lens selection buttons 471a, 471b, 471c, 471d, 471e, 471f are displayed. The six objective lens selection buttons 471a to 471f correspond to the six objective lenses 161, respectively.

対物レンズ選択ボタン471a〜471fのいずれかが選択される。CPU210は、選択された対物レンズ選択ボタン471a〜471fに対応する対物レンズ161が受光部120の光軸上に位置するようにレンズターレット駆動部を駆動する。   Any of the objective lens selection buttons 471a to 471f is selected. The CPU 210 drives the lens turret driving unit so that the objective lenses 161 corresponding to the selected objective lens selection buttons 471 a to 471 f are positioned on the optical axis of the light receiving unit 120.

焦点位置調整欄472には、焦点位置調整バー472a、初期距離ボタン472bおよびオートフォーカスボタン472cが表示される。焦点位置調整バー472aは、垂直方向に移動可能なスライダを有する。焦点位置調整バー472aのスライダの位置は、測定対象物Sと対物レンズ161との間の距離に相当する。   In the focus position adjustment field 472, a focus position adjustment bar 472a, an initial distance button 472b, and an autofocus button 472c are displayed. The focal position adjustment bar 472a has a slider that can move in the vertical direction. The position of the slider of the focal position adjustment bar 472a corresponds to the distance between the measuring object S and the objective lens 161.

焦点位置調整バー472aのスライダが移動されることにより、測定対象物Sと対物レンズ161との間の距離が調整される。CPU210は、測定対象物Sと対物レンズ161との間の距離がスライダにより調整された距離になるように焦点位置調整機構163を制御する。   By moving the slider of the focal position adjustment bar 472a, the distance between the measuring object S and the objective lens 161 is adjusted. The CPU 210 controls the focal position adjustment mechanism 163 so that the distance between the measurement object S and the objective lens 161 is the distance adjusted by the slider.

初期距離ボタン472bが操作された場合、CPU210は、測定対象物Sと対物レンズ161との間の距離が初期条件として予め設定された距離になるように焦点位置調整機構163を制御する。オートフォーカスボタン472cが操作された場合、CPU210は、測定対象物Sに対物レンズ161の焦点が合うように焦点位置調整機構163を制御する。   When the initial distance button 472b is operated, the CPU 210 controls the focal position adjustment mechanism 163 so that the distance between the measurement object S and the objective lens 161 becomes a distance set in advance as an initial condition. When the autofocus button 472c is operated, the CPU 210 controls the focus position adjustment mechanism 163 so that the objective lens 161 is focused on the measurement object S.

ステージ位置調整欄473には、ステージ移動ボタン473a,473b,473c,473dおよび初期位置ボタン473eが表示される。ステージ移動ボタン473a,473bが操作された場合、CPU210は、ステージ140がX方向上の一方向および反対方向にそれぞれ移動するようにステージ駆動部を制御する。   In the stage position adjustment field 473, stage movement buttons 473a, 473b, 473c, 473d and an initial position button 473e are displayed. When the stage moving buttons 473a and 473b are operated, the CPU 210 controls the stage driving unit so that the stage 140 moves in one direction and the opposite direction in the X direction.

ステージ移動ボタン473c,473dが操作された場合、CPU210は、ステージ140がY方向上の一方向および反対方向にそれぞれ移動するようにステージ駆動部を制御する。初期位置ボタン473eが操作された場合、CPU210は、測定対象物Sの位置が初期条件として予め設定された位置に移動するようにステージ駆動部を制御する。   When the stage movement buttons 473c and 473d are operated, the CPU 210 controls the stage driving unit so that the stage 140 moves in one direction and the opposite direction in the Y direction. When the initial position button 473e is operated, the CPU 210 controls the stage driving unit so that the position of the measurement object S moves to a position set in advance as an initial condition.

図18に示すように、コントラスト補正設定タブ480が選択されている場合には、設定表示領域420にヒストグラム表示欄481が表示される。CPU210は、コントラストの補正が行われる前のセクショニング画像データの複数の画素データの値と各値を有する画素数との関係を示すヒストグラム画像をヒストグラム表示欄481に表示させる。すなわち、ヒストグラム表示欄481に表示されるヒストグラム画像は、明度画像における画素データの値(輝度値)と画素数との関係を示す。   As shown in FIG. 18, when the contrast correction setting tab 480 is selected, a histogram display field 481 is displayed in the setting display area 420. The CPU 210 causes the histogram display column 481 to display a histogram image indicating the relationship between the values of the plurality of pixel data of the sectioning image data before the contrast correction is performed and the number of pixels having each value. That is, the histogram image displayed in the histogram display field 481 shows the relationship between the pixel data value (luminance value) and the number of pixels in the brightness image.

使用者は、ヒストグラム表示欄481に表示されたヒストグラムを見ることにより、セクショニング画像データの複数の画素データの値と各値を有する画素の数との関係を認識することができる。これにより、使用者は受光信号が飽和していることおよび飽和の程度を認識することができる。   The user can recognize the relationship between the values of the plurality of pixel data of the sectioning image data and the number of pixels having each value by looking at the histogram displayed in the histogram display field 481. Thereby, the user can recognize that the received light signal is saturated and the degree of saturation.

また、コントラスト補正設定タブ480が選択されている場合には、設定表示領域420に図示しない複数のコントラスト補正量設定バー、コントラスト補正量入力欄およびガンマ補正値入力欄が表示される。各コントラスト補正量設定バーは水平方向に移動可能なスライダを有する。   When the contrast correction setting tab 480 is selected, a plurality of contrast correction amount setting bars, a contrast correction amount input field, and a gamma correction value input field (not shown) are displayed in the setting display area 420. Each contrast correction amount setting bar has a slider that can move in the horizontal direction.

自動コントラスト補正チェックボックス461が指定されない場合、各コントラスト補正量設定バーのスライダが移動されるか、またはコントラスト補正量入力欄に数値が入力されることにより、コントラスト補正量が任意に設定される。また、ガンマ補正値入力欄に数値が入力されている場合には、CPU210は、入力された数値に基づいてコントラスト補正量にガンマ補正を行う。CPU210は、全ての画素のコントラストに設定またはガンマ補正されたコントラスト補正量を乗算することによりセクショニング画像のコントラストを補正する。   When the automatic contrast correction check box 461 is not designated, the contrast correction amount is arbitrarily set by moving the slider of each contrast correction amount setting bar or by entering a numerical value in the contrast correction amount input field. When a numerical value is input in the gamma correction value input field, the CPU 210 performs gamma correction on the contrast correction amount based on the input numerical value. The CPU 210 corrects the contrast of the sectioning image by multiplying the contrast of all pixels by the contrast correction amount set or gamma corrected.

詳細設定ボタン446が操作された場合、設定表示領域420に測定条件詳細設定ウインドウが表示される。図25は、測定条件詳細設定ウインドウの一例を示す図である。図25に示すように、測定条件詳細設定ウインドウ4460には、矩形波状測定光チェックボックス4461、ドット状測定光チェックボックス4462および空間周期設定欄4463が表示される。また、測定条件詳細設定ウインドウ4460には、明部分幅設定欄4464、位相移動量設定欄4465、ビニング数選択欄4466およびゲイン選択欄4467が表示される。   When the detailed setting button 446 is operated, a measurement condition detailed setting window is displayed in the setting display area 420. FIG. 25 is a diagram illustrating an example of a measurement condition detail setting window. As shown in FIG. 25, in the measurement condition detail setting window 4460, a rectangular wave measurement light check box 4461, a dot measurement light check box 4462 and a spatial period setting field 4463 are displayed. The measurement condition detail setting window 4460 displays a bright part width setting field 4464, a phase shift amount setting field 4465, a binning number selection field 4466, and a gain selection field 4467.

なお、図25の例においては、測定条件詳細設定ウインドウ4460には、図17の例と同様の露光時間設定バー443、露光時間設定ボタン444およびオートボタン445も表示される。図25の露光時間設定バー443、露光時間設定ボタン444およびオートボタン445の機能は、それぞれ図17の露光時間設定バー443、露光時間設定ボタン444およびオートボタン445の機能と同様である。   In the example of FIG. 25, the measurement condition detail setting window 4460 also displays an exposure time setting bar 443, an exposure time setting button 444, and an auto button 445 similar to the example of FIG. The functions of the exposure time setting bar 443, the exposure time setting button 444, and the auto button 445 in FIG. 25 are the same as the functions of the exposure time setting bar 443, the exposure time setting button 444, and the auto button 445 in FIG.

矩形波状測定光チェックボックス4461およびドット状測定光チェックボックス4462のいずれか一方が指定される。矩形波状測定光チェックボックス4461が指定された場合にはパターン付与部110から矩形波状測定光が出射される。一方、ドット状測定光チェックボックス4462が指定された場合にはパターン付与部110からドット状測定光が出射される。空間周期設定欄4463に数値が入力されることにより空間周期Tsが設定される。   One of the rectangular wave measurement light check box 4461 and the dot measurement light check box 4462 is designated. When the rectangular wave measuring light check box 4461 is designated, the rectangular wave measuring light is emitted from the pattern applying unit 110. On the other hand, when the dot measurement light check box 4462 is designated, the dot measurement light is emitted from the pattern applying unit 110. A spatial period Ts is set by inputting a numerical value in the spatial period setting field 4463.

明部分幅設定欄4464が操作されることにより、パターンの明部分の幅W1が設定される。ここで、パターンの明部分の幅W1が自動的に適切に設定されるオートモードおよびパターンの明部分の幅W1が任意に設定されるマニュアルモードのいずれか一方が使用者により選択される。マニュアルモードが選択される場合、パターンの明部分の幅W1に相当する数値が明部分幅設定欄4464に入力される。   By operating the bright part width setting field 4464, the width W1 of the bright part of the pattern is set. Here, the user selects either the auto mode in which the width W1 of the bright portion of the pattern is automatically set appropriately or the manual mode in which the width W1 of the bright portion of the pattern is arbitrarily set. When the manual mode is selected, a numerical value corresponding to the width W1 of the bright portion of the pattern is input to the bright portion width setting field 4464.

位相移動量設定欄4465が操作されることにより、パターンの位相の移動量が設定される。ここで、パターンの位相の移動量が自動的に適切に設定されるオートモードおよびパターンの位相の移動量が任意に設定されるマニュアルモードのいずれか一方が使用者により選択される。マニュアルモードが選択される場合、パターンの位相の移動量に相当する数値が位相移動量設定欄4465に入力される。   By operating the phase movement amount setting column 4465, the movement amount of the phase of the pattern is set. Here, the user selects either the auto mode in which the movement amount of the pattern phase is automatically set appropriately or the manual mode in which the movement amount of the pattern phase is arbitrarily set. When the manual mode is selected, a numerical value corresponding to the movement amount of the pattern phase is input to the phase movement amount setting field 4465.

ビニング数選択欄4466からパターン画像データまたは落射通常画像データにおけるビニング数が使用者により選択される。CPU210は、選択されたビニング数でパターン画像データまたは落射通常画像データを生成する。また、ゲイン選択欄4467から受光部120のゲインの値が使用者により選択される。CPU210は、受光部120のゲインが選択されたゲインの値になるように受光部120を制御する。   From the binning number selection column 4466, the number of binning in the pattern image data or the epi-illumination normal image data is selected by the user. The CPU 210 generates pattern image data or epi-illumination normal image data with the selected number of binning. Further, the gain value of the light receiving unit 120 is selected by the user from the gain selection field 4467. The CPU 210 controls the light receiving unit 120 so that the gain of the light receiving unit 120 becomes the selected gain value.

測定条件詳細設定ウインドウ4460には、測定光の最大強度Imaxおよび最小強度Iminを設定するための強度設定欄が設けられてもよい。この場合、使用者は、測定光の最大強度Imaxおよび最小強度Iminを設定することができる。   The measurement condition detail setting window 4460 may be provided with an intensity setting field for setting the maximum intensity Imax and the minimum intensity Imin of the measurement light. In this case, the user can set the maximum intensity Imax and the minimum intensity Imin of the measurement light.

また、測定条件詳細設定ウインドウ4460には、ROIを設定するためのROI設定欄が設けられてもよい。この場合、使用者は、例えばROI設定欄を操作した状態で、メインウインドウ411上で操作部250を操作してROIを指定することにより、ROIを設定することができる。   The measurement condition detail setting window 4460 may be provided with an ROI setting field for setting an ROI. In this case, for example, the user can set the ROI by operating the operation unit 250 on the main window 411 and specifying the ROI in the state where the ROI setting field is operated.

(6)合焦点画素データの判定
(a)判定方式
測定対象物Sと対物レンズ161との相対的な距離を変化させつつ測定対象物Sに測定光を照射することにより、複数の焦点位置における複数のセクショニング画像データまたは通常画像データがそれぞれ生成される。生成された複数のセクショニング画像データまたは通常画像データの画素データのうち合焦点画素データがCPU210の合焦検出部214により画素ごとに判定される。
(6) Determination of In-Focus Pixel Data (a) Determination Method By irradiating the measurement object S with the measurement light while changing the relative distance between the measurement object S and the objective lens 161, a plurality of focus positions are obtained. A plurality of sectioning image data or normal image data is generated. Out-of-focus pixel data among the generated plurality of sectioning image data or normal image data is determined for each pixel by the focus detection unit 214 of the CPU 210.

合焦点画素データの判定結果に基づいて、全焦点画像データまたは測定対象物Sの立体的な形状を示すデータ(以下、立体形状データと呼ぶ)を生成することができる。また、合焦点画素データの判定結果に基づいて、オートフォーカスを実行することができる。本実施の形態においては、セクショニング観察と通常観察とで異なる合焦点画素データの判定方式が採用される。   Based on the determination result of the in-focus pixel data, omnifocal image data or data indicating the three-dimensional shape of the measurement object S (hereinafter referred to as three-dimensional shape data) can be generated. Further, autofocus can be executed based on the determination result of the focused pixel data. In the present embodiment, different focused pixel data determination methods are used for sectioning observation and normal observation.

図26は、セクショニング観察における合焦点画素データの判定方式を説明するための図である。図26の横軸はパターン測定光の焦点位置(Z方向における位置)を示し、縦軸は画素データを示す。   FIG. 26 is a diagram for explaining a determination method of in-focus pixel data in sectioning observation. The horizontal axis in FIG. 26 indicates the focal position (position in the Z direction) of the pattern measurement light, and the vertical axis indicates pixel data.

セクショニング観察では、複数のセクショニング画像データにおける同一の画素についての複数の画素データのうち、最大値を有する画素データが合焦点画素データであると判定される。図26の画素の例においては、位置Paにおいて生成された画素データが最大値Dmaxを有する。したがって、位置Paにおいて生成された画素データが合焦点画素データであると判定される。   In sectioning observation, it is determined that the pixel data having the maximum value among the plurality of pixel data for the same pixel in the plurality of sectioning image data is the focused pixel data. In the example of the pixel in FIG. 26, the pixel data generated at the position Pa has the maximum value Dmax. Therefore, it is determined that the pixel data generated at the position Pa is in-focus pixel data.

特に、矩形波状測定光またはドット状測定光を用いる場合には、1次元正弦波状測定光または2次元正弦波状測定光を用いる場合に比べて、最大値を有する画素データを容易に判定することができる。そのため、透明でかつ模様を有さないガラス基板等の測定対象物Sの画素データに対しても合焦点画素データの判定を容易に行うことができる。   In particular, when rectangular wave-shaped measurement light or dot-shaped measurement light is used, pixel data having a maximum value can be easily determined as compared with the case of using one-dimensional sine wave-shaped measurement light or two-dimensional sine wave-shaped measurement light. it can. Therefore, it is possible to easily determine the focused pixel data for the pixel data of the measuring object S such as a glass substrate that is transparent and has no pattern.

図27は、通常観察における合焦点画素データの判定方式を説明するための図である。図26の横軸はパターン測定光の焦点位置(Z方向における位置)を示し、縦軸は局所的コントラストを示す。ここで、局所的コントラストは、例えば任意の画素データの値と当該画素データに隣接する他の画素データの値との差である。局所的コントラストは、任意の画素データの値と当該画素データに隣接する他の画素データの値との分散であってもよい。   FIG. 27 is a diagram for explaining a determination method of in-focus pixel data in normal observation. The horizontal axis in FIG. 26 indicates the focal position (position in the Z direction) of the pattern measurement light, and the vertical axis indicates the local contrast. Here, the local contrast is, for example, the difference between the value of arbitrary pixel data and the value of other pixel data adjacent to the pixel data. The local contrast may be a dispersion between a value of arbitrary pixel data and a value of other pixel data adjacent to the pixel data.

通常観察では、複数の通常画像データにおける同一の画素データについての複数の画素データのうち、最大の局所的コントラストを有する画素データが合焦点画素データであると判定される。図27の画素の例においては、位置Pbにおいて生成された画素データが最大の局所的コントラストCmaxを有する。したがって、位置Paにおいて生成された画素データが合焦点画素データであると判定される。通常観察では、エッジ部分での局所的コントラストの変化に基づいて合焦点画素データが判定されてもよい。   In normal observation, it is determined that the pixel data having the maximum local contrast among the plurality of pieces of pixel data for the same pixel data in the plurality of pieces of normal image data is the focused pixel data. In the pixel example of FIG. 27, the pixel data generated at the position Pb has the maximum local contrast Cmax. Therefore, it is determined that the pixel data generated at the position Pa is in-focus pixel data. In normal observation, focused pixel data may be determined based on a change in local contrast at the edge portion.

本実施の形態において、CPU210は観察方式に応じて適切な合焦点画素データの判定方式を自動的に設定するが、これに限定されない。CPU210は、表示部400に合焦点画素データの判定方式を設定するための設定画面を表示してもよい。   In the present embodiment, the CPU 210 automatically sets an appropriate in-focus pixel data determination method according to the observation method, but is not limited to this. The CPU 210 may display a setting screen for setting a determination method for focused pixel data on the display unit 400.

(b)画像データの合成
全焦点画像データを生成する場合、使用者は、図1の操作部250を用いて図17および図18の全焦点ボタン463を操作する。これにより、設定表示領域420に全焦点画像作成ウインドウが表示される。図28は、全焦点画像作成ウインドウの一例を示す図である。図28に示すように、全焦点画像作成ウインドウ4630には、開始ボタン4631および画像保存ボタン4632が表示される。
(B) Composition of Image Data When generating omnifocal image data, the user operates the omnifocal button 463 in FIGS. 17 and 18 using the operation unit 250 in FIG. As a result, an omnifocal image creation window is displayed in the setting display area 420. FIG. 28 is a diagram illustrating an example of an omnifocal image creation window. As shown in FIG. 28, an omnifocal image creation window 4630 displays a start button 4631 and an image save button 4632.

使用者は、開始ボタン4631を操作することにより、全焦点画像データを生成するための全焦点画像データ生成処理をCPU210に指示することができる。図29および図30は、全焦点画像データ生成処理を示すフローチャートである。以下、図2および図28〜図30を参照しながら全焦点画像データ生成処理を説明する。   The user can instruct the CPU 210 to perform omnifocal image data generation processing for generating omnifocal image data by operating the start button 4631. 29 and 30 are flowcharts showing the omnifocal image data generation processing. Hereinafter, the omnifocal image data generation process will be described with reference to FIGS. 2 and 28 to 30.

CPU210は、開始ボタン4631が操作されたか否かを判定する(ステップS11)。ステップS1において開始ボタン4631が操作されていない場合、CPU210は開始ボタン4631が操作されるまで待機する。   CPU210 determines whether the start button 4631 was operated (step S11). If the start button 4631 is not operated in step S1, the CPU 210 waits until the start button 4631 is operated.

ステップS1において開始ボタン4631が操作された場合、CPU210は、測定対象物Sに測定光が照射されるように図1の投光部320およびパターン付与部110を制御する(ステップS12)。また、CPU210は、図1の制御基板170から与えられる画素データに基づいて、セクショニング画像データまたは通常画像データを生成する(ステップS13)。生成されたセクショニング画像データまたは通常画像データは図1のRAM230に記憶される。   When the start button 4631 is operated in step S1, the CPU 210 controls the light projecting unit 320 and the pattern providing unit 110 in FIG. 1 so that the measurement object S is irradiated with the measurement light (step S12). Further, the CPU 210 generates sectioning image data or normal image data based on the pixel data given from the control board 170 of FIG. 1 (step S13). The generated sectioning image data or normal image data is stored in the RAM 230 in FIG.

ここで、CPU210は、現時点までに生成された一または複数のセクショニング画像データまたは通常画像データの画素データのうち、測定対象物Sの一部に焦点がより近い状態で得られる画素データを抽出する(ステップS14)。   Here, the CPU 210 extracts pixel data obtained in a state where the focus is closer to a part of the measurement object S from pixel data of one or a plurality of sectioning image data or normal image data generated up to the present time. (Step S14).

セクショニング観察では、抽出される画素データは、現時点までに生成された一または複数のセクショニング画像データにおける同一の画素についての複数の画素データのうち、最大値を有する画素データである。通常観察では、抽出される画素データは、現時点までに生成された一または複数の通常画像データにおける同一の画素についての複数の画素データのうち、最大の局所的コントラストを有する画素データである。   In sectioning observation, the extracted pixel data is pixel data having a maximum value among a plurality of pixel data for the same pixel in one or a plurality of sectioning image data generated up to the present time. In normal observation, the extracted pixel data is pixel data having the maximum local contrast among a plurality of pixel data for the same pixel in one or a plurality of normal image data generated up to the present time.

CPU210は、抽出した複数の画素データを合成することにより画像データを生成する(ステップS15)。生成された画像データはRAM230に記憶される。なお、最初にセクショニング画像データまたは通常画像データが生成された時点では、当該セクショニング画像データまたは通常画像データの全ての画素データが、測定対象物Sの一部に焦点がより近い状態で得られる画素データであると判定され、抽出される。そのため、複数の画素データを合成することにより生成される画像データは当該セクショニング画像データまたは通常画像データと同一である。   The CPU 210 generates image data by combining the extracted pixel data (step S15). The generated image data is stored in the RAM 230. At the time when sectioning image data or normal image data is first generated, all pixel data of the sectioning image data or normal image data is obtained in a state where the focus is closer to a part of the measuring object S. The data is determined and extracted. Therefore, image data generated by combining a plurality of pixel data is the same as the sectioning image data or normal image data.

次に、CPU210は、全焦点画像データが生成されたか否かを判定する(ステップS16)。CPU210は、予め定められた範囲内で焦点位置の移動を終了した場合、全焦点画像データが生成されたと判定する。   Next, the CPU 210 determines whether or not omnifocal image data has been generated (step S16). The CPU 210 determines that the omnifocal image data has been generated when the movement of the focal position is completed within a predetermined range.

CPU210は、セクショニング観察においては、予め定められた範囲内で焦点位置の移動を終了する前に最大値を有する全ての画素データを抽出したと判定した場合には、全焦点画像データが生成されたと判定してもよい。CPU210は、通常観察においては、予め定められた範囲内で焦点位置の移動を終了する前に最大の局所的コントラストを有する全ての画素データを抽出したと判定した場合には、全焦点画像データが生成されたと判定してもよい。   In the sectioning observation, if the CPU 210 determines that all the pixel data having the maximum value is extracted before the movement of the focal position within the predetermined range is completed, the omnifocal image data is generated. You may judge. When the CPU 210 determines that all pixel data having the maximum local contrast is extracted before the movement of the focal position within a predetermined range is completed in normal observation, the all-focus image data is stored. You may determine with having produced | generated.

ステップS16において、全焦点画像データが生成されていない場合、CPU210は、対物レンズ161の焦点位置が一定の距離だけ移動するように焦点位置調整機構163を制御する(ステップS17)。その後、CPU210は、ステップS12の処理に戻る。その後、CPU210は、ステップS12〜S17の手順までを繰り返す。これにより、対物レンズ161の焦点位置が移動し、新たな焦点位置におけるセクショニング画像データまたは通常画像データが生成されるごとに、RAM230に記憶された画像データが更新される。   In step S16, when the omnifocal image data is not generated, the CPU 210 controls the focal position adjustment mechanism 163 so that the focal position of the objective lens 161 moves by a certain distance (step S17). Thereafter, the CPU 210 returns to the process of step S12. Thereafter, the CPU 210 repeats steps S12 to S17. As a result, the focus position of the objective lens 161 moves, and the image data stored in the RAM 230 is updated each time sectioning image data or normal image data at a new focus position is generated.

上記の手順が繰り返されることにより、測定対象物Sの一部に焦点が合った状態で得られる画素データ、すなわち合焦点画素データが抽出される。全ての合焦点画素データが抽出された場合、RAM230に記憶された画像データは、測定対象物Sの全体に焦点が合った状態で得られる画像データ、すなわち全焦点画像データとなる。   By repeating the above procedure, pixel data obtained in a state where a part of the measuring object S is focused, that is, focused pixel data is extracted. When all the in-focus pixel data is extracted, the image data stored in the RAM 230 is image data obtained in a state where the entire measuring object S is in focus, that is, all-focus image data.

ステップS16において、全焦点画像データが生成された場合、CPU210は、RAM230に記憶された全焦点画像データを図1の記憶装置240に保存する(ステップS18)。これにより、CPU210は、全焦点画像データ生成処理を終了する。画像保存ボタン4632が操作された場合にも、CPU210は、RAM230に記憶された画像データを記憶装置240に保存して全焦点画像データ生成処理を終了する。   When the omnifocal image data is generated in step S16, the CPU 210 stores the omnifocal image data stored in the RAM 230 in the storage device 240 of FIG. 1 (step S18). Thereby, the CPU 210 ends the omnifocal image data generation process. Also when the image save button 4632 is operated, the CPU 210 saves the image data stored in the RAM 230 in the storage device 240 and ends the omnifocal image data generation process.

また、CPU210は、図2のステージ140をX方向またはY方向に移動させながら複数のセクショニング画像データまたは通常画像データを生成することができる。このようにして生成された複数のセクショニング画像データまたは通常画像データを合成することにより、使用者は、より大きい寸法を有する測定対象物Sの全体のセクショニング画像または通常画像を観察することができる。   Further, the CPU 210 can generate a plurality of sectioning image data or normal image data while moving the stage 140 of FIG. 2 in the X direction or the Y direction. By combining the plurality of sectioning image data or normal image data generated in this way, the user can observe the entire sectioning image or normal image of the measuring object S having a larger dimension.

さらに、CPU210は、一定時間ごとに測定対象物Sのセクショニング画像データまたは通常画像データを生成することができる(タイムラプス撮影)。異なる時点において生成された複数のセクショニング画像データまたは通常画像データを合成することにより、使用者は、測定対象物Sの時間変化するセクショニング画像または通常画像を動画として観察することができる。   Furthermore, the CPU 210 can generate sectioning image data or normal image data of the measurement object S at regular intervals (time-lapse imaging). By combining a plurality of sectioning image data or normal image data generated at different points in time, the user can observe the sectioning image or the normal image of the measuring object S that changes with time as a moving image.

これらのように、後で合成されるべき複数のセクショニング画像データまたは通常画像データの生成過程において、測定条件が変更されると、合成されたセクショニング画像または通常画像の一部の明るさが不自然に変化するか、または明るさの統一性が低下する。また、測定対象物Sの動画の明るさにちらつきが生じる。そのため、後で合成されるべき複数のセクショニング画像データまたは通常画像データを生成する場合には、測定条件が変更されないことが好ましい。   As described above, when measurement conditions are changed in the process of generating a plurality of sectioning image data or normal image data to be synthesized later, the brightness of a part of the synthesized sectioning image or normal image becomes unnatural. Or the uniformity of brightness decreases. In addition, the brightness of the moving image of the measuring object S flickers. Therefore, when generating a plurality of sectioning image data or normal image data to be synthesized later, it is preferable that the measurement conditions are not changed.

同様に、後で合成されるべき複数のセクショニング画像データ間でコントラスト補正量が異なる場合でも、合成されたセクショニング画像の一部の明るさが不自然に変化するか、または明るさの統一性が低下する。また、測定対象物Sの動画の明るさにちらつきが生じる。   Similarly, even when the contrast correction amount differs between a plurality of sectioning image data to be combined later, the brightness of a part of the combined sectioning image changes unnaturally or the uniformity of the brightness is descend. In addition, the brightness of the moving image of the measuring object S flickers.

一方、本実施の形態においては、上記のようにコントラストが補正される前のセクショニング画像データとコントラスト補正量を示すメタデータとが独立して保存される。そのため、複数のセクショニング画像データ間でコントラスト補正量を統一することができる。これにより、合成されたセクショニング画像の明るさの不自然な変化、明るさの不統一、または明るさのちらつきを防止することができる。   On the other hand, in the present embodiment, the sectioning image data before the contrast is corrected as described above and the metadata indicating the contrast correction amount are stored independently. Therefore, the contrast correction amount can be unified among the plurality of sectioning image data. As a result, it is possible to prevent unnatural changes in brightness, ununiformity in brightness, or flickering in brightness of the combined sectioning image.

ここで、コントラスト補正量は、セクショニング画像の白とびした部分および黒つぶれした部分が最も少なくなる値に設定されてもよい。この場合、セクショニング画像のダイナミックレンジが拡大される。あるいは、コントラスト補正量は、複数のセクショニング画像データのコントラスト補正量の平均値であってもよい。この場合、セクショニング画像の全体的な明るさが最適化される。これらのコントラスト補正量は、セクショニング画像データの特性に応じて切り替え可能であってもよい。   Here, the contrast correction amount may be set to a value at which the overexposed and underexposed portions of the sectioning image are minimized. In this case, the dynamic range of the sectioning image is expanded. Alternatively, the contrast correction amount may be an average value of the contrast correction amounts of the plurality of sectioning image data. In this case, the overall brightness of the sectioning image is optimized. These contrast correction amounts may be switchable according to the characteristics of the sectioning image data.

(c)立体形状データおよびオートフォーカス
全焦点画像データの生成手順において、焦点位置が移動した際には、測定対象物Sと対物レンズ161との相対的な距離がRAM230に記憶される。CPU210は、抽出した画素データに対応する測定対象物Sの部分とRAM230に記憶された対物レンズ161との相対的な距離に基づいて、測定対象物Sの当該部分の高さを算出する。
(C) Stereoscopic shape data and autofocus When the focal position is moved in the generation procedure of the omnifocal image data, the relative distance between the measurement object S and the objective lens 161 is stored in the RAM 230. The CPU 210 calculates the height of the measurement object S based on the relative distance between the part of the measurement object S corresponding to the extracted pixel data and the objective lens 161 stored in the RAM 230.

CPU210は、測定対象物Sの全ての部分について算出された高さを合成することにより、立体形状データを生成する。立体形状データはRAM230に記憶される。画像保存ボタン4632が操作された場合、CPU210は、RAM230に記憶された画像データとともに立体形状データを記憶装置240に保存する。   The CPU 210 generates solid shape data by synthesizing the heights calculated for all the parts of the measuring object S. The three-dimensional shape data is stored in the RAM 230. When the image save button 4632 is operated, the CPU 210 saves the solid shape data together with the image data stored in the RAM 230 in the storage device 240.

図17および図18のオートフォーカスボタン472cが操作された場合、オートフォーカスが行われる。具体的には、CPU210は、複数の異なる焦点位置における複数のパターン画像の中央部分の画素データを算出する。または複数の異なる焦点位置における複数の通常画像の中央部分の画素の局所的コントラストを算出する。   When the autofocus button 472c in FIGS. 17 and 18 is operated, autofocus is performed. Specifically, the CPU 210 calculates pixel data of the central portion of a plurality of pattern images at a plurality of different focal positions. Or the local contrast of the pixel of the center part of several normal images in several different focus positions is calculated.

これにより、パターン画像または通常画像の中央部分の合焦点画素データが判定される。また、パターン画像または通常画像の中央部分に対応する測定対象物Sの部分に焦点が合ったときの測定対象物Sと対物レンズ161との相対的な距離が算出される。CPU210は、測定対象物Sと対物レンズ161との相対的な距離が算出された距離になるように焦点位置調整機構163を制御する。   Thereby, the focused pixel data of the central portion of the pattern image or the normal image is determined. Further, the relative distance between the measurement object S and the objective lens 161 when the measurement object S corresponding to the central portion of the pattern image or the normal image is focused is calculated. The CPU 210 controls the focal position adjustment mechanism 163 so that the relative distance between the measurement object S and the objective lens 161 becomes the calculated distance.

なお、ROIが設定されている場合には、CPU210は、パターン画像または通常画像の中央部分ではなく、ROI内の合焦点画素データを判定してもよい。この場合、ROIに対応する測定対象物Sの部分にオートフォーカスを行うことができる。   When the ROI is set, the CPU 210 may determine the focused pixel data in the ROI instead of the central portion of the pattern image or the normal image. In this case, autofocus can be performed on the portion of the measuring object S corresponding to the ROI.

セクショニング観察と通常観察とでは、合焦点画素データの判定方式が異なる。そのため、セクショニング観察と通常観察とでは、オートフォーカスが行われたときの焦点位置が異なる。使用者は、セクショニング観察時のオートフォーカスと通常観察時のオートフォーカスとを切り替えることにより、最適な焦点位置を判断することができる。   The sectioning observation and the normal observation differ in the determination method of the focused pixel data. Therefore, the sectioning observation and the normal observation have different focal positions when autofocus is performed. The user can determine the optimum focus position by switching between autofocus during sectioning observation and autofocus during normal observation.

また、矩形波状測定光またはドット状測定光の空間周期Tsが長い場合、合焦点画素データの判定が短時間で終了する。そのため、空間周期Tsを長く設定することにより、オートフォーカスを高速で行うことができる。一方、矩形波状測定光またはドット状測定光の空間周期Tsが短い場合、最大値を有する画素データが高い精度で判定される。そのため、空間周期Tsを短く設定することにより、オートフォーカスの精度を向上させることができる。   Further, when the spatial period Ts of the rectangular wave measurement light or the dot measurement light is long, the determination of the focused pixel data is completed in a short time. Therefore, autofocus can be performed at high speed by setting the spatial period Ts to be long. On the other hand, when the spatial period Ts of the rectangular wave measurement light or the dot measurement light is short, the pixel data having the maximum value is determined with high accuracy. Therefore, the accuracy of autofocus can be improved by setting the spatial period Ts short.

オートフォーカスを行う場合には、測定光が出射されるごとに測定対象物Sへの測定光の照射位置が切り替えられる。これにより、測定対象物Sの特定の部分における蛍光試薬のみが褪色することが防止される。ここで、受光部120の露光時間内に測定対象物Sへの測定光の照射位置が切り替えられると、受光部120から出力される受光信号のレベルが不正確になり、オートフォーカスの精度が低下する。そのため、測定対象物Sへの測定光の照射位置の切り替えは、受光部120の露光時間の経過後に行われることが好ましい。   When autofocusing is performed, the measurement light irradiation position on the measurement object S is switched each time the measurement light is emitted. Thereby, it is prevented that only the fluorescent reagent in the specific part of the measuring object S fades. Here, if the irradiation position of the measurement light on the measuring object S is switched within the exposure time of the light receiving unit 120, the level of the light reception signal output from the light receiving unit 120 becomes inaccurate, and the accuracy of autofocus is reduced. To do. Therefore, it is preferable that the irradiation position of the measurement light on the measurement object S is switched after the exposure time of the light receiving unit 120 has elapsed.

(7)効果
本実施の形態に係る撮像装置500においては、所定のパターンを有する測定光が、投光部320により出射された光からパターン付与部110により生成される。パターン付与部110により生成された測定光がフィルタユニット150により測定対象物Sに照射される。また、生成されたパターンの空間的な位相がパターン付与部110により所定量ずつ測定対象物S上で順次移動される。受光部120により測定対象物Sからの光が受光され、受光量を示す受光信号が出力される。
(7) Effect In the imaging apparatus 500 according to the present embodiment, measurement light having a predetermined pattern is generated by the pattern applying unit 110 from the light emitted by the light projecting unit 320. The measurement light generated by the pattern applying unit 110 is irradiated onto the measurement object S by the filter unit 150. Further, the spatial phase of the generated pattern is sequentially moved on the measuring object S by a predetermined amount by the pattern applying unit 110. Light from the measuring object S is received by the light receiving unit 120, and a light reception signal indicating the amount of light received is output.

受光部120から出力される受光信号に基づいてパターンの複数の位相で生成される複数のパターン画像データに基づいて測定対象物Sのセクショニング画像データが生成される。具体的には、測定光の明部分が測定対象物Sに照射されたときの画素データの値から暗部分が測定対象物Sに照射されたときの画素データの値を除去することによりセクショニング画像データが生成される。   Sectioning image data of the measurement object S is generated based on a plurality of pattern image data generated at a plurality of phases of the pattern based on the light reception signal output from the light receiving unit 120. Specifically, the sectioning image is obtained by removing the pixel data value when the dark portion is irradiated on the measuring object S from the pixel data value when the measuring object S is irradiated with the bright portion of the measuring light. Data is generated.

複数のパターン画像データにおける各画素データについて、測定光の暗部分が測定対象物Sに照射されたときの画素値は、迷光による画像のボケ成分に相当する。したがって、セクショニング画像データの各画素から迷光によるボケ成分が除去される。それにより、鮮明な測定対象物Sのセクショニング画像を得ることができる。   For each piece of pixel data in the plurality of pattern image data, the pixel value when the measurement object S is irradiated with the dark portion of the measurement light corresponds to a blur component of the image due to stray light. Therefore, the blur component due to stray light is removed from each pixel of the sectioning image data. Thereby, a clear sectioning image of the measuring object S can be obtained.

一方、セクショニング画像データの各画素から迷光によるボケ成分が除去されると、セクショニング画像は、各画素データから迷光によるボケ成分が除去されない場合に比べて暗くなる。そのため、使用者はセクショニング画像を見ても、受光信号が飽和しているか否かを認識することができない。   On the other hand, when the blur component due to stray light is removed from each pixel of the sectioning image data, the sectioning image becomes darker than when the blur component due to stray light is not removed from each pixel data. Therefore, even if the user looks at the sectioning image, the user cannot recognize whether or not the light reception signal is saturated.

このような場合でも、生成された複数のパターン画像データの少なくとも1つについて受光部120により出力される受光信号が飽和しているか否かが判定される。また、受光信号が飽和している場合には、使用者に受光信号が飽和していることが通知される。これにより、セクショニング画像に明るい部分が存在しない場合でも、使用者は受光信号が飽和していることを容易に認識することができる。   Even in such a case, it is determined whether or not the light reception signal output by the light receiving unit 120 is saturated for at least one of the generated plurality of pattern image data. When the light reception signal is saturated, the user is notified that the light reception signal is saturated. Thereby, even when a bright part does not exist in the sectioning image, the user can easily recognize that the light reception signal is saturated.

(8)請求項の各構成要素と実施の形態の各部との対応関係
以下、請求項の各構成要素と実施の形態の各部との対応の例について説明するが、本発明は下記の例に限定されない。
(8) Correspondence between each component of claim and each part of embodiment The following describes an example of the correspondence between each component of the claim and each part of the embodiment. It is not limited.

上記実施の形態においては、投光部320が投光部の例であり、パターン付与部110が測定光生成部の例であり、測定対象物Sが測定対象物の例であり、フィルタユニット150が光学系の例である。受光部120が受光部の例であり、画像データ生成部211が画像データ生成部の例であり、制御部213が制御部および処理装置の例であり、表示部400が表示部の例であり、顕微鏡撮像装置500が顕微鏡撮像装置の例である。   In the above embodiment, the light projecting unit 320 is an example of a light projecting unit, the pattern providing unit 110 is an example of a measurement light generating unit, the measurement object S is an example of a measurement object, and the filter unit 150. Is an example of an optical system. The light receiving unit 120 is an example of a light receiving unit, the image data generation unit 211 is an example of an image data generation unit, the control unit 213 is an example of a control unit and a processing device, and the display unit 400 is an example of a display unit. The microscope imaging apparatus 500 is an example of a microscope imaging apparatus.

請求項の各構成要素として、請求項に記載されている構成または機能を有する他の種々の要素を用いることもできる。   As each constituent element in the claims, various other elements having configurations or functions described in the claims can be used.

本発明は、種々の顕微鏡撮像装置、顕微鏡撮像方法および顕微鏡撮像プログラムに有効に利用することができる。   The present invention can be effectively used for various microscope imaging apparatuses, microscope imaging methods, and microscope imaging programs.

100 測定部
110 パターン付与部
111 光出力部
112 光変調素子
113 ミラー
120 受光部
121 カメラ
122 カラーフィルタ
123 結像レンズ
130 透過光供給部
131 透過光源
132 透過光学系
140 ステージ
150 フィルタユニット
151 フィルタキューブ
151a フレーム
151b 励起フィルタ
151c ダイクロイックミラー
151d 吸収フィルタ
152 フィルタターレット
152a フィルタキューブ取付部
160 レンズユニット
161 対物レンズ
162 レンズターレット
162a 対物レンズ取付部
163 焦点位置調整機構
170 制御基板
200 PC
210 CPU
211 画像データ生成部
212 パターン生成部
213 制御部
214 合焦検出部
220 ROM
230 RAM
240 記憶装置
250 操作部
300 測定光供給部
310 電源装置
320 投光部
321 測定光源
322 減光機構
323 遮光機構
330 導光部材
400 表示部
410 画像表示領域
411 メインウインドウ
412 サブウインドウ
420 設定表示領域
430 フィルタ選択欄
431〜434 フィルタ選択ボタン
440 測定条件設定欄
441 パターン選択欄
442 パターン設定バー
443 露光時間設定バー
444 露光時間設定ボタン
445 オートボタン
446 詳細設定ボタン
450 サブウインドウ表示チェックボックス
460 付随機能設定欄
461 自動コントラスト補正チェックボックス
462 コントラスト補正量表示欄
463 全焦点ボタン
470 焦点位置調整タブ
471 対物レンズ選択欄
472 焦点位置調整欄
472a 焦点位置調整バー
472b 初期距離ボタン
472c オートフォーカスボタン
473 ステージ位置調整欄
473a〜473d ステージ移動ボタン
480 コントラスト補正設定タブ
481 ヒストグラム表示欄
500 顕微鏡撮像装置
4460 測定条件詳細設定ウインドウ
4461 矩形波状測定光チェックボックス
4462 ドット状測定光チェックボックス
4463 空間周期設定欄
4464 明部分幅設定欄
4465 位相移動量設定欄
4466 ビニング数選択欄
4467 ゲイン選択欄
4630 全焦点画像作成ウインドウ
4631 開始ボタン
4632 画像保存ボタン
S 測定対象物
DESCRIPTION OF SYMBOLS 100 Measuring part 110 Pattern provision part 111 Light output part 112 Light modulation element 113 Mirror 120 Light receiving part 121 Camera 122 Color filter 123 Imaging lens 130 Transmitted light supply part 131 Transmitted light source 132 Transmitting optical system 140 Stage 150 Filter unit 151 Filter cube 151a Frame 151b Excitation filter 151c Dichroic mirror 151d Absorption filter 152 Filter turret 152a Filter cube attachment part 160 Lens unit 161 Objective lens 162 Lens turret 162a Objective lens attachment part 163 Focus position adjustment mechanism 170 Control board 200 PC
210 CPU
211 Image data generation unit 212 Pattern generation unit 213 Control unit 214 Focus detection unit 220 ROM
230 RAM
240 Storage Device 250 Operation Unit 300 Measurement Light Supply Unit 310 Power Supply Device 320 Light Projection Unit 321 Measurement Light Source 322 Dimming Mechanism 323 Shading Mechanism 330 Light Guide Member 400 Display Unit 410 Image Display Area 411 Main Window 412 Subwindow 420 Setting Display Area 430 Filter selection field 431-434 Filter selection button 440 Measurement condition setting field 441 Pattern selection field 442 Pattern setting bar 443 Exposure time setting bar 444 Exposure time setting button 445 Auto button 446 Detail setting button 450 Sub window display check box 460 Associated function setting field 461 Automatic contrast correction check box 462 Contrast correction amount display field 463 All focus button 470 Focus position adjustment tab 471 Objective lens selection field 472 Focus position adjustment Field 472a Focus position adjustment bar 472b Initial distance button 472c Autofocus button 473 Stage position adjustment field 473a to 473d Stage movement button 480 Contrast correction setting tab 481 Histogram display field 500 Microscope imaging device 4460 Measurement condition detailed setting window 4461 Rectangle wave measurement light check Box 4462 Dot-shaped measuring light check box 4463 Spatial period setting field 4464 Bright part width setting field 4465 Phase shift amount setting field 4466 Binning number selection field 4467 Gain selection field 4630 All-focus image creation window 4630 Start button 4632 Image save button S Measurement object object

Claims (14)

光を出射する投光部と、
前記投光部により出射された光から所定のパターンを有する測定光を生成するように構成された測定光生成部と、
前記測定光生成部により生成された測定光を測定対象物に照射する光学系と
前記測定対象物からの光を受光し、受光量を示す受光信号を出力する受光部と、
前記受光部から出力される受光信号に基づいて画像データを生成する画像データ生成部と、
生成されたパターンの空間的な位相を所定量ずつ前記測定対象物上で順次移動させるように前記測定光生成部を制御し、前記パターンの複数の位相で生成される複数の画像データに基づいて前記測定対象物の画像を示すセクショニング画像データを生成するように前記画像データ生成部を制御する制御部と、
前記画像データ生成部により生成されたセクショニング画像データに基づく画像を表示可能に構成された表示部とを備え、
前記制御部は、前記画像データ生成部により生成された複数の画像データの少なくとも1つについて前記受光部により出力される受光信号が飽和しているか否かを判定し、受光信号が飽和している場合には使用者に受光信号が飽和していることを通知する、顕微鏡撮像装置。
A light projecting unit that emits light;
A measurement light generator configured to generate measurement light having a predetermined pattern from the light emitted by the light projecting unit;
An optical system that irradiates the measurement object with the measurement light generated by the measurement light generation unit; a light reception unit that receives light from the measurement object and outputs a light reception signal indicating the amount of received light;
An image data generation unit that generates image data based on a light reception signal output from the light reception unit;
Based on a plurality of image data generated at a plurality of phases of the pattern by controlling the measurement light generation unit so as to sequentially move a spatial phase of the generated pattern by a predetermined amount on the measurement object. A control unit that controls the image data generation unit to generate sectioning image data indicating an image of the measurement object;
A display unit configured to display an image based on the sectioning image data generated by the image data generation unit,
The control unit determines whether or not a light reception signal output from the light receiving unit is saturated for at least one of the plurality of image data generated by the image data generation unit, and the light reception signal is saturated. In some cases, the microscope imaging apparatus notifies the user that the received light signal is saturated.
前記画像データ生成部は、前記複数の画像データの各画素について、測定光のパターンのうち一定の強度よりも高い強度を有する第1の部分が前記測定対象物に照射されたときの画素の値から測定光のパターンのうち一定の強度以下の強度を有する第2の部分が前記測定対象物に照射されたときの画素の値を除去することによりセクショニング画像データを生成する、請求項1記載の顕微鏡撮像装置。 The image data generation unit, for each pixel of the plurality of image data, the value of the pixel when the measurement object is irradiated with a first portion having a higher intensity than a certain intensity in the measurement light pattern The sectioning image data is generated by removing a value of a pixel when a second portion having an intensity equal to or lower than a certain intensity in the measurement light pattern is irradiated on the measurement object. Microscope imaging device. 前記制御部は、前記画像データ生成部により生成された複数の画像データに基づいて画像の明るさの分布状態を明度画像として示す明度画像データを生成するように前記画像データ生成部を制御し、
前記表示部は、明度画像データに基づく明度画像を表示可能に構成される、請求項1または2記載の顕微鏡撮像装置。
The control unit controls the image data generation unit to generate brightness image data indicating a brightness distribution state of the image as a brightness image based on the plurality of image data generated by the image data generation unit;
The microscope imaging apparatus according to claim 1, wherein the display unit is configured to be able to display a brightness image based on the brightness image data.
前記制御部は、前記画像データ生成部により生成された明度画像データに基づいて前記受光部により出力される受光信号が飽和しているか否かを判定する、請求項3記載の顕微鏡撮像装置。 The microscope imaging apparatus according to claim 3, wherein the control unit determines whether or not a light reception signal output from the light receiving unit is saturated based on brightness image data generated by the image data generation unit. 前記制御部は、前記画像データ生成部により生成された明度画像データに基づいて画像の明るさに関する情報を算出し、
前記表示部は、前記制御部により算出された明るさに関する情報を表示可能に構成される、請求項3または4記載の顕微鏡撮像装置。
The control unit calculates information on the brightness of the image based on the brightness image data generated by the image data generation unit,
The microscope imaging apparatus according to claim 3, wherein the display unit is configured to be able to display information related to brightness calculated by the control unit.
前記明るさに関する情報は、複数の画像データの複数の画素の値と各値を有する画素の数との関係を示すヒストグラムを含む、請求項5記載の顕微鏡撮像装置。 The microscope imaging apparatus according to claim 5, wherein the information on the brightness includes a histogram indicating a relationship between a plurality of pixel values of a plurality of image data and a number of pixels having each value. 制御部は、セクショニング画像データの複数の画素の値を増幅することにより画像の明るさを補正し、
前記明るさに関する情報は、複数の画素の値の増幅率を含む、請求項5または6記載の顕微鏡撮像装置。
The control unit corrects the brightness of the image by amplifying the values of the plurality of pixels of the sectioning image data,
The microscope imaging apparatus according to claim 5, wherein the information on brightness includes amplification factors of a plurality of pixel values.
前記制御部は、前記受光部により出力される受光信号が飽和している場合には、前記画像データ生成部により生成されたセクショニング画像データにおいて受光信号の飽和している部分に対応する画素の値を受光信号の飽和していない部分に対応する画素の値よりも大きく増幅する、請求項7記載の顕微鏡撮像装置。 When the light receiving signal output from the light receiving unit is saturated, the control unit is configured to obtain a pixel value corresponding to a portion where the light receiving signal is saturated in the sectioning image data generated by the image data generating unit. The microscope imaging apparatus according to claim 7, wherein A is amplified larger than a value of a pixel corresponding to a portion where the received light signal is not saturated. 前記制御部は、前記受光部により出力される受光信号が飽和している場合には、前記表示部に表示される画像のうち飽和している受光信号の部分に対応する画素を識別可能に表示するように前記表示部を制御する、請求項1〜8のいずれか一項に記載の顕微鏡撮像装置。 When the light receiving signal output from the light receiving unit is saturated, the control unit displays a pixel corresponding to the saturated light receiving signal portion in the image displayed on the display unit. The microscope imaging apparatus according to claim 1, wherein the display unit is controlled to do so. 前記制御部は、前記画像データ生成部による複数の画像データの生成条件が変更された場合、前記測定対象物に測定光が照射されるように前記測定光生成部を制御するとともに、前記生成部により生成された複数の画像データに基づいてセクショニング画像データを更新するように前記制御部を制御し、前記生成部による複数の画像データの生成条件が変更されない場合、前記測定対象物への測定光の照射を停止するように前記測定光生成部を制御する、請求項1〜9のいずれか一項に記載の顕微鏡撮像装置。 The control unit controls the measurement light generation unit so that the measurement object is irradiated with measurement light when the generation conditions of the plurality of image data by the image data generation unit are changed, and the generation unit When the control unit is controlled to update the sectioning image data based on the plurality of image data generated by the method, and the generation conditions of the plurality of image data by the generation unit are not changed, the measurement light to the measurement object The microscope imaging apparatus according to any one of claims 1 to 9, wherein the measurement light generation unit is controlled so as to stop irradiation. 前記制御部は、前記画像データ生成部による複数の画像データの生成条件が変更された場合、前記画像データ生成部による複数の画像データの生成条件が変更される前に測定光が照射された測定対象物の部分と異なる部分に測定光が照射されるように前記測定光生成部を制御する、請求項10記載の顕微鏡撮像装置。 When the generation condition of the plurality of image data by the image data generation unit is changed, the control unit is irradiated with measurement light before the generation condition of the plurality of image data by the image data generation unit is changed. The microscope imaging apparatus according to claim 10, wherein the measurement light generation unit is controlled so that measurement light is irradiated to a part different from the part of the object. 前記制御部は、前記受光部により出力される受光信号のレベルが第1のレベルと前記第1のレベルよりも低い第2のレベルとの間で変更されるように前記投光部および前記受光部の少なくとも一方を制御し、受光信号のレベルが前記第1のレベルである状態における複数の画像データを複数の第1の画像データとして生成するとともに、受光信号のレベルが前記第2のレベルである状態における複数の画像データを複数の第2の画像データとして生成し、生成された複数の第1の画像データおよび複数の第2の画像データを前記受光部のダイナミックレンジが拡大されるように合成することにより複数の第3の画像データを生成し、複数の第3の画像データに基づいてセクショニング画像データを生成するように前記画像データ生成部を制御する、請求項1〜11のいずれか一項に記載の形状測定装置。 The control unit includes the light projecting unit and the light receiving unit so that a level of a light reception signal output from the light receiving unit is changed between a first level and a second level lower than the first level. A plurality of image data in a state where the level of the light reception signal is the first level is generated as the plurality of first image data, and the level of the light reception signal is the second level. A plurality of image data in a certain state is generated as a plurality of second image data, and the generated first image data and the plurality of second image data are expanded so that the dynamic range of the light receiving unit is expanded. A plurality of third image data is generated by combining, and the image data generation unit is controlled to generate sectioning image data based on the plurality of third image data That, the shape measuring apparatus according to any one of claims 1 to 11. 投光部により光を出射するステップと、
所定のパターンを有する測定光を前記投光部により出射された光から測定光生成部により生成するステップと、
前記測定光生成部により生成された測定光を光学系により測定対象物に照射するステップと、
生成されたパターンの空間的な位相を前記測定光生成部により所定量ずつ前記測定対象物上で順次移動させるステップと、
受光部により前記測定対象物からの光を受光し、受光量を示す受光信号を出力するステップと、
前記受光部から出力される受光信号に基づいて前記パターンの複数の位相で生成される複数の画像データに基づいて前記測定対象物の画像を示すセクショニング画像データを生成するステップと、
生成されたセクショニング画像データに基づく画像を表示部に表示させるステップと、
生成された複数の画像データの少なくとも1つについて前記受光部により出力される受光信号が飽和しているか否かを判定するステップと、
受光信号が飽和している場合には使用者に受光信号が飽和していることを通知するステップとを含む、顕微鏡撮像方法。
Emitting light by the light projecting unit;
Generating measurement light having a predetermined pattern from the light emitted from the light projecting unit by the measurement light generating unit;
Irradiating a measurement object by the optical system with the measurement light generated by the measurement light generation unit;
Sequentially moving the spatial phase of the generated pattern on the measurement object by a predetermined amount by the measurement light generation unit;
Receiving light from the measurement object by a light receiving unit and outputting a light reception signal indicating the amount of light received;
Generating sectioning image data indicating an image of the measurement object based on a plurality of image data generated at a plurality of phases of the pattern based on a light reception signal output from the light receiving unit;
Displaying an image based on the generated sectioning image data on a display unit;
Determining whether the light reception signal output by the light receiving unit is saturated for at least one of the plurality of generated image data; and
And a step of notifying the user that the light reception signal is saturated when the light reception signal is saturated.
処理装置により実行可能な顕微鏡撮像プログラムであって、
投光部により光を出射する処理と、
所定のパターンを有する測定光を前記投光部により出射された光から測定光生成部により生成する処理と、
前記測定光生成部により生成された測定光を光学系により測定対象物に照射する処理と、
生成されたパターンの空間的な位相を前記測定光生成部により所定量ずつ前記測定対象物上で順次移動させる処理と、
受光部により前記測定対象物からの光を受光し、受光量を示す受光信号を出力する処理と、
前記受光部から出力される受光信号に基づいて前記パターンの複数の位相で生成される複数の画像データに基づいて前記測定対象物の画像を示すセクショニング画像データを生成する処理と、
生成されたセクショニング画像データに基づく画像を表示部に表示させる処理と、
生成された複数の画像データの少なくとも1つについて前記受光部により出力される受光信号が飽和しているか否かを判定する処理と、
受光信号が飽和している場合には使用者に受光信号が飽和していることを通知する処理とを、
前記処理装置に実行させる、顕微鏡撮像プログラム。
A microscope imaging program executable by a processing device,
A process of emitting light by the light projecting unit;
A process of generating measurement light having a predetermined pattern from the light emitted by the light projecting unit by the measurement light generating unit;
A process of irradiating the measurement object by the optical system with the measurement light generated by the measurement light generation unit;
A process of sequentially moving the spatial phase of the generated pattern on the measurement object by a predetermined amount by the measurement light generation unit;
A process of receiving light from the measurement object by a light receiving unit and outputting a light reception signal indicating the amount of received light;
Processing for generating sectioning image data indicating an image of the measurement object based on a plurality of image data generated at a plurality of phases of the pattern based on a light reception signal output from the light receiving unit;
Processing to display an image based on the generated sectioning image data on the display unit;
A process of determining whether or not a light reception signal output by the light receiving unit is saturated for at least one of the plurality of generated image data;
A process of notifying the user that the received light signal is saturated when the received light signal is saturated,
A microscope imaging program to be executed by the processing apparatus.
JP2013222722A 2013-10-25 2013-10-25 Microscope imaging apparatus, microscope imaging method, and microscope imaging program Active JP6246555B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013222722A JP6246555B2 (en) 2013-10-25 2013-10-25 Microscope imaging apparatus, microscope imaging method, and microscope imaging program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013222722A JP6246555B2 (en) 2013-10-25 2013-10-25 Microscope imaging apparatus, microscope imaging method, and microscope imaging program

Publications (2)

Publication Number Publication Date
JP2015084057A true JP2015084057A (en) 2015-04-30
JP6246555B2 JP6246555B2 (en) 2017-12-13

Family

ID=53047669

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013222722A Active JP6246555B2 (en) 2013-10-25 2013-10-25 Microscope imaging apparatus, microscope imaging method, and microscope imaging program

Country Status (1)

Country Link
JP (1) JP6246555B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018097048A (en) * 2016-12-09 2018-06-21 オリンパス株式会社 Detector and microscope system
JP2018523153A (en) * 2015-06-02 2018-08-16 ライフ テクノロジーズ コーポレーション System and method for generating structured lighting images
JP2019074666A (en) * 2017-10-17 2019-05-16 株式会社キーエンス Magnifying observation device
JP2021073489A (en) * 2016-02-22 2021-05-13 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. System for forming synthetic 2d image of biological sample having improved depth of field

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0690906A (en) * 1992-09-16 1994-04-05 Canon Inc Eyeground photographing device and medical color image processor
JPH09297269A (en) * 1996-05-01 1997-11-18 Olympus Optical Co Ltd Scanning image input device and scanning probe microscope
JP2001117010A (en) * 1999-10-21 2001-04-27 Olympus Optical Co Ltd Optical device
WO2001067155A1 (en) * 2000-03-06 2001-09-13 Olympus Optical Co., Ltd. Pattern forming member applied to sectioning image observing device and sectioning image observing device using it
JP2004145153A (en) * 2002-10-25 2004-05-20 Keyence Corp Confocal microscope with light quantity saturation display function
JP2008129226A (en) * 2006-11-20 2008-06-05 Olympus Corp Confocal microscope
JP2009047460A (en) * 2007-08-15 2009-03-05 Lasertec Corp Confocal microscope
JP2010250102A (en) * 2009-04-16 2010-11-04 Olympus Corp Microscope
JP2012155010A (en) * 2011-01-24 2012-08-16 Keyence Corp Microscope system, surface state observation method, and surface state observation program

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0690906A (en) * 1992-09-16 1994-04-05 Canon Inc Eyeground photographing device and medical color image processor
JPH09297269A (en) * 1996-05-01 1997-11-18 Olympus Optical Co Ltd Scanning image input device and scanning probe microscope
JP2001117010A (en) * 1999-10-21 2001-04-27 Olympus Optical Co Ltd Optical device
WO2001067155A1 (en) * 2000-03-06 2001-09-13 Olympus Optical Co., Ltd. Pattern forming member applied to sectioning image observing device and sectioning image observing device using it
JP2004145153A (en) * 2002-10-25 2004-05-20 Keyence Corp Confocal microscope with light quantity saturation display function
JP2008129226A (en) * 2006-11-20 2008-06-05 Olympus Corp Confocal microscope
JP2009047460A (en) * 2007-08-15 2009-03-05 Lasertec Corp Confocal microscope
JP2010250102A (en) * 2009-04-16 2010-11-04 Olympus Corp Microscope
JP2012155010A (en) * 2011-01-24 2012-08-16 Keyence Corp Microscope system, surface state observation method, and surface state observation program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018523153A (en) * 2015-06-02 2018-08-16 ライフ テクノロジーズ コーポレーション System and method for generating structured lighting images
US10634892B2 (en) 2015-06-02 2020-04-28 Life Technologies Corporation Systems and methods for generating a structured illumination image
JP2021073489A (en) * 2016-02-22 2021-05-13 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. System for forming synthetic 2d image of biological sample having improved depth of field
JP2018097048A (en) * 2016-12-09 2018-06-21 オリンパス株式会社 Detector and microscope system
JP2019074666A (en) * 2017-10-17 2019-05-16 株式会社キーエンス Magnifying observation device

Also Published As

Publication number Publication date
JP6246555B2 (en) 2017-12-13

Similar Documents

Publication Publication Date Title
JP6305012B2 (en) Microscope imaging apparatus, microscope imaging method, and microscope imaging program
JP6266302B2 (en) Microscope imaging apparatus, microscope imaging method, and microscope imaging program
JP5392406B2 (en) Microscope device, observation method
US9007452B2 (en) Magnification observation device, magnification observation method, and magnification observation program
TWI482996B (en) The focus depth of the microscope device and the microscope device is enlarged
EP1598688A2 (en) Fluorescence microscope
US9690088B2 (en) Magnifying observation apparatus, magnified image observing method and computer-readable recording medium
US7709773B2 (en) Scanning optical device which sets hardware in association with a depth of a focus position based on hardware set values stored in association with depths of focus positions
JP6246555B2 (en) Microscope imaging apparatus, microscope imaging method, and microscope imaging program
JP2006292421A (en) Fluorescence detector
US9798129B2 (en) Microscope system and method for deciding stitched area
US20190025213A1 (en) Microscopy system, microscopy method, and computer-readable storage medium
JP6270388B2 (en) Imaging apparatus, microscope system, imaging method, and imaging program
JP6234072B2 (en) Nonlinear optical microscope
JP5403458B2 (en) Surface shape measuring method and surface shape measuring apparatus
JP6253509B2 (en) Image display method, control device, microscope system
JP2018194780A (en) Microscope system, control method and program
JP6327830B2 (en) Microscope imaging apparatus, microscope imaging method, and microscope imaging program
JP2008164834A (en) Microscope and brightness adjusting method for the same
US20100020392A1 (en) Confocal microscope device
JP2015084062A (en) Device, method, and program for capturing microscopic images
WO2013005765A1 (en) Microscope device
JP7081318B2 (en) Microscope, method, and program
JP2015082102A (en) Microscope, microscope system, control method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160909

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170714

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170815

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171005

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171115

R150 Certificate of patent or registration of utility model

Ref document number: 6246555

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250