JP2009282356A - Microscope apparatus - Google Patents

Microscope apparatus Download PDF

Info

Publication number
JP2009282356A
JP2009282356A JP2008135097A JP2008135097A JP2009282356A JP 2009282356 A JP2009282356 A JP 2009282356A JP 2008135097 A JP2008135097 A JP 2008135097A JP 2008135097 A JP2008135097 A JP 2008135097A JP 2009282356 A JP2009282356 A JP 2009282356A
Authority
JP
Japan
Prior art keywords
image
value
luminance
acquisition
slice image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008135097A
Other languages
Japanese (ja)
Other versions
JP5102107B2 (en
Inventor
Sachihiro Toikawa
祥弘 樋川
Shuji Akiyama
周次 秋山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2008135097A priority Critical patent/JP5102107B2/en
Publication of JP2009282356A publication Critical patent/JP2009282356A/en
Application granted granted Critical
Publication of JP5102107B2 publication Critical patent/JP5102107B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

<P>PROBLEM TO BE SOLVED: To reduce anxiety feeling and uncomfortable feeling which user senses when performing automatic measurement with a microscope accompanied by automatic setting of a measuring condition. <P>SOLUTION: A controller 111 controls a scanning confocal microscope 100, and sequentially acquires a slice image for an observation surface for each height of a sample 101 over an acquired range in the height direction. All focal images of the sample 101 are prepared by updating, whenever a slice image is newly acquired, the maximum luminance image acquired by setting, as the luminance value of the pixel at the position, the larger one of the luminance value of the pixel constituting a newly acquired slice image and the maximum value of luminance values of pixels that are at the same position as the former pixel and constitute respective already acquired slice images. A progress situation calculation section 117 calculates a value showing the acquiring progress situation of the slice images until the present time based on the value showing the preparing situation of all focal images. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、顕微鏡の技術に関し、特に、顕微鏡を用いて行う自動測定の技術に関する。   The present invention relates to a technique of a microscope, and more particularly, to a technique of automatic measurement performed using a microscope.

試料の全焦点画像や三次元画像を取得する装置として、例えば走査型共焦点顕微鏡がある。走査型共焦点顕微鏡の構成の概略を図8に示す。
図8において、点状光源801から照射された光は、ハーフミラー802を透過した後に、良好に収差の補正がされている対物レンズ803によって観察対象の試料804上の1点に集光して試料804を照明する。このときの試料804での反射光は、ハーフミラー802で今度は反射した後に、ピンホール板805によって集光点以外からの反射光がカットされ、ピンホールを通過した反射光だけが光検出器806で検出される。ここで、点状光源801からの照射光を二次元走査して試料804上を照明したときに光検出器806で検出される光の光量より、二次元画像を得ることができる。
As an apparatus for acquiring an omnifocal image or a three-dimensional image of a sample, for example, there is a scanning confocal microscope. An outline of the configuration of the scanning confocal microscope is shown in FIG.
In FIG. 8, the light emitted from the point light source 801 passes through the half mirror 802, and then converges on one point on the sample 804 to be observed by the objective lens 803 that has been favorably corrected for aberrations. The sample 804 is illuminated. The reflected light from the sample 804 at this time is reflected by the half mirror 802, and then the reflected light from other than the focal point is cut by the pinhole plate 805, and only the reflected light that has passed through the pinhole is a photodetector. 806 is detected. Here, a two-dimensional image can be obtained from the amount of light detected by the photodetector 806 when the sample 804 is illuminated by two-dimensional scanning with irradiation light from the point light source 801.

図8において、対物レンズ803の集光位置からずれた位置である位置イからの反射光は、ピンホール板805を通過することができずに光検出器806で検出されない。従って、図8に示した構成では、対物レンズ803の集光位置のみの画像、言い換えれば合焦位置のみの画像を得ることができる。   In FIG. 8, the reflected light from the position (i), which is a position deviated from the focusing position of the objective lens 803, cannot pass through the pinhole plate 805 and is not detected by the photodetector 806. Therefore, with the configuration shown in FIG. 8, it is possible to obtain an image only at the condensing position of the objective lens 803, in other words, an image only at the in-focus position.

図8に示したような共焦点光学系は焦点深度が浅い。このため、試料804の観察面が平面状の場合には問題ないが、観察面の高さが異なっている(凹凸が存在する)非平面状である場合には、観察面のうちピントの位置から外れた領域については画像を得ることができない。つまり、試料804が対物レンズ803の集光位置にある場合に光検出器806の出力(検出光量値)は最大となり、この位置から対物レンズ803と試料804との相対位置が離れるに従い、光検出器806の出力は急激に低下する。   The confocal optical system as shown in FIG. 8 has a shallow depth of focus. For this reason, there is no problem when the observation surface of the sample 804 is planar, but when the observation surface has a different height (having irregularities), the focus position on the observation surface An image cannot be obtained for a region outside the range. That is, when the sample 804 is at the condensing position of the objective lens 803, the output (detected light amount value) of the photodetector 806 is maximized, and light detection is performed as the relative position between the objective lens 803 and the sample 804 increases from this position. The output of the device 806 decreases rapidly.

従って、図9に示すような、高さがそれぞれa、b、及びc(但し、b>a>c)である観察面A、B、及びCを有する非平面状の試料900を図示のZ方向に観察する場合に、例えば観察面Aに合焦させても観察面B及びCの観察画像は得ることができない。   Accordingly, as shown in FIG. 9, a non-planar sample 900 having observation planes A, B, and C each having a height of a, b, and c (where b> a> c) is shown in the illustrated Z. When observing in the direction, for example, even if the observation surface A is focused, the observation images of the observation surfaces B and C cannot be obtained.

ところで、このような場合に、高さcから高さbまでの範囲を、試料900と対物レンズ803とのどちらか一方を所定のピッチでZ軸方向(光軸方向)に移動させながら試料900のスライス画像(共焦点画像)を複数枚取得する。そして、各スライス画像を構成する各画素の位置毎に光検出器806の出力最大の値を抽出し、抽出された光量値を各画素の位置に配置すると、試料900の全焦点画像を構成することができる。また、光検出器806の出力が最大となるときの光軸方向の高さ情報(試料900と対物レンズ803と相対距離)を各画素の位置毎に取得することで、試料900の三次元画像を構成することもできる。   By the way, in such a case, within the range from the height c to the height b, the sample 900 is moved while moving either the sample 900 or the objective lens 803 in the Z-axis direction (optical axis direction) at a predetermined pitch. A plurality of slice images (confocal images) are acquired. Then, when the maximum output value of the photodetector 806 is extracted for each pixel position constituting each slice image, and the extracted light quantity value is arranged at each pixel position, an omnifocal image of the sample 900 is formed. be able to. Further, by obtaining height information (relative distance between the sample 900 and the objective lens 803) in the optical axis direction when the output of the photodetector 806 is maximized for each pixel position, a three-dimensional image of the sample 900 is obtained. Can also be configured.

このような全焦点画像や三次元画像を得る際には、測定範囲(例えば、図9のbの範囲)や測定ピッチ(試料900と対物レンズ803との相対移動における移動ピッチ)などの測定条件を設定し、その測定条件の下で、複数枚のスライス画像の取得が行われる。従って、測定範囲と測定ピッチの値の設定内容によっては、測定時間が非常に長くなる場合もある。このような場合、ユーザは、測定が進行しているかどうかが分からない不安感や、いつ測定が終了するか分からないという不快感を感じることがある。   When obtaining such an omnifocal image or a three-dimensional image, measurement conditions such as a measurement range (for example, a range of b in FIG. 9) and a measurement pitch (movement pitch in relative movement between the sample 900 and the objective lens 803), etc. And a plurality of slice images are acquired under the measurement conditions. Accordingly, depending on the setting contents of the measurement range and the measurement pitch value, the measurement time may become very long. In such a case, the user may feel uneasy about whether the measurement is in progress or uncomfortable about not knowing when the measurement is finished.

このような不安感や不快感を軽減する手法として、例えば特許文献1には、測定条件を手動にて予め設定しておき、設定された測定条件に基づいて、測定終了までの残り時間を算出し表示するという技術が開示されている。
特開2000−330026号公報
As a technique for reducing such anxiety and discomfort, for example, in Patent Document 1, measurement conditions are manually set in advance, and the remaining time until the end of measurement is calculated based on the set measurement conditions. A technique of displaying and displaying is disclosed.
JP 2000-330026 JP

しかし、測定動作を自動で行うのみではなく、測定条件の設定についても装置が自動で行う場合には、測定の終了位置が測定開始時には必ずしも決まらない。このため、手動によって設定を行うことを前提としている特許文献1の技術では、測定終了までの残り時間を算出して表示することはできない。   However, when the apparatus automatically performs not only the measurement operation but also the measurement condition setting, the measurement end position is not always determined at the start of the measurement. For this reason, in the technique of Patent Document 1 on the assumption that manual setting is performed, the remaining time until the end of measurement cannot be calculated and displayed.

また、測定条件を装置が自動設定して行う測定動作時は、測定開始から現在までの画像の取り込み枚数(ステップ数)を表示することは可能である。しかし、このステップ数を単に表示するのみでは、ユーザは、測定が進行していることについては把握できても、いつ取り込みが終了するかを把握することはできないため、とりわけ測定時間が長い場合には、ユーザは強い不快感を感じることになる。   Further, during the measurement operation in which the apparatus automatically sets the measurement conditions, it is possible to display the number of captured images (number of steps) from the start of measurement to the present. However, simply displaying the number of steps allows the user to know that the measurement is in progress, but not when the acquisition is complete, especially when the measurement time is long. The user will feel strong discomfort.

本発明は上述した問題に鑑みてなされたものであり、その解決しようとする課題は、測定条件の自動設定を伴う顕微鏡での自動測定を行う場合にユーザが感じる不安感や不快感を軽減することである。   The present invention has been made in view of the above-described problems, and a problem to be solved is to reduce anxiety and discomfort that a user feels when performing automatic measurement with a microscope that automatically sets measurement conditions. That is.

本発明の態様のひとつである顕微鏡装置は、観察試料の高さ毎の観察面に対するスライス画像を、該高さ方向の取得範囲に亘り順次取得するスライス画像取得手段と、該スライス画像取得手段が新たに取得したスライス画像を構成する画素の輝度値と、該画素と同一位置の画素であって既に取得していたスライス画像の各々を構成しているものの輝度値の最大値とで、値が大きい方を該位置の画素の輝度値とすることで得られる最大輝度画像を、該スライス画像を新たに取得する度に更新することで、該観察試料の全焦点画像を作成していく全焦点画像作成手段と、該スライス画像の該取得範囲に亘る取得の終了を、該スライス画像取得手段が直近に取得したスライス画像に基づき判定する終了判定手段と、該スライス画像の該取得範囲に亘る取得の終了までに対する現時点までの取得の進捗状況を示す値を、該全焦点画像作成手段による該全焦点画像の作成状況を示す値に基づき算出する進捗状況算出手段と、該進捗状況算出手段により算出された値で示されている該進捗状況を出力する出力手段と、を有するというものである。   A microscope apparatus according to one aspect of the present invention includes a slice image acquisition unit that sequentially acquires slice images of an observation surface for each height of an observation sample over an acquisition range in the height direction, and the slice image acquisition unit includes: The luminance value of the pixel constituting the newly acquired slice image and the maximum value of the luminance values of the pixels at the same position as the pixel and constituting each of the already acquired slice images, The omnifocal which creates the omnifocal image of the observation sample by updating the maximum luminance image obtained by setting the larger one as the luminance value of the pixel at the position, each time the slice image is newly acquired. An image creation means, an end determination means for judging the end of acquisition of the slice image over the acquisition range based on the slice image acquired by the slice image acquisition means most recently, and the acquisition of the slice image over the acquisition range of the slice image. A progress status calculating means for calculating a value indicating the progress status of acquisition until the end of the acquisition based on a value indicating the creation status of the omnifocal image by the omnifocal image creating means; and the progress status calculating means Output means for outputting the progress status indicated by the calculated value.

なお、上述した本発明に係る顕微鏡装置において、該全焦点画像作成手段による該全焦点画像の作成状況を示す値は、該最大輝度画像を構成する画素のうち輝度が所定の基準輝度レベル以上であるものの度数であり、該進捗状況算出手段は、所定の第1基準画素数に対する該度数の割合を、該進捗状況を示す値として算出する、ように構成することができる。   In the above-described microscope apparatus according to the present invention, the value indicating the creation status of the omnifocal image by the omnifocal image creation means is a luminance that is greater than or equal to a predetermined reference luminance level among the pixels constituting the maximum luminance image. The progress status calculating means can be configured to calculate a ratio of the frequency with respect to a predetermined first reference pixel number as a value indicating the progress status.

また、前述した本発明に係る顕微鏡装置において、該進捗状況算出手段は、該スライス画像取得手段が直近に取得したスライス画像の輝度値に更に基づき、該進捗状況を示す値を算出するように構成することができる。   Further, in the above-described microscope apparatus according to the present invention, the progress status calculation unit is configured to calculate a value indicating the progress status based on the luminance value of the slice image most recently acquired by the slice image acquisition unit. can do.

なお、このとき、該全焦点画像作成手段による該全焦点画像の作成状況を示す値は、該最大輝度画像を構成する画素のうち輝度が所定の基準輝度レベル以上であるものの度数であり、該進捗状況算出手段は、所定の第1基準画素数に対する該度数の割合と、該スライス画像取得手段が直近に取得したスライス画像を構成する画素のうち輝度が所定の基準輝度レベル以下であるものの度数についての所定の第2基準画素数に対する割合との和を、該進捗状況を示す値として算出する、ように構成することができる。   At this time, the value indicating the creation status of the omnifocal image by the omnifocal image creation means is the frequency of the pixels constituting the maximum brightness image whose brightness is equal to or higher than a predetermined reference brightness level, and The progress status calculation means includes the ratio of the frequency to the predetermined first reference pixel number, and the frequency of the pixels constituting the slice image most recently acquired by the slice image acquisition means that have a luminance equal to or lower than a predetermined reference luminance level. The sum with the ratio to the predetermined second reference pixel number can be calculated as a value indicating the progress status.

また、前述した本発明に係る顕微鏡装置において、該終了判定手段は、該スライス画像取得手段が直近に取得したスライス画像を構成する画素のうち輝度が所定の基準輝度レベル以下のものの度数が、所定の第2基準画素数を超えたと判定したときに、該取得の終了との判定を下すように構成することができる。   Further, in the microscope apparatus according to the present invention described above, the end determination unit has a predetermined number of pixels whose luminance is equal to or lower than a predetermined reference luminance level among pixels constituting the slice image most recently acquired by the slice image acquisition unit. When it is determined that the second reference pixel number is exceeded, it is possible to make a determination that the acquisition is completed.

本発明の別の態様のひとつである顕微鏡装置は、観察試料の高さ毎の観察面に対するスライス画像を、該高さ方向の取得範囲に亘り順次取得するスライス画像取得手段と、該スライス画像を新たに取得する度に、取得されている各スライス画像を構成する同一位置の画素の輝度値の変化の傾きを求めて、該画素においての輝度の最大値を該傾きの変化に基づき画素毎に見つけ出し、見つけ出された輝度の最大値を各画素の輝度値とすることで、該観察試料の全焦点画像を作成していく全焦点画像作成手段と、該スライス画像取得手段による該スライス画像の該取得範囲に亘る取得の終了を、該輝度の最大値が見つけ出された画素の数に基づき判定する終了判定手段と、該スライス画像取得手段による該スライス画像の該取得範囲に亘る取得の終了までに対する現時点までの該スライス画像の取得の進捗状況を示す値を、該輝度の最大値が見つけ出された画素の数に基づき算出する進捗状況算出手段と、該進捗状況算出手段により算出された値で示されている該進捗状況を出力する出力手段と、を有するというものである。   A microscope apparatus according to another aspect of the present invention includes a slice image acquisition unit that sequentially acquires slice images of an observation surface for each height of an observation sample over an acquisition range in the height direction, and the slice image. Each time a new image is acquired, the inclination of the change in the luminance value of the pixel at the same position constituting each acquired slice image is obtained, and the maximum luminance value in the pixel is determined for each pixel based on the change in the inclination. An omnifocal image creating unit that creates an omnifocal image of the observation sample by setting the detected maximum luminance value as the luminance value of each pixel, and the slice image obtained by the slice image acquiring unit End determination means for determining the end of acquisition over the acquisition range based on the number of pixels for which the maximum luminance value has been found, and acquisition of the slice image over the acquisition range by the slice image acquisition means A progress status calculating means for calculating a value indicating a progress status of the acquisition of the slice image up to the present time based on the number of pixels in which the maximum value of the luminance is found, and the progress status calculating means. Output means for outputting the progress status indicated by the value.

なお、上述した本発明に係る顕微鏡装置において、該進捗状況算出手段は、所定の基準画素数に対する該輝度の最大値が見つけ出された画素の数の割合を、該進捗状況を示す値として算出するように構成することができる。   In the above-described microscope apparatus according to the present invention, the progress calculation means calculates a ratio of the number of pixels in which the maximum value of the luminance is found with respect to a predetermined reference pixel number as a value indicating the progress. Can be configured to.

本発明によれば、以上のようにすることにより、測定条件の自動設定を伴う顕微鏡での自動測定を行う場合にユーザが感じる不安感や不快感を軽減できるという効果を奏する。   According to the present invention, it is possible to reduce anxiety and discomfort felt by the user when performing automatic measurement with a microscope that automatically sets measurement conditions.

以下、本発明の実施の形態を図面に基づいて説明する。
まず図1について説明する。図1は、本発明の第一の実施形態である走査型共焦点顕微鏡システムの構成を示している。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
First, FIG. 1 will be described. FIG. 1 shows the configuration of a scanning confocal microscope system according to the first embodiment of the present invention.

走査型共焦点顕微鏡100は、対物レンズ102、対物レンズ切換部103、Z位置制御部104、ハーフミラー105、ピンホール板106、光検出器107、二次元走査部108、ミラー109、及びレーザ照明部110を備えている。そして、この走査型共焦点顕微鏡100と、コントローラ111及び出力装置112とから、走査型共焦点顕微鏡システムが構成されている。   The scanning confocal microscope 100 includes an objective lens 102, an objective lens switching unit 103, a Z position control unit 104, a half mirror 105, a pinhole plate 106, a photodetector 107, a two-dimensional scanning unit 108, a mirror 109, and laser illumination. Part 110 is provided. The scanning confocal microscope 100, the controller 111, and the output device 112 constitute a scanning confocal microscope system.

対物レンズ切換部103は、走査型共焦点顕微鏡100の光軸上に配置される対物レンズ102の切り換えを行う。Z位置制御部104は、対物レンズ102のZ位置(走査型共焦点顕微鏡100の光軸方向の位置)を制御する。ピンホール板106は、集光点以外からの反射光をカットする。光検出器107は、光を検出してその光量を示す信号を出力する。二次元走査部108は、レーザ光を、その進行方向に垂直な平面で二次元走査させる。レーザ照明部110は、レーザ光を励起して試料(観察試料)101に照射する。コントローラ111は、試料101の観察画像や、対物レンズ102のZ位置情報を取得する。出力装置112は、取得した試料101の観察画像等の表示を行う。   The objective lens switching unit 103 switches the objective lens 102 disposed on the optical axis of the scanning confocal microscope 100. The Z position control unit 104 controls the Z position of the objective lens 102 (the position in the optical axis direction of the scanning confocal microscope 100). The pinhole plate 106 cuts off reflected light from other than the focal point. The photodetector 107 detects light and outputs a signal indicating the amount of light. The two-dimensional scanning unit 108 two-dimensionally scans the laser light on a plane perpendicular to the traveling direction. The laser illumination unit 110 irradiates the sample (observation sample) 101 by exciting the laser light. The controller 111 acquires an observation image of the sample 101 and Z position information of the objective lens 102. The output device 112 displays the acquired observation image of the sample 101 and the like.

レーザ照明部110から出射したレーザ光は、ミラー109で反射して二次元走査部108に導入される。二次元走査部108は、このレーザ光を二次元走査して出射する。二次元走査部108から出射したレーザ光は、ハーフミラー105を透過した後に、対物レンズ102により集光されて試料101の表面を照明する。このときの試料101の表面からの反射光は、対物レンズ102を通過した後に、ハーフミラー105で今度は反射して、ピンホール板106に向かう。ピンホール板106は、この反射光のうち集光点以外からの反射光をカットする。ピンホール板106を通過した反射光は光検出器107で検出されて、その光量を示す信号が出力される。この信号に基づいて、試料101についての、光軸方向に垂直な平面でスライスしたような画像(共焦点画像)が光学的に得られる。   Laser light emitted from the laser illumination unit 110 is reflected by the mirror 109 and introduced into the two-dimensional scanning unit 108. The two-dimensional scanning unit 108 emits the laser light by two-dimensional scanning. The laser light emitted from the two-dimensional scanning unit 108 passes through the half mirror 105 and is then collected by the objective lens 102 to illuminate the surface of the sample 101. The reflected light from the surface of the sample 101 at this time passes through the objective lens 102 and is then reflected by the half mirror 105 and travels toward the pinhole plate 106. The pinhole plate 106 cuts the reflected light from other than the condensing point among the reflected light. The reflected light that has passed through the pinhole plate 106 is detected by a photodetector 107, and a signal indicating the amount of light is output. Based on this signal, an image (confocal image) of the sample 101 that is sliced on a plane perpendicular to the optical axis direction is optically obtained.

ここで、Z位置制御部104が対物レンズ102を光軸方向に駆動させて、試料101に対する対物レンズ102の相対距離を変更しながら、各Z位置における共焦点画像を順次取得していく。そして、取得した複数の共焦点画像から、同一画素での最大輝度を画素毎に抽出することで、全焦点画像や三次元画像を得ることができる。なお、このときのZ位置の移動範囲(試料101に対する対物レンズ102の相対距離の変化範囲)を測定範囲という。   Here, the Z position control unit 104 drives the objective lens 102 in the optical axis direction, and sequentially acquires confocal images at each Z position while changing the relative distance of the objective lens 102 with respect to the sample 101. An omnifocal image or a three-dimensional image can be obtained by extracting the maximum luminance at the same pixel for each pixel from the plurality of acquired confocal images. Note that the movement range of the Z position at this time (change range of the relative distance of the objective lens 102 with respect to the sample 101) is referred to as a measurement range.

コントローラ111は、MPU(演算処理装置)、メインメモリ、入力装置、インタフェース装置、及び記憶装置を備えており、出力装置112が接続されている。なお、MPU、メインメモリ、入力装置、インタフェース装置、及び記憶装置については、図1には図示していない。   The controller 111 includes an MPU (arithmetic processing unit), a main memory, an input device, an interface device, and a storage device, and an output device 112 is connected thereto. Note that the MPU, main memory, input device, interface device, and storage device are not shown in FIG.

MPUは、例えば記憶装置に記憶されている制御プログラムの実行によって、図1の走査型共焦点顕微鏡システム全体の動作制御を行うものであり、制御プログラムの実行により、少なくとも、輝度頻度計数部115、最大輝度頻度計数部116、進捗状況算出部117、及び画像取り込み終了判定部118として機能する。   The MPU performs operation control of the entire scanning confocal microscope system of FIG. 1 by executing a control program stored in a storage device, for example. By executing the control program, at least the luminance frequency counting unit 115, It functions as a maximum luminance frequency counting unit 116, a progress situation calculation unit 117, and an image capture end determination unit 118.

メインメモリは、MPUが必要に応じてワークメモリとして使用する半導体メモリであり、少なくとも、共焦点画像メモリ113、最大輝度画像メモリ114、及び動作パラメータメモリ119として機能する。   The main memory is a semiconductor memory used as a work memory by the MPU as needed, and functions as at least a confocal image memory 113, a maximum luminance image memory 114, and an operation parameter memory 119.

入力装置は例えばマウス装置やキーボード装置であり、ユーザからの各種の指示を入力として取得する。
インタフェース装置は、この走査型共焦点顕微鏡システムの各構成要素との間での各種データの授受を管理する。
The input device is a mouse device or a keyboard device, for example, and acquires various instructions from the user as inputs.
The interface device manages the exchange of various data with each component of the scanning confocal microscope system.

記憶装置は例えばハードディスク装置であり、各種の制御プログラムやデータを記憶しておく。
出力装置112は例えばディスプレイ装置であり、MPUによる制御の下で操作画面や観察画像等の表示を行う。
The storage device is, for example, a hard disk device, and stores various control programs and data.
The output device 112 is a display device, for example, and displays an operation screen, an observation image, and the like under the control of the MPU.

共焦点画像メモリ113は、光検出器107から出力される信号に基づきMPUにより生成される試料101の共焦点画像を記憶しておく。
最大輝度画像メモリ114は、対物レンズ102のZ位置を測定開始位置から現在位置まで移動させながら取得した複数枚の共焦点画像から、同一位置の画素毎に最大の輝度値を抽出することで得られる最大輝度画像を記憶しておく。
The confocal image memory 113 stores a confocal image of the sample 101 generated by the MPU based on the signal output from the photodetector 107.
The maximum luminance image memory 114 is obtained by extracting the maximum luminance value for each pixel at the same position from a plurality of confocal images acquired while moving the Z position of the objective lens 102 from the measurement start position to the current position. The maximum luminance image that can be obtained is stored.

輝度頻度計数部115は、共焦点画像メモリ113で記憶されている共焦点画像を構成している画素のうち、輝度値が基準輝度レベルA以下のものの数を計数する。
最大輝度頻度計数部116は、最大輝度画像メモリ114で記憶されている最大輝度画像を構成している画素のうち、輝度値が基準輝度レベルB以上のものの数を計数する。
The luminance frequency counting unit 115 counts the number of pixels having a luminance value equal to or lower than the reference luminance level A among the pixels constituting the confocal image stored in the confocal image memory 113.
The maximum luminance frequency counting unit 116 counts the number of pixels having a luminance value equal to or higher than the reference luminance level B among the pixels constituting the maximum luminance image stored in the maximum luminance image memory 114.

進捗状況算出部117は、走査型共焦点顕微鏡100による画像取り込み動作の開始から終了までの進捗状況を算出する。
画像取り込み終了判定部118は、走査型共焦点顕微鏡100による画像取り込み動作を終了させるか否かの判定を行う。
The progress status calculation unit 117 calculates the progress status from the start to the end of the image capturing operation by the scanning confocal microscope 100.
The image capturing end determination unit 118 determines whether to end the image capturing operation by the scanning confocal microscope 100.

動作パラメータメモリ119は、前述した基準輝度レベルA及びBや、画像取り込み終了判定部118による判定において使用される基準画素数などといった、走査型共焦点顕微鏡システムによる自動測定動作の際に使用される各種の動作パラメータを記憶しておく。   The operation parameter memory 119 is used in the automatic measurement operation by the scanning confocal microscope system such as the reference luminance levels A and B described above and the number of reference pixels used in the determination by the image capturing end determination unit 118. Various operation parameters are stored.

図1に示した走査型共焦点顕微鏡システムは以上のように構成されている。
次に、図1に示されているコントローラ111によって行われる制御処理について説明する。この制御処理は、前述した測定範囲をコントローラ111自身が設定して試料101の全焦点画像を生成すると共に、そのための試料101の共焦点画像の取り込み動作の開始から終了までの進捗状況の表示を行う。なお、コントローラ111では、記憶装置に予め記憶させておいた制御プログラムをMPUが読み出して実行することによって、これより説明する制御処理を実現する。
The scanning confocal microscope system shown in FIG. 1 is configured as described above.
Next, a control process performed by the controller 111 shown in FIG. 1 will be described. In this control process, the controller 111 itself sets the measurement range described above to generate an omnifocal image of the sample 101, and displays the progress status from the start to the end of the confocal image capturing operation of the sample 101 for that purpose. Do. In the controller 111, the MPU reads out and executes a control program stored in advance in the storage device, thereby realizing the control process described below.

まず図2について説明する。図2は、コントローラ111によって行われる制御処理の第一の例をフローチャートで示したものである。
まず、ユーザは、出力装置112に表示される試料101の画像を観察しながらコントローラ111の入力装置を操作してZ位置制御部104に所定の指示を与えることで、対物レンズ102のZ位置を測定範囲の下限位置まで移動させる。MPUは、このときのZ位置を測定開始位置の設定として取得する。なお、従来はこのときに併せて行っていた測定終了位置(測定範囲の上限位置)の手動設定は、ここでは行わない。
First, FIG. 2 will be described. FIG. 2 is a flowchart showing a first example of control processing performed by the controller 111.
First, the user operates the input device of the controller 111 while observing the image of the sample 101 displayed on the output device 112 to give a predetermined instruction to the Z position control unit 104, thereby changing the Z position of the objective lens 102. Move to the lower limit of the measurement range. The MPU acquires the Z position at this time as the setting of the measurement start position. In addition, the manual setting of the measurement end position (the upper limit position of the measurement range) that is conventionally performed at this time is not performed here.

その後、ユーザは、コントローラ111の入力装置を操作して所定の指示を与え、図2の制御処理を開始させる。
この制御処理が開始されると、まず、S201では、前述した動作パラメータを動作パラメータメモリ119から読み出す処理が行われる。この処理により読み出される動作パラメータは、対物レンズ102のZ位置についてのとり得る最大上限位置及び最大下限位置、前述した測定ピッチ、後述するS205及びS206の処理でそれぞれ用いる2つの基準輝度レベル、後述するS209及びS210の処理でそれぞれ用いる2つの基準画素数などである。なお、これらの動作パラメータは、予め設定されている固定値でよいが、この制御処理の開始前にユーザが設定して動作パラメータメモリ119に記憶させておくようにしてもよい。
Thereafter, the user operates the input device of the controller 111 to give a predetermined instruction to start the control process of FIG.
When this control process is started, first, in S201, a process of reading the above-described operation parameter from the operation parameter memory 119 is performed. The operation parameters read out by this process are the maximum upper limit position and the maximum lower limit position that can be taken with respect to the Z position of the objective lens 102, the above-described measurement pitch, two reference luminance levels used in the processes of S205 and S206, which will be described later, and will be described later. These are the two reference pixel numbers used in the processes of S209 and S210, respectively. These operation parameters may be fixed values set in advance, but may be set by the user and stored in the operation parameter memory 119 before the start of the control process.

S202では、試料101の共焦点画像の取り込み処理を現在のZ位置で行い、得られた共焦点画像(試料101のZ位置毎の観察面に対するスライス画像)をこのZ位置を示す情報に対応付けて共焦点画像メモリ113に記憶させる処理が行われる。なお、試料101の共焦点画像の取り込み処理では、光検出器107からの出力信号を取得すると共に、取得した信号が表している光量(輝度値)と画像の構成画素との対応付けを、二次元走査部108によるレーザ光の二次元走査における当該信号の取得時の走査位置に基づいて行う。こうすることで、試料101の共焦点画像が得られる。   In S202, the process of capturing the confocal image of the sample 101 is performed at the current Z position, and the obtained confocal image (slice image with respect to the observation surface for each Z position of the sample 101) is associated with information indicating the Z position. Thus, processing to be stored in the confocal image memory 113 is performed. In the confocal image capturing process of the sample 101, the output signal from the light detector 107 is acquired, and the correspondence between the light amount (luminance value) represented by the acquired signal and the constituent pixels of the image is determined in two. This is performed based on the scanning position when the signal is acquired in the two-dimensional scanning of the laser beam by the two-dimensional scanning unit 108. By doing so, a confocal image of the sample 101 is obtained.

S202に続き、S203では、最大輝度画像の作成処理が行われる。この処理では、共焦点画像メモリ113に新たに記憶させた共焦点画像の輝度値と、最大輝度画像メモリ114に既に記憶されている画像の輝度値(既に取得済みのスライス画像の各々を構成している画素の輝度値の最大値)との大小比較を同一位置の画素毎に行う。ここで、共焦点画像の方が大きい輝度値である画素については、その画素の輝度値を共焦点画像のものに更新して最大輝度画像メモリ114に記憶させる。従って、最大輝度画像メモリ114に記憶させた最大輝度値を画素毎に並べると、最大輝度画像が得られる。そして、Z方向の取得範囲に亘って取得された試料101のZ位置毎の観察面に対する共焦点画像について、この最大輝度画像の更新を繰り返せば、この最大輝度画像が試料101の全焦点画像となる。   Subsequent to S202, in S203, a process for creating a maximum luminance image is performed. In this process, the brightness value of the confocal image newly stored in the confocal image memory 113 and the brightness value of the image already stored in the maximum brightness image memory 114 (each of the already acquired slice images are configured. A comparison is made for each pixel at the same position. Here, for a pixel having a higher luminance value in the confocal image, the luminance value of the pixel is updated to that of the confocal image and stored in the maximum luminance image memory 114. Therefore, when the maximum luminance values stored in the maximum luminance image memory 114 are arranged for each pixel, a maximum luminance image is obtained. If the update of the maximum luminance image is repeated for the confocal image with respect to the observation plane for each Z position of the sample 101 acquired over the acquisition range in the Z direction, the maximum luminance image becomes the omnifocal image of the sample 101. Become.

なお、最大輝度画像メモリ114に記憶されている輝度値を更新するときには、この輝度値が得られた共焦点画像の取り込み時におけるZ位置を示す情報についても、画素毎に最大輝度画像メモリ114に記憶させるようにする。   When the brightness value stored in the maximum brightness image memory 114 is updated, information indicating the Z position at the time of capturing the confocal image from which the brightness value is obtained is also stored in the maximum brightness image memory 114 for each pixel. Try to remember.

S204では、S202の処理で共焦点画像メモリ113に記憶させた共焦点画像と、S203の処理で最大輝度画像メモリ114に記憶させた最大輝度画像との各々について、構成画素の輝度値と画素数との関係を示すヒストグラムを作成する処理が行われる。このS204の処理により作成される、共焦点画像についてのヒストグラムの例及び最大輝度画像についてのヒストグラムの例を、それぞれ図3A及び図3Bに示す。   In S204, for each of the confocal image stored in the confocal image memory 113 in the processing of S202 and the maximum luminance image stored in the maximum luminance image memory 114 in the processing of S203, the luminance value and the number of pixels of the constituent pixels. A process of creating a histogram indicating the relationship between the Examples of histograms for confocal images and histograms for maximum luminance images created by the processing of S204 are shown in FIGS. 3A and 3B, respectively.

S205では、S204の処理により共焦点画像について作成したヒストグラムより、前述した動作パラメータのひとつである基準輝度レベルA以下の輝度値である画素の度数を計数する処理が行われる(図3A参照)。コントローラ111のMPUは、このS205の処理を実行することで、輝度頻度計数部115として機能し、このときの計数結果は、直近のS202の処理により取得された共焦点画像についての輝度頻度と称される。   In S205, a process of counting the frequency of pixels having a luminance value equal to or lower than the reference luminance level A, which is one of the operation parameters described above, is performed from the histogram created for the confocal image in the process of S204 (see FIG. 3A). The MPU of the controller 111 functions as the luminance frequency counting unit 115 by executing the processing of S205, and the count result at this time is referred to as the luminance frequency for the confocal image acquired by the latest processing of S202. Is done.

S206では、S204の処理により最大輝度画像について作成したヒストグラムより、前述した動作パラメータのひとつである基準輝度レベルB以上の輝度値である画素の度数を計数する処理が行われる(図3B参照)。コントローラ111のMPUは、このS206の処理を実行することで、最大輝度頻度計数部116として機能し、このときの計数結果は最大輝度頻度と称される。   In S206, a process of counting the frequency of pixels having a luminance value equal to or higher than the reference luminance level B, which is one of the operation parameters described above, is performed from the histogram created for the maximum luminance image by the process of S204 (see FIG. 3B). The MPU of the controller 111 functions as the maximum luminance frequency counting unit 116 by executing the process of S206, and the count result at this time is referred to as the maximum luminance frequency.

S207では、走査型共焦点顕微鏡100による画像取り込み動作の開始から終了までの進捗状況を算出する処理が行われる。この進捗状況の算出は、下記の式の値を求めることによって行われる。   In S <b> 207, processing for calculating the progress status from the start to the end of the image capturing operation by the scanning confocal microscope 100 is performed. This progress is calculated by obtaining the value of the following equation.

[進捗状況]=[最大輝度頻度]/[第1基準画素数]×100(%)
ここで、第1基準画素数は、試料101の全焦点画像を構成する画素数を示す値であり、前述した動作パラメータのひとつである。つまり、進捗状況は、第1基準画素数に対する最大輝度頻度の割合として算出される。例えば、第1基準画素数の画素全てで最大輝度が得られたとすると、そのときの最大輝度画像は試料101の全焦点画像そのものであるので、進捗状況は「100%」となる。
[Progress status] = [Maximum luminance frequency] / [First reference pixel number] × 100 (%)
Here, the first reference pixel number is a value indicating the number of pixels constituting the omnifocal image of the sample 101, and is one of the operation parameters described above. That is, the progress situation is calculated as a ratio of the maximum luminance frequency to the first reference pixel number. For example, if the maximum luminance is obtained for all the pixels of the first reference pixel number, the maximum luminance image at that time is the omnifocal image of the sample 101, and thus the progress status is “100%”.

なお、コントローラ111のMPUは、このS207の処理を実行することで、進捗状況算出部117として機能する。
S208では、S207の処理により算出された進捗状況を出力装置112で表示させる処理が行われる。進捗情報の出力装置112での表示は、例えば図4Aに示す進捗バー表示のように、現在の進捗状況の算出結果の値を、全焦点画像の生成完了を示す「100%」に対する相対的な長さで視覚的に示す。なお、ここで、進捗状況の算出結果の値が「100%」を超えたとしても、進捗情報の表示は、「100%」で打ち切るようにする。
Note that the MPU of the controller 111 functions as the progress calculation unit 117 by executing the processing of S207.
In S208, a process of displaying the progress status calculated by the process of S207 on the output device 112 is performed. The display of the progress information on the output device 112 is performed, for example, as shown in the progress bar display shown in FIG. Visually indicated by length. Here, even if the value of the progress calculation result exceeds “100%”, the display of the progress information is terminated at “100%”.

なお、進捗情報の表示を図4Aのようにして行う代わりに、図4Bに示すように、現在の進捗状況の算出結果の値を数値表示するようにしてもよく、更に、表示と共に音声で数値をユーザに報知するようにしてもよい。   Instead of displaying the progress information as shown in FIG. 4A, as shown in FIG. 4B, the value of the calculation result of the current progress situation may be displayed as a numerical value. May be notified to the user.

S209では、測定範囲の第一終了判定処理として、S206の処理により取得された最大輝度頻度が、前述した第1基準画素数を超えたか否かを判定する処理が行われる。ここで、最大輝度頻度が第1基準画素数を超えたと判定したとき(判定結果がYesのとき)にはS210に処理を進める。一方、最大輝度頻度が第1基準画素数を超えてはいないと判定したとき(判定結果がNoのとき)にはS211に処理を進める。   In S209, as the first end determination process of the measurement range, a process of determining whether or not the maximum luminance frequency acquired by the process of S206 has exceeded the above-described first reference pixel number is performed. Here, when it is determined that the maximum luminance frequency exceeds the first reference pixel number (when the determination result is Yes), the process proceeds to S210. On the other hand, when it is determined that the maximum luminance frequency does not exceed the first reference pixel number (when the determination result is No), the process proceeds to S211.

S210では、測定範囲の第二終了判定処理として、S205の処理により取得された輝度頻度が、予め設定された第2基準画素数を超えたか否かを判定する処理が行われる。ここで、第2基準画素数は、S202の処理により取得された共焦点画像が、もはや試料101の全焦点画像の生成に使用することはないとみなし得る程度に十分暗いものとなったかどうかの判定に用いる閾値であり、前述した動作パラメータのひとつである。ここで、輝度頻度が第2基準画素数を超えたと判定したとき(判定結果がYesのとき)には、試料101の共焦点画像の取得が終了したとの判定を下し、S212に処理を進める。一方、輝度頻度が第2基準画素数を超えてはいないと判定したとき(判定結果がYesのとき)にはS211に処理を進める。   In S210, as the second end determination process of the measurement range, a process of determining whether the luminance frequency acquired by the process of S205 exceeds a preset second reference pixel number is performed. Here, the second reference pixel number indicates whether or not the confocal image acquired by the process of S202 is sufficiently dark so that it can be considered that the confocal image is no longer used for generating the omnifocal image of the sample 101. It is a threshold value used for determination, and is one of the operation parameters described above. Here, when it is determined that the luminance frequency exceeds the second reference pixel number (when the determination result is Yes), it is determined that acquisition of the confocal image of the sample 101 is completed, and the process is performed in S212. Proceed. On the other hand, when it is determined that the luminance frequency does not exceed the second reference pixel number (when the determination result is Yes), the process proceeds to S211.

なお、コントローラ111のMPUは、このS209及びS210の処理を実行することで、画像取り込み終了判定部118として機能する。
S211では、Z位置制御部104に所定の指示を与えて対物レンズ102のZ位置を測定ピッチ分上方に移動させる処理が行われ、その後はS202へと処理を戻して上述した処理が再度行われる。こうしてS202の処理が繰り返されることによって、試料101の高さ毎の観察面に対する共焦点画像が、Z方向(高さ方向)の取得範囲に亘り順次取得される。
Note that the MPU of the controller 111 functions as the image capture end determination unit 118 by executing the processes of S209 and S210.
In S211, a predetermined instruction is given to the Z position control unit 104 to move the Z position of the objective lens 102 upward by the measurement pitch, and then the process returns to S202 and the above-described process is performed again. . By repeating the process of S202 in this way, confocal images for the observation surface for each height of the sample 101 are sequentially acquired over the acquisition range in the Z direction (height direction).

S212では、最大輝度画像メモリ114から画素毎の最大輝度値を全画素について読み出して全焦点画像を作成して出力装置112に表示させる処理が行われ、その後はこの図2の制御処理を終了する。なお、このS212の処理において、画素毎の最大輝度値と共に記憶されているZ位置の情報を最大輝度画像メモリ114から読み出し、このZ位置と各画素のXY平面(Z方向に垂直な平面)上の位置とを対応付けることにより、試料101の三次元画像を作成して出力装置112に表示させる処理を併せて行うようにしてもよい。   In S212, the maximum luminance value for each pixel is read from the maximum luminance image memory 114 for all the pixels, and an all-in-focus image is generated and displayed on the output device 112. Thereafter, the control processing in FIG. . In the process of S212, information on the Z position stored together with the maximum luminance value for each pixel is read from the maximum luminance image memory 114, and this Z position and each pixel on the XY plane (a plane perpendicular to the Z direction) are read. The process of creating a three-dimensional image of the sample 101 and displaying it on the output device 112 may also be performed by associating with the position of.

以上までの制御処理がコントローラ111で行われることにより、試料101の全焦点画像を生成すると共に、そのための試料101の共焦点画像の取り込み動作の開始から終了までの進捗状況の表示が行われる。しかも、このときには、測定範囲(測定終了位置である対物レンズ102のZ位置の上限位置)の設定を手動で行うことはなく、コントローラ111が自動的に設定する。つまり、この図2の処理によれば、予め手動で設定しておかないため測定範囲の終了位置が分からないのにも拘らず、測定終了までの進捗状況の表示をユーザへ提供することができる。   When the controller 111 performs the above-described control processing, an omnifocal image of the sample 101 is generated, and the progress status from the start to the end of the operation for capturing the confocal image of the sample 101 is displayed. In addition, at this time, the controller 111 automatically sets the measurement range (the upper limit position of the Z position of the objective lens 102 which is the measurement end position) manually. That is, according to the processing of FIG. 2, the display of the progress status until the end of the measurement can be provided to the user even though the end position of the measurement range is not known because it is not manually set in advance. .

なお、図2の処理において、全焦点画像の生成作業の進捗状況だけでなく、前述した試料101の三次元画像の生成作業の進捗状況についても算出・表示を行うようにすることも可能である。   In the process of FIG. 2, not only the progress status of the omnifocal image generation work but also the progress status of the 3D image generation work of the sample 101 described above can be calculated and displayed. .

また、全焦点画像の生成作業の進捗状況の表示を、図4Aや図4Bに示したもののようにする代わりに、例えば図4Cに示すように、画像取り込みの進捗状況と画像生成の進捗状況とに分けて表示するようにすることも可能である。   Further, instead of displaying the progress status of the omnifocal image generation work as shown in FIGS. 4A and 4B, for example, as shown in FIG. 4C, the progress status of image capture and the progress status of image generation It is also possible to display them separately.

次に図5について説明する。図5は、コントローラ111によって行われる制御処理の第二の例をフローチャートで示したものである。この第二の例も、図2に示した第一の例と同様、前述した測定範囲をコントローラ111自身が設定して試料101の全焦点画像を生成すると共に、そのための試料101の共焦点画像の取り込み動作の開始から終了までの進捗状況の表示を行う。但し、進捗状況算出部117により行われる、走査型共焦点顕微鏡100による画像取り込み動作の開始から終了までの進捗状況の算出手法が、第一の例とは異なっている。   Next, FIG. 5 will be described. FIG. 5 is a flowchart showing a second example of the control process performed by the controller 111. Similarly to the first example shown in FIG. 2, the second example generates the omnifocal image of the sample 101 by setting the measurement range described above by the controller 111 itself, and the confocal image of the sample 101 for that purpose. The progress status from the start to the end of the capture operation is displayed. However, the method of calculating the progress status from the start to the end of the image capturing operation by the scanning confocal microscope 100 performed by the progress status calculation unit 117 is different from the first example.

まず、ユーザは、出力装置112に表示される試料101の画像を観察しながらコントローラ111の入力装置を操作してZ位置制御部104に所定の指示を与えることで、対物レンズ102のZ位置を測定範囲の下限位置まで移動させる。MPUは、このときのZ位置を測定開始位置の設定として取得する。なお、従来はこのときに併せて行っていた測定終了位置(測定範囲の上限位置)の手動設定は、ここでは行わない。   First, the user operates the input device of the controller 111 while observing the image of the sample 101 displayed on the output device 112 to give a predetermined instruction to the Z position control unit 104, thereby changing the Z position of the objective lens 102. Move to the lower limit of the measurement range. The MPU acquires the Z position at this time as the setting of the measurement start position. In addition, the manual setting of the measurement end position (the upper limit position of the measurement range) that is conventionally performed at this time is not performed here.

その後、ユーザは、コントローラ111の入力装置を操作して所定の指示を与え、図5の制御処理を開始させる。
図5の制御処理が開始されると、まず、S301では、前述した動作パラメータを動作パラメータメモリ119から読み出す処理が行われる。この処理により読み出される動作パラメータは、対物レンズ102のZ位置についてのとり得る最大上限位置及び最大下限位置、前述した測定ピッチ、後述するS305及びS306の処理でそれぞれ用いる2つの基準輝度レベル、後述するS309及びS310の処理でそれぞれ2つの基準画素数などである。なお、これらの動作パラメータは、予め設定されている固定値でよいが、この制御処理の開始前にユーザが設定して動作パラメータメモリ119に記憶させておくようにしてもよい。
Thereafter, the user operates the input device of the controller 111 to give a predetermined instruction to start the control process of FIG.
When the control process of FIG. 5 is started, first, in S301, a process of reading the above-described operation parameter from the operation parameter memory 119 is performed. The operation parameters read out by this processing are the maximum upper limit position and the maximum lower limit position that can be taken with respect to the Z position of the objective lens 102, the measurement pitch described above, two reference luminance levels used in the processing of S305 and S306 described later, and described later. The numbers of reference pixels are two in the processes of S309 and S310, respectively. These operation parameters may be fixed values set in advance, but may be set by the user and stored in the operation parameter memory 119 before the start of the control process.

S302では、試料101の共焦点画像の取り込み処理を現在のZ位置で行い、得られた共焦点画像(試料101のZ位置毎の観察面に対するスライス画像)をこのZ位置を示す情報に対応付けて共焦点画像メモリ113に記憶させる処理が行われる。なお、試料101の共焦点画像の取り込み処理では、光検出器107からの出力信号を取得すると共に、取得した信号が表している光量(輝度値)と画像の構成画素との対応付けを、二次元走査部108によるレーザ光の二次元走査における当該信号の取得時の走査位置に基づいて行う。こうすることで、試料101の共焦点画像が得られる。   In S302, the process of capturing the confocal image of the sample 101 is performed at the current Z position, and the obtained confocal image (slice image with respect to the observation surface for each Z position of the sample 101) is associated with information indicating the Z position. Thus, processing to be stored in the confocal image memory 113 is performed. In the confocal image capturing process of the sample 101, the output signal from the light detector 107 is acquired, and the correspondence between the light amount (luminance value) represented by the acquired signal and the constituent pixels of the image is determined in two. This is performed based on the scanning position when the signal is acquired in the two-dimensional scanning of the laser beam by the two-dimensional scanning unit 108. By doing so, a confocal image of the sample 101 is obtained.

S302に続き、S303では、最大輝度画像の作成処理が行われる。この処理では、共焦点画像メモリ113に新たに記憶させた共焦点画像の輝度値と、最大輝度画像メモリ114に既に記憶されている画像の輝度値(既に取得済みのスライス画像の各々を構成している画素の輝度値の最大値)との大小比較を同一位置の画素毎に行う。ここで、共焦点画像の方が大きい輝度値である画素については、その画素の輝度値を共焦点画像のものに更新して最大輝度画像メモリ114に記憶させる。従って、最大輝度画像メモリ114に記憶させた最大輝度値を画素毎に並べると、最大輝度画像が得られる。そして、Z方向の取得範囲に亘って取得された試料101のZ位置毎の観察面に対する共焦点画像について、この最大輝度画像の更新を繰り返せば、この最大輝度画像が試料101の全焦点画像となる。   Subsequent to S302, in S303, a process for creating a maximum luminance image is performed. In this process, the brightness value of the confocal image newly stored in the confocal image memory 113 and the brightness value of the image already stored in the maximum brightness image memory 114 (each of the already acquired slice images are configured. A comparison is made for each pixel at the same position. Here, for a pixel having a higher luminance value in the confocal image, the luminance value of the pixel is updated to that of the confocal image and stored in the maximum luminance image memory 114. Therefore, when the maximum luminance values stored in the maximum luminance image memory 114 are arranged for each pixel, a maximum luminance image is obtained. If the update of the maximum luminance image is repeated for the confocal image with respect to the observation plane for each Z position of the sample 101 acquired over the acquisition range in the Z direction, the maximum luminance image becomes the omnifocal image of the sample 101. Become.

なお、最大輝度画像メモリ114に記憶されている輝度値を更新するときには、この輝度値が得られた共焦点画像の取り込み時におけるZ位置を示す情報についても、画素毎に最大輝度画像メモリ114に記憶させるようにする。   When the brightness value stored in the maximum brightness image memory 114 is updated, information indicating the Z position at the time of capturing the confocal image from which the brightness value is obtained is also stored in the maximum brightness image memory 114 for each pixel. Try to remember.

S304では、S302の処理で共焦点画像メモリ113に記憶させた共焦点画像と、S303の処理で最大輝度画像メモリ114に記憶させた最大輝度画像との各々について、構成画素の輝度値と画素数との関係を示す、図3A及び図3Bに例示したようなヒストグラムを、第一の例と同様にして作成する処理が行われる。   In S304, for each of the confocal image stored in the confocal image memory 113 in the processing of S302 and the maximum luminance image stored in the maximum luminance image memory 114 in the processing of S303, the luminance value and the number of pixels of the constituent pixels. A process for creating a histogram as shown in FIG. 3A and FIG. 3B showing the relationship between and in the same manner as in the first example is performed.

S305では、S304の処理により共焦点画像について作成したヒストグラムより、前述した動作パラメータのひとつである基準輝度レベルA以下の輝度値である画素の度数を計数する処理が行われる(図3A参照)。コントローラ111のMPUは、このS305の処理を実行することで、輝度頻度計数部115として機能し、このときの計数結果は、直近のS302の処理により取得された共焦点画像についての輝度頻度と称される。   In S305, a process of counting the frequency of pixels having a luminance value equal to or lower than the reference luminance level A, which is one of the operation parameters described above, is performed from the histogram created for the confocal image in S304 (see FIG. 3A). The MPU of the controller 111 functions as the luminance frequency counting unit 115 by executing the process of S305, and the count result at this time is referred to as the luminance frequency for the confocal image acquired by the latest process of S302. Is done.

S306では、S304の処理により最大輝度画像について作成したヒストグラムより、前述した動作パラメータのひとつである基準輝度レベルB以上の輝度値である画素の度数を計数する処理が行われる(図3B参照)。コントローラ111のMPUは、このS306の処理を実行することで、最大輝度頻度計数部116として機能し、このときの計数結果は最大輝度頻度と称される。   In S306, processing is performed to count the frequency of pixels having a luminance value equal to or higher than the reference luminance level B, which is one of the operation parameters described above, from the histogram created for the maximum luminance image by the processing in S304 (see FIG. 3B). The MPU of the controller 111 functions as the maximum luminance frequency counting unit 116 by executing the process of S306, and the counting result at this time is referred to as the maximum luminance frequency.

S307では、走査型共焦点顕微鏡100による画像取り込み動作の開始から終了までの進捗状況を算出する処理が行われる。この進捗状況の算出は、下記の式の値を求めることによって行われる。   In S307, processing for calculating the progress status from the start to the end of the image capturing operation by the scanning confocal microscope 100 is performed. This progress is calculated by obtaining the value of the following equation.

[進捗状況A]=[最大輝度頻度]/[第1基準画素数]×50(%)
[進捗状況B]=[輝度頻度]/[第2基準画素数]×50(%)
[進捗状況]=[進捗状況A]+[進捗状況B](%)
ここで、第1基準画素数は、試料101の全焦点画像を構成する画素数を示す値であり、前述した動作パラメータのひとつである。また、第2基準画素数は、S302の処理により取得された共焦点画像が、もはや試料101の全焦点画像の生成に使用することはないとみなし得る程度に十分暗いものとなったとみなすときの輝度頻度であり、前述した動作パラメータのひとつである。
[Progress status A] = [maximum luminance frequency] / [first reference pixel number] × 50 (%)
[Progress status B] = [Luminance frequency] / [Second reference pixel number] × 50 (%)
[Progress] = [Progress A] + [Progress B] (%)
Here, the first reference pixel number is a value indicating the number of pixels constituting the omnifocal image of the sample 101, and is one of the operation parameters described above. In addition, the second reference pixel number is determined when the confocal image acquired by the process of S302 is sufficiently dark that it can be considered that the confocal image is no longer used for generating the omnifocal image of the sample 101. Luminance frequency, one of the operating parameters described above.

なお、コントローラ111のMPUは、このS307の処理を実行することで、進捗状況算出部117として機能する。
S308では、S307の処理により算出された進捗状況を出力装置112で表示させる処理が行われる。進捗情報の出力装置112での表示は、前述した第一の例と同様に、例えば図4Aに示した進捗バー表示のように、現在の進捗状況の算出結果の値を、全焦点画像の生成完了を示す「100%」に対する相対的な長さで視覚的に示す。なお、ここで、進捗状況の算出結果の値が「100%」を超えたとしても、進捗情報の表示は、「100%」で打ち切るようにする。また、図4Bに示したように、現在の進捗状況の算出結果の値を数値表示するようにしてもよく、更に、表示と共に音声で数値をユーザに報知するようにしてもよい。
Note that the MPU of the controller 111 functions as the progress calculation unit 117 by executing the processing of S307.
In S308, a process of displaying the progress status calculated by the process of S307 on the output device 112 is performed. As in the first example described above, the progress information output device 112 displays the current progress calculation result value as in the progress bar display shown in FIG. Visually shown relative to “100%” indicating completion. Here, even if the value of the progress calculation result exceeds “100%”, the display of the progress information is terminated at “100%”. As shown in FIG. 4B, the value of the current progress calculation result may be displayed as a numerical value, and further, the numerical value may be notified to the user together with the display.

S309では、測定範囲の第一終了判定処理として、S306の処理により取得された最大輝度頻度が、前述した第1基準画素数を超えたか否かを判定する処理が行われる。ここで、最大輝度頻度が第1基準画素数を超えたと判定したとき(判定結果がYesのとき)にはS310に処理を進める。一方、最大輝度頻度が第1基準画素数を超えてはいないと判定したとき(判定結果がNoのとき)にはS311に処理を進める。   In S309, as the first end determination process of the measurement range, a process of determining whether or not the maximum luminance frequency acquired by the process of S306 has exceeded the above-described first reference pixel number is performed. Here, when it is determined that the maximum luminance frequency exceeds the first reference pixel number (when the determination result is Yes), the process proceeds to S310. On the other hand, when it is determined that the maximum luminance frequency does not exceed the first reference pixel number (when the determination result is No), the process proceeds to S311.

S310では、測定範囲の第二終了判定処理として、S305の処理により取得された輝度頻度が、前述した第2基準画素数を超えたか否かを判定する処理が行われる。ここで、輝度頻度が第2基準画素数を超えたと判定したとき(判定結果がYesのとき)には、試料101の共焦点画像の取得が終了したとの判定を下し、S312に処理を進める。一方、輝度頻度が第2基準画素数を超えてはいないと判定したとき(判定結果がYesのとき)にはS311に処理を進める。   In S310, as the second end determination process of the measurement range, a process of determining whether or not the luminance frequency acquired by the process of S305 exceeds the above-described second reference pixel number is performed. Here, when it is determined that the luminance frequency exceeds the second reference pixel number (when the determination result is Yes), it is determined that the acquisition of the confocal image of the sample 101 is completed, and the process proceeds to S312. Proceed. On the other hand, when it is determined that the luminance frequency does not exceed the second reference pixel number (when the determination result is Yes), the process proceeds to S311.

なお、コントローラ111のMPUは、このS309及びS310の処理を実行することで、画像取り込み終了判定部118として機能する。
S311では、Z位置制御部104に所定の指示を与えて対物レンズ102のZ位置を測定ピッチ分上方に移動させる処理が行われ、その後はS302へと処理を戻して上述した処理が再度行われる。こうしてS302の処理が繰り返されることによって、試料101の高さ毎の観察面に対する共焦点画像が、Z方向(高さ方向)の取得範囲に亘り順次取得される。
Note that the MPU of the controller 111 functions as the image capture end determination unit 118 by executing the processes of S309 and S310.
In S311, a predetermined instruction is given to the Z position control unit 104 to move the Z position of the objective lens 102 upward by the measurement pitch, and then the process returns to S302 and the above-described process is performed again. . By repeating the processing of S302 in this manner, confocal images for the observation surface for each height of the sample 101 are sequentially acquired over the acquisition range in the Z direction (height direction).

S312では、最大輝度画像メモリ114から画素毎の最大輝度値を全画素について読み出して全焦点画像を作成して出力装置112に表示させる処理が行われ、その後はこの図5の制御処理を終了する。なお、このS312の処理において、画素毎の最大輝度値と共に記憶されているZ位置の情報を最大輝度画像メモリ114から読み出し、このZ位置と各画素のXY平面(Z方向に垂直な平面)上の位置とを対応付けることにより、試料101の三次元画像を作成して出力装置112に表示させる処理を併せて行うようにしてもよい。   In S312, the maximum brightness value for each pixel is read from the maximum brightness image memory 114 for all pixels, an all-in-focus image is generated and displayed on the output device 112, and then the control process in FIG. 5 is terminated. . In the processing of S312, information on the Z position stored together with the maximum luminance value for each pixel is read from the maximum luminance image memory 114, and the Z position and each pixel on the XY plane (plane perpendicular to the Z direction) are read. The process of creating a three-dimensional image of the sample 101 and displaying it on the output device 112 may also be performed by associating with the position of.

以上までの制御処理がコントローラ111で行われることにより、試料101の全焦点画像を生成すると共に、そのための試料101の共焦点画像の取り込み動作の開始から終了までの進捗状況の表示が行われる。しかも、このときには、測定範囲(測定終了位置である対物レンズ102のZ位置の上限位置)の設定を手動で行うことはなく、コントローラ111が自動的に設定する。つまり、この図5の処理によれば、予め手動で設定しておかないため測定範囲の終了位置が分からないのにも拘らず、測定終了までの進捗状況の表示をユーザへ提供することができる。   When the controller 111 performs the above-described control processing, an omnifocal image of the sample 101 is generated, and the progress status from the start to the end of the operation for capturing the confocal image of the sample 101 is displayed. In addition, at this time, the controller 111 automatically sets the measurement range (the upper limit position of the Z position of the objective lens 102 which is the measurement end position) manually. That is, according to the processing of FIG. 5, the display of the progress status until the end of the measurement can be provided to the user even though the end position of the measurement range is not known because it is not manually set in advance. .

なお、図5の処理において、全焦点画像の生成作業の進捗状況だけでなく、前述した試料101の三次元画像の生成作業の進捗状況についても算出・表示を行うようにすることも可能である。   In the process of FIG. 5, not only the progress status of the omnifocal image generation work but also the progress status of the 3D image generation work of the sample 101 described above can be calculated and displayed. .

また、全焦点画像の生成作業の進捗状況の表示を、図4Aや図4Bに示したもののようにする代わりに、例えば図4Cに示したように、画像取り込みの進捗状況と画像生成の進捗状況とに分けて表示するようにすることも可能である。   Further, instead of displaying the progress status of the omnifocal image generation work as shown in FIGS. 4A and 4B, for example, as shown in FIG. 4C, the progress status of image capture and the progress status of image generation It is also possible to display them separately.

また、図5の処理においては、進捗状況を算出するときの基礎となる進捗状況Aの値と進捗状況Bの値とに等しい重み(50:50)を与えているが、例えば、共焦点画像の取得終了判定においてその一方を重視する場合などに応じ、進捗状況Aの値と進捗状況Bの値とにそれぞれ与える重みを異なるものとしてもよい。   In the processing of FIG. 5, a weight (50:50) equal to the value of the progress status A and the value of the progress status B, which is the basis for calculating the progress status, is given. Depending on the case where one of them is emphasized in the acquisition end determination, the weight given to the value of progress status A and the value of progress status B may be different.

また、図5の処理において、進捗状況を出力装置112で表示させる代わりに、進捗状況Aと進捗状況Bとを出力装置112で別個に表示させるようにしてもよく、ユーザに対する進捗状況のより詳細な提供が可能となる。   In the process of FIG. 5, instead of displaying the progress status on the output device 112, the progress status A and the progress status B may be displayed separately on the output device 112. Can be provided.

なお、本発明の実施は、走査型共焦点顕微鏡システムに限定されるものではなく、例えば、ビデオマイクロスコープ顕微鏡のような拡大観察顕微鏡においても実施可能である。
ここで図6について説明する。図6は、本発明の第二実施形態であるビデオマイクロスコープ顕微鏡システムの構成を示している。
Note that the embodiment of the present invention is not limited to the scanning confocal microscope system, and can be implemented in, for example, a magnification observation microscope such as a video microscope microscope.
Here, FIG. 6 will be described. FIG. 6 shows the configuration of a video microscope microscope system according to the second embodiment of the present invention.

ビデオマイクロスコープ顕微鏡400は、対物レンズ402、対物レンズ切換部403、Z位置制御部404、ハーフミラー405、光検出器406、及びLED照明部407を備えている。そして、このビデオマイクロスコープ顕微鏡400と、コントローラ408及び出力装置409とから、ビデオマイクロスコープ顕微鏡システムが構成されている。   The video microscope microscope 400 includes an objective lens 402, an objective lens switching unit 403, a Z position control unit 404, a half mirror 405, a photodetector 406, and an LED illumination unit 407. The video microscope microscope 400, the controller 408, and the output device 409 constitute a video microscope microscope system.

対物レンズ切換部403は、ビデオマイクロスコープ顕微鏡400の光軸上に配置される対物レンズ402の切り換えを行う。Z位置制御部404は、対物レンズ402のZ位置(ビデオマイクロスコープ顕微鏡400の光軸方向の位置)を制御する。光検出器406は、例えばCCD(電荷結合素子)を用いた撮像素子であり、光を検出してその光量を示す信号を出力する。LED照明部407は、LED(発光ダイオード)を発光させてその光を試料(観察試料)401に照射する。コントローラ408は、試料401の観察画像や、対物レンズ402のZ位置情報を取得する。出力装置409は、取得した試料401の観察画像等の表示を行う。   The objective lens switching unit 403 switches the objective lens 402 disposed on the optical axis of the video microscope microscope 400. The Z position control unit 404 controls the Z position of the objective lens 402 (the position in the optical axis direction of the video microscope microscope 400). The photodetector 406 is an image sensor using, for example, a CCD (charge coupled device), detects light, and outputs a signal indicating the amount of light. The LED illumination unit 407 emits an LED (light emitting diode) and irradiates the sample (observation sample) 401 with the light. The controller 408 acquires an observation image of the sample 401 and Z position information of the objective lens 402. The output device 409 displays the acquired observation image of the sample 401 and the like.

LED照明部407から出射した光は、ハーフミラー405を透過した後に対物レンズ402を通過して試料401を照明する。このときの試料401の表面からの反射光は、再び対物レンズ402を通過した後に、ハーフミラー405で今度は反射して光検出器406の受光面で試料401の所定の高さの像を結像する。光検出器406はこの光を検出し、その光量を示す信号が出力される。この信号に基づいて、試料401についての、光軸方向に垂直な平面でスライスしたような画像(スライス画像)が光学的に得られる。   The light emitted from the LED illumination unit 407 passes through the half mirror 405 and then passes through the objective lens 402 to illuminate the sample 401. The reflected light from the surface of the sample 401 at this time passes again through the objective lens 402 and is then reflected by the half mirror 405 to form an image of a predetermined height of the sample 401 on the light receiving surface of the photodetector 406. Image. The light detector 406 detects this light and outputs a signal indicating the amount of light. Based on this signal, an image (slice image) obtained by slicing the sample 401 with a plane perpendicular to the optical axis direction is obtained optically.

ここで、Z位置制御部404が対物レンズ402を光軸方向に駆動させて、試料401に対する対物レンズ402の相対距離を変更しながら、各Z位置におけるスライス画像を順次取得していく。そして、取得した複数のスライス画像から、同一画素での最大輝度を画素毎に抽出することで、全焦点画像や三次元画像を得ることができる。なお、このときのZ位置の移動範囲(試料401に対する対物レンズ402の相対距離の変化範囲)を測定範囲という。   Here, the Z position control unit 404 drives the objective lens 402 in the optical axis direction, and sequentially acquires slice images at each Z position while changing the relative distance of the objective lens 402 with respect to the sample 401. An omnifocal image or a three-dimensional image can be obtained by extracting the maximum luminance at the same pixel for each pixel from the acquired slice images. The movement range of the Z position at this time (change range of the relative distance of the objective lens 402 with respect to the sample 401) is referred to as a measurement range.

コントローラ408は、MPU(演算処理装置)、メインメモリ、入力装置、インタフェース装置、及び記憶装置を備えており、出力装置409が接続されている。なお、MPU、メインメモリ、入力装置、インタフェース装置、及び記憶装置については、図6には図示していない。   The controller 408 includes an MPU (arithmetic processing unit), a main memory, an input device, an interface device, and a storage device, and an output device 409 is connected thereto. Note that the MPU, main memory, input device, interface device, and storage device are not shown in FIG.

MPUは、例えば記憶装置に記憶されている制御プログラムの実行によって、図6のビデオマイクロスコープ顕微鏡システム全体の動作制御を行うものであり、制御プログラムの実行により、少なくとも、最大輝度値探索部411、最大輝度計数部412、進捗状況算出部414、及び画像取り込み終了判定部415として機能する。   The MPU performs operation control of the entire video microscope microscope system of FIG. 6 by executing a control program stored in a storage device, for example, and at least the maximum brightness value search unit 411, by executing the control program. It functions as a maximum luminance counting unit 412, a progress situation calculating unit 414, and an image capture end determining unit 415.

メインメモリは、MPUが必要に応じてワークメモリとして使用する半導体メモリであり、少なくとも、画像メモリ410及び動作パラメータメモリ413として機能する。
入力装置は例えばマウス装置やキーボード装置であり、ユーザからの各種の指示を入力として取得する。
The main memory is a semiconductor memory used as a work memory by the MPU as needed, and functions as at least the image memory 410 and the operation parameter memory 413.
The input device is a mouse device or a keyboard device, for example, and acquires various instructions from the user as inputs.

インタフェース装置は、このビデオマイクロスコープ顕微鏡システムの各構成要素との間での各種データの授受を管理する。
記憶装置は例えばハードディスク装置であり、各種の制御プログラムやデータを記憶しておく。
The interface device manages the exchange of various data with each component of the video microscope microscope system.
The storage device is, for example, a hard disk device, and stores various control programs and data.

出力装置409は例えばディスプレイ装置であり、MPUによる制御の下で操作画面や観察画像等の表示を行う。
画像メモリ410は、光検出器406から出力される信号に基づきMPUにより生成される試料401のスライス画像を記憶しておく。
The output device 409 is a display device, for example, and displays an operation screen, an observation image, and the like under the control of the MPU.
The image memory 410 stores a slice image of the sample 401 generated by the MPU based on the signal output from the photodetector 406.

最大輝度値探索部411は、直近に取得されたスライス画像の輝度値と、その時点で既に取得済みであるスライス画像の輝度値とから、最大輝度値を画素毎に探索する。
最大輝度計数部412は、最大輝度値を見出すことのできた画素の数を計数する。
The maximum luminance value search unit 411 searches for the maximum luminance value for each pixel from the luminance value of the slice image acquired most recently and the luminance value of the slice image already acquired at that time.
The maximum brightness counting unit 412 counts the number of pixels that have found the maximum brightness value.

動作パラメータメモリ413は、このビデオマイクロスコープ顕微鏡システムによる自動測定動作の際に使用される各種の動作パラメータを記憶しておく。
進捗状況算出部414は、ビデオマイクロスコープ顕微鏡400による画像取り込み動作の開始から終了までの進捗状況を算出する。
The operation parameter memory 413 stores various operation parameters used in the automatic measurement operation by the video microscope microscope system.
The progress status calculation unit 414 calculates the progress status from the start to the end of the image capturing operation by the video microscope microscope 400.

画像取り込み終了判定部415は、ビデオマイクロスコープ顕微鏡400による画像取り込み動作を終了させるか否かの判定を行う。
図6に示したビデオマイクロスコープ顕微鏡システムは以上のように構成されている。
The image capturing end determination unit 415 determines whether to end the image capturing operation by the video microscope microscope 400.
The video microscope microscope system shown in FIG. 6 is configured as described above.

次に、図6に示されているコントローラ408によって行われる制御処理について説明する。この制御処理は、前述した測定範囲をコントローラ408自身が設定して試料401の全焦点画像を生成すると共に、そのための試料401のスライス画像の取り込み動作の開始から終了までの進捗状況の表示を行う。なお、コントローラ408では、記憶装置に予め記憶させておいた制御プログラムをMPUが読み出して実行することによって、これより説明する制御処理を実現する。   Next, control processing performed by the controller 408 shown in FIG. 6 will be described. In this control process, the controller 408 itself sets the above-described measurement range to generate an omnifocal image of the sample 401, and displays the progress status from the start to the end of the slice image capturing operation for the sample 401 for that purpose. . In the controller 408, the MPU reads out and executes a control program stored in advance in the storage device, thereby realizing the control process described below.

ここで図7について説明する。図7は、コントローラ408によって行われる制御処理をフローチャートで示したものである。
まず、ユーザは、出力装置409に表示される試料401の画像を観察しながらコントローラ408の入力装置を操作してZ位置制御部404に所定の指示を与えることで、対物レンズ402のZ位置を測定範囲の下限位置まで移動させる。MPUは、このときのZ位置を測定開始位置の設定として取得する。なお、従来はこのときに併せて行っていた測定終了位置(測定範囲の上限位置)の手動設定は、ここでは行わない。
Here, FIG. 7 will be described. FIG. 7 is a flowchart showing the control process performed by the controller 408.
First, the user operates the input device of the controller 408 to give a predetermined instruction to the Z position control unit 404 while observing the image of the sample 401 displayed on the output device 409, thereby changing the Z position of the objective lens 402. Move to the lower limit of the measurement range. The MPU acquires the Z position at this time as the setting of the measurement start position. In addition, the manual setting of the measurement end position (the upper limit position of the measurement range) that is conventionally performed at this time is not performed here.

その後、ユーザは、コントローラ408の入力装置を操作して所定の指示を与え、図7の制御処理を開始させる。
この制御処理が開始されると、まず、S501では、前述した動作パラメータを動作パラメータメモリ413から読み出す処理が行われる。この処理により読み出される動作パラメータは、対物レンズ402のZ位置についてのとり得る最大上限位置及び最大下限位置、前述した測定ピッチ、後述するS503の処理でそれぞれ用いるスライス画像の枚数設定値、後述するS506の処理で用いる2つの基準画素数などである。なお、これらの動作パラメータは、予め設定されている固定値でよいが、この制御処理の開始前にユーザが設定して動作パラメータメモリ413に記憶させておくようにしてもよい。
Thereafter, the user operates the input device of the controller 408 to give a predetermined instruction to start the control process of FIG.
When this control process is started, first, in S501, a process of reading the above-described operation parameter from the operation parameter memory 413 is performed. The operation parameters read out by this processing are the maximum upper limit position and the maximum lower limit position that can be taken for the Z position of the objective lens 402, the above-described measurement pitch, the set number of slice images used in the processing of S503 described later, and S506 described later. These are the two reference pixel numbers used in the above process. These operation parameters may be fixed values set in advance, but may be set by the user and stored in the operation parameter memory 413 before the start of the control process.

S502では、試料401のスライス画像の取り込み処理を現在のZ位置で行い、得られたスライス画像(試料401のZ位置毎の観察面に対するスライス画像)をこのZ位置を示す情報に対応付けて画像メモリ410に記憶させる処理が行われる。なお、試料401のスライス画像の取り込み処理では、光検出器406からの出力信号を取得すると共に、取得した信号が表している光量(輝度値)と画像の構成画素との対応付けを、その光量を受光した光検出器406の受光面上の位置に基づいて行う。こうすることで、試料401のスライス画像が得られる。   In S502, the slice image capturing process of the sample 401 is performed at the current Z position, and the obtained slice image (slice image with respect to the observation surface for each Z position of the sample 401) is associated with information indicating the Z position. Processing to be stored in the memory 410 is performed. In addition, in the process of acquiring the slice image of the sample 401, the output signal from the photodetector 406 is acquired, and the light amount (luminance value) represented by the acquired signal is associated with the constituent pixels of the image. Is performed based on the position on the light receiving surface of the photodetector 406 that has received the light. By doing so, a slice image of the sample 401 is obtained.

S502に続き、S503では、最大輝度値の探索処理が行われる。この処理では、画像メモリ410に記憶されている複数枚のスライス画像から、画素毎に最大輝度値の探索を行うと共に、最大輝度値を見つけ出すことのできた画素の数を計数する。ここで、画素毎の最大輝度値の探索は、まず、直近に取得したスライス画像と、この時点で既に取得していた複数枚のスライス画像のうち動作パラメータメモリ413に設定してある直近の枚数分の画像との各画素について、同一位置の画素毎に、Z位置を横軸とし輝度値を縦軸として輝度変化曲線を作成する。そして、この輝度変化曲線の傾きの変化を求め、この傾きの符号が反転したならば、そのときの輝度値を最大輝度値として求める。   Subsequent to S502, in S503, search processing for the maximum luminance value is performed. In this process, the maximum luminance value is searched for each pixel from a plurality of slice images stored in the image memory 410, and the number of pixels for which the maximum luminance value has been found is counted. Here, the search for the maximum luminance value for each pixel starts with the most recently acquired slice image and the most recent slice number set in the operation parameter memory 413 among the plurality of slice images already acquired at this time. For each pixel of the minute image, a luminance change curve is created for each pixel at the same position, with the Z position as the horizontal axis and the luminance value as the vertical axis. Then, a change in the slope of the brightness change curve is obtained, and if the sign of the slope is inverted, the brightness value at that time is obtained as the maximum brightness value.

なお、コントローラ408のMPUは、このS503の処理を実行することで、最大輝度値探索部411及び最大輝度計数部412として機能する。
S504では、ビデオマイクロスコープ顕微鏡400による画像取り込み動作の開始から終了までの進捗状況を算出する処理が行われる。この進捗状況の算出は、下記の式の値を求めることによって行われる。この進捗状況の算出は、下記の式の値を求めることによって行われる。
[進捗状況]=[最大輝度値を見つけ出せた画素数]/[第3基準画素数]
×100(%)
ここで、第3基準画素数は、試料401のスライス画像を構成する画素のうち、どの程度の割合の画素で最大輝度値を見つけ出せたときに、試料401のスライス画像の取得を終了したとの判定を下すかを決定する値であり、前述した動作パラメータのひとつである。
Note that the MPU of the controller 408 functions as the maximum luminance value searching unit 411 and the maximum luminance counting unit 412 by executing the processing of S503.
In S504, processing for calculating the progress status from the start to the end of the image capturing operation by the video microscope microscope 400 is performed. This progress is calculated by obtaining the value of the following equation. This progress is calculated by obtaining the value of the following equation.
[Progress status] = [Number of pixels for which maximum luminance value was found] / [Third reference pixel number]
× 100 (%)
Here, the third reference pixel number indicates that the acquisition of the slice image of the sample 401 has been completed when the maximum luminance value can be found by using what percentage of the pixels constituting the slice image of the sample 401. It is a value that determines whether or not to make a determination, and is one of the operation parameters described above.

なお、コントローラ408のMPUは、このS504の処理を実行することで、進捗状況算出部414として機能する。
S505では、S504の処理により算出された進捗状況を出力装置409で表示させる処理が行われる。進捗情報の出力装置409での表示は、進捗情報の出力装置409での表示は、前述した走査型共焦点顕微鏡システムにおける例と同様に、例えば図4Aに示した進捗バー表示のように、現在の進捗状況の算出結果の値を、全焦点画像の生成完了を示す「100%」に対する相対的な長さで視覚的に示す。なお、ここで、進捗状況の算出結果の値が「100%」を超えたとしても、進捗情報の表示は、「100%」で打ち切るようにする。また、図4Bに示したように、現在の進捗状況の算出結果の値を数値表示するようにしてもよく、更に、表示と共に音声で数値をユーザに報知するようにしてもよい。
Note that the MPU of the controller 408 functions as the progress calculation unit 414 by executing the processing of S504.
In S505, a process of displaying the progress status calculated by the process of S504 on the output device 409 is performed. The display of the progress information on the output device 409 is the same as the display of the progress information on the output device 409, as in the case of the scanning confocal microscope system described above, such as the progress bar display shown in FIG. 4A. The result of the calculation of the progress status is visually shown as a relative length to “100%” indicating the completion of the generation of the omnifocal image. Here, even if the value of the progress calculation result exceeds “100%”, the display of the progress information is terminated at “100%”. As shown in FIG. 4B, the value of the current progress calculation result may be displayed as a numerical value, and further, the numerical value may be notified to the user together with the display.

S506では、測定範囲の第三終了判定処理として、S503の処理により取得された最大輝度値を見つけ出せた画素の数が、前述した第3基準画素数を超えたか否かを判定する処理が行われる。ここで、最大輝度値を見つけ出せた画素の数が第3基準画素数を超えたと判定したとき(判定結果がYesのとき)にはS508に処理を進める。一方、最大輝度値を見つけ出せた画素の数が第3基準画素数を超えてはいないと判定したとき(判定結果がNoのとき)にはS507に処理を進める。なお、コントローラ408のMPUは、このS506の処理を実行することで、画像取り込み終了判定部415として機能する。   In S506, as the third end determination process of the measurement range, a process of determining whether or not the number of pixels for which the maximum luminance value acquired by the process of S503 has been found exceeds the above-described third reference pixel number is performed. . If it is determined that the number of pixels for which the maximum luminance value has been found has exceeded the third reference pixel number (when the determination result is Yes), the process proceeds to S508. On the other hand, when it is determined that the number of pixels for which the maximum luminance value has been found does not exceed the third reference pixel number (when the determination result is No), the process proceeds to S507. Note that the MPU of the controller 408 functions as the image capture end determination unit 415 by executing the processing of S506.

S507では、Z位置制御部404に所定の指示を与えて対物レンズ402のZ位置を測定ピッチ分上方に移動させる処理が行われ、その後はS502へと処理を戻して上述した処理が再度行われる。こうしてS502の処理が繰り返されることによって、試料401の高さ毎の観察面に対するスライス画像が、Z方向(高さ方向)の取得範囲に亘り順次取得される。   In S507, a predetermined instruction is given to the Z position control unit 404 to move the Z position of the objective lens 402 upward by the measurement pitch, and then the process returns to S502 and the above-described process is performed again. . By repeating the processing in S502 in this way, slice images for the observation surface for each height of the sample 401 are sequentially acquired over the acquisition range in the Z direction (height direction).

S508では、この処理の実行までに取得して画像メモリ410に記憶させておいたスライス画像から画素毎の最大輝度値を全画素について取得して全焦点画像を作成して出力装置409に表示させる処理が行われ、その後はこの図7の制御処理を終了する。なお、このS508の処理において、画素毎の最大輝度値と共に記憶されているZ位置の情報を画像メモリ410から読み出し、このZ位置と各画素のXY平面(Z方向に垂直な平面)上の位置とを対応付けることにより、試料401の三次元画像を作成して出力装置409に表示させる処理を併せて行うようにしてもよい。   In step S <b> 508, the maximum luminance value for each pixel is acquired for all pixels from the slice image acquired up to the execution of this process and stored in the image memory 410, and an all-focus image is created and displayed on the output device 409. Processing is performed, and thereafter, the control processing of FIG. 7 is terminated. In the processing of S508, information on the Z position stored together with the maximum luminance value for each pixel is read from the image memory 410, and this Z position and the position of each pixel on the XY plane (a plane perpendicular to the Z direction). , A process of creating a three-dimensional image of the sample 401 and displaying it on the output device 409 may be performed together.

以上までの制御処理がコントローラ408で行われることにより、試料401の全焦点画像を生成すると共に、そのための試料401のスライス画像の取り込み動作の開始から終了までの進捗状況の表示が行われる。しかも、このときには、測定範囲(測定終了位置である対物レンズ402のZ位置の上限位置)の設定を手動で行うことはなく、コントローラ408が自動的に設定する。つまり、この図7の処理によれば、予め手動で設定しておかないため測定範囲の終了位置が分からないのにも拘らず、測定終了までの進捗状況の表示をユーザへ提供することができる。   When the controller 408 performs the above-described control processing, an omnifocal image of the sample 401 is generated, and the progress status from the start to the end of the slice image capturing operation for the sample 401 is displayed. In addition, at this time, the controller 408 automatically sets the measurement range (the upper limit position of the Z position of the objective lens 402 that is the measurement end position) without manually setting the measurement range. That is, according to the processing of FIG. 7, the display of the progress status until the end of the measurement can be provided to the user even though the end position of the measurement range is not known because it is not manually set in advance. .

なお、図7の処理において、全焦点画像の生成作業の進捗状況だけでなく、前述した試料401の三次元画像の生成作業の進捗状況についても算出・表示を行うようにすることも可能である。   In the process of FIG. 7, not only the progress status of the omnifocal image generation work but also the progress status of the 3D image generation work of the sample 401 described above can be calculated and displayed. .

以上のように、本発明のいずれの実施形態によっても、観察試料の高さ毎の観察面に対するスライス画像の取り込み範囲を自らが決定して全焦点画像や三次元画像を作成する拡大観察顕微鏡において、全焦点画像や三次元画像を生成するための画像取り込み終了までの進捗状況を算出してユーザに提供することができる。従って、例えば測定時間が長い場合に、ユーザが感じることがある、測定が進行しているかどうかの不安や、いつ測定が終了するか分からないことなどの不快感を軽減させることができる。   As described above, according to any of the embodiments of the present invention, in the magnifying observation microscope that creates the omnifocal image and the three-dimensional image by determining the capturing range of the slice image with respect to the observation surface for each height of the observation sample. It is possible to calculate and provide the user with the progress status until the end of image capture for generating an omnifocal image or a three-dimensional image. Therefore, for example, when the measurement time is long, the user may feel uncomfortable, such as anxiety about whether the measurement is in progress or not knowing when the measurement is finished.

以上、本発明の実施形態を説明したが、本発明は、上述した各実施形態に限定されることなく、本発明の要旨を逸脱しない範囲内で種々の改良・変更が可能である。
例えば、本発明の各実施形態において、全焦点画像や三次元画像の生成の進捗状況を算出して表示することで、全測定終了までの進捗状況をユーザに表示するように構成することも可能である。
As mentioned above, although embodiment of this invention was described, this invention is not limited to each embodiment mentioned above, A various improvement and change are possible within the range which does not deviate from the summary of this invention.
For example, in each embodiment of the present invention, it is possible to display the progress status until the end of all measurements to the user by calculating and displaying the progress status of the generation of the omnifocal image or 3D image. It is.

本発明の第一実施形態である走査型共焦点顕微鏡システムの構成を示す図である。It is a figure which shows the structure of the scanning confocal microscope system which is 1st embodiment of this invention. 図1に示されているコントローラによって行われる制御処理の第一の例の処理内容をフローチャートで示した図である。It is the figure which showed the processing content of the 1st example of the control processing performed by the controller shown by FIG. 1 with the flowchart. 共焦点画像についてのヒストグラムの例を示す図である。It is a figure which shows the example of the histogram about a confocal image. 最大輝度画像についてのヒストグラムの例を示す図である。It is a figure which shows the example of the histogram about a maximum luminance image. 進捗状況の表示例(その1)を示す図である。It is a figure which shows the example of a display of a progress condition (the 1). 進捗状況の表示例(その2)を示す図である。It is a figure which shows the example of a display of a progress condition (the 2). 進捗状況の表示例(その3)を示す図である。It is a figure which shows the example of a display of a progress condition (the 3). 図1に示されているコントローラによって行われる制御処理の第二の例の処理内容をフローチャートで示した図である。It is the figure which showed the processing content of the 2nd example of the control processing performed by the controller shown by FIG. 1 with the flowchart. 本発明の第二実施形態であるビデオマイクロ顕微鏡システムの構成を示す図である。It is a figure which shows the structure of the video micro microscope system which is 2nd embodiment of this invention. 図6に示されているコントローラによって行われる制御処理の処理内容をフローチャートで示した図である。It is the figure which showed the processing content of the control processing performed by the controller shown by FIG. 6 with the flowchart. 走査型共焦点顕微鏡の構成の概略を示す図である。It is a figure which shows the outline of a structure of a scanning confocal microscope. 非平面状の試料の形状を示す図である。It is a figure which shows the shape of a non-planar sample.

符号の説明Explanation of symbols

100 走査型共焦点顕微鏡
101、401、804、900 試料
102、402、803 対物レンズ
103、403 対物レンズ切換部
104、404 Z位置制御部
105、405、802 ハーフミラー
106、805 ピンホール板
107、406、806 光検出器
108 二次元走査部
109 ミラー
110 レーザ照明部
111、408 コントローラ
112、409 出力装置
113 共焦点画像メモリ
114 最大輝度画像メモリ
115 輝度頻度計数部
116 最大輝度頻度計数部
117、414 進捗状況算出部
118、415 画像取り込み終了判定部
119、413 動作パラメータメモリ
400 ビデオマイクロスコープ顕微鏡
407 LED照明部
410 画像メモリ
411 最大輝度値探索部
412 最大輝度計数部
801 点状光源
100 Scanning confocal microscope 101, 401, 804, 900 Sample 102, 402, 803 Objective lens 103, 403 Objective lens switching unit 104, 404 Z position controller 105, 405, 802 Half mirror 106, 805 Pinhole plate 107, 406, 806 Photo detector 108 Two-dimensional scanning unit 109 Mirror 110 Laser illumination unit 111, 408 Controller 112, 409 Output device 113 Confocal image memory 114 Maximum luminance image memory 115 Luminance frequency counting unit 116 Maximum luminance frequency counting unit 117, 414 Progress status calculation unit 118, 415 Image capture end determination unit 119, 413 Operation parameter memory 400 Video microscope microscope 407 LED illumination unit 410 Image memory 411 Maximum brightness value search unit 412 Maximum brightness count unit 8 1 point-like light source

Claims (7)

観察試料の高さ毎の観察面に対するスライス画像を、該高さ方向の取得範囲に亘り順次取得するスライス画像取得手段と、
前記スライス画像取得手段が新たに取得したスライス画像を構成する画素の輝度値と、該画素と同一位置の画素であって既に取得していたスライス画像の各々を構成しているものの輝度値の最大値とで、値が大きい方を該位置の画素の輝度値とすることで得られる最大輝度画像を、前記スライス画像を新たに取得する度に更新することで、前記観察試料の全焦点画像を作成していく全焦点画像作成手段と、
前記スライス画像の前記取得範囲に亘る取得の終了を、前記スライス画像取得手段が直近に取得したスライス画像に基づき判定する終了判定手段と、
前記スライス画像の前記取得範囲に亘る取得の終了までに対する現時点までの取得の進捗状況を示す値を、前記全焦点画像作成手段による前記全焦点画像の作成状況を示す値に基づき算出する進捗状況算出手段と、
前記進捗状況算出手段により算出された値で示されている前記進捗状況を出力する出力手段と、
を有することを特徴とする顕微鏡装置。
Slice image acquisition means for sequentially acquiring slice images for the observation surface for each height of the observation sample over an acquisition range in the height direction;
The luminance value of the pixels constituting the slice image newly acquired by the slice image acquisition means and the maximum luminance value of the pixels at the same position as the pixel and constituting each of the already acquired slice images By updating the maximum luminance image obtained by setting the larger value as the luminance value of the pixel at the position, every time the slice image is newly acquired, the omnifocal image of the observation sample is obtained. Omnifocal image creation means to create,
An end determination unit that determines the end of acquisition of the slice image over the acquisition range based on the slice image acquired by the slice image acquisition unit most recently;
Progress status calculation for calculating a value indicating a progress status of acquisition of the slice image up to the end of acquisition over the acquisition range based on a value indicating a creation status of the omnifocal image by the omnifocal image creating means Means,
Output means for outputting the progress status indicated by the value calculated by the progress status calculation means;
A microscope apparatus characterized by comprising:
前記全焦点画像作成手段による前記全焦点画像の作成状況を示す値は、前記最大輝度画像を構成する画素のうち輝度が所定の基準輝度レベル以上であるものの度数であり、
前記進捗状況算出手段は、所定の第1基準画素数に対する前記度数の割合を、前記進捗状況を示す値として算出する、
ことを特徴とする請求項1に記載の顕微鏡装置。
The value indicating the creation status of the omnifocal image by the omnifocal image creation means is the frequency of the pixels constituting the maximum brightness image whose brightness is equal to or higher than a predetermined reference brightness level
The progress calculation means calculates a ratio of the frequency to a predetermined first reference pixel number as a value indicating the progress;
The microscope apparatus according to claim 1.
前記進捗状況算出手段は、前記スライス画像取得手段が直近に取得したスライス画像の輝度値に更に基づき、前記進捗状況を示す値を算出することを特徴とする請求項1に記載の顕微鏡装置。   The microscope apparatus according to claim 1, wherein the progress status calculation unit calculates a value indicating the progress status based further on a luminance value of a slice image most recently acquired by the slice image acquisition unit. 前記全焦点画像作成手段による前記全焦点画像の作成状況を示す値は、前記最大輝度画像を構成する画素のうち輝度が所定の基準輝度レベル以上であるものの度数であり、
前記進捗状況算出手段は、所定の第1基準画素数に対する前記度数の割合と、前記スライス画像取得手段が直近に取得したスライス画像を構成する画素のうち輝度が所定の基準輝度レベル以下であるものの度数についての所定の第2基準画素数に対する割合との和を、前記進捗状況を示す値として算出する、
ことを特徴とする請求項3に記載の顕微鏡装置。
The value indicating the creation status of the omnifocal image by the omnifocal image creation means is the frequency of the pixels constituting the maximum brightness image whose brightness is equal to or higher than a predetermined reference brightness level
The progress status calculation means has a ratio of the frequency to a predetermined first reference pixel number and a luminance of a pixel constituting a slice image most recently acquired by the slice image acquisition means is not higher than a predetermined reference luminance level. Calculating the sum of the frequency and the ratio to a predetermined second reference pixel number as a value indicating the progress status;
The microscope apparatus according to claim 3.
前記終了判定手段は、前記スライス画像取得手段が直近に取得したスライス画像を構成する画素のうち輝度が所定の基準輝度レベル以下のものの度数が、所定の第2基準画素数を超えたと判定したときに、前記取得の終了との判定を下すことを特徴とする請求項1から4のうちのいずれか一項に記載の顕微鏡装置。   The end determination unit determines that the frequency of the pixels constituting the slice image most recently acquired by the slice image acquisition unit is less than a predetermined reference luminance level exceeds a predetermined second reference pixel number. The microscope apparatus according to claim 1, wherein the acquisition is determined to be completed. 観察試料の高さ毎の観察面に対するスライス画像を、該高さ方向の取得範囲に亘り順次取得するスライス画像取得手段と、
前記スライス画像を新たに取得する度に、取得されている各スライス画像を構成する同一位置の画素の輝度値の変化の傾きを求めて、該画素においての輝度の最大値を該傾きの変化に基づき画素毎に見つけ出し、見つけ出された輝度の最大値を各画素の輝度値とすることで、前記観察試料の全焦点画像を作成していく全焦点画像作成手段と、
前記スライス画像取得手段による前記スライス画像の前記取得範囲に亘る取得の終了を、前記輝度の最大値が見つけ出された画素の数に基づき判定する終了判定手段と、
前記スライス画像取得手段による前記スライス画像の前記取得範囲に亘る取得の終了までに対する現時点までの該スライス画像の取得の進捗状況を示す値を、前記輝度の最大値が見つけ出された画素の数に基づき算出する進捗状況算出手段と、
前記進捗状況算出手段により算出された値で示されている前記進捗状況を出力する出力手段と、
を有することを特徴とする顕微鏡装置。
Slice image acquisition means for sequentially acquiring slice images for the observation surface for each height of the observation sample over an acquisition range in the height direction;
Each time the slice image is newly acquired, the inclination of the luminance value change of the pixel at the same position constituting each acquired slice image is obtained, and the maximum luminance value in the pixel is changed to the inclination change. Omnifocal image creation means for creating an omnifocal image of the observation sample by finding out for each pixel based on the maximum value of the found luminance as the luminance value of each pixel;
End determination means for determining the end of acquisition of the slice image over the acquisition range by the slice image acquisition means based on the number of pixels in which the maximum value of the luminance is found;
The value indicating the progress of acquisition of the slice image up to the current time until the end of acquisition of the slice image over the acquisition range by the slice image acquisition means is set to the number of pixels where the maximum value of the luminance is found. Progress calculation means to calculate based on;
Output means for outputting the progress status indicated by the value calculated by the progress status calculation means;
A microscope apparatus characterized by comprising:
前記進捗状況算出手段は、所定の基準画素数に対する前記輝度の最大値が見つけ出された画素の数の割合を、前記進捗状況を示す値として算出することを特徴とする請求項6に記載の顕微鏡装置。   The said progress condition calculation means calculates the ratio of the number of the pixels in which the maximum value of the said brightness | luminance was found with respect to the predetermined | prescribed reference pixel number as a value which shows the said progress condition. Microscope device.
JP2008135097A 2008-05-23 2008-05-23 Microscope equipment Expired - Fee Related JP5102107B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008135097A JP5102107B2 (en) 2008-05-23 2008-05-23 Microscope equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008135097A JP5102107B2 (en) 2008-05-23 2008-05-23 Microscope equipment

Publications (2)

Publication Number Publication Date
JP2009282356A true JP2009282356A (en) 2009-12-03
JP5102107B2 JP5102107B2 (en) 2012-12-19

Family

ID=41452856

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008135097A Expired - Fee Related JP5102107B2 (en) 2008-05-23 2008-05-23 Microscope equipment

Country Status (1)

Country Link
JP (1) JP5102107B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016014974A (en) * 2014-07-01 2016-01-28 株式会社Screenホールディングス Image processing method and image processor
JP2017134115A (en) * 2016-01-25 2017-08-03 オリンパス株式会社 Microscope device, and image display program

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06308393A (en) * 1993-04-21 1994-11-04 Olympus Optical Co Ltd Automatic image forming device for scanning optical microscope
JPH08210818A (en) * 1994-12-02 1996-08-20 Keyence Corp Optical microscope with film thickness measuring function
JPH08278450A (en) * 1995-04-06 1996-10-22 Olympus Optical Co Ltd Automatic image forming device for scanning confocal microscope
JP2000330026A (en) * 1999-05-17 2000-11-30 Keyence Corp Confocal microscope
JP2002090127A (en) * 2000-09-19 2002-03-27 Olympus Optical Co Ltd Three-dimensional information gaining method, cofocal scanning microscope and storage medium readable by computer
JP2002162560A (en) * 2000-11-24 2002-06-07 Sony Corp Optical device and focusing method
JP2003028797A (en) * 2001-07-11 2003-01-29 Hitachi Software Eng Co Ltd Fluorescence reader
JP2005292489A (en) * 2004-03-31 2005-10-20 Topcon Corp Method and device for determining presence or absence of spectacle lens
JP2006126374A (en) * 2004-10-27 2006-05-18 Olympus Corp Image display method, program, and scanning confocal microscope
JP2008083601A (en) * 2006-09-28 2008-04-10 Keyence Corp Confocal microscope, confocal microscope operation method, confocal microscope operation program, and recording medium and recorded equipment which can be read by computer
JP2008134339A (en) * 2006-11-27 2008-06-12 Olympus Corp Confocal microscope

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06308393A (en) * 1993-04-21 1994-11-04 Olympus Optical Co Ltd Automatic image forming device for scanning optical microscope
JPH08210818A (en) * 1994-12-02 1996-08-20 Keyence Corp Optical microscope with film thickness measuring function
JPH08278450A (en) * 1995-04-06 1996-10-22 Olympus Optical Co Ltd Automatic image forming device for scanning confocal microscope
JP2000330026A (en) * 1999-05-17 2000-11-30 Keyence Corp Confocal microscope
JP2002090127A (en) * 2000-09-19 2002-03-27 Olympus Optical Co Ltd Three-dimensional information gaining method, cofocal scanning microscope and storage medium readable by computer
JP2002162560A (en) * 2000-11-24 2002-06-07 Sony Corp Optical device and focusing method
JP2003028797A (en) * 2001-07-11 2003-01-29 Hitachi Software Eng Co Ltd Fluorescence reader
JP2005292489A (en) * 2004-03-31 2005-10-20 Topcon Corp Method and device for determining presence or absence of spectacle lens
JP2006126374A (en) * 2004-10-27 2006-05-18 Olympus Corp Image display method, program, and scanning confocal microscope
JP2008083601A (en) * 2006-09-28 2008-04-10 Keyence Corp Confocal microscope, confocal microscope operation method, confocal microscope operation program, and recording medium and recorded equipment which can be read by computer
JP2008134339A (en) * 2006-11-27 2008-06-12 Olympus Corp Confocal microscope

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016014974A (en) * 2014-07-01 2016-01-28 株式会社Screenホールディングス Image processing method and image processor
JP2017134115A (en) * 2016-01-25 2017-08-03 オリンパス株式会社 Microscope device, and image display program

Also Published As

Publication number Publication date
JP5102107B2 (en) 2012-12-19

Similar Documents

Publication Publication Date Title
US8994808B2 (en) Microscope system, surface state observing method, and surface state observing program
JP2014190890A (en) Hardness testing machine and hardness testing method
JP4700299B2 (en) Confocal scanning microscope
JP2005172805A (en) Sample information measuring method and scanning type confocal microscope
JP2006293219A (en) Scanning type confocal microscope and method of measuring sample information
JP6027875B2 (en) Imaging apparatus and microscope system
JP4874069B2 (en) Confocal microscope
US20050013478A1 (en) Microscope system
JP5102107B2 (en) Microscope equipment
JP5259348B2 (en) Height information acquisition device, height information acquisition method, and program
JP2010002758A (en) Confocal scanning type microscopic system
JP4847295B2 (en) Confocal microscope
WO2020012825A1 (en) Image generation device, image generation method, and image generation program
JP5319184B2 (en) Microscope system and microscope control program
JP2010107789A (en) Confocal microscope system
JP2007286284A (en) Confocal scanning type microscopic system and observation method using the same
JP2019020580A (en) Microscope data processing unit, microscope system and microscope data processing program
JP2010121955A (en) Height information acquisition device, height information acquisition method, and program
JP2011237616A (en) Scanning microscope
WO2024014079A1 (en) Cell observation device and imaging method used in cell observation device
JP2019211603A (en) Observed body imaging method using optical observation device, and optical observation device
JP2006126374A (en) Image display method, program, and scanning confocal microscope
JP2016114796A (en) Microscope system, function calculation method and program
JP5269502B2 (en) Image processing method and microscope apparatus
JP5281763B2 (en) Control device, magnification observation system, and method for controlling magnification observation device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110308

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120704

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120710

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120810

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120925

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120927

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151005

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 5102107

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151005

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees
S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371