JP5892424B2 - Image acquisition method, image acquisition device, and scanning microscope - Google Patents

Image acquisition method, image acquisition device, and scanning microscope Download PDF

Info

Publication number
JP5892424B2
JP5892424B2 JP2012087011A JP2012087011A JP5892424B2 JP 5892424 B2 JP5892424 B2 JP 5892424B2 JP 2012087011 A JP2012087011 A JP 2012087011A JP 2012087011 A JP2012087011 A JP 2012087011A JP 5892424 B2 JP5892424 B2 JP 5892424B2
Authority
JP
Japan
Prior art keywords
image
time
image acquisition
acquired
predetermined time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012087011A
Other languages
Japanese (ja)
Other versions
JP2013218042A (en
Inventor
伸一 古田
伸一 古田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2012087011A priority Critical patent/JP5892424B2/en
Publication of JP2013218042A publication Critical patent/JP2013218042A/en
Application granted granted Critical
Publication of JP5892424B2 publication Critical patent/JP5892424B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像取得方法、画像取得装置及び走査型顕微鏡に関する。   The present invention relates to an image acquisition method, an image acquisition device, and a scanning microscope.

走査型顕微鏡等に用いられるポイントスキャン型の画像取得装置は、物体の観察面を点状の照明光で走査しながら離散的にその物体からの反射光又は蛍光を取得して1枚の画像を構成するポイントスキャンを実施する(例えば、特許文献1参照)。   A point scan type image acquisition device used in a scanning microscope or the like acquires a single image by discretely acquiring reflected light or fluorescence from an object while scanning the observation surface of the object with point-like illumination light. The point scan which comprises is implemented (for example, refer patent document 1).

特開2004−212600号公報JP 2004-212600 A

このようなポイントスキャン型の画像取得装置においては、画像取得開始時刻と画像取得終了時刻とに時間差が発生してしまう。したがって、1枚の画像内の各点の取得時刻が異なるため、スキャン速度に対し、変化の速い物体の画像取得には向いていないという課題があった。   In such a point scan type image acquisition apparatus, a time difference occurs between the image acquisition start time and the image acquisition end time. Therefore, since the acquisition time of each point in one image is different, there is a problem that it is not suitable for acquiring an image of an object that changes rapidly with respect to the scanning speed.

本発明はこのような課題に鑑みてなされたものであり、変化の速い物体であってもポイントスキャンにおける時間差を考慮した画像を取得することができる画像取得方法、並びに、この画像取得方法を有する画像取得装置及び走査型顕微鏡を提供することを目的とする。   The present invention has been made in view of such problems, and has an image acquisition method capable of acquiring an image in consideration of a time difference in point scanning even for a rapidly changing object, and the image acquisition method. An object is to provide an image acquisition device and a scanning microscope.

前記課題を解決するために、本発明に係る画像取得方法は、観察面における複数の微小領域の各々の輝度値を取得することにより、観察面の画像を取得する画像取得方法であって、この画像において、複数の微小領域それぞれの輝度値は、互いに異なる時刻で取得された輝度値であり、2枚以上の画像を取得して、前記複数の微小領域それぞれの輝度値を少なくとも2つの時刻で取得し、2つの時刻で取得された微小領域の輝度値に基づいて、所定の時刻における微小領域の輝度値を決定し、所定の時刻における複数の微小領域それぞれの輝度値を用いて、観察面の所定の時刻における画像を生成することを特徴とする。 In order to solve the above problems, an image acquiring method according to the present invention, by obtaining each of the luminance values of a plurality of small regions in the observation plane, an image acquisition method of acquiring an image of the observation plane, the In the image, the luminance values of the plurality of minute regions are the luminance values acquired at different times, and two or more images are acquired, and the luminance values of the plurality of minute regions are obtained at at least two times. Obtaining and determining the brightness value of the micro area at a predetermined time based on the brightness values of the micro area acquired at two times, and using the brightness values of the plurality of micro areas at the predetermined time, An image at a predetermined time is generated.

また、このような画像取得方法は、時刻tにおける座標(i,j)における領域の輝度値をPi,j(t)とし、時刻ta及び時刻tbに取得されたピクセルの輝度値をPi,j(ta)及びPi,j(tb)としたとき、所定の時刻である時刻txの輝度値Pi,j(tx)を、次式

Figure 0005892424
により算出することが好ましい。但し、ta≦tx≦tbとする。 Also, in such an image acquisition method, the luminance value of the region at the coordinates (i, j) at time t is P i, j (t), and the luminance values of the pixels acquired at time ta and time tb are P i. , j (ta) and P i, j (tb), the luminance value P i, j (tx) at time tx, which is a predetermined time , is expressed by the following equation:
Figure 0005892424
It is preferable to calculate by However, ta ≦ tx ≦ tb.

また、本発明にかかる画像取得装置は、観察面における複数の微小領域の各々の輝度値を取得することにより、観察面の画像を取得する画像取得部と、所定の時刻における前記観察面の画像を生成する画像処理部と、を有し、この画像において、複数の微小領域それぞれの輝度値は、互いに異なる時刻で取得された輝度値であり、画像取得部は、2枚以上の画像を取得して、複数の微小領域それぞれの輝度値を少なくとも2つの時刻で取得し、画像処理部は、画像取得部で取得された2つの時刻で取得された微小領域の輝度値に基づいて、所定の時刻における微小領域の輝度値を決定し、所定の時刻における複数の微小領域それぞれの輝度値を用いて、観察面の所定の時刻における画像を生成することを特徴とする。 The image acquisition device according to the present invention includes an image acquisition unit that acquires an image of the observation surface by acquiring the luminance values of each of the plurality of minute regions on the observation surface, and an image of the observation surface at a predetermined time. have a, an image processing unit that generates, in this image, the luminance value of each of the plurality of micro-regions, the luminance values obtained at different times, the image acquisition unit acquires an image of two or more Then, the brightness values of each of the plurality of micro regions are acquired at least at two times, and the image processing unit is configured to perform predetermined processing based on the brightness values of the micro regions acquired at the two times acquired by the image acquisition unit . A luminance value of a minute area at a time is determined, and an image at a predetermined time on the observation surface is generated using the luminance values of the plurality of minute areas at a predetermined time .

また、このような画像取得装置において、画像処理部は、時刻tにおける座標(i,j)における領域の輝度値をPi,j(t)とし、時刻ta及び時刻tbに取得されたピクセルの輝度値をPi,j(ta)及びPi,j(tb)としたとき、所定の時刻である時刻txの輝度値Pi,j(tx)を、次式

Figure 0005892424
により算出して、所定の時刻の画像を生成することが好ましい。但し、ta≦tx≦tbとする。 In such an image acquisition device, the image processing unit sets the luminance value of the region at the coordinates (i, j) at time t as P i, j (t), and the pixels acquired at time ta and time tb. When the luminance values are P i, j (ta) and P i, j (tb), the luminance value P i, j (tx) at time tx, which is a predetermined time , is expressed by the following equation:
Figure 0005892424
It is preferable to generate an image at a predetermined time by calculating by the above . However, ta ≦ tx ≦ tb.

また、本発明に係る走査型顕微鏡は、光源部から照射された照明光により走査手段を用いて標本を走査する照明光学系と、標本からの光を光検出部に導く集光光学系と、照明光の走査に対応して標本上の観察面における複数の微小領域の各々の輝度値を光検出部から取得することにより、観察面の画像を取得する画像取得部と、所定の時刻の観察面の画像を生成する画像処理部と、を有し、画像取得部は、2枚以上の画像を取得して、複数の微小領域それぞれの輝度値を少なくとも2つの時刻で取得し、画像処理部は、画像取得部で取得された2つの時刻で取得された微小領域の輝度値に基づいて、所定の時刻における微小領域の輝度値を決定し、所定の時刻における複数の微小領域それぞれの輝度値を用いて、観察面の所定の時刻における画像を生成することを特徴とする。 Further, the scanning microscope according to the present invention includes an illumination optical system that scans a sample using a scanning unit with illumination light emitted from a light source unit, a condensing optical system that guides light from the sample to a light detection unit, An image acquisition unit that acquires an image of the observation surface by acquiring the brightness value of each of a plurality of minute regions on the observation surface on the specimen corresponding to the scanning of the illumination light, and observation at a predetermined time possess an image processing unit that generates an image of the surface, the image acquisition unit acquires an image of two or more, to get the luminance value of each of the plurality of microscopic regions with at least two times, the image processing unit based on the luminance value of the acquired small area obtained two times were in the image acquiring unit determines the brightness value of the micro-region at a predetermined time, each of the luminance values plurality of microscopic regions at a predetermined time using, at a predetermined time of the observation plane And generating an image.

本発明に係る画像取得方法、並びに、この画像取得方法を有する画像取得装置及び走査型顕微鏡を以上のように構成すると、変化の速い物体であってもポイントスキャンにおける時間差を考慮した画像を取得することができる。   When the image acquisition method according to the present invention, and the image acquisition apparatus and the scanning microscope having the image acquisition method are configured as described above, an image taking into account the time difference in the point scan is acquired even for a rapidly changing object. be able to.

走査型顕微鏡の構成を説明するための説明図である。It is explanatory drawing for demonstrating the structure of a scanning microscope. 観察面の走査方法を説明するための説明図であって、(a)は観察面のピクセルと走査方向の関係を示し、(b)は時刻毎に取得されるピクセルを示す。It is explanatory drawing for demonstrating the scanning method of an observation surface, Comprising: (a) shows the relationship between the pixel of an observation surface, and a scanning direction, (b) shows the pixel acquired for every time. 標本の変化と走査される時刻との関係を説明するための説明図であって、(a)は時刻毎の標本の変化を示し、(b)は変化する標本の画像を取得したときの状態を示す。It is explanatory drawing for demonstrating the relationship between the change of a sample, and the scanning time, (a) shows the change of the sample for every time, (b) is the state when the image of the changing sample is acquired. Indicates. 標本の変化と画像の取得時刻との関係を説明するための説明図であって、(a)は変化する前に取得した画像を示し、(b)は変化の途中で取得した画像を示し、(c)は変化した後に取得した画像を示す。It is explanatory drawing for demonstrating the relationship between the change of a sample, and the acquisition time of an image, Comprising: (a) shows the image acquired before changing, (b) shows the image acquired in the middle of change, (C) shows an image acquired after the change. 標本の変化と取得画像及び補正画像の関係を説明する説明図であって、(a)は標本の輝度の変化を示し、(b)は走査によって所得されるピクセルの輝度値を示し、(c)は取得された画像を示し、(d)は補正された画像を示す。It is explanatory drawing explaining the relationship between the change of a sample, an acquired image, and a correction | amendment image, Comprising: (a) shows the change of the brightness | luminance of a sample, (b) shows the luminance value of the pixel acquired by scanning, (c ) Shows the acquired image, and (d) shows the corrected image. ピクセルp32の時刻t6及び時刻t9に取得された輝度値と、これらの値から求められた時刻t7の輝度値との関係を示す。The relationship between the luminance value acquired at the time t6 and the time t9 of the pixel p32 and the luminance value at the time t7 obtained from these values is shown. 補正画像の時間分解能を高くした場合の標本の変化と取得画像及び補正画像の関係を説明する説明図であって、(a)は標本の輝度の変化を示し、(b)は取得された画像を示し、(c)は補正された画像を示す。It is explanatory drawing explaining the change of the sample at the time of making the time resolution of a correction image high, and the relationship between an acquired image and a correction image, (a) shows the change of the brightness | luminance of a sample, (b) is the acquired image. (C) shows the corrected image. 制御部の構成を説明する説明図である。It is explanatory drawing explaining the structure of a control part. 制御部による画像取得方法を説明するためのフローチャートである。It is a flowchart for demonstrating the image acquisition method by a control part.

以下、本発明の好ましい実施形態について図面を参照して説明する。まず、図1を用いて走査型顕微鏡の構成について説明する。この走査型顕微鏡10は、光源装置20と、この光源装置20から放射されたレーザ光(照明光)をステージ上に載置された標本60に照射して走査する走査光学系30と、標本60からの蛍光(観察光)を検出する検出部40と、を有して構成されている。なお、以降の説明において、走査光学系30の光軸方向をz軸とし、このz軸に直交する面内で互いに直交する方向をそれぞれx軸及びy軸とする。   Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings. First, the configuration of the scanning microscope will be described with reference to FIG. The scanning microscope 10 includes a light source device 20, a scanning optical system 30 that irradiates and scans a sample 60 placed on a stage with laser light (illumination light) emitted from the light source device 20, and a sample 60. And a detection unit 40 for detecting fluorescence (observation light) from the light source. In the following description, the optical axis direction of the scanning optical system 30 is defined as the z axis, and the directions orthogonal to each other in a plane orthogonal to the z axis are defined as the x axis and the y axis, respectively.

この走査型顕微鏡10において、光源装置20は、波長が異なる複数のレーザ光を、同時または個別に射出することが可能に構成された光源を有して構成されている。   In the scanning microscope 10, the light source device 20 includes a light source configured to be able to emit a plurality of laser beams having different wavelengths simultaneously or individually.

走査光学系30は、光源装置20側から順に、ダイクロイックミラー31、走査ユニット32、スキャンレンズ33、第2対物レンズ34、及び、対物レンズ35を有して構成されている。   The scanning optical system 30 includes a dichroic mirror 31, a scanning unit 32, a scan lens 33, a second objective lens 34, and an objective lens 35 in order from the light source device 20 side.

また、検出部40は、ダイクロイックミラー31の側方に配置されており、このダイクロイックミラー31側から順に、集光レンズ41、対物レンズ35の標本側の焦点面と略共役な位置に配置された遮光板42、及び、光検出器43から構成されている。ここで、遮光板42にはピンホール42aが設けられており、このピンホール42aは走査光学系30の光軸を含むように配置されている。なお、光検出器43としては、例えば、PMT(Photo Multiplier Tube:光電子倍増管)が用いられる。   The detection unit 40 is disposed on the side of the dichroic mirror 31, and is sequentially disposed from the dichroic mirror 31 side at a position substantially conjugate with the focal plane on the sample side of the condenser lens 41 and the objective lens 35. The light shielding plate 42 and the photodetector 43 are included. Here, the light shielding plate 42 is provided with a pinhole 42 a, and the pinhole 42 a is disposed so as to include the optical axis of the scanning optical system 30. For example, a PMT (Photo Multiplier Tube) is used as the photodetector 43.

また、この走査型顕微鏡10には、標本60の観察面(走査面)においてレーザ光を走査する位置(標本60上の走査面内の座標)を走査ユニット32により制御し、光検出器43で検出された値(検出された光の強度であって、以降の説明では「輝度値」と呼ぶ)を処理して標本60の観察面の画像を取得する制御部50が設けられている。   In the scanning microscope 10, the scanning unit 32 controls the position (coordinates in the scanning plane on the specimen 60) where the laser beam is scanned on the observation plane (scanning plane) of the specimen 60. A control unit 50 is provided that processes the detected value (the detected light intensity, which will be referred to as “brightness value” in the following description) to acquire an image of the observation surface of the specimen 60.

この走査型顕微鏡10において、光源装置20から放射された略平行光束であるレーザ光は、ダイクロイックミラー31を透過し、走査ユニット32に入射する。この走査ユニット32は、光軸に直交する方向(上述のx軸方向及びy軸方向)にレーザ光を2次元的に走査するものであり、例えば、レーザ光を反射することによりこのレーザ光を光軸に直交する面内で所定の方向(この方向をx軸方向とする)に偏向させる第1の偏向素子、及び、光軸に直交する面内で第1の偏向素子の偏向方向と略直交する方向(この方向をy軸方向とする)に偏向させる第2の偏向素子からなる2つの偏向素子で構成されている。そして、この走査ユニット32を出射したレーザ光(略平行光束)はスキャンレンズ33により一次像面Iに結像された後、第2対物レンズ34を通過することにより再び略平行光束となり対物レンズ35によって標本60上の対物レンズ35の焦点面に集光される。なお、標本60上に集光されたレーザ光は点像となっており、その点像の径は対物レンズ35の開口数(NA)で決まる大きさである。   In the scanning microscope 10, the laser light that is a substantially parallel light beam emitted from the light source device 20 passes through the dichroic mirror 31 and enters the scanning unit 32. The scanning unit 32 scans the laser light two-dimensionally in the direction orthogonal to the optical axis (the above-described x-axis direction and y-axis direction). A first deflection element that deflects in a predetermined direction (this direction is defined as an x-axis direction) in a plane orthogonal to the optical axis, and a deflection direction of the first deflection element in a plane orthogonal to the optical axis. It consists of two deflecting elements comprising a second deflecting element that deflects in an orthogonal direction (this direction is the y-axis direction). The laser light (substantially parallel light beam) emitted from the scanning unit 32 is imaged on the primary image plane I by the scan lens 33 and then passes through the second objective lens 34 to become a substantially parallel light beam again. Thus, the light is condensed on the focal plane of the objective lens 35 on the specimen 60. The laser light focused on the specimen 60 is a point image, and the diameter of the point image is determined by the numerical aperture (NA) of the objective lens 35.

レーザ光が標本60に照射されると、この標本60からは蛍光が発生し、この蛍光は観察光となって対物レンズ35に入射し、この対物レンズ35で略平行光束となり、第2対物レンズ34により一次像面Iに結像される。さらにスキャンレンズ33で略平行光束にされて走査ユニット32に入射し、この走査ユニット32でデスキャンされて出射し、ダイクロイックミラー31で反射されて検出部40内に入り、集光レンズ41により遮光板42のピンホール42a上に集光される。この検出部40において、遮光板42のピンホール42aを通過した光のみが光検出器43に到達し検出される。   When the sample 60 is irradiated with the laser beam, fluorescence is generated from the sample 60, and this fluorescence becomes observation light and enters the objective lens 35. The objective lens 35 becomes a substantially parallel light beam, and the second objective lens. 34 forms an image on the primary image plane I. Further, the light is converted into a substantially parallel light beam by the scan lens 33 and incident on the scanning unit 32, descanned and emitted by the scanning unit 32, reflected by the dichroic mirror 31, and enters the detection unit 40. The light is condensed on the 42 pinholes 42a. In this detection unit 40, only light that has passed through the pinhole 42 a of the light shielding plate 42 reaches the photodetector 43 and is detected.

上述のように、遮光板42のピンホール42aは標本60上の走査面(対物レンズ35の焦点面)に集光されたレーザ光の点像と共役であり、標本60上の照射領域(対物レンズ35の焦点面)から出た観察光(蛍光)はこのピンホール42aを通過することができる。一方、標本60上の他の領域から出た光のほとんどはこのピンホール42a上には集光されず、通過することができない。   As described above, the pinhole 42a of the light shielding plate 42 is conjugate with the point image of the laser beam condensed on the scanning surface (the focal plane of the objective lens 35) on the sample 60, and the irradiation region (objective) on the sample 60. Observation light (fluorescence) emitted from the focal plane of the lens 35 can pass through the pinhole 42a. On the other hand, most of the light emitted from other regions on the specimen 60 is not condensed on the pinhole 42a and cannot pass therethrough.

以上より、走査光学系30は、光源部である光源装置20から放射された照明光により標本60を走査する照明光学系及び走査手段、並びに、標本60からの光を検出部40に導く集光手段の機能を有している。そして、制御部50が走査ユニット32の走査に同期されて光検出器43で検出された光信号を処理することにより、標本60上のレーザ光の走査位置と光信号から求められる輝度値を用いて、標本60の走査面(観察面)における二次元的な画像を得ることができる。すなわち、制御部50は画像取得部及び画像処理部を有する画像取得装置としての機能を有している。これによりこの走査型顕微鏡10は、高い分解能で標本60の画像を得ることができる。   As described above, the scanning optical system 30 is configured to scan the sample 60 with the illumination light emitted from the light source device 20 that is a light source unit, the scanning unit, and the light that guides the light from the sample 60 to the detection unit 40. It has the function of means. Then, the control unit 50 processes the optical signal detected by the photodetector 43 in synchronization with the scanning of the scanning unit 32, thereby using the scanning position of the laser beam on the sample 60 and the luminance value obtained from the optical signal. Thus, a two-dimensional image on the scanning surface (observation surface) of the sample 60 can be obtained. That is, the control unit 50 has a function as an image acquisition device having an image acquisition unit and an image processing unit. As a result, the scanning microscope 10 can obtain an image of the specimen 60 with high resolution.

それではこのような走査型顕微鏡10において、画像取得装置である制御部50によりポイントスキャンを行って、標本60の観察面(走査面)の画像を取得する方法について説明する。まず、説明を簡単にするために、図2(a)に示すように、走査面をx軸方向及びy軸方向にそれぞれ3分割し、3×3の領域をレーザー光により走査して各領域毎に光検出器43から出力される信号(観察光の強度である輝度値)を取得し、標本60の観察面(走査面)の画像を構成する場合について説明する。なお、以降の説明では分割された各領域を「ピクセル」と呼ぶ。また、ここでは、図2(b)に示すように、図2に示すxy平面において、左上のピクセル(p11)から開始し、x軸方向に走査して右上のピクセル(p13)に到達すると、y軸方向中段右端のピクセルに移動してx軸方向の走査を繰り返し、右下のピクセル(p33)まで走査を行う場合について説明する。なお、図2(b)に示す横軸は、各ピクセルにおいて、光検出器43から出力される信号(輝度値)を取得する時刻を表している。   A method for acquiring an image of the observation surface (scanning surface) of the specimen 60 by performing point scanning with the control unit 50 serving as an image acquisition device in the scanning microscope 10 will be described. First, in order to simplify the explanation, as shown in FIG. 2A, the scanning plane is divided into three parts in the x-axis direction and the y-axis direction, respectively, and a 3 × 3 region is scanned with laser light. A case will be described in which a signal (luminance value that is the intensity of observation light) output from the light detector 43 is acquired for each time and an image of the observation surface (scanning surface) of the specimen 60 is formed. In the following description, each divided area is referred to as a “pixel”. Also, here, as shown in FIG. 2B, in the xy plane shown in FIG. 2, starting from the upper left pixel (p11), scanning in the x-axis direction and reaching the upper right pixel (p13), A case will be described in which the pixel is moved to the rightmost pixel in the middle stage in the y-axis direction, the scan in the x-axis direction is repeated, and the scan to the lower right pixel (p33) is performed. The horizontal axis shown in FIG. 2B represents the time at which a signal (luminance value) output from the photodetector 43 is acquired in each pixel.

図3(a)に示すように、走査面の3×3のピクセルのうち、中列の3つのピクセルに観察する標本が配置されているとする。また、この図3(a)に示すように、この標本の走査を時刻T0に開始したときに、時刻T3でその状態が変化する(例えば、図3(a)に示すように、標本の輝度値が0(白色で表現する)から100(黒色で表現する)に変化する)とする。そうすると、制御部50で得られる走査面の画像は図3(b)のようになり、標本の画像のうち、上段のピクセルは輝度値が0の像として取得されるが、中段及び下段のピクセルは輝度値が100の像として取得されることになる。すなわち、標本の変化と走査時間との関係をまとめると、時刻T3よりも前に走査面の走査が完了していると図4(a)のように変化する前の標本の状態が取得でき、時刻T3よりも後に走査を開始すると図4(c)のように変化した後の標本の状態が取得できるが、変化している途中で走査を行うと、図4(b)のように、標本の変化を正しく取得できないことになる。   As shown in FIG. 3A, it is assumed that a specimen to be observed is arranged at three pixels in the middle row among 3 × 3 pixels on the scanning plane. Also, as shown in FIG. 3A, when scanning of this specimen is started at time T0, the state changes at time T3 (for example, as shown in FIG. 3A, the brightness of the specimen is changed). The value changes from 0 (expressed in white) to 100 (expressed in black)). Then, the image of the scanning plane obtained by the control unit 50 is as shown in FIG. 3B, and among the sample images, the upper pixel is acquired as an image having a luminance value of 0, but the middle and lower pixels. Is acquired as an image having a luminance value of 100. That is, when the relationship between the sample change and the scanning time is summarized, if the scanning of the scanning surface is completed before time T3, the state of the sample before the change as shown in FIG. When scanning is started after time T3, the state of the sample after the change as shown in FIG. 4C can be acquired. However, if the scan is performed during the change, the sample as shown in FIG. 4B is obtained. You will not be able to get the changes correctly.

そこで、本実施形態に係る制御部50は、1画像内のピクセル毎の信号(輝度値)取得時刻の差を補間することにより、変化の速い標本の画像取得を可能にするように構成されている。具体的には、ポイントスキャン型で画像取得した2枚以上の画像を用いて、1画像内の各ピクセルの時刻のずれを補間する。   Therefore, the control unit 50 according to the present embodiment is configured to enable image acquisition of a rapidly changing sample by interpolating a difference in signal (luminance value) acquisition time for each pixel in one image. Yes. Specifically, the time lag of each pixel in one image is interpolated using two or more images acquired by the point scan type.

図5(a)は、上述の3×3のピクセルのうち、標本が存在する中列のピクセル(それぞれ、p21,p22,p32とする)の信号(輝度値)取得時刻の変化の状態を示している。なお、この図5においては、走査面の1回の画像(信号、輝度値)取得をフレーム(frame=f)と呼び、各フレームにおいて上述の中列のピクセルの信号(輝度値)取得時刻(time=t)だけを記載している。また、この図5に示す標本は上述の図3のように標本全体が同じ時刻(T3)に変化するのではなく、それぞれの部分が異なる時刻に変化する場合を示している。具体的には、ピクセルp12に相当する部分ではフレームf2の(2回目の画像(信号、輝度値)取得の)時刻t5で輝度値が0から100に変化し、フレームf5の時刻t13で輝度値が100から0に変化している。同様に、ピクセルp22に相当する部分ではフレームf2の時刻t6及びフレームf5の時刻t14で変化し、ピクセルp32に相当する部分ではフレームf3の時刻t7及びフレームf5の時刻t15で変化している。   FIG. 5A shows a change in the signal (luminance value) acquisition time of the middle row of pixels in which the sample exists (p21, p22, and p32, respectively) among the 3 × 3 pixels described above. ing. In FIG. 5, one image (signal, luminance value) acquisition on the scanning plane is called a frame (frame = f), and the signal (luminance value) acquisition time (in the above-mentioned middle column) in each frame ( Only time = t) is described. Further, the sample shown in FIG. 5 shows a case where the whole sample does not change at the same time (T3) as in FIG. 3 described above, but each part changes at a different time. Specifically, in the portion corresponding to the pixel p12, the luminance value changes from 0 to 100 at the time t5 (when the second image (signal, luminance value) is acquired) of the frame f2, and the luminance value at the time t13 of the frame f5. Has changed from 100 to 0. Similarly, the portion corresponding to pixel p22 changes at time t6 of frame f2 and time t14 of frame f5, and the portion corresponding to pixel p32 changes at time t7 of frame f3 and time t15 of frame f5.

図5(b)に示すように、各フレームの各時刻でそれぞれのピクセルの輝度値が取得される。例えば、フレームf1の時刻t1でピクセルp12の輝度値が取得され、時刻t2でピクセルp22の輝度値が取得され、時刻t3でピクセルp32の輝度値が取得される。図5(c)の取得画像は、フレーム毎に、3つのピクセルp12〜p32の取得された輝度値を示している。   As shown in FIG. 5B, the luminance value of each pixel is acquired at each time of each frame. For example, the luminance value of the pixel p12 is acquired at time t1 of the frame f1, the luminance value of the pixel p22 is acquired at time t2, and the luminance value of the pixel p32 is acquired at time t3. The acquired image in FIG. 5C shows the acquired luminance values of the three pixels p12 to p32 for each frame.

本実施形態に係る制御部50は、隣接する2つのフレームの画像(ピクセル毎の輝度値)から、その2つのフレームが画像(信号、輝度値)取得された時刻の間の任意の時刻における画像(これを「補正画像」と呼ぶ)を求めるように構成されている。具体的には、時刻tにおけるx軸方向i番目でy軸方向j番目のピクセル(座標(i,j)のピクセル)の輝度値をPi,j(t)とすると、時刻txのときの輝度値Pi,j(tx)を、この時刻txの前後の時刻ta及び時刻tbに取得されたピクセルの輝度値Pi,j(ta)及びPi,j(tb)を用いて次式(1)により求める。但し、ta≦tx≦tb(ta≠tb)とする。 The control unit 50 according to the present embodiment is an image at an arbitrary time between the images (signals and luminance values) of the two frames acquired from the images (luminance values for each pixel) of two adjacent frames. (This is referred to as a “corrected image”). Specifically, if the luminance value of the i- th pixel in the x-axis direction and the j-th pixel in the y-axis direction (pixel of coordinates (i, j)) at time t is P i, j (t) , the luminance value at time tx The luminance value P i, j (tx) is expressed by the following equation using the pixel luminance values P i, j (ta) and P i, j (tb) acquired at the time ta before and after the time tx and the time tb. Obtained by (1). However, ta ≦ tx ≦ tb (ta ≠ tb).

Figure 0005892424
Figure 0005892424

図5(d)は、各フレームの最初の時刻において補間された補正画像を示している。例えば、フレームf3は、時刻t7のときの補正画像を示している。図6に示すように、このフレームf3において、時刻t7のときのピクセルp32の輝度値は、フレームf2の時刻t6において取得された輝度値0と、フレームf3の時刻t9において取得された輝度値100から、式(1)を用いて輝度値33として求められる。   FIG. 5D shows a corrected image interpolated at the first time of each frame. For example, the frame f3 shows a corrected image at time t7. As shown in FIG. 6, in the frame f3, the luminance value of the pixel p32 at time t7 is the luminance value 0 acquired at time t6 of the frame f2 and the luminance value 100 acquired at time t9 of the frame f3. From this, the luminance value 33 is obtained using the equation (1).

ここで、各ピクセルの輝度値を求める時刻txは任意のタイミングを選択することが可能であり、この時刻を細かく分割することで、取得される画像の時間分解能の向上に利用することができる。例えば、図7(c)に示すように、時刻t1〜t18の全てにおいて上述の式(1)により補間した輝度値を求めると、各時刻における補正画像から、標本の変化を取得することができる。なお、図7(a)は標本の輝度値を示し、図7(b)はフレームf1〜f7で取得された画像を示している。   Here, the time tx for obtaining the luminance value of each pixel can be selected at an arbitrary timing, and by dividing this time finely, it can be used to improve the time resolution of the acquired image. For example, as shown in FIG. 7C, when the luminance value interpolated by the above equation (1) is obtained at all times t1 to t18, the change of the sample can be acquired from the corrected image at each time. . FIG. 7A shows the luminance value of the sample, and FIG. 7B shows the images acquired in the frames f1 to f7.

図8に制御部50の構成を示す。この制御部は、光検出器43から信号を受信するとともに、走査ユニット32の作動を制御して画像取得を行う画像取得部51と、光検出器43から取得した信号(輝度値)を一時的に記憶するバッファメモリ52と、取得した輝度値から各時刻の補間された画像(補正画像)を生成する画像処理部53と、この補正画像を記憶する記憶部54と、から構成される。なお、画像取得部51は、図示しない発振器からのクロック信号に基づいて走査ユニット32を制御することにより、上述した順番で照明光を各ピクセルに対応する走査面上の位置に移動させ、そのタイミングで、光検出器43から出力される輝度値を取得してバッファメモリ52に記憶するように構成されている。   FIG. 8 shows the configuration of the control unit 50. The control unit receives a signal from the photodetector 43 and controls an operation of the scanning unit 32 to acquire an image, and a signal (luminance value) acquired from the photodetector 43 temporarily. A buffer memory 52 for storing the image, an image processing unit 53 for generating an interpolated image (corrected image) at each time from the acquired luminance value, and a storage unit 54 for storing the corrected image. The image acquisition unit 51 controls the scanning unit 32 based on a clock signal from an oscillator (not shown) to move the illumination light to the position on the scanning plane corresponding to each pixel in the order described above, and the timing thereof. Thus, the luminance value output from the photodetector 43 is acquired and stored in the buffer memory 52.

図9に示すように、画像取得部51は、標本の画像取得処理を開始すると、まず、最初のフレームの各ピクセルの輝度値をバッファメモリ52に記憶する(ステップS100)。なお、各ピクセルの輝度値は、その輝度値が取得された時刻と対応付けられて記憶される。この時刻は、それぞれの輝度値が取得された時刻をピクセルと対応付けて記憶するように構成しても良いし、各フレームの画像(信号、輝度値)取得を開始した時刻と終了した時刻とを記憶しておいて、これらの時刻から求めるようにしても良いし、予め各ピクセルが取得される時刻が分かっている場合には、時刻を記憶しなくても良い。この時刻は絶対時刻に限定されることはなく、所定の基準時刻(例えば、上述したように標本の画像(信号、輝度値)取得を開始した時刻)からの相対的な時刻でも良い。   As illustrated in FIG. 9, when the image acquisition unit 51 starts the sample image acquisition process, first, the luminance value of each pixel of the first frame is stored in the buffer memory 52 (step S100). The luminance value of each pixel is stored in association with the time when the luminance value is acquired. This time may be configured to store the time when each luminance value is acquired in association with the pixel, or the time when the acquisition of the image (signal, luminance value) of each frame starts and ends. May be obtained from these times, or when the time at which each pixel is acquired is known in advance, the time need not be stored. This time is not limited to an absolute time, and may be a relative time from a predetermined reference time (for example, the time when acquisition of a sample image (signal, luminance value) is started as described above).

そして、次のフレームになると、最初のピクセルの輝度値を光検出器43から取得しバッファメモリに記憶する(S110)。そして、画像処理部53は、当該ピクセルにおいて、前回のフレームで取得した輝度値をバッファメモリ52から読み出し、今回取得した輝度値とともに、前回の取得時刻から今回の取得時刻までの補間された輝度値を上述の式(1)を用いて算出し、記憶部54に記憶する(ステップS120)。補間する時刻(補正画像を生成する時刻)は、図5に示すように、2つのフレーム(前回のフレーム及び現在のフレーム)の間の1時刻でも良いし、図7に示すように複数の時刻でも良い。そして、現在のフレームにおいて全てのピクセルに対して上述の処理が終了したか否かを判断し(ステップS130)、全てのピクセルに対して終了するまで、上述のステップS110及びステップS120の処理を繰り返す。一方、現在のフレームにおいて全てのピクセルに対して処理が終了したと判断すると、画像取得が終了したか否かを判断し(ステップS140)、次のフレームの画像を取得する場合には、次のフレームの画像を取得する準備をして(ステップS150)、上述したステップS110の処理に戻る。なお、バッファメモリ52は、現在のフレームと前回のフレームの輝度値を記憶するように循環的に使用される。   When the next frame is reached, the luminance value of the first pixel is acquired from the photodetector 43 and stored in the buffer memory (S110). Then, the image processing unit 53 reads the luminance value acquired in the previous frame from the buffer memory 52 in the pixel, and the interpolated luminance value from the previous acquisition time to the current acquisition time together with the luminance value acquired this time. Is calculated using the above equation (1) and stored in the storage unit 54 (step S120). The time to interpolate (the time to generate the corrected image) may be one time between two frames (the previous frame and the current frame) as shown in FIG. 5, or a plurality of times as shown in FIG. But it ’s okay. Then, it is determined whether or not the above-described processing has been completed for all the pixels in the current frame (step S130), and the above-described processing of step S110 and step S120 is repeated until the completion for all the pixels. . On the other hand, if it is determined that the processing has been completed for all the pixels in the current frame, it is determined whether or not the image acquisition is completed (step S140). Preparations for acquiring a frame image are made (step S150), and the process returns to step S110 described above. The buffer memory 52 is used cyclically so as to store the luminance values of the current frame and the previous frame.

本実施形態に係る制御部50の画像取得部51及び画像処理部53により以上の処理を行うことにより、少なくとも2フレームの標本の画像を取得することで、これらの2つのフレームの時刻の間の時刻において補間された標本の画像(補正画像)を取得することができ、ポイントスキャン型における時間差を考慮した標本の画像を取得することができる。   By performing the above processing by the image acquisition unit 51 and the image processing unit 53 of the control unit 50 according to the present embodiment, the image of the sample of at least two frames is acquired, so that the time between these two frames is obtained. A sample image (corrected image) interpolated at the time can be acquired, and a sample image considering a time difference in the point scan type can be acquired.

なお、以上の説明では、2枚の画像を用いて、線形補間した例を示したが、複数画像を用いて補間することも可能である(この場合、補間式は上述の式(1)に限定されず、最小二乗法やベジエ曲線を用いて補間される)。また、これまでの例では、2枚の画像の間の任意の時刻の画像を推定するにとどまっているが、これらの画像から、画像取得前の画像や、画像取得後の画像を推定することも可能である。例えば、図7の場合において、フレームf1、f3、f5の画像を用いて、フレームf2の画像(例えば、時刻t4の画像)を演算により求めたり、フレームf3,f4,f5の画像からフレームf1やフレームf6の画像(例えば、時刻t1や時刻t16の画像)を演算により求めることも可能である。   In the above description, an example in which linear interpolation is performed using two images is shown. However, it is also possible to perform interpolation using a plurality of images (in this case, the interpolation formula is the above formula (1)). It is not limited and is interpolated using the least square method or Bezier curve). Further, in the examples so far, only an image at an arbitrary time between two images is estimated. From these images, an image before image acquisition and an image after image acquisition are estimated. Is also possible. For example, in the case of FIG. 7, by using the images of frames f1, f3, and f5, an image of frame f2 (for example, an image at time t4) is obtained by calculation, or from the images of frames f3, f4, and f5, It is also possible to obtain an image of the frame f6 (for example, an image at time t1 or time t16) by calculation.

また、以上の説明における画像処理部53は、フレーム毎に補正画像を算出して記憶部54に記憶するように構成した場合について説明したが、まず、画像取得部51により複数のフレームの画像を取得し、それらの画像を用いて任意の時刻の補正画像を算出するように構成しても良い。   In the above description, the image processing unit 53 is configured to calculate a corrected image for each frame and store the corrected image in the storage unit 54. First, the image acquisition unit 51 generates images of a plurality of frames. It may be configured to acquire and calculate a corrected image at an arbitrary time using those images.

また、以上の説明においては、本実施形態に係る画像取得装置である制御部50を走査型顕微鏡10に適用した場合について説明したが、この画像取得装置は走査型顕微鏡における画像取得に限定されることはなく、電子顕微鏡やCT(Computed Tomograph)装置、コピー、FAX等に適用することができる。   Moreover, in the above description, although the case where the control part 50 which is an image acquisition apparatus which concerns on this embodiment was applied to the scanning microscope 10 was demonstrated, this image acquisition apparatus is limited to the image acquisition in a scanning microscope. The present invention can be applied to an electron microscope, a CT (Computed Tomograph) apparatus, a copy, a FAX, or the like.

10 走査型顕微鏡 20 光源装置(光源部) 30 走査光学系
40 検出部 43 光検出器
50 制御部(画像取得装置) 51 画像取得部 53 画像処理部
DESCRIPTION OF SYMBOLS 10 Scanning microscope 20 Light source device (light source unit) 30 Scanning optical system 40 Detection unit 43 Photo detector 50 Control unit (image acquisition device) 51 Image acquisition unit 53 Image processing unit

Claims (5)

観察面における複数の微小領域の各々の輝度値を取得することにより、前記観察面の画像を取得する画像取得方法であって、
前記画像において、前記複数の微小領域それぞれの輝度値は、互いに異なる時刻で取得された輝度値であり、
2枚以上の前記画像を取得して、前記複数の微小領域それぞれの輝度値を少なくとも2つの時刻で取得し、
前記2つの時刻で取得された前記微小領域の輝度値に基づいて、所定の時刻における前記微小領域の輝度値を決定し、
前記所定の時刻における前記複数の微小領域それぞれの輝度値を用いて、前記観察面の前記所定の時刻における画像を生成することを特徴とする画像取得方法。
An image acquisition method for acquiring an image of the observation surface by acquiring a luminance value of each of a plurality of minute regions on the observation surface,
In the image, the luminance values of the plurality of minute regions are luminance values acquired at different times,
Obtaining two or more images, and obtaining brightness values of each of the plurality of microscopic regions at at least two times;
Based on the brightness value of the micro area acquired at the two times, determine the brightness value of the micro area at a predetermined time;
An image acquisition method comprising: generating an image of the observation surface at the predetermined time by using a luminance value of each of the plurality of minute regions at the predetermined time .
時刻tにおける座標(i,j)における前記領域の輝度値をPi,j(t)とし、時刻ta及び時刻tbに取得された前記ピクセルの輝度値をPi,j(ta)及びPi,j(tb)としたとき、前記所定の時刻である時刻txの輝度値Pi,j(tx)を、次式
Figure 0005892424
により算出することを特徴とする請求項に記載の画像取得方法。但し、ta≦tx≦tbとする。
The luminance value of the region at the coordinates (i, j) at time t is P i, j (t), and the luminance values of the pixels acquired at time ta and time tb are P i, j (ta) and P i. , j (tb), the luminance value P i, j (tx) at time tx, which is the predetermined time , is expressed by the following equation:
Figure 0005892424
The image acquisition method according to claim 1 , wherein the image acquisition method is calculated by: However, ta ≦ tx ≦ tb.
観察面における複数の微小領域の各々の輝度値を取得することにより、前記観察面の画像を取得する画像取得部と、
所定の時刻における前記観察面の画像を生成する画像処理部と、を有し、
前記画像において、前記複数の微小領域それぞれの輝度値は、互いに異なる時刻で取得された輝度値であり、
前記画像取得部は、2枚以上の前記画像を取得して、前記複数の微小領域それぞれの輝度値を少なくとも2つの時刻で取得し、
前記画像処理部は、
前記画像取得部で取得された前記2つの時刻で取得された前記微小領域の輝度値に基づいて、前記所定の時刻における前記微小領域の輝度値を決定し、
前記所定の時刻における前記複数の微小領域それぞれの輝度値を用いて、前記観察面の前記所定の時刻における画像を生成することを特徴とする画像取得装置。
An image acquisition unit for acquiring an image of the observation surface by acquiring a luminance value of each of a plurality of micro regions on the observation surface;
An image processing unit that generates an image of the observation surface at a predetermined time, the possess,
In the image, the luminance values of the plurality of minute regions are luminance values acquired at different times,
The image acquisition unit acquires two or more images, and acquires the brightness value of each of the plurality of minute regions at at least two times,
The image processing unit
Based on the brightness value of the micro area acquired at the two times acquired by the image acquisition unit, the brightness value of the micro area at the predetermined time is determined,
An image acquisition device that generates an image of the observation surface at the predetermined time using luminance values of the plurality of minute regions at the predetermined time .
前記画像処理部は、時刻tにおける座標(i,j)における前記領域の輝度値をPi,j(t)とし、時刻ta及び時刻tbに取得された前記ピクセルの輝度値をPi,j(ta)及びPi,j(tb)としたとき、前記所定の時刻である時刻txの輝度値Pi,j(tx)を、次式
Figure 0005892424
により算出して、前記所定の時刻の前記画像を生成することを特徴とする請求項に記載の画像取得装置。但し、ta≦tx≦tbとする。
The image processing unit sets the luminance value of the region at the coordinates (i, j) at time t as P i, j (t), and sets the luminance values of the pixels acquired at time ta and time tb as P i, j. (Ta) and P i, j (tb), the luminance value P i, j (tx) at time tx, which is the predetermined time , is expressed by the following equation:
Figure 0005892424
The image acquisition apparatus according to claim 3 , wherein the image at the predetermined time is generated by calculation. However, ta ≦ tx ≦ tb.
光源部から照射された照明光により走査手段を用いて標本を走査する照明光学系と、
前記標本からの光を光検出部に導く集光光学系と、
前記照明光の走査に対応して前記標本上の観察面における複数の微小領域の各々の輝度値を前記光検出部から取得することにより、前記観察面の画像を取得する画像取得部と、
所定の時刻の前記観察面の画像を生成する画像処理部と、を有し、
前記画像取得部は、2枚以上の前記画像を取得して、前記複数の微小領域それぞれの輝度値を少なくとも2つの時刻で取得し、
前記画像処理部は、
前記画像取得部で取得された前記2つの時刻で取得された前記微小領域の輝度値に基づいて、前記所定の時刻における前記微小領域の輝度値を決定し、
前記所定の時刻における前記複数の微小領域それぞれの輝度値を用いて、前記観察面の前記所定の時刻における画像を生成することを特徴とする走査型顕微鏡。
An illumination optical system that scans a sample using a scanning unit with illumination light emitted from a light source unit;
A condensing optical system for guiding light from the specimen to a light detection unit;
An image acquisition unit that acquires an image of the observation surface by acquiring the luminance value of each of a plurality of minute regions on the observation surface on the specimen corresponding to the scanning of the illumination light from the light detection unit ;
An image processing unit that generates an image of the observation surface of the predetermined time, the possess,
The image acquisition unit acquires two or more images, and acquires the brightness value of each of the plurality of minute regions at at least two times,
The image processing unit
Based on the brightness value of the micro area acquired at the two times acquired by the image acquisition unit, the brightness value of the micro area at the predetermined time is determined,
An image of the observation surface at the predetermined time is generated using the luminance value of each of the plurality of minute regions at the predetermined time .
JP2012087011A 2012-04-06 2012-04-06 Image acquisition method, image acquisition device, and scanning microscope Expired - Fee Related JP5892424B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012087011A JP5892424B2 (en) 2012-04-06 2012-04-06 Image acquisition method, image acquisition device, and scanning microscope

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012087011A JP5892424B2 (en) 2012-04-06 2012-04-06 Image acquisition method, image acquisition device, and scanning microscope

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2016036382A Division JP6523992B2 (en) 2016-02-26 2016-02-26 Image acquisition method, image acquisition apparatus and scanning microscope

Publications (2)

Publication Number Publication Date
JP2013218042A JP2013218042A (en) 2013-10-24
JP5892424B2 true JP5892424B2 (en) 2016-03-23

Family

ID=49590216

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012087011A Expired - Fee Related JP5892424B2 (en) 2012-04-06 2012-04-06 Image acquisition method, image acquisition device, and scanning microscope

Country Status (1)

Country Link
JP (1) JP5892424B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016106268A (en) * 2016-02-26 2016-06-16 株式会社ニコン Image acquisition method, image acquisition device, and scanning type microscope
JP7060632B2 (en) 2020-01-17 2022-04-26 ニチアス株式会社 Sound absorption and heat insulation cover and engine unit

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4311936B2 (en) * 2002-12-27 2009-08-12 オリンパス株式会社 Laser scanning microscope
JP5052009B2 (en) * 2005-01-18 2012-10-17 オリンパス株式会社 Scanning microscope and specimen image acquisition method
JP5747429B2 (en) * 2007-08-09 2015-07-15 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー Image processing apparatus and ultrasonic diagnostic apparatus

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016106268A (en) * 2016-02-26 2016-06-16 株式会社ニコン Image acquisition method, image acquisition device, and scanning type microscope
JP7060632B2 (en) 2020-01-17 2022-04-26 ニチアス株式会社 Sound absorption and heat insulation cover and engine unit

Also Published As

Publication number Publication date
JP2013218042A (en) 2013-10-24

Similar Documents

Publication Publication Date Title
JP5784435B2 (en) Image processing apparatus, fluorescence microscope apparatus, and image processing program
JP6146265B2 (en) Microscope system and autofocus method
US11143854B2 (en) Method for imaging a sample using a fluorescence microscope with stimulated emission depletion
US11449964B2 (en) Image reconstruction method, device and microscopic imaging device
JP6035023B2 (en) Method for correcting image distortion in a confocal scanning microscope
US20080251689A1 (en) Scanning optical device and observation method
JP2010101959A (en) Microscope device
JP2006023476A (en) Confocal scanning type microscope
JP2010256530A (en) Microscope device
CN108700732B (en) Method for determining the height and position of object
JP2006293219A (en) Scanning type confocal microscope and method of measuring sample information
JP5892424B2 (en) Image acquisition method, image acquisition device, and scanning microscope
JP4905356B2 (en) Line scanning confocal microscope
WO2010143375A1 (en) Microscope device and control program
JP5019279B2 (en) Confocal microscope and method for generating focused color image
JP6523992B2 (en) Image acquisition method, image acquisition apparatus and scanning microscope
US11256078B2 (en) Continuous scanning for localization microscopy
JP2011237616A (en) Scanning microscope
JP2013088570A (en) Microscope apparatus
JPH09297269A (en) Scanning image input device and scanning probe microscope
JP6003072B2 (en) Microscope equipment
JP2009277618A (en) Magnetic domain structural image acquisition method and scanning transmission electron microscope
JP4694137B2 (en) Scanning laser microscope, control method, and control program
KR20190063027A (en) A method for auto-focus controlling in a line-scanning confocal microscopy and the apparatus therefor
JP7081318B2 (en) Microscope, method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141030

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150812

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150825

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151026

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160211

R150 Certificate of patent or registration of utility model

Ref document number: 5892424

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees