JP5655608B2 - Observation device and image correction program - Google Patents

Observation device and image correction program Download PDF

Info

Publication number
JP5655608B2
JP5655608B2 JP2011024598A JP2011024598A JP5655608B2 JP 5655608 B2 JP5655608 B2 JP 5655608B2 JP 2011024598 A JP2011024598 A JP 2011024598A JP 2011024598 A JP2011024598 A JP 2011024598A JP 5655608 B2 JP5655608 B2 JP 5655608B2
Authority
JP
Japan
Prior art keywords
illumination
observation
image
imaging
illumination light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011024598A
Other languages
Japanese (ja)
Other versions
JP2012163795A (en
Inventor
三村 正文
正文 三村
敬 中川
敬 中川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2011024598A priority Critical patent/JP5655608B2/en
Publication of JP2012163795A publication Critical patent/JP2012163795A/en
Application granted granted Critical
Publication of JP5655608B2 publication Critical patent/JP5655608B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Microscoopes, Condenser (AREA)
  • Picture Signal Circuits (AREA)
  • Studio Devices (AREA)

Description

本発明は、観察対象に対して照明光を照明しながら、観察対象の観察画像を取得する観察装置及び画像補正プログラムに関する。   The present invention relates to an observation apparatus and an image correction program that acquire an observation image of an observation target while illuminating the observation target with illumination light.

顕微鏡装置などの観察装置を用いた細胞観察の分野では、細胞などの観察対象を撮像し、画像解析することが一般的に行われている。この細胞観察においては、観察対象に対して均一な照明分布となる照明光を用いることが望ましいが、実際には観察環境や光源の特性等により不均一の光量分布となる照明光が用いられている。このため、撮像により得られる画像(以下、観察画像)は、照明光の照明ムラが生じた画像となる。この観察画像に生じた照明ムラを除去するために、得られた観察画像に対してシェーディング補正処理などの画像処理を施す、又は、観察対象を観察装置に設置しない状態での画像(以下、非観察画像)を事前に取得しておき、観察画像から非観察画像を減算する画像補正などが行われている。   In the field of cell observation using an observation apparatus such as a microscope apparatus, it is generally performed to capture an image of an observation target such as a cell and perform image analysis. In this cell observation, it is desirable to use illumination light with a uniform illumination distribution for the observation target, but in reality, illumination light with a non-uniform light amount distribution is used depending on the observation environment and the characteristics of the light source. Yes. For this reason, an image obtained by imaging (hereinafter referred to as an observation image) is an image in which illumination unevenness of illumination light occurs. In order to remove the illumination unevenness generated in the observation image, the obtained observation image is subjected to image processing such as shading correction processing, or an image in a state where the observation target is not installed in the observation apparatus (hereinafter, non-observation). Observation image) is acquired in advance, and image correction is performed to subtract the non-observation image from the observation image.

特開2009−151163号公報JP 2009-151163 A

上述したシェーディング補正処理は、画像に含まれる低周波数成分の領域の輝度を高くする補正である。例えば観察対象となる細胞が占有する領域が大きく、該領域が高周波成分から低周波数成分に跨っている観察画像に対してシェーディング補正処理を施した場合、には、シェーディング補正処理後に実行される細胞領域の抽出処理では、細胞の領域を正確に抽出することができないという問題がある。また、非観察画像を事前に取得する場合には、非観察画像の取得時と、観察画像の取得時との照明ムラが変化してしまう場合には対応することができないという欠点がある。   The shading correction process described above is correction for increasing the luminance of the low-frequency component region included in the image. For example, if the area occupied by the cell to be observed is large and the area is subjected to the shading correction process for an observation image that extends from the high frequency component to the low frequency component, the cell executed after the shading correction process In the region extraction process, there is a problem that the cell region cannot be accurately extracted. In addition, when the non-observation image is acquired in advance, there is a drawback that it is not possible to deal with the case where the illumination unevenness between the acquisition of the non-observation image and the acquisition of the observation image changes.

そこで、本発明は、観察画像の取得時に発生する照明ムラを特定することで、観察画像に発生する照明ムラを適切に取り除くことができるようにした観察装置及び画像補正プログラムを提供することを目的とする。   Accordingly, an object of the present invention is to provide an observation apparatus and an image correction program that can appropriately remove the illumination unevenness that occurs in the observation image by specifying the illumination unevenness that occurs when the observation image is acquired. And

上述した課題を解決するために、本発明の観察装置は、観察対象を照明する照明光を発光する光源と、前記照明光により照明される前記観察対象の一部が含まれる領域を撮像範囲とした撮像を行う撮像素子と、前記照明光の光軸と直交する面上で前記光源を移動させる移動機構と、前記光源を移動させていない状態で前記撮像素子により得られる第1画像から、前記観察対象が含まれていない領域を背景領域として設定した後、前記撮像範囲に対する前記背景領域の位置を固定する設定部と、前記背景領域における第1方向及び前記第1方向に直交する第2方向の画素数と、前記撮像素子の有効画素領域における前記第1方向及び前記第2方向の画素数とに基づいて、前記光源を移動させるときの移動量、移動方向及び移動回数を決定する決定部と、前記決定部により決定された前記移動量、前記移動方向及び前記移動回数に基づき前記移動機構を制御し、前記光源及び前記観察対象の相対位置を変更する移動制御部と、前記第1画像と前記光源及び前記観察対象の相対位置を変更しながら前記撮像素子により得られる複数の第2画像とから、前記背景領域をそれぞれ抽出する抽出部と、前記第1画像から抽出された前記背景領域を基準として、前記複数の第2画像から抽出された前記背景領域のそれぞれを前記移動量及び前記移動方向に基づいて配列することで前記照明光の照明分布を取得し、前記撮像範囲における前記照明光の照明ムラを特定する照明ムラ特定部と、を備えたことを特徴とする。 In order to solve the above-described problem, an observation apparatus according to the present invention includes a light source that emits illumination light that illuminates an observation target , and an imaging range that includes a part of the observation target that is illuminated by the illumination light. an imaging device that performs an imaging, a moving mechanism for moving the light source on a plane orthogonal to the optical axis of the illumination light from a first image obtained by the imaging device in a state that is not moving the light source, the A setting unit that fixes a position of the background area with respect to the imaging range after setting an area that does not include an observation target as a background area; and a second direction orthogonal to the first direction and the first direction in the background area And determining the amount of movement, the direction of movement, and the number of movements when moving the light source based on the number of pixels and the number of pixels in the first direction and the second direction in the effective pixel region of the image sensor. A movement control unit that controls the movement mechanism based on the movement amount, the movement direction, and the number of movements determined by the determination unit, and changes a relative position of the light source and the observation target; An extraction unit that extracts each of the background regions from an image and a plurality of second images obtained by the imaging element while changing the relative positions of the light source and the observation target, and the background extracted from the first image With the region as a reference, each of the background regions extracted from the plurality of second images is arranged based on the movement amount and the movement direction to obtain an illumination distribution of the illumination light, and the imaging range in the imaging range An illumination unevenness specifying unit that specifies illumination unevenness of illumination light is provided.

また、本発明の観察装置は、観察対象を照明する照明光を発光する光源と、前記照明光により照明される前記観察対象の一部が含まれる領域を撮像範囲とした撮像を行う撮像素子と、前記照明光の光軸と直交する面上で前記観察対象を移動させる移動機構と、前記観察対象を移動させていない状態で前記撮像素子により得られる第1画像から、前記観察対象が含まれていない領域を背景領域として設定した後、前記観察対象に対する前記背景領域の位置を固定する設定部と、前記背景領域における第1方向及び前記第1方向に直交する第2方向の画素数と、前記撮像素子の有効画素領域における前記第1方向及び前記第2方向の画素数とに基づいて、前記観察対象を移動させるときの移動量、移動方向及び移動回数とを決定する決定部と、前記決定部により決定された前記移動量、前記移動方向及び前記移動回数に基づいて前記移動機構を制御し、前記光源及び前記観察対象の相対位置を変更する移動制御部と、前記第1画像と前記光源及び前記観察対象の相対位置を変更しながら前記撮像素子により得られる複数の第2画像とから、前記背景領域をそれぞれ抽出する抽出部と、前記第1画像から抽出された前記背景領域を基準として、前記複数の第2画像から抽出された前記背景領域のそれぞれを前記移動量及び前記移動方向に基づいて配列することで前記照明光の照明分布を取得し、前記撮像範囲における前記照明光の照明ムラを特定する照明ムラ特定部と、を備えたことを特徴とする。 In addition, the observation apparatus of the present invention includes a light source that emits illumination light that illuminates an observation target, an imaging element that performs imaging with an area including a part of the observation target illuminated by the illumination light as an imaging range, and The observation target is included from a moving mechanism for moving the observation target on a plane orthogonal to the optical axis of the illumination light, and a first image obtained by the imaging element without moving the observation target. After setting a non-existing region as a background region, a setting unit for fixing the position of the background region with respect to the observation target, the first direction in the background region and the number of pixels in the second direction orthogonal to the first direction, A determination unit that determines a movement amount, a movement direction, and a number of movements when the observation target is moved based on the number of pixels in the first direction and the second direction in the effective pixel region of the imaging element; A movement control unit that controls the movement mechanism based on the movement amount, the movement direction, and the number of movements determined by the determination unit, and changes a relative position of the light source and the observation target; the first image; An extraction unit that extracts each of the background regions from a plurality of second images obtained by the imaging element while changing the relative positions of the light source and the observation target, and the background region extracted from the first image as a reference As described above, an illumination distribution of the illumination light is obtained by arranging each of the background regions extracted from the plurality of second images based on the movement amount and the movement direction, and the illumination light in the imaging range is obtained. An illumination unevenness identifying unit that identifies illumination unevenness is provided.

また、前記第1画像及び前記複数の第2画像から抽出される前記背景領域に含まれる画素の画素値は、前記観察対象に照射される前記照明光のうち、前記撮像素子の撮像範囲を照明する前記照明光の輝度値からなることが好ましい。 Further, the pixel value of the pixel included in the background region extracted from the first image and the plurality of second images illuminates the imaging range of the imaging element among the illumination light irradiated to the observation target. It is preferable to consist of the luminance value of the illumination light.

また、前記照明ムラ特定部は、前記第1画像及び前記複数の第2画像から抽出され前記背景領域に含まれる画素の画素値を用いた最小二乗法により、前記照明光の照明ムラを特定することが好ましい。 Furthermore, the illumination unevenness specifying unit, by the least squares method using pixel values of pixels in the background area that will be extracted from the first image and the plurality of second images, identifies the illumination unevenness of the illumination light It is preferable to do.

また、前記撮像素子は、前記第1画像及び前記複数の第2画像の他に、観察用画像を撮像することが可能であり、前記観察用画像と前記照明光の照明ムラとを用いて、前記観察用画像を補正する画像補正部を備えていることが好ましい。 In addition to the first image and the plurality of second images , the imaging element can capture an observation image, and using the observation image and illumination unevenness of the illumination light, It is preferable that an image correction unit that corrects the observation image is provided.

また、本発明の画像補正プログラムは、照明光を発光して観察対象を照明する照明工程と、前記照明光により照明される前記観察対象の一部が含まれる領域を撮像範囲とした撮像を行うことで、第1画像を取得する第1撮像工程と、取得された前記第1画像から、前記観察対象が含まれていない領域を背景領域として設定した後、前記撮像範囲に対する前記背景領域の位置を固定する設定工程と、前記背景領域における第1方向及び前記第1方向に直交する第2方向の画素数と、前記撮像を行う撮像素子の有効画素領域における前記第1方向及び前記第2方向の画素数とに基づいて、前記照明光の照明範囲を移動させるときの移動量、移動方向及び移動回数を決定する決定工程と、決定された前記移動量、前記移動方向及び前記移動回数に基づき前記照明光の照明範囲を移動させて、前記照明光の照明範囲及び前記観察対象の相対位置を変更する移動工程と、前記照明光の照明範囲及び前記観察対象の相対位置を変更させながら、複数の第2画像を撮像する第2の撮像工程と、前記第1画像と前記複数の第2画像とから前記背景領域をそれぞれ抽出する抽出工程と、前記第1画像から抽出された前記背景領域を基準として、前記複数の第2画像から抽出された前記背景領域のそれぞれを前記移動量及び前記移動方向に基づいて配列することで前記照明光の照明分布を取得し、前記撮像範囲における前記照明光の照明ムラを特定する照明ムラ特定工程と、をコンピュータに実行させることが可能なものである。
また、本発明の画像補正プログラムは、照明光を発光して観察対象を照明する照明工程と、前記照明光により照明される前記観察対象の一部が含まれる領域を撮像範囲とした撮像を行うことで、第1画像を取得する第1撮像工程と、取得された前記第1画像から、前記観察対象が含まれていない領域を背景領域として設定した後、前記観察対象に対する前記背景領域の位置を固定する設定工程と、前記背景領域における第1方向及び前記第1方向に直交する第2方向の画素数と、前記撮像を行う撮像素子の有効画素領域における前記第1方向及び前記第2方向の画素数とに基づいて、前記観察対象を移動させるときの移動量、移動方向及び移動回数を決定する決定工程と、決定された前記移動量、前記移動方向及び前記移動回数に基づき前記観察対象を移動させて、前記照明光の照明範囲及び前記観察対象の相対位置を変更する移動工程と、前記照明光の照明範囲及び前記観察対象の相対位置を変更させながら、複数の第2画像を撮像する第2の撮像工程と、前記第1画像と前記複数の第2画像とから前記背景領域をそれぞれ抽出する抽出工程と、前記第1画像から抽出された前記背景領域を基準として、前記複数の第2画像から抽出された前記背景領域のそれぞれを前記移動量及び前記移動方向に基づいて配列することで前記照明光の照明分布を取得し、前記撮像範囲における前記照明光の照明ムラを特定する照明ムラ特定工程と、をコンピュータに実行させることが可能なものである。
In addition, the image correction program of the present invention performs an imaging process in which an illumination process that emits illumination light to illuminate an observation target and an area that includes a part of the observation target that is illuminated by the illumination light is included in an imaging range. Thus, after setting the first imaging step for acquiring the first image, and from the acquired first image, an area that does not include the observation target as a background area, the position of the background area with respect to the imaging range A first step in the background region and the number of pixels in the second direction orthogonal to the first direction, and the first direction and the second direction in the effective pixel region of the image sensor that performs the imaging. A determination step of determining a movement amount, a movement direction, and a number of movements when moving the illumination range of the illumination light based on the number of pixels, and based on the determined movement amount, the movement direction, and the number of movements. Moving the illumination range of the illumination light, changing the illumination range of the illumination light and the relative position of the observation object, and changing the illumination range of the illumination light and the relative position of the observation object, A second imaging step of imaging a plurality of second images, an extraction step of extracting the background regions from the first image and the plurality of second images, respectively, and the background regions extracted from the first images The illumination distribution of the illumination light is obtained by arranging each of the background regions extracted from the plurality of second images based on the movement amount and the movement direction with reference to the illumination area, and the illumination in the imaging range It is possible to cause the computer to execute an illumination unevenness specifying step for specifying light illumination unevenness.
In addition, the image correction program of the present invention performs an imaging process in which an illumination process that emits illumination light to illuminate an observation target and an area that includes a part of the observation target that is illuminated by the illumination light is included in an imaging range. Thus, after setting the first imaging step for acquiring the first image and the area that does not include the observation target as the background area from the acquired first image, the position of the background area with respect to the observation target A first step in the background region and the number of pixels in the second direction orthogonal to the first direction, and the first direction and the second direction in the effective pixel region of the image sensor that performs the imaging. A determination step of determining a movement amount, a movement direction, and the number of movements when moving the observation target based on the number of pixels, and based on the determined movement amount, the movement direction, and the number of movements Moving the observation object to change the illumination range of the illumination light and the relative position of the observation object, and changing the illumination range of the illumination light and the relative position of the observation object, and a plurality of second images With reference to the second imaging step of capturing the image, the extraction step of extracting the background region from each of the first image and the plurality of second images, and the background region extracted from the first image as a reference An illumination distribution of the illumination light is obtained by arranging each of the background regions extracted from a plurality of second images based on the movement amount and the movement direction, and uneven illumination of the illumination light in the imaging range is obtained. It is possible to cause the computer to execute the illumination unevenness identification process to be identified.

本発明によれば、観察画像の取得時に発生する照明ムラを特定することで、観察画像に発生する照明ムラを適切に取り除くことができる。   According to the present invention, it is possible to appropriately remove the illumination unevenness that occurs in the observation image by specifying the illumination unevenness that occurs when the observation image is acquired.

本発明の観察装置の構成の一例を示す図である。It is a figure which shows an example of a structure of the observation apparatus of this invention. 撮像範囲及び撮像範囲から設定される背景領域の一例を示す図である。It is a figure which shows an example of the background area | region set from an imaging range and an imaging range. 光源を移動させる前の照明光の照明範囲、撮像範囲及び背景領域を示す図である。It is a figure which shows the illumination range, imaging range, and background area | region of the illumination light before moving a light source. 光源移動機構により光源を−X方向に移動させたときの照明光の照明範囲、撮像範囲及び背景領域を示す図である。It is a figure which shows the illumination range, imaging range, and background area | region of illumination light when a light source is moved to -X direction with a light source movement mechanism. 照明光の照明範囲と、光源を−X方向に5回、−Y方向に5回、計25回移動させたときに得られる撮像範囲における照明分布の位置とを示す図である。It is a figure which shows the illumination range of illumination light, and the position of the illumination distribution in the imaging range obtained when a light source is moved 5 times in a -X direction, 5 times in a -Y direction, and a total of 25 times. 観察装置により被検物を観察するときに得られる観察画像データに対して画像補正を実行する際の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process at the time of performing image correction with respect to the observation image data obtained when observing a test object with an observation apparatus.

以下、本発明の観察装置の構成を図1に示す。図1に示すように、観察装置10は、観察ユニット11及びコンピュータ(PC)12などから構成され、これらが例えば接続ケーブルなどの有線により電気的に接続される。これにより、観察ユニット11から各種画像データをコンピュータ12に向けて出力することができる他、コンピュータ12から観察ユニット11に向けて、動作信号を出力することができる。なお、本実施形態では、観察ユニット11及びコンピュータ12から観察装置10を構成しているが、これに限定される必要はなく、本発明の観察ユニット11を観察装置とし、該観察装置とコンピュータとを有線等により接続した観察システムであってもよい。なお、図1においては、観察ユニット11は要部のみを記載している。   The configuration of the observation apparatus of the present invention is shown in FIG. As shown in FIG. 1, the observation apparatus 10 includes an observation unit 11 and a computer (PC) 12, which are electrically connected by wire such as a connection cable. Thereby, various image data can be output from the observation unit 11 toward the computer 12, and an operation signal can be output from the computer 12 toward the observation unit 11. In the present embodiment, the observation apparatus 10 includes the observation unit 11 and the computer 12. However, the present invention is not limited to this, and the observation unit 11 of the present invention is an observation apparatus. May be an observation system that is connected by wire or the like. In FIG. 1, only the main part of the observation unit 11 is shown.

この観察装置10は、観察対象となる被検物35の画像観察の際に、照明光の照明ムラを特定するための画像(以下、参照画像)を、光源21及び被検物35の相対位置を変更する前と、光源21及び被検物35の相対位置を複数回変更した後のそれぞれで取得する。以下では、光源21を移動させることで、光源21及び被検物35の相対位置を変更する場合について説明する。また、観察装置10は、これら参照画像を取得した後、光源21及び被検物35の相対位置を初期の状態に戻して、被検物35を観察するための画像(以下、観察画像)を取得する。   The observation apparatus 10 displays an image (hereinafter referred to as a reference image) for specifying illumination unevenness of illumination light when observing an image of the test object 35 to be observed as a relative position between the light source 21 and the test object 35. Before the change, and after changing the relative positions of the light source 21 and the test object 35 a plurality of times. Below, the case where the relative position of the light source 21 and the test object 35 is changed by moving the light source 21 is demonstrated. In addition, after acquiring these reference images, the observation device 10 returns the relative positions of the light source 21 and the test object 35 to an initial state, and displays an image for observing the test object 35 (hereinafter, an observation image). get.

観察ユニット11は、光源21からの照明光を用いて、図示を省略したステージに載置される被検物35を、その下方から照明し、被検物35を透過する光を撮像素子27にて受光することで、被検物の観察画像を取得する、所謂透過型の観察ユニットから構成される。ここで、被検物としては、プレパラート、培養される細胞が内包されるシャーレ、フラスコ、ペトリディッシュ或いはウェルプレートなどの培養容器が挙げられる。なお、図1においては、プレパラートを被検物とした場合について記載している。   The observation unit 11 uses the illumination light from the light source 21 to illuminate the test object 35 placed on the stage (not shown) from below, and the light transmitted through the test object 35 is transmitted to the image sensor 27. By receiving light in this manner, it is composed of a so-called transmission type observation unit that acquires an observation image of the test object. Here, examples of the test substance include culture containers such as preparations, petri dishes containing flasks to be cultured, flasks, petri dishes, and well plates. In addition, in FIG. 1, it has described about the case where a preparation is made into a test object.

この観察ユニット11は、光源21、光源移動機構22、集光光学系23、対物光学系24、レンズ駆動機構25、結像光学系26、撮像素子27、A/D変換器28、バッファメモリ29、コントローラ30及びインターフェイス(I/F)31などを備えている。   The observation unit 11 includes a light source 21, a light source moving mechanism 22, a condensing optical system 23, an objective optical system 24, a lens driving mechanism 25, an imaging optical system 26, an image sensor 27, an A / D converter 28, and a buffer memory 29. , A controller 30 and an interface (I / F) 31.

光源21は、例えばランプ、LED、レーザ光発振器などが用いられる。この光源21は、図示を省略したステージ上に載置される被検物35に向けて照明光を発光する。この照明光は、その光軸LがZ方向に平行となる光である。光源移動機構22は、光源21を、光軸Lに直交する平面、言い換えればXY平面上で移動させる。なお、光源移動機構22による光源21の移動方法や、光源21の移動量については、後述する。   As the light source 21, for example, a lamp, an LED, a laser light oscillator, or the like is used. The light source 21 emits illumination light toward a test object 35 placed on a stage (not shown). This illumination light is light whose optical axis L is parallel to the Z direction. The light source moving mechanism 22 moves the light source 21 on a plane orthogonal to the optical axis L, in other words, on the XY plane. Note that the method of moving the light source 21 by the light source moving mechanism 22 and the amount of movement of the light source 21 will be described later.

集光光学系23は、光源21からの照明光を平行光に変換する。この平行光に変換された照明光は、ステージの下方から被検物35を照明する。被検物35の下方から被検物35を照明する照明光の一部は被検物35を透過し、対物光学系24に入射する。対物光学系24を出射した照明光は、結像光学系26に入射する。結像光学系26は、対物光学系24から出射する照明光を撮像素子27の撮像面に結像する。なお、レンズ駆動機構25は、焦点調整時に対物光学系24を光軸Lに沿って移動させる。   The condensing optical system 23 converts the illumination light from the light source 21 into parallel light. The illumination light converted into the parallel light illuminates the test object 35 from below the stage. Part of the illumination light that illuminates the test object 35 from below the test object 35 passes through the test object 35 and enters the objective optical system 24. The illumination light emitted from the objective optical system 24 enters the imaging optical system 26. The imaging optical system 26 images the illumination light emitted from the objective optical system 24 on the imaging surface of the imaging element 27. The lens driving mechanism 25 moves the objective optical system 24 along the optical axis L during focus adjustment.

撮像素子27は、例えばCCDイメージセンサやCMOSイメージセンサが用いられる。この撮像素子27は、結像光学系26により結像された照明光を受光することで、被検物35の光学像を取得する。この撮像素子27における撮像範囲が、被検物35の観察時の観察視野範囲となる。この撮像素子27により得られる光学像に基づく画像信号は、A/D変換器28に出力する。   As the image sensor 27, for example, a CCD image sensor or a CMOS image sensor is used. The imaging element 27 receives the illumination light imaged by the imaging optical system 26 to acquire an optical image of the test object 35. The imaging range in the imaging element 27 is an observation visual field range when observing the test object 35. An image signal based on the optical image obtained by the image sensor 27 is output to the A / D converter 28.

A/D変換器28は、撮像素子27から出力されるアナログの画像信号をデジタルの画像信号に変換する。このA/D変換部20によりデジタルの画像信号に変換された画像信号は、バッファメモリ29に書き込まれる。   The A / D converter 28 converts the analog image signal output from the image sensor 27 into a digital image signal. The image signal converted into a digital image signal by the A / D conversion unit 20 is written in the buffer memory 29.

コントローラ30は、光源21の点灯/消灯制御、光源移動機構22やレンズ駆動機構25の駆動制御、さらには撮像素子27における撮像制御を実行する。インターフェイス31は、コンピュータ12のインターフェイス50と接続ケーブルなどの有線により電気的に接続される。   The controller 30 performs lighting / extinguishing control of the light source 21, driving control of the light source moving mechanism 22 and the lens driving mechanism 25, and imaging control in the imaging element 27. The interface 31 is electrically connected to the interface 50 of the computer 12 by wire such as a connection cable.

コンピュータ12は、観察ユニット11による各種動作を実行させるために設けられる。このコンピュータ12は、CPU41、メモリ42、バッファメモリ43、画像メモリ44、画像処理回路45、画像補正回路46、表示装置47、表示制御回路48、操作部49及びインターフェイス(I/F)50等から構成される。なお、CPU41、メモリ42、バッファメモリ43、画像メモリ44、画像処理回路45、画像補正回路46、表示制御回路48及びインターフェイス50は、バス51を介して電気的に接続される。   The computer 12 is provided to execute various operations by the observation unit 11. The computer 12 includes a CPU 41, a memory 42, a buffer memory 43, an image memory 44, an image processing circuit 45, an image correction circuit 46, a display device 47, a display control circuit 48, an operation unit 49, an interface (I / F) 50, and the like. Composed. Note that the CPU 41, the memory 42, the buffer memory 43, the image memory 44, the image processing circuit 45, the image correction circuit 46, the display control circuit 48, and the interface 50 are electrically connected via the bus 51.

CPU41は、メモリ42に記憶された制御プログラムに基づいてコンピュータ12の各部を制御する。また、CPU41は、メモリ42に記憶された動作プログラムに基づく動作信号を観察ユニット11に出力する。ここでは、詳細を省略するが、CPU41は、メモリ42に記憶された背景領域の位置データと、画像メモリ44に記憶された参照画像データとを用いて、被検物35を照明する照明光の輝度分布の状態を示す照明分布データを生成する。なお、背景領域を設定する手順や、照明分布データを生成する手順については、後述する。   The CPU 41 controls each part of the computer 12 based on a control program stored in the memory 42. Further, the CPU 41 outputs an operation signal based on the operation program stored in the memory 42 to the observation unit 11. Here, although details are omitted, the CPU 41 uses the position data of the background area stored in the memory 42 and the reference image data stored in the image memory 44 to transmit the illumination light that illuminates the test object 35. Illumination distribution data indicating the state of the luminance distribution is generated. The procedure for setting the background region and the procedure for generating the illumination distribution data will be described later.

メモリ42は、上述した制御プログラムや動作プログラムなどが記憶される他、後述する背景領域の位置データが記憶される。バッファメモリ43は、観察ユニット11から出力された観察画像データ、照明分布データ、画像補正(シェーディング補正)が施された観察画像データの他、画像処理後の画像データが記憶される。なお、画像処理後の画像データとしては、例えば観察が開始された直後に得られる参照画像データや、画像補正済みの観察画像データに対して画像処理を施した後の画像データが挙げられる。画像メモリ44は、観察ユニット11から出力される参照画像データが複数記憶される。なお、画像メモリ44に記憶される参照画像データには、光源21の位置データが付帯される。   The memory 42 stores the above-described control program, operation program, and the like, as well as background area position data, which will be described later. The buffer memory 43 stores observation image data output from the observation unit 11, illumination distribution data, observation image data subjected to image correction (shading correction), and image data after image processing. The image data after image processing includes, for example, reference image data obtained immediately after the observation is started, and image data after image processing is performed on the observation-corrected observation image data. The image memory 44 stores a plurality of reference image data output from the observation unit 11. The reference image data stored in the image memory 44 is accompanied by the position data of the light source 21.

画像処理回路45は、観察を開始した直後に取得される参照画像データや観察画像データに対して、ホワイトバランス処理、色補間処理、階調変換処理などの画像処理を施す。なお、これら画像処理の各処理の内容は周知であることから、ここでは、詳細を省略する。この画像処理回路45により画像処理が施された画像データは、バッファメモリ43に記憶される。   The image processing circuit 45 performs image processing such as white balance processing, color interpolation processing, and gradation conversion processing on the reference image data and observation image data acquired immediately after the start of observation. Since the contents of each of these image processes are well known, details are omitted here. Image data that has been subjected to image processing by the image processing circuit 45 is stored in the buffer memory 43.

画像補正回路46は、バッファメモリ43に一時記憶された観察画像データを、照明分布データを用いて補正する。なお、この補正としては、観察画像データの各画素の画素値(輝度値)から、照明分布データの各画素の画素値(輝度値)を減算する処理である。なお、この画像補正が施された観察画像データは、再度バッファメモリ43に記憶される。   The image correction circuit 46 corrects the observation image data temporarily stored in the buffer memory 43 using the illumination distribution data. This correction is a process of subtracting the pixel value (luminance value) of each pixel of the illumination distribution data from the pixel value (luminance value) of each pixel of the observation image data. Note that the observation image data subjected to the image correction is stored in the buffer memory 43 again.

表示装置47は、例えばLCDパネルや有機ELパネルなどから構成される。この表示装置47は、観察を開始した直後に取得される参照画像、観察画像、設定用画像などを表示する。この表示装置47における表示制御は、表示制御回路48により実行される。   The display device 47 is composed of, for example, an LCD panel or an organic EL panel. The display device 47 displays a reference image, an observation image, a setting image, and the like acquired immediately after the observation is started. Display control in the display device 47 is executed by a display control circuit 48.

操作部49は、例えばキーボードやマウスなどから構成される。これらキーボードやマウスを操作したときに、これら操作に基づく操作信号がCPU41に入力される。なお、操作部49は、例えば表示装置47に表示される参照画像に対して、背景領域を指定する際に操作される。インターフェイス50は、観察ユニット11のインターフェイス31と接続ケーブルなどの有線により電気的に接続される。   The operation unit 49 includes, for example, a keyboard and a mouse. When these keyboard and mouse are operated, operation signals based on these operations are input to the CPU 41. Note that the operation unit 49 is operated, for example, when a background area is designated for a reference image displayed on the display device 47. The interface 50 is electrically connected to the interface 31 of the observation unit 11 by wire such as a connection cable.

次に、背景領域の設定について説明する。例えば、観察を開始した直後に実行される撮像素子27における撮像により参照画像が取得されると、該参照画像が表示装置47に表示される。ユーザは、操作部49を操作して背景領域を指定する。操作部49がマウスであれば、マウスを操作して、表示装置47に表示されるマウスポインタを参照画像上に移動させた後、マウスをドラック操作して背景領域を指定する。なお、図2においては、参照画像55に対して、枠56で囲まれる領域57がマウスのドラック操作により指定された領域となる。   Next, setting of the background area will be described. For example, when the reference image is acquired by imaging with the imaging device 27 that is executed immediately after the observation is started, the reference image is displayed on the display device 47. The user operates the operation unit 49 to designate the background area. If the operation unit 49 is a mouse, the mouse is operated to move the mouse pointer displayed on the display device 47 onto the reference image, and then the mouse is dragged to specify the background area. In FIG. 2, an area 57 surrounded by a frame 56 with respect to the reference image 55 is an area designated by a mouse drag operation.

この操作を受けて、CPU41は、マウスのドラック操作に伴う矩形の領域57を背景領域として設定し、設定した背景領域の位置データをメモリ42に記憶する。この背景領域の位置データは、マウスのドラック操作の開始点に対応する参照画像の画素の位置データと、マウスのドラック操作の終了点に対応する参照画像の画素の位置データとからなる。なお、背景領域57を設定する方法として、ユーザによるマウスのドラック操作を挙げているが、これに限定される必要はなく、参照画像55から自動的に背景領域57を設定することも可能である。   In response to this operation, the CPU 41 sets a rectangular area 57 associated with the mouse drag operation as a background area, and stores the set position data of the background area in the memory 42. The position data of the background area is composed of pixel position data of the reference image corresponding to the start point of the mouse drag operation and position data of the pixel of the reference image corresponding to the end point of the mouse drag operation. As a method for setting the background region 57, mouse drag operation by the user is mentioned, but the present invention is not limited to this, and the background region 57 can be automatically set from the reference image 55. .

次に、光源21を移動させるときの移動量の設定について説明する。上述したように、表示装置47に表示される参照画像に対して、操作部49を操作することで背景領域が設定される。この背景領域の設定により、メモリ42には背景領域の位置データが記憶される。CPU41は、メモリ42に記憶される背景領域の位置データを読み出す。CPU41は、読み出した背景領域の位置データから、背景領域におけるX方向及びY方向の各方向における画素数を求める。そして、CPU41は、求めた背景領域におけるX方向及びY方向における画素数に基づいて、光源21のX方向への移動量と、Y方向への移動量とを決定する。   Next, the setting of the movement amount when moving the light source 21 will be described. As described above, the background area is set by operating the operation unit 49 on the reference image displayed on the display device 47. With this background area setting, the memory 42 stores the position data of the background area. The CPU 41 reads the position data of the background area stored in the memory 42. The CPU 41 obtains the number of pixels in each direction of the X direction and the Y direction in the background area from the read position data of the background area. Then, the CPU 41 determines the amount of movement of the light source 21 in the X direction and the amount of movement in the Y direction based on the obtained number of pixels in the X direction and Y direction in the background region.

また、CPU41は、光源21をX方向に移動させる回数(X方向への移動回数)と、Y方向への移動回数とを決定する。例えば撮像素子27の有効画素領域におけるX方向及びY方向の各方向における画素数は予め設定されていることから、CPU41は、背景領域におけるX方向及びY方向の各方向における画素数と、撮像素子27の有効画素領域におけるX方向及びY方向の各方向における画素数とから、光源21のX方向への移動回数と、Y方向への移動回数とを求める。そして、CPU41は、光源21のX方向への移動量、光源21のY方向への移動量、光源21のX方向への移動回数及びY方向への移動回数をコントローラ30に出力する。コントローラ30は、コンピュータ12からの駆動信号を受けて、これらデータを参照しながら、光源21の移動制御を実行する。なお、光源21の移動制御としては、例えば、−X方向に光源21を移動させる動作を複数回行い、光源21をX方向の初期位置に戻した後、−Y方向に光源21を移動させて、再度−X方向に光源21を移動させる動作を複数回行う制御や、−X方向に光源21を移動させる動作を複数回行った後、Y方向に光源21を移動させ、X方向に光源21を移動させる動作を複数回行う制御などが挙げられる。この光源21の移動制御に併せて、コントローラ30は、撮像素子21を制御し、撮像素子21における撮像処理を実行させる。   Further, the CPU 41 determines the number of times the light source 21 is moved in the X direction (number of times of movement in the X direction) and the number of times of movement in the Y direction. For example, since the number of pixels in each of the X and Y directions in the effective pixel area of the image sensor 27 is set in advance, the CPU 41 determines the number of pixels in each of the X and Y directions in the background area, and the image sensor. The number of movements of the light source 21 in the X direction and the number of movements in the Y direction are obtained from the number of pixels in each of the X and Y directions in the 27 effective pixel regions. Then, the CPU 41 outputs to the controller 30 the amount of movement of the light source 21 in the X direction, the amount of movement of the light source 21 in the Y direction, the number of movements of the light source 21 in the X direction, and the number of movements in the Y direction. The controller 30 receives the drive signal from the computer 12 and executes movement control of the light source 21 while referring to these data. As the movement control of the light source 21, for example, the operation of moving the light source 21 in the -X direction is performed a plurality of times, the light source 21 is returned to the initial position in the X direction, and then the light source 21 is moved in the -Y direction. After performing the control of moving the light source 21 in the −X direction a plurality of times or performing the operation of moving the light source 21 in the −X direction a plurality of times, the light source 21 is moved in the Y direction and the light source 21 is moved in the X direction. For example, a control for performing the operation of moving a plurality of times. In conjunction with the movement control of the light source 21, the controller 30 controls the image sensor 21 and causes the image sensor 21 to execute an image capturing process.

最後に、照明分布データを生成する手順について説明する。CPU41は、メモリ42に記憶された背景領域の位置データを読み出す。そして、CPU41は、画像メモリ44に記憶される参照画像データを読み出して、背景領域の位置データに対応する画素の画素値を各参照画像データから抽出する。次に、CPU41は、参照画像データの背景領域を、参照画像データに付帯される光源の位置データと、光源21のX方向への移動量及びY方向への移動量とを参照し、配列する。   Finally, a procedure for generating illumination distribution data will be described. The CPU 41 reads the position data of the background area stored in the memory 42. Then, the CPU 41 reads the reference image data stored in the image memory 44 and extracts the pixel value of the pixel corresponding to the position data of the background area from each reference image data. Next, the CPU 41 arranges the background area of the reference image data with reference to the position data of the light source attached to the reference image data, the amount of movement of the light source 21 in the X direction, and the amount of movement in the Y direction. .

図3は、光源21を移動させる前に実行される撮像素子27における撮像範囲と、照明光の照明範囲とを示す。図3では、照明光の照明範囲60に対して、撮像素子27における撮像範囲を枠61で示している。また、枠62に囲まれる領域63が背景領域である。   FIG. 3 shows an imaging range in the imaging device 27 and an illumination range of illumination light that are executed before the light source 21 is moved. In FIG. 3, the imaging range in the imaging device 27 is indicated by a frame 61 with respect to the illumination range 60 of the illumination light. An area 63 surrounded by the frame 62 is a background area.

図3に示す状態を初期状態として、光源21を−X方向に移動させると、照明光の照明範囲60も−X方向に移動する。この光源21の−X方向への移動に対して、被検物35や撮像素子27は固定である。図4は、光源21を−X方向へ移動させた場合の照明光の照明範囲と、撮像素子27における撮像範囲及び背景領域との位置関係を示す。なお、図4においては、一点鎖線で囲まれる範囲61が光源21を移動させる前の撮像素子27の撮像範囲、実線で囲まれる範囲61’が光源21を−X方向へ移動させたときの撮像素子27の撮像範囲である。また、点線で囲まれる領域63が光源21を移動させる前の背景領域であり、実線で囲まれる領域63’が光源21を−X方向へ移動させたときの背景領域である。ここで、光源21の移動に伴って移動する照明範囲60を基準に考慮すると、光源21の−X方向への移動時には、撮像素子21の撮像範囲61や背景領域63はX方向に移動していることになる。   If the light source 21 is moved in the −X direction with the state shown in FIG. 3 as an initial state, the illumination range 60 of the illumination light also moves in the −X direction. The test object 35 and the image sensor 27 are fixed with respect to the movement of the light source 21 in the −X direction. FIG. 4 shows the positional relationship between the illumination range of illumination light when the light source 21 is moved in the −X direction, and the imaging range and background region of the imaging device 27. In FIG. 4, the range 61 surrounded by the alternate long and short dash line is the imaging range of the imaging device 27 before moving the light source 21, and the range 61 ′ surrounded by the solid line is imaging when the light source 21 is moved in the −X direction. This is the imaging range of the element 27. An area 63 surrounded by a dotted line is a background area before the light source 21 is moved, and an area 63 'surrounded by a solid line is a background area when the light source 21 is moved in the -X direction. Here, when the illumination range 60 that moves with the movement of the light source 21 is considered as a reference, when the light source 21 moves in the −X direction, the imaging range 61 and the background region 63 of the image sensor 21 move in the X direction. Will be.

なお、光源21をX方向又はY方向に移動させたときに撮像素子27により得られる参照画像データは各画素の画素値が輝度値からなる画像データである。このため、光源21を−X方向又は−Y方向に、それぞれ複数回移動したときに得られる複数の参照画像データから抽出した背景領域を配列すると、光源21を固定したときの撮像素子27の撮像範囲における照明光の照明分布となる。図5においては、枠65で示される範囲が撮像素子27の撮像範囲であり、撮像範囲65に含まれる複数の領域63が、各参照画像データから抽出される背景領域である。CPU41は、各参照画像データから抽出される背景領域をそれぞれ配列したときの各背景領域内の画素の画素値を1つの画像データとしてまとめることで、照明分布データを生成する。なお、図5においては、光源21を−X方向に5回、−Y方向に5回、計25回、光源21を移動させた場合を例としている。   The reference image data obtained by the image sensor 27 when the light source 21 is moved in the X direction or the Y direction is image data in which the pixel value of each pixel is a luminance value. For this reason, when background regions extracted from a plurality of reference image data obtained when the light source 21 is moved a plurality of times in the −X direction or the −Y direction are arranged, the image pickup device 27 captures an image when the light source 21 is fixed. It becomes the illumination distribution of illumination light in the range. In FIG. 5, a range indicated by a frame 65 is an imaging range of the imaging device 27, and a plurality of areas 63 included in the imaging range 65 are background areas extracted from each reference image data. The CPU 41 generates illumination distribution data by collecting pixel values of pixels in each background area when the background areas extracted from each reference image data are arranged as one image data. In FIG. 5, the light source 21 is moved 5 times in the −X direction and 5 times in the −Y direction, for a total of 25 times, as an example.

次に、観察装置10により被検物を観察するときに得られる観察画像データに対して画像補正を実行する際の処理の流れを図6のフローチャートに基づいて説明する。   Next, the flow of processing when performing image correction on observation image data obtained when observing a test object with the observation apparatus 10 will be described based on the flowchart of FIG.

ステップS101は、参照画像データを取得する処理である。CPU41は、コントローラ30に向けて、参照画像データを取得するための撮像信号を出力する。これを受けて、コントローラ30は、撮像素子27における撮像処理を実行する。これにより、光源21が初期の位置にあるときの参照画像データが取得される。なお、この参照画像データは、コントローラ30により、観察ユニット11からコンピュータ12に向けて出力される。参照画像データがコンピュータ12に出力されると、CPU41は、参照画像データを画像メモリ44に記憶する。この際、CPU41は、光源21の位置データを参照画像データに付帯する。画像メモリ44に記憶された参照画像データは、画像処理回路45により読み出され、画像処理が実行される。画像処理回路45により画像処理が施された参照画像データは、バッファメモリ43に一時記憶される。   Step S101 is processing for acquiring reference image data. The CPU 41 outputs an imaging signal for acquiring reference image data to the controller 30. In response to this, the controller 30 executes an imaging process in the imaging device 27. Thereby, the reference image data when the light source 21 is in the initial position is acquired. The reference image data is output from the observation unit 11 toward the computer 12 by the controller 30. When the reference image data is output to the computer 12, the CPU 41 stores the reference image data in the image memory 44. At this time, the CPU 41 attaches the position data of the light source 21 to the reference image data. The reference image data stored in the image memory 44 is read by the image processing circuit 45 and image processing is executed. The reference image data that has been subjected to image processing by the image processing circuit 45 is temporarily stored in the buffer memory 43.

ステップS102は、背景領域を設定する処理である。上述したように、ステップS101の処理により参照画像データが取得されると、得られた参照画像データがコンピュータ12に出力される。ステップS102の処理が実行されると、表示制御回路48は、バッファメモリ43に一時記憶された画像処理済みの参照画像データを読み出し、表示装置47に、読み出した参照画像データに基づく参照画像を表示する。参照画像の表示を受けて、ユーザは操作部49を操作し、参照画像から背景領域を指定する。この操作部49の操作に基づいて背景領域が指定されると、CPU41は、操作部49の操作に基づく位置データ(背景領域の位置データ)をメモリ42に記憶する。これにより、参照画像における背景領域が設定される。   Step S102 is processing for setting a background area. As described above, when the reference image data is acquired by the process of step S101, the obtained reference image data is output to the computer 12. When the process of step S102 is executed, the display control circuit 48 reads the image-processed reference image data temporarily stored in the buffer memory 43, and displays the reference image based on the read reference image data on the display device 47. To do. Upon receiving the display of the reference image, the user operates the operation unit 49 to designate a background area from the reference image. When a background region is designated based on the operation of the operation unit 49, the CPU 41 stores position data (background region position data) based on the operation of the operation unit 49 in the memory 42. Thereby, the background area in the reference image is set.

ステップS103は、光源の移動量及び移動回数を算出する処理である。ステップS102の処理を実行することで、参照画像における背景領域が設定される。CPU41は、メモリ42から設定された背景領域の位置データを読み出し、背景領域におけるX方向及びY方向の各方向における画素数を求める。この背景領域におけるX方向及びY方向における画素数に基づいて、CPU41は、光源21のX方向への移動量と、Y方向への移動量とを決定する。また、CPU41は、撮像素子27における撮像範囲におけるX方向及びY方向の各方向における画素数と、背景領域におけるX方向及びY方向における画素数とを用いて、光源21のX方向への移動回数と、Y方向への移動回数とを求める。CPU41は、算出された光源の移動量及び移動回数を観察ユニット11のコントローラ30に出力する。   Step S103 is processing for calculating the movement amount and the number of movements of the light source. By executing the processing in step S102, the background area in the reference image is set. The CPU 41 reads the position data of the background area set from the memory 42 and obtains the number of pixels in each direction of the X direction and the Y direction in the background area. Based on the number of pixels in the X direction and Y direction in the background region, the CPU 41 determines the amount of movement of the light source 21 in the X direction and the amount of movement in the Y direction. Further, the CPU 41 uses the number of pixels in each of the X and Y directions in the imaging range of the image sensor 27 and the number of movements of the light source 21 in the X direction using the number of pixels in the X and Y directions in the background area. And the number of movements in the Y direction. The CPU 41 outputs the calculated movement amount and number of movements of the light source to the controller 30 of the observation unit 11.

ステップS104は、光源を移動させる処理である。CPU41は、コントローラ30に向けて駆動信号を出力する。これを受けて、コントローラ30は、ステップS103により算出された光源21の移動量及び移動回数を参照する。そして、コントローラ30は、光源移動機構22を駆動させて、ステップS103にて決定された移動量分、光源21を移動させる。   Step S104 is processing to move the light source. The CPU 41 outputs a drive signal toward the controller 30. In response to this, the controller 30 refers to the movement amount and the number of movements of the light source 21 calculated in step S103. Then, the controller 30 drives the light source moving mechanism 22 to move the light source 21 by the amount of movement determined in step S103.

ステップS105は、参照画像データを取得する処理である。ステップS104の処理が実行されると、光源21が移動している。コントローラ30は、撮像素子27における撮像処理を実行する。これにより、光源21が初期の位置の位置から所定量移動したときの参照画像データが取得される。コントローラ30は、取得された参照画像データを、コンピュータ12に向けて出力する。参照画像データがコンピュータ12に出力されると、CPU41は、参照画像データを画像メモリ44に記憶する。この際、CPU41は、光源21の位置データを参照画像データに付帯する。   Step S105 is processing to acquire reference image data. When the process of step S104 is executed, the light source 21 is moved. The controller 30 executes an imaging process in the image sensor 27. Thereby, the reference image data when the light source 21 moves by a predetermined amount from the initial position is acquired. The controller 30 outputs the acquired reference image data to the computer 12. When the reference image data is output to the computer 12, the CPU 41 stores the reference image data in the image memory 44. At this time, the CPU 41 attaches the position data of the light source 21 to the reference image data.

ステップS106は、光源の移動が終了したか否かを判定する処理である。ステップS103の処理を実行することで、CPU41は、光源21をX方向に移動させる回数と、Y方向に移動させる回数とを算出している。CPU41は、これら回数とから、光源21の移動回数を算出する。そして、CPU41は、画像メモリ44に記憶される参照画像データの数をカウントすることで、光源21の移動が終了したか否かを判定する。画像メモリ44に記憶される参照画像データの数が、算出された光源21の移動回数に到達している場合には、CPU41はステップS106の判定処理をYesとする。この場合、ステップS107に進む。なお、このステップS106の判定処理がYesとなる場合には、CPU41は、コントローラ30に向けて、光源21を初期の位置(ステップS101における光源21の位置)に移動させる動作信号を出力する。これを受けて、コントローラ30は、光源移動機構22を駆動させて、光源21を初期の位置に移動させる。   Step S106 is processing for determining whether or not the movement of the light source is completed. By executing the process of step S103, the CPU 41 calculates the number of times the light source 21 is moved in the X direction and the number of times the light source 21 is moved in the Y direction. The CPU 41 calculates the number of movements of the light source 21 from these numbers. Then, the CPU 41 determines whether or not the movement of the light source 21 is completed by counting the number of reference image data stored in the image memory 44. If the number of reference image data stored in the image memory 44 has reached the calculated number of movements of the light source 21, the CPU 41 determines Yes in step S106. In this case, the process proceeds to step S107. If the determination process in step S106 is Yes, the CPU 41 outputs an operation signal for moving the light source 21 to the initial position (the position of the light source 21 in step S101) toward the controller 30. In response to this, the controller 30 drives the light source moving mechanism 22 to move the light source 21 to the initial position.

一方、画像メモリ44に記憶される参照画像データの数が、算出された光源21の移動回数に到達していない場合には、CPU41はステップS106の判定処理をNoとする。この場合、ステップS104に戻る。つまり、算出された光源21の移動回数に到達するまで、光源21を移動させながら、参照画像データを取得する処理が繰り返し実行される。   On the other hand, when the number of reference image data stored in the image memory 44 has not reached the calculated number of movements of the light source 21, the CPU 41 determines No in step S106. In this case, the process returns to step S104. That is, the process of acquiring the reference image data is repeatedly performed while moving the light source 21 until the calculated number of movements of the light source 21 is reached.

ステップS107は、照明ムラを特定する処理である。ステップS104及びステップS105の処理が複数回実行されることで、複数の参照画像データが画像メモリ44に記憶される。CPU41は、メモリから、背景領域の位置データを読み出す。そして、CPU41は、背景領域の位置データに基づいて、各参照画像データの背景領域に含まれる画素の画素値を抽出する。なお、参照画像データには、光源21の位置データが付帯されていることから、CPU41は、該光源21の位置データを参照して、抽出した各参照画像データの背景領域に含まれる画素の画素値を、バッファメモリ43に配列する。   Step S107 is processing for specifying illumination unevenness. A plurality of reference image data is stored in the image memory 44 by executing the processes of step S104 and step S105 a plurality of times. The CPU 41 reads the position data of the background area from the memory. Then, the CPU 41 extracts pixel values of pixels included in the background area of each reference image data based on the position data of the background area. Since the reference image data is attached with the position data of the light source 21, the CPU 41 refers to the position data of the light source 21, and the pixels of the pixels included in the background area of each extracted reference image data The values are arranged in the buffer memory 43.

上述したように、背景領域は、観察対象を含まない領域であることから、この背景領域に含まれる各画素の画素値は、照明光の輝度値を示している。このため、各参照画像データから抽出される背景領域を配列することで、撮像素子27の撮像範囲を照明する照明光の照明分布(輝度分布)が得られることになる。抽出した各参照画像データの背景領域に含まれる画素の画素値をバッファメモリ43に配列した後、CPU41は、これら配列される各画素の画素値を1つの画像データとしてまとめる。これにより、照明分布データが生成される。つまり、この照明分布データを生成することで、撮像素子27の撮像範囲における照明光の照明ムラが特定される。なお、照明分布データは、バッファメモリ43に記憶される。   As described above, since the background area is an area that does not include the observation target, the pixel value of each pixel included in the background area indicates the luminance value of the illumination light. For this reason, by arranging the background regions extracted from the respective reference image data, the illumination distribution (luminance distribution) of the illumination light that illuminates the imaging range of the imaging device 27 is obtained. After the pixel values of the pixels included in the background area of each extracted reference image data are arranged in the buffer memory 43, the CPU 41 collects the pixel values of the arranged pixels as one image data. Thereby, illumination distribution data is generated. That is, by generating this illumination distribution data, the illumination unevenness of the illumination light in the imaging range of the image sensor 27 is specified. The illumination distribution data is stored in the buffer memory 43.

ステップS108は、観察画像データを取得する処理である。このステップS108の処理が実行されることで、撮像素子27による撮像が実行され、観察画像データが取得される。なお、この観察画像データは、コントローラ30からコンピュータ12に向けて出力される。CPU41は、この観察画像データをバッファメモリ43に記憶する。   Step S108 is processing for acquiring observation image data. By executing the process of step S108, imaging by the imaging element 27 is executed, and observation image data is acquired. The observation image data is output from the controller 30 toward the computer 12. The CPU 41 stores this observation image data in the buffer memory 43.

ステップS109は、観察画像データを補正する処理である。画像補正回路46は、バッファメモリ43に記憶される観察画像データ及び照明分布データをそれぞれ読み出す。画像補正回路46は、照明分布データを用いて観察画像データを補正する。なお、観察画像データの補正としては、観察画像データの各画素の画素値から、照明分布データの各画素の画素値をそれぞれ減算すればよい。これにより、観察画像データに対する補正(シェーディング補正)が実行される。なお、補正済みの観察画像データは、バッファメモリ43に記憶される。このステップS109の処理が実行されることで、照明ムラが除去された観察画像データが取得される。   Step S109 is processing for correcting observation image data. The image correction circuit 46 reads observation image data and illumination distribution data stored in the buffer memory 43, respectively. The image correction circuit 46 corrects the observation image data using the illumination distribution data. In addition, what is necessary is just to subtract the pixel value of each pixel of illumination distribution data from the pixel value of each pixel of observation image data as correction | amendment of observation image data, respectively. As a result, correction (shading correction) is performed on the observation image data. The corrected observation image data is stored in the buffer memory 43. By executing the processing in step S109, observation image data from which illumination unevenness has been removed is acquired.

ステップS110は、画像処理である。画像処理回路45は、バッファメモリ43に記憶された補正済みの観察画像データに対して、画像処理を実行する。この画像処理が施された観察画像データは、バッファメモリ43に書き込まれる。   Step S110 is image processing. The image processing circuit 45 performs image processing on the corrected observation image data stored in the buffer memory 43. The observation image data subjected to this image processing is written in the buffer memory 43.

ステップS111は、画像を表示する処理である。表示制御回路48は、バッファメモリ43に記憶された画像処理済みの観察画像データを読み出し、該観察画像データに基づく観察画像を表示する。なお、表示される観察画像に対して、ユーザは、操作部49による各種操作を行うことができる。例えば操作部49の操作が表示装置47に表示される観察画像を、そのまま記憶する旨の操作であれば、CPU41は、画像処理済みの観察画像データを、ハードディスクドライブやメモリカードなどの図示を省略した記憶媒体に記憶する。また、操作部49の操作が、表示装置47に表示される観察画像に対して、細胞の領域を抽出する処理を行う旨の操作であれば、CPU41は、画像処理回路45に、表示された観察画像の基になる観察画像データに対して例えばハイパスフィルタを用いて、細胞の領域を抽出する処理を実行させればよい。   Step S111 is a process for displaying an image. The display control circuit 48 reads the image-processed observation image data stored in the buffer memory 43 and displays an observation image based on the observation image data. Note that the user can perform various operations using the operation unit 49 on the displayed observation image. For example, if the operation of the operation unit 49 is an operation for storing the observation image displayed on the display device 47 as it is, the CPU 41 omits illustration of the observation-processed observation image data such as a hard disk drive and a memory card. Stored in the storage medium. In addition, if the operation of the operation unit 49 is an operation for performing a process of extracting a cell region on the observation image displayed on the display device 47, the CPU 41 is displayed on the image processing circuit 45. What is necessary is just to perform the process which extracts the area | region of a cell, for example using a high-pass filter with respect to the observation image data used as the basis of an observation image.

このように、被検物を観察する直前に複数の参照画像に含まれる背景領域から照明光の照明分布を示すデータを取得することで、細胞観察時における照明光の照明ムラを容易に特定することができる。また、観察視野範囲、言い換えれば撮像範囲に対して被検物が占める領域が大きい場合であっても、撮像範囲に背景領域が含まれているのであれば、背景領域を利用した照明光の照明分布を示すデータを取得することができるので、観察画像データに対して適切なシェーディング補正を行うことができる。   Thus, by acquiring data indicating the illumination distribution of illumination light from the background region included in the plurality of reference images immediately before observing the test object, it is possible to easily identify illumination unevenness of illumination light during cell observation. be able to. In addition, even if the area occupied by the test object is large relative to the observation visual field range, in other words, if the background area is included in the imaging range, illumination light illumination using the background area is performed. Since data indicating the distribution can be acquired, appropriate shading correction can be performed on the observation image data.

本実施形態では、得られる複数の参照画像データから抽出される各背景領域を配列したときに、配列した全背景領域の大きさが撮像範囲の大きさと一致する場合について説明している。しかしながら、実際には、配列した全背景領域の大きさと撮像範囲とが一致しない場合もある。このように、配列される背景領域全体と撮像範囲とが一致しない場合には、予め、配列される背景領域全体の領域が撮像範囲よりも大きくなるように、参照画像データを取得しておき、各参照画像データから抽出される背景領域を配列したときに、撮像範囲に含まれる画素の画素値を照明分布データとしてまとめることも可能である。   In the present embodiment, a case has been described in which when the background areas extracted from a plurality of obtained reference image data are arranged, the size of all arranged background areas matches the size of the imaging range. However, in practice, the size of the entire background area arranged may not match the imaging range. Thus, if the entire background area to be arranged and the imaging range do not match, the reference image data is acquired in advance so that the area of the entire background area to be arranged is larger than the imaging range, When the background regions extracted from the respective reference image data are arranged, the pixel values of the pixels included in the imaging range can be collected as illumination distribution data.

また、この他に、複数回の撮像により得られる複数の参照画像データから抽出される背景領域を配列したときに、配列される背景領域の大きさが、撮像範囲よりも小さくなる場合もある。例えば、照明光の照明分布が球面近似できることを考慮すると、撮像範囲に含まれる画素のうち、背景領域が配置されない箇所に該当する画素の画像値を、複数の背景領域に含まれる画素の画素値を用いた最小二乗法により求めるができる。   In addition, when a background area extracted from a plurality of reference image data obtained by a plurality of times of imaging is arranged, the size of the arranged background area may be smaller than the imaging range. For example, considering that the illumination distribution of illumination light can be approximated to a spherical surface, among the pixels included in the imaging range, the image values of the pixels corresponding to the places where the background region is not arranged are the pixel values of the pixels included in the plurality of background regions. Can be obtained by the method of least squares using

本実施形態では、設定された背景領域の幅と同一の長さを光源21のX方向の移動量とし、背景領域の高さと同一の長さを光源21のY方向の移動量としているが、これに限定される必要はなく、背景領域の幅の所定倍の長さを光源21のX方向の移動量、背景領域の高さの所定倍の長さを光源21のY方向の移動量としてもよい。この場合、各参照画像データから得られる背景領域を配列すると、各背景領域が間引いて配列される。この場合も、照明光の照明分布が球面近似できることを考慮すると、配列される各背景領域に含まれる画素の画素値を用いた最小二乗法により、撮像範囲のうち、背景領域が配置されていない領域に含まれる画素の画素値を求めることができる。   In the present embodiment, the same length as the set width of the background area is set as the amount of movement of the light source 21 in the X direction, and the same length as the height of the background area is set as the amount of movement of the light source 21 in the Y direction. There is no need to be limited to this, and the length of the background region that is a predetermined multiple of the width of the light source 21 is the amount of movement in the X direction, and the length of the background region is a predetermined amount of the height of the light source 21 in the Y direction. Also good. In this case, when background areas obtained from the respective reference image data are arranged, the background areas are thinned out and arranged. Also in this case, considering that the illumination distribution of illumination light can be approximated to a spherical surface, the background area is not arranged in the imaging range by the least square method using the pixel values of the pixels included in the arranged background areas. The pixel values of the pixels included in the region can be obtained.

本実施形態では、得られる参照画像データを全て取得した後に各参照画像データから背景領域を抽出しているが、これに限定される必要はなく、各参照画像データが取得された直後に背景領域を抽出し、背景領域に基づく画像データをコンピュータ12に記憶させることも可能である。   In the present embodiment, the background area is extracted from each reference image data after all the obtained reference image data is acquired. However, the present invention is not limited to this, and the background area is acquired immediately after each reference image data is acquired. The image data based on the background region can be stored in the computer 12.

本実施形態では、光源21及び被検物35の相対位置を変更する例として、光源21を移動させる場合について説明しているが、これに限定される必要はなく、被検物35のみを移動させる、或いは、被検物35及び撮像素子27を移動させることで、光源21と被検物35との相対位置を変更することも可能である。   In this embodiment, the case where the light source 21 is moved is described as an example of changing the relative position of the light source 21 and the test object 35. However, the present invention is not limited to this, and only the test object 35 is moved. Alternatively, the relative position between the light source 21 and the test object 35 can be changed by moving the test object 35 and the image sensor 27.

本実施形態では、観察装置10を例に取り上げたが、観察ユニット11を駆動制御するコンピュータ12が実行する画像補正プログラムの形態であってもよい。この場合、図6に示すフローチャートに示す処理の流れをコンピュータ12にて実行できるような画像補正プログラムであればよい。なお、この画像補正プログラムは、メモリカード、光学ディスクや磁気ディスクなどの、コンピュータが読み取り可能な記憶媒体に記憶されていることが好ましい。   In the present embodiment, the observation apparatus 10 is taken as an example, but an image correction program executed by a computer 12 that drives and controls the observation unit 11 may be used. In this case, any image correction program that can execute the processing flow shown in the flowchart of FIG. The image correction program is preferably stored in a computer-readable storage medium such as a memory card, an optical disk, or a magnetic disk.

10…観察装置、11…観察ユニット、12…コンピュータ、21…光源、22…光源移動機構、27…撮像素子、41…CPU、42…メモリ、44…画像メモリ、45…画像処理回路、46…画像補正回路、47…表示装置、49…操作部   DESCRIPTION OF SYMBOLS 10 ... Observation apparatus, 11 ... Observation unit, 12 ... Computer, 21 ... Light source, 22 ... Light source moving mechanism, 27 ... Image sensor, 41 ... CPU, 42 ... Memory, 44 ... Image memory, 45 ... Image processing circuit, 46 ... Image correction circuit, 47... Display device, 49.

Claims (7)

観察対象を照明する照明光を発光する光源と、
前記照明光により照明される前記観察対象の一部が含まれる領域を撮像範囲とした撮像を行う撮像素子と、
前記照明光の光軸と直交する面上で前記光源を移動させる移動機構と、
前記光源を移動させていない状態で前記撮像素子により得られる第1画像から、前記観察対象が含まれていない領域を背景領域として設定した後、前記撮像範囲に対する前記背景領域の位置を固定する設定部と、
前記背景領域における第1方向及び前記第1方向に直交する第2方向の画素数と、前記撮像素子の有効画素領域における前記第1方向及び前記第2方向の画素数とに基づいて、前記光源を移動させるときの移動量、移動方向及び移動回数を決定する決定部と、
前記決定部により決定された前記移動量、前記移動方向及び前記移動回数に基づき前記移動機構を制御し、前記光源及び前記観察対象の相対位置を変更する移動制御部と、
前記第1画像と前記光源及び前記観察対象の相対位置を変更しながら前記撮像素子により得られる複数の第2画像とから、前記背景領域をそれぞれ抽出する抽出部と、
前記第1画像から抽出された前記背景領域を基準として、前記複数の第2画像から抽出された前記背景領域のそれぞれを前記移動量及び前記移動方向に基づいて配列することで前記照明光の照明分布を取得し、前記撮像範囲における前記照明光の照明ムラを特定する照明ムラ特定部と、
を備えたことを特徴とする観察装置。
A light source that emits illumination light to illuminate the observation target;
An imaging element that performs imaging with an imaging range of a region including a part of the observation target illuminated by the illumination light; and
A moving mechanism for moving the light source on a plane orthogonal to the optical axis of the illumination light;
A setting for fixing the position of the background area with respect to the imaging range after setting an area that does not include the observation target as a background area from the first image obtained by the imaging element without moving the light source And
Based on the number of pixels in the first direction and the second direction orthogonal to the first direction in the background region, and the number of pixels in the first direction and the second direction in the effective pixel region of the imaging device, the light source A determination unit for determining a movement amount, a movement direction, and the number of movements when moving
A movement control unit that controls the movement mechanism based on the movement amount, the movement direction, and the number of movements determined by the determination unit, and changes a relative position of the light source and the observation target;
An extraction unit that extracts each of the background regions from the first image and a plurality of second images obtained by the imaging device while changing the relative positions of the light source and the observation target;
Illumination of the illumination light by arranging each of the background regions extracted from the plurality of second images based on the movement amount and the movement direction with the background region extracted from the first image as a reference An illumination unevenness specifying unit that acquires distribution and specifies illumination unevenness of the illumination light in the imaging range ;
An observation apparatus comprising:
観察対象を照明する照明光を発光する光源と、
前記照明光により照明される前記観察対象の一部が含まれる領域を撮像範囲とした撮像を行う撮像素子と、
前記照明光の光軸と直交する面上で前記観察対象を移動させる移動機構と、
前記観察対象を移動させていない状態で前記撮像素子により得られる第1画像から、前記観察対象が含まれていない領域を背景領域として設定した後、前記観察対象に対する前記背景領域の位置を固定する設定部と、
前記背景領域における第1方向及び前記第1方向に直交する第2方向の画素数と、前記撮像素子の有効画素領域における前記第1方向及び前記第2方向の画素数とに基づいて、前記観察対象を移動させるときの移動量、移動方向及び移動回数とを決定する決定部と、
前記決定部により決定された前記移動量、前記移動方向及び前記移動回数に基づいて前記移動機構を制御し、前記光源及び前記観察対象の相対位置を変更する移動制御部と、
前記第1画像と前記光源及び前記観察対象の相対位置を変更しながら前記撮像素子により得られる複数の第2画像とから、前記背景領域をそれぞれ抽出する抽出部と、
前記第1画像から抽出された前記背景領域を基準として、前記複数の第2画像から抽出された前記背景領域のそれぞれを前記移動量及び前記移動方向に基づいて配列することで前記照明光の照明分布を取得し、前記撮像範囲における前記照明光の照明ムラを特定する照明ムラ特定部と、
を備えたことを特徴とする観察装置。
A light source that emits illumination light to illuminate the observation target;
An imaging element that performs imaging with an imaging range of a region including a part of the observation target illuminated by the illumination light; and
A moving mechanism for moving the observation object on a plane orthogonal to the optical axis of the illumination light;
An area not including the observation target is set as a background area from the first image obtained by the imaging element without moving the observation target, and then the position of the background area with respect to the observation target is fixed. A setting section;
Based on the number of pixels in the first direction and the second direction orthogonal to the first direction in the background region, and the number of pixels in the first direction and the second direction in the effective pixel region of the imaging device, the observation A determination unit that determines a movement amount, a movement direction, and a number of movements when moving the object;
A movement control unit that controls the movement mechanism based on the movement amount, the movement direction, and the number of movements determined by the determination unit, and changes a relative position of the light source and the observation target;
An extraction unit that extracts each of the background regions from the first image and a plurality of second images obtained by the imaging device while changing the relative positions of the light source and the observation target;
Illumination of the illumination light by arranging each of the background regions extracted from the plurality of second images based on the movement amount and the movement direction with the background region extracted from the first image as a reference An illumination unevenness specifying unit that acquires distribution and specifies illumination unevenness of the illumination light in the imaging range;
Observation device comprising the.
請求項1又は請求項2に記載の観察装置において、
前記第1画像及び前記複数の第2画像から抽出される前記背景領域に含まれる画素の画素値は、前記観察対象に照射される前記照明光のうち、前記撮像素子の撮像範囲を照明する前記照明光の輝度値からなることを特徴とする観察装置。
In the observation device according to claim 1 or 2,
A pixel value of a pixel included in the background region extracted from the first image and the plurality of second images illuminates an imaging range of the imaging element among the illumination light irradiated to the observation target. An observation apparatus comprising a luminance value of illumination light .
請求項に記載の観察装置において、
前記照明ムラ特定部は、前記第1画像及び前記複数の第2画像から抽出される前記背景領域に含まれる画素の画素値を用いた最小二乗法により、前記照明光の照明ムラを特定することを特徴とする観察装置。
The observation device according to claim 3 ,
The illumination unevenness specifying unit specifies the illumination unevenness of the illumination light by a least square method using pixel values of pixels included in the background region extracted from the first image and the plurality of second images. An observation apparatus characterized by.
請求項1から請求項4のいずれか1項に記載の観察装置において、
前記撮像素子は、前記第1画像及び前記複数の第2画像の他に、観察用画像を撮像することが可能であり、
前記観察用画像と前記照明光の照明ムラとを用いて、前記観察用画像を補正する画像補正部を備えていることを特徴とする観察装置。
In the observation device according to any one of claims 1 to 4,
In addition to the first image and the plurality of second images, the imaging element can capture an observation image.
An observation apparatus comprising: an image correction unit that corrects the observation image using the observation image and illumination unevenness of the illumination light .
照明光を発光して観察対象を照明する照明工程と、  An illumination process for illuminating an observation target by emitting illumination light;
前記照明光により照明される前記観察対象の一部が含まれる領域を撮像範囲とした撮像を行うことで、第1画像を取得する第1撮像工程と、  A first imaging step of acquiring a first image by performing imaging in an imaging range of a region including a part of the observation target illuminated by the illumination light;
取得された前記第1画像から、前記観察対象が含まれていない領域を背景領域として設定した後、前記撮像範囲に対する前記背景領域の位置を固定する設定工程と、  A setting step of fixing a position of the background region with respect to the imaging range after setting the region not including the observation target as a background region from the acquired first image;
前記背景領域における第1方向及び前記第1方向に直交する第2方向の画素数と、前記撮像を行う撮像素子の有効画素領域における前記第1方向及び前記第2方向の画素数とに基づいて、前記照明光の照明範囲を移動させるときの移動量、移動方向及び移動回数を決定する決定工程と、  Based on the first direction in the background region and the number of pixels in the second direction orthogonal to the first direction, and the number of pixels in the first direction and the second direction in the effective pixel region of the imaging element that performs the imaging. A determination step for determining a movement amount, a movement direction, and a number of movements when moving the illumination range of the illumination light;
決定された前記移動量、前記移動方向及び前記移動回数に基づき前記照明光の照明範囲を移動させて、前記照明光の照明範囲及び前記観察対象の相対位置を変更する移動工程と、  A movement step of moving the illumination range of the illumination light based on the determined movement amount, the movement direction, and the number of movements, and changing the illumination range of the illumination light and the relative position of the observation target;
前記照明光の照明範囲及び前記観察対象の相対位置を変更させながら、複数の第2画像を撮像する第2の撮像工程と、  A second imaging step of imaging a plurality of second images while changing the illumination range of the illumination light and the relative position of the observation target;
前記第1画像と前記複数の第2画像とから前記背景領域をそれぞれ抽出する抽出工程と、  An extraction step of extracting each of the background regions from the first image and the plurality of second images;
前記第1画像から抽出された前記背景領域を基準として、前記複数の第2画像から抽出された前記背景領域のそれぞれを前記移動量及び前記移動方向に基づいて配列することで前記照明光の照明分布を取得し、前記撮像範囲における前記照明光の照明ムラを特定する照明ムラ特定工程と、  Illumination of the illumination light by arranging each of the background regions extracted from the plurality of second images based on the movement amount and the movement direction with the background region extracted from the first image as a reference An illumination unevenness specifying step of acquiring a distribution and specifying the illumination unevenness of the illumination light in the imaging range;
をコンピュータに実行させることが可能な画像補正プログラム。  Correction program capable of causing a computer to execute.
照明光を発光して観察対象を照明する照明工程と、  An illumination process for illuminating an observation target by emitting illumination light;
前記照明光により照明される前記観察対象の一部が含まれる領域を撮像範囲とした撮像を行うことで、第1画像を取得する第1撮像工程と、  A first imaging step of acquiring a first image by performing imaging in an imaging range of a region including a part of the observation target illuminated by the illumination light;
取得された前記第1画像から、前記観察対象が含まれていない領域を背景領域として設定した後、前記観察対象に対する前記背景領域の位置を固定する設定工程と、  From the acquired first image, after setting an area that does not include the observation object as a background area, a setting step of fixing the position of the background area with respect to the observation object;
前記背景領域における第1方向及び前記第1方向に直交する第2方向の画素数と、前記撮像を行う撮像素子の有効画素領域における前記第1方向及び前記第2方向の画素数とに基づいて、前記観察対象を移動させるときの移動量、移動方向及び移動回数を決定する決定工程と、  Based on the first direction in the background region and the number of pixels in the second direction orthogonal to the first direction, and the number of pixels in the first direction and the second direction in the effective pixel region of the imaging element that performs the imaging. A determination step for determining a movement amount, a movement direction, and the number of movements when moving the observation object;
決定された前記移動量、前記移動方向及び前記移動回数に基づき前記観察対象を移動させて、前記照明光の照明範囲及び前記観察対象の相対位置を変更する移動工程と、  A movement step of moving the observation object based on the determined movement amount, the movement direction, and the number of movements, and changing the illumination range of the illumination light and the relative position of the observation object;
前記照明光の照明範囲及び前記観察対象の相対位置を変更させながら、複数の第2画像を撮像する第2の撮像工程と、  A second imaging step of imaging a plurality of second images while changing the illumination range of the illumination light and the relative position of the observation target;
前記第1画像と前記複数の第2画像とから前記背景領域をそれぞれ抽出する抽出工程と、  An extraction step of extracting each of the background regions from the first image and the plurality of second images;
前記第1画像から抽出された前記背景領域を基準として、前記複数の第2画像から抽出された前記背景領域のそれぞれを前記移動量及び前記移動方向に基づいて配列することで前記照明光の照明分布を取得し、前記撮像範囲における前記照明光の照明ムラを特定する照明ムラ特定工程と、  Illumination of the illumination light by arranging each of the background regions extracted from the plurality of second images based on the movement amount and the movement direction with the background region extracted from the first image as a reference An illumination unevenness specifying step of acquiring a distribution and specifying the illumination unevenness of the illumination light in the imaging range;
をコンピュータに実行させることが可能な画像補正プログラム。  Correction program capable of causing a computer to execute.
JP2011024598A 2011-02-08 2011-02-08 Observation device and image correction program Active JP5655608B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011024598A JP5655608B2 (en) 2011-02-08 2011-02-08 Observation device and image correction program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011024598A JP5655608B2 (en) 2011-02-08 2011-02-08 Observation device and image correction program

Publications (2)

Publication Number Publication Date
JP2012163795A JP2012163795A (en) 2012-08-30
JP5655608B2 true JP5655608B2 (en) 2015-01-21

Family

ID=46843223

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011024598A Active JP5655608B2 (en) 2011-02-08 2011-02-08 Observation device and image correction program

Country Status (1)

Country Link
JP (1) JP5655608B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014186544A1 (en) * 2013-05-15 2014-11-20 The Administrators Of The Tulane Educational Fund Microscopy of a tissue sample using structured illumination

Also Published As

Publication number Publication date
JP2012163795A (en) 2012-08-30

Similar Documents

Publication Publication Date Title
JP4921978B2 (en) Cell culture device, image processing device, and cell detection system
US9088729B2 (en) Imaging apparatus and method of controlling same
US20120002032A1 (en) Information processing apparatus, stage-undulation correcting method, program therefor
JP6743871B2 (en) Medical system and medical image processing method
EP2804145B1 (en) Microscope system and stitched area decision method
US10007835B2 (en) Cell region display control device, method, and program
US7869706B2 (en) Shooting apparatus for a microscope
US20140036058A1 (en) Information processing apparatus, information processing method, program, and image display apparatus
JP2019187598A (en) Endoscope apparatus
WO2013100029A9 (en) Image processing device, image display system, image processing method, and image processing program
US20180338079A1 (en) Microscope system, control method, and computer readable medium
US20110001815A1 (en) Microscope apparatus
CN110967820B (en) Microscope system control method, microscope system, and recording medium
US10721413B2 (en) Microscopy system, microscopy method, and computer readable recording medium
US20190195777A1 (en) Captured image evaluation apparatus, captured image evaluation method, and captured image evaluation program
US10429632B2 (en) Microscopy system, microscopy method, and computer-readable recording medium
JP6963240B2 (en) Cell observation device and program
JP5655608B2 (en) Observation device and image correction program
JP2008090071A5 (en)
JP6499506B2 (en) Imaging apparatus and method, and imaging control program
JP2012173725A (en) Image generation device and microscope device
JP7029359B2 (en) Endoscope device and its operation method as well as programs for endoscope devices
JP2012003004A (en) Image acquisition device and image acquisition method
US20120141036A1 (en) Observation apparatus and observation method
JP2019045737A (en) Observation device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140110

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140521

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140617

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140801

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141028

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141110

R150 Certificate of patent or registration of utility model

Ref document number: 5655608

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250