JP2010223676A - Observation device - Google Patents

Observation device Download PDF

Info

Publication number
JP2010223676A
JP2010223676A JP2009069718A JP2009069718A JP2010223676A JP 2010223676 A JP2010223676 A JP 2010223676A JP 2009069718 A JP2009069718 A JP 2009069718A JP 2009069718 A JP2009069718 A JP 2009069718A JP 2010223676 A JP2010223676 A JP 2010223676A
Authority
JP
Japan
Prior art keywords
image
light source
imaging
observation apparatus
dark
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009069718A
Other languages
Japanese (ja)
Inventor
Masabumi Mimura
正文 三村
Yuji Kunigome
祐司 國米
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2009069718A priority Critical patent/JP2010223676A/en
Publication of JP2010223676A publication Critical patent/JP2010223676A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To extract easily a dark part when generating a synthetic image, concerning an observation device capable of observing a transparent observation object such as a biological cell in a wide visual field, by adopting for illumination, a surface light source formed by arranging a bright part and the dark part repeatedly. <P>SOLUTION: This device includes: an illumination means for illuminating by transmission, an observation object stored in a transparent container by a surface light source formed by providing a bright part and a dark part alternately; an imaging optical system for imaging transmission light from the observation object illuminated by the illumination means; an imaging means for acquiring an image of the observation object formed by the imaging optical system; a control means for allowing the imaging means to acquire a plurality of images, while shifting a phase of brightness/darkness of the surface light source; and a correction means for extracting each position of three or more corresponding points to a linear pattern from an image acquiring a linear characteristic pattern constituted of the bright part and the dark part of the illumination means, and correcting distortion of the acquired image so that each corresponding point is positioned on one straight line. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、明部と暗部とを繰り返し配置してなる面光源を照明に採用することにより、生体細胞など透明な被観察物を広視野で観察することを可能とした観察装置に関する。   The present invention relates to an observation apparatus capable of observing a transparent object such as a living cell in a wide field of view by employing a surface light source in which a bright part and a dark part are repeatedly arranged for illumination.

ストライプ照明型の観察装置(特許文献1参照)は、被観察物のうちストライプ光源の暗部に正対する部分を、その暗部に隣接する2つの明部によって斜光照明するので、ストライプ状の暗視野画像を取得することができる。よって、ストライプ光源の明暗の位相をシフトさせながら複数枚の画像を取得して暗部の画像のみを合成すれば、例えば、培養容器中に点在する細胞群を一望するような暗視野画像を生成することもできる。   A stripe illumination type observation device (see Patent Document 1) obliquely illuminates a portion of an observation object facing a dark portion of a stripe light source with two bright portions adjacent to the dark portion. Can be obtained. Therefore, if a plurality of images are acquired while shifting the light-dark phase of the stripe light source and only the dark image is synthesized, for example, a dark field image overlooking the cell group scattered in the culture vessel is generated. You can also

特開2007−178426号公報JP 2007-178426 A

しかしながら、ストライプ照明型の観察装置では、培養容器内に存在する培養液のメニスカス効果により、直線状のストライプ模様が円弧状等に変形して撮像されることがあり、このような場合には、位相をシフトさせながら撮像された複数枚の画像から暗部の画像のみを抽出して合成することが困難になるという問題があった。   However, in the stripe illumination type observation apparatus, a linear stripe pattern may be deformed into an arc shape or the like due to the meniscus effect of the culture medium present in the culture vessel, and in such a case, There is a problem that it is difficult to extract and synthesize only a dark part image from a plurality of images picked up while shifting the phase.

本発明は、かかる従来の問題を解決するためになされたもので、合成画像の作成時に暗部の抽出を容易に行うことができる観察装置を提供することを目的とする。   The present invention has been made to solve such a conventional problem, and an object of the present invention is to provide an observation apparatus that can easily extract a dark part when creating a composite image.

第1の発明の観察装置は、明部と暗部とを交互に設けてなる面光源により透明容器内に収容される被観察物を透過照明する照明手段と、前記照明手段により照明された前記被観察物からの透過光を結像する結像光学系と、前記結像光学系が形成した前記被観察物の画像を取得する撮像手段と、前記面光源の明暗の位相をシフトさせながら前記撮像手段に複数枚の画像を取得させる制御手段と、前記照明手段の明部と暗部で構成された直線状の特徴的なパターンを取得した画像から、前記直線状のパターンに対する3点以上の対応点の位置を抽出し、前記対応点が一直線上に位置するようにして前記取得された画像の歪みを補正する補正手段と、を有することを特徴とする。   An observation apparatus according to a first aspect of the invention includes an illuminating unit that transmits and illuminates an object to be observed contained in a transparent container by a surface light source in which bright portions and dark portions are alternately provided, and the object illuminated by the illuminating unit. An imaging optical system that forms an image of transmitted light from an observation object, an imaging unit that acquires an image of the observation object formed by the imaging optical system, and the imaging while shifting the phase of light and dark of the surface light source 3 or more corresponding points with respect to the linear pattern from an image obtained by acquiring a linear characteristic pattern composed of a bright part and a dark part of the illumination means, and a control means for causing the means to acquire a plurality of images And correcting means for correcting the distortion of the acquired image so that the corresponding points are positioned on a straight line.

第2の発明の観察装置は、第1の発明の観察装置において、前記補正手段は、複数の前記暗部のそれぞれに対して3点以上の対応点の位置を抽出することを特徴とする。   The observation device according to a second invention is characterized in that, in the observation device according to the first invention, the correction means extracts positions of three or more corresponding points for each of the plurality of dark portions.

第3の発明の観察装置は、第1または第2の発明の観察装置において、前記透明容器は、複数のウェルを有するウェルプレートであることを特徴とする。   An observation apparatus according to a third aspect of the present invention is the observation apparatus according to the first or second aspect, wherein the transparent container is a well plate having a plurality of wells.

第4の発明の観察装置は、第1の発明の観察装置において、前記面光源は、ストライプパターンあるいはチェッカーパターンを有するマスク部材と前記マスク部材を均一に照明する照明光源とから構成されることを特徴とする。   The observation device according to a fourth aspect is the observation device according to the first aspect, wherein the surface light source is composed of a mask member having a stripe pattern or a checker pattern and an illumination light source that uniformly illuminates the mask member. Features.

第5の発明の観察装置は、第1の発明の観察装置において、前記補正手段は、前記撮像手段により複数枚取得された前記画像を重ね合わせて前記画像の歪みを補正することを特徴とする。   The observation apparatus according to a fifth aspect is the observation apparatus according to the first aspect, wherein the correction unit corrects distortion of the image by superimposing the plurality of images acquired by the imaging unit. .

本発明によれば、合成画像の作成時に暗部の抽出を容易に行うことができる観察装置を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the observation apparatus which can perform a dark part extraction easily at the time of preparation of a synthesized image can be provided.

本発明の観察装置の第1の実施形態を示す説明図である。It is explanatory drawing which shows 1st Embodiment of the observation apparatus of this invention. 図1の観察装置のコントローラを示すブロック図である。It is a block diagram which shows the controller of the observation apparatus of FIG. 暗視野像の背景輝度分布を説明する説明図である。It is explanatory drawing explaining the background luminance distribution of a dark field image. 位相シフト中に表示されるストライプパターンを示す説明図である。It is explanatory drawing which shows the stripe pattern displayed during a phase shift. 位相シフト中に取得された画像を示す説明図である。It is explanatory drawing which shows the image acquired during the phase shift. 図5の各々の有効領域を合成してできる暗視野画像を示す説明図である。It is explanatory drawing which shows the dark field image formed by synthesize | combining each effective area | region of FIG. 観察に関するCPUの動作を示す説明図である。It is explanatory drawing which shows operation | movement of CPU regarding observation. 撮像素子により取得されたストライプパターンの画像を示す説明図である。It is explanatory drawing which shows the image of the stripe pattern acquired by the image pick-up element. 培養液によるメニスカス効果を説明するための説明図である。It is explanatory drawing for demonstrating the meniscus effect by a culture solution. 歪み補正された画像を示す説明図である。It is explanatory drawing which shows the image by which distortion correction was carried out. 対応点を示す説明図である。It is explanatory drawing which shows a corresponding point. X方向の輝度の波形を示す説明図である。It is explanatory drawing which shows the waveform of the brightness | luminance of a X direction. X方向の相関値の変化を示す説明図である。It is explanatory drawing which shows the change of the correlation value of a X direction. 歪み補正の方法を示す説明図である。It is explanatory drawing which shows the method of distortion correction. 第2の実施形態におけるX方向の輝度の波形を示す説明図である。It is explanatory drawing which shows the waveform of the brightness | luminance of the X direction in 2nd Embodiment. X方向の微分値の変化を示す説明図である。It is explanatory drawing which shows the change of the differential value of a X direction. チェカーフラグパターンを示す説明図である。It is explanatory drawing which shows a checker flag pattern.

以下、本発明の実施形態を図面を用いて詳細に説明する。
(第1の実施形態)
図1は、本発明の観察装置の第1の実施形態を示している。この観察装置は、透過型液晶パネル11、ステージ(標本台)13、結像光学系15、撮像素子17、パネルコントローラ19、コントローラ21、ディスプレイ23を有している。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
(First embodiment)
FIG. 1 shows a first embodiment of the observation apparatus of the present invention. This observation apparatus includes a transmissive liquid crystal panel 11, a stage (specimen stage) 13, an imaging optical system 15, an image sensor 17, a panel controller 19, a controller 21, and a display 23.

ステージ13には、透明な培養容器(図では96ウェルプレート)25が載置されている。培養容器25のウェル25a内には、例えば、無染色の細胞等の被観察物が収容されている。   A transparent culture vessel (96 well plate in the figure) 25 is placed on the stage 13. In the well 25a of the culture vessel 25, for example, an object to be observed such as unstained cells is accommodated.

透過型液晶パネル11は、バックライト付きであり培養容器25の略全域を均一に照明する。その照明光が遮られないように、ステージ13のうち培養容器25を載置した部分は、例えば、ガラス等の透明部材で構成されるか、或いは中空となっている。   The transmissive liquid crystal panel 11 has a backlight and illuminates substantially the entire area of the culture vessel 25 uniformly. The portion of the stage 13 on which the culture vessel 25 is placed is made of a transparent member such as glass or is hollow so that the illumination light is not obstructed.

結像光学系15の視野は十分に大きく、培養容器25の略全域から射出した光は、結像光学系15によって捉えられ、撮像素子17の撮像面上に結像する。撮像素子17は、コントローラ21からの指示に応じて撮像面上の画像(輝度分布)を取得する。その画像は、コントローラ21へ取り込まれ、画像処理が施された後にディスプレイ23上へ表示される。コントローラ21は、画像処理前の画像や画像処理後の画像を必要に応じて保存することができる。また、画像処理前の画像を必要に応じてディスプレイ23へ表示することができる。   The visual field of the imaging optical system 15 is sufficiently large, and light emitted from substantially the entire area of the culture vessel 25 is captured by the imaging optical system 15 and forms an image on the imaging surface of the imaging element 17. The imaging element 17 acquires an image (luminance distribution) on the imaging surface in response to an instruction from the controller 21. The image is taken into the controller 21 and displayed on the display 23 after image processing. The controller 21 can store an image before image processing and an image after image processing as necessary. In addition, an image before image processing can be displayed on the display 23 as necessary.

パネルコントローラ19は、コントローラ21からの指示に応じて、透過型液晶パネル11上に、明部と暗部とを繰り返し配置してなるストライプパターンを表示する。この透過型液晶パネル11上に形成されたストライプパターンを、均一に照明する面光源(バックライト)により照射してストライプ状の明・暗パターンが形成される。   In response to an instruction from the controller 21, the panel controller 19 displays a stripe pattern in which bright portions and dark portions are repeatedly arranged on the transmissive liquid crystal panel 11. A stripe light / dark pattern is formed by irradiating the stripe pattern formed on the transmissive liquid crystal panel 11 with a surface light source (backlight) that uniformly illuminates.

図2は、コントローラ21の構成を示すブロック図である。コントローラ21は、入力部27、ステージ制御部29、パネル制御部31、照明制御部33、撮像素子制御部35、CPU37を有している。   FIG. 2 is a block diagram showing the configuration of the controller 21. The controller 21 includes an input unit 27, a stage control unit 29, a panel control unit 31, an illumination control unit 33, an image sensor control unit 35, and a CPU 37.

入力部27は、ユーザからの指示を入力する。入力部27を介してユーザが入力可能な情報には、観察開始等の各種指示がある。   The input unit 27 inputs an instruction from the user. Information that can be input by the user via the input unit 27 includes various instructions such as start of observation.

ステージ制御部29は、ステージ13の移動を制御して、ステージ13の光軸方向の位置(Z方向位置)および光軸方向に垂直な方向の位置(XY方向位置)を設定する。   The stage control unit 29 controls the movement of the stage 13 and sets the position of the stage 13 in the optical axis direction (Z direction position) and the position in the direction perpendicular to the optical axis direction (XY direction position).

パネル制御部31は、透過型液晶パネル11を移動して、透過型液晶パネル11の光軸方向の位置(Z方向位置)および光軸方向に垂直な方向の位置(XY方向位置)を設定する。   The panel control unit 31 moves the transmissive liquid crystal panel 11 to set a position in the optical axis direction (Z direction position) and a position in the direction perpendicular to the optical axis direction (XY direction position). .

照明制御部33は、パネルコントローラ21を制御して透過型液晶パネル11が表示するストライプパターンの位相等を制御する。   The illumination control unit 33 controls the panel controller 21 to control the phase and the like of the stripe pattern displayed on the transmissive liquid crystal panel 11.

撮像素子制御部35は、撮像素子17の駆動制御を行う。   The image sensor control unit 35 performs drive control of the image sensor 17.

CPU37は、ステージ制御部29、パネル制御部31、照明制御部33、撮像素子制御部35を制御する。   The CPU 37 controls the stage control unit 29, the panel control unit 31, the illumination control unit 33, and the image sensor control unit 35.

図3は上述した観察装置の原理を説明する図である。図3では、結像光学系15の撮像レンズ4の合焦面P1が培養容器25のウェル25aの底面近傍にあり、その底面に付着した細胞3aを観察するときの様子を示している。図3において符号1dで示すのはストライプパターン1の1つの暗部であり、符号1bで示すのは暗部1dの両側に位置する明部である。   FIG. 3 is a diagram for explaining the principle of the observation apparatus described above. FIG. 3 shows a state where the focusing plane P1 of the imaging lens 4 of the imaging optical system 15 is in the vicinity of the bottom surface of the well 25a of the culture vessel 25 and the cells 3a attached to the bottom surface are observed. In FIG. 3, reference numeral 1d indicates one dark part of the stripe pattern 1, and reference numeral 1b indicates bright parts located on both sides of the dark part 1d.

培養容器25のウェル25aのうち、暗部1dに正対する部分領域3dに着目すると、部分領域3dは2つの明部1bから射出した光Lbによって斜め方向から照明されるが、暗部1dからは光が射出しないので部分領域3dは正面から照明されることはない。つまり部分領域3dは、光Lbによって斜光照明される。よって、撮像素子17のうち部分領域3dと共役な領域には、部分領域3dの暗視野像5dが形成される。この暗視野像5dには、部分領域3d中に存在する細胞3aの像が現れる。この像(細胞像)は、細胞3aを透過した直接光による像ではなく、細胞3aのエッジで散乱した散乱光による像である。   In the well 25a of the culture vessel 25, focusing on the partial region 3d facing the dark portion 1d, the partial region 3d is illuminated from the oblique direction by the light Lb emitted from the two bright portions 1b, but light is emitted from the dark portion 1d. Since it does not inject, the partial area 3d is not illuminated from the front. That is, the partial area 3d is obliquely illuminated by the light Lb. Therefore, a dark field image 5d of the partial region 3d is formed in a region conjugate with the partial region 3d in the image sensor 17. In this dark field image 5d, an image of the cell 3a existing in the partial region 3d appears. This image (cell image) is not an image by direct light transmitted through the cell 3a but an image by scattered light scattered at the edge of the cell 3a.

培養容器25のウェル25aのうち、明部1bに正対する部分領域3bに着目すると、部分領域3bは明部1bによって正面から照明される。よって、撮像素子17のうち部分領域3bと共役な領域には、部分領域3bの明視野像5bが形成される。この明視野像5bには、部分領域3b中に存在する細胞3aの像は現れない。   In the well 25a of the culture vessel 25, when attention is paid to the partial region 3b that faces the bright portion 1b, the partial region 3b is illuminated from the front by the bright portion 1b. Therefore, a bright field image 5b of the partial region 3b is formed in a region conjugate with the partial region 3b in the image sensor 17. In the bright field image 5b, an image of the cell 3a existing in the partial region 3b does not appear.

したがって、撮像素子17上には、細胞像を含む暗視野像5dと細胞像を含まない明視野像5bとを繰り返し配置したストライプ像が形成される。よって、透過型液晶パネル11が表示するストライプパターンの位相をシフト(位相シフト)させながら撮像素子17で繰り返し撮像を行い、それによって得られた複数の画像の暗視野像5dを繋ぎ合わせれば、培養容器25の全域に点在する細胞群を一望可能な合成画像が得られる。   Therefore, a stripe image in which the dark field image 5d including the cell image and the bright field image 5b not including the cell image are repeatedly arranged is formed on the image sensor 17. Therefore, if the imaging element 17 repeatedly performs imaging while shifting the phase of the stripe pattern displayed on the transmissive liquid crystal panel 11 (phase shift), and the dark field images 5d of a plurality of images obtained thereby are connected, the culture A composite image can be obtained in which the cells scattered throughout the container 25 can be viewed.

例えば、図4の(A)、(B)、(C)に示すように、ストライプパターンの位相をシフトピッチΔでシフトさせながら撮像素子17で撮像を行い、撮像により得られた図5の(A)、(B)、(C)に示す3枚の画像の有効領域(図4の幅Ba’の部分)を繋ぎ合わせれば、図6に示すように、培養容器25の全域に点在する細胞群を一望可能な合成画像が得られる。   For example, as shown in FIGS. 4A, 4B, and 4C, an image is picked up by the image pickup device 17 while shifting the phase of the stripe pattern by the shift pitch Δ, and the image shown in FIG. If the effective areas of the three images shown in A), (B), and (C) (the portion of width Ba ′ in FIG. 4) are connected, as shown in FIG. A composite image with a panoramic view of the cell group can be obtained.

図7は、被観察物の観察に関するコントローラ21のCPU37の動作を示すフローチャートである。なお、このフローは、ユーザによる入力部27への観察開始の入力によりスタートする。   FIG. 7 is a flowchart showing the operation of the CPU 37 of the controller 21 relating to the observation of the object to be observed. This flow starts when the user inputs an observation start to the input unit 27.

ステップS1:CPU37は、図4に示したような直線のストライプパターンを透過型液晶パネル11に表示する。   Step S1: The CPU 37 displays a linear stripe pattern as shown in FIG.

ステップS2:CPU37は、培養容器25内の被観察物を撮像し画像を取得する。   Step S2: The CPU 37 captures an image of the observation object in the culture vessel 25 and acquires an image.

図8は、撮像素子17により取得された画像G1を示している。この画像G1は、透明な培養容器25として96ウェルプレートを用いた時の1つのウェル25aの画像である。ウェル25a内に収容される培養液のメニスカス効果により透過型液晶パネル11に表示される直線のストライプパターンが円弧状に変形している。このように、直線状のストライプパターンが円弧状等に変形して撮像されると、図5に示すように位相をシフトさせながら撮像された複数枚の画像から暗部の画像のみを抽出して合成することが困難になる。   FIG. 8 shows an image G <b> 1 acquired by the image sensor 17. This image G1 is an image of one well 25a when a 96-well plate is used as the transparent culture vessel 25. The straight stripe pattern displayed on the transmissive liquid crystal panel 11 is deformed into an arc shape due to the meniscus effect of the culture solution accommodated in the well 25a. In this way, when a linear stripe pattern is deformed into an arc shape or the like and imaged, only the dark part image is extracted from a plurality of images captured while shifting the phase as shown in FIG. It becomes difficult to do.

すなわち、図9に示すように、96ウェルプレートのウェル25a内に培養液41を収容すると、表面張力により培養液41の表面の外周部が盛り上がる。そして、培養液41の表面の盛り上がりによるメニスカス効果により、結像光学系15を介して撮像素子17に撮像される直線のストライプパターンが円弧状に変形する。なお、96ウェルプレートは、ウェル25aの直径が6mmであり、培養液41の表面の形状が円弧状のレンズ形状に近いものになる。従って、被観察物の倍率は略均一な倍率に保たれる。   That is, as shown in FIG. 9, when the culture solution 41 is stored in the well 25a of the 96-well plate, the outer peripheral portion of the surface of the culture solution 41 rises due to the surface tension. Then, due to the meniscus effect caused by the rise of the surface of the culture solution 41, the linear stripe pattern imaged on the image sensor 17 via the imaging optical system 15 is deformed into an arc shape. In the 96-well plate, the diameter of the well 25a is 6 mm, and the shape of the surface of the culture solution 41 is close to an arc-shaped lens shape. Therefore, the magnification of the object to be observed is maintained at a substantially uniform magnification.

ステップS3:CPU37は、取得した画像G1の歪みを補正する。この歪み補正により、画像G1の歪みが補正され、図10に示すように直線状のストライプパターンを有する画像G2を得ることができる。歪み補正の詳細は後述する。   Step S3: The CPU 37 corrects the distortion of the acquired image G1. By this distortion correction, the distortion of the image G1 is corrected, and an image G2 having a linear stripe pattern as shown in FIG. 10 can be obtained. Details of the distortion correction will be described later.

ステップS4:CPU37は、ウェル25aに対して、画像の取得および位相シフトからなる一連の処理を繰り返し予め設定されたm枚(例えば3枚)の画像を取得する。   Step S4: The CPU 37 repeats a series of processes including image acquisition and phase shift for the well 25a, and acquires m (for example, three) images set in advance.

ステップS5:CPU37は、取得されたm枚の画像の有効領域を取得順に並べて繋ぎ合わせることにより、1枚の合成画像を作成する。   Step S5: The CPU 37 creates one composite image by arranging and connecting the effective areas of the acquired m images in the order of acquisition.

ステップS6:CPU37は、ステップS5で作成した合成画像をディスプレイ15へ表示し、フローを終了する。   Step S6: The CPU 37 displays the composite image created in step S5 on the display 15, and ends the flow.

以下、上述したステップS3の歪み補正の内容を詳細に説明する。   Hereinafter, the details of the distortion correction in step S3 will be described in detail.

この歪み補正では、先ず、図11に示すように、透過型液晶パネル11に表示される直線のストライプパターンに対応する対応点Tの位置を抽出する。図11に示す画像G1では、ウェル25a内に収容される培養液のメニスカス効果により透過型液晶パネル11に表示される直線のストライプパターンが円弧状に変形している。ストライプパターンの長手方向をY軸とし、Y軸に垂直な方向をX軸とする。対応点TのY軸方向の座標Y1,Y2,…,Ynは予め設定されており、対応点TのY座標の位置はわかっている。従って、CPU37は、画像G1内における特定のストライプ像の各対応点TのX座標位置を計測することにより各対応点Tの位置を求める。   In this distortion correction, first, as shown in FIG. 11, the position of the corresponding point T corresponding to the straight stripe pattern displayed on the transmissive liquid crystal panel 11 is extracted. In the image G1 shown in FIG. 11, the linear stripe pattern displayed on the transmissive liquid crystal panel 11 is deformed into an arc shape due to the meniscus effect of the culture solution accommodated in the well 25a. The longitudinal direction of the stripe pattern is taken as the Y axis, and the direction perpendicular to the Y axis is taken as the X axis. The coordinates Y1, Y2,..., Yn of the corresponding point T in the Y-axis direction are set in advance, and the position of the Y coordinate of the corresponding point T is known. Therefore, the CPU 37 obtains the position of each corresponding point T by measuring the X coordinate position of each corresponding point T of the specific stripe image in the image G1.

各対応点TのX座標位置の計測は、図12に示すように、画像G1の各Y座標上の輝度の波形を用いて行われる。図12は、例えば図11のY2の位置を通りX軸に平行な線分上の輝度の波形を示している。この波形については、S/N比を向上するために各Y座標のY方向の前後に対して数画素分積算した波形を作成するのが望ましい。この積算波形に対してストライプパターンの線幅の2倍程度の対称性相関計算用の窓W1を用意する。そして、図13に示すように、ストライプパターンの暗部においてという条件の下に、窓W1内での相関値がピークとなるような位置を決定する。このピーク位置は、図11に示すストライプパターンの暗部の中央位置のX座標に対応する。これにより、本来直線であるはずの点群のずれ量、すなわち対応点Tのずれ量を計ることができる。   The measurement of the X coordinate position of each corresponding point T is performed using a luminance waveform on each Y coordinate of the image G1, as shown in FIG. FIG. 12 shows a luminance waveform on a line segment passing through the position Y2 in FIG. 11 and parallel to the X axis, for example. As for this waveform, it is desirable to create a waveform obtained by integrating several pixels before and after each Y coordinate in the Y direction in order to improve the S / N ratio. For this integrated waveform, a symmetry correlation calculation window W1 having about twice the line width of the stripe pattern is prepared. Then, as shown in FIG. 13, a position where the correlation value in the window W <b> 1 reaches a peak is determined under the condition that it is in the dark part of the stripe pattern. This peak position corresponds to the X coordinate of the center position of the dark part of the stripe pattern shown in FIG. Thereby, the deviation amount of the point group that should be a straight line, that is, the deviation amount of the corresponding point T can be measured.

次に、この点群を用いて自己校正(Self-calibration)を行う。この場合歪みが点対称であることから例えばタルディフの方法(J Tardif, P Sturm, and S Roy. Self-calibration of a general radially symmetric distortion model. In Proc. of the .9th European Conference on Computer Vision, Vol. 4, pp. 186 2006.)等を利用することで、歪みのない場合の点群の位置を推定することができ歪みの補正が可能となる。ここでは簡単に説明する。   Next, self-calibration is performed using this point group. In this case, since the distortion is point-symmetric, for example, the Tardiff method (J Tardif, P Sturm, and S Roy.Self-calibration of a general radially symmetric distortion model.In Proc. Of the .9th European Conference on Computer Vision, Vol. 4, pp. 186 2006.) and the like can be used to estimate the position of the point cloud when there is no distortion and to correct the distortion. Here is a brief description.

タルディフの方法は本来魚眼レンズなど中心対称な歪みを正しく補正することを目的としており、この歪みは実空間において直線であるストライプパターンが二次元画像に撮像される際に、ある中心点に対して屈曲して表示されることを意味している。この魚眼レンズによる歪みと、本発明で課題となる表面張力による歪み(メニスカス効果)とを置き換えて考えるものとする。   Taliff's method is originally intended to correct center-symmetric distortion such as a fisheye lens correctly, and this distortion is bent with respect to a certain center point when a stripe pattern that is a straight line in real space is captured in a two-dimensional image. It means that it is displayed. The distortion caused by the fisheye lens and the distortion caused by the surface tension (meniscus effect), which is a problem in the present invention, will be considered.

図14に示すように、本来、座標(x’,y’)に撮像されるべき点P’が、歪みの効果により座標(x,y)に撮像されたとする。歪み中心の座標Cを(cx,cy)とし、 As shown in FIG. 14, it is assumed that a point P ′ that should originally be imaged at the coordinates (x ′, y ′) is imaged at the coordinates (x, y) due to the effect of distortion. The coordinates C of the strain center and (c x, c y),

Figure 2010223676
Figure 2010223676

とする。また、r’はある関数f(r)を用いて
r’=r/f(r) …(1)
と表現できるものと仮定する。
And R ′ is a function f (r), and r ′ = r / f (r) (1)
It can be expressed as

実空間で直線上に並んでいる3点P1’,P2’,P3’が、画像座標(x1,y1),(x2,y2),(x3,y3)にそれぞれ撮像されたとする。 Three points P 1 ′, P 2 ′, and P 3 ′ arranged on a straight line in real space become image coordinates (x 1 , y 1 ), (x 2 , y 2 ), and (x 3 , y 3 ). Assume that each image is captured.

(1)によると、これらの3点は拘束条件   According to (1), these three points are constraint conditions.

Figure 2010223676
Figure 2010223676

を満たす。直線上に並ぶ3点の組を複数求め、式(2)を連立して解くことで、f(r),cx,cyが得られる。 Meet. A plurality of sets of three points arranged on a straight line are obtained, and f (r), c x , and cy are obtained by simultaneously solving Equation (2).

歪み補正後の座標(x’,y’)は、f(r),cx,cyを用いると For coordinates (x ′, y ′) after distortion correction, f (r), c x , and cy are used.

Figure 2010223676
Figure 2010223676

と表すことができる。 It can be expressed as.

上述した実施形態では、透過型液晶パネル11の暗部を直線にした状態で撮像素子17により画像G1を取得し、取得された画像G1から、直線状の暗部に対応する3点以上の対応点Tの位置を抽出し、対応点Tが一直線上に位置するようにして取得された画像G1の歪みを補正するようにしたので、合成画像の作成時に暗部の抽出を容易に行うことができる。
(第2の実施形態)
上述した第1の実施形態では、対応点TのX座標の位置をストライプパターンの暗部の中央位置としたが、この第2の実施形態では、対応点TのX座標の位置がストライプパターンの暗部のエッジ位置とされる。なお、この実施形態において第1の実施形態と同一の要素には同一の符号を付して詳細な説明を省略する。
In the above-described embodiment, the image G1 is acquired by the imaging element 17 in a state where the dark part of the transmissive liquid crystal panel 11 is linear, and three or more corresponding points T corresponding to the linear dark part are acquired from the acquired image G1. Since the distortion of the image G1 acquired so that the corresponding point T is positioned on a straight line is corrected, the dark part can be easily extracted when the composite image is created.
(Second Embodiment)
In the first embodiment described above, the X coordinate position of the corresponding point T is set to the center position of the dark portion of the stripe pattern. However, in this second embodiment, the X coordinate position of the corresponding point T is the dark portion of the stripe pattern. Edge position. In this embodiment, the same elements as those in the first embodiment are denoted by the same reference numerals, and detailed description thereof is omitted.

この実施形態では、各対応点TのX座標位置の計測は、図15に示すように、取得された画像G1の各Y座標上の輝度の波形を用いて行われる。この波形に対してストライプパターンの線幅の2倍程度のエッジ計算用の窓W2を用意する。そして、図16に示すように、窓W2内での輝度総和の微分値(窓W2の左半分の輝度総和から右半分の輝度総和を減算した値に対応する)がピークになるような位置を決定する。このピーク位置は、図15に示すストライプパターンの暗部のエッジ位置のX座標に対応する。これにより、本来直線であるはずの点群のずれ量、すなわち対応点Tのずれ量を計ることができる。   In this embodiment, the measurement of the X coordinate position of each corresponding point T is performed using a luminance waveform on each Y coordinate of the acquired image G1, as shown in FIG. For this waveform, an edge calculation window W2 having about twice the line width of the stripe pattern is prepared. Then, as shown in FIG. 16, the position where the differential value of the luminance sum in the window W2 (corresponding to the value obtained by subtracting the luminance sum of the right half from the luminance sum of the left half of the window W2) becomes a peak. decide. This peak position corresponds to the X coordinate of the edge position of the dark part of the stripe pattern shown in FIG. Thereby, the deviation amount of the point group that should be a straight line, that is, the deviation amount of the corresponding point T can be measured.

この実施形態では、ストライプパターンの暗部のエッジ位置を容易,確実に得ることができる。   In this embodiment, the edge position of the dark part of the stripe pattern can be obtained easily and reliably.

なお、ストライプ照明の運用上、ストライプパターンの反転も行われるため、微分ピークを利用せず、正像時の微分波形と反転時の微分波形との交点(この場合は暗部のエッジではなく暗部の線幅の中心位置となる)を利用しても良い。
(実施形態の補足事項)
以上、本発明を上述した実施形態によって説明してきたが、本発明の技術的範囲は上述した実施形態に限定されるものではなく、例えば、以下のような形態でも良い。
Note that the stripe pattern is also inverted in the operation of the stripe illumination, so the differential peak is not used, and the intersection of the differential waveform at the normal image and the differential waveform at the inversion (in this case, not the edge of the dark part but the dark part) (The center position of the line width) may be used.
(Supplementary items of the embodiment)
As mentioned above, although this invention was demonstrated by embodiment mentioned above, the technical scope of this invention is not limited to embodiment mentioned above, For example, the following forms may be sufficient.

(1)上述した実施形態では、明暗形状をストライプパターンにした観察装置に本発明を適用した例について説明したが、例えば、明暗形状を図17に示すようなチェッカーパターンにした観察装置にも適用することができる。そして、直線状に位置するチェッカーパターンの格子点を対応点として利用することにより対応点の位置をより高い精度で求めることができる。   (1) In the above-described embodiment, an example in which the present invention is applied to an observation apparatus having a light and dark shape in a stripe pattern has been described. However, for example, the present invention is also applied to an observation apparatus having a light and dark shape in a checker pattern as shown in FIG. can do. And the position of a corresponding point can be calculated | required with higher precision by utilizing the lattice point of the checker pattern located in a straight line as a corresponding point.

(2)上述した実施形態では、各ストライプパターンの画像を1枚ずつ取得した例について説明したが、例えば、各ストライプパターンの画像を複数枚取得し重ね合わせることで、S/N比を向上することが可能になり、これにより対応点の位置をより正確に求めることができる。   (2) In the above-described embodiment, an example in which one image of each stripe pattern is acquired has been described. However, for example, an S / N ratio is improved by acquiring and superimposing a plurality of images of each stripe pattern. This makes it possible to determine the position of the corresponding point more accurately.

(3)上述した実施形態におけるタルディフの方法では、対応点の数を増大するほど歪み補正の精度を向上することができる。従って、ストライプパターンの空間的周期(線幅)よりも小さい移動量でストライプパターンをシフトさせて対応点の数を増大するようにしても良い。   (3) In the Taldiff method in the above-described embodiment, the accuracy of distortion correction can be improved as the number of corresponding points is increased. Therefore, the number of corresponding points may be increased by shifting the stripe pattern by a movement amount smaller than the spatial period (line width) of the stripe pattern.

(4)上述した実施形態では、面光源を生成するために、バックライト付きの透過型液晶パネル11を用いたが、同様の面光源を生成できるのであれば、他のものを用いてもよい。例えば、LEDなどの小型光源を多数用意し、それらを密にアレイ状に配置し面光源を形成し、面光源上に、ストライプ状の開口を有したマスク部材を配置しても良い。   (4) In the above-described embodiment, the transmissive liquid crystal panel 11 with the backlight is used to generate the surface light source. However, other devices may be used as long as the same surface light source can be generated. . For example, a large number of small light sources such as LEDs may be prepared, and these may be densely arranged in an array to form a surface light source, and a mask member having a stripe-shaped opening may be disposed on the surface light source.

(5)上述した実施形態では、96ウェルプレートからなる培養容器25の観察に本発明を適用した例について説明したが、例えば、フラスコ等からなる培養容器にも適用することができる。例えば、フラスコの角部では、直線状のストライプパターンがメニスカス効果により比較的大きく変形するが、上述した実施形態と同様にして処理することができる。   (5) In the above-described embodiment, the example in which the present invention is applied to the observation of the culture container 25 composed of a 96-well plate has been described. For example, at the corner of the flask, the linear stripe pattern is relatively largely deformed by the meniscus effect, but can be processed in the same manner as in the above-described embodiment.

11…透過型液晶パネル、13…ステージ、15…結像光学系、17…撮像素子、21…コントローラ、25…培養容器、25a…ウェル。
DESCRIPTION OF SYMBOLS 11 ... Transmission-type liquid crystal panel, 13 ... Stage, 15 ... Imaging optical system, 17 ... Imaging element, 21 ... Controller, 25 ... Culture container, 25a ... Well.

Claims (5)

明部と暗部とを交互に設けてなる面光源により透明容器内に収容される被観察物を透過照明する照明手段と、
前記照明手段により照明された前記被観察物からの透過光を結像する結像光学系と、
前記結像光学系が形成した前記被観察物の画像を取得する撮像手段と、
前記面光源の明暗の位相をシフトさせながら前記撮像手段に複数枚の画像を取得させる制御手段と、
前記照明手段の明部と暗部で構成された直線状の特徴的なパターンを取得した画像から、前記直線状のパターンに対する3点以上の対応点の位置を抽出し、前記対応点が一直線上に位置するようにして前記取得された画像の歪みを補正する補正手段と、
を有することを特徴とする観察装置。
Illumination means for transmitting and illuminating an object to be observed contained in a transparent container by a surface light source in which bright portions and dark portions are alternately provided,
An imaging optical system that forms an image of transmitted light from the object illuminated by the illumination means;
Imaging means for acquiring an image of the object to be observed formed by the imaging optical system;
Control means for causing the imaging means to acquire a plurality of images while shifting the light-dark phase of the surface light source;
The positions of three or more corresponding points with respect to the linear pattern are extracted from an image obtained by acquiring a linear characteristic pattern composed of a bright part and a dark part of the illumination means, and the corresponding points are in a straight line. Correction means for correcting distortion of the acquired image so as to be positioned;
An observation apparatus comprising:
請求項1記載の観察装置において、
前記補正手段は、複数の前記暗部のそれぞれに対して3点以上の対応点の位置を抽出することを特徴とする観察装置。
The observation apparatus according to claim 1,
The said correction | amendment means extracts the position of three or more corresponding points with respect to each of the said some dark part, The observation apparatus characterized by the above-mentioned.
請求項1または請求項2記載の観察装置において、
前記透明容器は、複数のウェルを有するウェルプレートであることを特徴とする観察装置。
The observation device according to claim 1 or 2,
The observation apparatus, wherein the transparent container is a well plate having a plurality of wells.
請求項1記載の観察装置において、
前記面光源は、ストライプパターンあるいはチェッカーパターンを有するマスク部材と前記マスク部材を均一に照明する照明光源とから構成されることを特徴とする観察装置。
The observation apparatus according to claim 1,
The observation apparatus, wherein the surface light source includes a mask member having a stripe pattern or a checker pattern and an illumination light source that uniformly illuminates the mask member.
請求項1記載の観察装置において、
前記補正手段は、前記撮像手段により複数枚取得された前記画像を重ね合わせて前記画像の歪みを補正することを特徴とする観察装置。
The observation apparatus according to claim 1,
The observation unit, wherein the correction unit corrects distortion of the image by superimposing a plurality of images acquired by the imaging unit.
JP2009069718A 2009-03-23 2009-03-23 Observation device Withdrawn JP2010223676A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009069718A JP2010223676A (en) 2009-03-23 2009-03-23 Observation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009069718A JP2010223676A (en) 2009-03-23 2009-03-23 Observation device

Publications (1)

Publication Number Publication Date
JP2010223676A true JP2010223676A (en) 2010-10-07

Family

ID=43041031

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009069718A Withdrawn JP2010223676A (en) 2009-03-23 2009-03-23 Observation device

Country Status (1)

Country Link
JP (1) JP2010223676A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013170861A (en) * 2012-02-20 2013-09-02 Dainippon Screen Mfg Co Ltd Imaging apparatus, sample holding plate and imaging method
JP2015165249A (en) * 2015-06-25 2015-09-17 株式会社Screenホールディングス Sample holding plate, imaging device, and imaging method
JP2017090474A (en) * 2017-02-27 2017-05-25 株式会社Screenホールディングス Imaging apparatus and imaging method
JP2017125789A (en) * 2016-01-15 2017-07-20 株式会社Screenホールディングス Imaging apparatus and imaging method
WO2017158792A1 (en) * 2016-03-17 2017-09-21 富士機械製造株式会社 Device for measuring size of cells in culture solution and cell transport device
JP2019028232A (en) * 2017-07-28 2019-02-21 シチズン時計株式会社 Optical modulation element
CN110178014A (en) * 2016-11-14 2019-08-27 美国西门子医学诊断股份有限公司 Method and apparatus for using patterned illumination characterization sample
WO2019163369A1 (en) * 2018-02-20 2019-08-29 富士フイルム株式会社 Determination apparatus, cell detachment/collection apparatus, and determination method

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013170861A (en) * 2012-02-20 2013-09-02 Dainippon Screen Mfg Co Ltd Imaging apparatus, sample holding plate and imaging method
JP2015165249A (en) * 2015-06-25 2015-09-17 株式会社Screenホールディングス Sample holding plate, imaging device, and imaging method
WO2017122401A1 (en) * 2016-01-15 2017-07-20 株式会社Screenホールディングス Imaging device and imaging method
JP2017125789A (en) * 2016-01-15 2017-07-20 株式会社Screenホールディングス Imaging apparatus and imaging method
JPWO2017158792A1 (en) * 2016-03-17 2019-01-17 株式会社Fuji Device for measuring the size of cells in a culture solution and cell transfer device
WO2017158792A1 (en) * 2016-03-17 2017-09-21 富士機械製造株式会社 Device for measuring size of cells in culture solution and cell transport device
CN110178014A (en) * 2016-11-14 2019-08-27 美国西门子医学诊断股份有限公司 Method and apparatus for using patterned illumination characterization sample
JP2019533822A (en) * 2016-11-14 2019-11-21 シーメンス・ヘルスケア・ダイアグノスティックス・インコーポレーテッドSiemens Healthcare Diagnostics Inc. Method and apparatus for characterizing a sample using pattern illumination
US11073472B2 (en) 2016-11-14 2021-07-27 Siemens Healthcare Diagnostics Inc. Methods and apparatus for characterizing a specimen using pattern illumination
JP7012719B2 (en) 2016-11-14 2022-02-14 シーメンス・ヘルスケア・ダイアグノスティックス・インコーポレーテッド Methods and equipment for characterizing samples using pattern illumination
JP2017090474A (en) * 2017-02-27 2017-05-25 株式会社Screenホールディングス Imaging apparatus and imaging method
JP2019028232A (en) * 2017-07-28 2019-02-21 シチズン時計株式会社 Optical modulation element
WO2019163369A1 (en) * 2018-02-20 2019-08-29 富士フイルム株式会社 Determination apparatus, cell detachment/collection apparatus, and determination method
JPWO2019163369A1 (en) * 2018-02-20 2020-12-03 富士フイルム株式会社 Judgment device, cell exfoliation recovery device and judgment method
JP7030953B2 (en) 2018-02-20 2022-03-07 富士フイルム株式会社 Judgment device, cell detachment recovery device and judgment method

Similar Documents

Publication Publication Date Title
JP2010223676A (en) Observation device
US10788318B2 (en) Three-dimensional shape measurement apparatus
CN105247852B (en) Image acquiring device, image acquiring method and recording medium
US20100302364A1 (en) Three dimensional shape measurement apparatus and method
JP6447675B2 (en) Information processing apparatus, information processing method, program, and microscope system
WO2012161239A1 (en) Endoscope
JP2012042348A5 (en) Imaging apparatus, imaging system, information processing apparatus, imaging apparatus control method, and information processing method
EP2182401A3 (en) Image display apparatus
CN102057397A (en) System and method for producing an optically sectioned image using both structured and uniform illumination
US10051241B2 (en) Method and apparatus for image combination and displaying the combined image
JP2011027911A (en) Endoscope apparatus, measurement method, and program
JP2009003016A (en) Microscope and image acquisition system
JP2019187598A (en) Endoscope apparatus
CN104603668B (en) Image processing apparatus, image processing program and image processing method
JP5231173B2 (en) Endoscope device for measurement and program
JP5292846B2 (en) Observation device and observation method
JP5104637B2 (en) Observation device
JP2010020151A (en) Observation apparatus
US8189937B2 (en) Line-scanning confocal microscope apparatus
JP6635125B2 (en) Microscope, observation method, and image processing program
JP2007121243A (en) Device and method for inspecting image display panel
JP2008171756A (en) Distortion measuring method and luminance correction method of electron microscope
CN104516098B (en) Microscopy device and imaging method
JP2011002401A (en) Correction coefficient calculating method in luminance measuring apparatus, and luminance measuring apparatus
JP2005279054A (en) Device and method for displaying conversion image, and endoscope apparatus for industrial use

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20120605