JP2009063658A - Microscope system - Google Patents

Microscope system Download PDF

Info

Publication number
JP2009063658A
JP2009063658A JP2007229253A JP2007229253A JP2009063658A JP 2009063658 A JP2009063658 A JP 2009063658A JP 2007229253 A JP2007229253 A JP 2007229253A JP 2007229253 A JP2007229253 A JP 2007229253A JP 2009063658 A JP2009063658 A JP 2009063658A
Authority
JP
Japan
Prior art keywords
image
field
view
buffer
captured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007229253A
Other languages
Japanese (ja)
Inventor
Satoshi Suzuki
聡 鈴木
Akitoshi Suzuki
昭俊 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2007229253A priority Critical patent/JP2009063658A/en
Publication of JP2009063658A publication Critical patent/JP2009063658A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Microscoopes, Condenser (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To easily display an image even if an amount of data is extremely large. <P>SOLUTION: A connection/attribute creating section 164 creates first label information which is imparted to a plurality of pickup images picked up by respective several image sensors and includes at least the identifiers of the picked-up images and position information within the view field of an objective lens. A buffer 163 stores the picked-up images and the first label information while associated with each other. A connection/attribute creating section 166 creates second label information which is imparted to a one view field image when several stored picked-up images are connected as one view field image, i.e., an image of one field of view of the objective lens, and which includes at least the identifier of the one view field image and position information within an observation view field. A buffer 165 stores the one view field image and the second label information while associated with each other. This invention can be applied to a microscope system which has a microscope. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は顕微鏡システムに関し、特に、広視野かつ高解像度の標本画像を取得できるようにした顕微鏡システムに関する。   The present invention relates to a microscope system, and more particularly to a microscope system that can acquire a wide-field and high-resolution specimen image.

近年、顕微鏡によって観察するプレパラートの画像をデジタル化し、これを任意のモニタ上に表示して観察することが可能な技術が注目されている。   2. Description of the Related Art In recent years, attention has been focused on a technique that can digitize an image of a preparation to be observed with a microscope and display the image on an arbitrary monitor for observation.

特許文献1には、通常の顕微鏡にデジタルカメラを搭載し、X−Yステージを走査しながら従来の対物レンズを使用して顕微鏡画像をそれぞれ取得し、これらの複数の画像を結合させ大きな標本画像を生成する「バーチャルスライド」または「バーチャルマイクロスコピー」なる技術が開示されている。
米国特許出願公開第2001/0050999号明細書
In Patent Document 1, a digital camera is mounted on a normal microscope, a microscope image is acquired using a conventional objective lens while scanning an XY stage, and a plurality of these images are combined to obtain a large specimen image. A technique called “virtual slide” or “virtual microscopy” is disclosed.
US Patent Application Publication No. 2001/0050999

しかしながら、特許文献1を含む従来の技術においては、1つの撮像素子によって対物レンズで拡大された標本像の撮像画像を取得しつつ、大きな全体画像を構築していたが、データ量が膨大になると、画像の表示が困難になる問題があった。   However, in the conventional techniques including Patent Document 1, a large whole image is constructed while acquiring a captured image of a specimen image magnified by an objective lens with one image sensor, but when the amount of data becomes enormous There is a problem that it becomes difficult to display an image.

さらに、本発明においては、複数の撮像素子によって、対物レンズで拡大された標本の画像を同時に撮像するため、この問題はさらに顕著なものとなる。   Furthermore, in the present invention, the image of the specimen magnified by the objective lens is simultaneously picked up by a plurality of image pickup elements, so this problem becomes more remarkable.

具体的には、最終的なデータ保存形態としては、次の2つの方法を採用することができる。すなわち、第1に、取得時に全画像を1ファイルとして保存する方法と、第2に、取得単位毎に画像を保存する際に、同時にラベル情報(識別子および位置情報)も保存し、表示時にはそのラベル情報に基づいて画像を接続する方法である。   Specifically, the following two methods can be adopted as the final data storage form. That is, firstly, the method of saving all images as one file at the time of acquisition, and secondly, when saving an image for each acquisition unit, label information (identifier and position information) is also saved at the same time, This is a method of connecting images based on label information.

これらの方法を仮に採用したとすると、前者は、データ量が膨大になった場合、画像表示時にデータの展開が行えない等の不都合が生じる。また、後者は、データの分割数が膨大になった場合、画像表示時のラベル情報収集と、そのラベル情報に基づいた画像接続処理に要する時間が膨大となる等の不都合が生じる。このように、従来の技術であると、全体画像を構築するためのデータ量が膨大になると、画像の表示を容易に行うことができなかった。   If these methods are adopted, the former causes inconveniences such as inability to expand data when displaying an image when the amount of data becomes enormous. In the latter case, when the number of data divisions becomes enormous, inconveniences such as the time required for collecting label information at the time of image display and the image connecting process based on the label information become enormous. As described above, in the case of the conventional technique, if the amount of data for constructing the entire image becomes enormous, the image cannot be displayed easily.

本発明はこのような状況に鑑みてなされたものであり、全体画像を構築するためのデータ量が膨大となっても、画像の表示を容易に行うことができるようにするものである。   The present invention has been made in view of such a situation, and makes it possible to easily display an image even if the amount of data for constructing an entire image becomes enormous.

本発明の一側面の顕微鏡システムは、
標本が載置されるステージ(例えば、図2の電動X−Yステージ16)と対物レンズ(例えば、図2の対物レンズ12)とを有し、前記標本を観察する顕微鏡(例えば、図2の大型顕微鏡1)を有する顕微鏡システム(例えば、図13の顕微鏡システム)において、
前記対物レンズの視野内に収まるように設けられた複数の撮像素子からなる撮像手段(例えば、図13のカメラヘッド111)と、
前記複数の撮像素子のそれぞれにより撮像された複数の撮像画像に付与する第1のラベル情報であって、その撮像画像の識別子および前記対物レンズの視野内における位置情報を少なくとも含んでいる前記第1のラベル情報を生成する第1の生成手段(例えば、図13の接続/属性生成部164)と、
前記撮像画像と、前記第1のラベル情報とを対応させて格納する第1のバッファ(例えば、図13のバッファ163)と、
前記第1のバッファに格納された複数の撮像画像が前記対物レンズの1視野分の画像である1視野画像として接続されたとき、前記1視野画像に付与する第2のラベル情報であって、その1視野画像の識別子および観察視野内における位置情報を少なくとも含んでいる前記第2のラベル情報を生成する第2の生成手段(例えば、図13の接続/属性生成部166)と、
前記1視野画像と、前記第2のラベル情報とを対応させて格納する第2のバッファ(例えば、図13のバッファ165)と
を備える。
A microscope system according to one aspect of the present invention includes:
A microscope (for example, FIG. 2) having a stage (for example, the motorized XY stage 16 in FIG. 2) on which the specimen is placed and an objective lens (for example, the objective lens 12 in FIG. 2) are observed. In a microscope system having a large microscope 1) (for example, the microscope system of FIG. 13),
Imaging means (for example, the camera head 111 in FIG. 13) comprising a plurality of imaging elements provided so as to fall within the field of view of the objective lens;
1st label information given to a plurality of picked-up images picked up by each of the plurality of image pick-up elements, and includes at least an identifier of the picked-up image and position information in the field of view of the objective lens. First generation means for generating the label information (for example, the connection / attribute generation unit 164 in FIG. 13);
A first buffer (for example, buffer 163 in FIG. 13) that stores the captured image and the first label information in association with each other;
When a plurality of captured images stored in the first buffer are connected as one field image that is an image for one field of the objective lens, second label information to be given to the one field image, Second generation means (for example, the connection / attribute generation unit 166 in FIG. 13) that generates the second label information including at least the identifier of the one visual field image and position information in the observation visual field;
A second buffer (for example, a buffer 165 in FIG. 13) that stores the one-view image and the second label information in association with each other.

前記撮像手段によって、前記対物レンズにおける1視野分の画像が撮像されたとき、前記第1のバッファに格納された前記複数の撮像画像を、前記1視野画像として接続する第1の接続手段(例えば、図13の接続/属性生成部164によって実行される、図16のステップS58の処理)と、
観察視野分の1視野画像が前記第2のバッファに格納されたとき、前記第2のバッファに格納された複数の1視野画像を、前記標本の画像である標本画像として接続する第2の接続手段(例えば、図13の接続/属性生成部166によって実行される、図17のステップS64の処理)と
をさらに備える。
When an image for one field of view in the objective lens is picked up by the image pickup means, a first connection means for connecting the plurality of picked-up images stored in the first buffer as the one field-of-view image (for example, , The process of step S58 of FIG. 16 executed by the connection / attribute generation unit 164 of FIG.
A second connection for connecting a plurality of one-field images stored in the second buffer as specimen images that are images of the specimen when one field-of-view image for the observation field is stored in the second buffer; Means (for example, the process of step S64 of FIG. 17 executed by the connection / attribute generation unit 166 of FIG. 13).

前記1視野画像は、前記標本画像が接続されるときに、隣接する他の1視野画像と接続するための領域を有しており、
前記第2の接続手段は、前記複数の1視野画像を、前記標本画像として接続するとき、前記領域を除去する(例えば、図13の接続/属性生成部166によって実行される、図17のステップS64の処理)。
The one field-of-view image has an area for connecting with another one field-of-view image adjacent when the sample image is connected;
The second connection means removes the region when connecting the plurality of one-field images as the specimen image (for example, the step of FIG. 17 executed by the connection / attribute generation unit 166 of FIG. 13). Process of S64).

前記第2のバッファに格納された前記領域が除去された前記1視野画像と、前記第2のラベル情報とを対応させて保存する保存手段(例えば、図13の画像データ保存部168)と
をさらに備える。
A storage unit (for example, an image data storage unit 168 in FIG. 13) that stores the one field-of-view image from which the region stored in the second buffer is removed and the second label information in association with each other; Further prepare.

保存されている前記第2のラベル情報に基づいて、その第2のラベル情報に対応する前記1視野画像を表示する表示手段(例えば、図13のディスプレイ116)をさらに備える。   Display means (for example, the display 116 in FIG. 13) is further provided for displaying the one field-of-view image corresponding to the second label information based on the stored second label information.

本発明の一側面においては、複数の撮像素子のそれぞれにより撮像された複数の撮像画像に付与する第1のラベル情報であって、その撮像画像の識別子および対物レンズの視野内における位置情報を少なくとも含んでいる第1のラベル情報が生成され、撮像画像と、第1のラベル情報とが対応させて格納され、格納された複数の撮像画像が対物レンズの1視野分の画像である1視野画像として接続されたとき、1視野画像に付与する第2のラベル情報であって、その1視野画像の識別子および観察視野内における位置情報を少なくとも含んでいる第2のラベル情報が生成され、1視野画像と、第2のラベル情報とが対応させて格納される。   In one aspect of the present invention, the first label information is provided to a plurality of captured images captured by each of the plurality of imaging elements, and includes at least an identifier of the captured image and position information in the field of view of the objective lens. The first label information included is generated, the captured image and the first label information are stored in association with each other, and the stored multiple captured images are images for one field of view of the objective lens. Second label information to be added to one field-of-view image, which includes at least an identifier of the one field-of-view image and position information in the observation field of view. The image and the second label information are stored in association with each other.

本発明の一側面によれば、分割されて取得された画像の管理が容易になり、これに伴い、画像表示時の分割画像収集および結合処理が容易になる。   According to an aspect of the present invention, management of divided and acquired images is facilitated, and accordingly, divided image collection and combination processing during image display is facilitated.

以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明
する。
Hereinafter, specific embodiments to which the present invention is applied will be described in detail with reference to the drawings.

図1は、大型顕微鏡の全体の構成を示す概略断面図である。   FIG. 1 is a schematic cross-sectional view showing the overall configuration of a large microscope.

大型顕微鏡1は、例えば細胞等の標本が載置されるステージと対物レンズとの距離を調整してピントを合わせて、標本を観察する顕微鏡である。   The large-sized microscope 1 is a microscope that observes a specimen by adjusting the distance between a stage on which a specimen such as a cell is placed and an objective lens to adjust the focus.

大型顕微鏡1は、撮像部11、対物レンズ12、AF(Auto Focus)ユニット13、フレーム/ハウジング部14、光源部15、電動X−Yステージ16、Z軸駆動部17、および透過照明ユニット18を含むようにして構成される。   The large microscope 1 includes an imaging unit 11, an objective lens 12, an AF (Auto Focus) unit 13, a frame / housing unit 14, a light source unit 15, an electric XY stage 16, a Z-axis driving unit 17, and a transmission illumination unit 18. Constructed to include.

撮像部11は、複数のCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の撮像素子を搭載し、高N.A、広視野の対物レンズ12により形成される標本の拡大像を広視野に撮像する。ここで、撮像部11に搭載される撮像素子の数は、対物レンズ12で形成される像の形成面積により決定される。例えば、撮像部11には、対物レンズ12による像の形成面積に応じて、図中のX−Y方向(水平方向)に、3×3、3×2、2×2個等の撮像素子が設けられる。本実施の形態では、説明を分かり易くするために、撮像部11には、2×2個のCCDが搭載されているとして説明する。   The imaging unit 11 includes a plurality of CCD (Charge Coupled Device) and CMOS (Complementary Metal Oxide Semiconductor) imaging elements, and a wide-field image of a specimen formed by the objective lens 12 having a high NA and a wide field of view. Take an image. Here, the number of image pickup devices mounted on the image pickup unit 11 is determined by the formation area of the image formed by the objective lens 12. For example, the imaging unit 11 includes 3 × 3, 3 × 2, 2 × 2, etc. imaging elements in the XY direction (horizontal direction) in the drawing according to the image formation area by the objective lens 12. Provided. In the present embodiment, in order to make the description easy to understand, it is assumed that 2 × 2 CCDs are mounted on the imaging unit 11.

また、撮像部11は、図示せぬ撮像ユニット駆動系により、X−Y方向の走査が可能である。   The imaging unit 11 can scan in the XY directions by an imaging unit drive system (not shown).

AFユニット13は、対物レンズ12に対するZ方向への位置調整が可能なZ軸駆動部17を利用して、図中のZ軸方向(垂直方向(光軸方向))を調整し、電動X−Yステージ16に載置された標本(プレパラート上の試料に被せられたカバーガラス)にピントを合わせる。また、図示はしていないが、本実施の形態では、撮像部11にセンサが設けられており、これにより試料の画像をオートフォーカスさせている。   The AF unit 13 adjusts the Z-axis direction (vertical direction (optical axis direction)) in the drawing by using a Z-axis drive unit 17 capable of adjusting the position in the Z direction with respect to the objective lens 12, and performs electric X- The sample is placed on the Y stage 16 (the cover glass placed on the sample on the slide) and is brought into focus. Although not shown, in the present embodiment, the imaging unit 11 is provided with a sensor, which autofocuses the sample image.

これらの撮像部11、対物レンズ12、およびAFユニット13は、フレーム/ハウジング部14により支えられる。   The imaging unit 11, the objective lens 12, and the AF unit 13 are supported by a frame / housing unit 14.

電動X−Yステージ16は、図示せぬ駆動系やセンサ等から構成され、載置された標本をX−Y方向に移動させる。なお、標本(プレパラート)は、図示しないローダによって、電動X−Yステージ16に1枚ずつ搬送される。透過照明ユニット18は、光源となる光源部15からの光により、電動X−Yステージ16上に載置された標本を照明する。   The electric XY stage 16 includes a drive system, a sensor, and the like (not shown), and moves the placed specimen in the XY direction. The specimens (preparations) are conveyed one by one to the electric XY stage 16 by a loader (not shown). The transmitted illumination unit 18 illuminates the specimen placed on the electric XY stage 16 with light from the light source unit 15 serving as a light source.

以上のようにして、大型顕微鏡1は構成される。   The large microscope 1 is configured as described above.

かかる大型顕微鏡1においては、図2に示すように、観察対象となる標本が、電動X−Yステージ16に載置されるが、上述したように、その標本は、1枚ずつ電動X−Yステージ16に搬送される。その後、AFユニット13によって、その搬送された標本が所定のZ位置にあるか否かが検出され、撮像部11によって、対物レンズ12により形成される標本の像が撮像される。   In such a large microscope 1, as shown in FIG. 2, specimens to be observed are placed on the electric XY stage 16, but as described above, the specimens are electrically driven XY one by one. It is conveyed to the stage 16. Thereafter, the AF unit 13 detects whether or not the conveyed sample is at a predetermined Z position, and the imaging unit 11 captures an image of the sample formed by the objective lens 12.

本実施の形態では、この撮像部11(複数のCCD)により撮像される複数の撮像画像を接続(画像の貼り合わせ)することで、1枚の観察視野分の標本画像が生成される。そこで、まず、図3乃至図10を参照して、かかる本実施の形態における、撮像画像の接続方法について説明する。なお、図3乃至図10を参照して説明する動作は、電動X−Yステージ16に搬送された標本にピントが合わせられた後の動作となる。   In the present embodiment, a plurality of captured images captured by the imaging unit 11 (a plurality of CCDs) are connected (images are combined) to generate a sample image for one observation field. First, a method for connecting captured images in the present embodiment will be described with reference to FIGS. The operation described with reference to FIGS. 3 to 10 is an operation after focusing on the sample conveyed to the electric XY stage 16.

まず、図3を参照して、図1の撮像部11の詳細な構成について説明する。   First, a detailed configuration of the imaging unit 11 in FIG. 1 will be described with reference to FIG.

図3に示すように、撮像部11は、CCD41乃至CCD44の4つのCCDを搭載した撮像ユニット31から構成される。CCD41乃至CCD44は、例えば、複数の撮像画像を接続する際に必要となる、ステージやCCD等の誤差に基づくのりしろを考慮した所定の間隔で配置される。例えば、パッケージに必要な間隔を持って複数のCCDが配置される。   As illustrated in FIG. 3, the imaging unit 11 includes an imaging unit 31 that includes four CCDs 41 to 44. For example, the CCDs 41 to 44 are arranged at predetermined intervals in consideration of margins based on errors such as a stage and a CCD, which are necessary when connecting a plurality of captured images. For example, a plurality of CCDs are arranged at intervals necessary for the package.

この撮像ユニット31によって、図1の対物レンズ12で観察できる視野を撮像している様子を表現すると、例えば、図4のようになる。すなわち、図4の上側の図の対物レンズ12の視野51の内側には、4×4の四角が格子状に配置されているが、これらの四角は、撮像ユニット31に搭載されたCCD41乃至CCD44のいずれかに対応している。   FIG. 4 shows, for example, how the imaging unit 31 captures a field of view that can be observed with the objective lens 12 of FIG. That is, 4 × 4 squares are arranged in a lattice pattern inside the field of view 51 of the objective lens 12 in the upper diagram of FIG. 4, and these squares are CCD 41 to CCD 44 mounted on the imaging unit 31. It corresponds to either.

撮像ユニット31が最初の位置(以下、第1の位置と称する)にあるとき、CCD41、CCD42、CCD43、CCD44は、図4に示すように、それぞれ、411、421、431、441と表現される。次に、撮像ユニット31が第1の位置からX軸方向に1CCD分の移動した位置(以下、第2の位置と称する)に移動すると、CCD41乃至CCD44は、それぞれ、412、422、432、442となる。 When the imaging unit 31 is in the initial position (hereinafter referred to as the first position), the CCD 41, the CCD 42, the CCD 43, and the CCD 44 are respectively 41 1 , 42 1 , 43 1 , 44 1 as shown in FIG. It is expressed. Next, when the imaging unit 31 moves from the first position to a position moved by 1 CCD in the X-axis direction (hereinafter referred to as a second position), the CCD 41 to CCD 44 are 41 2 , 42 2 , 43, respectively. 2 and 44 2 .

また、撮像ユニット31が、第2の位置から、X軸方向に−1CCD、かつ、Y軸方向に1CCD分の移動した位置(以下、第3の位置と称する)に移動すると、CCD41乃至CCD44は、それぞれ、413、423、433、443となる。次に、撮像ユニット31が、第3の位置からX軸方向に1CCD分の移動した位置(以下、第4の位置と称する)に移動すると、CCD41乃至CCD44は、それぞれ、414、424、434、444となる。 When the imaging unit 31 moves from the second position to a position (hereinafter referred to as a third position) moved by −1 CCD in the X-axis direction and 1 CCD in the Y-axis direction, the CCDs 41 to 44 are , 41 3 , 42 3 , 43 3 , and 44 3 , respectively. Next, when the imaging unit 31 moves from the third position to a position moved by 1 CCD in the X-axis direction (hereinafter referred to as a fourth position), the CCDs 41 to 44 are respectively 41 4 , 42 4 , 43 4 , 44 4 .

つまり、図4の下側の図に示すように、標本52が、対物レンズ12の視野51に入っている場合を考えると、撮像ユニット31を第1の位置に移動させることで、CCD411乃至CCD441によって、標本52の一部が撮像される。その後、撮像ユニット31を、第1の位置から、第2の位置、第3の位置、第4の位置の順に移動させて、合計4回の移動と撮像を繰り返し行うことで、CCD41乃至CCD44は、対物レンズ12の1視野分の撮像画像を撮像できる。 That is, as shown in the lower diagram of FIG. 4, considering the case where the sample 52 is in the field of view 51 of the objective lens 12, the CCD 41 1 to the CCD 41 1 through the image pickup unit 31 are moved to the first position. the CCD 44 1, a portion of the specimen 52 is imaged. Thereafter, the imaging unit 31 is moved from the first position in the order of the second position, the third position, and the fourth position, and the CCD 41 to the CCD 44 are moved by repeating the movement and imaging a total of four times. The captured image for one field of view of the objective lens 12 can be captured.

また、本実施の形態では、標本全体にわたって高い解像度を持つ画像を取得するためには、複数視野分の撮像画像を取得する必要があるので、対物レンズ12の視野51を移動させながら、標本の撮像が行われる。図5は、複数視野分の撮像画像を取得する様子を示す模式図である。   Further, in the present embodiment, in order to acquire an image having high resolution over the entire specimen, it is necessary to acquire captured images for a plurality of visual fields. Therefore, while moving the visual field 51 of the objective lens 12, Imaging is performed. FIG. 5 is a schematic diagram showing how captured images for a plurality of fields of view are acquired.

図5において、標本61は、プレパラート62上に置かれており、その上を図示しないカバーガラスにより覆われている。   In FIG. 5, a specimen 61 is placed on a preparation 62, and the top is covered with a cover glass (not shown).

図5においては、上側の図に示すように、図1の電動X−Yステージ16を用いて、視野511、視野512、視野513、視野514、視野515、視野516、視野517、視野518、視野519の位置を順次移動して撮像することで、下側の図に示すような、標本画像71が取得される。 In FIG. 5, as shown in the upper diagram, using the motorized XY stage 16 of FIG. 1, the visual field 51 1 , the visual field 51 2 , the visual field 51 3 , the visual field 51 4 , the visual field 51 5 , the visual field 51 6 , field 51 7, viewing 51 8, by sequentially moving to the imaging position of the field 51 9, as shown in the lower diagram, the sample image 71 is acquired.

すなわち、標本画像71は、視野511で取得された1視野画像71A、視野512取得された1視野画像71B、視野513で取得された1視野画像71C、視野514で取得された1視野画像71D、視野515で取得された1視野画像71E、視野516で取得された1視野画像71F、視野517で取得された1視野画像71G、視野518で取得された1視野画像71H、および視野519で取得された1視野画像71Iの合計9視野の画像からなる。 That is, the sample image 71 was acquired 1 field image 71A obtained in field 51 1, field 51 2 obtained 1-field image 71B, one visual field image 71C obtained by the field 51 3, at a viewing 51 4 1 field images 71D, 1 field image 71E obtained at a viewing 51 5, 1 field image 71F obtained at a viewing 51 6, 1 field image 71G obtained at a viewing 51 7, 1 field image acquired by the field 51 8 71H, and it consists of a total of 9 field of view of the image of one field image 71I obtained in field 51 9.

このように、標本画像71は9視野の画像からなるが、その1視野分の1視野画像の取り込み方法について説明すると次のようになる。すなわち、図6は、1視野分の撮像画像を取得する方法を示す模式図である。   As described above, the sample image 71 is composed of images of nine fields of view. A method for capturing one field of view image for one field of view will be described as follows. That is, FIG. 6 is a schematic diagram illustrating a method for acquiring a captured image for one field of view.

図6においては、視野511における撮像ユニット31の位置の変化の様子が示されている。すなわち、撮像ユニット31は、X−Y方向を移動することで、第1の位置(左上の図)、第2の位置(右上の図)、第3の位置(左下の図)、第4の位置(右下の図)における撮像画像を取得できる。 FIG. 6 shows a change in the position of the imaging unit 31 in the visual field 51 1 . That is, the image pickup unit 31 moves in the XY directions, so that the first position (upper left diagram), the second position (upper right diagram), the third position (lower left diagram), the fourth position A captured image at the position (lower right figure) can be acquired.

第1の位置において、CCD411、CCD421、CCD431、およびCCD441は、それぞれ異なる領域の撮像画像を取得し、4枚の撮像画像を得る。続いて、第1の位置から第2の位置に移動すると、ここでも、CCD412、CCD422、CCD432、およびCCD442は、それぞれいずれとも異なる領域の撮像画像を取得し、4枚の撮像画像を得る。 In the first position, CCD 41 1, CCD 42 1, CCD 43 1, and CCD 44 1 obtains a captured image of the different regions, obtaining four captured images. Then, moving from the first position to the second position, again, CCD 41 2, CCD 42 2, CCD 43 2, and CCD 44 2 obtains a captured image of a region different than either respectively, four captured images Get.

次に、CCD413、CCD423、CCD433、およびCCD443によって、第3の位置における4枚の撮像画像が取得され、CCD414、CCD424、CCD434、およびCCD444によって、第4の位置における4枚の撮像画像が取得される。これにより、視野511における1視野分の16枚の撮像画像が取り込まれる。 Next, in the CCD 41 3, CCD 42 3, CCD 43 3, and CCD 44 3, 4 of captured images in the third position is obtained, CCD 41 4, CCD 42 4, CCD 43 4, and the CCD 44 4, the fourth position Four captured images are acquired. As a result, 16 captured images corresponding to one visual field in the visual field 51 1 are captured.

その後、図7に示すように、電動X−Yステージ16を移動させることで、対物レンズ12の視野51は、視野511から視野512に移動する。すなわち、図7は、図6で示した視野511における1視野分の撮像画像を取り込んだ後の次の視野512における1視野分の撮像画像の取得の様子を示す模式図である。 After that, as shown in FIG. 7, the electric field 51 of the objective lens 12 moves from the visual field 51 1 to the visual field 51 2 by moving the motorized XY stage 16. That is, FIG. 7 is a schematic diagram showing the acquisition of one field of view portion of the captured image in the next field 51 2 of after capturing a captured image of one field worth in the field of view 51 1 shown in FIG.

図7に示すように、視野512においては、視野511と同様に、撮像ユニット31を、第1の位置、第2の位置、第3の位置、第4の位置の順に移動させて、4回の撮像を行うことで、1視野分の撮像画像(合計16枚の撮像画像)が取得される。その後、視野513乃至視野519においても同様に、撮像ユニット31を、第1の位置乃至第4の位置に順次移動させて、それぞれ、1視野分の撮像画像が取得される。 As shown in FIG. 7, in the visual field 51 2 , as in the visual field 51 1 , the imaging unit 31 is moved in the order of the first position, the second position, the third position, and the fourth position, By performing the imaging four times, a captured image for one field of view (a total of 16 captured images) is acquired. Then, also in the field of view 51 3 to field 51 9, the imaging unit 31, a first position to be moved sequentially to the fourth position, respectively, captured images of one field of view worth is obtained.

これらの1視野毎に16枚ずつ取得された撮像画像は、1視野毎にその16枚の撮像画像が接続されて1枚の1視野画像となる。図8は、1視野毎の撮像画像の接続の様子を示す模式図である。   The 16 captured images acquired for each visual field are connected to the 16 captured images for each visual field to form one single visual field image. FIG. 8 is a schematic diagram illustrating a connection state of captured images for each visual field.

図8の左側の図に示すように、視野511における1視野分の撮像画像は、撮像ユニット31のCCD41乃至CCD44が、撮像画像の縦横の貼り合わせのための重なり部分(のりしろ)を考慮して配置されているため、その一部が隣接する撮像画像と重なっている。 As shown on the left side of FIG. 8, 1 fields of view of the captured image in the field of view 51 1, CCD 41 to CCD44 of the imaging unit 31, considering the overlapping portion for bonding the aspect of the captured image (margin) Are partly overlapped with adjacent captured images.

すなわち、視野511の第1の位置において、CCD411、CCD421、CCD431、CCD441によって撮像される画像を、撮像画像71A11、撮像画像71A21、撮像画像71A31、撮像画像71A41とすると、それらの撮像画像は、縦横に隣接する他の撮像画像との貼り合わせのためののりしろを有している。 That is, in the first position of the field of view 51 1, an image captured by the CCD 41 1, CCD 42 1, CCD 43 1, CCD 44 1, captured images 71A 11, captured image 71A 21, captured image 71A 31, the captured image 71A 41 Then, these captured images have a margin for pasting with other captured images adjacent vertically and horizontally.

同様にまた、第2の位置において、CCD412乃至CCD442によって撮像される撮像画像71A12乃至撮像画像71A42、第3の位置において、CCD413乃至CCD443によって撮像される撮像画像71A13乃至撮像画像71A43、第4の位置において、CCD414乃至CCD444によって撮像される撮像画像71A14乃至撮像画像71A44は、縦横に隣接する他の撮像画像との貼り合わせのためののりしろを有している。 Similarly Further, in the second position, CCD 41 2 or CCD 44 2 captured image 71A 12 to the captured image 71A 42 captured by, in a third position, CCD 41 3 to CCD 44 captured images 71A 13 through the imaging is imaged by 3 image 71A 43, in the fourth position, the captured image 71A 14 to the captured image 71A 44 captured by the CCD 41 4 to CCD 44 4, a margin for bonding with other captured image adjacent to the vertical and horizontal Yes.

そして、それらののりしろを有している撮像画像71A11乃至撮像画像71A44は、そののりしろを考慮して隣接する他の撮像画像と接続されることで、図8の右側の図に示すように、1枚の1視野分の1視野画像71Aとなる。 Then, the captured image 71A 11 to the captured image 71A 44 have their margin, by being connected to the other captured images adjacent considering its margin, as shown on the right side of FIG. 8 One visual field image 71A for one visual field is obtained.

具体的には、視野511において、画像を接続する場合、例えば、まず、撮像画像71A11に注目すると、その撮像画像71A11に対して、横に位置する撮像画像71A12と重なっている部分(のりしろ)が取り除かれる。次に、その撮像画像71A12に対して、横に位置する撮像画像71A21とののりしろが取り除かれ、さらに、その撮像画像71A21に対して、横に位置する撮像画像71A22とののりしろが取り除かれる。この状態で、視野511における、横列(1行目)が接続される。 Portion Specifically, in the field of view 51 1, when connecting the image, for example, first, focusing on the captured image 71A 11, which for the captured image 71A 11, overlaps the captured image 71A 12 located laterally (Margin) is removed. Next, with respect to the captured image 71A 12, the margin of the captured image 71A 21 located laterally is removed, further, with respect to the captured image 71A 21, the margin of the captured image 71A 22 located laterally Removed. In this state, the row (first row) in the visual field 51 1 is connected.

次に、撮像画像71A13に対して、その上に位置する撮像画像71A11と撮像画像71A12とののりしろが取り除かれる。次に、撮像画像71A14に対して、その上に位置する撮像画像71A12と撮像画像71A21とののりしろが取り除かれ、さらにその撮像画像71A14の横に位置する撮像画像71A13とのりしろが取り除かれる。次に、撮像画像71A23に対して、その上に位置する撮像画像71A21と撮像画像71A22とののりしろが取り除かれ、さらにその撮像画像71A23の横に位置する撮像画像71A14とののりしろが取り除かれる。次に、撮像画像71A24に対して、その上に位置する撮像画像71A22とののりしろが取り除かれ、さらにその撮像画像71A24の横に位置する撮像画像71A23とののりしろが取り除かれる。この状態で、視野511における、横列2行(1行目と2行目)が接続される。 Then, the captured image 71A 13, the margin of the captured image 71A 11 a captured image 71A 12 positioned thereon is removed. Then, the captured image 71A 14, the margin of the captured image 71A 12 a captured image 71A 21 positioned on are removed, but still overlap the captured image 71A 13 located next to the captured image 71A 14 Removed. Next, the margin of the captured image 71A 23, the captured image 71A 14 that the margin between the captured image 71A 21 a captured image 71A 22 positioned on is removed, further located next to the captured image 71A 23 Is removed. Then, the captured image 71A 24, the margin of the captured image 71A 22 is removed which is located thereon, further margin of the captured image 71A 23 located next to the captured image 71A 24 are removed. In this state, two rows in the visual field 51 1 (first row and second row) are connected.

そして、視野511における1行目と2行目の処理と同様の処理を、3行目と4行目にも行うことで、1視野分の撮像画像71A11乃至撮像画像71A44が接続され、図8の右側に示すような、1視野画像71Aが生成される。 Then, the same processing as the processing in the first and second rows in the visual field 51 1 is also performed in the third and fourth rows, so that the captured images 71A 11 to 71A 44 for one visual field are connected. A one-view image 71A as shown on the right side of FIG. 8 is generated.

その後、図9に示すように、視野511の次の視野512においても同様の処理を行うことで、撮像画像71B11乃至撮像画像71B14、撮像画像71B21乃至撮像画像71B24、撮像画像71B31乃至撮像画像71B34、および撮像画像71B41乃至撮像画像71B44が接続され、1視野画像71Bが生成される。 Thereafter, as shown in FIG. 9, the same processing is performed in the next visual field 51 2 after the visual field 51 1 , whereby the captured image 71B 11 to the captured image 71B 14 , the captured image 71B 21 to the captured image 71B 24 , and the captured image. 71B 31 to captured image 71B 34 and captured image 71B 41 to captured image 71B 44 are connected to generate a one-view image 71B.

さらに、視野512の次の視野513乃至視野519においても同様の処理が行われることで、1視野画像71C乃至1視野画像71Iが生成される。 Furthermore, since the same processing is performed in the next field 51 3 to field 51 9 of the field 51 2, 1-field image 71C to one visual field image 71I is generated.

また、1視野画像71A乃至1視野画像71Iは、それぞれ隣り合う1視野画像との貼り合わせに必要な重なりを持っており、上述した、16枚の撮像画像から1枚の1視野画像を生成した原理と同様の処理を適用することで、図10に示すように、9枚の1視野画像から1枚の標本画像71が得られる。   The 1-view image 71A to the 1-view image 71I have an overlap necessary for bonding with adjacent 1-view images, and one 1-view image is generated from the 16 captured images described above. By applying the same processing as the principle, one specimen image 71 is obtained from nine one-field images as shown in FIG.

以上のようにして、本実施の形態では、16枚の撮像画像(例えば撮像画像71A11乃至撮像画像71A44)を接続して1枚の1視野画像(例えば1視野画像71A)が生成され、さらに、9枚の1視野画像(例えば1視野画像71A乃至1視野画像71I)を接続して1枚の最終的な標本画像(例えば標本画像71)が生成される。 As described above, in this embodiment, 16 pieces of captured image one for one field of view image by connecting (e.g., captured images 71A 11 to the captured image 71A 44) (e.g., 1-field image 71A) is generated, Furthermore, nine one-field images (for example, one field image 71A to one field image 71I) are connected to generate one final sample image (for example, sample image 71).

なお、撮像画像を取得する際に、撮像ユニット31は第1の位置乃至第4の位置を順次移動することになるが、その移動の方法としては、図示せぬ撮像ユニット駆動系により撮像部11をX−Y方向に移動させてもよいし、電動X−Yステージ16を移動させてもよいし、その両方を移動させてもよい。   Note that when the captured image is acquired, the imaging unit 31 sequentially moves from the first position to the fourth position. As the movement method, the imaging unit 11 is driven by an imaging unit drive system (not shown). May be moved in the XY direction, the electric XY stage 16 may be moved, or both of them may be moved.

ところで、このようにして生成された標本画像71は、最終的にはディスプレイに表示されるが、それを実現させるためには、例えば、次のような構成が必要となる。すなわち、上述した大型顕微鏡1の他に、図11および図12に示すような、図1の撮像部11に対応するカメラヘッド111、カメラコントロールユニット112、顕微鏡制御部113、事前撮像部114、ホストPC115、ディスプレイ116、およびコントローラ117を含むようにして構成されるシステム(以下、顕微鏡システムと称する)によって、本発明は実現される。そこで、次に、図11乃至図20を参照して、かかる顕微鏡システムについて説明する。   By the way, the specimen image 71 generated in this way is finally displayed on a display, but in order to realize it, for example, the following configuration is required. That is, in addition to the large microscope 1 described above, as shown in FIGS. 11 and 12, a camera head 111, a camera control unit 112, a microscope control unit 113, a pre-imaging unit 114, and a host corresponding to the imaging unit 11 of FIG. The present invention is realized by a system (hereinafter referred to as a microscope system) configured to include the PC 115, the display 116, and the controller 117. Next, such a microscope system will be described with reference to FIGS. 11 to 20.

まず、図11および図12のブロック図を参照して、カメラヘッド111、カメラコントロールユニット112、顕微鏡制御部113、事前撮像部114、ホストPC115、ディスプレイ116、およびコントローラ117の構成について説明する。   First, the configuration of the camera head 111, camera control unit 112, microscope control unit 113, pre-imaging unit 114, host PC 115, display 116, and controller 117 will be described with reference to the block diagrams of FIGS.

順不同に説明すると、図11において、顕微鏡制御部113は、例えば、大型顕微鏡1における駆動系やオートフォーカス等、顕微鏡システムの各部に接続され、これらを制御する。   If explaining in random order, in FIG. 11, the microscope control part 113 is connected to each part of a microscope system, such as the drive system and autofocus in the large sized microscope 1, for example, and controls these.

事前撮像部114は、例えばCCD等から構成され、大型顕微鏡1に入る直前の標本全体を低倍率で撮像し、撮像された事前撮像画像を顕微鏡制御部113に供給する。顕微鏡制御部113は、事前撮像部114からの事前撮像画像を、例えば、図12のホストPC115に出力する。   The pre-imaging unit 114 is composed of, for example, a CCD or the like, captures the entire specimen immediately before entering the large microscope 1 at a low magnification, and supplies the captured pre-captured image to the microscope control unit 113. The microscope control unit 113 outputs the pre-captured image from the pre-imaging unit 114 to, for example, the host PC 115 in FIG.

図12において、ホストPC15は、顕微鏡制御部113から入力される事前撮像画像を、ディスプレイ116に表示させる。従って、利用者は、ディスプレイ116に表示された、大型顕微鏡1に入る直前の標本の画像(以下、事前標本画像と称する)を見ながら、制御用のコントローラ117を操作して、観察したい大体の位置や観察したい範囲を事前標本画像上で指示できる。つまり、利用者は、大型顕微鏡1による標本画像を観察する前に、事前標本画像を確認し、観察したい標本の範囲を指定できる。   In FIG. 12, the host PC 15 causes the display 116 to display a pre-captured image input from the microscope control unit 113. Therefore, the user operates the controller 117 for control while viewing the image of the specimen immediately before entering the large microscope 1 (hereinafter referred to as a prior specimen image) displayed on the display 116, and generally observes it. The position and range to be observed can be indicated on the pre-sample image. That is, the user can confirm the pre-sample image before observing the sample image with the large microscope 1, and can specify the range of the sample to be observed.

その後、利用者によるコントローラ117の操作により指示された事前標本画像上の位置情報が、ホストPC115を介して顕微鏡制御部113に出力される。顕微鏡制御部113は、その事前標本画像上の位置情報に対応する位置の標本画像が取得され、ディスプレイ116に表示されるように、顕微鏡システムの各部を制御する。   Thereafter, position information on the pre-sample image instructed by the user's operation of the controller 117 is output to the microscope control unit 113 via the host PC 115. The microscope control unit 113 controls each unit of the microscope system so that a sample image at a position corresponding to the position information on the prior sample image is acquired and displayed on the display 116.

カメラヘッド111は、複数の撮像素子として、図3に対応するCCD41乃至CCD44を有し、それらの撮像素子により撮像された画像信号を、カメラコントロールユニット112に出力する。   The camera head 111 has CCD 41 to CCD 44 corresponding to FIG. 3 as a plurality of imaging elements, and outputs image signals captured by these imaging elements to the camera control unit 112.

カメラコントロールユニット112には、CCD41乃至CCD44に対応する、センサ処理部121乃至センサ処理部124が設けられており、対応している撮像素子により撮像された画像信号がそれぞれ入力される。センサ処理部121乃至センサ処理部124は、その入力される画像信号に対して、所定の画像処理を施し、それにより得られた撮像画像データを多重化処理部125に供給する。そのとき、センサ処理部121乃至センサ処理部124によって行われる画像処理は並行に行われる。   The camera control unit 112 is provided with sensor processing units 121 to 124 corresponding to the CCDs 41 to 44, and image signals captured by the corresponding imaging elements are input thereto. The sensor processing unit 121 to the sensor processing unit 124 perform predetermined image processing on the input image signal, and supply captured image data obtained thereby to the multiplexing processing unit 125. At that time, image processing performed by the sensor processing unit 121 to the sensor processing unit 124 is performed in parallel.

なお、本実施の形態では、4つのCCDから構成されるカメラヘッド111を一例にして説明しているので、センサ処理部も4つ設けられているが、センサ処理部はCCDに対応する数だけ設けられる。   In this embodiment, since the camera head 111 composed of four CCDs is described as an example, four sensor processing units are provided. However, the number of sensor processing units corresponds to the number of CCDs. Provided.

多重化処理部125は、センサ処理部121乃至センサ処理部124のそれぞれから供給される撮像画像データを多重化し、ホストPC115に出力する。   The multiplexing processing unit 125 multiplexes the captured image data supplied from each of the sensor processing unit 121 to the sensor processing unit 124 and outputs the multiplexed data to the host PC 115.

ホストPC115は、例えば、パーソナルコンピュータや専用のサーバ等からなる。ホストPC115において、CPU(Central Processing Unit)141は、ハードディスクドライブ143からメインメモリ142にロードされたプログラムに従って各種の処理を実行する。メインメモリ142にはまた、CPU141が各種の処理を実行する上において必要なデータ等も適宜記憶される。   The host PC 115 is composed of, for example, a personal computer or a dedicated server. In the host PC 115, a CPU (Central Processing Unit) 141 executes various processes according to programs loaded from the hard disk drive 143 to the main memory 142. The main memory 142 also appropriately stores data necessary for the CPU 141 to execute various processes.

これらのCPU141、メインメモリ142、およびハードディスクドライブ143は、バス144を介して相互に接続される。バス144にはまた、通信インタフェース145およびグラフィックコントローラ146も接続される。   The CPU 141, the main memory 142, and the hard disk drive 143 are connected to each other via a bus 144. A communication interface 145 and a graphic controller 146 are also connected to the bus 144.

通信インタフェース145は、CPU141の制御にしたがって、カメラコントロールユニット112から入力される撮像画像データを受信し、メインメモリ142に供給する。CPU141は、メインメモリ142に一時的に記憶された撮像画像データに対して所定の処理を施し、それにより得られた画像データは、最終的にハードディスクドライブ143に格納される。   The communication interface 145 receives captured image data input from the camera control unit 112 according to the control of the CPU 141 and supplies the captured image data to the main memory 142. The CPU 141 performs predetermined processing on the captured image data temporarily stored in the main memory 142, and the image data obtained thereby is finally stored in the hard disk drive 143.

グラフィックコントローラ146は、CPU141の制御にしたがって、画像データに対して所定の画像処理を施し、それにより得られた画像データに対応する画像を、ディスプレイ116に表示する。   The graphic controller 146 performs predetermined image processing on the image data according to the control of the CPU 141, and displays an image corresponding to the image data obtained thereby on the display 116.

さらに、バス144には、必要に応じてドライブ147が接続され、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブルメディア148が適宜装着され、それらから読み出されたコンピュータプログラムが、必要に応じてハードディスクドライブ143にインストールされる。また、通信インタフェース145が、通信網、インターネット、その他のネットワーク、通信媒体を介して外部の装置と通信することで、所定のプログラムを取得し、ハードディスクドライブ143に記録してもよい。   Further, a drive 147 is connected to the bus 144 as necessary, and a removable medium 148 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory is appropriately mounted, and a computer program read from them is necessary. Is installed in the hard disk drive 143 accordingly. Further, the communication interface 145 may acquire a predetermined program by communicating with an external device via a communication network, the Internet, other networks, or a communication medium, and may record the program in the hard disk drive 143.

なお、顕微鏡システムを構成する各部の構成は、図11および図12の例に限定されず、後述する図13の機能的構成を少なくとも有していればよい。   In addition, the structure of each part which comprises a microscope system is not limited to the example of FIG. 11 and FIG. 12, What is necessary is just to have at least the functional structure of FIG.

図13は、図11および図12の顕微鏡システムを構成する各装置の機能的構成の例を示すブロック図である。   FIG. 13 is a block diagram illustrating an example of a functional configuration of each apparatus constituting the microscope system of FIGS. 11 and 12.

なお、図13において、図11および図12と対応する部分には、同一の符号が付してあり、その説明は繰り返しになるので、適宜省略する。   In FIG. 13, portions corresponding to those in FIGS. 11 and 12 are denoted by the same reference numerals, and the description thereof will be repeated, and will be omitted as appropriate.

カメラコントロールユニット112は、Rawデータ変換部151、画像生成部152、画像補正部153、およびシリアライズ部154を含むように構成される。カメラコントロールユニット112において、Rawデータ変換部151乃至シリアライズ部154は、カメラヘッド111から入力される画像信号に所定の画像処理を施し、それにより得られた撮像画像データをホストPC115に出力する。カメラコントロールユニット112において、Rawデータ変換部151乃至シリアライズ部154によって行われる処理の詳細については、後述する、図15のフローチャートを参照して説明する。   The camera control unit 112 is configured to include a raw data conversion unit 151, an image generation unit 152, an image correction unit 153, and a serialization unit 154. In the camera control unit 112, the raw data conversion unit 151 to serialization unit 154 perform predetermined image processing on the image signal input from the camera head 111, and output captured image data obtained thereby to the host PC 115. Details of processing performed by the raw data conversion unit 151 to serialization unit 154 in the camera control unit 112 will be described with reference to a flowchart of FIG.

なお、Rawデータ変換部151乃至シリアライズ部154は、例えば、図11のセンサ処理部121乃至センサ処理部124のそれぞれに相当する。   The raw data conversion unit 151 through the serialization unit 154 correspond to, for example, the sensor processing unit 121 through the sensor processing unit 124 in FIG.

ホストPC115は、カメラコントロールユニット112から入力される撮像画像データに対して所定の画像処理を施し、それにより得られる画像データに対応する画像をディスプレイ116に表示させる。   The host PC 115 performs predetermined image processing on the captured image data input from the camera control unit 112 and causes the display 116 to display an image corresponding to the image data obtained thereby.

ホストPC115は、制御部161、受信バッファ162、バッファ163、接続/属性生成部164、バッファ165、接続/属性生成部166、画像圧縮部167、および画像データ保存部168を含むようにして構成される。   The host PC 115 is configured to include a control unit 161, a reception buffer 162, a buffer 163, a connection / attribute generation unit 164, a buffer 165, a connection / attribute generation unit 166, an image compression unit 167, and an image data storage unit 168.

なお、本実施の形態では、ホストPC115は、図12に示すようなハードウェア構成を有しているので、接続/属性生成部164、接続/属性生成部166、および画像圧縮部167の機能は、例えばハードディスクドライブ143に記録されたプログラムを実行するCPU141により実行される。また、制御部161は、例えば図12のCPU141に相当し、受信バッファ162は、例えば図12の通信インタフェース145の内部に設けられた受信バッファ(図示せず)に相当する。さらに、バッファ163およびバッファ165は、例えばホストPC115の内部に設けられたバッファ(図示せず)またはメインメモリ142に相当し、画像データ保存部168は、例えば図12のハードディスクドライブ143に相当する。   In this embodiment, since the host PC 115 has a hardware configuration as shown in FIG. 12, the functions of the connection / attribute generation unit 164, the connection / attribute generation unit 166, and the image compression unit 167 are as follows. For example, it is executed by the CPU 141 that executes a program recorded in the hard disk drive 143. Further, the control unit 161 corresponds to, for example, the CPU 141 in FIG. 12, and the reception buffer 162 corresponds to, for example, a reception buffer (not shown) provided in the communication interface 145 in FIG. Further, the buffer 163 and the buffer 165 correspond to, for example, a buffer (not shown) or the main memory 142 provided in the host PC 115, and the image data storage unit 168 corresponds to, for example, the hard disk drive 143 in FIG.

但し、接続/属性生成部164、接続/属性生成部166、および画像圧縮部167は、ハードウェアとして構成することもできるし、ソフトウェアとハードウェアとの組み合わせとして構成することもできる。   However, the connection / attribute generation unit 164, the connection / attribute generation unit 166, and the image compression unit 167 can be configured as hardware, or can be configured as a combination of software and hardware.

ホストPC115において、制御部161乃至画像データ保存部168によって行われる処理の詳細については、後述する、図16および図17のフローチャートを参照して説明する。   Details of processing performed by the control unit 161 to the image data storage unit 168 in the host PC 115 will be described with reference to flowcharts of FIGS. 16 and 17 described later.

以上のようにして、顕微鏡システムは構成される。   The microscope system is configured as described above.

ところで、撮像画像を取得する際に、それぞれのCCDにおけるシャッタタイムが異なると、撮像画像の明るさも異なってしまうため、1視野の画像を構築した場合に見えづらくなる恐れがある。そこで、所定の基準の明るさとなるシャッタタイムを求め、同じシャッタタイムで全ての画像を取得する必要がある。   By the way, when the captured image is acquired, if the shutter time in each CCD is different, the brightness of the captured image is also different, so that it may be difficult to see when an image of one field of view is constructed. Therefore, it is necessary to obtain a shutter time with a predetermined reference brightness and acquire all images with the same shutter time.

次に、図14のフローチャートを参照して、顕微鏡制御部113により実行される露光時間を設定する処理(以下、露光時間設定処理と称する)について説明する。   Next, a process for setting an exposure time (hereinafter referred to as an exposure time setting process) executed by the microscope control unit 113 will be described with reference to the flowchart of FIG.

ステップS11において、顕微鏡制御部113は、使用者によるコントローラ117の操作により指示された事前標本画像上で指定された観察範囲情報を基に撮像開始場所を決定する。   In step S <b> 11, the microscope control unit 113 determines an imaging start location based on observation range information designated on the pre-sample image designated by the operation of the controller 117 by the user.

ステップS12において、顕微鏡制御部113は、決定された撮像開始場所に応じて、電動X−Yステージ16を駆動させて、例えば視野511等の第1視野に標本を移動させる。また、このとき、顕微鏡制御部113は、撮像ユニット駆動系を制御し、CCD41乃至CCD44を、図4に示す第1の位置に位置決めする。 In step S12, the microscope control unit 113, in response to the determined imaging start location, by driving the electric X-Y stage 16 moves the sample to the first field of view of the example field 51 1, and the like. At this time, the microscope control unit 113 controls the imaging unit drive system to position the CCD 41 to CCD 44 at the first position shown in FIG.

ステップS13において、顕微鏡制御部113は、カメラコントロールユニット112から、第1視野における各CCDの露光情報を取得する。   In step S <b> 13, the microscope control unit 113 acquires exposure information of each CCD in the first visual field from the camera control unit 112.

ステップS14において、顕微鏡制御部113は、取得した各CCDの露光情報に基づいて、各CCDの露光時間のうちの最も長い露光時間を選択し、その露光時間を各CCDの露光時間として設定し、露光時間設定処理は終了する。   In step S14, the microscope control unit 113 selects the longest exposure time among the exposure times of each CCD based on the obtained exposure information of each CCD, sets the exposure time as the exposure time of each CCD, The exposure time setting process ends.

以上のように、複数のCCDのそれぞれの露光時間のうち、最適なCCDの露光時間が選択され、その露光時間を使用して複数のCCDによって標本が撮像される。すなわち、本実施の形態では、複数のCCDを使用し、さらにそれぞれのCCDが間隔を持って配置されているため、少なくとも複数のCCDの1つには標本が十分に入っている状態になり、そのCCDの露光時間を使用して固定化している。つまり、撮像条件としての露光時間には、複数の撮像素子の中で最も良い撮像素子で得られたパラメータが使用される。そして、このパラメータは観察範囲全体が撮り終えるまで変更せずに使用する。   As described above, the optimum CCD exposure time is selected from the exposure times of the plurality of CCDs, and the specimen is imaged by the plurality of CCDs using the exposure times. That is, in the present embodiment, a plurality of CCDs are used, and each CCD is arranged at intervals, so that at least one of the plurality of CCDs is sufficiently filled with a sample. The CCD exposure time is used for immobilization. That is, for the exposure time as the imaging condition, a parameter obtained with the best imaging element among a plurality of imaging elements is used. This parameter is used without change until the entire observation range is shot.

これにより、観察範囲全体が同じ明るさとなり、各CCDで取得した画像をつなぎ合わせて1枚の画像にしても、つなぎの目立たないきれいな画像が得られる。また、あらかじめCCDが第1の位置にあるので、露光時間設定後、直ちに撮像を開始することができる。それにより、位置決め動作が減りスループット向上につながる。   As a result, the entire observation range has the same brightness, and even if the images acquired by the CCDs are joined to form a single image, a clear image with no conspicuous connection is obtained. In addition, since the CCD is in the first position in advance, imaging can be started immediately after setting the exposure time. Thereby, the positioning operation is reduced and the throughput is improved.

なお、本実施の形態では、ステップS13およびステップS14において、各CCDの露光情報を取得し、その露光情報に基づいて各CCDの露光時間を設定するとして説明したが、それに限らず、例えば、事前標本画像において利用者により指示された範囲内に存在する標本の場所を所定の画像解析により取得して、その標本を撮像可能な位置にあるCCDを特定し、特定されたCCDの露光時間を各CCDの露光時間として設定してもよい。   In the present embodiment, it has been described that the exposure information of each CCD is acquired in step S13 and step S14, and the exposure time of each CCD is set based on the exposure information. Obtain the location of the sample that exists within the range specified by the user in the sample image by a predetermined image analysis, identify the CCD at the position where the sample can be imaged, and specify the exposure time of the specified CCD for each It may be set as the CCD exposure time.

また、本実施の形態では、ステップS14の処理で選択される露光時間は、撮像画像が暗くならず、かつ、明るすぎないように、最も長い露光時間を選択する例について説明したが、最も長い露光時間に限らず、例えば、各CCDの露光時間を平均化して得られた時間や、露光時間の長いもの2つを平均化して得られた時間等、適宜最適な時間が選択される。また、標本への照明方法が落射照明か透過照明かによっても露光時間決定方法を変えるのが好ましい。なお、上述した例では、観察範囲全てに対して同じ露光時間で撮像するとして説明したが、本実施の形態はこれだけに限らず、対物レンズ12の視野が変わる毎に、図14に示すフローチャートの処理を実施して、パラメータを再設定してもよい。   In the present embodiment, the example in which the longest exposure time is selected so that the captured image does not become dark and is not too bright has been described as the exposure time selected in step S14. Not only the exposure time but also an optimal time is appropriately selected such as, for example, a time obtained by averaging the exposure times of the CCDs, or a time obtained by averaging two long exposure times. It is also preferable to change the exposure time determination method depending on whether the specimen is illuminated by epi-illumination or transmission illumination. In the above-described example, the entire observation range is described as being imaged with the same exposure time. However, the present embodiment is not limited to this, and every time the field of view of the objective lens 12 changes, the flowchart illustrated in FIG. Processing may be performed to reset the parameters.

次に、図15のフローチャートを参照して、カメラコントロールユニット112により実行される、撮像画像を生成する処理(以下、撮像画像生成処理と称する)について説明する。   Next, a process of generating a captured image (hereinafter referred to as a captured image generation process) executed by the camera control unit 112 will be described with reference to the flowchart of FIG.

ステップS31において、Rawデータ変換部151は、カメラヘッド111から供給されるアナログの画像信号をA/D(Analog/Digital)変換して得られるデジタル信号で示される画像データに対して、所定の変換処理を施すことで、Rawデータに変換し、画像生成部152に供給する。ここで、変換処理とは、例えば、撮像素子の画素欠陥補正や、明るさを調整するためのゲイン調整等の処理である。   In step S31, the raw data conversion unit 151 performs predetermined conversion on image data represented by a digital signal obtained by A / D (Analog / Digital) conversion of an analog image signal supplied from the camera head 111. By performing processing, it is converted into Raw data and supplied to the image generation unit 152. Here, the conversion processing is, for example, processing such as pixel defect correction of an image sensor or gain adjustment for adjusting brightness.

なお、A/D変換処理は、Rawデータ変換部151の代わりに、カメラヘッド111が行ってもよい。その場合、Rawデータ変換部151は、カメラヘッド111から画像データが供給されるので、その画像データに対して変換処理だけを実行する。   The A / D conversion process may be performed by the camera head 111 instead of the raw data converter 151. In this case, since the raw data conversion unit 151 is supplied with image data from the camera head 111, the raw data conversion unit 151 executes only conversion processing on the image data.

ステップS32において、画像生成部152は、Rawデータ変換部151から供給されるRawデータに対して、例えば画素補間等の処理を施し、RGBの画像データを生成し、画像補正部153に供給する。   In step S <b> 32, the image generation unit 152 performs processing such as pixel interpolation on the raw data supplied from the raw data conversion unit 151, generates RGB image data, and supplies the RGB image data to the image correction unit 153.

ステップS33において、画像補正部153は、画像生成部152から供給されるRGBの画像データに対して、シェーディング、ディストーション等により画像補正の処理を施し、それにより得られた補正後の撮像画像データをシリアライズ部154に供給する。   In step S <b> 33, the image correction unit 153 performs image correction processing on the RGB image data supplied from the image generation unit 152 by shading, distortion, and the like, and uses the corrected captured image data obtained thereby. This is supplied to the serialization unit 154.

ステップS34において、シリアライズ部154は、画像補正部153から供給される補正後の撮像画像データをシリアライズし、ホストPC115に出力して、カメラコントローラ112による、撮像画像生成処理は終了する。   In step S34, the serialization unit 154 serializes the corrected captured image data supplied from the image correction unit 153, outputs the serialized image data to the host PC 115, and the captured image generation process by the camera controller 112 ends.

以上のように、カメラコントロールユニット112においては、複数のCCDにより撮像された撮像画像データが生成され、ホストPC115に出力される。   As described above, in the camera control unit 112, captured image data captured by a plurality of CCDs is generated and output to the host PC 115.

次に、図16および図17のフローチャートを参照して、ホストPC115により実行される、撮影画像を接続する処理(以下、画像接続処理と称する)について説明する。   Next, a process for connecting captured images (hereinafter referred to as an image connection process) executed by the host PC 115 will be described with reference to the flowcharts of FIGS. 16 and 17.

カメラコントロールユニット112から出力された撮像画像データは、制御部161によって、受信バッファ162の前段でデシリアライズされる。続いて、ステップS51において、受信バッファ162は、そのデシリアライズされた撮像画像データを、受信データとして格納する。   The captured image data output from the camera control unit 112 is deserialized by the control unit 161 before the reception buffer 162. Subsequently, in step S51, the reception buffer 162 stores the deserialized captured image data as reception data.

ステップS52において、制御部161は、受信バッファ162に格納される受信データが、1CCD分の撮像画像データとなったか否かを判定する。   In step S52, the control unit 161 determines whether or not the reception data stored in the reception buffer 162 has been captured image data for one CCD.

ステップS52において、1CCD素子分の撮像画像データとなっていないと判定された場合、ステップS51に戻り、1CCD分の撮像画像データが格納されるまで、ステップS51およびステップS52の処理が繰り返される。   If it is determined in step S52 that the captured image data for one CCD element is not obtained, the process returns to step S51, and the processes in steps S51 and S52 are repeated until the captured image data for one CCD is stored.

その後、ステップS52において、1CCD分の撮像画像データが格納されたと判定された場合、制御部161は、ステップS53において、受信バッファ162に格納された1CCD分の撮像画像データを取得し、ステップS54において、各CCD毎に必要となる所定の座標変換処理を施す。   Thereafter, when it is determined in step S52 that the captured image data for one CCD has been stored, the control unit 161 acquires the captured image data for one CCD stored in the reception buffer 162 in step S53, and in step S54. Then, a predetermined coordinate conversion process required for each CCD is performed.

ここで、座標変換処理とは、例えば、画像データを回転させたり、拡大縮小の補正をしたりする処理をいう。そして、制御部161は、ステップS55において、その座標変換処理が施された撮像画像データをバッファ163に格納する。   Here, the coordinate conversion process refers to, for example, a process of rotating image data or correcting enlargement / reduction. In step S55, the control unit 161 stores the captured image data subjected to the coordinate conversion processing in the buffer 163.

なお、ステップS52で判定される1CCD分の受信データであるが、CCD41乃至CCD44の各CCD毎に判定される。すなわち、ステップS52以降のステップS53乃至ステップS55の処理においては、各CCD毎に取得される撮像画像データに対して、並列に処理が施される。   The received data for one CCD determined in step S52 is determined for each CCD 41 to CCD44. That is, in the processing from step S53 to step S55 after step S52, the captured image data acquired for each CCD is processed in parallel.

ステップS56において、接続/属性生成部164は、バッファ163に格納された画像データを参照して、1視野分の画像データを取得したか否かを判定する。ステップS56において、1視野分の画像データを取得していないと判定された場合、ステップS51に戻り、1視野分の画像データが格納されるまで、ステップS51乃至ステップS56の処理が繰り返される。   In step S <b> 56, the connection / attribute generation unit 164 refers to the image data stored in the buffer 163 and determines whether image data for one field of view has been acquired. If it is determined in step S56 that the image data for one field of view has not been acquired, the process returns to step S51, and the processing in steps S51 to S56 is repeated until the image data for one field of view is stored.

その後、ステップS56において、1視野分の画像データを取得したと判定された場合、接続/属性生成部164は、ステップS57において、バッファ163に格納された1視野分の撮像画像データを取得し、ステップS58において、その1視野分の撮像画像データに対して、画像接続処理を施す。   Thereafter, when it is determined in step S56 that image data for one field of view has been acquired, the connection / attribute generation unit 164 acquires captured image data for one field of view stored in the buffer 163 in step S57, In step S58, image connection processing is performed on the captured image data for one field of view.

ここで、接続/属性生成部164によって実行される画像接続処理とは、1視野領域の撮像画像の接続に必要となる接続位置を決定し、さらにのりしろの除去を行うことにより撮像画像を接続し、複数の撮像画像から1視野画像を生成する処理である。   Here, the image connection processing executed by the connection / attribute generation unit 164 determines a connection position necessary for connecting a captured image of one visual field region, and further connects the captured image by removing margins. This is a process of generating a single visual field image from a plurality of captured images.

なお、本実施の形態では、撮像位置に応じて順番にデータがバッファ163に取り込まれているので、取り込まれた順番にどの画像データとどの画像データとが隣接しているものなのかがわかるようになっている。   In the present embodiment, data is taken into the buffer 163 in order according to the imaging position, so that it can be seen which image data and which image data are adjacent in the taken order. It has become.

上述したように、例えば、視野511においては、CCD41乃至CCD44によって、4回の撮像が行われることで、撮像画像71A11乃至撮像画像71A14、撮像画像71A21乃至撮像画像71A24、撮像画像71A31乃至撮像画像71A34、撮像画像71A41乃至撮像画像71A44が取得される。撮像画像71A12は、左側に撮像画像71A11が存在するので、接続位置として決定された左側ののりしろが除去され、撮像画像71A11と接続される。すなわち、接続/属性生成部164によって、同様の処理が各撮像画像に対して繰り返し実行されることで、バッファ163に格納された撮像画像71A11乃至撮像画像71A44から、のりしろが除去された1枚の1視野画像71Aが生成される。 As described above, for example, in the visual field 51 1 , the captured images 71A 11 to 71A 14 , the captured images 71A 21 to 71A 24 , and the captured images are captured by the CCD 41 to CCD 44 four times. 71A 31 to captured image 71A 34 and captured image 71A 41 to captured image 71A 44 are acquired. Captured image 71A 12, since the captured image 71A 11 to the left is present, the margin on the left, which is determined as a connection position is removed, is connected to the captured image 71A 11. That is, the connection / attribute generation unit 164, that the same process is repeatedly performed for each captured image, from the captured image 71A 11 to the captured image 71A 44 stored in the buffer 163, margin is removed 1 One single-view image 71A is generated.

図16のフローチャートに戻り、ステップS59において、バッファ165は、制御部161の制御にしたがって、画像接続処理を施すことで得られた1視野画像データを格納する。   Returning to the flowchart of FIG. 16, in step S <b> 59, the buffer 165 stores one-field-of-view image data obtained by performing the image connection process in accordance with the control of the control unit 161.

ディスプレイ116は、制御部161の制御にしたがって、ステップS60において、バッファ165に格納された1視野画像データを取得し、ステップS61において、取得した1視野画像データに対応する1視野画像を表示する。これにより、利用者は、1視野分の1視野画像を順次確認できる。   The display 116 acquires the one field-of-view image data stored in the buffer 165 in step S60 according to the control of the control unit 161, and displays the one field-of-view image corresponding to the acquired one field-of-view image data in step S61. Thereby, the user can confirm one visual field image for one visual field sequentially.

すなわち、本実施の形態では、1視野領域の画像構築用のバッファ163と、観察領域全体の画像構築用のバッファ165との2重構造をとっているため、画像取得中に、その取得状況を容易に表示できる。   That is, in the present embodiment, since the buffer 163 for constructing an image for one field of view and the buffer 165 for constructing an image for the entire observation region are taken, the acquisition status is acquired during image acquisition. It can be displayed easily.

ステップS62において、接続/属性生成部166は、バッファ165に格納された1視野画像データを参照して、格納された1視野画像データについて、接続が必要であるか否かを判定する。   In step S62, the connection / attribute generation unit 166 refers to the 1 field-of-view image data stored in the buffer 165 and determines whether connection is necessary for the stored 1 field-of-view image data.

ステップS62において、1視野画像データを接続する必要があると判定された場合、接続/属性生成部166は、ステップS63において、バッファ165に格納された1視野画像データを取得し、ステップS64において、取得した1視野画像データに対して、画像接続処理を施す。   When it is determined in step S62 that it is necessary to connect one field-of-view image data, the connection / attribute generation unit 166 acquires the one field-of-view image data stored in the buffer 165 in step S63, and in step S64, An image connection process is performed on the acquired one-field-of-view image data.

ここで、接続/属性生成部166によって実行される画像接続処理とは、1視野画像の接続に必要となる接続位置を決定し、さらにのりしろの除去を行うことにより1視野画像を接続し、複数枚の1視野画像から標本画像を生成する処理である。   Here, the image connection process executed by the connection / attribute generation unit 166 determines a connection position necessary for connection of one field-of-view image, and further removes a margin to connect one field-of-view image. This is a process for generating a specimen image from a single visual field image.

上述したように、例えば、標本画像71において、1視野画像71Bは、左側に1視野画像71Aが存在するので、接続位置として決定された左側ののりしろが除去され、1視野画像71Aと接続される。   As described above, for example, in the specimen image 71, since the one-view image 71B has the one-view image 71A on the left side, the left margin determined as the connection position is removed and connected to the one-view image 71A. .

なお、接続/属性生成部164により行われる画像接続処理(ステップS58の処理)と、接続/属性生成部166により行われる画像接続処理(ステップS64の処理)は、基本的に同じアルゴリズムとなるので、同じものを繰り返し使用することができる。その結果、簡単な処理の組み合わせにより高速化できるとともに、CPUの負荷を軽減することができる。   The image connection process performed by the connection / attribute generation unit 164 (the process of step S58) and the image connection process performed by the connection / attribute generation unit 166 (the process of step S64) are basically the same algorithm. The same thing can be used repeatedly. As a result, the speed can be increased by a combination of simple processes, and the load on the CPU can be reduced.

ステップS65において、接続/属性生成部166は、1視野画像に対応する、ラベル情報を生成する。ここで、ラベル情報とは、各種の画像に付与される、例えば属性や位置等を示す情報である。   In step S65, the connection / attribute generation unit 166 generates label information corresponding to one visual field image. Here, the label information is information that is given to various images and indicates, for example, attributes and positions.

ステップS66において、画像圧縮部167は、画像接続処理が施された1視野画像データを、例えばJPEG(Joint Photographic Experts Group)圧縮等の所定の方式で圧縮し、画像データ保存部168に保存する。また、このとき、1視野画像データに対応するラベル情報も保存される。これにより、画像データ保存部168に保存された1視野画像データは、ラベル情報に基づいてディスプレイ116に表示できる。   In step S <b> 66, the image compression unit 167 compresses the single-view image data subjected to the image connection processing by a predetermined method such as JPEG (Joint Photographic Experts Group) compression, and stores the compressed data in the image data storage unit 168. At this time, label information corresponding to one field-of-view image data is also stored. Thereby, the one-view image data stored in the image data storage unit 168 can be displayed on the display 116 based on the label information.

なお、本実施の形態では、1視野画像データをラベル情報とともに保存するとして説明するが、1視野画像データを保存せずに、最終的な標本画像データだけを保存してもよい。   In the present embodiment, description will be made on the assumption that one field-of-view image data is stored together with label information. However, only final specimen image data may be stored without storing one field-of-view image data.

一方、ステップS62において、接続が必要ないと判定された場合、ステップS63乃至ステップS66をスキップし、処理はステップS67に進む。   On the other hand, if it is determined in step S62 that connection is not necessary, steps S63 to S66 are skipped, and the process proceeds to step S67.

ステップS67において、接続/属性生成部166は、1視野画像データを、後の接続に利用するか否かを判定する。   In step S <b> 67, the connection / attribute generation unit 166 determines whether to use one field-of-view image data for subsequent connection.

ステップS67において、後の接続に使用すると判定された場合、ステップS68において、バッファ165は、画像接続処理が施された1視野画像データを格納する。一方、ステップS67において、後の接続に使用しないと判定された場合、ステップS68の処理をスキップし、処理は、ステップS69に進む。   If it is determined in step S67 that it will be used for the subsequent connection, in step S68, the buffer 165 stores the one-field-of-view image data subjected to the image connection process. On the other hand, if it is determined in step S67 that it will not be used for the subsequent connection, the process of step S68 is skipped, and the process proceeds to step S69.

そして、ステップS69において、最終的な標本画像が完成したかが判定され、標本画像が完成するまで、上述した、ステップS51乃至ステップS69の処理が繰り返される。すなわち、ステップS51乃至ステップS69の処理が行われることで、例えば、複数の撮像画像が接続された1視野画像が生成され、さらに、複数の1視野画像が接続された標本画像が生成される。   In step S69, it is determined whether or not the final sample image is completed, and the above-described processing in steps S51 to S69 is repeated until the sample image is completed. That is, by performing the processing from step S51 to step S69, for example, one field-of-view image to which a plurality of captured images are connected is generated, and further, a sample image to which a plurality of one-field images are connected is generated.

その後、ステップS69において、最終的な標本画像が完成したと判定された場合、ステップS70において、画像圧縮部167は、バッファ165に格納された最終的な標本画像データを、例えば、JPEG圧縮等で圧縮し、画像データ保存部168に保存して、画像接続処理は終了する。   Thereafter, when it is determined in step S69 that the final sample image is completed, in step S70, the image compression unit 167 converts the final sample image data stored in the buffer 165 into, for example, JPEG compression or the like. The image data is compressed and stored in the image data storage unit 168, and the image connection process ends.

以上のように、本実施の形態では、1視野を撮影した後、1視野毎に画像接続処理を行うことにより、処理効率を良くすることができる。   As described above, in the present embodiment, the processing efficiency can be improved by performing image connection processing for each visual field after photographing one visual field.

また、画像データを格納するバッファとして、バッファ163とバッファ165の2つを設けることで、接続/属性生成部164により行われる画像接続処理(ステップS58の処理)と、接続/属性生成部166により行われる画像接続処理(ステップS64の処理)とを並列に行うことができ、処理時間を短縮することが可能となる。   In addition, by providing two buffers 163 and 165 as buffers for storing image data, the connection / attribute generation unit 164 performs image connection processing (step S58 processing) and the connection / attribute generation unit 166. The image connection process to be performed (the process of step S64) can be performed in parallel, and the processing time can be shortened.

次に、図18乃至図20を参照して、ホストPC115によって実行される画像接続処理における、画像データのデータ構造と、その画像データを格納するバッファの詳細について説明する。   Next, the data structure of the image data and the details of the buffer for storing the image data in the image connection process executed by the host PC 115 will be described with reference to FIGS.

図18は、1視野領域における画像の取得の例を示す模式図である。   FIG. 18 is a schematic diagram illustrating an example of acquiring an image in one visual field region.

図18において、左側の図は、1視野領域において、4つの撮像素子が4回シフトすることによって、1視野領域の画像である1視野画像の取得の様子を示す模式図である。   In FIG. 18, the diagram on the left side is a schematic diagram showing how a single visual field image, which is an image of the single visual field area, is acquired by shifting four image sensors four times in the single visual field area.

図18に示すように、CCD41乃至CCD44は、視野511において、4回のCCDの移動と撮像を行うことで、撮像画像71A11乃至撮像画像71A14、撮像画像71A21乃至撮像画像71A24、撮像画像71A31乃至撮像画像71A34、撮像画像71A41乃至撮像画像71A44を取得する。これらの撮像画像は、ホストPC115に出力され、バッファ163によって、1CCD毎に格納される。 As illustrated in FIG. 18, the CCD 41 to the CCD 44 perform the movement and imaging of the CCD four times in the field of view 51 1 , so that the captured images 71A 11 to 71A 14 , the captured images 71A 21 to 71A 24 , captured image 71A 31 to the captured image 71A 34, acquires a captured image 71A 41 to the captured image 71A 44. These captured images are output to the host PC 115 and stored by the buffer 163 for each CCD.

このとき、バッファ163において、1回の撮像毎に取得される撮像画像は、図19に示すように格納される。すなわち、例えば、CCD411により取得される撮像画像71A11は、最も左側のバッファ(以下、バッファ1631と称する)に格納される。 At this time, in the buffer 163, the captured image acquired for each imaging is stored as shown in FIG. That is, for example, captured image 71A 11 acquired by CCD 41 1 is stored in the leftmost buffer (hereinafter, referred to as buffer 163 1).

また、接続/属性生成部164によって、撮像画像71A11に対して付与される、識別子および対物レンズ12の視野内における位置情報等からなるラベル情報hA11が生成される。接続/属性生成部164は、生成したラベル情報hA11を、撮像画像71A11に対応させて、バッファ163に格納する。 In addition, the connection / attribute generation unit 164 generates label information h A11 that is given to the captured image 71A 11 and includes an identifier, position information in the field of view of the objective lens 12, and the like. The connection / attribute generation unit 164 stores the generated label information h A11 in the buffer 163 in association with the captured image 71A 11 .

1回目の撮像においては同様に、撮像画像71A21とラベル情報hA21が、図19の左から2番目のバッファ(以下、バッファ1632と称する)に格納され、撮像画像71A31とラベル情報hA31が、図19の左から3番目のバッファ(以下、バッファ1633と称する)に格納され、撮像画像71A41とラベル情報hA41が、図19の最も右側のバッファ(以下、バッファ1634と称する)に格納される。 Similarly, in the first imaging, the captured image 71A 21 and label information h A21 is a second buffer from the left in FIG. 19 are stored (hereinafter, referred to as buffer 163 2), the captured image 71A 31 and label information h A31 is left third buffer from Figure 19 are stored (hereinafter, referred to as buffer 163 3), the captured image 71A 41 and label information h A41 is, rightmost buffer 19 (hereinafter, a buffer 163 4 Stored).

続いて、2回目、3回目、4回目の撮像においても、1回目の撮像と同様にバッファ163に撮像画像とラベル情報が格納される。そして、合計4回の撮像が行われると、図19に示すように、バッファ1631には、CCD41により取得された撮像画像71A11乃至撮像画像71A14が、対応するラベル情報とともに順次格納される。 Subsequently, in the second, third, and fourth imaging, the captured image and the label information are stored in the buffer 163 as in the first imaging. When the imaging of four times is performed, as shown in FIG. 19, the buffer 163 1, captured images 71A 11 to the captured image 71A 14 obtained by CCD41 are sequentially stored together with the corresponding label information .

同様にまた、バッファ1632には、CCD42による撮像画像71A21乃至撮像画像71A24、バッファ1633には、CCD43による撮像画像71A31乃至撮像画像71A34、バッファ1634には、CCD44による撮像画像71A41乃至撮像画像71A44が対応するラベル情報とともに順次格納される。 Similarly, the captured image 71A 21 to the captured image 71A 24 by the CCD 42 is stored in the buffer 163 2 , the captured image 71A 31 to the captured image 71A 34 by the CCD 43 is stored in the buffer 163 3 , and the captured image by the CCD 44 is stored in the buffer 163 4. 71A 41 to 71A 44 are sequentially stored together with corresponding label information.

その後、接続/属性生成部164は、4回の撮像で1視野分の撮像画像がバッファ163に揃ったので、バッファ163に格納された撮像画像に対して、画像接続処理を施し、それにより得られた1視野画像71Aを、バッファ165に格納する。   Thereafter, the connection / attribute generation unit 164 performs the image connection process on the captured image stored in the buffer 163 because the captured image for one field of view is aligned in the buffer 163 after four times of imaging. The one field-of-view image 71 </ b> A is stored in the buffer 165.

図20は、バッファ165に格納される1視野画像を示す模式図である。例えば、最初に構築された1視野画像71Aは、バッファ165の最初の格納位置である最下段に格納される。   FIG. 20 is a schematic diagram showing a one-field image stored in the buffer 165. As shown in FIG. For example, the first-view image 71 </ b> A constructed first is stored in the lowermost level, which is the first storage position of the buffer 165.

また改めて、接続/属性生成部166によって、1視野画像71Aに対して付与される、識別子および観察視野内における位置情報等からなるラベル情報hAが生成される。接続/属性生成部166は、生成したラベル情報hAを、1視野画像71Aに対応させて、バッファ165に格納する。 In addition, the connection / attribute generation unit 166 generates label information h A that is given to the one visual field image 71A and includes an identifier, position information in the observation visual field, and the like. The connection / attribute generation unit 166 stores the generated label information h A in the buffer 165 in association with the one visual field image 71A.

このように、撮像画像71A11乃至撮像画像71A44のそれぞれを接続して、1視野画像71Aを生成する際に、それらの撮像画像に付与されていた複数のラベル情報(この場合、撮像画像の数と同じ16個のラベル情報)を、1視野画像のラベル情報1つにまとめることが可能となる。これにより、ラベル情報のデータ量を減らすことができる。 Thus, by connecting the respective captured images 71A 11 to the captured image 71A 44, when generating the 1-field picture 71A, a plurality granted on their captured image label information (in this case, the captured image It is possible to combine 16 pieces of label information equal to the number into one piece of label information of one visual field image. Thereby, the data amount of label information can be reduced.

また、画像圧縮部167は、バッファ165に格納された1視野画像71AをJPEG圧縮等により圧縮し、ラベル情報hAとともに画像データ保存部168に保存する。これにより、ディスプレイ116に1視野画像を表示する際には、対応するラベル情報を参照することで、迅速に1視野画像を表示することが可能となる。 Further, the image compression unit 167, the 1-field image 71A stored in the buffer 165 is compressed by the JPEG compression or the like, is stored in the image data storage unit 168 together with the label information h A. Thereby, when displaying one field-of-view image on display 116, it becomes possible to display one field-of-view image quickly by referring to the corresponding label information.

なお、このとき、バッファ163に格納されている、1視野画像71Aの一部として接続済みの撮像画像71A11乃至撮像画像71A44は消去される。 At this time, stored in the buffer 163, the captured image 71A 11 to the captured image 71A 44 as part Connected for one field of view image 71A is erased.

そして、上述した視野511で行われた処理が、視野512乃至視野519においても順次繰り返されることで、バッファ163には、図18の右側に示すような、1視野画像71B乃至1視野画像71Iを構築するための撮像画像が順次格納される。 Then, the processing performed by the field of view 51 1 described above is, that also sequentially repeated in field 51 2 to field 51 9, the buffer 163, as shown on the right side of FIG. 18, one field of view image 71B to one field of view Captured images for constructing the image 71I are sequentially stored.

接続/属性生成部164は、バッファ163に順次格納される撮像画像に対して、1視野分の撮像画像が揃った時点で画像接続処理を施し、それにより得られた1視野画像を、バッファ165に格納する。これにより、図20に示すように、バッファ165には、最初の格納位置の最下段に格納された1視野画像71Aの1段上に、その次に構築された1視野画像71Bが格納される。また、1視野画像71Bには、1視野画像71Aと同様に、ラベル情報hBが付与される。 The connection / attribute generation unit 164 performs image connection processing on the captured images sequentially stored in the buffer 163 when the captured images for one field of view are prepared, and the one field-of-view image obtained thereby is stored in the buffer 165. To store. As a result, as shown in FIG. 20, the buffer 165 stores the one-view image 71B constructed next to the one-view image 71A stored at the lowest stage of the first storage position. . Further, the label information h B is given to the one-field-of-view image 71B, similarly to the one-field-of-view image 71A.

なお、その後、バッファ165には、順次1段ずつ上に、1視野画像71C乃至1視野画像71Iが格納されることになるが、格納された1視野画像を消去するタイミングは、例えば次のようになる。すなわち、図20で示される1視野画像は、全ての隣接対象となる画像の接続処理が終了した際に消去される。例えば、1視野画像71Aは、図18の右側に示すように、1視野画像71Bおよび1視野画像71Dと隣接するので、1視野画像71Bおよび1視野画像71Dの接続処理が終了した際に消去される。   After that, the buffer 165 stores the one-view image 71C to the one-view image 71I one by one in order. The timing for deleting the stored one-view image is as follows, for example. become. That is, the one-view image shown in FIG. 20 is deleted when the connection processing of all adjacent target images is completed. For example, as shown in the right side of FIG. 18, the 1-view image 71A is adjacent to the 1-view image 71B and the 1-view image 71D, and thus is deleted when the connection process of the 1-view image 71B and the 1-view image 71D is completed. The

そして、接続/属性生成部166によって、1視野画像71A乃至1視野画像71Iの9枚の1視野画像のそれぞれが接続されることで、1枚の標本画像71が得られる。   Then, the connection / attribute generation unit 166 connects each of the nine 1-view images of the 1-view image 71A to the 1-view image 71I to obtain one sample image 71.

なお、本実施の形態では、1視野単位毎にラベル情報を付与するとして説明したが、例えば、利用者により指示された範囲等、他の単位毎にラベル情報を付与してもよい。   In the present embodiment, the label information is given for each visual field unit. However, for example, the label information may be given for every other unit such as a range designated by the user.

以上のように、本実施の形態では、各CCD毎に取得された撮像画像について、それ単独で可能な画像処理を施した後、それにより得られた撮像画像に対してラベル情報を付加してバッファリングしておく。その後、1視野分の画像を構築するのに必要となる撮像画像が揃った時点で、これらの撮像画像の画像接続処理を行うとともに、ラベル情報についても統合している。   As described above, in the present embodiment, after the captured image acquired for each CCD is subjected to image processing that can be performed independently, label information is added to the captured image obtained thereby. Keep buffering. Thereafter, when captured images necessary for constructing an image for one field of view are prepared, image connection processing of these captured images is performed, and label information is also integrated.

この一連の処理を行うことで、それ以降の処理は、順次隣接した画像の分割または統合の問題となり、データの保存単位はこれを基準とし、さらにホストPC115の性能を考慮して、順次隣接した複数画像の接続を検討することになる。   By performing this series of processing, the subsequent processing becomes a problem of division or integration of adjacent images, and the data storage unit is based on this, and further considering the performance of the host PC 115, the adjacent processing is performed sequentially. We will consider connecting multiple images.

なお、本実施の形態では、1視野毎の撮像位置の順番が決まっているので、バッファに入力された順番に応じて撮像画像のデータを所定の順番で所定のバッファ領域に保持することで、正確なラベル情報を付加できる。しかし、1視野の撮像位置の順番を変えた場合には、その順番の変更に応じてバッファに入力される順番とバッファ領域との対応関係を変更するようにCPU141に指示するコマンドを与えればよい。特に、露光時間設定において、いずれかのCCDが標本の撮像範囲に位置する確率を向上させるために観察範囲の中心に近くなるように、顕微鏡制御部113の制御の下に撮像ユニット31を移動して露光時間設定をする方がよい場合がある。このようなことを行った場合には露光時間設定後、直ちに撮像が行えるようにするために1視野内の各位置の撮像順番を変えたほうがよい。   In this embodiment, since the order of the imaging positions for each field of view is determined, by storing the data of the captured images in a predetermined buffer area in a predetermined order according to the order input to the buffer, Accurate label information can be added. However, when the order of the imaging positions of one field of view is changed, a command for instructing the CPU 141 to change the correspondence between the order of input to the buffer and the buffer area according to the change of the order may be given. . In particular, in setting the exposure time, the imaging unit 31 is moved under the control of the microscope control unit 113 so as to be close to the center of the observation range in order to improve the probability that any CCD is located in the imaging range of the specimen. It may be better to set the exposure time. When this is done, it is better to change the imaging order of each position in one field of view so that imaging can be performed immediately after setting the exposure time.

本発明によれば、広視野の対物レンズで拡大した標本像を複数の撮像素子を使用して取得するシステムであるため、従来1つの撮像素子で取得しているシステムと比較し、安定したバーチャルスライド画像を得ることが可能となる。   According to the present invention, since it is a system that acquires a specimen image magnified by a wide-field objective lens using a plurality of image sensors, a stable virtual image can be obtained as compared with a system that has conventionally been acquired by one image sensor. A slide image can be obtained.

上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータ等に、記録媒体からインストールされる。   The series of processes described above can be executed by hardware or can be executed by software. When a series of processing is executed by software, a program constituting the software may execute various functions by installing a computer incorporated in dedicated hardware or various programs. For example, it is installed from a recording medium in a general-purpose personal computer or the like.

この記録媒体は、コンピュータとは別に、利用者にプログラムを提供するために配布される、プログラムが記録されている磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc))を含む)、光磁気ディスク(MD(Mini-Disk)(商標)を含む)、若しくは半導体メモリ等よりなる図12のリムーバブルメディア148により構成されるだけでなく、コンピュータに予め組み込まれた状態で利用者に提供される、プログラムが記録されている図12のハードディスクドライブ143や、図示せぬROM(Read Only Memory)等で構成される。   This recording medium is distributed to provide a program to users separately from a computer, and includes a magnetic disk (including a flexible disk) on which the program is recorded, an optical disk (CD-ROM (Compact Disc-Read Only Memory). ), DVD (Digital Versatile Disc)), magneto-optical disk (including MD (Mini-Disk) (trademark)), or the removable media 148 of FIG. The hard disk drive 143 of FIG. 12 in which a program is recorded, which is provided to the user in a state of being pre-installed in the computer, and a ROM (Read Only Memory) (not shown) are configured.

また、上述した一連の処理を実行させるプログラムは、必要に応じてルータ、モデム等のインタフェースを介して、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の通信媒体を介してコンピュータにインストールされるようにしてもよい。   The program for executing the above-described series of processing is installed in a computer via a wired or wireless communication medium such as a local area network, the Internet, or digital satellite broadcasting via an interface such as a router or a modem as necessary. You may be made to do.

なお、本明細書において、記録媒体に格納されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。   In the present specification, the step of describing the program stored in the recording medium is not limited to the processing performed in chronological order according to the described order, but is not necessarily performed in chronological order. It also includes processes that are executed individually.

また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。   Further, in this specification, the system represents the entire apparatus constituted by a plurality of apparatuses.

さらに、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。   Furthermore, the embodiments of the present invention are not limited to the above-described embodiments, and various modifications can be made without departing from the gist of the present invention.

大型顕微鏡の全体の構成を示す概略断面図である。It is a schematic sectional drawing which shows the whole structure of a large sized microscope. 顕微鏡画像の撮像を行う主要部を示す図である。It is a figure which shows the principal part which images a microscope image. 撮像部の詳細な構成を示す図である。It is a figure which shows the detailed structure of an imaging part. 対物レンズの視野を示す模式図である。It is a schematic diagram which shows the visual field of an objective lens. 対物レンズの視野の移動の様子を示す模式図である。It is a schematic diagram which shows the mode of the movement of the visual field of an objective lens. 対物レンズの視野内における撮像ユニットの位置の変化の様子を示す模式図である。It is a schematic diagram which shows the mode of the change of the position of the imaging unit in the visual field of an objective lens. ある視野から次の視野への移動の様子を示す模式図である。It is a schematic diagram which shows the mode of the movement from a certain visual field to the next visual field. 1視野毎の撮像画像の接続の様子を示す模式図である。It is a schematic diagram which shows the mode of the connection of the captured image for every visual field. 1視野毎の撮像画像の接続の様子を示す模式図である。It is a schematic diagram which shows the mode of the connection of the captured image for every visual field. 1視野画像を接続して標本画像を生成する様子を示す模式図である。It is a schematic diagram which shows a mode that 1 visual field image is connected and a sample image is produced | generated. 顕微鏡システムの構成の例を示すブロック図である。It is a block diagram which shows the example of a structure of a microscope system. 顕微鏡システムの構成の例を示すブロック図である。It is a block diagram which shows the example of a structure of a microscope system. 顕微鏡システムを構成する各装置の機能的構成の例を示すブロック図である。It is a block diagram which shows the example of a functional structure of each apparatus which comprises a microscope system. 露光時間設定処理について説明するフローチャートである。It is a flowchart explaining an exposure time setting process. 撮像画像生成処理について説明するフローチャートである。It is a flowchart explaining a captured image generation process. 画像接続処理について説明するフローチャートである。It is a flowchart explaining an image connection process. 画像接続処理について説明するフローチャートである。It is a flowchart explaining an image connection process. 対物レンズの1視野における撮像画像の取得の例を示す模式図である。It is a schematic diagram which shows the example of acquisition of the captured image in 1 visual field of an objective lens. CCD毎にデータを保持するバッファと、そのデータ構造の例を示す模式図である。It is a schematic diagram showing an example of a buffer that holds data for each CCD and its data structure. 1視野画像毎にデータを保持するバッファと、そのデータ構造の例を示す模式図である。It is a schematic diagram which shows the example of the buffer which hold | maintains data for every visual field image, and its data structure.

符号の説明Explanation of symbols

1 大型顕微鏡, 11 撮像部, 12 対物レンズ, 13 AFユニット, 14 フレーム/ハウジング部, 15 光源部, 16 電動X−Yステージ, 17 Z軸駆動部, 18 透過照明ユニット, 31 撮像ユニット, 41乃至44 CCD, 111 カメラヘッド, 112 カメラコントロールユニット, 113 顕微鏡制御部, 114 事前撮像部, 115 ホストPC, 116 ディスプレイ, 117 コントローラ, 121乃至124 センサ処理部, 125 多重化処理部, 141 CPU, 142 メインメモリ, 143 ハードディスクドライブ, 145 通信インタフェース, 146 グラフィックコントローラ, 151 Rawデータ変換部, 152 画像生成部, 153 画像補正部, 154 シリアライズ部, 161 制御部, 162 受信バッファ, 163 バッファ, 164 接続/属性生成部, 165 バッファ, 166 接続/属性生成部, 167 画像圧縮部, 168 画像データ保存部   DESCRIPTION OF SYMBOLS 1 Large microscope, 11 Imaging part, 12 Objective lens, 13 AF unit, 14 Frame / housing part, 15 Light source part, 16 Electric XY stage, 17 Z-axis drive part, 18 Transmission illumination unit, 31 Imaging unit, 41 thru | or 41 thru | or 44 CCD, 111 camera head, 112 camera control unit, 113 microscope control unit, 114 pre-imaging unit, 115 host PC, 116 display, 117 controller, 121 to 124 sensor processing unit, 125 multiplexing processing unit, 141 CPU, 142 main Memory, 143 hard disk drive, 145 communication interface, 146 graphic controller, 151 Raw data conversion unit, 152 image generation unit, 153 image correction unit, 154 serialization unit, 161 control unit, 162 reception buffer, 163 buffer, 164 connection / attribute generation unit, 165 buffer, 166 connection / attribute generation unit, 167 image compression unit, 168 image data storage unit

Claims (5)

標本が載置されるステージと対物レンズとを有し、前記標本を観察する顕微鏡を有する顕微鏡システムにおいて、
前記対物レンズの視野内に収まるように設けられた複数の撮像素子からなる撮像手段と、
前記複数の撮像素子のそれぞれにより撮像された複数の撮像画像に付与する第1のラベル情報であって、その撮像画像の識別子および前記対物レンズの視野内における位置情報を少なくとも含んでいる前記第1のラベル情報を生成する第1の生成手段と、
前記撮像画像と、前記第1のラベル情報とを対応させて格納する第1のバッファと、
前記第1のバッファに格納された複数の撮像画像が前記対物レンズの1視野分の画像である1視野画像として接続されたとき、前記1視野画像に付与する第2のラベル情報であって、その1視野画像の識別子および観察視野内における位置情報を少なくとも含んでいる前記第2のラベル情報を生成する第2の生成手段と、
前記1視野画像と、前記第2のラベル情報とを対応させて格納する第2のバッファと
を備える顕微鏡システム。
In a microscope system having a stage on which a specimen is placed and an objective lens, and having a microscope for observing the specimen,
Imaging means comprising a plurality of imaging elements provided to be within the field of view of the objective lens;
1st label information given to a plurality of picked-up images picked up by each of the plurality of image pick-up elements, and includes at least an identifier of the picked-up image and position information in the field of view of the objective lens. First generation means for generating the label information of
A first buffer for storing the captured image and the first label information in association with each other;
When a plurality of captured images stored in the first buffer are connected as one field image that is an image for one field of the objective lens, second label information to be given to the one field image, Second generating means for generating the second label information including at least the identifier of the one visual field image and position information within the observation visual field;
A microscope system comprising: a second buffer that stores the one-field image and the second label information in association with each other.
前記撮像手段によって、前記対物レンズにおける1視野分の画像が撮像されたとき、前記第1のバッファに格納された前記複数の撮像画像を、前記1視野画像として接続する第1の接続手段と、
観察視野分の1視野画像が前記第2のバッファに格納されたとき、前記第2のバッファに格納された複数の1視野画像を、前記標本の画像である標本画像として接続する第2の接続手段と
をさらに備える請求項1に記載の顕微鏡システム。
A first connection unit that connects the plurality of captured images stored in the first buffer as the one field-of-view image when an image for one field of view of the objective lens is captured by the imaging unit;
A second connection for connecting a plurality of one-field images stored in the second buffer as specimen images that are images of the specimen when one field-of-view image for the observation field is stored in the second buffer; The microscope system according to claim 1, further comprising means.
前記1視野画像は、前記標本画像が接続されるときに、隣接する他の1視野画像と接続するための領域を有しており、
前記第2の接続手段は、前記複数の1視野画像を、前記標本画像として接続するとき、前記領域を除去する
請求項2に記載の顕微鏡システム。
The one field-of-view image has an area for connecting with another one field-of-view image adjacent when the sample image is connected;
The microscope system according to claim 2, wherein the second connection unit removes the region when the plurality of one-field images are connected as the specimen image.
前記第2のバッファに格納された前記領域が除去された前記1視野画像と、前記第2のラベル情報とを対応させて保存する保存手段と
をさらに備える請求項3に記載の顕微鏡システム。
The microscope system according to claim 3, further comprising: a storage unit that stores the first field image from which the region stored in the second buffer is removed and the second label information in association with each other.
保存されている前記第2のラベル情報に基づいて、その第2のラベル情報に対応する前記1視野画像を表示する表示手段をさらに備える
請求項4に記載の顕微鏡システム。
The microscope system according to claim 4, further comprising display means for displaying the one visual field image corresponding to the second label information based on the stored second label information.
JP2007229253A 2007-09-04 2007-09-04 Microscope system Withdrawn JP2009063658A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007229253A JP2009063658A (en) 2007-09-04 2007-09-04 Microscope system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007229253A JP2009063658A (en) 2007-09-04 2007-09-04 Microscope system

Publications (1)

Publication Number Publication Date
JP2009063658A true JP2009063658A (en) 2009-03-26

Family

ID=40558306

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007229253A Withdrawn JP2009063658A (en) 2007-09-04 2007-09-04 Microscope system

Country Status (1)

Country Link
JP (1) JP2009063658A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2402812A2 (en) 2010-07-01 2012-01-04 Sony Corporation Microscope control device, image management server, image processing method, program, and image management system
JP2012138068A (en) * 2010-12-08 2012-07-19 Canon Inc Image generation apparatus
JP2012138891A (en) * 2010-12-08 2012-07-19 Canon Inc Imaging apparatus
WO2013051147A1 (en) * 2011-10-07 2013-04-11 キヤノン株式会社 Image acquisition apparatus adjustment method, image acquisition apparatus, and image acquisition apparatus manufacturing method
US8605144B2 (en) 2010-09-08 2013-12-10 Canon Kabushiki Kaisha Imaging apparatus
WO2015174057A1 (en) * 2014-05-15 2015-11-19 Canon Kabushiki Kaisha Image processing apparatus and imaging apparatus
US10863169B2 (en) * 2014-03-19 2020-12-08 Iee International Electronics & Engineering S.A. Camera head with integrated calibration tables

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2402812A2 (en) 2010-07-01 2012-01-04 Sony Corporation Microscope control device, image management server, image processing method, program, and image management system
US8947517B2 (en) 2010-07-01 2015-02-03 Sony Corporation Microscope control device, image management server, image processing method, program, and image management system
US8605144B2 (en) 2010-09-08 2013-12-10 Canon Kabushiki Kaisha Imaging apparatus
JP2012138068A (en) * 2010-12-08 2012-07-19 Canon Inc Image generation apparatus
JP2012138891A (en) * 2010-12-08 2012-07-19 Canon Inc Imaging apparatus
WO2013051147A1 (en) * 2011-10-07 2013-04-11 キヤノン株式会社 Image acquisition apparatus adjustment method, image acquisition apparatus, and image acquisition apparatus manufacturing method
US10863169B2 (en) * 2014-03-19 2020-12-08 Iee International Electronics & Engineering S.A. Camera head with integrated calibration tables
WO2015174057A1 (en) * 2014-05-15 2015-11-19 Canon Kabushiki Kaisha Image processing apparatus and imaging apparatus
JP2015233267A (en) * 2014-05-15 2015-12-24 キヤノン株式会社 Image processing device and imaging apparatus
US10241317B2 (en) 2014-05-15 2019-03-26 Canon Kabushiki Kaisha Image processing apparatus and imaging apparatus

Similar Documents

Publication Publication Date Title
US8947519B2 (en) Image processing apparatus, image processing system, image processing method, and image processing program
JP4917329B2 (en) Image acquisition apparatus, image acquisition method, and image acquisition program
JP2009063658A (en) Microscope system
JP5336936B2 (en) Imaging apparatus and microscope system
CN103404126B (en) Camera head, image capture method
JP5655291B2 (en) Electronic camera
JP2004101871A (en) Photographing apparatus for microscope image
JP5950678B2 (en) Imaging apparatus, control method, and program
CN103109523A (en) Imaging device and imaging method
JP2007329685A (en) Imaging apparatus and its control method
US8913173B2 (en) Imaging apparatus and imaging method
US20130265322A1 (en) Image processing apparatus, image processing system, image processing method, and image processing program
JP2007036775A (en) Imaging apparatus and focus control apparatus
JP2009063655A (en) Microscope system
JP2010062671A (en) Imaging apparatus, control method thereof, and program
JP5055120B2 (en) Data management system and method for microscope slide scanner using linear array
JP2013153429A (en) Image processing apparatus, image display system, image processing method and image processing program
JP2011103499A (en) Image pickup device and image pickup control method
JP3678160B2 (en) Image processing apparatus, display apparatus, program, and storage medium
JP2009063657A (en) Microscope system
JP2009063656A (en) Microscope system
JP2008306492A (en) Image processor, image processing system, image processing method, image processing program and computer readable recording medium
JP5042954B2 (en) Image generating apparatus, image generating method, image generating program, and computer-readable recording medium recording the program
JP5188724B2 (en) Microscope system, control device, and imaging method
JP4373872B2 (en) Imaging apparatus and microscope apparatus using the same

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20101207