JP5881356B2 - Microscope system - Google Patents

Microscope system Download PDF

Info

Publication number
JP5881356B2
JP5881356B2 JP2011211394A JP2011211394A JP5881356B2 JP 5881356 B2 JP5881356 B2 JP 5881356B2 JP 2011211394 A JP2011211394 A JP 2011211394A JP 2011211394 A JP2011211394 A JP 2011211394A JP 5881356 B2 JP5881356 B2 JP 5881356B2
Authority
JP
Japan
Prior art keywords
image
unit
effective area
determination unit
microscope system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011211394A
Other languages
Japanese (ja)
Other versions
JP2013072968A (en
Inventor
周次 秋山
周次 秋山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2011211394A priority Critical patent/JP5881356B2/en
Publication of JP2013072968A publication Critical patent/JP2013072968A/en
Application granted granted Critical
Publication of JP5881356B2 publication Critical patent/JP5881356B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Microscoopes, Condenser (AREA)
  • Studio Devices (AREA)

Description

本発明は、対物レンズを用いてステージ上に載置された標本試料を撮像することによって生成された画像データに対応する画像を表示する顕微鏡システムに関する。   The present invention relates to a microscope system for displaying an image corresponding to image data generated by imaging a specimen sample placed on a stage using an objective lens.

従来から、標本試料を観察する観察領域を変更しながら撮影した複数の静止画像を貼り合わせることによって、撮像装置の観察領域よりも広い1枚の貼り合わせ画像を生成する技術が知られている(特許文献1参照)。この技術では、表示モニタに表示される標本試料の貼り合わせ画像上に撮像装置が連続的に生成するライブ画像を重ねて表示し、このライブ画像により、次ぎに貼り合わせを行う標本試料の位置関係をユーザに認識させることで、所望とする標本試料の貼り合わせ画像の作成を可能にしている。   2. Description of the Related Art Conventionally, a technique for generating a single combined image wider than an observation region of an imaging device by combining a plurality of still images taken while changing an observation region for observing a specimen is known ( Patent Document 1). In this technique, a live image continuously generated by the imaging device is displayed on a bonded image of a specimen sample displayed on a display monitor, and the positional relationship of the specimen sample to be bonded next is displayed using this live image. This makes it possible to create a bonded image of a desired specimen sample.

特開2010−141697号公報JP 2010-141697 A

しかしながら、上述した技術では、手動操作により、次ぎに貼り合わせを行う位置をライブ画像の表示位置で確認しながら決定し、貼り合わせ画像を順次作成していくため、貼り合わせ後の画像の形状が矩形でなく歪になり、ユーザが貼り合わせ後の画像を用いて各種計測を行う場合、貼り合わせ画像の形状が歪なため、計測しづらく、また、正確な計測値を得ることができないという問題点があった。   However, in the above-described technique, the position for the next pasting is determined by manual operation while confirming at the display position of the live image, and the pasted images are sequentially created. When the user makes various measurements using the image after pasting, it is difficult to measure because the shape of the stitched image is distorted, and accurate measurement values cannot be obtained. There was a point.

本発明は、上記に鑑みてなされたものであって、貼り合わせ画像を用いて正確な計測を実現することができる顕微鏡システムを提供することを目的とする。   The present invention has been made in view of the above, and an object of the present invention is to provide a microscope system capable of realizing accurate measurement using a bonded image.

上述した課題を解決し、目的を達成するために、本発明にかかる顕微鏡システムは、ステージに載置された標本試料を撮像して該標本試料の画像データに対応する画像を複数貼り合わせた貼り合わせ画像を生成可能な顕微鏡システムにおいて、前記貼り合わせ画像内において画素データが含まれる矩形状の有効領域が最大になる最大領域を判定する有効領域判定部と、前記有効領域判定部の判定結果に応じて、前記貼り合わせ画像から前記最大領域を切出して該貼り合わせ画像の形状を整形する画像整形部と、を備えたことを特徴とする。 In order to solve the above-described problems and achieve the object, the microscope system according to the present invention is an image obtained by imaging a specimen sample placed on a stage and pasting a plurality of images corresponding to the image data of the specimen sample. In the microscope system capable of generating a combined image, the effective region determining unit that determines the maximum region in which the rectangular effective region including the pixel data in the combined image is maximized, and the determination result of the effective region determining unit Accordingly, an image shaping unit that cuts out the maximum area from the combined image and shapes the shape of the combined image is provided.

また、本発明にかかる顕微鏡システムは、上記発明において、前記有効領域判定部は、前記貼り合わせ画像を縮小した縮小画像に対し、前記有効領域を判定することを特徴とする。   The microscope system according to the present invention is characterized in that, in the above invention, the effective area determination unit determines the effective area for a reduced image obtained by reducing the combined image.

また、本発明にかかる顕微鏡システムは、上記発明において、前記有効領域判定部は、矩形状をなす複数のパターンを用いて前記貼り合わせ画像内において前記有効領域が最大になる最大領域を判定することを特徴とする。 Furthermore, the microscope system according to the present invention, in the invention, the effective region judging section, the maximum area in which the effective area within the image bonded using said plurality of patterns having a rectangular shape is maximized determine Teisu It is characterized by that.

また、本発明にかかる顕微鏡システムは、上記発明において、前記有効領域判定部は、前記貼り合わせ画像に対し、2値化処理を行うことによって前記画素データが含まれる前記有効領域を判定することを特徴とする。
また、本発明にかかる顕微鏡システムは、上記発明において、前記ステージ上に載置された前記標本試料の撮像は、前記ステージを手動で移動させて行うことを特徴とする。
In the microscope system according to the present invention, in the above invention, the effective area determination unit determines the effective area including the pixel data by performing a binarization process on the combined image. Features.
In the microscope system according to the present invention as set forth in the invention described above, the imaging of the specimen sample placed on the stage is performed by manually moving the stage.

本発明にかかる顕微鏡システムによれば、有効領域判定部が貼り合わせ画像内において画素データが含まれる矩形状の有効領域を判定し、画像整形部が有効領域判定部の判定結果に応じて、貼り合わせ画像から有効領域を切出して貼り合わせ画像の形状を整形する。この結果、貼り合わせ画像を用いて計測を行う際に、計測しやすく、また、正確な計測を実現することができるという効果を奏する。   According to the microscope system of the present invention, the effective area determination unit determines a rectangular effective area including pixel data in the combined image, and the image shaping unit pastes the image according to the determination result of the effective area determination unit. The effective area is cut out from the combined image and the shape of the combined image is shaped. As a result, there is an effect that when measurement is performed using the bonded image, measurement is easy and accurate measurement can be realized.

図1は、本発明の実施の形態1にかかる顕微鏡システムの構成の一例を示す概念図である。FIG. 1 is a conceptual diagram showing an example of the configuration of the microscope system according to the first embodiment of the present invention. 図2は、本発明の実施の形態1にかかる顕微鏡システムの機能構成を示すブロック図である。FIG. 2 is a block diagram illustrating a functional configuration of the microscope system according to the first embodiment of the present invention. 図3は、本発明の実施の形態1にかかる顕微鏡システムの表示部の一例を示す図である。FIG. 3 is a diagram illustrating an example of a display unit of the microscope system according to the first embodiment of the present invention. 図4は、本発明の実施の形態1にかかる顕微鏡システムが行う処理の概要を示すフローチャートである。FIG. 4 is a flowchart showing an outline of processing performed by the microscope system according to the first embodiment of the present invention. 図5は、有効領域判定部が実行する第1の矩形判定処理の4方向拡張を模式的に説明する図である。FIG. 5 is a diagram schematically illustrating the four-direction expansion of the first rectangle determination process executed by the effective area determination unit. 図6は、有効領域判定部が実行する第1の矩形判定処理の4方向拡張において苦手な状況を模式的に説明する図である。FIG. 6 is a diagram schematically illustrating a situation in which the first region determination process performed by the effective region determination unit is not good at the four-direction expansion. 図7は、有効領域判定部が実行する第2の矩形判定処理の横方向優先拡張の概要を模式的に説明する図である。FIG. 7 is a diagram schematically illustrating an outline of the lateral priority extension of the second rectangle determination process executed by the effective area determination unit. 図8は、有効領域判定部が実行する第2の矩形判定処理の横方向優先拡張において苦手な状況を模式的に説明する図である。FIG. 8 is a diagram schematically illustrating a situation in which the second region determination process executed by the effective area determination unit is not good at the priority in the horizontal direction. 図9は、有効領域判定部が実行する第3の矩形判定処理の縦方向優先拡張の概要を模式的に説明する図である。FIG. 9 is a diagram schematically illustrating an overview of the vertical priority extension of the third rectangle determination process executed by the effective area determination unit. 図10は、有効領域判定部が実行する第3の矩形判定処理の縦方向優先拡張において苦手な状況を模式的に説明する図である。FIG. 10 is a diagram schematically illustrating a situation in which the third region determination process executed by the effective region determination unit is not good at the vertical priority extension. 図11は、有効領域判定部が実行する第4の矩形判定処理の4方向拡張+縦方向優先拡張の概要を模式的に説明する図である。FIG. 11 is a diagram schematically illustrating an outline of 4-direction expansion + vertical direction priority expansion of the fourth rectangle determination process executed by the effective area determination unit. 図12は、有効領域判定部が実行する第4の矩形判定処理の4方向拡張+縦方向優先拡張において苦手な状況を模式的に説明する図である。FIG. 12 is a diagram schematically illustrating a situation in which it is difficult to perform the 4-direction extension + vertical direction priority extension of the fourth rectangle determination process executed by the effective area determination unit. 図13は、有効領域判定部が実行する第5の矩形判定処理の4方向拡張+横方向優先拡張の概要を模式的に説明する図である。FIG. 13 is a diagram schematically illustrating an outline of 4-direction expansion + horizontal priority expansion of the fifth rectangle determination process executed by the effective area determination unit. 図14は、有効領域判定部が実行する第5の矩形判定処理の4方向拡張+横方向優先拡張の概要を模式的に説明する図である。FIG. 14 is a diagram schematically illustrating an outline of 4-direction expansion + horizontal priority expansion of the fifth rectangle determination process executed by the effective area determination unit. 図15は、本発明の実施の形態2にかかる顕微鏡システムが行う処理の概要を示すフローチャートである。FIG. 15 is a flowchart illustrating an outline of processing performed by the microscope system according to the second embodiment of the present invention. 図16は、有効領域判定部が実行する1倍サイズの2値画像に対し、拡張判定処理の概要を模式的に説明する図である。FIG. 16 is a diagram schematically illustrating an overview of the extension determination process for a binary image having a single size executed by the effective area determination unit.

以下、図面を参照して、本実施を実施するための形態(以下、「実施の形態」という)について説明する。なお、以下に説明する実施の形態によって本発明が限定されるものではない。さらに、図面の記載において、同一の部分には同一の符号を付して説明する。   Hereinafter, a form for carrying out this embodiment (hereinafter referred to as “embodiment”) will be described with reference to the drawings. The present invention is not limited to the embodiments described below. Further, in the description of the drawings, the same portions will be described with the same reference numerals.

(実施の形態1)
図1は、本発明の実施の形態1にかかる顕微鏡システムの構成の一例を示す概念図である。図2は、本発明の実施の形態1にかかる顕微鏡システムの機能構成を示すブロック図である。なお、図1および図2において、顕微鏡システム1が載置される平面をXY平面とし、XY平面と垂直な方向をZ方向として説明する。
(Embodiment 1)
FIG. 1 is a conceptual diagram showing an example of the configuration of the microscope system according to the first embodiment of the present invention. FIG. 2 is a block diagram illustrating a functional configuration of the microscope system according to the first embodiment of the present invention. 1 and 2, the plane on which the microscope system 1 is placed will be described as an XY plane, and a direction perpendicular to the XY plane will be described as a Z direction.

図1および図2に示すように、顕微鏡システム1は、標本試料Sを観察する顕微鏡装置2と、顕微鏡装置2を駆動制御する顕微鏡制御部3と、顕微鏡装置2を介して標本試料Sを撮像して画像データを生成する撮像装置4と、撮像装置4の駆動を制御する撮像制御部5と制御端末7を介して撮像装置4が撮像した画像データに対応する画像を表示するとともに、顕微鏡システム1の各種の操作の入力を受け付ける表示入力部6と、顕微鏡システム1の各部を制御する制御端末7と、を備える。顕微鏡装置2、顕微鏡制御部3、撮像装置4、撮像制御部5、表示入力部6および制御端末7は、データが送受信可能に有線または無線で接続されている。   As shown in FIG. 1 and FIG. 2, the microscope system 1 images the specimen sample S through the microscope apparatus 2 that observes the specimen sample S, the microscope control unit 3 that drives and controls the microscope apparatus 2, and the microscope apparatus 2. The image pickup apparatus 4 that generates image data, the image pickup control unit 5 that controls the drive of the image pickup apparatus 4, and the image corresponding to the image data picked up by the image pickup apparatus 4 via the control terminal 7 are displayed, and the microscope system The display input part 6 which receives the input of 1 various operation, and the control terminal 7 which controls each part of the microscope system 1 are provided. The microscope device 2, the microscope control unit 3, the imaging device 4, the imaging control unit 5, the display input unit 6, and the control terminal 7 are connected by wire or wireless so that data can be transmitted and received.

顕微鏡装置2は、標本試料Sが載置されるステージ21と、側面視略C字状をなし、ステージ21を支持するとともに、レボルバ22を介して対物レンズ23を保持する顕微鏡本体部24と、標本試料Sに光を照射する落射照明用光源25と、を備える。   The microscope apparatus 2 has a stage 21 on which a specimen S is placed, a substantially C-shape in side view, a stage body 24 that supports the stage 21 and holds an objective lens 23 via a revolver 22; And an epi-illumination light source 25 that irradiates the specimen S with light.

ステージ21は、XYZ方向に移動自在に構成されている。ステージ21は、ステージ駆動部211によってXY平面内で移動自在である。ステージ21は、顕微鏡制御部3の制御のもと、図示しないXY位置の原点センサによってXY平面における所定の原点位置を検出し、この原点位置を基点としてステージ駆動部211の駆動量が制御されることによって、標本試料S上の観察箇所(観察領域)を移動する。ステージ21は、観察時のX位置およびY位置に関する位置信号(XY座標)を顕微鏡制御部3に出力する。また、ステージ21は、モータ212によってZ方向に移動自在である。ステージ21は、顕微鏡制御部3の制御のもと、図示しないZ位置の原点センサによってステージ21のZ方向における所定の原点位置を検出し、この原点位置を基点としてモータ212の駆動量が制御されることによって、所定の高さ範囲内の任意のZ位置に標本試料Sを焦準移動させる。ステージ21は、観察時のZ位置に関する位置信号を顕微鏡制御部3に出力する。   The stage 21 is configured to be movable in the XYZ directions. The stage 21 is movable in the XY plane by the stage driving unit 211. Under the control of the microscope control unit 3, the stage 21 detects a predetermined origin position on the XY plane by an XY position origin sensor (not shown), and the drive amount of the stage drive unit 211 is controlled based on this origin position. Thus, the observation location (observation region) on the specimen sample S is moved. The stage 21 outputs position signals (XY coordinates) relating to the X position and the Y position during observation to the microscope control unit 3. Further, the stage 21 is movable in the Z direction by a motor 212. Under the control of the microscope control unit 3, the stage 21 detects a predetermined origin position in the Z direction of the stage 21 by a Z position origin sensor (not shown), and the driving amount of the motor 212 is controlled based on this origin position. As a result, the specimen sample S is moved to an arbitrary Z position within a predetermined height range. The stage 21 outputs a position signal related to the Z position during observation to the microscope control unit 3.

レボルバ22は、顕微鏡本体部24に対してスライド自在または回転自在に設けられ、対物レンズ23を標本試料Sの上方に配置する。レボルバ22は、ノーズピースやスイングレボルバ等を用いて構成される。レボルバ22は、マウンタ221によって倍率(観察倍率)が異なる複数の対物レンズ23を保持する。レボルバ22は、観察光の光路上に挿入されて標本試料Sの観察に用いる対物レンズ23を択一的に切換えるため、マウンタ221をスライド移動又は回転させるレボルバ駆動部222と、レボルバ22の接続状態等を検出するレボルバ検出部223と、を有する。   The revolver 22 is provided so as to be slidable or rotatable with respect to the microscope main body 24, and the objective lens 23 is disposed above the specimen S. The revolver 22 is configured using a nose piece, a swing revolver, or the like. The revolver 22 holds a plurality of objective lenses 23 having different magnifications (observation magnifications) by the mounter 221. The revolver 22 is inserted in the optical path of the observation light, and the connection between the revolver 22 and the revolver drive unit 222 that slides or rotates the mounter 221 in order to selectively switch the objective lens 23 used for observing the specimen S. And a revolver detector 223 for detecting the like.

レボルバ駆動部222は、顕微鏡制御部3の制御のもと、マウンタ221をスライド移動又は回転させる。レボルバ検出部223は、レボルバ22が顕微鏡本体部24に接続されていることを検知するレボルバ接続センサ(図示せず)と、対物レンズ23が観察光の光路上に挿入された対物レンズ23の種類を識別するレボルバセンサ(図示せず)と、対物レンズ23が観察光の光路上に挿入されたことを検知する移動完了センサ(図示せず)と、を有する。レボルバ検出部223は、各種センサが検出した検出結果を顕微鏡制御部3へ出力する。   The revolver driving unit 222 slides or rotates the mounter 221 under the control of the microscope control unit 3. The revolver detection unit 223 includes a revolver connection sensor (not shown) that detects that the revolver 22 is connected to the microscope main body 24, and the type of the objective lens 23 in which the objective lens 23 is inserted in the optical path of the observation light. And a movement completion sensor (not shown) for detecting that the objective lens 23 is inserted on the optical path of the observation light. The revolver detection unit 223 outputs detection results detected by various sensors to the microscope control unit 3.

対物レンズ23は、たとえば1倍,2倍,4倍の比較的倍率の低い対物レンズ231(以下、「低倍対物レンズ231」という)と、10倍,20倍,40倍の低倍対物レンズ231の倍率に対して高倍率である対物レンズ232(以下、「高倍対物レンズ232」という)とを少なくとも一つずつマウンタ221に装着される。なお、低倍対物レンズ231および高倍対物レンズ232の倍率は一例であり、高倍対物レンズ232が低倍対物レンズ231に対して高ければよい。   The objective lens 23 includes, for example, an objective lens 231 with relatively low magnification of 1 ×, 2 ×, and 4 × (hereinafter referred to as “low magnification objective lens 231”), and a 10 ×, 20 ×, and 40 × low magnification objective lens. At least one objective lens 232 (hereinafter referred to as “high-magnification objective lens 232”) having a high magnification relative to the magnification of 231 is attached to the mounter 221. Note that the magnifications of the low-magnification objective lens 231 and the high-magnification objective lens 232 are examples, and it is sufficient that the high-magnification objective lens 232 is higher than the low-magnification objective lens 231.

顕微鏡本体部24は、ファイバー251を介して落射照明用光源25から出射された照明光L1(以下、「落射照明光L1」という)を集光する照明レンズ241と、落射照明光L1の光路を対物レンズ23の光軸に沿って偏向させるハーフミラー242と、標本試料Sを拡大するズームレンズ部243と、対物レンズ23、ズームレンズ部243およびハーフミラー242を介して入射される標本試料Sの反射光を集光して観察像を結像する結像レンズ244とが内部に設けられている。   The microscope main body 24 includes an illumination lens 241 that collects the illumination light L1 emitted from the epi-illumination light source 25 through the fiber 251 (hereinafter referred to as “epi-illumination light L1”), and an optical path of the epi-illumination light L1. The half mirror 242 that deflects along the optical axis of the objective lens 23, the zoom lens unit 243 that magnifies the sample S, and the sample sample S incident through the objective lens 23, the zoom lens unit 243, and the half mirror 242. An imaging lens 244 that focuses the reflected light to form an observation image is provided inside.

ズームレンズ部243は、1または複数のレンズからなり、標本試料Sに対してズーム可能なズーム光学系243aと、ズーム光学系243aを光軸に沿って駆動するズーム駆動部243bとを有する。ズーム駆動部243bは、顕微鏡制御部3の制御のもと、ズーム光学系243aを光軸に沿って移動させることにより、ズームレンズ部243のズーム倍率を変更する。   The zoom lens unit 243 includes one or a plurality of lenses, and includes a zoom optical system 243a that can zoom the specimen sample S, and a zoom drive unit 243b that drives the zoom optical system 243a along the optical axis. The zoom drive unit 243b changes the zoom magnification of the zoom lens unit 243 by moving the zoom optical system 243a along the optical axis under the control of the microscope control unit 3.

落射照明光L1は、照明レンズ241、ハーフミラー242、ズーム光学系243aおよび対物レンズ23を経て標本試料Sに照射される。標本試料Sで反射した反射光L2(以下、「観察光L2」という)は、対物レンズ23、ズーム光学系243a、ハーフミラー242および結像レンズ244を経て撮像装置4に入射する。   The epi-illumination light L1 is applied to the specimen S through the illumination lens 241, the half mirror 242, the zoom optical system 243a, and the objective lens 23. The reflected light L2 reflected by the specimen S (hereinafter referred to as “observation light L2”) enters the imaging device 4 through the objective lens 23, the zoom optical system 243a, the half mirror 242, and the imaging lens 244.

落射照明用光源25は、ハロゲンランプ、キセノンランプまたはLED(Light Emitting Diode)等によって構成される。落射照明用光源25は、ファイバー251を介して標本試料Sの観察像を形成するための落射照明光L1を顕微鏡本体部24に出射する。   The epi-illumination light source 25 includes a halogen lamp, a xenon lamp, an LED (Light Emitting Diode), or the like. The epi-illumination light source 25 emits epi-illumination light L <b> 1 for forming an observation image of the specimen S through the fiber 251 to the microscope main body 24.

顕微鏡制御部3は、CPU(Central Processing Unit)等を用いて構成され、制御端末7の制御のもと、顕微鏡装置2を構成する各部の動作を統括的に制御する。具体的には、顕微鏡制御部3は、レボルバ駆動部222を駆動することにより、マウンタ221を回転させて観察光L2の光路上に配置する対物レンズ23を切換える切換処理、ステージ駆動部211またはモータ212を駆動することにより、ステージ21の駆動処理、および標本試料Sの観察に伴う顕微鏡装置2の各部の調整を行う調整処理等を行う。また、顕微鏡制御部3は、顕微鏡装置2を構成する各部の状態、たとえばステージ21の位置情報(XY位置、Z位置)およびレボルバ22に装着された対物レンズ23の種類情報等を制御端末7に出力する。   The microscope control unit 3 is configured using a CPU (Central Processing Unit) or the like, and comprehensively controls the operation of each unit configuring the microscope apparatus 2 under the control of the control terminal 7. Specifically, the microscope control unit 3 drives the revolver driving unit 222 to rotate the mounter 221 to switch the objective lens 23 arranged on the optical path of the observation light L2, the stage driving unit 211 or the motor By driving 212, the stage 21 driving process, the adjustment process for adjusting each part of the microscope apparatus 2 accompanying the observation of the specimen S, and the like are performed. In addition, the microscope control unit 3 informs the control terminal 7 of the state of each part constituting the microscope apparatus 2, for example, the position information (XY position, Z position) of the stage 21 and the type information of the objective lens 23 attached to the revolver 22. Output.

撮像装置4は、CCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)等の撮像素子41を用いて構成される。撮像装置4は、撮像制御部5の制御のもと、結像レンズ244を経て入射された標本試料Sの観察像を撮像して標本試料Sの画像データを連続して生成する。撮像装置4は、カメラケーブルを介して生成した標本試料Sの画像データを制御端末7へ出力する。   The imaging device 4 is configured using an imaging device 41 such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor). Under the control of the imaging control unit 5, the imaging device 4 captures the observation image of the specimen sample S incident through the imaging lens 244 and continuously generates image data of the specimen sample S. The imaging device 4 outputs the image data of the specimen sample S generated via the camera cable to the control terminal 7.

撮像制御部5は、CPU等を用いて構成され、撮像装置4の動作を制御する。具体的には、撮像制御部5は、撮像装置4の自動ゲイン制御のON/OFF切換処理、ゲインの設定処理およびフレームレートの設定処理等を行って撮像装置4の撮影動作を制御する。撮像制御部5は、AE処理部51と、AF処理部52と、を有する。   The imaging control unit 5 is configured using a CPU or the like, and controls the operation of the imaging device 4. Specifically, the imaging control unit 5 controls the photographing operation of the imaging device 4 by performing ON / OFF switching processing of automatic gain control of the imaging device 4, gain setting processing, frame rate setting processing, and the like. The imaging control unit 5 includes an AE processing unit 51 and an AF processing unit 52.

AE処理部51は、撮像装置4が生成した画像データに基づいて、撮像装置4の露出条件を自動的に設定する。具体的には、AE処理部51は、制御端末7を介して取得した画像データから輝度を算出し、算出した輝度に基づいて撮像装置4の露出条件、たとえば露光時間を決定することで撮像装置4の露出を自動的に調整するAE処理を行う。   The AE processing unit 51 automatically sets the exposure condition of the imaging device 4 based on the image data generated by the imaging device 4. Specifically, the AE processing unit 51 calculates the luminance from the image data acquired via the control terminal 7, and determines the exposure condition of the imaging device 4, for example, the exposure time based on the calculated luminance. AE processing for automatically adjusting the exposure of 4 is performed.

AF処理部52は、撮像装置4が生成した画像データに基づいて、撮像装置4のピントを自動的に調整する。具体的には、AF処理部52は、画像データに含まれるコントラストを評価し、合焦している合焦位置(焦点位置)を検出することにより、撮像装置4のピントを自動的に調整するAF処理を行う。なお、AF処理部52は、画像データに基づいて、ステージ21の各Z位置における画像のコントラストを評価することにより、合焦している焦点位置(Z位置)を検出してもよい。   The AF processing unit 52 automatically adjusts the focus of the imaging device 4 based on the image data generated by the imaging device 4. Specifically, the AF processing unit 52 automatically adjusts the focus of the imaging device 4 by evaluating the contrast included in the image data and detecting the in-focus position (focal position). AF processing is performed. Note that the AF processing unit 52 may detect a focused focus position (Z position) by evaluating the contrast of the image at each Z position of the stage 21 based on the image data.

表示入力部6は、制御端末7との通信を行う表示通信部61と、画像を表示する表示部62と、外部からの物体の接触に応じた位置信号を出力するタッチパネル63と、を有する。   The display input unit 6 includes a display communication unit 61 that performs communication with the control terminal 7, a display unit 62 that displays an image, and a touch panel 63 that outputs a position signal corresponding to an external object contact.

表示通信部61は、制御端末7との通信を行うための通信インターフェースである。表示通信部61は、制御端末7から出力される画像データを表示部62へ出力する。   The display communication unit 61 is a communication interface for performing communication with the control terminal 7. The display communication unit 61 outputs the image data output from the control terminal 7 to the display unit 62.

液晶または有機EL(Electro Luminescence)等からなる表示パネルを用いて構成される。表示部62は、表示通信部61を介して入力される画像データに対応する画像および顕微鏡システム1の各種操作情報を表示する。具体的には、表示部62は、撮像装置4によって連続して生成された画像データに対応するライブ画像または撮像装置4の観察領域よりも外縁が広い観察領域を有する標本試料Sの貼り合わせ画像データに対応する貼り合わせ画像を表示する。   A display panel made of liquid crystal or organic EL (Electro Luminescence) is used. The display unit 62 displays an image corresponding to image data input via the display communication unit 61 and various operation information of the microscope system 1. Specifically, the display unit 62 is a live image corresponding to the image data continuously generated by the imaging device 4 or a bonded image of the specimen sample S having an observation region whose outer edge is wider than the observation region of the imaging device 4. Display the combined image corresponding to the data.

タッチパネル63は、表示部62の表示画面上に設けられ、外部からの物体の接触位置に応じた入力を受け付ける。具体的には、タッチパネル63は、ユーザが表示部62に表示される操作アイコンに従ってタッチ(接触)した位置を検出し、この検出したタッチ位置に応じた位置信号を制御端末7へ出力する。タッチパネル63は、表示部62が顕微鏡システム1の各種操作情報を画像表示領域A1内で表示することで、グラフィカルユーザインターフェース(GUI)として機能する(図3を参照)。一般に、タッチパネルとしては、抵抗膜方式、静電容量方式および光学方式等がある。本実施の形態1では、いずれの方式のタッチパネルであっても適用可能である。   The touch panel 63 is provided on the display screen of the display unit 62 and accepts an input according to the contact position of the object from the outside. Specifically, the touch panel 63 detects a position where the user touches (contacts) according to an operation icon displayed on the display unit 62, and outputs a position signal corresponding to the detected touch position to the control terminal 7. The touch panel 63 functions as a graphical user interface (GUI) when the display unit 62 displays various operation information of the microscope system 1 in the image display area A1 (see FIG. 3). In general, the touch panel includes a resistance film method, a capacitance method, an optical method, and the like. In the first embodiment, any type of touch panel is applicable.

制御端末7は、顕微鏡制御部3、撮像制御部5および表示入力部6との通信を行う制御通信部71と、顕微鏡システム1の各種情報を記憶する記憶部73と、顕微鏡システム1の各部の駆動を指示する駆動指示信号の入力を受け付ける入力部72と、顕微鏡システム1の各部を制御する制御部74と、を備える。   The control terminal 7 includes a control communication unit 71 that communicates with the microscope control unit 3, the imaging control unit 5, and the display input unit 6, a storage unit 73 that stores various types of information of the microscope system 1, and each unit of the microscope system 1. An input unit 72 that receives an input of a drive instruction signal that instructs driving, and a control unit 74 that controls each unit of the microscope system 1 are provided.

制御通信部71は、顕微鏡制御部3、撮像制御部5および表示入力部6それぞれとの通信を行うための通信インターフェースである。また、制御通信部71は、カメラケーブルを介して撮像装置4から出力される画像データを制御部74へ出力する。   The control communication unit 71 is a communication interface for communicating with each of the microscope control unit 3, the imaging control unit 5, and the display input unit 6. Further, the control communication unit 71 outputs the image data output from the imaging device 4 to the control unit 74 via the camera cable.

入力部72は、キーボード、マウス、ジョイスティックおよび各種スイッチ等を用いて構成され、各種スイッチの操作入力に応じた操作信号を制御部74に出力する。   The input unit 72 is configured using a keyboard, a mouse, a joystick, various switches, and the like, and outputs operation signals corresponding to operation inputs of the various switches to the control unit 74.

記憶部73は、制御端末7の内部に固定的に設けられるフラッシュメモリおよびRAM(Random Access Memory)等の半導体メモリを用いて実現される。記憶部73は、顕微鏡システム1に実行させる各種プログラム、プログラムの実行中に使用される各種データを記憶する。また、記憶部73は、制御部74の処理中の情報を一次的に記憶する。記憶部73は、撮像装置4が撮像した画像データを記憶する画像データ記憶部731と、撮像装置4によって連続して生成された画像データに対応するライブ画像または撮像装置4の観察領域よりも外縁が広い観察領域を有する標本試料Sの貼り合わせ画像データを記憶する貼り合わせ画像データ記憶部732と、を有する。なお、記憶部73は、外部から装着されるメモリカード等を用いて構成されてもよい。   The storage unit 73 is realized by using a semiconductor memory such as a flash memory and a RAM (Random Access Memory) fixedly provided inside the control terminal 7. The storage unit 73 stores various programs to be executed by the microscope system 1 and various data used during execution of the programs. The storage unit 73 temporarily stores information being processed by the control unit 74. The storage unit 73 has an image data storage unit 731 that stores image data captured by the imaging device 4 and a live image corresponding to the image data continuously generated by the imaging device 4 or an outer edge of the observation region of the imaging device 4. A combined image data storage unit 732 that stores the combined image data of the specimen sample S having a wide observation area. In addition, the memory | storage part 73 may be comprised using the memory card etc. which are mounted | worn from the outside.

制御部74は、CPU等を用いて構成され、入力部72からの操作信号およびタッチパネル63から位置信号に応じて顕微鏡システム1を構成する各部に対応する指示やデータの転送等を行って顕微鏡システム1の動作を統括的に制御する。   The control unit 74 is configured using a CPU or the like, and performs a command or data transfer corresponding to each unit constituting the microscope system 1 in accordance with an operation signal from the input unit 72 and a position signal from the touch panel 63, and the microscope system. The operation of 1 is comprehensively controlled.

制御部74の詳細な構成について説明する。制御部74は、ライブ画像生成部741と、移動量算出部742と、移動量判定部743と、撮影画像生成部744と、貼り合わせ画像生成部745と、有効領域判定部746と、画像整形部747と、駆動制御部748と、表示制御部749と、を有する。   A detailed configuration of the control unit 74 will be described. The control unit 74 includes a live image generation unit 741, a movement amount calculation unit 742, a movement amount determination unit 743, a captured image generation unit 744, a composite image generation unit 745, an effective area determination unit 746, and an image shaping. A unit 747, a drive controller 748, and a display controller 749.

ライブ画像生成部741は、撮像装置4が連続して生成した画像データから表示部62に表示させるライブ画像データを順次生成する。ライブ画像生成部741は、ライブ画像データを画像データ記憶部731に出力する。また、ライブ画像生成部741は、画像データに対し、所定の画像処理、たとえばオプティカルブラック減算処理、ホワイトバランス調整処理、同時化処理、カラーマトリクス演算処理、γ補正処理、色再現処理およびエッジ強調処理等を含む画像処理を行う。   The live image generation unit 741 sequentially generates live image data to be displayed on the display unit 62 from the image data continuously generated by the imaging device 4. The live image generation unit 741 outputs live image data to the image data storage unit 731. The live image generation unit 741 also performs predetermined image processing, such as optical black subtraction processing, white balance adjustment processing, synchronization processing, color matrix calculation processing, γ correction processing, color reproduction processing, and edge enhancement processing, on image data. Image processing including the above is performed.

移動量算出部742は、制御通信部71を介して入力される撮像装置4によって生成された時間が前後する2つの画像データに対応する2つの画像に基づいて、ステージ21に対する撮像装置4の観察領域における相対的な移動量を算出する。具体的には、移動量算出部742は、時間的に前後する2つの画像データに対応するライブ画像にそれぞれ含まれる特徴点を抽出し、2つのライブ画像間において同一となる複数の対応点の移動量(画素数)を算出することにより、ステージ21に対する撮像装置4の観察領域における相対的な移動量(ずれ量)を算出する。ここで、特徴点とは、輝度情報、色情報またはエッジ情報である。なお、移動量算出部742は、撮像装置4の観察領域における相対的な移動量をパターンマッチング等の周知技術を用いて算出してもよい。   The movement amount calculation unit 742 observes the imaging device 4 with respect to the stage 21 based on two images corresponding to two image data whose time is generated by the imaging device 4 input via the control communication unit 71. The relative movement amount in the area is calculated. Specifically, the movement amount calculation unit 742 extracts feature points included in each of the live images corresponding to the two pieces of image data moving forward and backward in time, and extracts a plurality of corresponding points that are the same between the two live images. By calculating the amount of movement (number of pixels), the amount of movement (shift amount) relative to the stage 21 in the observation region of the imaging device 4 is calculated. Here, the feature point is luminance information, color information, or edge information. Note that the movement amount calculation unit 742 may calculate the relative movement amount in the observation region of the imaging device 4 using a known technique such as pattern matching.

移動量判定部743は、移動量算出部742が時間的に前後する2つのライブ画像に基づいて、ステージ21に対する撮像装置4の観察領域における相対的な移動量が算出できたか否かを判断する。具体的には、移動量判定部743は、移動量算出部742が2つのライブ画像間において対応する特徴点を抽出することができたか否かを判定する。たとえば、移動量判定部743は、移動量算出部742が2つのライブ画像間において互いに対応する特徴点を抽出することができなった場合、移動量算出部742がステージ21に対する撮像装置4の観察領域における相対的な移動量を算出することができなかったと判定する。   The movement amount determination unit 743 determines whether or not the movement amount calculation unit 742 can calculate the relative movement amount in the observation region of the imaging device 4 with respect to the stage 21 based on the two live images that move back and forth in time. . Specifically, the movement amount determination unit 743 determines whether or not the movement amount calculation unit 742 has been able to extract a corresponding feature point between two live images. For example, when the movement amount calculation unit 742 cannot extract feature points corresponding to each other between two live images, the movement amount determination unit 743 observes the imaging apparatus 4 with respect to the stage 21. It is determined that the relative movement amount in the region could not be calculated.

撮影画像生成部744は、制御通信部71を介して入力される画像データに対して、所定の画像処理を施して貼り合わせ画像生成部745および画像データ記憶部731に出力する。具体的には、撮影画像生成部744は、画像データに対して、オプティカルブラック減算処理、ホワイトバランス調整処理、同時化処理、カラーマトリクス演算処理、γ補正処理、色再現処理およびエッジ強調処理等を含む画像処理を行う。なお、撮影画像生成部744は、画像データを所定の方式、たとえばJPEG(Joint Photographic Experts Group)方式で圧縮し、圧縮した画像データを貼り合わせ画像生成部745よび画像データ記憶部731に出力してもよい。   The captured image generation unit 744 performs predetermined image processing on the image data input via the control communication unit 71 and outputs the image data to the composite image generation unit 745 and the image data storage unit 731. Specifically, the captured image generation unit 744 performs optical black subtraction processing, white balance adjustment processing, synchronization processing, color matrix calculation processing, γ correction processing, color reproduction processing, edge enhancement processing, and the like on the image data. Including image processing. The captured image generation unit 744 compresses the image data by a predetermined method, for example, JPEG (Joint Photographic Experts Group) method, and outputs the compressed image data to the combined image generation unit 745 and the image data storage unit 731. Also good.

貼り合わせ画像生成部745は、移動量算出部742が算出したステージ21に対する撮像装置4の観察領域の相対的な移動量に基づいて、撮像装置4が生成した画像データから撮像装置4の観察領域よりも外縁が広い観察領域を有する貼り合わせ画像データを生成する。具体的には、貼り合わせ画像生成部745は、画像データ記憶部731が記憶する貼り合わせ画像データを取得し、撮影画像生成部744から出力された撮影画像データを、移動量算出部742が算出したステージ21に対する撮像装置4の観察領域の相対的な移動量によって定まる貼り合わせ画像の表示位置に合成することにより、貼り合わせ画像データを生成する。たとえば、貼り合わせ画像生成部745は、貼り合わせ画像に撮影画像を貼り合わせる際に、繋ぎ目を目立たなくするため、貼り合わせ画像と撮影画像との重複領域に画素値のブレンディング処理を行うことによって貼り合わせ画像を生成する。ここで、ブレンディング処理とは、画像間で画素値を加重平均して合成画像の画素値を算出する画像処理である。なお、貼り合わせ画像生成部745は、ブレンディング処理において加重平均の際の重みを画素の位置に応じて変化させてもよい。   Based on the relative movement amount of the observation area of the imaging device 4 with respect to the stage 21 calculated by the movement amount calculation unit 742, the bonded image generation unit 745 uses the observation area of the imaging device 4 from the image data generated by the imaging device 4. Bonded image data having an observation region with a wider outer edge than that is generated. Specifically, the composite image generation unit 745 acquires the composite image data stored in the image data storage unit 731, and the movement amount calculation unit 742 calculates the captured image data output from the captured image generation unit 744. The composite image data is generated by combining the display position of the composite image determined by the relative movement amount of the observation region of the imaging device 4 with respect to the stage 21. For example, the composite image generation unit 745 performs blending processing of pixel values on the overlapping area between the composite image and the captured image in order to make the joint inconspicuous when the captured image is combined with the composite image. A stitched image is generated. Here, the blending process is an image process for calculating a pixel value of a composite image by weighted averaging of pixel values between images. Note that the composite image generation unit 745 may change the weight at the time of the weighted average in the blending process according to the pixel position.

有効領域判定部746は、貼り合わせ画像生成部745が生成した貼り合わせ画像データに対応する貼り合わせ画像内において画素データが含まれる矩形状の有効領域を判定する。具体的には、有効領域判定部746は、貼り合わせ画像データに対し、2値化処理を行うことによって、貼り合わせ画像内において画素データが含まれる矩形状の有効領域と、画素データがない無効領域とを判定する。また、有効領域判定部746は、矩形状をなす複数のパターンを用いて貼り合わせ画像内において有効領域が最大になる最大領域を判定する。   The effective area determination unit 746 determines a rectangular effective area that includes pixel data in the combined image corresponding to the combined image data generated by the combined image generation unit 745. Specifically, the effective area determination unit 746 performs a binarization process on the combined image data, so that a rectangular effective area including pixel data in the combined image and an invalid pixel data are not present. Determine the area. In addition, the effective area determination unit 746 determines a maximum area in which the effective area is maximized in the composite image using a plurality of rectangular patterns.

画像整形部747は、有効領域判定部746の判定結果に応じて、貼り合わせ画像から有効領域を切出して貼り合わせ画像の形状を整形する。具体的には、画像整形部747は、有効領域判定部746によって判定された貼り合わせ画像の有効領域が最大となる領域を切り出す(トリミング処理)ことにより、貼り合わせ画像の形状を矩形状に整形した整形画像を生成する。   The image shaping unit 747 cuts out the effective area from the composite image and shapes the shape of the composite image according to the determination result of the effective area determination unit 746. Specifically, the image shaping unit 747 shapes the shape of the combined image into a rectangular shape by cutting out an area where the effective area of the combined image determined by the effective area determining unit 746 is maximized (trimming process). Generate a shaped image.

駆動制御部748は、入力部72から入力される操作信号またはタッチパネル63から入力される位置信号に基づいて、顕微鏡装置2および撮像装置4の駆動を制御する。具体的には、駆動制御部748は、入力部72から撮影を指示する撮影指示信号が入力された場合、撮像制御部5に撮影を指示する指示信号を出力することにより、撮像装置4に撮影動作を実行させる。また、駆動制御部748は、撮像装置4が生成した時間が前後する2つの画像が重なりを有する移動速度でステージ21を駆動する。たとえば、駆動制御部748は、画像の一辺を含む端部同士が重なりを有する移動速度でステージ駆動部211を駆動する。さらに、駆動制御部748は、入力部72によって顕微鏡システム1の観察モードが通常観察モードから貼り合わせ画像観察モードに設定された場合において、入力部72からステージ21の移動を指示する指示信号が入力されたとき、ステージ21を通常観察モード時における移動速度より遅い移動速度で駆動する。   The drive control unit 748 controls the driving of the microscope device 2 and the imaging device 4 based on the operation signal input from the input unit 72 or the position signal input from the touch panel 63. Specifically, when a shooting instruction signal for instructing shooting is input from the input unit 72, the drive control unit 748 outputs a command signal for instructing shooting to the imaging control unit 5, thereby shooting the imaging device 4. Run the action. In addition, the drive control unit 748 drives the stage 21 at a moving speed at which two images generated by the imaging device 4 that have different times are overlapped. For example, the drive control unit 748 drives the stage drive unit 211 at a moving speed at which ends including one side of the image overlap each other. Furthermore, when the observation mode of the microscope system 1 is set from the normal observation mode to the bonded image observation mode by the input unit 72, the drive control unit 748 receives an instruction signal that instructs the movement of the stage 21 from the input unit 72. Then, the stage 21 is driven at a moving speed that is slower than the moving speed in the normal observation mode.

表示制御部749は、表示部62の表示態様を制御する。具体的には、表示制御部749は、制御通信部71および表示通信部61を介してライブ画像生成部741によって生成されたライブ画像および貼り合わせ画像生成部745によって生成された貼り合わせ画像を表示部62に表示させる。表示制御部749は、移動量算出部742が算出した撮像装置4の観察領域の移動量に基づいて、現在の撮像装置4の観察領域に対応する貼り合わせ画像上の表示位置にライブ位置枠を重畳して表示部62の画像表示領域A1に表示させる。   The display control unit 749 controls the display mode of the display unit 62. Specifically, the display control unit 749 displays the live image generated by the live image generation unit 741 and the composite image generated by the composite image generation unit 745 via the control communication unit 71 and the display communication unit 61. This is displayed on the unit 62. Based on the movement amount of the observation area of the imaging device 4 calculated by the movement amount calculation unit 742, the display control unit 749 adds a live position frame to the display position on the composite image corresponding to the current observation area of the imaging device 4. The images are superimposed and displayed in the image display area A1 of the display unit 62.

このように構成された顕微鏡システム1は、制御部74の制御のもと、撮像装置4で撮像された標本試料Sの画像データを表示部62に表示することによってユーザに標本試料Sの画像を観察させることができる。さらに、顕微鏡システム1は、入力部72から入力される操作信号に基づいて、制御部74が顕微鏡システム1の各部に指示信号や駆動信号を出力することにより、顕微鏡装置2および撮像装置4が駆動する。   The microscope system 1 configured in this manner displays an image of the sample sample S on the display unit 62 by displaying the image data of the sample sample S imaged by the imaging device 4 under the control of the control unit 74. Can be observed. Furthermore, in the microscope system 1, the microscope device 2 and the imaging device 4 are driven when the control unit 74 outputs an instruction signal or a drive signal to each unit of the microscope system 1 based on an operation signal input from the input unit 72. To do.

つぎに、顕微鏡システム1が行う動作について説明する。図4は、本実施の形態1にかかる顕微鏡システム1が行う処理の概要を示すフローチャートである。なお、以下においては、顕微鏡システム1が標本試料Sの貼り合わせ画像を生成する貼り合わせ画像生成モードについて説明する。   Next, operations performed by the microscope system 1 will be described. FIG. 4 is a flowchart illustrating an outline of processing performed by the microscope system 1 according to the first embodiment. In the following, a bonded image generation mode in which the microscope system 1 generates a bonded image of the specimen S will be described.

図4に示すように、ライブ画像生成部741は、撮像装置4によって生成された画像データから表示部62に表示するライブ画像データを生成する(ステップS101)。   As shown in FIG. 4, the live image generation unit 741 generates live image data to be displayed on the display unit 62 from the image data generated by the imaging device 4 (step S101).

続いて、表示制御部749は、ライブ画像生成部741が生成したライブ画像データに対応するライブ画像を表示部62に表示させる(ステップS102)。   Subsequently, the display control unit 749 displays a live image corresponding to the live image data generated by the live image generation unit 741 on the display unit 62 (step S102).

その後、移動量算出部742は、最新のライブ画像と直前のライブ画像とに基づいて、ステージ21に対する撮像装置4の観察領域の相対的な移動量を算出する(ステップS103)。具体的には、移動量算出部742は、ライブ画像生成部741によって生成された最新のライブ画像と、画像データ記憶部731によって記憶された直前のライブ画像とに基づいて、ステージ21に対する撮像装置4の観察領域における相対的な移動量を算出する。   Thereafter, the movement amount calculation unit 742 calculates the relative movement amount of the observation region of the imaging device 4 with respect to the stage 21 based on the latest live image and the previous live image (step S103). Specifically, the movement amount calculation unit 742 is an imaging device for the stage 21 based on the latest live image generated by the live image generation unit 741 and the previous live image stored by the image data storage unit 731. The relative movement amount in the four observation areas is calculated.

続いて、移動量判定部743は、移動量算出部742がステージ21に対する撮像装置4の観察領域の相対的な移動量を算出することができたか否かを判定する(ステップS104)。具体的には、移動量判定部743は、移動量算出部742が直前のライブ画像から抽出した複数の特徴点それぞれに対応する対応点を最新のライブ画像から抽出することにより、ステージ21に対する撮像装置4の観察領域の移動量を算出することができたか否かを判定する。たとえば、移動量判定部743は、ステージ21が移動する移動量が大きい場合において、移動量算出部742が直前のライブ画像から抽出した特徴点に対応する対応点を最新のライブ画像から抽出できなかったとき、移動量算出部742がステージ21に対する撮像装置4の観察領域の相対的な移動量を算出することができなかったと判定する。移動量算出部742がステージ21に対する撮像装置4の観察領域の相対的な移動量を算出することができたと移動量判定部743が判定した場合(ステップS104:Yes)、顕微鏡システム1は、後述するステップS106へ移行する。一方、移動量算出部742がステージ21に対する撮像装置4の観察領域の相対的な移動量を算出することができなかったと移動量判定部743が判定した場合(ステップS104:No)、顕微鏡システム1は、後述するステップS105へ移行する。   Subsequently, the movement amount determination unit 743 determines whether or not the movement amount calculation unit 742 has been able to calculate the relative movement amount of the observation area of the imaging device 4 with respect to the stage 21 (step S104). Specifically, the movement amount determination unit 743 extracts the corresponding points corresponding to each of a plurality of feature points extracted from the previous live image by the movement amount calculation unit 742, thereby capturing the stage 21. It is determined whether or not the movement amount of the observation area of the device 4 has been calculated. For example, when the movement amount by which the stage 21 moves is large, the movement amount determination unit 743 cannot extract the corresponding points corresponding to the feature points extracted from the previous live image by the movement amount calculation unit 742 from the latest live image. The movement amount calculation unit 742 determines that the relative movement amount of the observation region of the imaging device 4 with respect to the stage 21 could not be calculated. When the movement amount determination unit 743 determines that the movement amount calculation unit 742 can calculate the relative movement amount of the observation region of the imaging device 4 with respect to the stage 21 (step S104: Yes), the microscope system 1 is described later. The process proceeds to step S106. On the other hand, when the movement amount determination unit 743 determines that the movement amount calculation unit 742 cannot calculate the relative movement amount of the observation region of the imaging device 4 with respect to the stage 21 (step S104: No), the microscope system 1 Shifts to step S105 to be described later.

ステップS105において、表示制御部749は、移動量算出部742がステージ21に対する撮像装置4の観察領域の相対的な移動量を算出することができなかった旨の警告を表示部62に表示させる。具体的には、表示制御部749は、表示部62の表示領域上で表示されているライブ画像の表示態様を変更、たとえばハイライト表示に表示することにより、移動量算出部742がステージ21に対する撮像装置4の観察領域の相対的な移動量を算出することができなかった旨の警告を表示部62に表示させる。これにより、ユーザは、ステージ21の移動量が大きいため、ライブ画像を貼り合わせ画像に滑らかに合成することができないことを直感的に把握することができる。ステップS105の後、顕微鏡システム1は、ステップS106へ移行する。   In step S <b> 105, the display control unit 749 causes the display unit 62 to display a warning that the movement amount calculation unit 742 has not been able to calculate the relative movement amount of the observation region of the imaging device 4 with respect to the stage 21. Specifically, the display control unit 749 changes the display mode of the live image displayed on the display area of the display unit 62, for example, displays it in a highlight display, so that the movement amount calculation unit 742 can A warning that the relative movement amount of the observation area of the imaging device 4 could not be calculated is displayed on the display unit 62. Accordingly, the user can intuitively understand that the live image cannot be smoothly combined with the composite image because the moving amount of the stage 21 is large. After step S105, the microscope system 1 proceeds to step S106.

続いて、制御部74は、入力部72またはタッチパネル63を介して撮影指示信号が入力されたか否かを判断する(ステップS106)。撮影指示信号が入力されたと制御部74が判断した場合(ステップS106:Yes)、顕微鏡システム1は、ステップS107へ移行する。一方、所定時間に入力部72またはタッチパネル63を介して撮影指示信号が入力されていないと制御部74が判断した場合(ステップS106:No)、顕微鏡システム1は、ステップS101へ戻る。   Subsequently, the control unit 74 determines whether or not a shooting instruction signal is input via the input unit 72 or the touch panel 63 (step S106). When the control unit 74 determines that an imaging instruction signal has been input (step S106: Yes), the microscope system 1 proceeds to step S107. On the other hand, when the control unit 74 determines that the photographing instruction signal is not input via the input unit 72 or the touch panel 63 at a predetermined time (step S106: No), the microscope system 1 returns to step S101.

ステップS107において、駆動制御部748は、ライブ画像生成部741によるライブ画像データの生成を停止させる。   In step S107, the drive control unit 748 stops the live image data generation by the live image generation unit 741.

続いて、駆動制御部748は、撮像制御部5に撮影駆動信号を出力して撮像装置4に撮影動作を実行させて画像データを生成させる(ステップS108)。   Subsequently, the drive control unit 748 outputs a shooting drive signal to the imaging control unit 5 and causes the imaging device 4 to perform a shooting operation to generate image data (step S108).

その後、撮影画像生成部744は、撮像装置4によって生成された画像データから撮影画像データを生成する(ステップS109)。この際、撮影画像生成部744は、撮像装置4によって生成された1フレームの画像データから撮影画像データを生成する。さらに、撮影画像生成部744は、撮像装置4が複数フレームの画像データを生成した場合、この複数フレームの画像データから全焦点画像データおよび3D画像データを生成してもよい。   Thereafter, the captured image generation unit 744 generates captured image data from the image data generated by the imaging device 4 (step S109). At this time, the captured image generation unit 744 generates captured image data from one frame of image data generated by the imaging device 4. Further, when the imaging device 4 generates a plurality of frames of image data, the captured image generation unit 744 may generate omnifocal image data and 3D image data from the plurality of frames of image data.

続いて、貼り合わせ画像生成部745は、貼り合わせ画像データを生成する(ステップS110)。具体的には、貼り合わせ画像生成部745は、貼り合わせ画像データ記憶部732から貼り合わせ画像データと撮影画像生成部744から撮影画像データとを取得後、移動量算出部742によって算出された移動量から貼り合わせ画像上での撮影画像データの表示位置を算出し、この算出した表示位置に撮影画像生成部744によって生成された撮影画像データを合成することにより、貼り合わせ画像データを生成する。たとえば、貼り合わせ画像生成部745は、移動量算出部742によって算出された移動量に基づいて、貼り合わせ画像上で撮影画像を合成する表示位置を算出し、算出した表示位置に撮影画像を貼り合わせ画像の領域の一部が重なるように重畳して合成する。これにより、貼り合わせ画像と撮影画像との繋ぎ目が滑らかな標本試料Sの貼り合わせ画像を生成することができる。   Subsequently, the composite image generation unit 745 generates composite image data (step S110). Specifically, the combined image generation unit 745 acquires the combined image data from the combined image data storage unit 732 and the captured image data from the captured image generation unit 744, and then calculates the movement calculated by the movement amount calculation unit 742. The display position of the captured image data on the composite image is calculated from the amount, and the composite image data is generated by synthesizing the captured image data generated by the captured image generation unit 744 with the calculated display position. For example, the composite image generation unit 745 calculates a display position where the captured image is combined on the composite image based on the movement amount calculated by the movement amount calculation unit 742, and pastes the captured image on the calculated display position. The combined images are superimposed so that a part of the region overlaps. Thereby, it is possible to generate a bonded image of the specimen sample S in which the joint between the bonded image and the captured image is smooth.

その後、表示制御部749は、貼り合わせ画像生成部745が生成した貼り合わせ画像データに対応する貼り合わせ画像を表示部62に表示させる(ステップS111)。   Thereafter, the display control unit 749 causes the display unit 62 to display a composite image corresponding to the composite image data generated by the composite image generation unit 745 (step S111).

続いて、制御部74は、入力部72またはタッチパネル63を介して貼り合わせ画像の作成を完了する完了指示信号が入力されたか否かを判断する(ステップS112)。入力部72またはタッチパネル63を介して貼り合わせ画像の作成を完了する完了指示信号が入力されたと制御部74が判断した場合(ステップS112:Yes)、顕微鏡システム1は、ステップS113へ移行する。一方、所定時間内に入力部72またはタッチパネル63を介して貼り合わせ画像の作成を完了する完了指示信号が入力されていないと制御部74が判断した場合(ステップS112:No)、顕微鏡システム1は、ステップS101へ戻る。   Subsequently, the control unit 74 determines whether or not a completion instruction signal for completing creation of a composite image has been input via the input unit 72 or the touch panel 63 (step S112). When the control unit 74 determines that the completion instruction signal for completing the creation of the composite image has been input via the input unit 72 or the touch panel 63 (step S112: Yes), the microscope system 1 proceeds to step S113. On the other hand, when the control unit 74 determines that the completion instruction signal for completing the creation of the bonded image is not input via the input unit 72 or the touch panel 63 within a predetermined time (step S112: No), the microscope system 1 Return to step S101.

ステップS113において、駆動制御部748は、貼り合わせ画像生成部745が生成した貼り合わせ画像データを貼り合わせ画像データ記憶部732に記憶する。   In step S <b> 113, the drive control unit 748 stores the composite image data generated by the composite image generation unit 745 in the composite image data storage unit 732.

続いて、有効領域判定部746は、貼り合わせ画像データ記憶部732から貼り合わせ画像データを取得し、取得した貼り合わせ画像データに対して2値処理を行うことにより、貼り合わせ画像の2値画像を生成する(ステップS114)。具体的には、有効領域判定部746は、カラー画像貼り合わせ時に、画像領域と空白領域とを判別するマップ画像を生成する。   Subsequently, the effective area determination unit 746 acquires the composite image data from the composite image data storage unit 732 and performs a binary process on the acquired composite image data, thereby performing a binary image of the composite image. Is generated (step S114). Specifically, the effective area determination unit 746 generates a map image that determines an image area and a blank area when color images are pasted together.

その後、有効領域判定部746は、貼り合わせ画像の2値画像の重心座標を算出する(ステップS115)。具体的には、有効領域判定部746は、貼り合わせ画像の2値画像から画像領域の輪郭を抽出し、この抽出した輪郭に基づいて重心座標(中心)を算出する。   Thereafter, the effective area determination unit 746 calculates the barycentric coordinates of the binary image of the combined image (step S115). Specifically, the effective area determination unit 746 extracts the outline of the image area from the binary image of the composite image, and calculates the barycentric coordinate (center) based on the extracted outline.

続いて、有効領域判定部746は、貼り合わせ画像の2値画像の重心が画像領域内であるか否かを判定する(ステップS116)。貼り合わせ画像の2値画像の重心が画像領域内にあると有効領域判定部746が判定した場合(ステップS116:Yes)、顕微鏡システム1は、後述するステップS117へ移行する。一方、貼り合わせ画像の2値画像の重心が画像領域内にないと有効領域判定部746が判定した場合(ステップS116:No)、顕微鏡システム1は、後述するステップS120へ移行する。   Subsequently, the effective area determination unit 746 determines whether or not the center of gravity of the binary image of the composite image is within the image area (step S116). When the effective area determination unit 746 determines that the center of gravity of the binary image of the combined image is within the image area (step S116: Yes), the microscope system 1 proceeds to step S117 described later. On the other hand, when the effective area determination unit 746 determines that the center of gravity of the binary image of the composite image is not within the image area (step S116: No), the microscope system 1 proceeds to step S120 described later.

ステップS117において、有効領域判定部746は、貼り合わせ画像の2値画像に対して矩形拡張判定処理を実行する(ステップS117)。   In step S117, the effective area determination unit 746 executes rectangular extension determination processing on the binary image of the combined image (step S117).

ここで、有効領域判定部746が実行する矩形拡張判定処理について詳細に説明する。有効領域判定部746は、5パターンの矩形拡張判定処理を行う。図5は、有効領域判定部746が実行する第1の矩形判定処理の4方向拡張を模式的に説明する図である。なお、以下においては、貼り合わせ画像の2値画像の有効領域を白色で表現し、無効領域を黒色で表現する。   Here, the rectangular extension determination process executed by the effective area determination unit 746 will be described in detail. The effective area determination unit 746 performs five patterns of rectangular expansion determination processing. FIG. 5 is a diagram schematically illustrating the four-direction expansion of the first rectangle determination process executed by the effective area determination unit 746. In the following, the effective area of the binary image of the composite image is expressed in white and the ineffective area is expressed in black.

図5に示すように、有効領域判定部746は、貼り合わせ画像の2値画像P1に対し、2値画像P1の重心G1から矩形領域R1を上下左右方向に向けて同時に拡張する(図5(a))。その後、有効領域判定部746は、2値画像P1に対し、重心G1から矩形領域R1を上下左右方向に向けてさらに拡張する(図5(b))。続いて、有効領域判定部746は、2値画像P1に対し、重心G1から矩形領域R1を上下左右方向に向けてさらに拡張する(図5(c))。この際、有効領域判定部746は、矩形領域R1が2値画像P1の空白領域N1に到達した場合、縦方向の拡張を停止する。その後、有効領域判定部746は、2値画像P1に対し、重心G1から矩形領域R1を横方向に拡張する(図5(d))。なお、図5においては、縦方向の拡張を優先して説明したが、横方向の拡張を優先してもよい。   As shown in FIG. 5, the effective area determination unit 746 simultaneously expands the rectangular area R1 from the center of gravity G1 of the binary image P1 in the vertical and horizontal directions with respect to the binary image P1 of the composite image (FIG. 5 ( a)). Thereafter, the effective area determination unit 746 further expands the rectangular area R1 from the center of gravity G1 in the vertical and horizontal directions with respect to the binary image P1 (FIG. 5B). Subsequently, the effective area determination unit 746 further expands the rectangular area R1 from the center of gravity G1 in the vertical and horizontal directions with respect to the binary image P1 (FIG. 5C). At this time, when the rectangular area R1 reaches the blank area N1 of the binary image P1, the effective area determination unit 746 stops the extension in the vertical direction. Thereafter, the effective area determination unit 746 expands the rectangular area R1 from the center of gravity G1 in the horizontal direction with respect to the binary image P1 (FIG. 5D). In FIG. 5, the description has been given with priority given to the extension in the vertical direction, but the extension in the horizontal direction may be given priority.

ところで、有効領域判定部746は、第1の矩形判定処理の4方向拡張において、予測される矩形領域と異なり、小さな矩形領域R1で拡張が終了する場合がある。図6は、有効領域判定部746が実行する第1の矩形判定処理の4方向拡張において苦手な状況を模式的に説明する図である。   By the way, in the four-direction expansion of the first rectangle determination process, the effective region determination unit 746 may end the expansion with a small rectangular region R1 unlike the predicted rectangular region. FIG. 6 is a diagram schematically illustrating a situation in which it is difficult to expand the four directions of the first rectangle determination process executed by the effective area determination unit 746.

図6に示すように、有効領域判定部746は、2値画像P1に対し、重心G1から矩形領域R1を上下左右に向けて同時に拡張する(図6(a))。その後、有効領域判定部746は、2値画像P1に対し、重心G1から矩形領域R1を上下左右に向けてさらに拡張する(図6(b))。この際、有効領域判定部746は、矩形領域R1が2値画像P1の空白領域N1に到達した場合、下方向および左方向の拡張を停止する。続いて、有効領域判定部746は、2値画像P1に対し、重心G1から矩形領域R1を上方向および右方向に拡張する(図5(c))。この場合、有効領域判定部746は、予測される2値画像P1の有効領域R2よりも小さい領域で矩形領域R1の拡張が終了する。   As shown in FIG. 6, the effective area determination unit 746 simultaneously extends the rectangular area R1 from the center of gravity G1 in the vertical and horizontal directions with respect to the binary image P1 (FIG. 6A). Thereafter, the effective area determination unit 746 further expands the rectangular area R1 from the center of gravity G1 in the vertical and horizontal directions with respect to the binary image P1 (FIG. 6B). At this time, when the rectangular area R1 reaches the blank area N1 of the binary image P1, the effective area determination unit 746 stops the downward and leftward expansion. Subsequently, the effective area determination unit 746 expands the rectangular area R1 upward and rightward from the center of gravity G1 with respect to the binary image P1 (FIG. 5C). In this case, the effective area determination unit 746 ends the expansion of the rectangular area R1 in an area smaller than the predicted effective area R2 of the binary image P1.

つぎに、有効領域判定部746が行う第2の矩形判定処理について説明する。図7は、有効領域判定部746が行う第2の矩形判定処理の横方向優先拡張の概要を模式的に説明する図である。   Next, the second rectangle determination process performed by the effective area determination unit 746 will be described. FIG. 7 is a diagram schematically illustrating an outline of the horizontal priority extension of the second rectangle determination process performed by the effective area determination unit 746.

図7に示すように、有効領域判定部746は、2値画像P1に対し、重心G1から横方向(左右方向)に画像領域の端部を探索する(図7(a))。その後、有効領域判定部746は、2値画像P1に対し、横方向の拡張結果に基づいて、重心G1から縦方向(上下方向)に画像領域の端部を探索する(図7(b))。この場合、有効領域判定部746は、上下方向の探索が画像の端部に到達したとき、この矩形領域R1を貼り合わせ画像における有効領域の最大面積として判定する。   As shown in FIG. 7, the effective area determination unit 746 searches for the end of the image area in the lateral direction (left-right direction) from the center of gravity G1 with respect to the binary image P1 (FIG. 7A). Thereafter, the effective area determination unit 746 searches the edge of the image area in the vertical direction (vertical direction) from the center of gravity G1 based on the lateral expansion result for the binary image P1 (FIG. 7B). . In this case, when the search in the vertical direction reaches the end of the image, the effective area determination unit 746 determines the rectangular area R1 as the maximum area of the effective area in the composite image.

また、有効領域判定部746は、第2の矩形判定処理の横方向優先拡張において、予測される矩形領域と異なり、小さな矩形領域R1で拡張が終了する場合がある。図8は、有効領域判定部746が実行する第2の矩形判定処理の横方向優先拡張において苦手な状況を模式的に説明する図である。   In addition, the effective area determination unit 746 may end expansion in a small rectangular area R1, unlike the predicted rectangular area, in the horizontal direction priority expansion of the second rectangular determination process. FIG. 8 is a diagram schematically illustrating a situation in which the second region determination process executed by the effective area determination unit 746 is not good at the lateral priority extension.

図8に示すように、有効領域判定部746は、2値画像P1に対し、優先的に重心G1から横方向(左右方向)に向けて矩形領域R1を拡張した場合、予測される2値画像P1の有効領域R2よりも小さい領域で矩形領域R1の拡張が終了する。   As illustrated in FIG. 8, the effective area determination unit 746 predicts a binary image when the rectangular area R1 is preferentially expanded from the center of gravity G1 in the horizontal direction (left-right direction) with respect to the binary image P1. Expansion of the rectangular area R1 ends in an area smaller than the effective area R2 of P1.

つぎに、有効領域判定部746が行う第3の矩形判定処理について説明する。図9は、有効領域判定部746が実行する第3の矩形判定処理の縦方向優先拡張の概要を模式的に説明する図である。   Next, a third rectangle determination process performed by the effective area determination unit 746 will be described. FIG. 9 is a diagram schematically illustrating an outline of the vertical priority extension of the third rectangle determination process executed by the effective area determination unit 746.

図9に示すように、有効領域判定部746は、2値画像P1に対し、重心G1から縦方向(上下方向)に画像領域の端部を探索する(図9(a))。その後、有効領域判定部746は、2値画像P1に対し、縦方向の拡張結果に基づいて、重心G1から横方向(左右方向)に画像領域の端部を探索する(図9(b))。この場合、有効領域判定部746は、左右方向の探索が画像の端部に到達したとき、この矩形領域R1を貼り合わせ画像における有効領域の最大面積として判定する。   As shown in FIG. 9, the effective area determination unit 746 searches the binary image P1 for the end of the image area in the vertical direction (vertical direction) from the center of gravity G1 (FIG. 9A). Thereafter, the effective area determination unit 746 searches the edge of the image area in the horizontal direction (left and right direction) from the center of gravity G1 with respect to the binary image P1 based on the extension result in the vertical direction (FIG. 9B). . In this case, when the search in the left-right direction reaches the end of the image, the effective area determination unit 746 determines this rectangular area R1 as the maximum area of the effective area in the composite image.

また、有効領域判定部746は、第3の矩形判定処理の縦方向優先拡張において、予測される矩形領域と異なり、小さな矩形領域R1で拡張が終了する場合がある。図10は、有効領域判定部が実行する第3の矩形判定処理の縦方向優先拡張において苦手な状況を模式的に説明する図である。   In addition, in the vertical direction priority extension of the third rectangle determination process, the effective area determination unit 746 may end the expansion in a small rectangular area R1 unlike the predicted rectangular area. FIG. 10 is a diagram schematically illustrating a situation in which the third region determination process executed by the effective region determination unit is not good at the vertical priority extension.

図10に示すように、有効領域判定部746は、2値画像P1に対し、優先的に重心G1から横方向(左右方向)に向けて拡張した場合、予測される2値画像P1の有効領域R2より小さい領域で矩形領域R1の拡張が終了する。   As shown in FIG. 10, the effective area determination unit 746 predicts the effective area of the binary image P1 when the binary image P1 is preferentially expanded from the center of gravity G1 in the horizontal direction (left-right direction). Expansion of the rectangular area R1 ends in an area smaller than R2.

つぎに、有効領域判定部746が行う第4の矩形判定処理について説明する。図11は、有効領域判定部746が実行する第4の矩形判定処理の4方向拡張+縦方向優先拡張の概要を模式的に説明する図である。   Next, a fourth rectangle determination process performed by the effective area determination unit 746 will be described. FIG. 11 is a diagram schematically illustrating an outline of 4-direction expansion + vertical direction priority expansion of the fourth rectangle determination process executed by the effective area determination unit 746.

図11に示すように、有効領域判定部746は、2値画像P1に対し、重心G1から矩形領域R1を4方向(上下左右方向)に同時に拡張する(図11(a))。その後、有効領域判定部746は、2値画像P1に対し、重心G1から矩形領域R1を縦方向に優先して拡張する(図11(b))。この場合、有効領域判定部746は、矩形領域R1が2値画像P1の空白領域N1に到達したとき、縦方向の拡張を停止し、矩形領域R1を貼り合わせ画像における有効領域の最大面積として判定する。   As shown in FIG. 11, the effective area determination unit 746 simultaneously expands the rectangular area R1 from the center of gravity G1 in four directions (up and down, left and right directions) with respect to the binary image P1 (FIG. 11A). Thereafter, the effective area determination unit 746 expands the rectangular area R1 with priority in the vertical direction from the center of gravity G1 with respect to the binary image P1 (FIG. 11B). In this case, when the rectangular area R1 reaches the blank area N1 of the binary image P1, the effective area determination unit 746 stops the vertical expansion and determines the rectangular area R1 as the maximum area of the effective area in the composite image. To do.

また、有効領域判定部746は、第4の矩形判定処理の4方向拡張+横方向優先拡張において、予測される矩形領域と異なり、小さな矩形領域R1で拡張が終了する場合がある。図12は、有効領域判定部746が実行する第4の矩形判定処理の4方向拡張+縦方向優先拡張において苦手な状況を模式的に説明する図である。   Also, the effective area determination unit 746 may end the expansion in a small rectangular area R1 unlike the predicted rectangular area in the four-direction expansion + horizontal priority expansion of the fourth rectangular determination process. FIG. 12 is a diagram schematically illustrating a situation in which it is difficult to perform the four-direction extension + vertical direction priority extension of the fourth rectangle determination process executed by the effective area determination unit 746.

図12に示すように、有効領域判定部746は、2値画像P1に対し、優先的に重心G1から縦方向(上下方向)に向けて拡張した場合、予測される2値画像P1の有効領域R2より小さい領域で矩形領域R1の拡張が終了する。   As shown in FIG. 12, the effective area determination unit 746 predicts the effective area of the binary image P1 when the binary image P1 is preferentially expanded from the center of gravity G1 in the vertical direction (vertical direction). Expansion of the rectangular area R1 ends in an area smaller than R2.

つぎに、有効領域判定部746が行う第5の矩形判定処理について説明する。図13は、有効領域判定部746が行う第5の矩形判定処理の4方向拡張+横方向優先拡張の概要を模式的に説明する図である。   Next, a fifth rectangle determination process performed by the effective area determination unit 746 will be described. FIG. 13 is a diagram schematically illustrating an outline of 4-direction expansion + lateral direction priority expansion of the fifth rectangle determination process performed by the effective area determination unit 746.

図13に示すように、有効領域判定部746は、2値画像P1に対し、重心G1から矩形領域R1を4方向(上下左右方向)に同時に拡張する(図13(a))。その後、有効領域判定部746は、2値画像P1に対し、重心G1から矩形領域R1を横方向に優先して拡張する(図13(b))。この場合、有効領域判定部746は、矩形領域R1が2値画像P1の空白領域N1に到達したとき、横方向の拡張を停止し、矩形領域R1を貼り合わせ画像における有効領域の最大面積として判定する。   As shown in FIG. 13, the effective area determination unit 746 simultaneously expands the rectangular area R1 from the center of gravity G1 in four directions (up, down, left, and right directions) with respect to the binary image P1 (FIG. 13A). Thereafter, the effective area determination unit 746 expands the rectangular area R1 with priority from the center of gravity G1 in the horizontal direction with respect to the binary image P1 (FIG. 13B). In this case, when the rectangular area R1 reaches the blank area N1 of the binary image P1, the effective area determination unit 746 stops the lateral expansion and determines the rectangular area R1 as the maximum area of the effective area in the composite image. To do.

また、有効領域判定部746は、第5の矩形判定処理の4方向拡張+横方向優先拡張において、予測される矩形領域と異なり、小さな矩形領域R1で拡張が終了する場合がある。図14は、第5の矩形判定処理の4方向拡張+横方向優先拡張において苦手な状況を模式的に説明する図である。   In addition, the effective area determination unit 746 may end the expansion in a small rectangular area R1 unlike the predicted rectangular area in the four-direction extension + horizontal priority extension of the fifth rectangle determination process. FIG. 14 is a diagram schematically illustrating a situation in which the fifth rectangle determination process is not good at the four-direction extension + lateral direction priority extension.

図14に示すように、有効領域判定部746は、2値画像P1に対し、優先的に重心G1から横方向(左右方向)に向けて拡張した場合、予測される2値画像P1の有効領域R2より小さい領域で矩形領域R1の拡張を終了する。   As illustrated in FIG. 14, the effective area determination unit 746 predicts the effective area of the binary image P1 when the binary image P1 is preferentially expanded from the center of gravity G1 in the horizontal direction (left-right direction). The expansion of the rectangular area R1 is finished in an area smaller than R2.

このように、有効領域判定部746は、上述した5パターンの矩形拡張判定処理を順次行うことによって、各矩形拡張判定処理における貼り合わせ画像の有効領域の面積を判定する。   Thus, the effective area determination unit 746 determines the area of the effective area of the combined image in each rectangular expansion determination process by sequentially performing the above-described five patterns of rectangular expansion determination processes.

図4に戻り、ステップS118以降の説明を続ける。ステップS118において、有効領域判定部746は、5パターンの矩形拡張判定処理で判定した判定結果に基づいて、貼り合わせ画像の有効領域が最大面積となるものを判定する。たとえば、有効領域判定部746は、第1の矩形拡張判定処理で判定した2値画像P1の矩形領域R1を貼り合わせ画像の有効領域が最大面積となるものとして判定する。   Returning to FIG. 4, the description of step S118 and subsequent steps will be continued. In step S118, the effective area determination unit 746 determines that the effective area of the composite image has the maximum area based on the determination result determined in the five-pattern rectangular expansion determination process. For example, the effective area determination unit 746 determines that the rectangular area R1 of the binary image P1 determined in the first rectangular expansion determination process is that the effective area of the composite image has the maximum area.

続いて、画像整形部747は、有効領域判定部746の判定結果に基づいて、貼り合わせ画像から有効領域が最大面積となる領域を切出して矩形状をなす整形画像データを生成する(ステップS119)。   Subsequently, based on the determination result of the effective area determination unit 746, the image shaping unit 747 generates a shaped image data having a rectangular shape by cutting out the area having the maximum effective area from the combined image (step S119). .

その後、表示制御部749は、画像整形部747が生成した整形画像データに対応する整形画像を表示部62に表示させる。   Thereafter, the display control unit 749 causes the display unit 62 to display a shaped image corresponding to the shaped image data generated by the image shaping unit 747.

続いて、駆動制御部748は、画像整形部747が生成した整形画像データを画像データ記憶部731に記憶する(ステップS121)。その後、顕微鏡システム1は、本処理を終了する。   Subsequently, the drive control unit 748 stores the shaped image data generated by the image shaping unit 747 in the image data storage unit 731 (step S121). Thereafter, the microscope system 1 ends this process.

ステップS122において、表示制御部749は、有効領域判定部746が貼り合わせ画像の有効領域を判定することができなかった旨の警告を表示部62に表示させる。ステップS122の後、顕微鏡システム1は、本処理を終了する。   In step S122, the display control unit 749 causes the display unit 62 to display a warning that the effective region determination unit 746 has not been able to determine the effective region of the composite image. After step S122, the microscope system 1 ends this process.

以上説明した本発明の実施の形態1によれば、有効領域判定部746が貼り合わせ画像内において画像データが含まれる有効領域を判定し、画像整形部747が有効領域判定部746の判定結果に応じて、貼り合わせ画像から有効領域を切出して貼り合わせ画像の形状を整形する。この結果、ユーザが貼り合わせ画像を用いて標本試料Sを計測する際に計測しやすく、精度の高い計測を行うことができる。   According to the first embodiment of the present invention described above, the effective area determination unit 746 determines an effective area including image data in the composite image, and the image shaping unit 747 determines the determination result of the effective area determination unit 746. In response, the effective area is cut out from the combined image to shape the shape of the combined image. As a result, it is easy for the user to measure the specimen S using the bonded image, and highly accurate measurement can be performed.

また、本発明の実施の形態1によれば、有効領域判定部746が貼り合わせ画像内において矩形状をなす有効領域を判定し、画像整形部747が有効領域判定部746によって判定された矩形状をなす有効領域を切出して貼り合わせ画像を矩形状に整形する。この結果、ユーザがレポート等に貼り合わせ画像を出力した場合、有効領域のみ写る貼り合わせ画像になるので、美観に優れたものになる。   Further, according to the first embodiment of the present invention, the effective area determination unit 746 determines an effective area having a rectangular shape in the combined image, and the image shaping unit 747 determines the rectangular shape determined by the effective area determination unit 746. Cut out the effective area to shape the combined image into a rectangular shape. As a result, when the user outputs a combined image in a report or the like, the combined image that shows only the effective area is obtained, so that the appearance is excellent.

さらに、本発明の実施の形態1によれば、有効領域判定部746が矩形状をなす複数のパターンそれぞれを用いて貼り合わせ画像内において有効領域が最大になる最大領域を判定し、画像整形部747が貼り合わせ画像内において有効領域が最大になる最大領域を貼り合わせ画像から切出して貼り合わせ画像を整形する。これにより、貼り合わせ画像における有効領域を最大限に使用することができる。   Furthermore, according to Embodiment 1 of the present invention, the effective area determination unit 746 determines the maximum area where the effective area is maximized in the composite image using each of a plurality of rectangular patterns, and the image shaping unit In step 747, the maximum area in which the effective area is maximized in the composite image is cut out from the composite image, and the composite image is shaped. Thereby, the effective area in the combined image can be used to the maximum extent.

さらにまた、本発明の実施の形態1によれば、表示制御部749が画像整形部747によって整形された貼り合わせ画像データに対応する貼り合わせ画像(整形画像)を表示部62に表示させる。この結果、ユーザは、整形された貼り合わせ画像を直感的に把握することができる。   Furthermore, according to Embodiment 1 of the present invention, the display control unit 749 causes the display unit 62 to display a combined image (shaped image) corresponding to the combined image data shaped by the image shaping unit 747. As a result, the user can intuitively grasp the shaped combined image.

(実施の形態2)
つぎに、本発明の実施の形態2について説明する、本発明の実施の形態2は、上述した実施の形態1にかかる顕微鏡システム1による動作のみ異なり、顕微鏡システムの構成は上述した実施の形態1にかかる顕微鏡システムと同様の構成を有する。このため、以下においては、本発明の実施の形態2にかかる顕微鏡システムによる動作のみ説明する。
(Embodiment 2)
Next, the second embodiment of the present invention will be described. The second embodiment of the present invention differs only in the operation of the microscope system 1 according to the first embodiment described above, and the configuration of the microscope system is the first embodiment described above. It has the same configuration as the microscope system according to the above. For this reason, only the operation of the microscope system according to the second embodiment of the present invention will be described below.

図15は、本実施の形態2にかかる顕微鏡システム1が行う処理の概要を示すフローチャートである。   FIG. 15 is a flowchart illustrating an outline of processing performed by the microscope system 1 according to the second embodiment.

図15に示すように、ステップS201〜ステップS214は、図4のステップS101〜ステップS114にそれぞれ対応する。   As shown in FIG. 15, steps S201 to S214 correspond to steps S101 to S114 in FIG. 4, respectively.

ステップS215において、有効領域判定部746は、2値画像を縮小する。具体的には、有効領域判定部746は、画像領域と空白領域との境界が曖昧にならないように、2値画像の画素を間引くことにより、2値画像を縮小する。たとえば、有効領域判定部746は、2値化画像の画像サイズに関わらず、所定の回数間引くことによって縮小を行う。これにより、どのような画像サイズであっても、同じ誤差(pixel)を生じさせることができる。また、有効領域判定部746は、2値画像の短辺を所定の基準サイズになるまで間引くことにより、2値画像を縮小するようにしてもよい。この場合、サイズが大きい画像ほど誤差が小さくなる。   In step S215, the effective area determination unit 746 reduces the binary image. Specifically, the effective area determination unit 746 reduces the binary image by thinning out the pixels of the binary image so that the boundary between the image area and the blank area does not become ambiguous. For example, the effective area determination unit 746 performs reduction by thinning a predetermined number of times regardless of the image size of the binarized image. As a result, the same error (pixel) can be generated regardless of the image size. Further, the effective area determination unit 746 may reduce the binary image by thinning out the short side of the binary image until a predetermined reference size is reached. In this case, the larger the image, the smaller the error.

ステップS216〜ステップS219は、図4のステップS115〜ステップS118にそれぞれ対応する。   Steps S216 to S219 correspond to steps S115 to S118 in FIG. 4, respectively.

ステップS220において、有効領域判定部746は、縮小率分の座標を復元する。具体的には、矩形領域R1は、縮小サイズでの座標のため、縮小率分座標を復元する。たとえば、有効領域判定部746は、縮小した2値画像P1を、縮小倍率に応じて復元することにより、矩形領域R1を縮小前の大きさに復元する。   In step S220, the effective area determination unit 746 restores coordinates corresponding to the reduction ratio. Specifically, since the rectangular area R1 is a coordinate at a reduced size, the coordinates for the reduction ratio are restored. For example, the effective area determination unit 746 restores the rectangular area R1 to the size before reduction by restoring the reduced binary image P1 according to the reduction magnification.

続いて、有効領域判定部746は、1倍サイズの2値画像に対し、拡張判定処理を行う(ステップS221)。具体的には、有効領域判定部746は、矩形領域R1内に含まれる空白領域N1の画素に応じて拡張判定処理を行う。たとえば、有効領域判定部746は、2値画像の画像サイズを10000×10000から5000×5000に縮小した場合において、縮小した矩形領域R1を縮小前の画像サイズに復元したとき、矩形領域R1における最大誤差が2画素になるため、この2画素分だけ矩形拡張判定処理を行えばよい。また、図16に示すように、有効領域判定部746は、誤差を含む2値画像P11の矩形領域R10に対して、誤差がない矩形領域R11の場合、矩形拡張判定処理を行わなくてもよい。   Subsequently, the effective area determination unit 746 performs an expansion determination process on the 1-size binary image (step S221). Specifically, the effective area determination unit 746 performs an expansion determination process according to the pixels of the blank area N1 included in the rectangular area R1. For example, in the case where the image size of the binary image is reduced from 10000 × 10000 to 5000 × 5000, the effective area determination unit 746 restores the reduced rectangular area R1 to the image size before the reduction, and the maximum in the rectangular area R1. Since the error is two pixels, the rectangular extension determination process may be performed for the two pixels. As shown in FIG. 16, the effective area determination unit 746 may not perform the rectangular extension determination process when the rectangular area R11 has no error with respect to the rectangular area R10 of the binary image P11 including the error. .

ステップS222〜ステップS225は、図4のステップS119〜ステップS122にそれぞれ対応する。   Steps S222 to S225 correspond to steps S119 to S122 of FIG. 4, respectively.

以上説明した本発明の実施の形態2によれば、有効領域判定部746が貼り合わせ画像を縮小した縮小画像に対し、貼り合わせ画像内において画像データが含まれる有効領域を判定するので、上述した実施の形態に比して高速に有効領域を判定することができる。この結果、画像整形部747が貼り合わせ画像の形状を整形してから貼り合わせ画像を表示部62に表示されるまでの時間を瞬時に行うことができる。   According to the second embodiment of the present invention described above, the effective area determination unit 746 determines the effective area including the image data in the composite image for the reduced image obtained by reducing the composite image. The effective area can be determined at a higher speed than in the embodiment. As a result, the time from when the image shaping unit 747 shapes the shape of the combined image to when the combined image is displayed on the display unit 62 can be instantaneously performed.

また、上述した実施の形態1,2では、有効領域判定部746が貼り合わせ画像の2値画像に対し、有効領域が最大面積となるように矩形領域を判定していたが、たとえば、貼り合わせ画像内の無効領域に対して画像データを補完してもよい。この場合、有効領域判定部746は、貼り合わせ画像に対し、無効領域の位置を判定し、駆動制御部748は、有効領域判定部746の判定結果に応じて、ステージ21を無効領域に対応する撮像装置4の観察領域に移動させて撮像装置4に撮影させることにより、貼り合わせ画像の無効領域の画像データを補完するようにしてもよい。また、貼り合わせ画像生成部745は、無効領域の周辺画像から無効領域を補完するようにしてもよい。   In the first and second embodiments described above, the effective area determination unit 746 determines the rectangular area so that the effective area is the maximum area for the binary image of the combined image. Image data may be supplemented for invalid areas in the image. In this case, the effective area determination unit 746 determines the position of the invalid area with respect to the composite image, and the drive control unit 748 corresponds the stage 21 to the invalid area according to the determination result of the effective area determination unit 746. The image data in the invalid area of the composite image may be complemented by moving to the observation area of the imaging apparatus 4 and causing the imaging apparatus 4 to capture the image. Further, the combined image generation unit 745 may complement the invalid area from the peripheral image of the invalid area.

また、上述した実施の形態1,2では、有効領域判定部746が貼り合わせ画像の2値画像に対し、有効領域が最大面積となるように矩形領域を判定していたが、たとえば、貼り合わせ画像内の無効領域に対して画像データを補完してもよい。この場合、有効領域判定部746は、貼り合わせ画像に対し、無効領域の位置を判定し、駆動制御部748は、有効領域判定部746の判定結果に応じて、レボルバ駆動部222を駆動することによって低倍対物レンズ231に切替えて標本試料Sの全体を撮像装置4に撮影させて標本試料S全体の画像データを生成させ、この画像データを用いて画像整形部747に無効領域に画像データを補完させてもよい。   In the first and second embodiments described above, the effective area determination unit 746 determines the rectangular area so that the effective area is the maximum area for the binary image of the combined image. Image data may be supplemented for invalid areas in the image. In this case, the effective area determination unit 746 determines the position of the invalid area with respect to the composite image, and the drive control unit 748 drives the revolver driving unit 222 according to the determination result of the effective area determination unit 746. By switching to the low magnification objective lens 231, the entire specimen sample S is photographed by the imaging device 4 to generate image data of the entire specimen sample S, and the image shaping unit 747 uses the image data to generate image data in the invalid area. It may be supplemented.

なお、上述した実施の形態1,2では、顕微鏡装置、撮像装置、表示入力部および制御端末を備えた顕微鏡システムを例に説明したが、たとえば標本試料を拡大する対物レンズ、対物レンズを介して標本試料を撮像する撮像機能、および画像を表示する表示機能を備えた撮像装置、たとえばビデオマイクロスコープ等であっても、本発明を適用することができる。   In the first and second embodiments described above, a microscope system including a microscope apparatus, an imaging apparatus, a display input unit, and a control terminal has been described as an example. For example, via an objective lens and an objective lens for enlarging a specimen sample The present invention can also be applied to an imaging apparatus having an imaging function for imaging a specimen and a display function for displaying an image, such as a video microscope.

また、上述した実施の形態1,2では、顕微鏡装置として正立型顕微鏡装置を例に説明したが、たとえば倒立型顕微鏡装置であっても本発明を適用することができる。さらに、顕微鏡装置を組み込んだライン装置といった各種システムにも、本発明を適用することができる。   In the first and second embodiments described above, the upright microscope apparatus has been described as an example of the microscope apparatus. However, the present invention can be applied to an inverted microscope apparatus, for example. Furthermore, the present invention can be applied to various systems such as a line apparatus incorporating a microscope apparatus.

また、上述した実施の形態1,2では、入力部を介して顕微鏡システムの各種設定を行っていたが、タッチパネルを介して顕微鏡システムの各種設定を行ってもよい。   In the first and second embodiments described above, various settings of the microscope system are performed via the input unit. However, various settings of the microscope system may be performed via the touch panel.

また、上述した実施の形態1,2では、ステージとして電動ステージを例に説明したが、たとえば手動で移動させるマニュアルステージであっても、本発明を適用することができる。   Moreover, although Embodiment 1 and 2 mentioned above demonstrated the electric stage as an example as a stage, even if it is a manual stage moved manually, for example, this invention is applicable.

また、上述した実施の形態1,2では、表示入力部と制御端末とが別々に構成されていたが、たとえば表示入力部と制御端末とが一体的に形成された携帯型端末であってもよい。   In the first and second embodiments described above, the display input unit and the control terminal are separately configured. However, for example, even a portable terminal in which the display input unit and the control terminal are integrally formed. Good.

また、上述した実施の形態1,2では、ステージ21をモータ212によってZ方向に移動自在としたが、対物レンズ23又は、対物レンズ23を含む観察光学系全体をZ方向に移動自在としてもよい。   In the first and second embodiments, the stage 21 is movable in the Z direction by the motor 212. However, the objective lens 23 or the entire observation optical system including the objective lens 23 may be movable in the Z direction. .

1 顕微鏡システム
2 顕微鏡装置
3 顕微鏡制御部
4 撮像装置
5 撮像制御部
6 表示入力部
7 制御端末
21 ステージ
22 レボルバ
23 対物レンズ
24 顕微鏡本体部
25 落射照明用光源
41 撮像素子
51 AE処理部
52 AF処理部
61 表示通信部
62 表示部
63 タッチパネル
71 制御通信部
72 入力部
73 記憶部
74 制御部
211 ステージ駆動部
212 モータ
221 マウンタ
222 レボルバ駆動部
241 照明レンズ
242 ハーフミラー
243 ズームレンズ部
243a ズーム光学系
243b ズーム駆動部
244 結像レンズ
731 画像データ記憶部
732 貼り合わせ画像データ記憶部
741 ライブ画像生成部
742 移動量算出部
743 移動量判定部
744 撮影画像生成部
745 貼り合わせ画像生成部
746 有効領域判定部
747 画像整形部
748 駆動制御部
749 表示制御部
DESCRIPTION OF SYMBOLS 1 Microscope system 2 Microscope apparatus 3 Microscope control part 4 Imaging apparatus 5 Imaging control part 6 Display input part 7 Control terminal 21 Stage 22 Revolver 23 Objective lens 24 Microscope main body 25 Light source for epi-illumination 41 Image pick-up element 51 AE process part 52 AF process Unit 61 Display communication unit 62 Display unit 63 Touch panel 71 Control communication unit 72 Input unit 73 Storage unit 74 Control unit 211 Stage drive unit 212 Motor 221 Mounter 222 Revolver drive unit 241 Illumination lens 242 Half mirror 243 Zoom lens unit 243a Zoom optical system 243b Zoom drive unit 244 Imaging lens 731 Image data storage unit 732 Bonded image data storage unit 741 Live image generation unit 742 Movement amount calculation unit 743 Movement amount determination unit 744 Captured image generation unit 745 Bonded image generation 746 effective region judging section 747 image shaping section 748 the drive control unit 749 display control unit

Claims (5)

ステージに載置された標本試料を撮像して該標本試料の画像データに対応する画像を複数貼り合わせた貼り合わせ画像を生成可能な顕微鏡システムにおいて、
前記貼り合わせ画像内において画素データが含まれる矩形状の有効領域が最大になる最大領域を判定する有効領域判定部と、
前記有効領域判定部の判定結果に応じて、前記貼り合わせ画像から前記最大領域を切出して該貼り合わせ画像の形状を整形する画像整形部と、
を備えたことを特徴とする顕微鏡システム。
In a microscope system capable of generating a bonded image in which a plurality of images corresponding to image data of the sample sample are bonded together by imaging the sample sample placed on the stage,
An effective area determination unit that determines a maximum area in which a rectangular effective area including pixel data is maximized in the combined image;
According to the determination result of the effective area determination unit, an image shaping unit that cuts out the maximum region from the combined image and shapes the shape of the combined image;
A microscope system comprising:
前記有効領域判定部は、前記貼り合わせ画像を縮小した縮小画像に対し、前記有効領域を判定することを特徴とする請求項1に記載の顕微鏡システム。   The microscope system according to claim 1, wherein the effective area determination unit determines the effective area for a reduced image obtained by reducing the combined image. 前記有効領域判定部は、矩形状をなす複数のパターンを用いて前記貼り合わせ画像内において前記有効領域が最大になる最大領域を判定することを特徴とする請求項1または2に記載の顕微鏡システム。 The effective area determination unit, according to the maximum area in which the effective area is maximized within the bonded image with a plurality of patterns having a rectangular shape in claim 1 or 2, characterized in determine Teisu Rukoto Microscope system. 前記有効領域判定部は、前記貼り合わせ画像に対し、2値化処理を行うことによって前記画素データが含まれる前記有効領域を判定することを特徴とする請求項1〜3のいずれか一つに記載の顕微鏡システム。   The effective area determination unit determines the effective area including the pixel data by performing a binarization process on the composite image. The described microscope system. 前記ステージ上に載置された前記標本試料の撮像は、前記ステージを手動で移動させて行うことを特徴とする請求項1〜4のいずれか一つに記載の顕微鏡システム。The microscope system according to any one of claims 1 to 4, wherein the specimen sample placed on the stage is imaged by manually moving the stage.
JP2011211394A 2011-09-27 2011-09-27 Microscope system Active JP5881356B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011211394A JP5881356B2 (en) 2011-09-27 2011-09-27 Microscope system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011211394A JP5881356B2 (en) 2011-09-27 2011-09-27 Microscope system

Publications (2)

Publication Number Publication Date
JP2013072968A JP2013072968A (en) 2013-04-22
JP5881356B2 true JP5881356B2 (en) 2016-03-09

Family

ID=48477532

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011211394A Active JP5881356B2 (en) 2011-09-27 2011-09-27 Microscope system

Country Status (1)

Country Link
JP (1) JP5881356B2 (en)

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05153492A (en) * 1991-11-29 1993-06-18 Toppan Printing Co Ltd Picture processing unit
JP3018733B2 (en) * 1992-05-13 2000-03-13 株式会社ニコン Still image transmission device
JP3353968B2 (en) * 1992-09-25 2002-12-09 オリンパス光学工業株式会社 Image processing device
JPH0830725A (en) * 1994-07-20 1996-02-02 Canon Inc Device and method for processing image
EP0692767B1 (en) * 1994-07-13 2003-10-08 Canon Kabushiki Kaisha Image processing apparatus and method
JPH09130574A (en) * 1995-11-02 1997-05-16 Dainippon Screen Mfg Co Ltd Digital camera
JP2000149026A (en) * 1998-11-16 2000-05-30 Dainippon Printing Co Ltd Image trimming device
JP2000358194A (en) * 1999-06-16 2000-12-26 Nec Corp Image compositing device and method and storage medium storing program
JP2004046632A (en) * 2002-07-12 2004-02-12 Minolta Co Ltd Image processor
JP2004101871A (en) * 2002-09-10 2004-04-02 Olympus Corp Photographing apparatus for microscope image
JP2004343222A (en) * 2003-05-13 2004-12-02 Olympus Corp Image processing apparatus
JP2006121298A (en) * 2004-10-20 2006-05-11 Canon Inc Method and device for trimming
JP2006292999A (en) * 2005-04-11 2006-10-26 Direct Communications:Kk Slide image data generation device and slide image data
JP4890096B2 (en) * 2006-05-19 2012-03-07 浜松ホトニクス株式会社 Image acquisition apparatus, image acquisition method, and image acquisition program
JP4558047B2 (en) * 2008-01-23 2010-10-06 オリンパス株式会社 Microscope system, image generation method, and program
JP2011002341A (en) * 2009-06-18 2011-01-06 Olympus Corp Microscopic system, specimen observation method, and program

Also Published As

Publication number Publication date
JP2013072968A (en) 2013-04-22

Similar Documents

Publication Publication Date Title
US8922639B2 (en) Microscope system
JP5178553B2 (en) Imaging device
JP5875812B2 (en) Microscope system and illumination intensity adjustment method
US20090153720A1 (en) Image pickup apparatus and display control method for the same
JP5875813B2 (en) Microscope system
JP2008099874A (en) Endoscope processor and endoscope system
JP2010141699A (en) Imaging apparatus
JP2014081420A (en) Tracking device and method thereof
JP2009199049A (en) Imaging apparatus and imaging apparatus control method, and computer program
JP5893314B2 (en) Display device and microscope system
JP2019117395A (en) Imaging device
US11024049B2 (en) Image measurement apparatus
US11423528B2 (en) Image inspection apparatus
JP5860649B2 (en) Microscope system
JP2006145793A (en) Microscopic image pickup system
JP5881356B2 (en) Microscope system
JP2017126078A (en) microscope
JP6238574B2 (en) Observation device
JP5893315B2 (en) Microscope system
JP6346484B2 (en) Image processing apparatus and control method thereof
JP2011259503A (en) Imaging apparatus
JP6834988B2 (en) Control device
JP6150504B2 (en) Imaging system
JP2013072995A (en) Microscope system
JP6013100B2 (en) Imaging apparatus and microscope system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140909

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150618

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150630

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150804

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160119

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160202

R151 Written notification of patent or utility model registration

Ref document number: 5881356

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250