JP6238574B2 - Observation device - Google Patents

Observation device Download PDF

Info

Publication number
JP6238574B2
JP6238574B2 JP2013112022A JP2013112022A JP6238574B2 JP 6238574 B2 JP6238574 B2 JP 6238574B2 JP 2013112022 A JP2013112022 A JP 2013112022A JP 2013112022 A JP2013112022 A JP 2013112022A JP 6238574 B2 JP6238574 B2 JP 6238574B2
Authority
JP
Japan
Prior art keywords
image
unit
specimen
control unit
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013112022A
Other languages
Japanese (ja)
Other versions
JP2014232166A (en
Inventor
英明 遠藤
英明 遠藤
太郎 城戸
太郎 城戸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2013112022A priority Critical patent/JP6238574B2/en
Publication of JP2014232166A publication Critical patent/JP2014232166A/en
Application granted granted Critical
Publication of JP6238574B2 publication Critical patent/JP6238574B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Microscoopes, Condenser (AREA)

Description

本発明は、例えば、複数の異なる位置において画像を撮影する観察装置に関するものである。   The present invention relates to an observation apparatus that captures images at a plurality of different positions, for example.

従来、複数の異なる位置において標本の静止画像を撮影し、当該複数の位置において撮影された静止画像を用いて、全体にピントのあった拡張焦点画像(全焦点画像)や3D画像(表面形状データ)を生成する技術が知られている(例えば、特許文献1参照)。   Conventionally, a still image of a specimen is photographed at a plurality of different positions, and using the still images photographed at the plurality of positions, an extended focus image (omnifocal image) or a 3D image (surface shape data) that is entirely focused ) Is known (see, for example, Patent Document 1).

特許文献1記載の技術では、複数の異なる位置で撮影した全ての静止画像間で画素値を比較し、ピントのあった位置の画素値を抽出し、画像を合成することにより拡張焦点画像を生成している。   In the technique described in Patent Document 1, pixel values are compared among all still images taken at a plurality of different positions, pixel values at a focused position are extracted, and an extended focus image is generated by combining the images. doing.

また、上記複数の異なる位置で撮影した全ての静止画像間で画素値を比較し、ピントのあった位置の高低差情報に基づき3D画像を合成している。   Further, pixel values are compared between all the still images taken at the plurality of different positions, and a 3D image is synthesized based on the height difference information at the focused position.

特開2010−139890号公報JP 2010-139890 A

従来の技術では、複数の異なる位置で撮影した全ての静止画像間で最大の画素値(隣接画素間の輝度情報に基づくコントラスト値等)を持つ画像範囲を抽出して、その全てを常に拡張焦点画像や3D画像の合成のために用いている。したがって、ユーザが拡張焦点画像や3D画像に含まれることを望まない画像や、不要な高さ範囲の画像等の不要なテクスチャが合成後の拡張焦点画像や3D画像に含まれることがある。   In the conventional technique, an image range having the maximum pixel value (contrast value based on luminance information between adjacent pixels) is extracted between all still images taken at a plurality of different positions, and all of them are always expanded. It is used to synthesize images and 3D images. Therefore, an unnecessary texture such as an image that the user does not want to be included in the extended focus image or 3D image or an unnecessary height range image may be included in the combined extended focus image or 3D image.

本発明は、上記に鑑みてなされたものであり、不要なテクスチャを削除した拡張焦点画像や3D画像を容易に得ることができる観察装置を提供することを目的とする。   The present invention has been made in view of the above, and an object of the present invention is to provide an observation apparatus that can easily obtain an extended focus image or a 3D image from which unnecessary textures are deleted.

上述した課題を解決し、目的を達成するために、本発明にかかる観察装置は、標本を載置するステージと、前記標本からの観察光を集光する対物レンズと、前記ステージと前記対物レンズとの距離を調整可能なフォーカス制御手段と、前記標本を撮影して標本画像を取得する撮影手段と、前記フォーカス制御手段に前記ステージと前記対物レンズとの距離を調整させるとともに、前記距離が異なる複数の位置で前記撮影手段に複数の前記標本画像を撮影させる制御手段と、前記複数の位置における、合成画像の生成に用いる前記標本画像の選択範囲を設定する選択範囲設定手段と、前記複数の前記標本画像の中から、前記選択範囲設定手段が設定した前記選択範囲内の前記標本画像を選択する選択手段と、記選択手段により選択された数の前記標本画像を用いて第1の合成画像を生成する合成画像生成手段と、前記第1の合成画像と、前記選択範囲における各標本画像の特性値とを同時に表示可能な表示手段と、を備えることを特徴とする。 In order to solve the above-described problems and achieve the object, an observation apparatus according to the present invention includes a stage on which a specimen is placed, an objective lens that collects observation light from the specimen, the stage, and the objective lens A focus control unit capable of adjusting the distance between the stage, an imaging unit that captures the specimen and obtains a specimen image, and allows the focus control unit to adjust the distance between the stage and the objective lens, and the distances are different. A control unit that causes the imaging unit to capture a plurality of the specimen images at a plurality of positions; a selection range setting unit that sets a selection range of the specimen image used for generating a composite image at the plurality of positions; from among the sample images, several selected by the selecting means and, before Symbol selection means for selecting the sample image within the selection that the selection range setting means has set Comprising a composite image generating means for generating a first synthesized image using the specimen image, and the first synthesized image, and a display unit capable of displaying simultaneously the characteristic value of each sample image in the selection It is characterized by that.

本発明にかかる観察装置は、上記発明において、前記合成画像生成手段は、前記第1の合成画像と、前記複数の位置における各標本画像の全てを用いて生成した第の合成画像と生成することを特徴とする。 Observation apparatus according to the present invention, in the invention, the composite image generation means generates a first composite image, and a second synthesized image generated using all of the specimen image in the plurality of locations It is characterized by doing.

本発明にかかる観察装置は、上記発明において、前記表示手段は、前記第1の合成画像及び前記第2の合成画像を表示するとを特徴とする。 Observation apparatus according to the present invention, in the above invention, the display means, characterized that you to display the first composite image and the second composite image.

本発明にかかる観察装置は、上記発明において、前記標本画像の特性値の閾値を設定する閾値設定手段をさらに備え、前記合成画像生成手段は、前記選択手段により選択された画像の中から前記閾値設定手段により設定された閾値に応じて、対応する領域を除外して前記第1の合成画像を生成することを特徴とする。 The observation apparatus according to the present invention further includes threshold setting means for setting a threshold value of the characteristic value of the sample image in the above invention, wherein the composite image generating means is configured to select the threshold from the images selected by the selection means. According to the threshold set by the setting unit, the first synthesized image is generated by excluding a corresponding region .

本発明にかかる観察装置は、上記発明において、前記除外された前記対応する領域を所定色またはテクスチャで補完することを特徴とする。 Observation apparatus according to the present invention, in the above-mentioned invention is characterized in that to complement the excluded the corresponds to regions with a predetermined color or texture.

本発明によれば、不要なテクスチャを削除した拡張焦点画像や3D画像を容易に得ることができる観察装置を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the observation apparatus which can obtain the extended focus image and 3D image which deleted the unnecessary texture can be provided easily.

図1は、本実施の形態1にかかる顕微鏡システムの構成の一例を示す概念図である。FIG. 1 is a conceptual diagram illustrating an example of the configuration of the microscope system according to the first embodiment. 図2は、本実施の形態1にかかる顕微鏡システムの機能構成を示すブロック図である。FIG. 2 is a block diagram of a functional configuration of the microscope system according to the first embodiment. 図3Aは、拡張焦点画像の合成を説明するための概念図である。FIG. 3A is a conceptual diagram for explaining synthesis of an extended focus image. 図3Bは、拡張焦点画像の合成の一例を示す平面図である。FIG. 3B is a plan view illustrating an example of synthesis of an extended focus image. 図3Cは、拡張焦点画像の合成を説明するための概念図である。FIG. 3C is a conceptual diagram for explaining synthesis of an extended focus image. 図4Aは、本発明の実施の形態1にかかる顕微鏡システムの表示入力部が表示するプレビューウインドウの一例を表す平面図である。FIG. 4A is a plan view illustrating an example of a preview window displayed by the display input unit of the microscope system according to the first embodiment of the present invention. 図4Bは、本発明の実施の形態1にかかる顕微鏡システムの表示入力部が表示するプレビューウインドウの一例を表す平面図である。FIG. 4B is a plan view illustrating an example of a preview window displayed by the display input unit of the microscope system according to the first embodiment of the present invention. 図5は、本発明の実施の形態1にかかる制御部が実行する画像合成処理を表すフローチャートである。FIG. 5 is a flowchart showing image composition processing executed by the control unit according to the first embodiment of the present invention. 図6は、本発明の実施の形態2にかかる顕微鏡システムの表示入力部が表示するプレビューウインドウの一例を表す平面図である。FIG. 6 is a plan view illustrating an example of a preview window displayed by the display input unit of the microscope system according to the second embodiment of the present invention. 図7は、本発明の実施の形態2にかかる制御部が実行する画像合成処理を表すフローチャートである。FIG. 7 is a flowchart showing image composition processing executed by the control unit according to the second embodiment of the present invention.

以下、本発明を実施するための形態を図面と共に詳細に説明する。なお、以下の実施の形態により本発明が限定されるものではない。また、以下の説明において参照する各図は、本発明の内容を理解し得る程度に形状、大きさ、および位置関係を概略的に示してあるに過ぎない。すなわち、本発明は各図で例示された形状、大きさ、および位置関係のみに限定されるものではない。   DESCRIPTION OF EMBODIMENTS Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the drawings. In addition, this invention is not limited by the following embodiment. The drawings referred to in the following description only schematically show the shape, size, and positional relationship so that the contents of the present invention can be understood. That is, the present invention is not limited only to the shape, size, and positional relationship illustrated in each drawing.

(実施の形態1)
図1は、本発明の実施の形態1にかかる顕微鏡システムの構成の一例を示す概念図である。図2は、本実施の形態1にかかる顕微鏡システムの機能構成を示すブロック図である。なお、図1および図2において、顕微鏡システム1が載置される平面をxy平面とし、xy平面と垂直な方向をz方向として説明する。
(Embodiment 1)
FIG. 1 is a conceptual diagram showing an example of the configuration of the microscope system according to the first embodiment of the present invention. FIG. 2 is a block diagram of a functional configuration of the microscope system according to the first embodiment. 1 and 2, the plane on which the microscope system 1 is placed will be referred to as an xy plane, and a direction perpendicular to the xy plane will be described as a z direction.

図1および図2に示すように、顕微鏡システム(観察装置)1は、標本Sを観察する顕微鏡装置2と、顕微鏡装置2を駆動制御する顕微鏡制御部3と、顕微鏡装置2を介して標本Sを撮像して画像データを生成する撮像装置4と、撮像装置4の駆動を制御する撮像制御部5と、撮像装置4が撮像した画像データに対応する画像を表示するとともに、顕微鏡システム1の各種の操作の入力を受け付ける表示入力部6と、顕微鏡制御部3、撮像装置4、撮像制御部5および表示入力部6を制御する制御端末7と、を備える。顕微鏡装置2、顕微鏡制御部3、撮像装置4、撮像制御部5、表示入力部6および制御端末7は、データが送受信可能に有線または無線で接続されている。   As shown in FIGS. 1 and 2, the microscope system (observation apparatus) 1 includes a microscope apparatus 2 that observes the specimen S, a microscope control unit 3 that drives and controls the microscope apparatus 2, and the specimen S via the microscope apparatus 2. The image pickup device 4 that picks up the image and generates image data, the image pickup control unit 5 that controls the drive of the image pickup device 4, the image corresponding to the image data picked up by the image pickup device 4, and various types of the microscope system 1 And a control terminal 7 that controls the microscope control unit 3, the imaging device 4, the imaging control unit 5, and the display input unit 6. The microscope device 2, the microscope control unit 3, the imaging device 4, the imaging control unit 5, the display input unit 6, and the control terminal 7 are connected by wire or wireless so that data can be transmitted and received.

顕微鏡装置2は、標本Sを保持する顕微鏡基部2a(ステージ側本体部)と、顕微鏡基部2aに保持されるヘッド部2bと、を備える。顕微鏡基部2aは、標本Sが載置されるステージ21を支持する支持部22を有する。ヘッド部2bは、ノーズピース23を介して対物レンズ24を保持するとともに、z方向に移動可能なヘッド本体部25と、標本Sを照明する照明光を射出する落射照明用光源26と、を有する。また、顕微鏡装置2は、顕微鏡基部2aおよびヘッド部2bを連結し、ヘッド部2bをz方向に移動させるZ駆動部27を有する。   The microscope apparatus 2 includes a microscope base 2a (stage-side main body) that holds the specimen S, and a head 2b that is held by the microscope base 2a. The microscope base 2a has a support portion 22 that supports the stage 21 on which the specimen S is placed. The head unit 2b holds the objective lens 24 via the nosepiece 23, and has a head main body unit 25 that can move in the z direction, and an epi-illumination light source 26 that emits illumination light that illuminates the specimen S. . In addition, the microscope apparatus 2 includes a Z drive unit 27 that connects the microscope base 2a and the head unit 2b and moves the head unit 2b in the z direction.

ステージ21は、xy方向に移動自在に構成されている。ステージ21は、モータ211によってxy平面内で移動自在である。ステージ21は、顕微鏡制御部3の制御のもと、図示しないxy位置の原点センサによってxy平面における所定の原点位置を検出し、この原点位置を基点としてモータ211の駆動量が制御されることによって、標本S上の観察箇所を移動する。ステージ21は、観察時のx位置およびy位置に関する位置信号(xy座標)を顕微鏡制御部3に出力する。   The stage 21 is configured to be movable in the xy direction. The stage 21 is movable in the xy plane by a motor 211. Under the control of the microscope control unit 3, the stage 21 detects a predetermined origin position on the xy plane by an origin sensor at an xy position (not shown), and the drive amount of the motor 211 is controlled based on this origin position. The observation location on the specimen S is moved. The stage 21 outputs position signals (xy coordinates) regarding the x position and the y position at the time of observation to the microscope control unit 3.

ノーズピース23は、ヘッド本体部25に対してスライド自在に設けられたスライダ231を介して、所望の対物レンズ24を標本Sの上方に配置する。ノーズピース23は、スライダ231によって倍率(観察倍率)が異なる複数の対物レンズ24(241,242)を保持する。ノーズピース23は、顕微鏡制御部3の制御のもと、モータ232によってスライダ231をx方向にスライドさせることによって、観察光の光路上に挿入されて標本Sの観察に用いる対物レンズ24を択一的に切換える。なお、ノーズピース23は、スライダ式のノーズピースに限らず、レボルバ式のノーズピースであってもよい。   The nosepiece 23 arranges a desired objective lens 24 above the sample S via a slider 231 slidably provided with respect to the head main body 25. The nosepiece 23 holds a plurality of objective lenses 24 (241, 242) having different magnifications (observation magnifications) by the slider 231. Under the control of the microscope control unit 3, the nosepiece 23 slides the slider 231 in the x direction by the motor 232, thereby selecting the objective lens 24 that is inserted in the optical path of the observation light and used for observing the specimen S. Switch on. The nosepiece 23 is not limited to a slider type nosepiece but may be a revolver type nosepiece.

スライダ231に装着されている対物レンズ24は、例えば、1倍,2倍,4倍の比較的倍率の低い対物レンズ241(以下、「低倍対物レンズ241」という)と、低倍対物レンズ241の倍率より高倍率である対物レンズ242(以下、「高倍対物レンズ242」という)とがある。対物レンズ242の倍率は、例えば、10倍,20倍,40倍である。スライダ231には、対物レンズ241,242が少なくとも1つずつ装着される。なお、低倍対物レンズ241および高倍対物レンズ242の倍率は一例であり、高倍対物レンズ242が低倍対物レンズ241に対して高ければよい。   The objective lens 24 attached to the slider 231 includes, for example, an objective lens 241 with relatively low magnification of 1 ×, 2 ×, and 4 × (hereinafter referred to as “low magnification objective lens 241”) and a low magnification objective lens 241. There is an objective lens 242 (hereinafter referred to as “high-magnification objective lens 242”) that has a higher magnification than the above magnification. The magnification of the objective lens 242 is, for example, 10 times, 20 times, or 40 times. At least one objective lens 241 and 242 is mounted on the slider 231. Note that the magnifications of the low-magnification objective lens 241 and the high-magnification objective lens 242 are examples, and it is sufficient that the high-magnification objective lens 242 is higher than the low-magnification objective lens 241.

ヘッド本体部25は、上述したノーズピース23を保持するとともに、ファイバー261を介して落射照明用光源26から射出された照明光L1(以下、「落射照明光L1」という)を集光する照明レンズ251と、落射照明光L1の光路を対物レンズ24の光軸に沿って偏向させるハーフミラー252と、標本Sを拡大するズームレンズ253と、対物レンズ24、ズームレンズ253およびハーフミラー252を介して入射される標本Sの反射光を集光して観察像を結像する結像レンズ254とが内部に設けられている。   The head main body 25 holds the above-described nosepiece 23 and collects the illumination light L1 emitted from the epi-illumination light source 26 via the fiber 261 (hereinafter referred to as “epi-illumination light L1”). 251; a half mirror 252 that deflects the optical path of the epi-illumination light L1 along the optical axis of the objective lens 24; a zoom lens 253 that enlarges the specimen S; and the objective lens 24, the zoom lens 253, and the half mirror 252. An imaging lens 254 that collects the reflected light of the incident sample S and forms an observation image is provided inside.

ズームレンズ部253は、ズームレンズ群およびズームレンズ群を駆動するズームレンズモータ(図示せず)等を用いて構成される。ズームレンズモータは、顕微鏡制御部3の制御のもと、ズームレンズ群を光軸方向に沿って移動させることにより、ズームレンズ部253のズーム倍率を変更する。   The zoom lens unit 253 is configured using a zoom lens group and a zoom lens motor (not shown) that drives the zoom lens group. The zoom lens motor changes the zoom magnification of the zoom lens unit 253 by moving the zoom lens group along the optical axis direction under the control of the microscope control unit 3.

また、ヘッド本体部25は、後述するヘッド保持部271に保持され、モータ274によってz方向に移動自在である。ヘッド本体部25は、顕微鏡制御部3の制御のもと、ヘッド本体部25のz方向における所定の原点位置を基点としてモータ274の駆動量が制御されることによって、所定の高さ範囲内の任意のz位置に標本Sを焦準移動させる。なお、本実施の形態では、ヘッド本体部25およびヘッド保持部271によって対物レンズ側本体部を構成する。   The head main body 25 is held by a head holding portion 271 described later, and is movable in the z direction by a motor 274. The head main body 25 is controlled within the predetermined height range by controlling the drive amount of the motor 274 based on a predetermined origin position in the z direction of the head main body 25 under the control of the microscope control unit 3. The sample S is moved to an arbitrary z position. In the present embodiment, the head body portion 25 and the head holding portion 271 constitute an objective lens side body portion.

落射照明用光源26は、ハロゲンランプ、キセノンランプまたはLED(Light Emitting Diode)等によって構成される。落射照明用光源26は、ファイバー261を介して標本Sの観察像を形成するための落射照明光L1を出射する。   The epi-illumination light source 26 is constituted by a halogen lamp, a xenon lamp, an LED (Light Emitting Diode), or the like. The epi-illumination light source 26 emits epi-illumination light L <b> 1 for forming an observation image of the specimen S through the fiber 261.

落射照明光L1は、照明レンズ251、ハーフミラー252、ズームレンズ253および対物レンズ24を経て標本Sに照射される。標本Sで反射した反射光L2(以下、「観察光L2」という)は、対物レンズ24、ズームレンズ253、ハーフミラー252および結像レンズ254を経て撮像装置4に入射する。   The epi-illumination light L1 is applied to the specimen S through the illumination lens 251, the half mirror 252, the zoom lens 253, and the objective lens 24. Reflected light L <b> 2 (hereinafter referred to as “observation light L <b> 2”) reflected by the sample S enters the imaging device 4 through the objective lens 24, the zoom lens 253, the half mirror 252, and the imaging lens 254.

Z駆動部27は、ヘッド本体部25を保持するとともに、支持部22に対してz方向に移動可能なヘッド保持部271と、ヘッド保持部271をz方向に駆動させるモータ274と、を有する。Z駆動部27は、ステージ21と対物レンズ24との距離を調整可能なフォーカス制御手段として機能する。なお、Z駆動部27は、ノーズピース23をz方向に移動する代わりにステージ21をz方向に移動するものであってもよい。   The Z driving unit 27 includes a head holding unit 271 that holds the head main body unit 25 and is movable in the z direction with respect to the support unit 22, and a motor 274 that drives the head holding unit 271 in the z direction. The Z drive unit 27 functions as a focus control unit that can adjust the distance between the stage 21 and the objective lens 24. Note that the Z drive unit 27 may move the stage 21 in the z direction instead of moving the nosepiece 23 in the z direction.

顕微鏡制御部3は、CPU(Central Processing Unit)等を用いて構成され、制御端末7の制御のもと、顕微鏡装置2を構成する各部の動作を統括的に制御する。具体的には、顕微鏡制御部3は、スライダ231を駆動させて観察光L2の光路上に配置する対物レンズ24を切換える切換処理、モータ211またはモータ274を駆動することにより、ステージ21およびヘッド本体部25の駆動処理、および標本Sの観察に伴う顕微鏡装置2の各部の調整を行う調整処理等を行う。また、顕微鏡制御部3は、顕微鏡装置2を構成する各部の状態、例えばステージ21の位置情報(xy位置)、ヘッド本体部25の位置情報(z位置)およびスライダ231に装着された対物レンズ24の種類情報等を制御端末7に出力する。   The microscope control unit 3 is configured by using a CPU (Central Processing Unit) or the like, and comprehensively controls the operation of each unit constituting the microscope apparatus 2 under the control of the control terminal 7. Specifically, the microscope control unit 3 drives the slider 231 to switch the objective lens 24 arranged on the optical path of the observation light L2, and drives the motor 211 or the motor 274 to drive the stage 21 and the head body. The driving process of the unit 25, the adjustment process for adjusting each part of the microscope apparatus 2 accompanying the observation of the sample S, and the like are performed. Further, the microscope control unit 3 is in a state of each part constituting the microscope apparatus 2, for example, position information (xy position) of the stage 21, position information (z position) of the head main body 25, and the objective lens 24 attached to the slider 231. Type information and the like are output to the control terminal 7.

撮像装置4は、CCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)等の撮像素子41を用いて構成される。撮像装置4は、撮像制御部5の制御のもと、結像レンズ254を経て入射された標本Sの観察像を撮像して標本Sの画像データを連続して生成する。撮像装置4は、カメラケーブルを介して生成した標本Sの画像データを制御端末7へ出力する。   The imaging device 4 is configured using an imaging element 41 such as a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS). Under the control of the imaging control unit 5, the imaging device 4 captures an observation image of the specimen S incident through the imaging lens 254 and continuously generates image data of the specimen S. The imaging device 4 outputs the image data of the specimen S generated via the camera cable to the control terminal 7.

撮像制御部5は、CPU等を用いて構成され、撮像装置4の動作を制御する。具体的には、撮像制御部5は、撮像装置4の自動ゲイン制御のON/OFF切換処理、ゲインの設定処理およびフレームレートの設定処理等を行って撮像装置4の撮影動作を制御する。撮像制御部5は、AE処理部51を有する。   The imaging control unit 5 is configured using a CPU or the like, and controls the operation of the imaging device 4. Specifically, the imaging control unit 5 controls the photographing operation of the imaging device 4 by performing ON / OFF switching processing of automatic gain control of the imaging device 4, gain setting processing, frame rate setting processing, and the like. The imaging control unit 5 includes an AE processing unit 51.

AE処理部51は、撮像装置4が生成した画像データに基づいて、撮像装置4の露出条件を自動的に設定する。具体的には、AE処理部51は、制御端末7を介して取得した画像データから輝度を算出し、算出した輝度に基づいて撮像装置4の露出条件、例えば露光時間を決定することで撮像装置4の自動露出を行う。   The AE processing unit 51 automatically sets the exposure condition of the imaging device 4 based on the image data generated by the imaging device 4. Specifically, the AE processing unit 51 calculates the luminance from the image data acquired via the control terminal 7, and determines the exposure condition of the imaging device 4, for example, the exposure time based on the calculated luminance. 4 automatic exposure.

表示入力部6は、制御端末7との通信を行う表示通信部61と、画像を表示する表示部62と、外部からの物体の接触に応じた位置信号を出力するタッチパネル63と、を有する。   The display input unit 6 includes a display communication unit 61 that performs communication with the control terminal 7, a display unit 62 that displays an image, and a touch panel 63 that outputs a position signal corresponding to an external object contact.

表示通信部61は、制御端末7との通信を行うための通信インターフェースである。表示通信部61は、制御端末7から出力される画像データを表示部62へ出力する。   The display communication unit 61 is a communication interface for performing communication with the control terminal 7. The display communication unit 61 outputs the image data output from the control terminal 7 to the display unit 62.

表示部62は、液晶または有機EL(Electro Luminescence)等からなる表示パネルを用いて構成される。表示部62は、表示通信部61を介して入力される画像データに対応する画像を表示する。表示部62は、顕微鏡システム1の各種操作情報等を表示する。   The display unit 62 is configured using a display panel made of liquid crystal, organic EL (Electro Luminescence), or the like. The display unit 62 displays an image corresponding to the image data input via the display communication unit 61. The display unit 62 displays various operation information of the microscope system 1 and the like.

タッチパネル63は、表示部62の表示画面上に設けられ、外部からの物体の接触位置に応じた入力を受け付ける。具体的には、タッチパネル63は、ユーザが表示部62に表示される操作アイコンに従ってタッチ(接触)した位置を検出し、この検出したタッチ位置に応じた位置信号を制御端末7へ出力する。例えば、タッチパネル63は、表示部62が顕微鏡システム1の各種操作情報を画像表示領域内で表示することで、グラフィカルユーザインターフェース(GUI)として機能する。一般に、タッチパネルとしては、抵抗膜方式、静電容量方式および光学方式等がある。本実施の形態1では、いずれの方式のタッチパネルであっても適用可能である。   The touch panel 63 is provided on the display screen of the display unit 62 and accepts an input according to the contact position of the object from the outside. Specifically, the touch panel 63 detects a position where the user touches (contacts) according to an operation icon displayed on the display unit 62, and outputs a position signal corresponding to the detected touch position to the control terminal 7. For example, the touch panel 63 functions as a graphical user interface (GUI) when the display unit 62 displays various operation information of the microscope system 1 in the image display area. In general, the touch panel includes a resistance film method, a capacitance method, an optical method, and the like. In the first embodiment, any type of touch panel is applicable.

制御端末7は、顕微鏡制御部3、撮像制御部5および表示入力部6との通信を行う制御通信部71と、顕微鏡システム1の各部の駆動を指示する駆動指示信号の入力を受け付ける入力部72と、顕微鏡システム1の各種情報を記憶する記憶部73と、顕微鏡システム1の各部を制御する制御部74と、を備える。   The control terminal 7 includes a control communication unit 71 that communicates with the microscope control unit 3, the imaging control unit 5, and the display input unit 6, and an input unit 72 that receives input of a drive instruction signal that instructs driving of each unit of the microscope system 1. And a storage unit 73 that stores various types of information of the microscope system 1 and a control unit 74 that controls each unit of the microscope system 1.

制御通信部71は、顕微鏡制御部3、撮像制御部5および表示入力部6それぞれとの通信を行うための通信インターフェースである。また、制御通信部71は、カメラケーブルを介して撮像装置4から出力される画像データを制御部74へ出力する。   The control communication unit 71 is a communication interface for communicating with each of the microscope control unit 3, the imaging control unit 5, and the display input unit 6. Further, the control communication unit 71 outputs the image data output from the imaging device 4 to the control unit 74 via the camera cable.

入力部72は、キーボード、マウス、ジョイスティックおよび各種スイッチ等を用いて構成され、各種スイッチの操作入力に応じた操作信号を制御部74に出力する。   The input unit 72 is configured using a keyboard, a mouse, a joystick, various switches, and the like, and outputs operation signals corresponding to operation inputs of the various switches to the control unit 74.

記憶部73は、制御端末7の内部に固定的に設けられるフラッシュメモリおよびRAM(Random Access Memory)等の半導体メモリを用いて実現される。記憶部73は、顕微鏡システム1に実行させる各種プログラム(例えば、位置検出プログラム)、プログラムの実行中に使用される各種データを記憶する。また、記憶部73は、制御部74の処理中の情報を一次的に記憶する。記憶部73は、撮像装置4が撮像した画像データを記憶する画像データ記憶部731と、ヘッド本体部25の位置に関する位置情報を記憶する位置情報記憶部732と、を有する。なお、記憶部73は、外部から装着されるメモリカード等を用いて構成されてもよい。   The storage unit 73 is realized using a semiconductor memory such as a flash memory and a RAM (Random Access Memory) fixedly provided inside the control terminal 7. The storage unit 73 stores various programs (for example, a position detection program) to be executed by the microscope system 1 and various data used during the execution of the programs. The storage unit 73 temporarily stores information being processed by the control unit 74. The storage unit 73 includes an image data storage unit 731 that stores image data captured by the imaging device 4, and a position information storage unit 732 that stores position information regarding the position of the head main body unit 25. In addition, the memory | storage part 73 may be comprised using the memory card etc. which are mounted | worn from the outside.

制御部74は、CPU等を用いて構成され、入力部72およびタッチパネル63からの駆動指示信号、位置信号および切換信号等に応じて顕微鏡システム1を構成する各部に対応する指示やデータの転送等を行って顕微鏡システム1の動作を統括的に制御する。また、後述する拡張焦点画像や3D画像の合成を行う画像合成処理や、ヘッド本体部25の位置を設定する処理等を行う。   The control unit 74 is configured using a CPU or the like, and transfers instructions and data corresponding to each unit constituting the microscope system 1 according to a drive instruction signal, a position signal, a switching signal, and the like from the input unit 72 and the touch panel 63. To perform overall control of the operation of the microscope system 1. Also, an image synthesis process for synthesizing an extended focus image and a 3D image, which will be described later, a process for setting the position of the head main body 25, and the like are performed.

また、制御部74は、画像処理部741と、駆動制御部742と、表示制御部743、AF処理部744と、を有する。   The control unit 74 includes an image processing unit 741, a drive control unit 742, a display control unit 743, and an AF processing unit 744.

画像処理部741は、制御通信部71を介して入力される画像データに対して、所定の画像処理を施して表示部62で表示する表示画像を生成する。具体的には、画像処理部741は、画像データに対して、オプティカルブラック減算処理、ホワイトバランス調整処理、同時化処理、カラーマトリクス演算処理、γ補正処理、色再現処理およびエッジ強調処理等を含む画像処理を行う。画像処理部741は、画像データを所定の方式、例えばJPEG(Joint Photographic Experts Group)方式で圧縮し、圧縮した画像データを画像データ記憶部731へ出力する。   The image processing unit 741 performs predetermined image processing on the image data input via the control communication unit 71 to generate a display image to be displayed on the display unit 62. Specifically, the image processing unit 741 includes optical black subtraction processing, white balance adjustment processing, synchronization processing, color matrix calculation processing, γ correction processing, color reproduction processing, edge enhancement processing, and the like for image data. Perform image processing. The image processing unit 741 compresses the image data by a predetermined method, for example, a JPEG (Joint Photographic Experts Group) method, and outputs the compressed image data to the image data storage unit 731.

駆動制御部742は、例えばタッチパネル63または入力部72からの入力に応じて顕微鏡装置2を構成する電動ユニット(ステージ21、ヘッド本体部25)を駆動する駆動制御を行う。駆動制御部742は、例えば、ヘッド本体部25を対物レンズ24の光軸と平行な方向に移動させる等の駆動制御を行う。   The drive control unit 742 performs drive control for driving the electric unit (stage 21, head main body unit 25) constituting the microscope apparatus 2 in accordance with, for example, an input from the touch panel 63 or the input unit 72. The drive control unit 742 performs drive control such as moving the head main body unit 25 in a direction parallel to the optical axis of the objective lens 24, for example.

表示制御部743は、表示部62の表示態様を制御する。具体的には、表示制御部743は、画像データ記憶部731が記憶する複数の画像データの各々の画像を表示部62に表示させる。表示制御部743は、顕微鏡システム1の各々の動作に関する操作情報、例えば、ステージ21またはヘッド本体部25の操作情報等を表示部62に表示させる。
AF処理部744は、撮像装置4が生成した画像データに基づいて、対物レンズ24のピントを自動的に調整する。具体的には、AF処理部744は、電動焦準部27を駆動させ、ヘッド本体部25の各Z位置における画像のコントラストを評価し、合焦している合焦位置(焦点位置)を検出することにより、対物レンズ24のピントを自動的に調整する。
The display control unit 743 controls the display mode of the display unit 62. Specifically, the display control unit 743 displays each image of the plurality of image data stored in the image data storage unit 731 on the display unit 62. The display control unit 743 causes the display unit 62 to display operation information regarding each operation of the microscope system 1, for example, operation information of the stage 21 or the head main body unit 25.
The AF processing unit 744 automatically adjusts the focus of the objective lens 24 based on the image data generated by the imaging device 4. Specifically, the AF processing unit 744 drives the electric focusing unit 27, evaluates the contrast of the image at each Z position of the head main body unit 25, and detects the in-focus position (focus position). By doing so, the focus of the objective lens 24 is automatically adjusted.

このように構成された顕微鏡システム1は、制御部74の制御のもと、撮像装置4で撮像された標本Sの画像データを表示部62に表示することによってユーザに標本Sの画像を観察させることができる。さらに、顕微鏡システム1は、タッチパネル63から入力される位置信号に基づいて、制御部74が顕微鏡システム1の各部に指示信号や駆動信号を出力することにより、顕微鏡装置2および撮像装置4が駆動する。   The microscope system 1 configured as described above causes the user to observe the image of the sample S by displaying the image data of the sample S captured by the imaging device 4 on the display unit 62 under the control of the control unit 74. be able to. Furthermore, in the microscope system 1, the microscope device 2 and the imaging device 4 are driven when the control unit 74 outputs an instruction signal or a drive signal to each unit of the microscope system 1 based on the position signal input from the touch panel 63. .

図3A〜3Cは、拡張焦点画像の合成を説明するための概念図及び平面図である。図3A及び図3Cは、標本Sが載置されるステージ21の側面図と、標本Sを拡張焦点画像(EFI:Extend Focal Image)指定範囲において複数の位置で撮影した画像群のコントラスト分布を表すグラフとを組み合わせた図である。図3Bは、図3Aに示す撮影範囲で撮影・合成された拡張焦点画像の平面図である。   3A to 3C are a conceptual diagram and a plan view for explaining the synthesis of the extended focus image. 3A and 3C show a side view of the stage 21 on which the specimen S is placed, and a contrast distribution of a group of images obtained by photographing the specimen S at a plurality of positions in an extended focal image (EFI) designated range. It is the figure which combined the graph. FIG. 3B is a plan view of an extended focus image photographed and synthesized within the photographing range shown in FIG. 3A.

なお、本明細書において、撮影範囲とは、実際に撮像装置4が標本Sを複数の位置(撮像装置4と標本Sとの距離が異なる複数の位置)において撮影する範囲である。また、拡張焦点画像(全焦点画像)とは、高低差のある標本Sに対して複数の位置で撮影した静止画像を、各画像の特性値(コントラスト値等)に基づき合成することにより生成される画像全面にピントの合った画像である。   In this specification, the imaging range is a range in which the imaging device 4 actually captures the sample S at a plurality of positions (a plurality of positions at which the distance between the imaging device 4 and the sample S is different). Further, the extended focus image (omnifocal image) is generated by synthesizing still images taken at a plurality of positions with respect to the specimen S having a difference in height based on the characteristic values (contrast values, etc.) of each image. The image is in focus on the entire image.

図3Aに示すようにステージ21上に載置された標本Sを、撮像装置4の焦点位置の下限(ステージ21の上面)から上限までを撮影範囲として、拡張焦点画像を合成すると、図3Bに示すように、ステージ21上面のテクスチャが合成した拡張焦点画像に写りこんでしまう。これは、図3Aに示す撮影範囲には、ステージ21上面のテクスチャに相当するコントラスト成分が含まれるため、ステージ21上面のテクスチャも拡張焦点画像の一部として合成されてしまうからである(ことが原因である)。   As shown in FIG. 3A, when the extended focus image is synthesized with the specimen S placed on the stage 21 as the imaging range from the lower limit (upper surface of the stage 21) to the upper limit of the focal position of the imaging device 4, FIG. As shown, the texture on the upper surface of the stage 21 is reflected in the synthesized extended focus image. This is because the imaging range shown in FIG. 3A includes a contrast component corresponding to the texture on the upper surface of the stage 21, and the texture on the upper surface of the stage 21 is also synthesized as a part of the extended focus image. Responsible).

このようなステージ21上面のテクスチャの写りこみを回避するために、図3Cに示すように、ステージ21上面のテクスチャに相当するコントラスト成分を除外するように撮影範囲を変更して、撮影を行うことができるが、このようにすると撮影範囲から除外された範囲の標本Sのテクスチャも拡張焦点画像として合成されなくなり、必要なテクスチャも消失する可能性がある。撮影範囲を変更するこの手法によると、必要なテクスチャが含まれるように再度合成するためには、複数の位置での撮影を再度行う必要がある。   In order to avoid such reflection of the texture on the upper surface of the stage 21, as shown in FIG. 3C, the photographing range is changed so as to exclude the contrast component corresponding to the texture on the upper surface of the stage 21, and photographing is performed. However, in this case, the texture of the sample S in the range excluded from the imaging range is not synthesized as an extended focus image, and the necessary texture may be lost. According to this method of changing the shooting range, it is necessary to perform shooting again at a plurality of positions in order to combine again so that the necessary texture is included.

そこで、本実施の形態では、撮影範囲を変更せずに、拡張焦点画像や3D画像などの画像を合成するために用いる画像の使用範囲(以下、合成対象と呼ぶ)を変更可能にするとともに、当該合成対象に含まれる画像のみを用いて合成を行った場合の合成画像をプレビューできるようにしている。   Therefore, in the present embodiment, it is possible to change a use range (hereinafter referred to as a synthesis target) of an image used for synthesizing an image such as an extended focus image or a 3D image without changing the shooting range, It is possible to preview a composite image in a case where composition is performed using only images included in the composition target.

図4A及び4Bは、本発明の実施の形態1にかかる顕微鏡システムの表示入力部が表示するプレビューウインドウの一例を表す平面図である。図4Aは、画像の合成対象の変更前を表し、図4Bは変更後を表している。なお、この例では、予め設定された撮影範囲(下限から上限位置まで)において標本Sの撮影が、ステージ21と対物レンズ24との距離が異なる複数の位置で、すでに行われているものとする。   4A and 4B are plan views illustrating an example of a preview window displayed by the display input unit of the microscope system according to the first embodiment of the present invention. FIG. 4A shows before the change of the image synthesis target, and FIG. 4B shows after the change. In this example, it is assumed that the specimen S is already photographed at a plurality of positions where the distance between the stage 21 and the objective lens 24 is different in a preset photographing range (from the lower limit to the upper limit position). .

プレビューウインドウPWは、表示部62に表示され、第1の表示領域PS1と、第2の表示領域PS2と、コントラスト表示領域CSと、開始位置設定部101と、終了位置設定部102と、決定指示部(OKボタン)103と、を備える。   The preview window PW is displayed on the display unit 62, and includes a first display region PS1, a second display region PS2, a contrast display region CS, a start position setting unit 101, an end position setting unit 102, and a determination instruction. Part (OK button) 103.

第1の表示領域PS1は、予め設定された撮影範囲で撮影された全ての画像を使用した場合の合成画像のプレビュー画像をサムネイル表示する領域、すなわち合成対象の変更前の状態を表示する領域である。第2の表示領域PS2は、合成対象に含まれる画像のみを使用した場合の合成画像のプレビュー画像をサムネイル表示する領域、すなわち合成対象の変更後の状態を表示する領域である。なお、プレビュー画像は撮影した画像を縮小するなどしてデータ量を減らした画像を用いて合成することが好ましい。   The first display area PS1 is an area for displaying a preview image of a composite image when all images photographed in a preset photographing range are used, that is, an area for displaying a state before the composition target is changed. is there. The second display area PS2 is an area for displaying a preview image of a composite image when only an image included in the composition target is used, that is, an area for displaying a state after the composition target is changed. Note that the preview image is preferably synthesized using an image with a reduced amount of data, for example, by reducing the captured image.

コントラスト表示領域CSは、指定範囲において複数の位置で撮影した画像群のコントラスト分布(各画像の特性値)を表すグラフを表示する領域である。コントラスト表示領域CSの右辺の下端には開始位置設定部101が上下移動可能に設けられ、上端には終了位置設定部102が上下移動可能に設けられる。   The contrast display area CS is an area for displaying a graph representing the contrast distribution (characteristic value of each image) of an image group captured at a plurality of positions in a specified range. A start position setting unit 101 is provided at the lower end of the right side of the contrast display area CS so as to be movable up and down, and an end position setting unit 102 is provided at the upper end so as to be movable up and down.

開始位置設定部101は、合成対象の開始位置を設定する。ユーザが、例えば、マウス等の入力部72やタッチパネル63を操作することにより、開始位置設定部101をポインタで指示した状態でマウスをドラッグしてプレビューウインドウPW上での位置を変更することにより、合成対象の開始位置が変更される。合成対象の開始位置は、撮影範囲の下限位置から終了位置までの任意の位置に設定可能である。   The start position setting unit 101 sets a start position to be synthesized. For example, when the user operates the input unit 72 such as a mouse or the touch panel 63 and changes the position on the preview window PW by dragging the mouse in a state where the start position setting unit 101 is indicated by the pointer. The start position of the composition target is changed. The start position of the compositing target can be set at an arbitrary position from the lower limit position to the end position of the shooting range.

終了位置設定部102は、合成対象の終了位置を設定する。ユーザが、例えば、マウス等の入力部72やタッチパネル63を操作することにより、終了位置設定部102をポインタで指示した状態でマウスをドラッグしてプレビューウインドウPW上での位置を変更することにより、合成対象の終了位置が変更される。合成対象の終了位置は、撮影範囲の上限位置から開始位置までの任意の位置に設定可能である。   The end position setting unit 102 sets the end position to be synthesized. By operating the input unit 72 such as a mouse or the touch panel 63, for example, the user drags the mouse while pointing the end position setting unit 102 with a pointer and changes the position on the preview window PW. The end position of the composition target is changed. The end position of the compositing target can be set at an arbitrary position from the upper limit position of the shooting range to the start position.

初期状態では、図4Aに示すように、開始位置設定部101及び終了位置設定部102は、コントラスト表示領域CSの下限位置及び上限位置に設定されており、撮影範囲と同一の範囲を指定している。すなわち、この状態では、撮影した全ての画像を使用して合成を行う。この状態から、例えば、図4Bに示すように、開始位置設定部101を上方に移動させて合成対象を変更すると、当該変更した合成対象に含まれる画像を用いて合成したプレビュー画像が第2の表示領域PS2に表示される。図4Bに示す例では、ステージ21上面のテクスチャに相当するコントラスト成分を合成対象から外しているので、第2の表示領域PS2に表示される画像から、ステージ21上面のテクスチャが消失している。   In the initial state, as shown in FIG. 4A, the start position setting unit 101 and the end position setting unit 102 are set to the lower limit position and the upper limit position of the contrast display area CS, and specify the same range as the shooting range. Yes. That is, in this state, composition is performed using all the captured images. From this state, for example, as shown in FIG. 4B, when the composition target is changed by moving the start position setting unit 101 upward, the preview image synthesized using the image included in the changed composition target is the second image. It is displayed in the display area PS2. In the example shown in FIG. 4B, since the contrast component corresponding to the texture on the upper surface of the stage 21 is excluded from the synthesis target, the texture on the upper surface of the stage 21 disappears from the image displayed in the second display region PS2.

開始位置設定部101及び終了位置設定部102を移動することにより、合成対象の開始位置及び終了位置が変更され、当該変更後の合成対象に含まれる画像を用いて合成したプレビュー画像が第2の表示領域PS2に表示される。ユーザは第2の表示領域PS2に表示されるプレビュー画像を確認して、合成対象を決定することができる。合成対象の決定は、OKボタン103を入力部72でクリックするかその領域上のタッチパネル63を操作することにより行われる。   By moving the start position setting unit 101 and the end position setting unit 102, the start position and the end position of the composition target are changed, and the preview image synthesized using the image included in the composition target after the change is the second image. It is displayed in the display area PS2. The user can confirm the preview image displayed in the second display area PS2 and determine the composition target. The composition target is determined by clicking the OK button 103 with the input unit 72 or operating the touch panel 63 on the area.

なお、開始位置設定部101及び終了位置設定部102は、図4A及び図4Bに示すような形態に限らず、合成対象の開始位置及び終了位置をそれぞれ独立して任意の位置に設定可能なものであればどのようなものであってもよい。例えば、合成対象の開始位置及び終了位置を数値により設定可能としてもよい。その場合には、開始位置及び終了位置を撮影画像のフレーム数(撮影開始から何番目の画像であるか等)や、ステージからの距離(高さ)等を指定するようにしてもよい。また、複数の開始位置及び終了位置を設定して、複数の非連続な領域を合成対象として設定できるようにしてもよい。さらに、開始位置と終了位置を同一として、1フレームの画像のみを合成対象として指定することも可能である。なお、プレビューウインドウPWにおいて、第1の表示領域PS1は省略可能である。   Note that the start position setting unit 101 and the end position setting unit 102 are not limited to the forms shown in FIGS. 4A and 4B, and the start position and end position to be combined can be set independently at arbitrary positions. Anything may be used. For example, the start position and end position of the synthesis target may be set by numerical values. In that case, the start position and the end position may be designated by the number of frames of the captured image (eg, what number image is from the start of capturing), the distance (height) from the stage, or the like. In addition, a plurality of start positions and end positions may be set so that a plurality of non-continuous areas can be set as synthesis targets. Furthermore, it is possible to designate only one frame image as a synthesis target with the same start position and end position. In the preview window PW, the first display area PS1 can be omitted.

図5は、本発明の実施の形態1にかかる制御部が実行する画像合成処理を表すフローチャートである。この画像合成処理を行うにあたっては、事前準備として、ステージ21の標本載置面に、標本Sを載置しておく。この画像合成処理は、ユーザによる拡張焦点画像の生成指示により開始される。   FIG. 5 is a flowchart showing image composition processing executed by the control unit according to the first embodiment of the present invention. In performing this image composition processing, the specimen S is placed on the specimen placement surface of the stage 21 as advance preparation. This image composition process is started by an instruction to generate an extended focus image by the user.

ステップS101では、制御部74が、撮影画像の撮影枚数を表すカウンタ「N」を初期化して「1」とする。   In step S101, the control unit 74 initializes a counter “N” representing the number of shot images to be set to “1”.

ステップS102では、制御部74が、Z駆動部27を駆動して、指定された下限位置(撮影範囲の下限位置)までヘッド保持部271(対物レンズ24)をz方向に移動させる。撮影範囲は、このステップS102で指定するようにしてもよいし、予め指定しておくようにしてもよい。撮影範囲の設定は、上下端をそれぞれ設定するようにしてもよいし、現在のz位置からの上端または下端のいずれかを設定するようにしてもよい。また、撮影スタートの後、ユーザがマニュアルでz方向を所望範囲のみ動かすことにより指定してもよい。   In step S102, the control unit 74 drives the Z drive unit 27 to move the head holding unit 271 (objective lens 24) in the z direction to the designated lower limit position (lower limit position of the imaging range). The photographing range may be designated in step S102 or may be designated in advance. The shooting range may be set by setting the upper and lower ends, respectively, or by setting either the upper end or the lower end from the current z position. Alternatively, after the start of shooting, the user may manually specify the z direction by moving only the desired range.

ステップS103では、制御部74が、撮像装置4を駆動し、現在のz位置において静止画像を撮影させ、N番目画像としてメモリ(画像データ記憶部731)に記憶する。その後、ステップS104で、制御部74が現在のz位置を撮影範囲の上限位置であるか否かを判断する。制御部74が現在のz位置が撮影範囲の上限位置であると判断した場合(ステップS104:Yes)は、撮像装置4による撮影を終了し、ステップS105に進む。制御部74が現在のz位置を撮影範囲の上限位置ではないと判断した場合(ステップS104:No)は、ステップS113に進む。このステップS103と、後述するステップS113及びS114の処理を、制御部74が現在のz位置が撮影範囲の上限位置であると判断するまで繰り返すことにより、ステージ21と対物レンズ24との距離が異なる複数の位置での標本Sの撮影が行われる。   In step S103, the control unit 74 drives the imaging device 4 to capture a still image at the current z position, and stores the still image in the memory (image data storage unit 731) as an Nth image. Thereafter, in step S104, the control unit 74 determines whether or not the current z position is the upper limit position of the shooting range. When the control unit 74 determines that the current z position is the upper limit position of the shooting range (step S104: Yes), the shooting by the imaging device 4 is terminated, and the process proceeds to step S105. When the control unit 74 determines that the current z position is not the upper limit position of the shooting range (step S104: No), the process proceeds to step S113. The distance between the stage 21 and the objective lens 24 is different by repeating the processing of step S103 and steps S113 and S114 described later until the control unit 74 determines that the current z position is the upper limit position of the imaging range. The specimen S is photographed at a plurality of positions.

ステップS105では、制御部74が、プレビュー画像指定エリアとして、第1の表示領域PS1と第2の表示領域PS2を指定する。プレビュー画像指定エリアとは、後述するステップS107で生成する拡張焦点画像を表示するための領域である。プレビュー画像指定エリアとして、第1の表示領域PS1と第2の表示領域PS2の双方が指定されることにより、初期状態では、第1の表示領域PS1と第2の表示領域PS2に同じ画像が表示される。   In step S105, the control unit 74 designates the first display area PS1 and the second display area PS2 as preview image designation areas. The preview image designation area is an area for displaying an extended focus image generated in step S107 described later. By designating both the first display area PS1 and the second display area PS2 as the preview image designation area, the same image is displayed in the first display area PS1 and the second display area PS2 in the initial state. Is done.

ステップS106では、制御部74が、合成に使用する撮影画像(合成対象)として、1〜N番目の画像を指定(全指定)する。初期状態では、撮像装置4により撮影された全画像を用いて合成を行うように設定されている。なお、このステップS106で全指定に代えて、予め設定した範囲の画像を指定するようにしてもよい。   In step S106, the control unit 74 designates (all designations) the 1st to Nth images as photographed images (compositing targets) used for synthesis. In the initial state, the setting is made so that the synthesis is performed using all the images photographed by the imaging device 4. Note that instead of specifying all at step S106, an image in a preset range may be specified.

ステップS107では、制御部74が、ステップS106または後述するステップS106で設定された合成対象の中で、撮影された画像中の各領域において最も高いコントラストを持つ部分を抽出して拡張焦点画像(プレビュー画像)を生成する。   In step S107, the control unit 74 extracts an extended focus image (preview) by extracting a portion having the highest contrast in each region in the captured image from the compositing targets set in step S106 or step S106 described later. Image).

ステップS108では、制御部74が、ステップS105または後述するステップS115で指定したプレビュー画像指定エリアに、ステップS107で生成した拡張焦点画像をサムネイル表示(プレビュー画像を表示)する。   In step S108, the control unit 74 displays the extended focus image generated in step S107 as a thumbnail (displays a preview image) in the preview image designation area designated in step S105 or step S115 described later.

ステップS109では、制御部74が、合成対象が変更されたか否かを判断する。制御部74が、合成対象が変更されたと判断した場合(ステップS109:Yes)は、ステップS115に進み、変更されていないと判断した場合(ステップS109:No)は、ステップS110に進む。   In step S109, the control unit 74 determines whether the composition target has been changed. When the control unit 74 determines that the composition target has been changed (step S109: Yes), the process proceeds to step S115, and when it is determined that the composition target has not been changed (step S109: No), the process proceeds to step S110.

ステップS110では、制御部74が、決定指示部(OKボタン)103が操作されたか否かを判断する。制御部74が、決定指示部(OKボタン)103が操作されたと判断した場合(ステップS110:Yes)は、ステップS111に進み、操作されていないと判断した場合(ステップS110:No)は、ステップS109に戻る。   In step S110, the control unit 74 determines whether or not the determination instruction unit (OK button) 103 has been operated. When the control unit 74 determines that the determination instruction unit (OK button) 103 has been operated (step S110: Yes), the process proceeds to step S111. When it is determined that the determination instruction unit (OK button) 103 has not been operated (step S110: No), Return to S109.

ステップS111では、制御部74が、ステップS106または後述するステップS116で設定された合成対象の中で、撮影された画像中の各領域において最も高いコントラストを持つ部分を抽出して最終的な拡張焦点画像を生成し、画像データ記憶部731等のメモリに記憶する。   In step S111, the control unit 74 extracts a portion having the highest contrast in each region in the captured image from the compositing targets set in step S106 or step S116 described later, and finally expands the focus. An image is generated and stored in a memory such as the image data storage unit 731.

ステップS112では、制御部74が、ステップS103で記憶した撮影画像を画像データ記憶部731等のメモリから消去して、画像合成処理を終了する。   In step S112, the control unit 74 erases the captured image stored in step S103 from the memory such as the image data storage unit 731 and ends the image composition process.

ステップS113では、制御部74が、カウンタ「N」をインクリメントして「N+1」とする。ステップS114では、制御部74が、Z駆動部27を駆動して、ヘッド保持部271(対物レンズ24)を所定間隔にて上方にz移動させる。ここでの所定間隔は、例えば、数μm〜数百μmである。その後、ステップS103に進む。   In step S113, the control unit 74 increments the counter “N” to “N + 1”. In step S114, the control unit 74 drives the Z drive unit 27 to move the head holding unit 271 (objective lens 24) upward by z at a predetermined interval. Here, the predetermined interval is, for example, several μm to several hundred μm. Thereafter, the process proceeds to step S103.

ステップS115では、制御部74が、プレビュー画像指定エリアとして、第2の表示領域PS2を指定する。プレビュー画像指定エリアとして、第2の表示領域PS2のみが指定されることにより、第2の表示領域PS2に合成対象変更後のプレビュー画像がサムネイル表示される。   In step S115, the control unit 74 designates the second display area PS2 as the preview image designation area. By designating only the second display area PS2 as the preview image designation area, the preview image after the composition target change is displayed as a thumbnail in the second display area PS2.

ステップS116では、制御部74が、ステップS109で変更された合成対象をステップS107及びステップS111で拡張焦点画像を生成するための合成対象として設定する。その後、ステップS107に戻る。   In step S116, the control unit 74 sets the composition target changed in step S109 as a composition target for generating an extended focus image in steps S107 and S111. Thereafter, the process returns to step S107.

以上、本発明の実施の形態1によれば、撮影範囲に基づき複数の位置で標本Sを撮影した後に、プレビューウインドウPWに表示されるプレビュー画像をみながら、拡張焦点画像の合成に使用する画像を合成対象として指定することができる。よって、最終的な拡張焦点画像に写したくない画像を簡単に除外することが可能となる。   As described above, according to the first embodiment of the present invention, after the specimen S is photographed at a plurality of positions based on the photographing range, the image used for synthesizing the extended focus image while viewing the preview image displayed on the preview window PW. Can be designated as a synthesis target. Therefore, it is possible to easily exclude an image that is not desired to be captured in the final extended focus image.

具体的には、プレビューウインドウPWで確認しながら、標本Sを載置したステージ21上面のテクスチャ等を簡単に拡張焦点画像から除外することが可能となる。また、一部が基材に埋め込まれた標本等を撮影する場合に、基材の写りこみを簡単に回避することができる。さらに、例えば、ドーナツ状に穴が開いた標本を撮影する場合にも、穴から露出するステージ21上面のテクスチャを拡張焦点画像から簡単に除外することが可能となる。   Specifically, the texture on the upper surface of the stage 21 on which the sample S is placed can be easily excluded from the extended focus image while checking in the preview window PW. In addition, when a specimen or the like partially embedded in the base material is photographed, it is possible to easily avoid the reflection of the base material. Furthermore, for example, even when a specimen having a hole in a donut shape is photographed, the texture of the upper surface of the stage 21 exposed from the hole can be easily excluded from the extended focus image.

また、本発明の実施の形態1によれば、撮影範囲ではなく、撮影した複数画像のうちから合成に使用する画像を合成対象として選択し、合成対象を変更することにより、拡張焦点画像に含まれるテクスチャを変更している。したがって、撮影のやり直しをすることなく、拡張焦点画像に含まれるテクスチャを変更することができる。   Further, according to Embodiment 1 of the present invention, an image to be used for composition is selected as a compositing target from a plurality of captured images instead of a photographing range, and is included in the extended focus image by changing the compositing target. The texture to be changed is changed. Therefore, it is possible to change the texture included in the extended focus image without redoing the shooting.

なお、上述の実施の形態1では、撮影した複数画像を用いて拡張焦点画像のみを合成したが、拡張焦点画像の変わりに3D画像を合成することも可能である。この場合は、図5のステップS107及びステップS111において、制御部74が、ステップS106または後述するステップS116で設定された合成対象内で撮影された画像を用いて3D画像を生成する。   In Embodiment 1 described above, only the extended focus image is synthesized using a plurality of captured images, but a 3D image can be synthesized instead of the extended focus image. In this case, in step S107 and step S111 in FIG. 5, the control unit 74 generates a 3D image using the image photographed within the compositing target set in step S106 or step S116 described later.

(実施の形態2)
図6は、本発明の実施の形態2にかかる顕微鏡システムの表示入力部が表示するプレビューウインドウの一例を表す平面図である。この実施の形態2による顕微鏡システム1の説明においては、実施の形態1による顕微鏡システム1と同一の構成要素については同一の符号を付して、その詳細な説明は省略する。
(Embodiment 2)
FIG. 6 is a plan view illustrating an example of a preview window displayed by the display input unit of the microscope system according to the second embodiment of the present invention. In the description of the microscope system 1 according to the second embodiment, the same components as those in the microscope system 1 according to the first embodiment are denoted by the same reference numerals, and detailed description thereof is omitted.

この実施の形態2では、拡張焦点画像を合成するための各画像における特性値(コントラスト値等)に閾値THを設け、閾値TH以下(または以上)の特性値を持つテクスチャを拡張焦点画像から除外する。図6に示すプレビューウインドウPWaでは、この閾値THを設定するための閾値設定部104が、コントラスト表示領域CSの上辺に水平方向に移動可能に設けられている。それ以外のプレビューウインドウPWaの構成は図4Aに示す実施の形態1のプレビューウインドウPWと同様である。   In the second embodiment, a threshold value TH is provided for a characteristic value (contrast value, etc.) in each image for synthesizing an extended focus image, and textures having a characteristic value equal to or less than (or higher than) the threshold TH are excluded from the extended focus image. To do. In the preview window PWa shown in FIG. 6, a threshold value setting unit 104 for setting the threshold value TH is provided on the upper side of the contrast display area CS so as to be movable in the horizontal direction. The other configuration of the preview window PWa is the same as that of the preview window PW of the first embodiment shown in FIG. 4A.

閾値設定部104は、合成対象における各画像の特性値(コントラスト値等)の閾値THを設定する。ユーザが、例えば、マウス等の入力部72やタッチパネル63を操作することにより、閾値設定部104をドラッグしてプレビューウインドウPWa上での位置を変更することにより、閾値THが変更される。   The threshold value setting unit 104 sets a threshold value TH for the characteristic value (contrast value, etc.) of each image in the composition target. For example, when the user operates the input unit 72 such as a mouse or the touch panel 63 and drags the threshold setting unit 104 to change the position on the preview window PWa, the threshold TH is changed.

初期状態では、閾値THは「0」(コントラスト表示領域CSの右端)に設定されており、合成対象に含まれる画像は閾値THに係らず利用される。この状態から、例えば、図6に示すように、閾値設定部104を図中左方向(高コントラスト方向)に移動させて閾値THを変更すると、当該変更した閾値TH以下の特性値を持つテクスチャを除外して合成したプレビュー画像が第2の表示領域PS2に表示される。閾値TH及び合成対象の決定は、OKボタン103を入力部72やタッチパネル63で操作することにより行なわれる。なお、この例では、閾値TH以下の特性値を持つテクスチャを所定色(図中網掛けで示す)で補完している。   In the initial state, the threshold value TH is set to “0” (the right end of the contrast display area CS), and an image included in the composition target is used regardless of the threshold value TH. In this state, for example, as shown in FIG. 6, when the threshold value TH is changed by moving the threshold value setting unit 104 in the left direction (high contrast direction) in the figure, a texture having a characteristic value equal to or less than the changed threshold value TH is selected. The preview image that is excluded and combined is displayed in the second display area PS2. The threshold TH and the composition target are determined by operating the OK button 103 with the input unit 72 or the touch panel 63. In this example, a texture having a characteristic value equal to or less than the threshold value TH is complemented with a predetermined color (shown by shading in the figure).

なお、閾値設定部104は、図6に示すような形態に限らず、閾値THを任意の値に設定可能なものであればどのようなものであってもよい。例えば、閾値THを数値により直接入力可能としてもよい。また、実施の形態1同様、第1の表示領域PS1は省略可能である。   Note that the threshold setting unit 104 is not limited to the form shown in FIG. 6 and may be any type as long as the threshold TH can be set to an arbitrary value. For example, the threshold value TH may be directly input as a numerical value. Further, as in the first embodiment, the first display area PS1 can be omitted.

図7は、本発明の実施の形態2にかかる制御部が実行する画像合成処理を表すフローチャートである。   FIG. 7 is a flowchart showing image composition processing executed by the control unit according to the second embodiment of the present invention.

ステップS201からステップS206までの処理は図5に示すステップS101からステップS106と同様の処理である。また、ステップS216からステップS219までの処理も図5に示すステップS113からステップS116と同様の処理である。   The processing from step S201 to step S206 is the same as the processing from step S101 to step S106 shown in FIG. Further, the processing from step S216 to step S219 is the same as the processing from step S113 to step S116 shown in FIG.

ステップS207では、制御部74が、閾値THを初期化して「0」とする。   In step S207, the control unit 74 initializes the threshold value TH to “0”.

ステップS208では、制御部74が、設定された合成対象の中で、撮影された画像中の各領域において、ステップS207またはステップS220で設定された閾値TH以上のコントラストで、最も高いコントラストを持つ部分を抽出して拡張焦点画像(プレビュー画像)を生成する。   In step S208, the control unit 74 has the highest contrast among the set compositing targets in each region in the captured image with a contrast equal to or higher than the threshold value TH set in step S207 or step S220. Is extracted to generate an extended focus image (preview image).

ステップS209では、制御部74が、ステップS208で生成した拡張焦点画像(プレビュー画像)において、ステップS220で設定された閾値THを上回らなかった領域を所定色またはテクスチャで補完する。   In step S209, the control unit 74 supplements an area of the extended focus image (preview image) generated in step S208 that does not exceed the threshold value TH set in step S220 with a predetermined color or texture.

ステップS210では、制御部74が、ステップS205または後述するステップS218で指定したプレビュー画像指定エリアに、ステップS208で生成した(又はステップS208で生成しステップS209で閾値THを上回らなかった領域が所定色で塗りつぶされた)拡張焦点画像をサムネイル表示(プレビュー画像を表示)する。   In step S210, the control unit 74 generates a predetermined color in the preview image designation area designated in step S205 or step S218 described later in step S208 (or in step S208 and in which the threshold TH is not exceeded in step S209). The extended focus image (filled with) is displayed as a thumbnail (preview image is displayed).

ステップS211では、制御部74が、合成対象が変更されたか否かを判断する。制御部74が、合成対象が変更されたと判断した場合(ステップS211:Yes)は、ステップS218に進み、変更されていないと判断した場合(ステップS211:No)は、ステップS212に進む。   In step S211, the control unit 74 determines whether or not the composition target has been changed. When the control unit 74 determines that the composition target has been changed (step S211: Yes), the process proceeds to step S218, and when it is determined that the composition target has not been changed (step S211: No), the process proceeds to step S212.

ステップS212では、制御部74が、閾値THが変更されたか否かを判断する。制御部74が、閾値THが変更されたと判断した場合(ステップS212:Yes)は、ステップS220に進み、変更されていないと判断した場合(ステップS212:No)は、ステップS213に進む。   In step S212, the control unit 74 determines whether or not the threshold value TH has been changed. If the control unit 74 determines that the threshold value TH has been changed (step S212: Yes), the process proceeds to step S220. If the control unit 74 determines that the threshold value TH has not been changed (step S212: No), the process proceeds to step S213.

ステップS213では、制御部74が、決定指示部(OKボタン)103が操作されたか否かを判断する。制御部74が、決定指示部(OKボタン)103が操作されたと判断した場合(ステップS213:Yes)は、ステップS214に進み、操作されていないと判断した場合(ステップS213:No)は、ステップS211に戻る。   In step S213, the control unit 74 determines whether or not the determination instruction unit (OK button) 103 has been operated. When the control unit 74 determines that the determination instruction unit (OK button) 103 has been operated (step S213: Yes), the process proceeds to step S214, and when it is determined that the determination instruction unit (OK button) 103 has not been operated (step S213: No), the step Return to S211.

ステップS214では、制御部74が、ステップS206または後述するステップS219で設定された合成対象内で撮影された画像中の各領域において、ステップS207またはステップS220で設定された閾値TH以上のコントラストで、最も高いコントラストを持つ部分を抽出して最終的な拡張焦点画像を生成する。また、必要に応じて生成した拡張焦点画像において、ステップS220で設定された閾値THを上回らなかった領域を所定色またはテクスチャで補完することにより、最終的な拡張焦点画像を生成する。制御部74は、生成した最終的な拡張焦点画像を画像データ記憶部731等のメモリに記憶する。   In step S214, the control unit 74 has a contrast equal to or higher than the threshold value TH set in step S207 or step S220 in each region in the image captured within the composition target set in step S206 or step S219 described later. The final extended focus image is generated by extracting the portion having the highest contrast. Further, in the extended focus image generated as necessary, a region that did not exceed the threshold value TH set in step S220 is complemented with a predetermined color or texture to generate a final extended focus image. The control unit 74 stores the generated extended extended focus image in a memory such as the image data storage unit 731.

ステップS215では、制御部74が、ステップS203で記憶した撮影画像を画像データ記憶部731等のメモリから消去して、画像合成処理を終了する。   In step S215, the control unit 74 erases the captured image stored in step S203 from the memory such as the image data storage unit 731 and ends the image composition process.

ステップS220では、制御部74が、ステップS212で変更された合成対象をステップS208、ステップS209及びステップS214で拡張焦点画像を生成するための閾値THとして設定する。その後、ステップS208に戻る。   In step S220, the control unit 74 sets the composition target changed in step S212 as a threshold value TH for generating an extended focus image in steps S208, S209, and S214. Thereafter, the process returns to step S208.

なお、上述のステップS209の処理は省略可能である。その場合には、ステップS214で生成する最終的な拡張焦点画像においても、ステップS220で設定された閾値THを上回らなかった領域に対する所定色による塗りつぶし等の処理は行わない。   Note that the processing in step S209 described above can be omitted. In that case, even in the final extended focus image generated in step S214, processing such as painting with a predetermined color is not performed on the area that does not exceed the threshold value TH set in step S220.

以上、本発明の実施の形態2によれば、実施の形態1と同様に、撮影範囲に基づき複数の位置で標本Sを撮影した後に、プレビューウインドウPWaに表示されるプレビュー画像を見ながら、拡張焦点画像の合成に使用する画像を合成対象として指定することができる。よって、最終的な拡張焦点画像に写したくない画像を簡単に除外することが可能となる。   As described above, according to the second embodiment of the present invention, as in the first embodiment, after the specimen S is photographed at a plurality of positions based on the photographing range, it is expanded while viewing the preview image displayed on the preview window PWa. An image to be used for synthesizing the focus image can be designated as a synthesis target. Therefore, it is possible to easily exclude an image that is not desired to be captured in the final extended focus image.

上述の実施の形態1に加えて、本発明の実施の形態2によれば、拡張焦点画像を合成するための各画像における特性値(コントラスト値等)に閾値THを設け、閾値TH以下の特性値を持つテクスチャを拡張焦点画像から除外することができる。また、閾値THを上回らなかった領域を所定色で塗りつぶすことができる。よって、注目したい部位の画像を闡明に抽出することができる。   In addition to the first embodiment described above, according to the second embodiment of the present invention, a threshold value TH is provided for a characteristic value (contrast value or the like) in each image for synthesizing an extended focus image, and the characteristic is equal to or lower than the threshold value TH. Textures with values can be excluded from the extended focus image. In addition, an area that does not exceed the threshold value TH can be filled with a predetermined color. Therefore, it is possible to clearly extract an image of a part to be noticed.

なお、上述の実施の形態2では、撮影した複数画像を用いて拡張焦点画像のみを合成したが、実施の形態1と同様に、拡張焦点画像の変わりに3D画像を合成することも可能である。この場合は、図7のステップS208及びステップS214において、制御部74が、設定された合成対象内で撮影された画像を用いて3D画像を生成する。   In the second embodiment described above, only the extended focus image is synthesized using a plurality of captured images. However, similarly to the first embodiment, a 3D image can be synthesized instead of the extended focus image. . In this case, in step S208 and step S214 in FIG. 7, the control unit 74 generates a 3D image using an image photographed within the set composition target.

また、上述の実施の形態2では、閾値設定部104を操作することにより手動で閾値THを設定・変更するようにしたが、閾値THを合成対象内における特性値(コントラスト等)の最大値や平均値に基づき自動的に設定するようにしてもよい。その場合には、図7のステップS207及びステップS212において閾値THを自動設定する。   In the second embodiment described above, the threshold value TH is manually set / changed by operating the threshold value setting unit 104. However, the threshold value TH is set to a maximum value of a characteristic value (contrast, etc.) within the composition target. You may make it set automatically based on an average value. In that case, the threshold value TH is automatically set in steps S207 and S212 of FIG.

1 顕微鏡システム
2 顕微鏡装置
2a 顕微鏡基部
2b ヘッド部
3 顕微鏡制御部
4 撮像装置
5 撮像制御部
6 表示入力部
7 制御端末
21 ステージ
22 支持部
23 ノーズピース
24 対物レンズ
25 ヘッド本体部
26 落射照明用光源
27 Z駆動部
41 撮像素子
51 AE処理部
61 表示通信部
62 表示部
63 タッチパネル
71 制御通信部
72 入力部
73 記憶部
74 制御部
211,232,274 モータ
251 照明レンズ
252 ハーフミラー
253 ズームレンズ部
254 結像レンズ
271 ヘッド保持部
731 画像データ記憶部
732 位置情報記憶部
741 画像処理部
742 駆動制御部
743 表示制御部
744 AF処理部
DESCRIPTION OF SYMBOLS 1 Microscope system 2 Microscope apparatus 2a Microscope base 2b Head part 3 Microscope control part 4 Imaging device 5 Imaging control part 6 Display input part 7 Control terminal 21 Stage 22 Support part 23 Nosepiece 24 Objective lens 25 Head main body part 26 Light source for epi-illumination 27 Z Drive Unit 41 Image Sensor 51 AE Processing Unit 61 Display Communication Unit 62 Display Unit 63 Touch Panel 71 Control Communication Unit 72 Input Unit 73 Storage Unit 74 Control Unit 211, 232, 274 Motor 251 Illumination Lens 252 Half Mirror 253 Zoom Lens Unit 254 Imaging lens 271 Head holding unit 731 Image data storage unit 732 Position information storage unit 741 Image processing unit 742 Drive control unit 743 Display control unit 744 AF processing unit

Claims (5)

標本を載置するステージと、
前記標本からの観察光を集光する対物レンズと、
前記ステージと前記対物レンズとの距離を調整可能なフォーカス制御手段と、
前記標本を撮影して標本画像を取得する撮影手段と、
前記フォーカス制御手段に前記ステージと前記対物レンズとの距離を調整させるとともに、前記距離が異なる複数の位置で前記撮影手段に複数の前記標本画像を撮影させる制御手段と、
前記複数の位置における、合成画像の生成に用いる前記標本画像の選択範囲を設定する選択範囲設定手段と、
前記複数の前記標本画像の中から、前記選択範囲設定手段が設定した前記選択範囲内の前記標本画像を選択する選択手段と、
記選択手段により選択された数の前記標本画像を用いて第1の合成画像を生成する合成画像生成手段と、
前記第1の合成画像と、前記選択範囲における各標本画像の特性値とを同時に表示可能な表示手段と、
を備えることを特徴とする観察装置。
A stage for placing the specimen;
An objective lens for collecting observation light from the specimen;
A focus control means capable of adjusting a distance between the stage and the objective lens;
Photographing means for photographing the specimen and obtaining a specimen image;
Control means for causing the focus control means to adjust the distance between the stage and the objective lens, and for causing the photographing means to photograph a plurality of specimen images at a plurality of positions at which the distances are different;
Selection range setting means for setting a selection range of the specimen image used for generating a composite image at the plurality of positions;
Selection means for selecting the specimen image within the selection range set by the selection range setting means from the plurality of specimen images;
And composite image generation means for generating a first synthesized image using the sample image of several selected by pre-Symbol selection means,
Display means capable of simultaneously displaying the first composite image and the characteristic value of each specimen image in the selection range;
An observation apparatus comprising:
前記合成画像生成手段は、前記第1の合成画像と、前記複数の位置における各標本画像の全てを用いて生成した第の合成画像と生成することを特徴とする請求項1に記載の観察装置。 The composite image generating means includes a first composite image according to claim 1, characterized in that to generate the second synthesized image generated using all of the specimen image in the plurality of locations Observation device. 前記表示手段は、前記第1の合成画像及び前記第2の合成画像を表示するとを特徴とする請求項2に記載の観察装置。 The display means, the observation apparatus according to claim 2, wherein a call to display the first composite image and the second composite image. 前記標本画像の特性値の閾値を設定する閾値設定手段をさらに備え、
前記合成画像生成手段は、前記選択手段により選択された画像の中から前記閾値設定手段により設定された閾値に応じて、対応する領域を除外して前記第1の合成画像を生成することを特徴とする請求項1〜3のいずれか1項に記載の観察装置。
Further comprising a threshold setting means for setting a threshold value of the characteristic value of the sample image;
The composite image generation unit generates the first composite image by excluding a corresponding region from the images selected by the selection unit according to a threshold set by the threshold setting unit. The observation apparatus according to any one of claims 1 to 3.
前記除外された前記対応する領域を所定色またはテクスチャで補完することを特徴とする請求項4に記載の観察装置。 Observation apparatus according to claim 4, characterized in that to complement the excluded the corresponds to regions with a predetermined color or texture.
JP2013112022A 2013-05-28 2013-05-28 Observation device Active JP6238574B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013112022A JP6238574B2 (en) 2013-05-28 2013-05-28 Observation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013112022A JP6238574B2 (en) 2013-05-28 2013-05-28 Observation device

Publications (2)

Publication Number Publication Date
JP2014232166A JP2014232166A (en) 2014-12-11
JP6238574B2 true JP6238574B2 (en) 2017-11-29

Family

ID=52125600

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013112022A Active JP6238574B2 (en) 2013-05-28 2013-05-28 Observation device

Country Status (1)

Country Link
JP (1) JP6238574B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6750194B2 (en) * 2015-06-19 2020-09-02 ソニー株式会社 Medical image processing apparatus, medical image processing method, and medical observation system
WO2017110653A1 (en) * 2015-12-22 2017-06-29 オリンパス株式会社 Microscope system

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010121955A (en) * 2008-11-17 2010-06-03 Olympus Corp Height information acquisition device, height information acquisition method, and program
JP2010209806A (en) * 2009-03-10 2010-09-24 Toyota Motor Corp Internal combustion engine
JP2012120080A (en) * 2010-12-03 2012-06-21 Chuo Univ Stereoscopic photography apparatus
JP5197785B2 (en) * 2011-03-30 2013-05-15 キヤノン株式会社 Image processing apparatus, imaging system, and image processing system
JP5846844B2 (en) * 2011-10-14 2016-01-20 株式会社キーエンス Magnifying observation device
JP5705096B2 (en) * 2011-12-02 2015-04-22 キヤノン株式会社 Image processing apparatus and image processing method

Also Published As

Publication number Publication date
JP2014232166A (en) 2014-12-11

Similar Documents

Publication Publication Date Title
US8922639B2 (en) Microscope system
US8982457B2 (en) Microscope system and illumination intensity adjusting method
JP4843002B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND COMPUTER PROGRAM
JP2015022716A (en) Image processing system, image processing method, image processing program and imaging apparatus
US10136067B2 (en) Observation apparatus providing an enlarged display for facilitating changing an image-pickup condition
JP4730478B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM
JP5875813B2 (en) Microscope system
US10613313B2 (en) Microscopy system, microscopy method, and computer-readable recording medium
JP5047764B2 (en) Microscope imaging device
CN110967820B (en) Microscope system control method, microscope system, and recording medium
JP5893314B2 (en) Display device and microscope system
JP2017216592A (en) Imaging apparatus, control method, and program
JP2005114859A (en) Microscope
US10721413B2 (en) Microscopy system, microscopy method, and computer readable recording medium
JP6300974B2 (en) microscope
JP6238574B2 (en) Observation device
CN114830628B (en) Image making method
US20160274347A1 (en) Microscope system
JP6253509B2 (en) Image display method, control device, microscope system
JP5860649B2 (en) Microscope system
JP5904737B2 (en) Microscope system
JP5893315B2 (en) Microscope system
JP5539820B2 (en) Imaging apparatus, imaging method, and imaging program
JP6013100B2 (en) Imaging apparatus and microscope system
JP2013072995A (en) Microscope system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160502

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170307

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170427

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171010

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171031

R151 Written notification of patent or utility model registration

Ref document number: 6238574

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250