JP4434376B2 - Microscope image transfer system - Google Patents

Microscope image transfer system Download PDF

Info

Publication number
JP4434376B2
JP4434376B2 JP27129499A JP27129499A JP4434376B2 JP 4434376 B2 JP4434376 B2 JP 4434376B2 JP 27129499 A JP27129499 A JP 27129499A JP 27129499 A JP27129499 A JP 27129499A JP 4434376 B2 JP4434376 B2 JP 4434376B2
Authority
JP
Japan
Prior art keywords
image
microscope
stage
mesh
autofocus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP27129499A
Other languages
Japanese (ja)
Other versions
JP2001091846A (en
Inventor
修二 中川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP27129499A priority Critical patent/JP4434376B2/en
Priority to KR1020017006095A priority patent/KR20010092740A/en
Priority to PCT/JP2000/006475 priority patent/WO2001022147A1/en
Priority to CNB008019886A priority patent/CN100442099C/en
Priority to TW089119679A priority patent/TW513582B/en
Publication of JP2001091846A publication Critical patent/JP2001091846A/en
Application granted granted Critical
Publication of JP4434376B2 publication Critical patent/JP4434376B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/24Base structure
    • G02B21/26Stages; Adjusting means therefor
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/24Base structure
    • G02B21/241Devices for focusing
    • G02B21/242Devices for focusing with coarse and fine adjustment mechanism
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • G02B21/365Control or image processing arrangements for digital or video microscopes

Description

【0001】
【発明の属する技術分野】
この発明は顕微鏡による観察像を静止画として伝送する顕微鏡画像転送システムに関わり、特に病理標本を遠隔で観察するテレパソロジーシステムで利用されるものである。
【0002】
【従来の技術】
従来、顕微鏡静止画像伝送システムは、例えば病理医の顕微鏡TV画像を用いた遠隔病理診断に利用されている。そして、顕微鏡静止画像観察システムにより、病理診断や生物学における組織標本の観察を行う場合には、まずスライドガラス上のどの位置にどのような大きさ、形状、色彩の観察対象が載っているかを把握することが、見落としの無い効率の良い観察を行うために重要であるとされている。
【0003】
このようにスライドガラス上の標本全体像を把握するためには、検鏡に入る前に肉眼又は拡大鏡で観察するのが一般的であり、顕微鏡最低対物で観察できないような標本においては、巨視的映像撮影手段を用いたりする。
【0004】
特開平6−3597では、病理医(観察者)の顕微鏡下での観察手法をTV観察システムに組込む提案であり、標本全体像を撮影する巨視的映像撮影手段と、画像領域の指定を行うポインティング手段により、巨視的映像撮影手段で撮影された標本の全体像をポインティング手段で画像領域をブロック化し、顕微鏡の電動ステージを設定し、順次撮影する顕微鏡静止画像観察システムが考案されている。
【0005】
特開平6―222281では、標本全体像に顕微鏡低倍率の視野に相当するフレーム(ブロック)を複数箇所指定し、フレーム(ブロック)により指定された箇所(ステージ位置)の顕微鏡画像を取り込むよう制御する。この画像撮り込み指定位置を遠隔地の観察者側(病理医側)で指示できる提案がされている。観察者側(病理医側)は、スライドガラス上の標本全体像(マクロ像)を依頼者側端末から静止画で受信した後、このマクロ像を均等に分割して拡大指定フレームを指示することも提案されている。このマクロ像を均等に分割して拡大指定フレームを指示することをここでは、メッシュ分割指定と呼ぶ。また、依頼者の手作業をなくすために、オートフォーカス機能を有する顕微鏡を使用することも提案されている。本提案において単一のフレームで拡大指定枠を示すものを「スポット」、マクロ像を均等に分割して拡大指定フレームを複数指示するものを「メッシュ」として表現する。
【0006】
すなわち、従来の顕微鏡静止画像伝送システムは、顕微鏡ステージ上の標本像をTVカメラに取り込んだ後、コンピュータの画像をキャプチャボードで撮り込み、画像をデジタル化し、ISDNなどの公衆回線を通じて、遠隔のコンピュータにデータ転送し、画像表示する顕微鏡画像転送システムが知られている。遠隔のコンピュータからも顕微鏡を操作し、倍率の変更やステージの移動も可能である。
【0007】
【発明が解決しようとする課題】
本発明で注目した点は、スライドガラスの標本全体像(マクロ像)から顕微鏡低倍率の視野に相当する拡大指定フレームを複数箇所指定するメッシュ指定を行ない、所望の顕微鏡画像を取得する時の改善にある。
【0008】
上述した従来技術では、いずれも巨視的画像を撮影する手段でスライドガラス上の標本全体像(マクロ像)を撮影し、ポインティング手段により矩形枠(フレーム(ブロック))を所望の位置に複数設定(メッシュ分割指定)し、矩形枠(フレーム)により指定された箇所の顕微鏡画像を制御し、依頼者の手作業をなくすために、オートフォーカスを用いること等が記載されている。しかしながら、メッシュ指定画像を全て撮り込むまでの時間や撮り込んだ画像に対してフォーカス位置の正しさまでは触れていない。
【0009】
遠隔病理診断、特に手術中診断においては、観察者(病理医)が診断できるレベルの画像を最短の時間で依頼者側(病理医のいない施設)から観察者側(病理医側)に転送しなければならない。従って複数のメッシュ画像について個々に合焦位置を手作業で得るのは手術中診断では時間がかかり過ぎるという問題がある。また、複数のメッシュ画像のうちのいずれか1つの画像についてオートフォーカスを実行し、残りのすべての画像についてその最初に得られた合焦位置を用いて撮像することも考えられるが、光軸に対するZステージの変位や標本の厚み等の違いにより合焦位置の正しい画像を取得することは困難であった。
【0010】
この発明は上記実情に鑑みてなされたものであり、その目的は、遠隔地の観察者側(病理医側)が、スライドガラスの標本全体像(マクロ画像)上からメッシュ分割指定を行ない、このメッシュ指定のフレーム位置の顕微鏡画像を撮り込むよう依頼者側(病理医のいない方)に指示したときに、全てのメッシュ指定画像が短時間で合焦位置の正しい画像を取得することのできる顕微鏡画像転送システムを提供することである。
【0011】
【課題を解決するための手段】
請求項1に記載の静止画像上で所望の倍率で拡大画像撮り込みが指定可能な顕微鏡画像転送システムにおいて、静止画像上で拡大指定枠領域の輝度情報を記憶する輝度情報記憶手段と、顕微鏡XYステージの変位に伴うZ方向の位置を補正するZ方向位置補正手段と、静止画像上で拡大画像撮り込み前に、オートフォーカス実行可能か否かを判断するオートフォーカス実行可否判断手段と、前記オートフォーカス実行可否判断手段によりオートフォーカス実行可能と判断したとき、顕微鏡XYステージのXY位置と顕微鏡XYステージのZ位置を記憶するXYZ位置記憶手段と、前記オートフォーカス実行可否判断手段によりオートフォーカス実行不可と判断したとき、前記XYZ位置記憶手段に記憶された前回の顕微鏡XYステージのZ位置を復元するZ位置復元手段とを有することを特徴とする。
【0012】
また、請求項2に記載の静止画像上で所望の倍率で拡大画像撮り込みが指定可能な顕微鏡画像転送システムにおいて、オートフォーカス可能な位置に顕微鏡XYステージをXYに移動する手段と、前記顕微鏡XYステージのXY移動後にオートフォーカスを実行制御する手段と、オートフォーカス実行後に前記XYステージの位置を移動前の位置に復元する手段と、前の顕微鏡XYステージの位置を移動前の位置に復元後に画像撮り込みを制御する手段とを有する。
【0013】
また、請求項3に記載の静止画像上で所望の顕微鏡倍率で拡大画像撮り込み指定可能な顕微鏡画像転送システムにおいて、複数の各画像撮り込み指定枠から最初にオートフォーカスを実行する箇所を自動的に選択する手段を有することを特徴とする。
【0014】
この発明の顕微鏡画像転送システムによれば、顕微鏡XYステージの変位に伴うZ方向位置補正手段により顕微鏡XYステージをXYZの方向で制御を行ない、顕微鏡XYステージの位置と顕微鏡XYステージのZ位置をXYZ位置記憶手段により記憶する。次いで、顕微鏡XYステージのZ位置を復元する手段により、前回位置情報の呼出し、顕微鏡XYステージのXYZ移動を行う。静止画像上で拡大指定枠領域の輝度情報を記憶する輝度情報記憶手段は静止画像上で拡大指定枠領域の輝度情報を記憶する。静止画像上で拡大画像撮り込み前に、オートフォーカス実行可否判断手段でオートフォーカス実行可能か否か判断し、オートフォーカス実行可能と判断したとき、最適な箇所でオートフォーカスを実行する。また、オートフォーカス実行可否判断手段でオートフォーカス実行不可と判断したとき前記XYZ位置記憶手段に記憶された前回の顕微鏡XYステージのZ位置をZ位置記憶手段で復元し、エラー復帰を自動で行ない、オートフォーカスエラーの発生する確率を削減する。
【0015】
さらに、標本が存在する位置に顕微鏡XYステージを移動した後光軸上に標本がなくてもオートフォーカス実行後に顕微鏡XYステージの位置を移動前の位置に復元する手段により顕微鏡XYステージをXY移動してオートフォーカスを実行制御する手段により最適なZ位置での画像取得を可能にすることで、いかなるメッシュ拡大指定画像であっても最適なZ位置での画像を取得可能にしている。
【0016】
複数の拡大画像撮り込み指定枠(メッシュ指定枠)から最初にオートフォーカスを実行する箇所を自動的に選択する手段により、観察者側(病理医)の操作を簡単にすることができる。
【0017】
【発明の実施の形態】
以下、図面を参照して本発明の実施形態を詳細に説明する。
【0018】
図1はこの発明に関わる顕微鏡画像転送システムの概略図である。顕微鏡907には、電動ステージ909と電動レボルバ908を備え、さらにビデオカメラ906を備えている。また、同顕微鏡907には、図示しないオートフォーカスユニット、調光機能、電動絞り機能等を備えることも可能である。図1に示す例では、顕微鏡操作ユニット913とパーソナルコンピュータ等で実現される依頼側端末905を接続し、依頼側端末905から顕微鏡操作ユニット913に操作データを転送することにより、顕微鏡の電動部位である対物制御、オートフォーカス(AF:Auto Focus)制御、Z方向微動、調光制御、電動絞り機能等を可能にする。なお、電動機能を有しない手作業による顕微鏡であってもよい。依頼側端末905内には、図示しないビデオキャプチャ機能を有しており、前記ビデオカメラ906の画像出力と接続する端子も備えている。依頼側端末905およびパーソナルコンピュータ等で構成される観察側端末901内には画像等の情報を記憶する記憶媒体を備える。依頼側端末905あるいは観察側端末901の周辺機器としてMO等の記録装置を備えても良い。依頼側端末905にはモニタ904が接続され、このモニタ上で顕微鏡画像やマクロ撮影装置画像が観察可能である。
【0019】
さらに、画像情報等の情報を公衆回線で伝送するための回線接続装置910a、910bを備え、この回線接続装置910a、910bはそれぞれ観察側端末901および依頼側端末905とのインターフェース回路を有する。依頼側端末905と観察側端末901は回線接続装置910a、910bとISDN等の公衆回線903を介して接続される。なお、公衆回線の代わりにローカルエリアネットワーク(LAN)を用いてもよい。
【0020】
病理診断を遠隔で行うテレパソロジーシステムにおいては、病理医(観察者)のいない施設の端末を依頼側端末905とし、病理医(観察者)のいる施設の端末を観察側端末901とする。通常依頼者側には、スライドガラス上の標本全体像を撮影するマクロ撮影装置911や標本全体像から拡大観察する顕微鏡907を備える。観察者側にはマクロ撮影装置や顕微鏡等は通常不要であるが、これらを観察側端末901に接続していてもよい。
【0021】
図2はテレパソロジーシステムにおける操作シーケンスをフローチャートで示したものである。まず、顕微鏡のある依頼者側が観察者側に検査してほしいスライドガラス上の標本の全体像(以下マクロ像と呼ぶ)をマクロ撮影装置911を用いて撮り込む(S1001)。その際、観察者側は依頼者側から送信されたマクロ像を受信できるように観察側端末901を立ち上げておく(S1009)。マクロ像が顕微鏡の低倍対物により観察できるようであれば、マクロ撮影装置を使うまでもなく、顕微鏡下にスライドガラスを置き、最適な顕微鏡対物倍率で画像を撮り込んでも構わない。また、顕微鏡下で顕微鏡対物を最低倍率に設定し、視野を考慮したステージ移動を行ったのち順次画像を撮り込み、これらの画像を貼り合わせることでマクロ像を作成することも可能である。
【0022】
マクロ撮影装置911のビデオカメラ914で撮像したマクロ像は、依頼側端末905内のビデオキャプチャボード(図示しない)を介して、フレームメモリに順次記憶し、依頼側端末905のモニタ904上に表示する。マクロ像を取り込むトリガは任意のスイッチ(SW)により行われ、依頼側端末905のモニタ904上に表示したアプリケーションソフト上に設けられた操作用のSWボタンをマウスクリック等のイベントで認識したり、図示しない外部操作パネルのSWで選択することで行う。依頼側端末905はマクロ像を取り込むと観察側端末901に回線接続要求を出す(S1002)。この回線接続要求は、回線接続装置910a、910bを介してISDNなどの公衆回線903経由でデジタルデータを観察側端末901に転送する。観察側端末901は回線接続要求を受信すると、接続要求処理を行う(S1010)。この接続処理は、接続先相手を認識し、問題なければ接続許可を接続先相手に返す。回線接続処理が確立すると、依頼側端末905は、マクロ像と初期設定データを観察側端末901に送信する(S1003)。初期設定ファイルには、依頼側端末905に接続しているハードウエア情報(顕微鏡、マクロ装置、TVカメラ種別等)が含まれる。これらのデータを観察側端末901が受信した後(S1011)、操作権を依頼側端末905から観察側端末901に渡す(S1004、S1012)。操作権とは、顕微鏡やステージの制御や画像撮り込み指定などの操作をする権利のことを示す。なお、この操作権の変更は、自動的に回線接続が確立したところで行っても良いし、また端末のモニタ上に表示したアプリケーションソフト上の操作用のボタンを依頼者が任意のタイミングでマウスクリック等により切り替えてもよい。図1の例では、マクロ像を依頼側端末905が撮り込んだ後に操作権を観察側端末901に渡している。
【0023】
観察者(病理医)は、マクロ像で送られた画像から注目したい位置を見つけるために、顕微鏡の低倍対物で観察する(S1013、S1014)。通常、マクロ像画像の全領域をくまなく観察するために、拡大指定枠方法として、メッシュ撮り込み指定を選択する(S1015)。メッシュ撮り込み指定とは、図13に示すように標本を格子上に分割して拡大位置を指定することである。図3の例ではM0乃至M8がメッシュ撮り込み指定であり、ステージ移動精度も考慮し撮り込んだ画像が重複するように指定している。倍率指定とメッシュ撮り込み指定は、観察側端末901の任意のキーボード(図示せず)に割り当ててもよい。
【0024】
メッシュ撮り込み指定は、観察側端末901のモニタ902上で静止画像を確認しつつ、マウス操作でメッシュ撮り込み始点指定と終点指定を行うことによりメッシュ指定エリアを決め、このエリアの中に拡大指定枠を自動的に位置決定し静止画上にオーバーレイ表示する。または、自動的に標本が存在する位置を認識し、効率的にメッシュ撮り込み指定枠を静止画上にオーバレイしても構わない。ここで、拡大指定枠方法選択でメッシュを選択すると、メッシュ撮り込み指定処理が行われるとともに(S1017)、この拡大指定枠情報を依頼側端末905が受信すると、この情報に基づき依頼側端末905のモニタ904に表示している静止画像(マクロ画像)上にメッシュ撮り込み指定枠をオーバレイ表示する(S1018、S1005)。観察側端末901のモニタ902と依頼側端末905のモニタ904上には同一の拡大指定枠を表示し、同じ画面を共有することができる。
【0025】
また、(S1015)の拡大指定枠方法選択でメッシュが選択されなかった場合、(S1016)に示すようなスポット撮り込み指定が行われる(図3中S0参照)。観察側端末901のモニタ902上でスポット撮り込み指定処理を行う(S1017)と、この拡大指定情報を観察側端末901より依頼側端末905に回線接続装置910aとISDN903と回線接続装置910bを介して送信する(S1018)。依頼側端末905は、この拡大指定枠情報を受信すると、この情報に基づき、依頼側端末905のモニタ904の静止画像上にスポット撮り込み指定枠をオーバーレイ表示する(S1005)。スポット指定は、任意の位置を中心に一箇所拡大指定するものである。スポット処理もメッシュ処理と同様に観察端末901のモニタ902上で静止画像を確認しつつ、マウス操作で拡大位置を指定する。また、このスポット指定とメッシュ指定の拡大指定フレーム枠は、図4に示すように移動可能である。図4では、一度設定した拡大指定フレーム枠を(S0a)から(S0b)の位置に移動する例を示している。この拡大枠指定位置情報は、依頼側端末905と観察側端末901の記録媒体に記録する。
【0026】
拡大指定枠は追加することも可能であり(S1019)、もし追加するようであればフローを戻り、(S1013)から(S1015)までの処理を繰り返し、その位置を決め、拡大指定率も指定変更し、さらに、拡大指定枠方法選択を行う。
【0027】
観察者(病理医)は次に拡大したい位置と倍率が決定し、拡大指定枠を追加する必要が無ければ(S1019)、画像撮り込み要求を観察側端末901から依頼側端末905に画像取り込み要求を送信する(S1020)。
【0028】
画像撮り込み要求を受信した依頼側端末905は顕微鏡操作として、ステージ移動、対物変更、AF実行等を行う(S1006)。ステージ移動は、メッシュあるいはスポットで指定した依頼側端末905のモニタ904上の位置座標をステージ座標位置に変換し、XYステージ制御ユニット912に制御データを観察側端末901から依頼側端末905を介して転送することにより電動ステージ909を移動させる。同様に、対物変更並びにAF実行は、観察側端末901から依頼側端末905を介して顕微鏡操作ユニット913に制御データを送ることにより動作を実行する。
【0029】
電動ステージ909の移動および対物レンズの倍率を電動レボルバ908を制御して変更すると、標本画像情報をビデオカメラ906で撮り込み、さらにこの画像情報を依頼側端末905内のビデオキャプチャボードに入力し、画像を静止画にする。静止画にした画像は、このまま記録媒体に記録しても良いが、画像情報を転送するためにJPEG(Joint Photographic Coding Experts Group)などの形式で画像を圧縮する。圧縮した画像情報は記録媒体に記録される。記録媒体に記録された画像情報は、依頼側端末905から回線接続装置910bに転送し、公衆回線903、回線接続装置910aを介して観察側端末901にデータ転送する(S1007)。
【0030】
依頼側端末905から転送された画像情報を観察端末901が受信すると(S1021)、観察側端末901は受信した画像情報を観察側端末901のモニタ902上に表示する。画像情報がJPEGなどの形式で画像圧縮している場合には、伸張して画像表示する。
【0031】
依頼側端末905は1枚の画像を観察側端末901に転送し終わると、次なる画像撮り込み指定位置が残っているかの判断を行う(S1008)。もし残っていれば、依頼側端末905は、再び顕微鏡操作を行い(S1006)、画像を撮り込み観察側端末901に画像データを送信する。この作業はすべての画像指定位置が無くなるまで行う。観察側端末901は全ての画像を受信し終わると、観察者(病理医)は観察側端末901のモニタ902に表示される画像を見て遠隔観察を行ない診断する(S1022)。このとき画像の連携とマウス位置情報等を操作権のある観察側端末901から依頼側端末905に回線接続装置910aおよび公衆回線903、回線接続装置910bを介して送信する。画像連携情報やマウス位置情報を受信した依頼側端末905は、情報に基づき画像を依頼側端末905のモニタ904に表示し、マウス位置等の情報も連携する(S1024)。診断を終了し観察側端末901から回線切断をする場合、回線切断要求を依頼側端末905に送信する(S1025)。回線切断要求を受信した依頼側端末905は、回線切断処理をする(S1026)。観察側端末901は遠隔観察の後終了の判断を行う(S1023)。さらに、高倍に拡大し、診断を続けたい場合にはロジックはS1013のシーケンスに戻り、倍率指定(S1014)から再度繰り返される。
【0032】
通常、遠隔診断は観察側端末901から行うので、操作権は観察者側にあるが、この操作権を依頼側端末905に任意に切り替えることも可能である。
【0033】
図5は操作権を観察側端末901から依頼側端末905に切り替えて前記拡大指定と画像撮り込みを行う例のフローチャートである。
【0034】
すなわち、図5において、観察側端末901は操作権交代要求を依頼側端末905に送信する(S1101)。依頼側端末905はこの操作権交代要求を受信し操作権を得る(S1106)。以下、ステップS1107乃至S1113は図2のS1013乃至S1019と同様である。さらに、ステップS1114乃至S1119は図2のS1006乃至S1026と同様である。
【0035】
一方、観察側のステップS1102は図2の依頼者側のステップS1005と同様である。又、図5において、観察側のステップS1103乃至S1105は図2のS1021乃至S1025と同様である。
【0036】
以上が概略のテレパソロジーシステムのシーケンス動作である。この発明では、このシーケンス動作のうちS1017のメッシュ指定における顕微鏡操作(S1006)と画像撮り込み(S1007)の処理に関わり、メッシュ指定画像を最適なフォーカス位置で撮り込むことを目的とする。
【0037】
以下、この発明の動作を図6および図7を参照して説明する。
【0038】
図6はマクロ撮影後の静止画状態で、メッシュ指定処理(S1017)を行った時の図を示している。メッシュ指定は、通常マクロ像を取り込んだ後に、標本全領域あるいは標本部分領域を顕微鏡の低倍の対物レンズにより観察できる範囲で格子状に分割して観察する時に使用する。標本全領域をくまなく観察する場合、メッシュ指定した位置すべてにAFを実行すると全ての画像を撮り込むまでに時間を費やしてしまう。AF箇所を一箇所設け、そのZ位置ですべてのメッシュ指定位置の画像データを取得する方が画像撮り込み指定から画像撮り込み終了までの時間が短くなる。しかしながら、AF箇所が1つの場合、すべてのメッシュ指定位置での画像のフォーカスが合っているとは限らない。その原因として、ステージ面精度の問題あるいは標本の厚みによる誤差が考えられる。ここでは、スライドガラスと顕微鏡ステージとの取付けは平行であり、正確に固定されているものと仮定している。ステージの面精度によるフォーカスが合わないという問題を解決するためには以下のようにする。メッシュ撮り込み指定位置変化に応じてステージをXYに移動させるとともに、そのXY移動量に応じてZ方向微動を行う。
【0039】
Z方向微動を行うために事前にステージ移動に伴うZの変動データを顕微鏡の対物レンズ毎に取っておく。図7に示すようにスライドガラスの表面上に格子状にラインを引いた調整用部品を用意する。格子の間隔は、細かく任意に設定しても良いが、調整する顕微鏡の倍率対物視野に応じた大きさにする。初めに顕微鏡の対物レンズをデータを取得するための倍率に変更する。次に、図7のスライドガラスを顕微鏡906の電動ステージ909に載せてスライド座標上X=0、Y=0になるようにステージ移動させる。X=0、Y=0では、ガラスの端になるので、数mm程度スライドガラスの内側にラインが引かれているものとする。この位置でフォーカスが合うように顕微鏡の準焦部を手作業あるいは依頼側端末905から顕微鏡操作ユニット913を制御することによりZ方向微動を行う。フォーカス位置の確認は、ビデオカメラ906を通じて依頼側端末905内のキャプチャボード(図示せず)経由で入力した依頼側端末905のモニタ904上に動画表示した画像を基に行う。フォーカス位置の調整ができると、顕微鏡のZ位置情報を顕微鏡操作ユニット913経由で依頼側端末905に取り込む。このX=0、Y=0のスライド座標位置での顕微鏡Z位置を初期値(Z0)として、依頼側端末905内のメモリ(図示せず)にデータ格納する。
【0040】
次に、X=0、Y=1のステージ座標にステージを移動させ、スライドガラス上のラインにフォーカスを合わせる。
【0041】
フォーカス位置の確認をした後、顕微鏡Z位置情報を取得し、Z初期値Z0との比較を行ない、その比較結果データを依頼側端末905内のメモリ(図示せず)に記憶する。このようにしてスライドガラス上の座標を移動させながら、フォーカスを確認し、フォーカスの合った位置でのZ位置をZ初期値データ(Z0)と比較して各座標毎の比較データΔZを取得し、そのデータを依頼側端末905内のメモリにデータ格納する。その結果を表したのが図8に示す表である。このデータは各対物毎にデータを保持するものである。
【0042】
以上のようにしてスライドガラスを顕微鏡ステージに載せた状態でXY変動に対するZのずれデータを依頼側端末905のメモリ内に記憶する。この補正データを元にXYステージ移動に伴うZ補正を行うが、これを図9のフローチャートを用いて説明する。
【0043】
まずスライドガラス上の標本全体像(マクロ像)を撮影し、モニタ上に表示する(S501)。マクロ像は、通常依頼側端末905を操作してマクロ撮影装置911や顕微鏡907を用いて撮影するものである。。この撮影したマクロ像は静止画状態のRGB各々の輝度情報として依頼側端末905及び観察側端末901のメモリ内に格納する(S502)。メモリは2次元の配列にして(例えばVGAサイズの画像の場合R(iX,iY)に保管(iX=0〜639、iY=0〜479)し、後でデータを取り出しやすくする。次に、メッシュ撮り込み指定領域を指定する。メッシュ撮り込み指定は、通常回線に接続した後に、観察側端末901が行う。もちろん回線を接続していなくても依頼側端末905でメッシュ撮り込み指定もできるし、回線接続状態でも依頼側端末905でもメッシュ撮り込み指定ができる。この領域指定は、各モニタ902、904上で確認しながら静止画像にオーバーレイ表示する(S503)。メッシュ指定した例を図10に示す。マクロ静止画像上にオーバレイ表示したメッシュ位置は、その座標情報を依頼側端末905及び観察側端末901のメモリ内に格納する(S504)。この座標情報は、各メッシュ枠の中心を記憶すればよい。また中心座標のみならず、静止画像の倍率情報と、メッシュ拡大指定の倍率情報を各メッシュ拡大指定枠毎に依頼側端末905及び観察側端末901のメモリ内に格納しておけば、後で再現することもできる。
【0044】
次に最初にAFを実行するメッシュ拡大指定枠の位置をモニタ上で指定する(S505)。このAFを実行するメッシュ拡大指定枠の位置の指定も操作権のある方の端末(依頼側端末905あるいは観察側端末901)のモニタ902あるいは904上に表示されているマクロ静止画像上のメッシュ枠をマウスクリックすることにより行う。当然、このマウスクリック情報は、依頼側端末905と観察側端末901の両者で共有するものである。マクロ像上のメッシュ拡大指定枠のうちどの枠を選択したかわかるように、拡大指定枠の線の太さあるいは、線の色を他のメッシュ拡大指定枠と変えるものとする。最初にAFを指定する位置が決定されると、画像撮り込みを開始する。この画像撮り込みの開始は、操作権のある端末から、図示しないアプリケーション上の操作用のボタンあるいは、端末のキーボードの任意キーを押すことによって行う。
【0045】
依頼側端末905が画像撮り込み開始の指示を認識すると、最初にAFを実行する指定がされているメッシュ位置にステージ移動する(S506)。このステージ移動は、依頼側端末905がXYステージ制御ユニット912に移動コマンドを送ることにより、顕微鏡907の電動ステージ909を指定位置に移動する。ステージ移動量は、モニタ上のメッシュ拡大指定枠位置から実際にステージ座標系とのデータ変換により演算する。
【0046】
最初にAF位置を実行するステージ位置に移動停止した後、AFを実行する(S507)。AF実行は、依頼側端末905が顕微鏡操作ユニット913にAF実行データを送ることにより、顕微鏡907のAFユニット(図示せず)が動作することにより実現する。ここで、AFを実行した後、正常に動作すれば良いのであるが、標本が顕微鏡対物光軸の付近(画面の中心付近)に存在しない場合、AFエラーが発生する場合がある。従ってAFエラーが発生するか否かをチェックする(S508)。このAFエラーは図示しないAFユニットから出力される。AFエラーが発生すると、顕微鏡操作ユニット913から依頼側端末905にAFエラー通知がなされる。このエラーを依頼側端末905が認識した場合、依頼側端末905のモニタ904上にAFエラーが発生したことを示すエラー表示がされる。エラー表示はエラーウインドウとして表示しても良い。また、依頼側端末905を操作している依頼者に合焦位置に顕微鏡のZステージ微動ハンドルを手作業による操作で移動するように指示をする。これで最初のフォーカス位置が決定される。このZ位置を依頼側端末905のメモリ内に記憶するとともに、Z位置を記憶したXYステージ位置座標も記憶する。ステップS508において、AFが正常に動作した場合はZ位置とXYステージ位置座標を操作することなく記憶する(S510)。
【0047】
ステージXYZの移動が終わると、この位置で静止画像の画像撮り込み(キャプチャ)をする(S511)。画像撮り込みは、依頼側端末905がXYステージ及びAF確認を行った後に依頼側端末905に装着しているキャプチャーボードを制御することにより、顕微鏡907の画像をビデオカメラ906を通じて画像撮り込みをする。画像を撮り込んだ後、任意の画像ファイルフォーマットで依頼側端末905のHDなどの記録媒体(図示せず)に画像データを保存する。撮り込まれた画像は、回線接続装置910b、910aと公衆回線903を通じて依頼側端末905から観察側端末901へ転送され、モニタ902に同画像を表示される。
【0048】
最初にAF実行する箇所のメッシュ拡大指定画像を撮り込んだ後に、次のメッシュ拡大指定枠が存在するか否かチェックする(S512)。次のメッシュ拡大指定枠がなければ終了する。次のメッシュ拡大指定枠が存在する場合、次の箇所にXYステージを移動させる(S513)。
【0049】
XYステージを移動させるとともに、XYの移動に応じてZ位置を微動させる(S514)。このZ位置の微動は、図8の表のステージ座標とΔZのデータにもとづいて行う。すなわち、前回のステージ位置が図8の表においてどの座標箇所にあたるかを確認し、その時のΔZをΔZi−1とし、同様に今回のステージ位置が図8の表においてどの座標箇所およびΔZ(ΔZ)になるかを確認する。前回のΔZi−1とΔZの差分((ΔZi−1)−(ΔZ))がXYステージ移動に伴うZ微動量となる。Z微動制御は、依頼側端末905から顕微鏡操作ユニット913にZ微動量データを送ることにより、顕微鏡Zモータを駆動し、Z位置が変化する。
【0050】
電動ステージ909によるXY移動とZ微動制御が終了したことを依頼側端末905が確認すると、依頼側端末905は、AF動作を実行するべきか否かの判断をする(S515)。ステージだけのZのずれだけでなく、標本の厚みによるZ誤差を吸収するために、任意にAFするか否か判断する。この判断処理の詳細は図11に示すフローチャートを参照して後に説明する。AFを実行するべきだという判断(S516)があればAFを実行する(S517)。AFを実行する必要が無ければ(S516)、画像撮り込み処理に戻る(S511)。またAF実行(S517)してエラーが無い場合(S518)、そのZ位置並びにXY座標値を記憶する処理(S510)に戻る。もしAF実行してAFエラーが発生していれば(S518)、顕微鏡操作ユニット913から依頼側端末905にエラーが通知される。このエラーを依頼側端末905が認識した場合、前回画像を撮り込んだ位置のZ位置を依頼側端末905のメモリ内(図示せず)から呼出し、このZ位置データを顕微鏡操作ユニット913に転送することにより、自動的に最良なZ位置に復帰する。この時依頼側端末905にはエラー表示および手動でZ微動操作することを要求したりしない。自動的に前回Z位置に移動後(S519)、画像撮り込み処理(S511)に戻る。
【0051】
次に、AF実行すべきか否かを判断するフローチャートを図11を参照して説明する。
【0052】
最初に前回のステージ位置と今回のステージ位置がどの位の移動差があれば、AF実行するか否かの判断基準の移動差基準データ(XYrefth)を閾値として設定する(S601)。この移動差基準データ(XYrefth)は、任意に初期設定で決められるようにしておく。また、移動差基準データ(XYrefth)は、対物レンズの開口数(NA:Numerical Aperture)から焦点深度を求め、この焦点深度をカバーできないXY移動に伴うZ変位のときのXY移動量をプリセットデータとして持っても良い。移動差基準データ(XYrefth)は依頼側端末905内のメモリ内に格納しておく。次に今回のメッシュ拡大指定枠のステージXY座標位置と前回AFを実行したステージXY座標位置の差分を取り、その差分をXYref(S602)とする。前回AFを実行したステージXY座標は、依頼側端末905のメモリ内に格納されている。XYrefとXYrefthとの比較を行う(S603)。前回AF実行したステージXY座標位置との差分XYrefが移動差基準データ(XYrefth)より小さければ、AF実行しなくてもよい(S619)。逆に前回実行したステージ座標位置との差分XYrefが移動差基準データ(XYrefth)より大きければ、さらにAFを実行しても良いかを確認する処理へと移行する。AFを実行しても良いかのチェックは、画像の中心付近(光軸中心付近)に標本が存在するか否かの判断をする。これは、光軸の中心付近に標本が存在しない場合、AFが正常動作しない可能性があるからである。ステップS605以降のフローチャートは、次に拡大したい座標位置の光軸の中心付近に標本が存在するか否かを静止画像状態で判断する処理を表している。動画状態でも、光軸中心付近に標本が存在することは判断できるが、この発明では、拡大画像を得る前の静止画像のメッシュ拡大指定枠を決めた状態で予め拡大像を取り込む前に、光軸付近に標本が存在するか否かを予測する。
【0053】
まず、標本が存在するか否かを判断する基準として、静止画像のRGBの輝度情報を用いる。この静止画像状態でのRGB各々の輝度情報は、ステップS502ですでに依頼側端末905のメモリ内に格納されている。ステップS604では、標本として認識する輝度閾値(Gth)を決定するとともに、ステップS605で標本像認識チェック用カウンタをクリアする。この標本認識用の輝度閾値は初期データとして任意のファイルに格納しておき、使用するときにこのファイルからデータを取り出し、依頼側端末905のメモリ内に格納する。次に標本像として認識するには、1画素だけでは判断しかねるので、中心付近の画素データの範囲を決めて前記輝度閾値(Gth)と比較する必要がある。ステップS606とS607では、静止画像状態でチェックをするXY座標値の範囲を決定している。まず、X座標のチェックする範囲を決める。図10はスライドガラス上の標本全体像(マクロ像)を撮り込み後、メッシュ拡大指定枠をマクロ像静止画像の上にオーバーレイ表示している状態である。図10のImageWidthとImageHeightは、静止画像の幅、高さを示してあり、VGAサイズでは、640X480ピクセルであり、(ImgXmax, ImgYmax)=(639,479)となる。(1)から(18)のフレームは、メッシュ拡大指定枠であり、現表示倍率と次の拡大指定倍率によりその幅(FrameWidth)、高さ(FrameHeight)が決まる。
【0054】
FrameWidth=ImageWidth×(現表示倍率/次の指定倍率)
FrameHeight=ImageHeight×(現表示倍率/次の指定倍率)
図12は図10におけるメッシュ拡大指定枠のうち(10)の枠を拡大表示したものである。図12の(Xmin, Ymin)〜(Xmax, Ymax)は、AFを実行しても中心付近に標本が存在するかを評価する領域である。図12の(Xic, Yic)は、図10の画像左上を(0、0)としたときのメッシュ拡大指定枠(10)の中心座標を表す。
【0055】
X座標領域を決定するフローチャートを図13に、Y座標領域を決定するフローチャートを図14に示す。
【0056】
まず、X座標領域を決定するフローチャートを説明する。まず、図10の全体画像から見たメッシュ拡大指定枠の中心座標(Xic、Yic)を検出する(S701)。各メッシュ拡大指定枠の中心座標は、依頼側端末905のメモリ内(図示せず)から取り出す。その中心座標から標本が存在するか否かのチェックをするため以下の式に基づきX領域の指定を行う(S702)。
【0057】
Xmin=Xic-FrameWidth/n
Xmax=Xic+FrameWidth/n
nの値は初期設定において任意に変更可能である。
【0058】
同様にしてY領域においても、図10の全体画像から見たメッシュ拡大指定枠の中心座標(Xic、Yic)を検出し(S801)、標本が存在するか否かのチェックをするため以下の式に基づきY領域の指定を行う(S802)。
【0059】
Ymin=Yic-FrameHeight/m
Ymax=Yic+FrameHeight/m
mの値は初期設定において任意に変更可能である。
【0060】
以上のようにして標本が存在するか否かをチェックする領域を決定する。標本が存在するか否かは、各画素の輝度情報と前記ステップS604で決定した輝度閾値(Gth)との比較により行う。ここで各画素の輝度情報は3種類あるが、図9のフローチャートの例では、G情報だけで行う。もちろんRGB3つの輝度情報を用いて各々輝度閾値Rth、Gth、Bthを持ち、それぞれを比較し、総合的に判断してもよい。
【0061】
標本が存在するか否かを判断する領域内での各画素のGdata(X,Y)輝度情報とステップS604で決定した輝度閾値(Gth)との比較を行ない、最終的にAFを実行しても良いか否かの判断する処理のフローチャートをステップS608以降に示す。
【0062】
まず、初期座標を設定する(S608)。ここで、X、Yは変数であり、依頼者側端末905のメモリ(図示せず)に格納する。初期値は前述したチェック座標領域の初期座標であり、X=Xmin, Y=Yminとする。
【0063】
このX、Y座標におけるG輝度情報(Gdata(X、Y))を依頼側端末905のメモリ(図示せず)に格納する。初期値は前述したチェック座標領域の初期座標であり、X=Xmin、Y=Yminとする。
【0064】
このX、Y座標におけるG輝度情報(Gdata(X、Y))を依頼側端末905のメモリ(図示せず)から取り出す(S609)。この輝度情報(Gdata(X、Y))と輝度閾値(Gth)との比較を行う(S610)。
【0065】
もしG輝度情報(Gdata(X、Y))の値の方が輝度閾値Gthの値より小さければ(S611)標本像が存在すると判断し、ステップS605でクリアした標本像認識チェック用カウンタをインクリメント(S612)し、依頼側端末905のメモリ(図示せず)に格納する。もしG輝度情報(Gdata(X,Y))の値の方が輝度閾値(Gth)の値より大きければ(S611)標本像が存在しないと判断し、標本像認識チェック用カウンタ(ChkCounter)は変化しない。次に、X座標を1画素分インクリメントする(S613)。このときX座標がS606で決定した領域外になるか否かの判断をする(S614)。X座標が領域内に入っているならばS609の輝度情報と輝度閾値の比較を行う処理に戻る。X座標が領域外になる場合(S614)、X座標を初期値(X=Xmin)とし、Y座標を1画素分インクリメントする(S615)。Y座標をインクリメントした後、そのY座標が領域外になるか否かの判断をする(S616)。Y座標が領域外にならない場合には、再びS609の輝度情報と輝度閾値を比較し標本像が存在するか否かの判断する。Y座標インクリメントして、そのY座標が領域外になる場合、標本像が存在するか否かの判断をする領域すべてのチェックを終了したことになる。次に、比較用データ(ChkCounterMin)の値を以下の式に基づき設定する(S617)。
【0066】
ChkCounterMin=((Xmax-Xmin)×(Ymax-Ymin))/2
上記式では、標本が存在するか否かを判断する領域の半分とするために2で割っているが、任意の値にしても構わない。
【0067】
次に最終的中心付近に標本像が存在するか否かを判断する(S618)。標本像認識カウンタ(ChkCounter)が比較用データ(ChkCounterMin)以上であればその領域に標本像が存在すると判断できる。その比較用データ(ChkCounterMin)以上であれば、その領域に標本像が存在すると判断できる。
【0068】
標本像認識カウンタ(ChkCounter)と比較用データ(ChkCounterMin)との比較を行ない、標本像認識カウンタの方が大きければAF実行可能と判断し(S620)、小さければAF実行不可として判断する(S619)。
【0069】
以上のようにして、標本像が画像の中心付近に存在するか否かを判断し、静止画像状態でAF実行可能か否か判断することができる。
【0070】
次にこの発明の第2実施形態について説明する。
【0071】
実施形態1では、メッシュ拡大指定枠の中心付近に標本像が存在するか否かをチェックし、AFを実行しても良いかを判断していたが、図15に示すように中心付近に標本像が存在しなくても中心付近以外に全領域にわたり標本像が存在する場合がある。例えば、図15に示すように、標本1501をスライスしたときに、穴1503が空いたような場合が考えられる。このような場合において、実施形態1の図11のフローチャートの例では、AF実行不可になる(S619)。第2実施形態では、このAF実行不可と判断した後に再度AF実行チェックする処理が行われる。
【0072】
図15のAFChkAria(a)は図11のフローチャートで拡大指定枠の中心付近に標本が存在するかチェックした領域である。確かに中心付近に標本は存在しないが、AFChkAria(b)を画像の中心(光軸中心)としてAF実行すれば、AFエラーが発生しないはずである。
【0073】
図16のフローチャートを用いてS619でAF実行不可と認識した後のAF実行再チェックについて説明する。まず、標本像として認識する基準のための輝度閾値(Gth)を設定し、依頼側端末905内のメモリに格納する(S1501)。そしてチェックをする座標の初期値を設定する(S1502)。(Xic,Yic)は図10のようなマクロ像からメッシュ拡大指定枠を表示したときの任意のメッシュ拡大指定枠の中心座標である。FrameWidthとFrameHeightは、メッシュ拡大指定枠の幅と高さである。
【0074】
次に、標本像が存在するか否かを判断するためのチェック用カウンタをクリアする(S1503)。次にXY座標を変化させながら、個別画素におけるG輝度情報(Gdata(X,Y))を取得し、その輝度情報とS1501で決定した輝度閾値(Gth)との比較を行う(S1504)。もし輝度閾値(Gth)より小さければチェック用カウンタをインクリメントする(S1505)。すなわち、一般に輝度レベルは白色が一番高い。標本1501に穴1503が空いていれば、G輝度情報(Gdata(X,Y))は輝度閾値(Gth)よりも大きくなる。逆に、標本が存在すれば、G輝度情報(Gdata(X,Y))は輝度閾値(Gth)よりも小さくなる。そして、X座標をインクリメントし次の座標を準備する(S1506)。ステップS1507において、X座標がメッシュ拡大指定枠内の領域に入っていれば、ステップS1504の処理に戻る。逆に、ステップS1507において、X座標をインクリメントした後にメッシュ拡大指定枠になれば、Y座標をインクリメントし、かつX座標を初期値に戻す(S1508)。Y座標がインクリメントした後にメッシュ拡大指定枠の領域外になっていないかをチェックする(S1509)。領域内であれば、ステップS1504の処理に戻る。
【0075】
すべてのXY座標をチェックし終わるとメッシュ拡大指定枠内で標本が存在する画素数比率を以下の式に基づき算出する(S1510)。
【0076】
PicRate=(ChkCounter/FrameWidth×FrameHeight)×100
PicRateが60%以下であれば、中心付近には標本が存在しないものの、中心以外の領域で標本が存在すると判断する(S1511)。この60%という数字は任意に変更できるものとする。中心以外の領域で標本が存在することを確認後、標本が存在する位置にステージを移動させる(S1512)。
【0077】
標本が存在する位置は、中心座標を数ピクセル移動させながら、標本像が連続的に存在するか否かを探すことにより判断できる。
【0078】
ステージ移動することで、光軸の中心付近に標本画像がある位置に移動し、この位置でAFを実行する(S1513)。AFエラーが発生した場合には、Z位置を前回のメッシュ拡大指定枠撮り込みしたZ位置に戻す。Z移動が完了すると現Z位置とXY座標値を依頼側端末905のメモリ内に記憶した後(S1514)、ステージ位置を元の位置(Xic,Yic)に戻す(S1515)。
【0079】
以上のように、中心付近に標本像が無く、AF実行ができないと判断した後でも、中心付近以外の領域で標本が存在する領域が多いと判断する場合には、標本像が存在する位置にステージを移動させ、この位置でAFを実行した後、再び元のステージ位置に戻すことにより、合焦位置の正しいメッシュ撮り込み指定画像が取得できる。
【0080】
次に、この発明の第3実施形態について説明する。
【0081】
実施形態1では、図9のフローチャートのステップS506において、最初にAFを実行するメッシュ指定枠位置をモニタ902、904上で指示する例を示したが、実施形態3では、この最初にAFを実行するメッシュ指定枠位置を自動で指定する例を示す。
【0082】
図17はこの発明の第3実施形態の処理を示すフローチャートである。
【0083】
マクロ像を撮影した後に静止画像上でメッシュ拡大指定枠を指示する。この指示が終了したときに、最初にAFを実行するメッシュ拡大指定枠を自動的に決定処理する。
【0084】
まず、メッシュ拡大指定枠の個数をチェックする(S1601)。メッシュ拡大指定枠個別の標本像認識画素数データを持つために標本像チェック用カウンタを配列データとして持つとともに(S1602)、配列データの中身をクリアしておく。メッシュ拡大指定枠毎に標本像存在チェックをする(S1603)。標本像チェックは、上述したように輝度閾値データと各画素の輝度情報の比較により判断する。そして標本像として認識した画素数をChkCounter(i)に記憶する。iは任意のメッシュ拡大指定枠番号を示す(図10では、(0)〜(19)の番号)。すべてのメッシュ拡大指定枠の標本像チェックが終了したならば、標本像チェック用カウンタの値が大きいものから順に並べる(S1604)。並べた順番は、別の変数として記憶しておく。次に標本像チェック用カウンタ値の大きいものから、順に中心付近に標本が存在するか否かを判断する(S1605)。中心付近に標本が存在するか否かの判断は、中心座標に対応する、ステップS1602において記憶した配列データを調べることにより行うことができる。中心付近に標本像が存在しないと判断した場合には(S1606)、再度S1605に戻り、次に標本像チェック用カウンタ値の大きいメッシュ拡大指定枠を取り出し、中心付近に標本像が存在するか否か判断する。中心付近に標本像が存在すれば、最初にAFを実行する位置として記憶する(S1607)。
【0085】
以上のようにして、複数のメッシュ拡大指定枠の中から最も標本像として認識できる画素数を持ち、かつ中心付近に標本像が存在する箇所を最初にAFする位置として自動的に認識できる。
【0086】
【発明の効果】
この発明によれば、顕微鏡画像の遠隔観察において、初期観察画像における観察領域の指定(メッシュ分割)後の画像撮り込み時間を短縮かつ合焦位置が正しい画像観察できる顕微鏡画像転送システムを提供することができる。
【図面の簡単な説明】
【図1】この発明が適用される顕微鏡画像転送システムの概略図。
【図2】テレパソロジーシステムの基本操作を示すフローチャート。
【図3】メッシュ撮り込み指定枠とスポット撮り込み指定枠の説明図。
【図4】拡大指定枠の移動を説明する図。
【図5】テレパソロジーシステムの操作権が依頼側にあるときの基本操作を示すフローチャート。
【図6】この発明の実施形態において、マクロ撮影後の静止画状態において、メッシュ指定処理を行ったときの図。
【図7】この発明の実施形態において、ステージXY移動に伴うZ補正データを取得することを説明するための図。
【図8】この発明の実施形態において、フォーカスの合った位置でのZ位置をZ初期値データと比較して得られる各座標毎の比較データΔZを示す表。
【図9】この発明の実施形態において、メッシュ画像撮り込み処理を示すフローチャート。
【図10】この発明の実施形態において、標本像位置にメッシュ分割位置を設定することを表す図。
【図11】この発明の実施形態において、オートフォーカス動作実行可否のチェック処理を示すフローチャート。
【図12】この発明の実施形態において、メッシュ分割画面からAF実行を判断する領域を説明する図。
【図13】この発明の実施形態において、オートフォーカス実行判断をするX領域を決定する処理を示すフローチャート。
【図14】この発明の実施形態において、オートフォーカス実行判断をするY領域を決定する処理を示すフローチャート。
【図15】この発明の第2実施形態において、オートフォーカスチェックエリアの変更を説明する図。
【図16】この発明の第2実施形態において、オートフォーカスを再チェックするフローチャート。
【図17】この発明の第3実施形態において、オートフォーカスを実行する箇所を説明する図。
【符号の説明】
901…観察側端末
902…モニタ
903…ISDN
904…モニタ
905…依頼側端末
906…ビデオカメラ
907…顕微鏡
908…電動レボルバ
909…電動ステージ
910a、910b…回線接続装置
911…マクロ撮影装置
912…XYステージ制御ユニット
913…顕微鏡操作ユニット
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a microscope image transfer system that transmits an observation image obtained by a microscope as a still image, and is particularly used in a telepathology system that remotely observes a pathological specimen.
[0002]
[Prior art]
Conventionally, a microscope still image transmission system is used for remote pathological diagnosis using a microscope TV image of a pathologist, for example. Then, when observing a tissue specimen in pathological diagnosis or biology with a microscope still image observation system, first, what size, shape, and color observation object is placed on which position on the slide glass It is said that grasping is important for efficient observation without oversight.
[0003]
In order to grasp the whole specimen image on the slide glass in this way, it is common to observe it with the naked eye or a magnifier before entering the microscope. Or use a visual image capturing means.
[0004]
Japanese Patent Laid-Open No. 6-3597 proposes that a pathologist (observer) 's observation technique under a microscope is incorporated in a TV observation system, and a macroscopic image photographing means for photographing a whole specimen and pointing for designating an image area. A microscope still image observation system has been devised in which an entire image of a specimen photographed by a macroscopic image photographing means is blocked by a pointing means, an electric stage of a microscope is set, and an electric stage of the microscope is sequentially photographed.
[0005]
In Japanese Patent Laid-Open No. 6-222281, a plurality of frames (blocks) corresponding to a microscope low magnification field of view are designated in the entire specimen image, and control is performed so as to capture a microscope image at a location (stage position) designated by the frame (block). . There has been a proposal that can specify the image capture designated position on the remote observer side (pathologist side). The observer side (pathologist side) receives the entire specimen image (macro image) on the slide glass as a still image from the client side terminal, and then divides this macro image equally to indicate the enlargement designation frame. Has also been proposed. Here, instructing an enlargement designation frame by equally dividing the macro image is referred to as mesh division designation. It has also been proposed to use a microscope having an autofocus function in order to eliminate the manual work of the client. In the present proposal, a single frame indicating an enlargement designation frame is represented as a “spot”, and a macro image divided equally to designate a plurality of enlargement designation frames as a “mesh”.
[0006]
That is, in a conventional microscope still image transmission system, a sample image on a microscope stage is taken into a TV camera, a computer image is taken with a capture board, the image is digitized, and a remote computer is transmitted through a public line such as ISDN. A microscope image transfer system that transfers data to and displays an image is known. You can also operate the microscope from a remote computer to change the magnification and move the stage.
[0007]
[Problems to be solved by the invention]
The point of attention in the present invention is that when a desired microscope image is obtained by specifying a plurality of enlarged designation frames corresponding to a microscope low magnification field of view from a whole specimen image (macro image) of a slide glass. It is in.
[0008]
In the above-described conventional techniques, the whole specimen image (macro image) on the slide glass is photographed by means for photographing a macroscopic image, and a plurality of rectangular frames (frames (blocks)) are set at desired positions by the pointing means ( In order to eliminate the manual operation of the client by controlling the microscopic image of the location designated by the rectangular frame (frame) and specifying the mesh division, it is described. However, the time until the entire mesh designated image is captured and the correctness of the focus position with respect to the captured image are not touched.
[0009]
In remote pathological diagnosis, especially during surgery, an image of a level that can be diagnosed by the observer (pathologist) is transferred from the client side (facility without pathologist) to the observer side (pathologist side) in the shortest time. There must be. Accordingly, there is a problem that it is too time-consuming to manually obtain the in-focus positions for a plurality of mesh images in the intraoperative diagnosis. In addition, it is conceivable to perform autofocus on any one of a plurality of mesh images, and image all the remaining images using the first obtained focus position. It was difficult to acquire an image with the correct in-focus position due to differences in Z stage displacement, specimen thickness, and the like.
[0010]
The present invention has been made in view of the above circumstances, and its purpose is that a remote observer side (pathologist side) performs mesh division designation from the entire specimen image (macro image) of the slide glass. A microscope that can acquire the correct image of the in-focus position of all mesh-designated images in a short time when the client side (one without a pathologist) is instructed to take a microscope image of the mesh-designated frame position. An image transfer system is provided.
[0011]
[Means for Solving the Problems]
2. A microscope image transfer system capable of designating a magnified image to be captured at a desired magnification on a still image according to claim 1, wherein a luminance information storage means for storing luminance information of an enlarged designated frame region on the still image, and a microscope XY Z-direction position correcting means for correcting the position in the Z-direction according to the displacement of the stage, auto-focus execution enable / disable determining means for determining whether or not auto-focus can be executed before taking an enlarged image on a still image, and the auto When the focus execution enable / disable determining means determines that autofocus can be executed, the XYZ position storage means for storing the XY position of the microscope XY stage and the Z position of the microscope XY stage, and the autofocus execution enable / disable determining means determines that autofocus cannot be executed. When determined, the Z position of the previous microscope XY stage stored in the XYZ position storage means And having a Z position restoration means for restoring the.
[0012]
Further, in the microscope image transfer system capable of designating a magnified image to be captured at a desired magnification on the still image according to claim 2, means for moving the microscope XY stage to XY to a position where autofocus is possible, and the microscope XY Means for controlling execution of autofocus after XY movement of the stage, means for restoring the position of the XY stage to the position before movement after execution of autofocus, and image after restoring the position of the previous microscope XY stage to the position before movement And means for controlling capturing.
[0013]
Further, in the microscope image transfer system capable of specifying an enlarged image capture at a desired microscope magnification on a still image according to claim 3, the location where autofocus is first executed automatically from each of a plurality of image capture specification frames is automatically set. It has the means to select to, It is characterized by the above-mentioned.
[0014]
According to the microscope image transfer system of the present invention, the microscope XY stage is controlled in the XYZ direction by the Z-direction position correcting means accompanying the displacement of the microscope XY stage, and the position of the microscope XY stage and the Z position of the microscope XY stage are set to XYZ. Stored by the position storage means. Next, the means for restoring the Z position of the microscope XY stage calls the previous position information and moves the microscope XY stage. Luminance information storage means for storing the luminance information of the enlarged designated frame region on the still image stores the luminance information of the enlarged designated frame region on the still image. Before taking a magnified image on a still image, it is determined whether or not autofocus can be executed by the autofocus execution enable / disable determining unit. When it is determined that autofocus can be executed, autofocus is executed at an optimum position. Further, when the autofocus execution enable / disable determining means determines that autofocus cannot be executed, the previous Z position of the microscope XY stage stored in the XYZ position storage means is restored by the Z position storage means, and error recovery is automatically performed. Reduce the probability of autofocus errors.
[0015]
Furthermore, after the microscope XY stage is moved to the position where the specimen exists, the microscope XY stage is moved XY by means of restoring the position of the microscope XY stage to the position before the movement after executing autofocus even if there is no specimen on the optical axis. Thus, an image at the optimum Z position can be obtained by means for controlling execution of autofocus, so that an image at the optimum Z position can be obtained for any mesh enlargement designated image.
[0016]
The operation on the observer side (pathologist) can be simplified by means for automatically selecting a place where autofocus is first executed from a plurality of enlarged image capture designation frames (mesh designation frames).
[0017]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
[0018]
FIG. 1 is a schematic view of a microscope image transfer system according to the present invention. The microscope 907 includes an electric stage 909 and an electric revolver 908, and further includes a video camera 906. Further, the microscope 907 can be provided with an auto focus unit (not shown), a light control function, an electric diaphragm function, and the like. In the example shown in FIG. 1, a microscope operating unit 913 is connected to a requesting terminal 905 realized by a personal computer or the like, and operation data is transferred from the requesting terminal 905 to the microscope operating unit 913, so that an electric part of the microscope can be used. It enables certain objective control, auto focus (AF) control, fine movement in the Z direction, dimming control, motorized aperture function, and the like. It may be a manually operated microscope that does not have an electric function. The requesting terminal 905 has a video capture function (not shown), and also includes a terminal connected to the image output of the video camera 906. The observation-side terminal 901 composed of the request-side terminal 905 and a personal computer is provided with a storage medium for storing information such as images. A recording device such as an MO may be provided as a peripheral device of the request side terminal 905 or the observation side terminal 901. A monitor 904 is connected to the requesting terminal 905, and a microscope image and a macro photographing device image can be observed on the monitor.
[0019]
Furthermore, line connection devices 910a and 910b for transmitting information such as image information through public lines are provided, and each of the line connection devices 910a and 910b has an interface circuit with the observation side terminal 901 and the request side terminal 905, respectively. The request side terminal 905 and the observation side terminal 901 are connected to the line connection devices 910a and 910b via a public line 903 such as ISDN. A local area network (LAN) may be used instead of the public line.
[0020]
In a telepathology system that performs pathological diagnosis remotely, a terminal of a facility without a pathologist (observer) is set as a request-side terminal 905, and a terminal of a facility with a pathologist (observer) is set as an observation-side terminal 901. The client is usually provided with a macro imaging device 911 that captures the entire specimen image on the slide glass and a microscope 907 that performs magnified observation from the entire specimen image. Normally, a macro photographing device, a microscope, and the like are not necessary on the observer side, but they may be connected to the observation side terminal 901.
[0021]
FIG. 2 is a flowchart showing an operation sequence in the telepathology system. First, a client side with a microscope takes a whole image (hereinafter referred to as a macro image) of a specimen on a slide glass that the observer side wants to inspect using the macro imaging device 911 (S1001). At that time, the observer side starts up the observation side terminal 901 so that the macro image transmitted from the client side can be received (S1009). If a macro image can be observed with a low-magnification objective of a microscope, a slide glass may be placed under the microscope and an image may be taken with an optimum microscope objective magnification without using a macro imaging device. It is also possible to create a macro image by setting the microscope objective to the minimum magnification under the microscope, moving the stage in consideration of the field of view, and sequentially taking images and pasting these images together.
[0022]
Macro images captured by the video camera 914 of the macro photographing device 911 are sequentially stored in a frame memory via a video capture board (not shown) in the requesting terminal 905 and displayed on the monitor 904 of the requesting terminal 905. . The trigger for capturing the macro image is performed by an arbitrary switch (SW), and the SW button for operation provided on the application software displayed on the monitor 904 of the requesting terminal 905 is recognized by an event such as a mouse click, This is done by selecting with the SW of the external operation panel (not shown). When the request side terminal 905 captures the macro image, the request side terminal 905 issues a line connection request to the observation side terminal 901 (S1002). This line connection request transfers digital data to the observation side terminal 901 via the public line 903 such as ISDN via the line connection devices 910a and 910b. Upon receiving the line connection request, the observation side terminal 901 performs connection request processing (S1010). This connection process recognizes the connection partner, and if there is no problem, returns connection permission to the connection partner. When the line connection process is established, the requesting terminal 905 transmits a macro image and initial setting data to the observation terminal 901 (S1003). The initial setting file includes hardware information (microscope, macro device, TV camera type, etc.) connected to the requesting terminal 905. After the observation side terminal 901 receives these data (S1011), the operation right is transferred from the request side terminal 905 to the observation side terminal 901 (S1004, S1012). The operation right indicates a right to perform operations such as control of a microscope and a stage and designation of image capture. This operation right may be changed when the line connection is automatically established, or the client clicks the operation button on the application software displayed on the terminal monitor at any time. It may be switched by, for example. In the example of FIG. 1, the operation right is passed to the observation side terminal 901 after the request side terminal 905 has taken a macro image.
[0023]
An observer (pathologist) observes with a low-magnification objective of a microscope in order to find a position of interest from an image sent as a macro image (S1013, S1014). Usually, in order to observe the entire region of the macro image, the mesh capture designation is selected as the enlargement designation frame method (S1015). The mesh capture designation is to divide a sample on a lattice and designate an enlargement position as shown in FIG. In the example of FIG. 3, M0 to M8 are designations for capturing meshes, and the captured images are specified so as to overlap in consideration of stage movement accuracy. The magnification designation and mesh capture designation may be assigned to any keyboard (not shown) of the observation side terminal 901.
[0024]
The mesh capture designation is performed by confirming a still image on the monitor 902 of the observation side terminal 901 and determining the mesh designation area by specifying the mesh capture start point and end point by operating the mouse, and enlarging the area within this area. The frame is automatically positioned and displayed as an overlay on the still image. Alternatively, the position where the sample is present may be automatically recognized, and the mesh capture designation frame may be efficiently overlaid on the still image. Here, when a mesh is selected in the enlargement designation frame method selection, mesh capture designation processing is performed (S1017). When the enlargement designation frame information is received by the requesting terminal 905, the requesting terminal 905 performs the processing based on this information. The mesh capture designation frame is displayed as an overlay on the still image (macro image) displayed on the monitor 904 (S1018, S1005). The same enlargement designation frame can be displayed on the monitor 902 of the observation side terminal 901 and the monitor 904 of the request side terminal 905, and the same screen can be shared.
[0025]
When no mesh is selected in the enlargement designation frame method selection in (S1015), spot shooting designation as shown in (S1016) is performed (see S0 in FIG. 3). When spot photographing designation processing is performed on the monitor 902 of the observation side terminal 901 (S1017), this enlarged designation information is sent from the observation side terminal 901 to the request side terminal 905 via the line connection device 910a, ISDN 903, and line connection device 910b. Transmit (S1018). Upon receiving this enlargement designation frame information, the request side terminal 905 displays an overlay of the spot shooting designation frame on the still image of the monitor 904 of the request side terminal 905 based on this information (S1005). In the spot designation, an enlargement is designated at one place around an arbitrary position. In the spot processing, the enlarged position is designated by operating the mouse while confirming the still image on the monitor 902 of the observation terminal 901 as in the mesh processing. The spot designation and mesh designation enlargement designation frame can be moved as shown in FIG. FIG. 4 shows an example in which the enlargement designation frame frame once set is moved from (S0a) to (S0b). This enlargement frame designation position information is recorded on the recording media of the request side terminal 905 and the observation side terminal 901.
[0026]
The enlargement designation frame can be added (S1019). If it is to be added, the flow is returned, the processing from (S1013) to (S1015) is repeated, the position is determined, and the enlargement designation rate is also designated. In addition, the enlargement designation frame method is selected.
[0027]
If the observer (pathologist) determines the position and magnification to be enlarged next and there is no need to add an enlargement designation frame (S1019), an image capture request is sent from the observation side terminal 901 to the request side terminal 905. Is transmitted (S1020).
[0028]
Upon receiving the image capture request, the requesting terminal 905 performs stage movement, objective change, AF execution, and the like as microscope operations (S1006). In the stage movement, the position coordinate on the monitor 904 of the request side terminal 905 designated by the mesh or spot is converted into the stage coordinate position, and the control data is transferred from the observation side terminal 901 to the XY stage control unit 912 via the request side terminal 905. The electric stage 909 is moved by transferring. Similarly, the objective change and AF execution are performed by sending control data from the observation side terminal 901 to the microscope operation unit 913 via the request side terminal 905.
[0029]
When the movement of the electric stage 909 and the magnification of the objective lens are changed by controlling the electric revolver 908, the sample image information is captured by the video camera 906, and this image information is input to the video capture board in the requesting terminal 905, Make an image a still image. The still image may be recorded on the recording medium as it is, but the image is compressed in a format such as JPEG (Joint Photographic Coding Experts Group) in order to transfer the image information. The compressed image information is recorded on a recording medium. The image information recorded on the recording medium is transferred from the request side terminal 905 to the line connection device 910b, and is transferred to the observation side terminal 901 via the public line 903 and the line connection device 910a (S1007).
[0030]
When the observation terminal 901 receives the image information transferred from the request side terminal 905 (S1021), the observation side terminal 901 displays the received image information on the monitor 902 of the observation side terminal 901. When the image information is compressed in a format such as JPEG, the image information is expanded and displayed.
[0031]
When the request-side terminal 905 finishes transferring one image to the observation-side terminal 901, the request-side terminal 905 determines whether the next image capture designated position remains (S1008). If it remains, the requesting terminal 905 performs the microscope operation again (S1006), captures an image, and transmits the image data to the observation terminal 901. This operation is performed until all the image designation positions are eliminated. When the observation-side terminal 901 has received all the images, the observer (pathologist) performs a remote observation while observing the image displayed on the monitor 902 of the observation-side terminal 901 (S1022). At this time, image linkage, mouse position information, and the like are transmitted from the observation side terminal 901 having the operation right to the request side terminal 905 via the line connection device 910a, the public line 903, and the line connection device 910b. The requesting terminal 905 that has received the image linkage information and the mouse position information displays an image on the monitor 904 of the requesting terminal 905 based on the information, and also coordinates information such as the mouse position (S1024). When the diagnosis is completed and the line is disconnected from the observation terminal 901, a line disconnect request is transmitted to the request terminal 905 (S1025). Upon receiving the line disconnection request, the requesting terminal 905 performs line disconnection processing (S1026). The observation side terminal 901 determines the end after the remote observation (S1023). Further, when it is desired to continue the diagnosis by enlarging the image at a high magnification, the logic returns to the sequence of S1013 and is repeated again from the magnification designation (S1014).
[0032]
Normally, since the remote diagnosis is performed from the observation side terminal 901, the operation right is on the observer side, but this operation right can be arbitrarily switched to the request side terminal 905.
[0033]
FIG. 5 is a flowchart of an example in which the operation right is switched from the observation side terminal 901 to the request side terminal 905 to perform the enlargement designation and image capture.
[0034]
That is, in FIG. 5, the observation side terminal 901 transmits an operation right change request to the request side terminal 905 (S1101). The requesting terminal 905 receives this operation right change request and obtains the operation right (S1106). Hereinafter, steps S1107 to S1113 are the same as S1013 to S1019 of FIG. Further, steps S1114 to S1119 are the same as S1006 to S1026 in FIG.
[0035]
On the other hand, step S1102 on the observation side is the same as step S1005 on the requester side in FIG. In FIG. 5, steps S1103 to S1105 on the observation side are the same as S1021 to S1025 in FIG.
[0036]
The above is the schematic sequence operation of the telepathology system. The present invention relates to the microscope operation (S1006) and image capture (S1007) in the mesh designation of S1017 in this sequence operation, and aims to capture the mesh designated image at the optimum focus position.
[0037]
The operation of the present invention will be described below with reference to FIGS.
[0038]
FIG. 6 shows a diagram when mesh designation processing (S1017) is performed in a still image state after macro shooting. The mesh designation is usually used when the entire sample region or the sample partial region is divided into a lattice shape within a range that can be observed with a low-magnification objective lens of a microscope after capturing a macro image. When observing the entire specimen region throughout, if AF is performed on all mesh-designated positions, it takes time to capture all images. If one AF location is provided and image data at all mesh designated positions is acquired at the Z position, the time from the image capture designation to the end of image capture is shortened. However, when there is one AF location, the image is not always in focus at all mesh designation positions. The cause may be a stage surface accuracy problem or an error due to the thickness of the specimen. Here, it is assumed that the slide glass and the microscope stage are mounted in parallel and are fixed accurately. In order to solve the problem that the stage surface accuracy is not in focus, the following is performed. The stage is moved to XY in accordance with a change in the mesh capture designated position, and fine movement in the Z direction is performed in accordance with the amount of XY movement.
[0039]
In order to perform fine movement in the Z direction, Z variation data associated with stage movement is previously stored for each objective lens of the microscope. As shown in FIG. 7, an adjustment component is prepared by drawing lines in a lattice pattern on the surface of the slide glass. The interval between the gratings may be finely and arbitrarily set, but is set according to the magnification objective field of the microscope to be adjusted. First, the microscope objective lens is changed to a magnification for acquiring data. Next, the slide glass of FIG. 7 is placed on the electric stage 909 of the microscope 906, and the stage is moved so that X = 0 and Y = 0 on the slide coordinates. When X = 0 and Y = 0, it becomes the edge of the glass, so it is assumed that a line is drawn on the inside of the slide glass by about several mm. Fine movement in the Z direction is performed by manually operating the focusing unit of the microscope or controlling the microscope operation unit 913 from the requesting terminal 905 so that the focus is achieved at this position. The focus position is confirmed based on an image displayed as a moving image on the monitor 904 of the requesting terminal 905 input via the video camera 906 via a capture board (not shown) in the requesting terminal 905. When the focus position can be adjusted, the Z position information of the microscope is taken into the requesting terminal 905 via the microscope operation unit 913. The microscope Z position at the slide coordinate position of X = 0 and Y = 0 is stored as an initial value (Z0) in a memory (not shown) in the requesting terminal 905.
[0040]
Next, the stage is moved to the stage coordinates of X = 0, Y = 1, and the line on the slide glass is focused.
[0041]
After confirming the focus position, the microscope Z position information is acquired, compared with the Z initial value Z0, and the comparison result data is stored in a memory (not shown) in the requesting terminal 905. In this way, while moving the coordinates on the slide glass, the focus is confirmed, and the Z position at the focused position is compared with the Z initial value data (Z0) to obtain comparison data ΔZ for each coordinate. The data is stored in the memory in the requesting terminal 905. The result is the table shown in FIG. This data holds data for each objective.
[0042]
As described above, Z deviation data with respect to XY fluctuation is stored in the memory of the requesting terminal 905 with the slide glass placed on the microscope stage. Based on this correction data, Z correction accompanying movement of the XY stage is performed, and this will be described with reference to the flowchart of FIG.
[0043]
First, the entire specimen image (macro image) on the slide glass is photographed and displayed on the monitor (S501). The macro image is usually taken by operating the requesting terminal 905 and using the macro photographing device 911 or the microscope 907. . The photographed macro image is stored in the memories of the request side terminal 905 and the observation side terminal 901 as luminance information for each of RGB in the still image state (S502). The memory is stored in a two-dimensional array (for example, in the case of a VGA size image, stored in R (iX, iY) (iX = 0 to 639, iY = 0 to 479), so that data can be easily retrieved later. The mesh capture designation area is designated, and the mesh capture designation is performed by the observation side terminal 901 after connecting to the normal line, of course, the request side terminal 905 can also designate mesh capture even if the line is not connected. In the line connection state, the requesting terminal 905 can also specify mesh shooting, and this area specification is displayed on the still image while being confirmed on each monitor 902, 904 (S503). The mesh position displayed as an overlay on the macro still image has its coordinate information stored in the memory of the requesting terminal 905 and the observation terminal 901. (S504) This coordinate information only needs to store the center of each mesh frame, and requests not only the center coordinates but also the magnification information of the still image and the magnification information of the mesh enlargement designation for each mesh enlargement designation frame. If it is stored in the memory of the side terminal 905 and the observation side terminal 901, it can be reproduced later.
[0044]
Next, the position of the mesh enlargement designation frame for executing AF first is designated on the monitor (S505). The mesh frame on the macro still image displayed on the monitor 902 or 904 of the terminal (request side terminal 905 or observation side terminal 901) having the operation right is also designated for the position of the mesh enlargement designation frame for executing this AF. By clicking the mouse. Of course, this mouse click information is shared by both the request-side terminal 905 and the observation-side terminal 901. Assume that the line thickness or line color of the enlargement designation frame is changed from other mesh enlargement designation frames so that it can be seen which of the mesh enlargement designation frames on the macro image has been selected. When the position for designating AF is first determined, image capturing is started. This image capture is started by pressing an operation button on an application (not shown) or an arbitrary key on the keyboard of the terminal from a terminal having an operation right.
[0045]
When the requesting terminal 905 recognizes an instruction to start image capture, the requesting terminal 905 first moves the stage to a mesh position designated to execute AF (S506). In this stage movement, the requesting terminal 905 sends a movement command to the XY stage control unit 912 to move the electric stage 909 of the microscope 907 to a designated position. The stage movement amount is calculated from the mesh expansion designation frame position on the monitor by actually converting data with the stage coordinate system.
[0046]
After moving to the stage position where the AF position is executed first, AF is executed (S507). The AF execution is realized by the AF unit (not shown) of the microscope 907 operating when the requesting terminal 905 sends AF execution data to the microscope operation unit 913. Here, it is sufficient that the AF operates normally after the AF is performed, but an AF error may occur when the specimen does not exist near the microscope objective optical axis (near the center of the screen). Therefore, it is checked whether or not an AF error occurs (S508). This AF error is output from an AF unit (not shown). When an AF error occurs, the microscope operation unit 913 sends an AF error notification to the requesting terminal 905. When the requesting terminal 905 recognizes this error, an error display indicating that an AF error has occurred is displayed on the monitor 904 of the requesting terminal 905. The error display may be displayed as an error window. Also, the client who operates the requesting terminal 905 is instructed to move the Z stage fine movement handle of the microscope to the in-focus position by manual operation. This determines the first focus position. The Z position is stored in the memory of the requesting terminal 905, and the XY stage position coordinates storing the Z position are also stored. In step S508, if the AF operates normally, the Z position and XY stage position coordinates are stored without being manipulated (S510).
[0047]
When the movement of the stage XYZ is finished, a still image is captured (captured) at this position (S511). The image capturing is performed by capturing an image of the microscope 907 through the video camera 906 by controlling the capture board mounted on the requesting terminal 905 after the requesting terminal 905 performs the XY stage and AF confirmation. . After taking the image, the image data is stored in a recording medium (not shown) such as an HD of the requesting terminal 905 in an arbitrary image file format. The captured image is transferred from the request-side terminal 905 to the observation-side terminal 901 through the line connection devices 910b and 910a and the public line 903, and the same image is displayed on the monitor 902.
[0048]
After first capturing a mesh enlargement designation image at a location where AF is executed, it is checked whether or not a next mesh enlargement designation frame exists (S512). If there is no next mesh enlargement designation frame, the process ends. If the next mesh enlargement designation frame exists, the XY stage is moved to the next location (S513).
[0049]
The XY stage is moved, and the Z position is finely moved in accordance with the movement of XY (S514). This fine movement of the Z position is performed based on the stage coordinates and ΔZ data in the table of FIG. That is, the coordinate position in the table of FIG. 8 corresponds to the previous stage position, and ΔZ at that time is expressed as ΔZ i-1 Similarly, the current stage position is the coordinate position and ΔZ (ΔZ in the table of FIG. i ). Previous ΔZ i-1 And ΔZ i Difference ((ΔZi−1) − (ΔZ i )) Is the Z fine movement amount accompanying the movement of the XY stage. In Z fine movement control, the microscope Z motor is driven by sending Z fine movement amount data from the requesting terminal 905 to the microscope operation unit 913, and the Z position changes.
[0050]
When the requesting terminal 905 confirms that the XY movement and the Z fine movement control by the electric stage 909 have been completed, the requesting terminal 905 determines whether or not to perform the AF operation (S515). In order to absorb not only the Z shift of the stage but also the Z error due to the thickness of the specimen, it is determined whether or not to arbitrarily AF. Details of this determination processing will be described later with reference to the flowchart shown in FIG. If it is determined that AF should be executed (S516), AF is executed (S517). If it is not necessary to execute AF (S516), the process returns to the image capturing process (S511). If there is no error after executing AF (S517) (S518), the process returns to the process of storing the Z position and XY coordinate values (S510). If an AF error has occurred after executing AF (S518), the error is notified from the microscope operation unit 913 to the requesting terminal 905. When this error is recognized by the requesting terminal 905, the Z position of the position where the previous image was taken is called from the memory (not shown) of the requesting terminal 905, and this Z position data is transferred to the microscope operation unit 913. Thus, the best Z position is automatically restored. At this time, the requesting terminal 905 does not request an error display and manual Z fine movement operation. After automatically moving to the previous Z position (S519), the process returns to the image capturing process (S511).
[0051]
Next, a flowchart for determining whether or not to perform AF will be described with reference to FIG.
[0052]
First, if there is a movement difference between the previous stage position and the current stage position, the movement difference reference data (XYrefth) for determining whether to perform AF is set as a threshold (S601). This movement difference reference data (XYrefth) is arbitrarily determined by the initial setting. Further, the movement difference reference data (XYrefth) is obtained by calculating the depth of focus from the numerical aperture (NA) of the objective lens, and using the XY movement amount at the time of Z displacement accompanying XY movement that cannot cover this depth of focus as preset data. You may have it. The movement difference reference data (XYrefth) is stored in a memory in the requesting terminal 905. Next, the difference between the stage XY coordinate position of the current mesh enlargement designation frame and the stage XY coordinate position where the previous AF was executed is taken, and the difference is taken as XYref (S602). The stage XY coordinates at which the previous AF was executed are stored in the memory of the requesting terminal 905. Comparison between XYref and XYrefth is performed (S603). If the difference XYref with respect to the stage XY coordinate position where AF was executed last time is smaller than the movement difference reference data (XYrefth), AF need not be executed (S619). On the other hand, if the difference XYref from the stage coordinate position previously executed is larger than the movement difference reference data (XYrefth), the process proceeds to a process for confirming whether or not AF can be executed. To check whether AF can be executed, it is determined whether or not a sample exists near the center of the image (near the center of the optical axis). This is because AF may not operate normally when there is no specimen near the center of the optical axis. The flowcharts after step S605 represent processing for determining whether or not a sample exists near the center of the optical axis at the coordinate position to be expanded next in the still image state. Even in the moving image state, it can be determined that there is a specimen near the center of the optical axis, but in the present invention, before capturing a magnified image in a state where a mesh expansion designation frame of a still image before obtaining the magnified image is determined, Predict whether a sample exists near the axis.
[0053]
First, as a reference for determining whether or not a sample exists, RGB luminance information of a still image is used. The luminance information of each RGB in the still image state is already stored in the memory of the requesting terminal 905 in step S502. In step S604, a luminance threshold (Gth) recognized as a sample is determined, and in step S605, the sample image recognition check counter is cleared. The luminance threshold for sample recognition is stored in an arbitrary file as initial data, and when used, data is extracted from this file and stored in the memory of the requesting terminal 905. Next, since it cannot be judged with only one pixel to recognize it as a sample image, it is necessary to determine the range of pixel data near the center and compare it with the luminance threshold (Gth). In steps S606 and S607, the range of XY coordinate values to be checked in the still image state is determined. First, the range for checking the X coordinate is determined. FIG. 10 shows a state in which a mesh enlargement designation frame is displayed as an overlay on the macro image still image after taking the entire specimen image (macro image) on the slide glass. ImageWidth and ImageHeight in FIG. 10 indicate the width and height of the still image. In the VGA size, the width is 640 × 480 pixels, and (ImgXmax, ImgYmax) = (639,479). Frames (1) to (18) are mesh enlargement designation frames, and their width (FrameWidth) and height (FrameHeight) are determined by the current display magnification and the next enlargement designation magnification.
[0054]
FrameWidth = ImageWidth x (current display magnification / next specified magnification)
FrameHeight = ImageHeight x (current display magnification / next specified magnification)
FIG. 12 is an enlarged view of the frame (10) in the mesh enlargement designation frame in FIG. (Xmin, Ymin) to (Xmax, Ymax) in FIG. 12 are regions for evaluating whether a sample is present near the center even when AF is executed. (Xic, Yic) in FIG. 12 represents the center coordinates of the mesh expansion designation frame (10) when the upper left of the image in FIG. 10 is (0, 0).
[0055]
FIG. 13 is a flowchart for determining the X coordinate area, and FIG. 14 is a flowchart for determining the Y coordinate area.
[0056]
First, a flowchart for determining the X coordinate area will be described. First, the center coordinates (Xic, Yic) of the mesh enlargement designation frame viewed from the entire image of FIG. 10 are detected (S701). The center coordinates of each mesh enlargement designation frame are extracted from the memory (not shown) of the requesting terminal 905. In order to check whether or not a sample exists from the center coordinates, the X region is designated based on the following equation (S702).
[0057]
Xmin = Xic-FrameWidth / n
Xmax = Xic + FrameWidth / n
The value of n can be arbitrarily changed in the initial setting.
[0058]
Similarly, in the Y region, the center coordinates (Xic, Yic) of the mesh enlargement designation frame viewed from the entire image of FIG. 10 are detected (S801), and the following formula is used to check whether or not a sample exists: The Y area is designated based on (S802).
[0059]
Ymin = Yic-FrameHeight / m
Ymax = Yic + FrameHeight / m
The value of m can be arbitrarily changed in the initial setting.
[0060]
As described above, an area for checking whether or not a sample exists is determined. Whether or not a sample exists is determined by comparing the luminance information of each pixel with the luminance threshold (Gth) determined in step S604. Here, there are three types of luminance information for each pixel, but in the example of the flowchart of FIG. 9, only G information is used. Of course, it is also possible to have the luminance threshold values Rth, Gth, and Bth using the three luminance information of RGB and compare them to make a comprehensive judgment.
[0061]
The Gdata (X, Y) luminance information of each pixel in the region for determining whether or not a sample exists is compared with the luminance threshold (Gth) determined in step S604, and finally AF is executed. A flowchart of the process for determining whether or not the process is acceptable is shown after step S608.
[0062]
First, initial coordinates are set (S608). Here, X and Y are variables, and are stored in a memory (not shown) of the client side terminal 905. The initial values are the initial coordinates of the check coordinate area described above, and X = Xmin and Y = Ymin.
[0063]
The G luminance information (Gdata (X, Y)) at the X and Y coordinates is stored in a memory (not shown) of the requesting terminal 905. The initial values are the initial coordinates of the check coordinate area described above, and X = Xmin and Y = Ymin.
[0064]
The G luminance information (Gdata (X, Y)) at the X and Y coordinates is extracted from the memory (not shown) of the requesting terminal 905 (S609). The luminance information (Gdata (X, Y)) is compared with the luminance threshold (Gth) (S610).
[0065]
If the value of the G luminance information (Gdata (X, Y)) is smaller than the value of the luminance threshold Gth (S611), it is determined that a sample image exists, and the sample image recognition check counter cleared in step S605 is incremented ( S612), and stores it in the memory (not shown) of the requesting terminal 905. If the value of the G luminance information (Gdata (X, Y)) is larger than the value of the luminance threshold (Gth) (S611), it is determined that there is no sample image, and the sample image recognition check counter (ChkCounter) changes. do not do. Next, the X coordinate is incremented by one pixel (S613). At this time, it is determined whether or not the X coordinate is outside the region determined in S606 (S614). If the X coordinate is within the region, the process returns to the process of comparing the luminance information and the luminance threshold value in S609. When the X coordinate is out of the region (S614), the X coordinate is set to an initial value (X = Xmin), and the Y coordinate is incremented by one pixel (S615). After incrementing the Y coordinate, it is determined whether or not the Y coordinate is outside the region (S616). If the Y coordinate does not fall outside the region, the luminance information in S609 is again compared with the luminance threshold value to determine whether a sample image exists. When the Y coordinate is incremented and the Y coordinate is out of the area, the check of all areas for determining whether or not a sample image exists is completed. Next, the value of the comparison data (ChkCounterMin) is set based on the following formula (S617).
[0066]
ChkCounterMin = ((Xmax-Xmin) × (Ymax-Ymin)) / 2
In the above formula, it is divided by 2 to make it half of the area for determining whether or not a sample exists, but it may be an arbitrary value.
[0067]
Next, it is determined whether or not a sample image exists near the final center (S618). If the sample image recognition counter (ChkCounter) is equal to or greater than the comparison data (ChkCounterMin), it can be determined that the sample image exists in that region. If it is equal to or greater than the comparison data (ChkCounterMin), it can be determined that a sample image exists in that region.
[0068]
The sample image recognition counter (ChkCounter) is compared with the comparison data (ChkCounterMin). If the sample image recognition counter is larger, it is determined that AF can be performed (S620), and if it is smaller, it is determined that AF cannot be performed (S619). .
[0069]
As described above, it can be determined whether or not the sample image exists near the center of the image, and it can be determined whether or not AF can be performed in the still image state.
[0070]
Next, a second embodiment of the present invention will be described.
[0071]
In the first embodiment, it is checked whether or not a sample image exists near the center of the mesh enlargement designation frame, and it is determined whether AF may be executed. However, as shown in FIG. Even if no image exists, a sample image may exist over the entire region other than the vicinity of the center. For example, as shown in FIG. 15, a case where a hole 1503 is opened when the sample 1501 is sliced is considered. In such a case, AF execution is impossible in the example of the flowchart of FIG. 11 of the first embodiment (S619). In the second embodiment, the AF execution check process is performed again after determining that the AF execution is impossible.
[0072]
AFChkAria (a) in FIG. 15 is an area in which it is checked whether or not a sample exists near the center of the enlargement designation frame in the flowchart in FIG. There is certainly no sample near the center, but if AF is performed with AFChkAria (b) as the center of the image (optical axis center), no AF error should occur.
[0073]
The AF execution recheck after recognizing that AF execution is impossible in S619 will be described using the flowchart of FIG. First, a luminance threshold (Gth) for a reference recognized as a sample image is set and stored in a memory in the requesting terminal 905 (S1501). Then, initial values of coordinates to be checked are set (S1502). (Xic, Yic) is the center coordinates of an arbitrary mesh enlargement designation frame when the mesh enlargement designation frame is displayed from the macro image as shown in FIG. FrameWidth and FrameHeight are the width and height of the mesh enlargement designation frame.
[0074]
Next, a check counter for determining whether or not a sample image exists is cleared (S1503). Next, while changing the XY coordinates, G luminance information (Gdata (X, Y)) in individual pixels is acquired, and the luminance information is compared with the luminance threshold value (Gth) determined in S1501 (S1504). If it is smaller than the luminance threshold (Gth), the check counter is incremented (S1505). That is, generally, the brightness level is the highest in white. If the sample 1501 has a hole 1503, the G luminance information (Gdata (X, Y)) is larger than the luminance threshold (Gth). Conversely, if there is a sample, the G luminance information (Gdata (X, Y)) is smaller than the luminance threshold (Gth). Then, the X coordinate is incremented and the next coordinate is prepared (S1506). If it is determined in step S1507 that the X coordinate is within the area within the mesh enlargement designation frame, the process returns to step S1504. On the contrary, if the mesh enlargement designation frame is obtained after the X coordinate is incremented in step S1507, the Y coordinate is incremented and the X coordinate is returned to the initial value (S1508). After the Y coordinate is incremented, it is checked whether it is outside the mesh enlargement designation frame area (S1509). If it is within the region, the process returns to step S1504.
[0075]
When all the XY coordinates have been checked, the ratio of the number of pixels in which the sample exists within the mesh enlargement designation frame is calculated based on the following equation (S1510).
[0076]
PicRate = (ChkCounter / FrameWidth × FrameHeight) × 100
If PicRate is 60% or less, it is determined that there is no sample near the center, but there is a sample in a region other than the center (S1511). This 60% number can be changed arbitrarily. After confirming that the sample exists in a region other than the center, the stage is moved to a position where the sample exists (S1512).
[0077]
The position where the sample exists can be determined by searching whether the sample image exists continuously while moving the central coordinates by several pixels.
[0078]
By moving the stage, the specimen image moves to a position near the center of the optical axis, and AF is executed at this position (S1513). If an AF error has occurred, the Z position is returned to the Z position where the previous mesh enlargement designation frame was captured. When the Z movement is completed, the current Z position and XY coordinate values are stored in the memory of the requesting terminal 905 (S1514), and then the stage position is returned to the original position (Xic, Yic) (S1515).
[0079]
As described above, even if it is determined that there is no sample image near the center and AF execution cannot be performed, and it is determined that there are many regions where the sample exists in regions other than the center region, the sample image exists at the position where the sample image exists. By moving the stage, performing AF at this position, and then returning it to the original stage position again, it is possible to acquire a mesh capture designation image with the correct in-focus position.
[0080]
Next explained is the third embodiment of the invention.
[0081]
In the first embodiment, the example in which the mesh designation frame position where AF is first executed is indicated on the monitors 902 and 904 in step S506 in the flowchart of FIG. 9 is shown. In the third embodiment, AF is first executed. An example of automatically specifying the mesh specification frame position to be performed is shown.
[0082]
FIG. 17 is a flowchart showing the processing of the third embodiment of the present invention.
[0083]
After capturing a macro image, a mesh enlargement designation frame is designated on the still image. When this instruction is completed, a mesh enlargement designation frame for executing AF first is automatically determined.
[0084]
First, the number of mesh enlargement designation frames is checked (S1601). In order to have sample image recognition pixel number data for each mesh enlargement designation frame, a sample image check counter is provided as array data (S1602), and the contents of the array data are cleared. The sample image existence check is performed for each mesh enlargement designation frame (S1603). As described above, the sample image check is determined by comparing the luminance threshold data with the luminance information of each pixel. The number of pixels recognized as a sample image is stored in ChkCounter (i). i indicates an arbitrary mesh enlargement designation frame number (numbers (0) to (19) in FIG. 10). When the sample image check of all the mesh enlargement designation frames is completed, the mesh image check counters are arranged in descending order (S1604). The order of arrangement is stored as another variable. Next, it is determined whether or not there is a sample near the center in descending order of the sample image check counter value (S1605). Whether or not a sample exists near the center can be determined by examining the array data stored in step S1602 corresponding to the center coordinates. If it is determined that there is no sample image near the center (S1606), the process returns to S1605 again, and a mesh enlargement designation frame with the next largest sample image check counter value is taken out, and whether or not a sample image exists near the center. Judge. If there is a sample image near the center, it is stored as the position where AF is first executed (S1607).
[0085]
As described above, a portion having the number of pixels that can be recognized most as a sample image from among a plurality of mesh enlargement designation frames and a sample image in the vicinity of the center can be automatically recognized as the first AF position.
[0086]
【The invention's effect】
According to the present invention, in the remote observation of a microscope image, a microscope image transfer system capable of shortening an image capture time after specifying an observation region (mesh division) in an initial observation image and observing an image with a correct in-focus position is provided. Can do.
[Brief description of the drawings]
FIG. 1 is a schematic diagram of a microscope image transfer system to which the present invention is applied.
FIG. 2 is a flowchart showing basic operations of the telepathology system.
FIG. 3 is an explanatory diagram of a mesh shooting designation frame and a spot shooting designation frame.
FIG. 4 is a diagram for explaining movement of an enlargement designation frame.
FIG. 5 is a flowchart showing a basic operation when the operation right of the telepathology system is on the requesting side.
FIG. 6 is a diagram when mesh designation processing is performed in a still image state after macro shooting in the embodiment of the present invention.
FIG. 7 is a diagram for explaining acquisition of Z correction data associated with stage XY movement in the embodiment of the present invention.
FIG. 8 is a table showing comparison data ΔZ for each coordinate obtained by comparing the Z position at the focused position with the Z initial value data in the embodiment of the present invention.
FIG. 9 is a flowchart showing mesh image capturing processing in the embodiment of the present invention.
FIG. 10 is a diagram illustrating setting of a mesh division position as a specimen image position in the embodiment of the present invention.
FIG. 11 is a flowchart showing a check process of whether or not an autofocus operation can be executed in the embodiment of the present invention.
FIG. 12 is a diagram illustrating an area for determining AF execution from a mesh division screen in the embodiment of the present invention.
FIG. 13 is a flowchart showing a process for determining an X region to be determined for autofocus execution in the embodiment of the present invention.
FIG. 14 is a flowchart showing processing for determining a Y region for performing autofocus execution in the embodiment of the present invention.
FIG. 15 is a diagram for explaining the change of the autofocus check area in the second embodiment of the present invention.
FIG. 16 is a flowchart for rechecking autofocus in the second embodiment of the present invention;
FIGS. 17A and 17B are diagrams illustrating locations where autofocus is executed in the third embodiment of the present invention. FIGS.
[Explanation of symbols]
901 ... Observation terminal
902 ... Monitor
903 ... ISDN
904 ... Monitor
905 ... Requesting terminal
906 ... Video camera
907 ... Microscope
908 ... Electric revolver
909 ... Electric stage
910a, 910b ... line connection device
911 ... Macro photography device
912 ... XY stage control unit
913 ... Microscope operation unit

Claims (3)

静止画像上で所望の倍率で拡大画像撮り込みが指定可能な顕微鏡画像転送システムにおいて、
静止画像上で拡大指定枠領域の輝度情報を記憶する輝度情報記憶手段と、
顕微鏡XYステージの変位に伴うZ方向の位置を補正するZ方向位置補正手段と、
静止画像上で拡大画像撮り込み前に、オートフォーカス実行可能か否かを判断するオートフォーカス実行可否判断手段と、
前記オートフォーカス実行可否判断手段によりオートフォーカス実行可能と判断したとき、顕微鏡XYステージのXY位置と顕微鏡XYステージのZ位置を記憶するXYZ位置記憶手段と、
前記オートフォーカス実行可否判断手段によりオートフォーカス実行不可と判断したとき、前記XYZ位置記憶手段に記憶された前回の顕微鏡XYステージのZ位置を復元するZ位置復元手段と、
を有することを特徴とする顕微鏡画像転送システム。
In a microscope image transfer system that can specify the capture of an enlarged image at a desired magnification on a still image,
Luminance information storage means for storing the luminance information of the enlargement designation frame area on the still image;
Z-direction position correcting means for correcting the position in the Z-direction accompanying the displacement of the microscope XY stage
Autofocus execution enable / disable determining means for determining whether or not autofocus can be executed before capturing an enlarged image on a still image;
XYZ position storage means for storing the XY position of the microscope XY stage and the Z position of the microscope XY stage when the autofocus execution enable / disable determination means determines that autofocus execution is possible;
A Z position restoring means for restoring the previous Z position of the microscope XY stage stored in the XYZ position storage means when the autofocus execution possibility judging means judges that autofocus execution is impossible;
A microscope image transfer system comprising:
オートフォーカス可能な位置に顕微鏡XYステージをXYに移動する手段と、
前記顕微鏡XYステージのXY移動後にオートフォーカスを実行制御する手段と、
オートフォーカス実行後に前記XYステージの位置を移動前の位置に復元する手段と、
前の顕微鏡XYステージの位置を移動前の位置に復元後に画像撮り込みを制御する手段と、
をさらに有することを特徴とする請求項1記載の顕微鏡画像転送システム。
Means for moving the microscope XY stage to XY at a position where autofocusing is possible;
Means for controlling execution of autofocus after XY movement of the microscope XY stage;
Means for restoring the position of the XY stage to the position before the movement after the execution of autofocus;
Means for controlling image capture after restoring the position of the previous microscope XY stage to the position before movement;
The microscope image transfer system according to claim 1, further comprising:
複数の各画像撮り込み指定枠から最初にオートフォーカスを実行する箇所を自動的に選択する手段をさらに有することを特徴とする請求項1記載の顕微鏡画像転送システム。2. The microscope image transfer system according to claim 1, further comprising means for automatically selecting a place where autofocus is first executed from a plurality of image capture designation frames.
JP27129499A 1999-09-24 1999-09-24 Microscope image transfer system Expired - Fee Related JP4434376B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP27129499A JP4434376B2 (en) 1999-09-24 1999-09-24 Microscope image transfer system
KR1020017006095A KR20010092740A (en) 1999-09-24 2000-09-21 Microscope image transfer system
PCT/JP2000/006475 WO2001022147A1 (en) 1999-09-24 2000-09-21 Microscope image transfer system
CNB008019886A CN100442099C (en) 1999-09-24 2000-09-21 Microscope image transfer system
TW089119679A TW513582B (en) 1999-09-24 2000-09-22 Microscope image transfer system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP27129499A JP4434376B2 (en) 1999-09-24 1999-09-24 Microscope image transfer system

Publications (2)

Publication Number Publication Date
JP2001091846A JP2001091846A (en) 2001-04-06
JP4434376B2 true JP4434376B2 (en) 2010-03-17

Family

ID=17498053

Family Applications (1)

Application Number Title Priority Date Filing Date
JP27129499A Expired - Fee Related JP4434376B2 (en) 1999-09-24 1999-09-24 Microscope image transfer system

Country Status (5)

Country Link
JP (1) JP4434376B2 (en)
KR (1) KR20010092740A (en)
CN (1) CN100442099C (en)
TW (1) TW513582B (en)
WO (1) WO2001022147A1 (en)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4544850B2 (en) * 2002-11-29 2010-09-15 オリンパス株式会社 Microscope image photographing device
JP4818592B2 (en) * 2003-07-01 2011-11-16 オリンパス株式会社 Microscope system, microscope image display system, observation object image display method, and program
JP4877588B2 (en) * 2006-08-15 2012-02-15 横河電機株式会社 Focus correction method
US8878923B2 (en) * 2007-08-23 2014-11-04 General Electric Company System and method for enhanced predictive autofocusing
JP4974060B2 (en) * 2008-02-19 2012-07-11 横河電機株式会社 Drug discovery screening method
JP5394887B2 (en) * 2009-10-29 2014-01-22 オリンパス株式会社 Microscope device and microscope observation method
JP5537281B2 (en) * 2010-06-21 2014-07-02 オリンパス株式会社 Microscope device and image acquisition method
JP5589619B2 (en) * 2010-07-01 2014-09-17 ソニー株式会社 Information processing apparatus, stage waviness correction method, and program
KR101304375B1 (en) * 2011-10-19 2013-09-11 (주)코셈 Control method of electron microscope for multi user
JP6053327B2 (en) * 2012-05-23 2016-12-27 オリンパス株式会社 Microscope system, specimen image generation method and program
US9664016B2 (en) 2013-03-15 2017-05-30 Chevron U.S.A. Inc. Acoustic artificial lift system for gas production well deliquification
KR102411099B1 (en) * 2017-09-29 2022-06-22 라이카 바이오시스템즈 이미징 인크. Real-time autofocus scanning
CN113472984B (en) * 2021-06-28 2023-10-20 平湖莱顿光学仪器制造有限公司 Image acquisition method, device, system, storage medium and equipment

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63167313A (en) * 1986-12-27 1988-07-11 Hitachi Ltd Automatic focus control method
JP2893061B2 (en) * 1990-07-10 1999-05-17 オムロン株式会社 Automatic focus adjustment device for microscope
JP2989921B2 (en) * 1991-02-21 1999-12-13 オリンパス光学工業株式会社 microscope
JP3078083B2 (en) * 1992-02-19 2000-08-21 オリンパス光学工業株式会社 Automatic focusing device
JP3325064B2 (en) * 1993-01-22 2002-09-17 オリンパス光学工業株式会社 Microscope remote observation system and its control method
JP3631304B2 (en) * 1995-10-24 2005-03-23 オリンパス株式会社 Microscope automatic focusing device
JPH09304703A (en) * 1996-05-16 1997-11-28 Olympus Optical Co Ltd Focusing device
JP3863993B2 (en) * 1998-03-18 2006-12-27 オリンパス株式会社 microscope
JPH11271623A (en) * 1998-03-19 1999-10-08 Olympus Optical Co Ltd Automatic focusing device for microscope
JP2000352661A (en) * 1999-06-14 2000-12-19 Olympus Optical Co Ltd Focusing device

Also Published As

Publication number Publication date
KR20010092740A (en) 2001-10-26
CN1321257A (en) 2001-11-07
TW513582B (en) 2002-12-11
JP2001091846A (en) 2001-04-06
WO2001022147A1 (en) 2001-03-29
CN100442099C (en) 2008-12-10

Similar Documents

Publication Publication Date Title
JP4937457B2 (en) Microscope control apparatus, microscope control system, microscope control method, program, and recording medium
JP4434376B2 (en) Microscope image transfer system
KR101760142B1 (en) Camera device, camera system, control device and computer readable recording medium
JP3557246B2 (en) Microscope image remote observation device and microscope image remote observation method
TWI461064B (en) Camera device, camera system, control device and program
JP2008042315A (en) Camera controller and camera control system
JP7313869B2 (en) IMAGING DEVICE, CONTROL DEVICE, CONTROL METHOD AND PROGRAM
JP2019198043A (en) Control device, control method, and program
JP2000295462A (en) Transmission system for microscope image
JP2002112098A (en) Electronic image pickup apparatus
JP2006191411A (en) Camera control apparatus, image display apparatus, method for controlling camera, method for displaying image, and program
JP2006340091A (en) Camera server, viewer, image display system and image distribution method
US20140063072A1 (en) Information processing apparatus, information processing method, and information processing program
JP7453772B2 (en) Information processing device and its control method, imaging device system, program
CN107295247B (en) Image recording apparatus and control method thereof
JP3325064B2 (en) Microscope remote observation system and its control method
JP3698737B2 (en) Microscope remote observation system and remote observation method
JP2018113659A (en) Imaging control apparatus and control method thereof
JP3704529B2 (en) Microscope observation system and display method of microscope image
JP2021125854A (en) Image distribution device, method, program, and storage medium
KR20000057920A (en) Microscope image transmitting system, method of processing microscope images, and recording medium for use in processing microscope images
JPH11119108A (en) Remote observing system
JP3432851B2 (en) Microscope remote observation system
JP2008236785A (en) Image providing device, image providing method, and image providing system
JP2017063277A (en) Display control device and display control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060907

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091201

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091222

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130108

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140108

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees