JP2013068706A - 情報処理装置、情報処理方法、プログラム及び記録媒体 - Google Patents

情報処理装置、情報処理方法、プログラム及び記録媒体 Download PDF

Info

Publication number
JP2013068706A
JP2013068706A JP2011205864A JP2011205864A JP2013068706A JP 2013068706 A JP2013068706 A JP 2013068706A JP 2011205864 A JP2011205864 A JP 2011205864A JP 2011205864 A JP2011205864 A JP 2011205864A JP 2013068706 A JP2013068706 A JP 2013068706A
Authority
JP
Japan
Prior art keywords
region
imaging
specimen
image
likelihood
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011205864A
Other languages
English (en)
Inventor
Kenji Yamane
健治 山根
Masahiro Takahashi
正弘 高橋
Shinji Watanabe
真司 渡辺
Yoichi Mizutani
陽一 水谷
Hiroshi Hasegawa
寛 長谷川
Hiroshi Kusogami
宏 久曽神
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2011205864A priority Critical patent/JP2013068706A/ja
Priority to US13/610,442 priority patent/US8934699B2/en
Publication of JP2013068706A publication Critical patent/JP2013068706A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • G02B21/365Control or image processing arrangements for digital or video microscopes
    • G02B21/367Control or image processing arrangements for digital or video microscopes providing an output produced by processing a plurality of individual source images, e.g. image tiling, montage, composite images, depth sectioning, image comparison
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/0004Microscopes specially adapted for specific applications

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Quality & Reliability (AREA)
  • Radiology & Medical Imaging (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Optics & Photonics (AREA)
  • Microscoopes, Condenser (AREA)
  • Image Processing (AREA)

Abstract

【課題】標本の撮影処理を迅速に行わせるとともにマッチング処理を効率的に行うこと。
【解決手段】情報処理装置は、メモリと制御部とを有する。メモリは、ステージに載置された検体の標本の全体が撮像装置により第1の解像度で撮像された第1の画像を記憶する。制御部は、前記第1の画像を複数の領域に分割し、当該分割された複数の領域に前記検体が存在する尤度を当該複数の領域ごとに算出し、前記算出された尤度に基づいて、前記複数の領域を、前記検体が第1の尤度で存在する第1の領域と、前記検体が前記第1の尤度よりも低い第2の尤度で存在する第2の領域と、前記検体が存在しない第3の領域とに分類した存在マップを生成し、前記第1の領域及び前記第2の領域の複数の第2の画像が、前記撮像装置により前記第1の解像度よりも大きい第2の解像度で撮像される際に、前記第1の領域に続いて前記第2の領域が撮像される。
【選択図】図8

Description

本技術は、医療、病理、生物、材料等の分野において顕微鏡により得られた画像情報を処理する情報処理装置、情報処理方法、そのプログラム及び記録媒体に関する。
医療または病理等の分野において、光学顕微鏡により得られた、生体の細胞、組織、臓器等の観察対象物の画像をデジタル化し、そのデジタル画像に基づき、ユーザ(医師や病理学者等)がその組織等を検査したり、患者を診断したりするシステムが提案されている。このようなシステムは一般にバーチャル顕微鏡と呼ばれている。
例えば、特許文献1に記載の方法では、顕微鏡のステージ上に載置された病理標本スライドから光学的に得られた画像が、CCD(Charge Coupled Device)を搭載したビデオカメラによりデジタル化され、そのデジタル信号がPC(Personal Computer)に入力され、モニタに可視化される。病理学者はモニタに表示された画像を見て診断等を行う。
特開2009−37250号公報
上記病理標本スライドの撮影は、通常、顕微鏡のステージが移動されながら、1つのスライドのうち所定範囲の領域毎に行われる。領域毎に撮影された各画像は、その後繋ぎ合わされ(マッチング処理され)、画像表示システム(ビューワ)上で医師等に閲覧され、病理診断等に用いられる。
したがって、迅速な病理診断のためには、スライド上の各領域の画像を迅速に撮影して繋ぎ合わせることが重要である。そのためには、スライド中、検体が確実に存在する領域を見極めるとともに、撮影を効率化するステージの移動方向、すなわち、各領域の撮影順序を決定する必要がある。
以上のような事情に鑑み、本技術の目的は、標本の撮影処理を迅速に行わせるとともにマッチング処理を効率的に行うことが可能な情報処理装置、情報処理システム、情報処理方法、プログラム及び記録媒体を提供することにある。
上記目的を達成するため、本技術の一形態に係る情報処理装置は、メモリと、制御部とを有する。上記メモリは、ステージに載置された検体の標本の全体が撮像装置により第1の解像度で撮像された第1の画像を記憶可能である。上記制御部は、上記第1の画像を複数の領域に分割し、当該分割された複数の領域に上記検体が存在する尤度を当該複数の領域ごとに算出可能である。また制御部は、上記算出された尤度に基づいて、上記複数の領域を、上記検体が第1の尤度で存在する第1の領域と、上記検体が上記第1の尤度よりも低い第2の尤度で存在する第2の領域と、上記検体が存在しない第3の領域とに分類した存在マップを生成可能である。さらに制御部は、上記第1の領域及び上記第2の領域の複数の第2の画像が、上記撮像装置により上記第1の解像度よりも大きい第2の解像度で撮像される際に、上記第1の領域に続いて上記第2の領域が撮像され、かつ、当該撮像のための上記ステージの総移動距離が最小となるような撮像順序を示す撮像順序情報を、上記生成された存在マップに基づいて生成可能である。
この構成により、情報処理装置は、撮像装置による標本の撮像処理を迅速に行わせるとともに、その後の第2の画像の効率的なマッチング処理を可能とすることができる。
上記制御部は、同一方向に連続した複数の第1の領域が優先的に撮像されるように上記撮像順序情報を生成してもよい。
これにより情報処理装置は、ステージの移動量を極力小さくすることで、その後の撮像処理を迅速に行わせることができる。
上記制御部は、上記撮像順序情報により連続して撮像するように順番付けられている2つの第2の画像のそれぞれの隣接部分に検体が存在しないと判断した場合に、当該2つの画像が連続して撮像されないように上記撮像順序情報を更新してもよい。
これにより情報処理装置は、実際にはマッチングを取る部分が存在しない2つの画像が繋ぎ合わされることにより他の第2の画像に伝播し得るずれを防止し、マッチングの精度を向上させることができる。
上記制御部は、上記2つの画像の撮像元である、上記第1の領域が上記第2の領域に、または、上記第2の領域が上記第3の領域に分類されるように上記存在マップを更新し、当該更新された存在マップを基に上記撮像順序情報を更新してもよい。
これにより情報処理装置は、マッチングを取る部分が存在しない2つの第2の画像の撮像元である領域における存在尤度が下がるように存在マップを更新することで、撮像順序を更新してマッチングの精度を向上させることができる。
上記制御部は、上記生成された存在マップにおいて、上記第1の領域に囲まれた上記第2の領域または上記第3の領域を、上記第1の領域に分類しなおすことで当該存在マップを更新し、当該更新された存在マップを基に上記撮像順序情報を生成してもよい。
これにより情報処理装置は、第1の領域に囲まれた第2の領域または第3の領域が存在することで撮像順序が複雑になり撮像速度や撮像精度が下がるのを防ぐことができる。
上記情報処理装置は、ネットワーク上のサーバと通信可能な通信部をさらに具備してもよい。この場合上記制御部は、上記撮像順序情報及び撮像済みの上記第1の領域または上記第2の領域に関する情報を上記サーバへ送信するように上記通信部を制御してもよい。
これにより情報処理装置は、標本中の領域がどのような順序で撮像されるか、及び、どこまで撮像が完了したかをサーバに知らせることができる。
上記制御部は、上記撮像された複数の第2の画像を、当該複数の第2の画像のマッチングのために記憶するように上記メモリを制御してもよい。また制御部は、上記存在マップ及び上記撮像順序情報を基に、上記記憶された1つの第2の画像のうち、その次に撮像されるように順番づけられている隣接する1つの第2の画像とのマッチングに用いられない領域をエンコードし、当該エンコードされた領域のデータを上記サーバへ送信するように上記通信部を制御してもよい。また制御部は、上記マッチングが完了した場合に、上記マッチングに用いられた領域を、上記隣接する1つの第2の画像のうち、その次に撮像されるように順番付けられている隣接する1つの第2の画像とのマッチングに用いられない領域と併せてエンコードし、上記併せてエンコードされた領域のデータを上記サーバへ送信するように上記通信部を制御してもよい。
これにより情報処理装置は、存在マップ及び撮影順序を基に、撮像及びエンコードが完了した領域のデータを随時サーバへアップロードすることができる。
上記制御部は、上記マッチングに先立って、上記存在マップ及び上記撮像順序情報を基に、上記複数の第2の画像のそれぞれの領域のうち、上記マッチングに用いられる領域についてのみ上記メモリを確保してもよい。
これにより情報処理装置は、マッチングに用いられない領域についての無駄なメモリの確保を防ぐことができる。
上記制御部は、上記エンコードが完了する毎に、撮像完了を通知する通知情報を上記サーバへ送信するように上記通信部を制御してもよい。
これによりサーバは、通知情報を受信することで、サーバに接続されたビューワのユーザに、撮像が完了したデータを随時閲覧させることができる。
本技術の他の形態に係る情報処理方法では、ステージに載置された検体の標本の全体が撮像装置により第1の解像度で撮像された第1の画像が記憶される。上記第1の画像は複数の領域に分割され、当該分割された複数の領域に上記検体が存在する尤度が当該複数の領域ごとに算出される。上記算出された尤度に基づいて、上記複数の領域が、上記検体が第1の尤度で存在する第1の領域と、上記検体が上記第1の尤度よりも低い第2の尤度で存在する第2の領域と、上記検体が存在しない第3の領域とに分類された存在マップが生成される。上記第1の領域及び上記第2の領域の複数の第2の画像が、上記撮像装置により上記第1の解像度よりも大きい第2の解像度で撮像される際に、上記第1の領域に続いて上記第2の領域が撮像され、かつ、当該撮像のための上記ステージの総移動距離が最小となるような撮像順序を示す撮像順序情報が、上記生成された存在マップに基づいて生成される。
本技術の別の形態に係るプログラムは、情報処理装置に、記憶ステップと、算出ステップと、第1の生成ステップと、第2の生成ステップとを実行させるものである。上記記憶ステップでは、ステージに載置された検体の標本の全体が撮像装置により第1の解像度で撮像された第1の画像が記憶される。上記算出ステップでは、上記第1の画像が複数の領域に分割され、当該分割された複数の領域に上記検体が存在する尤度が当該複数の領域ごとに算出される。上記第1の生成ステップでは、上記算出された尤度に基づいて、上記複数の領域が、上記検体が第1の尤度で存在する第1の領域と、上記検体が上記第1の尤度よりも低い第2の尤度で存在する第2の領域と、上記検体が存在しない第3の領域とに分類された存在マップが生成される。上記第2の生成ステップでは、上記第1の領域及び上記第2の領域の複数の第2の画像が、上記撮像装置により上記第1の解像度よりも大きい第2の解像度で撮像される際に、上記第1の領域に続いて上記第2の領域が撮像され、かつ、当該撮像のための上記ステージの総移動距離が最小となるような撮像順序を示す撮像順序情報が、上記生成された存在マップに基づいて生成される。
本技術のまた別の形態に係る記録媒体は、撮像装置により撮像順序情報に基づいて撮像された複数の第2の画像を記録したものである。上記撮像順序情報は、情報処理装置において、以下のように生成される。ステージに載置された検体の標本の全体が撮像装置により第1の解像度で撮像された第1の画像が記憶される。上記第1の画像が複数の領域に分割され、当該分割された複数の領域に上記検体が存在する尤度が当該複数の領域ごとに算出され、上記算出された尤度に基づいて、上記複数の領域が、上記検体が第1の尤度で存在する第1の領域と、上記検体が上記第1の尤度よりも低い第2の尤度で存在する第2の領域と、上記検体が存在しない第3の領域とに分類した存在マップが生成される。上記第1の領域及び上記第2の領域の複数の第2の画像が、上記撮像装置により上記第1の解像度よりも大きい第2の解像度で撮像される際に、上記第1の領域に続いて上記第2の領域が撮像され、かつ、当該撮像のための上記ステージの総移動距離が最小となるような撮像順序を示す上記撮像順序情報が、上記生成された存在マップに基づいて生成される。
以上説明したように、本技術によれば、標本の撮影処理を迅速に行わせるとともにマッチング処理を効率的に行うことができる。
本技術の一実施形態に係るバーチャル顕微鏡システムの概要を示す図である。 図1におけるデジタル顕微鏡のハードウェア構成を示した図である。 図1における制御用PCのハードウェア構成を示した図である。 図1におけるサーバのハードウェア構成を示した図である。 上記実施形態におけるバーチャル顕微鏡システムの全体動作の概要を示したフローチャートである。 上記システムの処理における制御用PCの動作の流れを示したフローチャートである。 上記制御用PCによる撮影シーケンス情報の生成処理の概要を示した図である。 上記制御用PCによる撮影シーケンス情報の生成処理の流れを示したフローチャートである。 上記制御用PCによる存在マップの更新処理の概要を示した図である。 上記制御用PCによる1つの撮影シーケンス処理及び圧縮処理の流れを示したフローチャートである。 上記撮影シーケンス情報と、タイルサイズとの関係について説明した図である。 1つの撮影シーケンス処理及び圧縮処理の例を示した図である。 1つの撮影シーケンス処理及び圧縮処理の例を示した図である。 1つの撮影シーケンス処理及び圧縮処理の例を示した図である。 1つの撮影シーケンス処理及び圧縮処理の例を示した図である。 撮影シーケンスにおける問題点を説明するための図である。 撮影シーケンスの変更処理について説明した図である。 撮影シーケンスの変更処理の具体例について示した図である。 図18(A)の手法による撮影シーケンスの変更処理の流れを示したフローチャートである。 図18(B)の手法による撮影シーケンスの変更処理の流れを示したフローチャートである。 マッチング処理用のメモリの確保について説明した図である。 マッチング処理におけるメモリの確保及び解放処理の流れを示したフローチャートである。 上記システムにおける、デジタル顕微鏡、制御用PC及びサーバの3者による処理及びデータの流れを示したシーケンス図である。 上記システムにおける、サーバ、ビューワ及びユーザの3者による処理及びデータの流れを示したシーケンス図である。 上記サーバによる上記撮影シーケンス合成画像の生成処理の流れを示したフローチャートである。 上記サーバによる上記撮影シーケンス合成画像の生成処理の概要を説明するための図である。
以下、図面を参照しながら、本技術の実施形態を説明する。
[システムの概要]
図1は、本技術の一実施形態に係るバーチャル顕微鏡システムの概要を示す図である。
同図に示すように、当該システムは、デジタル顕微鏡100、制御用PC200、サーバ300及び画像表示システム(ビューワ)400により構成される。これらは例えばインターネットやLAN(Local Area Network)等のネットワーク150により通信可能とされている。
デジタル顕微鏡100は、病理標本スライドを、複数の領域毎に、ステージを移動させながら撮像する。病理標本スライドは、検体としての生体組織等の切片がガラススライドに納められたものである。
制御用PC200は、デジタル顕微鏡100によるステージの移動処理(撮像シーケンスの決定処理)を含む、病理標本スライド(以下、単に病理スライドと称する)の撮像処理を制御する。また制御用PC200は、撮像された病理スライドの複数の画像(以下、単にスライド画像と称する)について、マッチングや圧縮等の画像処理を行い、それらをサーバへアップロードする。
サーバ300は、制御用PC200からアップロードされたスライド画像を管理し、当該スライド画像を、要求に応じてビューワ400へ送信して表示させる。またサーバ300は、ビューワ400で閲覧可能なスライド画像について、ビューワ400のユーザのためのGUI(Graphical User Interface)を生成する。
ビューワ400は、サーバ300から受信したスライド画像を表示する。ビューワ400のユーザ(スライド画像の閲覧者)は例えば医師等であり、表示されたスライド画像に基づいて病理診断を行う。
[デジタル顕微鏡のハードウェア構成]
図2は、上記デジタル顕微鏡100のハードウェア構成を示した図である。
同図に示すように、デジタル顕微鏡100は、スライド画像撮影装置11、サムネイル画像撮影装置12、撮影装置コントローラ13、制御用PC入出力部(I/O)14を有する。
スライド画像撮影装置11は、病理スライドを載置して例えばX、Y、Z方向に移動可能なステージ、光学系、デジタルカメラ等を有し、上記病理スライドの各領域の画像を、ステージを移動させながら複数のショットに分けて拡大撮影する。
サムネイル画像撮影装置12は、上記病理スライドの全体を撮像するための撮影装置であり、上記スライド画像撮影装置11よりも低倍率の光学系やデジタルカメラ等を有する。すなわち、サムネイル画像撮影装置12は、スライド画像撮影装置11が撮影するスライド画像よりも低解像度の画像(サムネイル画像)を撮像する。
詳細は後述するが、上記サムネイル画像は、病理スライド上の全体の領域のうち、検体が実際に存在する領域、すなわち、スライド画像撮影装置11による本撮影(拡大撮影)が必要な領域を判別するために用いられる。これ以降の説明において、単に「スライド画像」と称した場合、それは病理スライドの一部が拡大撮影された画像を指し、「サムネイル画像」とは区別される。
撮影装置コントローラ13は、上記スライド画像撮影装置11及びサムネイル画像撮影装置12による撮像処理を制御する。
制御用PC入出力部14は、上記制御用PC200と接続するための通信インタフェースであり、制御用PC200からの制御コマンドを受信したり、撮像された画像を制御用PC200へ送信したりする。
[制御用PCのハードウェア構成]
図3は、上記制御用PC200のハードウェア構成を示した図である。
同図に示すように、制御用PC200は、CPU(Central Processing Unit)21、メモリ22、画像処理部23、撮影シーケンス制御部24、存在マップ/撮影シーケンス保持部25、顕微鏡入出力部(I/O)26、サーバ入出力部(I/O)27を有する。
CPU21は、制御用PC200の各部を統括的に制御する。CPU21は例えば後述する存在マップの生成処理、撮影シーケンス情報の生成処理、マッチング処理等を実行する。
メモリ22は、CPU21の作業領域として用いられ、デジタル顕微鏡100で撮影され顕微鏡入出力部26から入力されたスライド画像やサムネイル画像等を一時的に記憶する。
画像処理部23は、上記存在マップの生成処理、撮影シーケンス情報の生成処理、マッチング処理等において必要となる、サムネイル画像やスライド画像に対する画像処理を実行する。また画像処理部23は、特に上記マッチング処理のために、マッチングエンジンを有する。
撮影シーケンス制御部24は、CPU21と協働して、上記撮影シーケンス情報の生成処理を実行し、当該撮影シーケンス情報を基に、デジタル顕微鏡100による病理スライドの各領域の撮影処理(撮影順序)を制御する。さらに撮影シーケンス制御部24は、撮影されたスライド画像をタイル単位で圧縮し、それをサーバへアップロードする。
存在マップ/撮影シーケンス保持部25は、生成された存在マップ及び撮影シーケンス情報を保持・管理する。
顕微鏡入出力部26は、上記デジタル顕微鏡100と接続するための通信インタフェースであり、デジタル顕微鏡100へ制御コマンドを送信したり、デジタル顕微鏡100で撮像されたスライド画像を受信したりする。
サーバ入出力部27は、上記サーバ300と接続するための通信インタフェースであり、サーバ300からのリクエストを受信したり、サーバ300へサムネイル画像、スライド画像、撮影シーケンス情報等を送信したりする。
上記画像処理部23や撮影シーケンス制御部24は、ソフトウェアとして構成されていても構わない。
図3に示したもののほか、制御用PC200は、各種データや、OS(Operation System)その他のプログラム(ソフトウェア)を記憶するための記憶部(例えばHDDやフラッシュメモリ)を有する。
[サーバのハードウェア構成]
図4は、上記サーバ300のハードウェア構成を示した図である。
同図に示すように、サーバ300は、CPU31、メモリ32、ビューワ画像閲覧応答部33、撮影シーケンス保持部34、画像登録部35、撮影シーケンス画像合成部36、HDD(Hard Disk Drive)37、制御用PC入出力部(I/O)38、ビューワ入出力部(I/O)39を有する。
CPU31は、サーバ300の各部を統括的に制御する。CPU31は例えば、後述する撮影シーケンス画像合成処理等を実行する。
メモリ32は、CPU31の作業領域として用いられ、上記撮影シーケンス画像合成処理やビューワ400へのスライド画像の送信処理等において、撮影シーケンス情報やスライド画像等のデータを一時的に記憶する。
ビューワ画像閲覧応答部33は、ビューワ400からの、撮影シーケンス合成画像(後述)やスライド画像の閲覧要求に対して、閲覧対象のスライド画像を応答する処理を実行する。
撮影シーケンス保持部34は、上記制御用PC200から受信した撮影シーケンス情報を保持する。
画像登録部35は、上記制御用PC200から受信したスライド画像を、そのIDとともに、ビューワ400からアクセス可能な画像として登録する。
撮影シーケンス画像合成部36は、ビューワ画像閲覧応答部33からの要求に応じて、上記制御用PC200から受信したサムネイル画像と、撮影シーケンス情報とを合成する。当該合成された画像を、以下、「撮影シーケンス合成画像」と称する。詳細は後述するが、当該撮影シーケンス合成画像は、サムネイル画像上に撮影シーケンスの経路を示した画像である。当該撮影シーケンス合成画像は、ビューワ400のユーザが、病理スライドのどの位置の画像がどのような順序で表示されるのかを視覚的に確認するために用いられる。
HDD37は、上記登録済みのスライド画像を、そのIDとともにデータベースとして記憶する。実際には、スライド画像は、上述するタイル単位で記憶され、タイル毎のIDで管理される。またHDD37は、そのほか、上記CPU31による処理に用いられるデータやCPU31が実行可能なOSその他のプログラムを記憶する。当該HDD37に代えて、フラッシュメモリ等の他の記録媒体が用いられてもよく、また当該記録媒体は可搬性のものであっても構わない。
制御用PC入出力部38は、上記制御用PC200と接続するための通信インタフェースであり、制御用PC200からサムネイル画像やスライド画像、撮影シーケンス情報等のデータを受信したり、制御用PC200へ種々のリクエストを送信したりする。
ビューワ入出力部(I/O)39は、ビューワ400と接続するための通信インタフェースであり、ビューワ400からスライド画像や撮影シーケンス合成画像のリクエストを受信したり、それらリクエストに応じてビューワ400へスライド画像や上記撮影シーケンス合成画像を送信したりする。
ビューワ400のハードウェア構成についての説明は省略するが、ビューワ400は、ディスプレイの他、CPU、RAM、通信部等、一般的なコンピュータとして機能するための各種ハードウェアを有する。
[システムの動作]
次に、以上のように構成されたシステムの動作について説明する。以下では、特に制御用PC200のCPU21を主な動作主体として説明がなされるが、これらの動作は、各機器のその他のブロック及びソフトウェア(アプリケーション)と協働して実行される。
(システムの動作概要)
図5は、本実施形態におけるバーチャル顕微鏡システムの全体動作の概要を示したフローチャートである。
同図に示すように、まず、デジタル顕微鏡100が、サムネイル画像撮影装置12により、病理スライドのサムネイル画像を撮影する(ステップ51)。
続いて、上記サムネイル画像を受信した制御用PC200が、当該サムネイル画像をサーバ300へアップロードする(ステップ52)。
続いて、制御用PC200が、サムネイル画像から、病理スライドの本撮影用の領域ごとに、画像認識処理により実際に検体が存在する尤度(レベル)を算出し、存在マップを生成する(ステップ53)。当該存在マップはサーバ300へアップロードされる。当該画像認識処理には、例えばエッジ検出や高周波成分の抽出等、公知の技術が用いられる。
続いて、制御用PC200が、上記存在マップを基に、検体の存在する領域について、デジタル顕微鏡100のステージの移動量が最小となり、かつ、その後の複数のスライド画像の繋ぎ合わせ(マッチング)がうまくいくように、撮影シーケンス情報を生成する(ステップ54)。当該撮影シーケンス情報もサーバ300へアップロードされる。
続いて、デジタル顕微鏡100が、スライド画像撮影装置12により、上記撮影シーケンス情報に従って病理スライドの各領域を撮影する(ステップ55)。
続いて、制御用PC200が、領域毎のスライド画像のマッチング処理、タイル分割処理、圧縮処理、及び圧縮された画像のサーバへのアップロード処理を行う(ステップ56)。
続いて、サーバ300が、制御用PC200から受信したサムネイル画像と撮影シーケンス情報とを合成して撮影シーケンス合成画像を生成する(ステップ57)。またサーバ300は、制御用PC200から受信したスライド画像を登録する。
そして、ビューワ400は、サーバ300への閲覧要求により、サーバ300から所望のスライド画像を受信し、表示する(ステップ58)。
(制御用PCの動作)
図6は、上記システムの処理における制御用PC200の動作の流れを示したフローチャートである。
同図に示すように、制御用PC200のCPU21はまず、デジタル顕微鏡100にサムネイル画像を撮影させ、当該撮影されたサムネイル画像をデジタル顕微鏡100から取得する(ステップ61)。
続いてCPU21は、サムネイル画像をサーバ300へアップロードする(ステップ62)。
続いてCPU21は、上記画像処理部23により、サムネイル画像について上記画像認識処理を行い、サムネイル画像の各領域を、その領域における検体の存在レベルに応じて分類し、存在マップを生成する(ステップ63)。
続いてCPU21は、画像処理部23により、存在マップを基に撮影シーケンス情報を生成し、それをサーバ300へアップロードする(ステップ64)。
続いてCPU21は、1つの撮影シーケンスの処理を実行し、当該撮像されたスライド画像をさらに分割したタイル単位で圧縮する(ステップ65)。1つの撮影シーケンスは、ほぼ1つの領域分の撮影に相当するが、後述するマッチング処理に用いられる部分については、次の撮影シーケンスにおいて処理される(詳細は後述)。
続いてCPU21は、タイルとして確定した圧縮画像をサーバ300へアップロードする(ステップ66)。
続いてCPU21は、完了した撮影シーケンスの番号をサーバ300へ通知する(ステップ67)。
そしてCPU21は、上記ステップ65〜67の処理を、病理スライドの撮影シーケンスが全て終了するまで繰り返す(ステップ68)。
(撮影シーケンス情報生成処理)
次に、上記図6のステップ63及び64における、制御用PC200による撮影シーケンス情報の生成処理の詳細について説明する。図7は、当該撮影シーケンス情報の生成処理の概要を示した図であり、図8は、当該撮影シーケンス情報の生成処理の流れを示したフローチャートである。
図7(A)は、本実施形態における撮影シーケンスの生成処理との比較のために、本実施形態とは異なる撮影シーケンスの生成処理の概要を示す。同図(A1)に示される存在マップMでは、サムネイル画像が複数の領域に分割され、当該領域ごとに、検体の存在の尤度が0と1とで示されている。すなわち、この手法においては、各領域における検体の存在する尤度は、検体が存在する(レベル1)か、存在しない(レベル0)かの2値で示されている。
同図(A2)は、同図(A1)に示された存在マップから生成された撮影シーケンスSを示す。同図に示すように、撮影シーケンスは、検体が存在すると判断された領域を単純に繋ぐ手法で生成される。すなわち、これは例えば、検体が存在すると判断された領域(レベル1)を、左端を開始点として、上下方向に繋いでいき、上下方向に当該領域が存在しない場合には右方向へ繋いでいくという手法である。
このような撮影シーケンスでは、上記レベル1と判断された領域には、実際には検体が存在しない可能性がある。すなわち、同じレベル1と判断された領域でも、存在レベルが比較的高いものと比較的低いものとが混在している。したがって、特に同図(A2)の太線で示した領域境界において、その後のマッチング処理にずれが生じる可能性がある。
一方、同図(B)は、本実施形態における撮影シーケンスの生成処理の概要を示した図である。同図(B1)に示すように、本実施形態における存在マップMでは、各領域における検体の存在レベル(尤度)が、レベル0、レベル1、レベル2の3値で示されている。レベル0は、極めて低い尤度、レベル2は極めて高い尤度、レベル1はそれらの中間程度の尤度を示す。すなわち、レベル0の領域にはほぼ確実に検体は存在せず、レベル2の領域にはほぼ確実に検体が存在し、レベル1の領域は検体が存在する可能性が比較的高い。当該レベルは、エッジ検出や高周波数成分の抽出による値
もちろん、存在レベルは、3つのレベルに限られるものではなく、4つ以上のレベルで存在マップが生成されても構わない。
そしてCPU21は、このような3つレベルを有する存在マップを基に、存在レベルが高い領域から、デジタル顕微鏡100のステージの移動量が最小となり、かつ、その後のマッチング処理において極力ずれが生じないような撮影シーケンス情報を生成する。同図(B2)が当該撮影シーケンスを示したものであり、同図(B3)が当該撮影シーケンスにおける各領域の撮影順序を番号で示したものである。
具体的には、図8に示すように、CPU21はまず、サムネイル画像のうち左上に存在する、存在レベルの高い領域(レベル2の領域)を開始点として選択する(ステップ81)。
続いてCPU21は、開始点の領域の上か下方向に存在する、連続した存在レベルが高い領域を選択する処理を繰り返す(ステップ82)。この際、上方向と下方向とでは、上方向が優先される。
続いてCPU21は、存在レベルが高い領域がとぎれたら、右方向で隣接した存在レベルが高い領域を選択する。この際、右方向で隣接した存在レベルが高い領域がなければ、CPU21は、最も移動距離が小さい右方向(斜め方向も含む)の領域を選択する(ステップ83)。
続いてCPU21は、存在レベルが高い領域のうち右端の領域まで処理したら、左方向に対して処理を進める(ステップ84)。
すなわちCPU21は、上記ステップ82と同様に、開始点の領域の上か下方向に存在する、連続した存在レベルが高い領域を選択する処理を繰り返す(ステップ85)。
続いてCPU21は、存在レベルが高い領域がとぎれたら、左方向で隣接した存在レベルが高い領域を選択する。この際、左方向で隣接した存在レベルが高い領域がなければ、CPU21は、最も移動距離が小さい左方向(斜め方向も含む)の領域を選択する(ステップ86)。
続いてCPU21は、存在レベルが高い領域のうち左端の領域まで処理したら、再度右方向に対して処理を進める(ステップ87)。
このようにして存在レベルが高い領域(レベル2の領域)の処理が全て終了したら、CPU21は、存在レベルの低い領域(レベル1の領域)の処理に移る(ステップ88)。
すなわち、CPU21は、上記存在レベルが高い領域の処理における最終選択領域から最も近い、存在レベルが低い領域を開始点として選択する(ステップ89)。
その後は、CPU21は、上記存在レベルが高い領域についての上記ステップ82〜87と同様の処理を、存在レベルが低い領域について実行する(ステップ90〜95)。
そしてCPU21は、全ての存在レベルが低い領域の選択が終了すれば、撮影シーケンス情報の生成処理を終了する(ステップ96)。生成された撮影シーケンス情報は、上記存在マップ/撮影シーケンス保持部25に記憶される。
このように、存在レベルが高い領域が低い領域よりも優先的に撮影され、かつ、同一方向に連続した(隣接した)複数の領域が優先的に撮影されるように撮影シーケンス情報が作成される。これにより撮影処理が迅速化されるとともに、その後のマッチング処理の精度が向上する。
(存在マップの更新処理)
ここで、上記生成された存在マップの更新処理について説明する。図9は、当該存在マップの更新処理の概要を示した図である。
同図(A)の左側の図は、生成された存在マップの一例を示した図である。この例に示すように、存在マップにおいて、周囲を存在レベルの高い領域(レベル2の領域)で囲まれた、存在レベルの低い領域(レベル1の領域)が存在する場合がある(○で囲んだ領域)。
このような領域は、上述した撮影シーケンスの生成手法に従うと、本来は検体が存在する可能性が高いにも関わらず、同図(A)の右側の撮影シーケンスに示すように、撮影されなかったり、撮影が後回しにされたりする(太枠で囲んだ領域)。
そうすると、撮影のスピードや、その後のマッチングの精度が低下してしまうことが懸念される。
そこで本実施形態では、CPU21は、上記撮影シーケンス情報の生成処理に先立って、同図(B)に示すように、存在レベルの高い領域に囲まれた、存在レベルの低い領域の存在レベルを、存在レベルが高い領域として扱う。すなわちCPU21は、存在マップにおいて、当該囲まれた領域(レベル1に分類された領域)が、レベル2に分類しなおし、存在マップを更新する。
CPU21は、このように存在マップを更新し、当該更新された存在マップを基に上述の手法で撮影シーケンス情報を生成することで、撮影速度及びその後のマッチング処理の精度を向上させることができる。
(1つの撮影シーケンス処理/圧縮処理)
次に、上記図6のステップ65における、1つの撮影シーケンス処理及び圧縮処理の詳細について説明する。この処理の主な処理は、上記マッチングエンジンによるマッチング処理(繋ぎ合わせ処理)である。図10は、当該1つの撮影シーケンス処理及び圧縮処理の流れを示したフローチャートである。
同図に示すように、CPU21はまず、上記撮影シーケンス情報に従って病理スライドの領域を撮影し、スライド画像を取得する(ステップ101)。
続いてCPU21は、その領域のスライド画像のうち、隣接する領域のスライド画像との繋ぎ合わせに必要なのりしろ部分のRAW画像をメモリに保持する(ステップ102)。
続いてCPU21は、存在マップから、上記RAW画像との繋ぎ合わせが必要な隣接領域が存在するか否かを判断する(ステップ103)。
繋ぎ合わせが必要な領域が存在する場合(ステップ104のYes)、CPU21は、上記RAW画像と、上記隣接する領域のスライド画像の隣接部分を繋ぎ合わせ処理する(ステップ105)。
繋ぎ合わせが必要な領域が存在しない場合(ステップ104のNo)及び繋ぎ合わせ処理が終了した場合、CPU21は、スライド画像のうち、繋ぎ合わせ位置が確定した領域以外のデータを抽出する(ステップ106)。
そしてCPU21は、抽出したデータをタイル画像として、例えばJPEG等の形式で圧縮し、確定したタイル画像として保持する(ステップ107)。
ここで、上記撮影シーケンスにおける撮影領域と、タイル画像のサイズとの関係について説明する。図11は、当該関係を示した図である。
同図に示すように、各撮影シーケンスにおいて圧縮されるタイル画像Iのサイズは、各撮影シーケンスにおいて撮像された領域Rのスライド画像のサイズよりも小さく、例えば、撮影された領域のスライド画像をn等分(nは整数)できるサイズである。nは例えば9であるが、これに限られない。より具体的には、1つのタイル画像のサイズは例えば256×256(pixel)であるが、これに限られない。
図12〜図15は、上記1つの撮影シーケンス処理及び圧縮処理の例を示した図である。
一例として、図12(A)に示すような存在マップについて、同図(B)に示すような撮影シーケンス情報が生成された場合を想定する。同図(C)は、同図(B)に示す撮影シーケンスにおける撮影領域を、それぞれタイルサイズに分割して示した図である。この例では、左上、右上、右下の3つの撮影領域について撮影シーケンスが実行される。また、1つの領域から生成されるタイルは9枚とされる。
図13に示すように、第1の撮影シーケンスにおいて、CPU21は、存在マップを基に、右隣の撮影領域との繋ぎ合わせに用いられることが確定している部分以外のデータ(同図斜線部分)を抽出し、タイルデータとしてエンコードする。
そしてCPU21は、エンコードしたタイルデータをサーバ300へアップロードし、第1の撮影シーケンスが完了した旨をサーバ300へ通知する。
続いて図14に示すように、第2の撮影シーケンスにおいて、CPU21は、左上の撮影領域と右上の撮影領域との繋ぎ合わせを行う。またそれとともにCPU21は、存在マップを基に、右下の撮影領域とのに用いられることが確定している部分以外のデータ(同図の図13とは異なる斜線部分)を抽出し、タイルデータとしてエンコードする。
そしてCPU21は、エンコードしたタイルデータをサーバ300へアップロードし、第2の撮影シーケンスが完了した旨をサーバ300へ通知する。
続いて図15に示すように、第3の撮影シーケンスにおいて、CPU21は、右上の撮影領域と右下の撮影領域との繋ぎ合わせを行い、繋ぎ合わせが完了した部分のデータ及び繋ぎ合わせの必要がないデータ(図13、図14とは異なる斜線部分)を抽出し、タイルデータとしてエンコードする。
そしてCPU21は、エンコードしたタイルデータをサーバ300へアップロードし、第3の撮影シーケンスが完了した旨をサーバ300へ通知する。
このような処理により、撮影シーケンスが完了するたびにタイルがエンコードされ、サーバ300へアップロードされるため、サーバ300では、そのたびにタイルデータを登録し、ビューワ400に逐次閲覧させることが可能となる。
(撮影シーケンスの変更処理)
次に、上記生成された撮影シーケンスの変更処理(撮影シーケンス情報の更新処理)について説明する。
図16は、撮影シーケンスにおける問題点を説明するための図である。
例えば、同図(A1)に示すような、4つの領域に相当するサムネイル画像Tが撮影されたとする。サムネイル画像Tは、4つの撮影領域R1〜R4に対応している。逆C字形状の検体は、これら全ての領域R1〜R4にその一部が含まれている。したがってこれから存在マップが生成されると、同図(A2)のように、全ての領域の存在レベルが高く(レベル2に)なる。
そして、当該存在マップから撮影シーケンスが生成される場合、同図(B1)のようになる。
しかし、撮影順序が1番目の領域と、2番目の領域との境界部分(隣接部分)には検体が存在しないため、同図(B2)の太線で示した部分の繋ぎ合わせ位置が不定となってしまう。
また、1番目の領域と4番目の領域、3番目の領域と2番目の領域とがそれぞれ繋ぎ合わされると、3番目の領域と4番目の領域との隣接部分では、ずれが生じてしまう。
そこで、本実施形態において、CPU21は、繋ぎ合わせ部分(マッチングをとる部分)に検体が存在しないと判断した場合には、上記問題が生じないよう、撮影シーケンスを変更することとしている。
図17は、撮影シーケンスの変更処理について説明した図である。
同図に示すように、CPU21は、まず、マッチングをとる部分に検体があるか否かを判断し、当該部分に検体が存在しない場合には、以下に示す各手法で撮影シーケンスを変更する。例えば、領域R1とR2とのマッチング処理においては、両領域のマッチングをとる部分P1及びP2に検体が存在しないため、撮影シーケンスの変更が実行される。
図18は、撮影シーケンスの変更処理のための2つの手法について示した図である。
同図(A)に示す手法では、同図(A1)に示されるような順番の撮影シーケンスが、同図(A2)に示すように、常に検体が存在する部分についてマッチング処理が実行されるように変更される。すなわち、同図(A1)における領域R1→R2→R3→R4の順序の撮影シーケンスが、逆C字形状の検体Sの広がり方向に合わせて、同図(A2)に示すように領域R1→R3→R4→R2の順序に変更される。
同図(B)に示す手法では、存在マップにおける存在レベルが変更される結果として撮影シーケンスが変更される。すなわち、同図(B1)に示す存在マップでは、全ての領域のレベルはレベル2となっているが、領域R1及びR2の撮影が後回しにされるように、それらの領域のレベルがレベル1に下げられる(同図(B2))。
このレベルの変更により、変更後の存在マップに従って上述の手法で撮影シーケンスが生成されると、撮影シーケンスは、同図(B3)に示すように、領域R3→R4→R2→R1の順序となる。
図19は、上記図18(A)の手法による撮影シーケンスの変更処理の流れを示したフローチャートである。
同図に示すように、CPU21はまず、上述したように、サムネイル画像を取得して(ステップ191)、当該サムネイル画像から存在マップを生成する(ステップ192)。
続いてCPU21は、上述のように、上記存在マップから撮影シーケンス情報を生成する(ステップ193)。
続いてCPU21は、サムネイル画像から、1つの撮影領域に隣接する撮影領域のショットののりしろに相当する部分(マッチングをとる部分)のデータを取得する(ステップ194)。つまりCPU21は、1つの撮影領域の上下左右方向における各のりしろ部分のデータを取得する。
続いてCPU21は、上記のりしろ部分のデータを用いて、対象の当該対象領域に隣接する全ての領域について、マッチング処理を実行する(ステップ195)。
続いてCPU21は、上記マッチング処理によりマッチングがとれたか否かを判断し、その結果をマップとして生成する(ステップ196)。
CPU21は、当該ステップ194〜196の処理を、撮影ショット(撮影領域)の数分繰り返す。
全ての撮影領域についてマップが生成されると、CPU21は、当該マップと、元の撮影シーケンスとを基に、全ての撮影領域の隣接部分において、確実にマッチングが取れるように撮影シーケンスを組みなおす(更新する)(ステップ197)。当該撮影シーケンスは上記存在マップ/撮影シーケンス保持部25に保存される。
図20は、上記図18(B)の手法による撮影シーケンスの変更処理の流れを示したフローチャートである。
同図に示すように、CPU21はまず、上記図19の場合と同様に、サムネイル画像から生成された存在マップを基に撮影シーケンスを生成する(ステップ201〜203)。
続いてCPU21は、存在マップのレベルが高く(レベル2)、同一方向において連続して撮影されるように順序付けられている撮影領域について、サムネイル画像からマッチング用ののりしろ部分のデータを取得する(ステップ204)。
続いてCPU21は、当該取得したデータを用いて、上記連続した撮影領域についてマッチング処理を実行する(ステップ205)。
続いてCPU21は、上記マッチング処理の結果、マッチングがとれなかった場合、マッチング対象である2つの撮影領域の、存在マップ上のレベルを下げる(レベル1にする)(ステップ206)。
CPU21は、当該ステップ204〜206の処理を、撮影ショット(撮影領域)の数分繰り返す。
そしてCPU21は、上記変更された存在マップを用いて、撮影シーケンス情報を再生成する(ステップ207)。当該再生成された撮影シーケンスは上記存在マップ/撮影シーケンス保持部25に保存される。
このような撮影シーケンスの変更により、その後のマッチング処理の精度が向上する。
また、上述したように、マッチング処理はマッチングエンジンによって実行されるが、上記撮影シーケンス自体は変更されずに、CPU21が、マッチングエンジンに対して、マッチング対象の2つの領域間にマッチングできる部分が存在しないことを通知しても構わない。
例えば、上記領域R1とR2との間にマッチングできる部分が存在しないことがマッチングエンジンに通知された場合、マッチングエンジンは、当該領域R1とR2のデータをバッファリングし、領域R3及びR4に関するマッチング処理の後から領域R1及びR2のマッチングを行う。このような処理により、上記撮影シーケンスの変更と同様の効果が得られる。
(マッチング処理用のメモリの確保/解放)
次に、上記マッチング処理に必要なメモリの確保/解放処理について説明する。
図21は、当該マッチング処理用のメモリの確保について説明した図である。
例えば、同図左側に示す存在マップが用いられる場合、太線の内側の領域が撮影され、マッチング処理の対象となる。例えば、そのうち、拡大して示した右上隅の4つの領域については、領域R3は存在レベルがレベル0であるため、撮影はされず、その他の領域R2、R2及びR3がマッチングされる。
しかし、マッチングエンジン側は、存在マップを参照しない場合、上記領域R3が撮影されないことが分からないため、当該領域R3と、領域R1及びR4とのマッチングのために、同図P1及びP4で示した部分のデータ用のメモリを無駄に確保してしまうことになる。また、このようなメモリは、全ての領域のマッチング処理が終了するまで確保され続けるため、マッチング処理の終了時における後処理に時間がかかってしまう。
そこで本実施形態では、CPU21(撮影シーケンス制御部24)が、マッチングエンジンへ渡す。これによりマッチングエンジンは、撮影されない領域を把握することができるため、撮影されない領域に関するマッチング用のメモリを確保しなくて済むことになる。
図22は、マッチング処理におけるメモリの確保及び解放処理の流れを示したフローチャートである。
同図に示すように、まずマッチングエンジンは、上述のとおり、マッチング処理に先立って、存在マップを取得する(ステップ221)。
続いてマッチングエンジンは、上記撮影シーケンス情報に従って撮影された1回の撮影ショットに相当する領域の、存在マップ上の座標情報を取得する(ステップ222)。
続いてマッチングエンジンは、上記取得した座標と存在マップとを比較する(ステップ223)。
続いてマッチングエンジンは、存在マップを基に、隣接して撮影された領域間についてのみ、マッチング用ののりしろ部分のメモリを確保する(ステップ224)。
続いてマッチングエンジンは、撮影シーケンスの進行状況に応じて、マッチングを取れる部分があればその部分についてマッチング処理を実行する(ステップ225)。
そしてマッチングエンジンは、存在マップ上、1回の撮影ショットに関係する全てのマッチング処理を終了すると、上記のりしろ用のメモリを解放する(ステップ226)。
マッチングエンジンは、以上の処理を、撮影シーケンスに含まれる全ての撮影ショット数分繰り返す。
以上の処理により、マッチング用ののりしろ部分のメモリは、実際にマッチング処理に必要な部分についてのみ確保され、また1回の撮影ショットに対応するマッチング処理が完了するごとに逐次解放されることになる。したがって、無駄なメモリの確保が防止され、マッチング処理終了時の後処理も不要となる。
(サーバの動作)
次に、上記システムにおける処理の流れを、上記サーバ300の動作を中心に説明する。
図23は、本システムにおける、デジタル顕微鏡100、制御用PC200及びサーバ300の3者による処理及びデータの流れを示したシーケンス図である。
同図に示すように、まず、制御用PC200が、デジタル顕微鏡100に対して、サムネイル画像の撮影を指示する(ステップ231)。
続いてデジタル顕微鏡100は、当該指示に応じて、サムネイル画像を撮影し、制御用PC200へ送信する(ステップ232)。
続いて制御用PC200は、当該サムネイル画像を圧縮し(ステップ233)、当該サムネイル画像を、その撮影対象である病理スライドのスライドIDとともにサーバ300へアップロードする(ステップ234)。
続いて制御用PC200は、上述したように、サムネイル画像から存在マップを生成し、当該存在マップから撮影シーケンス情報を生成する(ステップ235)。
続いて制御用PC200は、上記生成した撮影シーケンス情報を、上記スライドIDとともにサーバ300へアップロードする(ステップ236)。
続いて制御用PC200は、撮影シーケンス情報に基づき、1つの撮影シーケンスに相当するスライド画像の撮影をデジタル顕微鏡100に指示し、撮影されたスライド画像を取得する(ステップ237)。
続いて制御用PC200は、上述したマッチング(繋ぎ合わせ)処理及びタイル圧縮処理を行い(ステップ238)、圧縮後のスライド画像(タイル画像)を、上記スライドIDとともにサーバ300へアップロードする(ステップ239)。
また制御用PC200は、1ショット分の撮影シーケンスが完了した旨を、上記スライドIDとともにサーバ300へ通知する(ステップ240)。
デジタル顕微鏡100及び制御用PC200は、上記撮影処理、スライド画像のアップロード処理、撮影シーケンスの完了通知を、撮影シーケンス分繰り返す。
図24は、本システムにおける、サーバ300、ビューワ400及びユーザの3者による処理及びデータの流れを示したシーケンス図である。
同図に示すように、まず、ビューワ400が、サーバ300に対して、上記撮影シーケンス合成画像を要求する(ステップ241)。
続いてサーバ300は、上述したように、撮影シーケンス画像合成部36により、サムネイル画像と撮影シーケンス情報とを合成した撮影シーケンス合成画像を生成する(ステップ242)。
続いてサーバ300は、上記生成した撮影シーケンス合成画像をビューワ400へ応答する(ステップ243)。これによりビューワ400のユーザは、病理スライドの撮影がどの領域まで完了したかを把握し、サーバ300へスライドデータ(タイルデータ)を要求可能となる。
続いてサーバ300は、ビューワ400からの要求に応じて、登録済みのスライドデータをビューワ400へ送信する(ステップ243、245)。ビューワ400は、受信したスライドデータを表示部に表示する。
この際、ビューワ400のユーザは、マウス等のコントローラにより、撮影シーケンス合成画像を用いて、スライド全体の中での視点(表示位置)を変更可能であり、変更後の視点に相当するスライドデータをサーバ300へ要求する。
図25は、サーバ300による上記撮影シーケンス合成画像の生成処理の流れを示したフローチャートである。
同図に示すように、サーバ300のCPU31は、ビューワ画像閲覧応答部33により、ビューワ400から、撮影シーケンス合成画像のリクエストを受信する(ステップ251)。
続いてCPU31は、ビューワ画像閲覧応答部33から、撮影シーケンス画像合成部36へ、当該撮影シーケンス合成画像の生成をリクエストさせる(ステップ252)。
続いてCPU31は、撮影シーケンス画像合成部36により、撮影シーケンス保持部34に保存された撮影シーケンス情報を取得する(ステップ253)。
続いてCPU31は、撮影シーケンス画像合成部36により、撮影シーケンス合成画像を生成し、ビューワ画像閲覧応答部33へ返信させる(ステップ254)。
そしてCPU31は、ビューワ画像閲覧応答部33により、上記撮影シーケンス合成画像をビューワ400へと応答する(ステップ255)。
図26は、上記撮影シーケンス合成画像の生成処理の概要を説明するための図である。
例として、同図(B)に示すようなサムネイル画像について、同図(A)に示すような撮影シーケンス情報が生成された場合を想定する。すなわち、この例では、逆L字形状の検体の形状に合わせて、3回の撮影シーケンスが実行される。
この場合、同図(C1)に示すように、サーバ300のCPU31は、1回目の撮影シーケンスにおいて撮影が完了した場合、サムネイル画像上で、当該撮影が完了した領域に、所定の色を付す。
同様に、同図(C2)に示すように、CPU31は、2回目の撮影シーケンスにおいて撮影が完了した場合、サムネイル画像上で、当該撮影が完了した領域に、上記所定の色を付す。
同じく、同図(C3)に示すように、CPU31は、3回目の撮影シーケンスにおいて撮影が完了した場合、サムネイル画像上で、当該撮影が完了した領域に、上記所定の色を付す。
このように、CPU31は、撮影シーケンス合成画像上で、撮影が完了した領域を色で示すことで、ビューワ400のユーザに、撮影シーケンスの進行状況をリアルタイムに知らせ、即座に閲覧させることができる。
撮影完了を示す手法は着色に限られず、例えば領域を太枠で囲む等の他の手法が用いられてもよい。
[まとめ]
以上説明したように、本実施形態によれば、制御用PC200は、上記3つのレベルに基づいた存在マップから、存在レベルの高い領域から優先して撮影され、かつ、ステージの移動が最小となるような撮影シーケンスを生成する。これにより、スライド画像の撮影処理が迅速化され、その後のマッチング処理の効率も向上する。
また、サーバ300は、上記撮影シーケンス合成画像を生成してビューワ400に閲覧させることで、ビューワ400のユーザに、サムネイル画像上で撮影シーケンスの進行状況をリアルタイムに把握させ、スライド画像を迅速に閲覧させることができる。
[変形例]
本技術は上述の実施形態にのみ限定されるものではなく、本開示の要旨を逸脱しない範囲内において種々変更され得る。
上述の図8等で説明した撮影シーケンスの生成手法は、同図に示した例に限られない。例えば、開始点の位置や、上下左右の移動の順番は、どのように変更されてもよい。
上述の実施形態では、撮影シーケンス合成画像はサーバ300によって生成されたが、ビューワ400で生成されてもよい。この場合、サーバ300からビューワ400へ、サムネイル画像と撮影シーケンス情報とが送信され、また撮影シーケンスの完了通知もサーバ300からビューワ400へ転送される。
上述の実施形態では、スライド画像のマッチング(繋ぎ合わせ)処理は制御用PC200によって実行されたが、サーバ300で実行されてもよい。その場合、存在マップや撮影シーケンス情報も制御用PC200からサーバ300へ送信される。
[その他]
本技術は以下のような構成も採ることができる。
(1)
ステージに載置された検体の標本の全体が撮像装置により第1の解像度で撮像された第1の画像を記憶可能なメモリと、
前記第1の画像を複数の領域に分割し、当該分割された複数の領域に前記検体が存在する尤度を当該複数の領域ごとに算出し、
前記算出された尤度に基づいて、前記複数の領域を、前記検体が第1の尤度で存在する第1の領域と、前記検体が前記第1の尤度よりも低い第2の尤度で存在する第2の領域と、前記検体が存在しない第3の領域とに分類した存在マップを生成し、
前記第1の領域及び前記第2の領域の複数の第2の画像が、前記撮像装置により前記第1の解像度よりも大きい第2の解像度で撮像される際に、前記第1の領域に続いて前記第2の領域が撮像され、かつ、当該撮像のための前記ステージの総移動距離が最小となるような撮像順序を示す撮像順序情報を、前記生成された存在マップに基づいて生成する
ことが可能な制御部と
を具備する情報処理装置。
(2)上記(1)に記載の情報処理装置であって、
前記制御部は、同一方向に連続した複数の第1の領域が優先的に撮像されるように前記撮像順序 情報を生成可能である
情報処理装置。
(3)上記(1)または(2)に記載の情報処理装置であって、
前記制御部は、前記撮像順序情報により連続して撮像するように順番付けられている2つの第2の画像のそれぞれの隣接部分に検体が存在しないと判断した場合に、当該2つの画像が連続して撮像されないように前記撮像順序情報を更新可能である
情報処理装置。
(4)上記(3)に記載の情報処理装置であって、
前記制御部は、前記2つの画像の撮像元である、前記第1の領域が前記第2の領域に、または、前記第2の領域が前記第3の領域に分類されるように前記存在マップを更新し、当該更新された存在マップを基に前記撮像順序情報を更新可能である
情報処理装置。
(5)上記(1)から(4)のうちいずれか1つに記載の情報処理装置であって、
前記制御部は、前記生成された存在マップにおいて、前記第1の領域に囲まれた前記第2の領域または前記第3の領域を、前記第1の領域に分類しなおすことで当該存在マップを更新し、当該更新された存在マップを基に前記撮像順序情報を生成可能である
情報処理装置。
(6)上記(1)から(5)のうちいずれか1つに記載の情報処理装置であって、
ネットワーク上のサーバと通信可能な通信部をさらに具備し、
前記制御部は、前記撮像順序情報及び撮像済みの前記第1の領域または前記第2の領域に関する情報を前記サーバへ送信するように前記通信部を制御可能である
情報処理装置。
(7)上記(6)に記載の情報処理装置であって、
前記制御部は、
前記撮像された複数の第2の画像を、当該複数の第2の画像のマッチングのために記憶するように前記メモリを制御し、
前記存在マップ及び前記撮像順序情報を基に、前記記憶された1つの第2の画像のうち、その次に撮像されるように順番づけられている隣接する1つの第2の画像とのマッチングに用いられない領域をエンコードし、
前記エンコードされた領域のデータを前記サーバへ送信するように前記通信部を制御し、
前記マッチングが完了した場合に、前記マッチングに用いられた領域を、前記隣接する1つの第2の画像のうち、その次に撮像されるように順番付けられている隣接する1つの第2の画像とのマッチングに用いられない領域と併せてエンコードし、
前記併せてエンコードされた領域のデータを前記サーバへ送信するように前記通信部を制御することが可能である
情報処理装置。
(8)上記(7)に記載の情報処理装置であって、
前記制御部は、前記マッチングに先立って、前記存在マップ及び前記撮像順序情報を基に、前記複数の第2の画像のそれぞれの領域のうち、前記マッチングに用いられる領域についてのみ前記メモリを確保可能である
情報処理装置。
(9)上記(7)または(8)に記載の情報処理装置であって、
前記制御部は、前記エンコードが完了する毎に、撮像完了を通知する通知情報を前記サーバへ送信するように前記通信部を制御可能である
情報処理装置。
11…スライド画像撮影装置
12…サムネイル画像撮影装置
21、31…CPU
22、32…メモリ
23…画像処理部
24…撮影シーケンス制御部
25…存在マップ/撮影シーケンス保持部
33…ビューワ画像閲覧応答部
34…撮影シーケンス保持部
35…画像登録部
36…撮影シーケンス画像合成部
37…HDD
100…デジタル顕微鏡
150…ネットワーク
200…制御用PC
300…サーバ
400…画像表示システム(ビューワ)

Claims (12)

  1. ステージに載置された検体の標本の全体が撮像装置により第1の解像度で撮像された第1の画像を記憶可能なメモリと、
    前記第1の画像を複数の領域に分割し、当該分割された複数の領域に前記検体が存在する尤度を当該複数の領域ごとに算出し、
    前記算出された尤度に基づいて、前記複数の領域を、前記検体が第1の尤度で存在する第1の領域と、前記検体が前記第1の尤度よりも低い第2の尤度で存在する第2の領域と、前記検体が存在しない第3の領域とに分類した存在マップを生成し、
    前記第1の領域及び前記第2の領域の複数の第2の画像が、前記撮像装置により前記第1の解像度よりも大きい第2の解像度で撮像される際に、前記第1の領域に続いて前記第2の領域が撮像され、かつ、当該撮像のための前記ステージの総移動距離が最小となるような撮像順序を示す撮像順序情報を、前記生成された存在マップに基づいて生成する
    ことが可能な制御部と
    を具備する情報処理装置。
  2. 請求項1に記載の情報処理装置であって、
    前記制御部は、同一方向に連続した複数の第1の領域が優先的に撮像されるように前記撮像順序情報を生成可能である
    情報処理装置。
  3. 請求項1に記載の情報処理装置であって、
    前記制御部は、前記撮像順序情報により連続して撮像するように順番付けられている2つの第2の画像のそれぞれの隣接部分に検体が存在しないと判断した場合に、当該2つの画像が連続して撮像されないように前記撮像順序情報を更新可能である
    情報処理装置。
  4. 請求項3に記載の情報処理装置であって、
    前記制御部は、前記2つの画像の撮像元である、前記第1の領域が前記第2の領域に、または、前記第2の領域が前記第3の領域に分類されるように前記存在マップを更新し、当該更新された存在マップを基に前記撮像順序情報を更新可能である
    情報処理装置。
  5. 請求項1に記載の情報処理装置であって、
    前記制御部は、前記生成された存在マップにおいて、前記第1の領域に囲まれた前記第2の領域または前記第3の領域を、前記第1の領域に分類しなおすことで当該存在マップを更新し、当該更新された存在マップを基に前記撮像順序情報を生成可能である
    情報処理装置。
  6. 請求項1に記載の情報処理装置であって、
    ネットワーク上のサーバと通信可能な通信部をさらに具備し、
    前記制御部は、前記撮像順序情報及び撮像済みの前記第1の領域または前記第2の領域に関する情報を前記サーバへ送信するように前記通信部を制御可能である
    情報処理装置。
  7. 請求項6に記載の情報処理装置であって、
    前記制御部は、
    前記撮像された複数の第2の画像を、当該複数の第2の画像のマッチングのために記憶するように前記メモリを制御し、
    前記存在マップ及び前記撮像順序情報を基に、前記記憶された1つの第2の画像のうち、その次に撮像されるように順番づけられている隣接する1つの第2の画像とのマッチングに用いられない領域をエンコードし、
    前記エンコードされた領域のデータを前記サーバへ送信するように前記通信部を制御し、
    前記マッチングが完了した場合に、前記マッチングに用いられた領域を、前記隣接する1つの第2の画像のうち、その次に撮像されるように順番付けられている隣接する1つの第2の画像とのマッチングに用いられない領域と併せてエンコードし、
    前記併せてエンコードされた領域のデータを前記サーバへ送信するように前記通信部を制御することが可能である
    情報処理装置。
  8. 請求項7に記載の情報処理装置であって、
    前記制御部は、前記マッチングに先立って、前記存在マップ及び前記撮像順序情報を基に、前記複数の第2の画像のそれぞれの領域のうち、前記マッチングに用いられる領域についてのみ前記メモリを確保可能である
    情報処理装置。
  9. 請求項7に記載の情報処理装置であって、
    前記制御部は、前記エンコードが完了する毎に、撮像完了を通知する通知情報を前記サーバへ送信するように前記通信部を制御可能である
    情報処理装置。
  10. ステージに載置された検体の標本の全体が撮像装置により第1の解像度で撮像された第1の画像を記憶し、
    前記第1の画像を複数の領域に分割し、当該分割された複数の領域に前記検体が存在する尤度を当該複数の領域ごとに算出し、
    前記算出された尤度に基づいて、前記複数の領域を、前記検体が第1の尤度で存在する第1の領域と、前記検体が前記第1の尤度よりも低い第2の尤度で存在する第2の領域と、前記検体が存在しない第3の領域とに分類した存在マップを生成し、
    前記第1の領域及び前記第2の領域の複数の第2の画像が、前記撮像装置により前記第1の解像度よりも大きい第2の解像度で撮像される際に、前記第1の領域に続いて前記第2の領域が撮像され、かつ、当該撮像のための前記ステージの総移動距離が最小となるような撮像順序を示す撮像順序情報を、前記生成された存在マップに基づいて生成する
    情報処理方法。
  11. 情報処理装置に、
    ステージに載置された検体の標本の全体が撮像装置により第1の解像度で撮像された第1の画像を記憶するステップと、
    前記第1の画像を複数の領域に分割し、当該分割された複数の領域に前記検体が存在する尤度を当該複数の領域ごとに算出するステップと、
    前記算出された尤度に基づいて、前記複数の領域を、前記検体が第1の尤度で存在する第1の領域と、前記検体が前記第1の尤度よりも低い第2の尤度で存在する第2の領域と、前記検体が存在しない第3の領域とに分類した存在マップを生成するステップと、
    前記第1の領域及び前記第2の領域の複数の第2の画像が、前記撮像装置により前記第1の解像度よりも大きい第2の解像度で撮像される際に、前記第1の領域に続いて前記第2の領域が撮像され、かつ、当該撮像のための前記ステージの総移動距離が最小となるような撮像順序を示す撮像順序情報を、前記生成された存在マップに基づいて生成するステップと
    を実行させるプログラム。
  12. 情報処理装置において、
    ステージに載置された検体の標本の全体が撮像装置により第1の解像度で撮像された第1の画像を記憶し、
    前記第1の画像を複数の領域に分割し、当該分割された複数の領域に前記検体が存在する尤度を当該複数の領域ごとに算出し、
    前記算出された尤度に基づいて、前記複数の領域を、前記検体が第1の尤度で存在する第1の領域と、前記検体が前記第1の尤度よりも低い第2の尤度で存在する第2の領域と、前記検体が存在しない第3の領域とに分類した存在マップを生成し、
    前記第1の領域及び前記第2の領域の複数の第2の画像が、前記撮像装置により前記第1の解像度よりも大きい第2の解像度で撮像される際に、前記第1の領域に続いて前記第2の領域が撮像され、かつ、当該撮像のための前記ステージの総移動距離が最小となるような撮像順序を示す撮像順序情報を、前記生成された存在マップに基づいて生成する
    ことで、前記撮像装置により前記撮像順序情報に基づいて撮像された前記複数の第2の画像を記録した記録媒体。
JP2011205864A 2011-09-21 2011-09-21 情報処理装置、情報処理方法、プログラム及び記録媒体 Withdrawn JP2013068706A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011205864A JP2013068706A (ja) 2011-09-21 2011-09-21 情報処理装置、情報処理方法、プログラム及び記録媒体
US13/610,442 US8934699B2 (en) 2011-09-21 2012-09-11 Information processing apparatus, information processing method, program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011205864A JP2013068706A (ja) 2011-09-21 2011-09-21 情報処理装置、情報処理方法、プログラム及び記録媒体

Publications (1)

Publication Number Publication Date
JP2013068706A true JP2013068706A (ja) 2013-04-18

Family

ID=47880691

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011205864A Withdrawn JP2013068706A (ja) 2011-09-21 2011-09-21 情報処理装置、情報処理方法、プログラム及び記録媒体

Country Status (2)

Country Link
US (1) US8934699B2 (ja)
JP (1) JP2013068706A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2013179723A1 (ja) * 2012-05-28 2016-01-18 ソニー株式会社 情報処理装置、情報処理方法、プログラム及び顕微鏡システム

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6455829B2 (ja) * 2013-04-01 2019-01-23 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
JP2016051167A (ja) * 2014-08-29 2016-04-11 キヤノン株式会社 画像取得装置およびその制御方法
US10663711B2 (en) 2017-01-04 2020-05-26 Corista, LLC Virtual slide stage (VSS) method for viewing whole slide images
JP7458328B2 (ja) 2018-05-21 2024-03-29 コリスタ・エルエルシー マルチ分解能登録を介したマルチサンプル全体スライド画像処理
JP7129244B2 (ja) * 2018-06-29 2022-09-01 キヤノン株式会社 電子機器、電子機器の制御方法、プログラム、記憶媒体

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6272235B1 (en) 1997-03-03 2001-08-07 Bacus Research Laboratories, Inc. Method and apparatus for creating a virtual microscope slide
HUP0600435A2 (en) * 2006-05-26 2007-11-28 3Dhistech Kft Method and system for digitizing a specimen having fluorescent target points
GB2466830B (en) * 2009-01-09 2013-11-13 Ffei Ltd Method and apparatus for controlling a microscope

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2013179723A1 (ja) * 2012-05-28 2016-01-18 ソニー株式会社 情報処理装置、情報処理方法、プログラム及び顕微鏡システム
US11307399B2 (en) 2012-05-28 2022-04-19 Sony Corporation Information processing device, information processing method, program, and microscope system

Also Published As

Publication number Publication date
US8934699B2 (en) 2015-01-13
US20130070970A1 (en) 2013-03-21

Similar Documents

Publication Publication Date Title
JP4667944B2 (ja) 画像作成装置
US9710598B2 (en) Information processor, image data optimization method and program
JP2013068706A (ja) 情報処理装置、情報処理方法、プログラム及び記録媒体
JP5822345B2 (ja) ホールスライドイメージ作成装置
JP2012010275A (ja) 情報処理装置、情報処理方法、及びそのプログラム
US20140292813A1 (en) Image processing apparatus and image processing method
JP2013045069A (ja) 情報処理システム及び情報処理方法
JP2012003214A (ja) 情報処理装置、情報処理方法、プログラム、撮像装置、及び光学顕微鏡を搭載した撮像装置
JP2014029380A (ja) 情報処理装置、情報処理方法、プログラム及び画像表示装置
JP2015233267A (ja) 画像処理装置、及び撮像装置
JP2013134574A (ja) 画像データ生成装置、画像データ表示システムおよび画像データ生成方法
JP2013167798A (ja) 画像生成装置及びその制御方法
JP5856931B2 (ja) 医療画像管理装置、医療画像管理方法、医療画像管理プログラム
CN108133501B (zh) 显示病理图像的方法、图像处理装置和计算机存储介质
JP5967197B2 (ja) 情報処理装置、情報処理方法、プログラム及び顕微鏡システム
JP2014048325A (ja) 情報処理装置、情報処理方法、および情報処理プログラム
EP2891090B1 (en) Information processing apparatus, information processing method
US11551339B2 (en) Information processing apparatus, information processing method, and storage medium
JP2010092283A (ja) 立体画像作成装置及び方法並びに内視鏡検査システム
JP2013078382A (ja) パノラマ画像作製プログラム
JP5874540B2 (ja) 情報処理装置、情報処理方法、プログラム及び顕微鏡システム
US20120224778A1 (en) Information processing apparatus, information processing method, and program
JP7416736B2 (ja) 撮影支援装置、撮影支援方法、及び撮影支援プログラム
WO2020261955A1 (ja) 診断支援プログラム、診断支援システム及び診断支援方法
JP2017041273A (ja) 情報処理システム及び情報処理方法

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20141202