JP2013152426A - 画像処理装置、画像処理システム、画像処理方法、およびプログラム - Google Patents

画像処理装置、画像処理システム、画像処理方法、およびプログラム Download PDF

Info

Publication number
JP2013152426A
JP2013152426A JP2012226899A JP2012226899A JP2013152426A JP 2013152426 A JP2013152426 A JP 2013152426A JP 2012226899 A JP2012226899 A JP 2012226899A JP 2012226899 A JP2012226899 A JP 2012226899A JP 2013152426 A JP2013152426 A JP 2013152426A
Authority
JP
Japan
Prior art keywords
image
area
observation
image processing
attention area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012226899A
Other languages
English (en)
Inventor
Tomohiko Takayama
知彦 高山
Toru Sasaki
亨 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012226899A priority Critical patent/JP2013152426A/ja
Priority to US14/369,092 priority patent/US20140333751A1/en
Priority to PCT/JP2012/008024 priority patent/WO2013099141A1/en
Publication of JP2013152426A publication Critical patent/JP2013152426A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • G02B21/365Control or image processing arrangements for digital or video microscopes
    • G02B21/367Control or image processing arrangements for digital or video microscopes providing an output produced by processing a plurality of individual source images, e.g. image tiling, montage, composite images, depth sectioning, image comparison
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports

Abstract

【課題】 バーチャル・スライド画像の深度をいずれの方向に変更すれば良いのかが直感的にユーザが分かり易いようにバーチャル・スライド画像を処理する画像処理装置を提供すること。
【解決手段】 画像処理装置は、顕微鏡装置で取得した複数のレイヤー画像を含むZスタック画像のデータを取得する画像データ取得手段と、前記複数のレイヤー画像のうち少なくとも1つのレイヤー画像を観察画像として表示装置に表示する表示制御手段と、ユーザに指定された前記観察画像の注目領域の情報を取得する領域情報取得手段と、前記複数のレイヤー画像のそれぞれの前記注目領域に対応する対応領域における合焦情報を検出する検出手段と、を備える。前記表示制御手段は、前記検出手段の検出結果に基づいて、前記注目領域と前記注目領域よりも合焦状態に近い前記対応領域との位置関係を示す画像を、前記注目領域と同時に前記表示装置に表示する。
【選択図】 図10

Description

本発明は、バーチャル・スライド画像を処理する画像処理装置、画像処理システム、画像処理方法、およびプログラムに関する。
プレパラート上の試料をデジタル顕微鏡で撮像することでバーチャル・スライド画像を取得し、これをモニターに表示して観察することが可能なバーチャル・スライドシステムが注目されている(特許文献1)。
また、バーチャル・スライド画像として、複数のレイヤー画像を含むZスタック画像(深度画像)を用いることも知られている(特許文献2)。
特開2011−118107号公報 特開2011−204243号公報
モニターに表示されている観察画像中の構造物が合焦していない場合、ユーザはバーチャル・スライド画像のZ位置(深度)を変更することで合焦させることができる。
しかし、ユーザは、バーチャル・スライド画像の深度をいずれの方向に変更すれば良いのかが直感的に分からないという課題があった。
そこで、本発明は、バーチャル・スライド画像の深度をいずれの方向に変更すれば良いのかが直感的にユーザが分かり易いようにバーチャル・スライド画像を処理する画像処理装置を提供することを目的とする。
その目的を達成するために、本発明の一側面としての画像処理装置は、顕微鏡装置で取得した複数のレイヤー画像を含むZスタック画像のデータを取得する画像データ取得手段と、前記複数のレイヤー画像のうち少なくとも1つのレイヤー画像を観察画像として表示装置に表示する表示制御手段と、ユーザに指定された前記観察画像の注目領域の情報を取得する領域情報取得手段と、前記複数のレイヤー画像のそれぞれの前記注目領域に対応する対応領域における合焦情報を検出する検出手段と、を備え、前記表示制御手段は、前記検出手段の検出結果に基づいて、前記注目領域と前記注目領域よりも合焦状態に近い前記対応領域との位置関係を示す画像を、前記注目領域と同時に前記表示装置に表示することを特徴とする。
本発明のその他の側面については、以下で説明する実施の形態で明らかにする。
バーチャル・スライド画像の深度をいずれの方向に変更すれば良いのかが直感的にユーザが分かり易いようにバーチャル・スライド画像を処理する画像処理装置を提供することができる。
撮像システムの装置構成の全体図。 撮像装置の機能構成を示すブロック図。 焦点位置の異なる複数枚の画像を説明する模式図。 画像提示の流れを示すフローチャート。 合焦情報検出の流れを示すフローチャート。 複数の注目領域とその合焦情報を説明する模式図。 注目領域指定画面、補助領域提示画面の模式図。 別の形態の注目領域指定画面、補助領域提示画面の模式図。 推定構造に対する合焦情報検出の流れを示すフローチャート。 合焦情報検出を選択する提示画像の模式図。 注目領域の優先度を説明する模式図。 注目領域に付与する優先度を説明するフローチャート。 細胞集塊とその合焦情報を説明する模式図。 補助領域提示画面の模式図。 補助領域提示画面における注目領域(観察領域)の切り替えを説明する模式図。 構造Zスタック数と表示Zスタック数の関係を説明する模式図。 画像処理装置のハードウェア構成図。 画像処理装置の制御部の機能ブロック図。 画像処理装置の制御部における表示候補画像データ生成部の機能ブロック図。 別の実施例における画像処理装置の制御部における表示候補画像データ生成部の機能ブロック図。
以下に本発明の実施の形態について図面を参照して説明する。
[実施形態1]
図1は、撮像システムの装置構成の全体図である。本実施形態における撮像システムは、撮像装置101と、画像処理装置102および表示装置103を備える画像処理システムと、から構成され、撮像対象となる被写体(標本)の2次元画像を取得し表示する機能を有するシステムである。撮像装置101と画像処理装置102の間は、専用もしくは汎用I/Fのケーブル104で接続され、画像処理装置102と表示装置103の間は、汎用のI/Fのケーブル105で接続される。
撮像装置101は、光軸方向に焦点位置の異なる複数枚の2次元画像を撮像し、デジタル画像を出力する機能を持つ顕微鏡装置(バーチャル・スライド装置)である。2次元画像の取得にはCCDやCMOS等の固体撮像素子が用いられる。なお、バーチャル・スライド装置の代わりに、通常の光学顕微鏡の接眼部にデジタルカメラを取り付けたデジタル顕微鏡装置により、撮像装置101を構成することもできる。
画像処理装置102は、撮像装置101から取得した複数枚のレイヤー画像から、所望の焦点位置と被写界深度をもつ複数枚の観察用画像を生成し、表示装置103に表示することで、ユーザによる顕微鏡観察を支援するための装置である。画像処理装置102は、主な機能として、Zスタック画像のデータを取得する画像データ取得機能、Zスタック画像のデータから観察用画像を生成する画像生成機能、および観察用画像を表示装置103に表示する表示制御機能を有している。なお、本実施形態の画像処理装置は、ユーザに指定された注目領域の情報を取得する領域情報取得機能、注目領域における合焦情報を検出する検出機能、画像のデータに優先度を付与する付与機能、および記憶装置に画像のデータを格納する格納機能も有している。画像処理装置102は、CPU(中央演算処理装置)、RAM、記憶装置、操作部、I/Fなどのハードウェア資源を備えた、汎用のコンピュータやワークステーションで構成される。記憶装置は、ハードディスクドライブなどの大容量情報記憶装置であり、後述する各処理を実現するためのプログラムやデータ、OS(オペレーティングシステム)などが格納されている。上述した各機能は、CPUが記憶装置からRAMに必要なプログラムおよびデータをロードし、当該プログラムを実行することにより実現されるものである。操作部は、キーボードやマウスなどにより構成され、操作者が各種の指示を入力するために利用される。表示装置103は、画像処理装置102が演算処理した結果である複数枚の2次元画像を表示するモニターであり、CRTや液晶ディスプレイ等により構成される。
図1の例では、撮像装置101と画像処理装置102と表示装置103の3つの装置により撮像システム(バーチャル・スライドシステム)が構成されているが、本発明の構成はこの構成に限定されるものではない。例えば、表示装置が一体化した画像処理装置を用いてもよいし、画像処理装置の機能を撮像装置に組み込んでもよい。また撮像装置、画像処理装置、表示装置の機能を1つの装置で実現することもできる。また逆に、画像処理装置等の機能を分割して複数の装置によって実現してもよい。
図2は、撮像装置101の機能構成を示すブロック図である。撮像装置101は、概略、照明ユニット201、ステージ202、ステージ制御ユニット205、結像光学系207、撮像ユニット210、現像処理ユニット216、プレ計測ユニット217、メイン制御系218、外部インターフェース219から構成される。
照明ユニット201は、ステージ202上に配置されたスライド206に対して均一に光を照射する手段であり、光源、照明光学系、および光源駆動の制御系から構成される。ステージ202は、ステージ制御ユニット205によって駆動制御され、XYZの3軸の移動が可能である。光軸方向はZ方向とする。スライド206は、観察対象となる組織の切片や塗抹した細胞をスライドグラス上に貼り付け、封入剤とともにカバーグラスの下に固定した部材である。
ステージ制御ユニット205は、駆動制御系203とステージ駆動機構204から構成される。駆動制御系203は、メイン制御系218の指示を受け、ステージ202の駆動制御を行う。ステージ202の移動方向、移動量などは、プレ計測ユニット217によって計測した検体の位置情報および厚み情報(距離情報)と、ユーザからの指示とに基づいて決定される。ステージ駆動機構204は、駆動制御系203の指示に従い、ステージ202を駆動する。
結像光学系207は、スライド206の検体の光学像を撮像センサ208へ結像するためのレンズ群である。
撮像ユニット210は、撮像センサ208とアナログフロントエンド(AFE)209から構成される。撮像センサ208は、2次元の光学像を光電変換によって電気的な物理量へ変える1次元もしくは2次元のイメージセンサであり、例えば、CCDやCMOSが用いられる。1次元センサの場合、走査方向へスキャンすることで2次元画像が得られる。撮像センサ208からは、光の強度に応じた電圧値をもつ電気信号が出力される。撮像画像としてカラー画像が所望される場合は、例えば、Bayer配列のカラーフィルタが取り付けられた単板のイメージセンサを用いればよい。
AFE209は、撮像センサ208から出力されたアナログ信号をデジタル信号へ変換する回路である。AFE209は後述するH/Vドライバ、CDS、アンプ、AD変換器およびタイミングジェネレータによって構成される。H/Vドライバは、撮像センサ208を駆動するための垂直同期信号および水平同期信号を、センサ駆動に必要な電位に変換する。CDS(Correlated double sampling)は、固定パターンのノイズを除去する相関2重サンプリング回路である。アンプは、CDSでノイズ除去されたアナログ信号のゲインを調整するアナログアンプである。AD変換器は、アナログ信号をデジタル信号に変換する。システム最終段での出力が8ビットの場合、後段の処理を考慮して、AD変換器はアナログ信号を10ビットから16ビット程度に量子化されたデジタルデータへ変換し、出力する。変換されたセンサ出力データはRAWデータと呼ばれる。RAWデータは後段の現像処理ユニット216で現像処理される。タイミングジェネレータは、撮像センサ208のタイミングおよび後段の現像処理ユニット216のタイミングを調整する信号を生成する。
撮像センサ208としてCCDを用いる場合、上記AFE209は必須となるが、デジタル出力可能なCMOSイメージセンサの場合は、上記AFE209の機能をセンサに内包することになる。また、不図示ではあるが、撮像センサ208の制御を行う撮像制御部が存在し、撮像センサ208の動作制御や、シャッタスピード、フレームレートやROI(Region Of Interest)など動作タイミングの制御も合わせて行う。
現像処理ユニット216は、黒補正部211、ホワイトバランス調整部212、デモザイキング処理部213、フィルタ処理部214、γ補正部215から構成される。黒補正部211は、RAWデータの各画素から、遮光時に得られた黒補正データを減算する処理を行う。ホワイトバランス調整部212は、照明ユニット201の光の色温度に応じて、RGB各色のゲインを調整することによって、望ましい白色を再現する処理を行う。具体的には、黒補正後のRAWデータに対しホワイトバランス補正用データが加算される。単色の画像を取り扱う場合は、ホワイトバランス調整処理は不要となる。
デモザイキング処理部213は、Bayer配列のRAWデータから、RGB各色の画像データを生成する処理を行う。デモザイキング処理部213は、RAWデータにおける周辺画素(同色の画素と他色の画素を含む)の値を補間することによって、注目画素のRGB各色の値を計算する。またデモザイキング処理部213は、欠陥画素の補正処理(補完処理)も実行する。なお、撮像センサ208がカラーフィルタを有しておらず、単色の画像が得られている場合、デモザイキング処理は不要となる。
フィルタ処理部214は、画像に含まれる高周波成分の抑制、ノイズ除去、解像感強調を実現するデジタルフィルタである。γ補正部215は、一般的な表示デバイスの階調表現特性に合わせて、画像に逆特性を付加する処理を実行したり、高輝度部の階調圧縮や暗部処理によって人間の視覚特性に合わせた階調変換を実行したりする。本実施形態では形態観察を目的とした画像取得のため、後段の合成処理や表示処理に適した階調変換が画像に施される。
一般的な現像処理機能としては、RGB信号をYCC等の輝度色差信号へ変換する色空間変換や大容量の画像データを圧縮する処理も含まれるが、本実施形態ではRGBデータを直接使用し、かつデータ圧縮を行わないものとする。
また、不図示ではあるが、結像光学系207を構成するレンズ群の影響によって撮像エリア内の周辺部の光量が落ちることを補正する周辺減光補正の機能を搭載しても良い。あるいは、結像光学系207で生じる各種収差の内、結像の位置ずれを補正する歪曲収差補正、色毎の像の大きさの違いを補正する倍率色収差補正など、各種光学系の補正処理機能を搭載しても良い。
プレ計測ユニット217は、スライド206上の検体の位置情報、所望の焦点位置までの距離情報、および検体厚みに起因する光量調整用のパラメータを算出するためのプレ計測を行うユニットである。本計測の前にプレ計測ユニット217によって情報を取得することで、無駄のない撮像を実施することが可能となる。また、複数枚の画像を撮像する際の撮像開始位置と終了位置および撮像間隔の指定もプレ計測ユニット217が生成する情報に基づいて行われる。
メイン制御系218は、これまで説明してきた各種ユニットの制御を行う機能である。メイン制御系218および現像処理ユニット216の機能は、CPUとROMとRAMを有する制御回路により実現される。すなわち、ROM内にプログラムおよびデータが格納されており、CPUがRAMをワークメモリとして使いプログラムを実行することで、メイン制御系218および現像処理ユニット216の機能が実現される。ROMには例えばEEPROMやフラッシュメモリなどのデバイスが用いられ、RAMには例えばDDR3などのDRAMデバイスが用いられる。
外部インターフェース219は、現像処理ユニット216によって生成されたRGBのカラー画像を画像処理装置102に送るためのインターフェースである。撮像装置101と画像処理装置102とは、光通信のケーブルにより接続される。あるいは、USBやGigabitEthernet(登録商標)等のインターフェースが使用される。
本計測での撮像処理の流れを簡単に説明する。プレ計測により得られた情報に基づき、ステージ制御ユニット205がステージ202上の検体に対する撮像の位置決めを行う。照明ユニット201から照射された光は、検体を透過し、結像光学系207によって撮像センサ208の撮像面に結像する。撮像センサ208の出力信号はAFE209によりデジタル画像(RAWデータ)に変換され、そのRAWデータは現像処理ユニット216によりRGBの2次元画像に変換される。このようにして得られた2次元画像は画像処理装置102へ送られる。
以上の構成および処理によって、ある焦点位置における検体の2次元画像を取得することができる。ステージ制御ユニット205によって光軸方向(Z方向)に焦点位置をシフトさせながら、上記の撮像処理を繰り返すことにより、焦点位置が異なる複数枚の2次元画像を取得することができる。本明細書では、本計測の撮像処理で得られる複数の2次元画像のそれぞれをレイヤー画像と称し、複数の2次元画像(レイヤー画像)をまとめてZスタック画像と称す。
なお、本実施形態においては、単板方式のイメージセンサでカラー画像を取得する例を説明したが、RGB別の3つのイメージセンサによりカラー画像を取得する三板方式を用いてもよい。あるいは、1つのイメージセンサと三色の光源を用い、光源色を切り替えながら3回の撮像を行うことによってカラー画像を取得する3回撮像方式を用いてもよい。
図17は、画像処理装置のハードウェア構成を示すブロック図である。情報処理を行う装置として、例えばPC(Personal Computer)が用いられる。PCは、制御部1701、メインメモリ1702、サブメモリ1703、グラフィックスボード1704、これらを互いに接続する内部バス1705を備える。更に、PCは、LANI/F1706、記憶装置I/F1707、外部装置I/F1709、操作I/F1710、これらに接続する入出力I/F1713を備える。
制御部1701は、必要に応じてメインメモリ1702、サブメモリ1703等に適宜アクセスし、各種演算処理を行いながらPCの各ブロック全体を統括的に制御する。メインメモリ1702及びサブメモリ1703はRAM(Randam Memory Access)として構成される。メインメモリ1702は、制御部1701の作業用領域等として用いられ、OS、実行中の各種プログラム、表示用データの生成など処理の対象となる各種データを一時的に保持する。また、メインメモリ1702及びサブメモリ1703は、画像データの格納領域としても用いられる。制御部1701のDMA(Direct Memory Access)機能により、メインメモリ1702とサブメモリ1703の間、サブメモリ1703とグラフィックスボード1704の間の画像データの高速転送を実現できる。グラフィックスボード1704は、表示装置103に画像処理結果を出力する。表示装置103は、例えば液晶、EL(Electro−Luminescence)等を用いた表示デバイスである。当該表示装置103は、外部装置として接続される形態を想定しているが、表示装置と一体化したPCを想定してもよい。例えばノートPCがこれに該当する。
入出力I/F1713には、LAN I/F1706を介してデータサーバ1714が、記憶装置I/Fを介して記憶装置1708が、外部装置I/F1709を介して撮像装置101が、操作I/F1710を介してキーボード1711やマウス1712が接続される。
記憶装置1708は、制御部1701に実行させるOS、プログラムや各種パラメータなどのファームウェアとして固定的に記憶している情報を記録し、読み出す補助記憶装置である。また、撮像装置101から送られてきた階層画像データの格納領域としても用いられる。HDD(Hard Disk Drive)やSSD(Solid State Disk)等の磁気ディスクドライブもしくはFlashメモリを用いた半導体デバイスが用いられる。
操作I/F1710との接続デバイスとしてキーボード1711やマウス1712等のポインティングデバイスを想定しているが、タッチパネル等、表示装置103の画面が直接入力デバイスとなる構成を取ることも可能である。その場合、タッチパネルは表示装置103と一体となり得る。
図18は、画像処理装置の制御部の機能構成を示すブロック図である。制御部1701は、ユーザ入力情報取得部1801、画像データ取得制御部1802、階層画像データ取得部1803、表示データ生成制御部1804、表示候補画像データ取得部1805、表示候補画像データ生成部1806、表示画像データ転送部1807、合焦情報検出部1808、優先度付与部1809から構成される。
ユーザ入力情報取得部1801は、ユーザがキーボード1711やマウス1712に入力した画像表示の開始、終了、表示画像のスクロール動作、拡大、縮小などの指示内容を操作I/F1709を介して取得する。ユーザ入力情報取得部1801は、本発明の構成要件であるスクロール検知部に相当する。
画像データ取得制御部1802は、ユーザ入力情報に基づいて記憶装置1707から読み出してメインメモリ1702に展開する画像データの領域を制御する。画像表示の開始、終了、表示画像のスクロール動作、拡大、縮小などの各種ユーザ入力情報に対して、表示画像として必要になると予測される画像領域を決定する。メインメモリ1702がその画像領域を保持していなければ、階層画像データ取得部1803に対して、その画像領域の階層画像の記憶装置1707からの読み出しとメインメモリ1702への展開を指示する。記憶装置1707から読み出しは時間を要する処理のため、読み出す画像領域をできるだけ広範囲として、この処理にかかるオーバーヘッドを抑制することが望ましい。
階層画像データ取得部1803は、画像データ取得制御部1802の制御指示に従って、記憶装置1707からの画像領域の階層画像の読み出し、メインメモリ1702への格納を行う。
表示データ生成制御部1804は、ユーザ入力情報に基づいてメインメモリ1702から読み出す画像領域とその処理方法、グラフィックスボード1704に転送する表示画像領域を制御する。画像表示の開始、終了、表示画像のスクロール動作、拡大、縮小などの各種ユーザ入力情報に基づいて、表示画像として必要になると予測される表示候補の画像領域、実際に表示装置103に表示する表示画像領域と注目領域を検出する。サブメモリ1703が表示候補の画像領域を保持していなければ、表示候補画像データ取得部1805に対して、表示候補の画像領域のメインメモリ1702からの読み出しを指示する。同時に、表示候補画像データ生成部1806に対して、スクロール要求に対する処理方法を指示する。また、表示画像データ転送部1807に対して、表示画像領域のサブメモリ1703からの読み出しを指示する。記憶装置1707からの画像データの読み出しと比較すると、メインメモリ1702からの読み出しは高速に実行できるため、上述の表示候補の画像領域は、画像データ取得制御部1802での広範囲な画像領域と比較すると狭い範囲となる。
表示候補画像データ取得部1805は、表示データ生成制御部1804の制御指示に従って、メインメモリ1702からの表示候補である階層画像の画像領域の読み出しを実行し、表示候補画像データ生成部1806に転送する。
表示候補画像データ生成部1806は、圧縮画像データである表示候補画像データ(階層画像データ)の伸長処理と、表示装置103に表示する注目領域の合焦情報検出と優先度付与を実行し、サブメモリ1703への展開を行う。
表示画像データ転送部1807は、表示データ生成制御部1804の制御指示に従って、サブメモリ1703からの表示画像の読み出しを実行し、グラフィックスボード1708に転送する。DMA機能により、サブメモリ1703とグラフィックスボード1708間の高速画像データ転送を実行する。
図19は、画像処理装置の制御部における表示候補画像データ生成部の機能構成を示すブロック図である。画像データ伸長部1901は、圧縮画像データである表示候補画像データ(階層画像データ)の伸長処理を行う。
合焦情報検出部1902は、表示装置103に表示する階層画像の各注目領域に対して、合焦情報である画像コントラストを検出する。合焦情報の検出のフロー、及び、合焦情報は図5で説明する。
優先度付与部1903は、合焦情報検出部1902で検出した合焦情報に基づいて、各注目領域に優先度を付与し、合焦情報、優先度情報、階層画像のメインメモリ1702への格納を行う。注目領域の優先度、及び、優先度付与フローは、図11、図12で説明する。
図3は、焦点位置の異なる複数枚の画像を説明する模式図である。301〜307は7枚のレイヤー画像であり、3次元の異なる空間位置に複数の観察対象が含まれる被写体(標本)に対して、焦点位置を光軸方向(Z方向)に順次変更しながら7回撮像を行うことで得られたものである。308〜310は取得されたレイヤー画像301中に含まれる観察対象を示す。観察対象308はレイヤー画像301の焦点位置ではピントが合うが、レイヤー画像303の焦点位置ではボケた像となる。そのため、レイヤー画像303では観察対象308の構造把握は困難である。観察対象309はレイヤー画像302の焦点位置でピントが合うが、レイヤー画像301の焦点位置では若干ボケた像となる。レイヤー画像301では観察対象309の構造把握は十分ではないものの、可能な状況にある。観察対象310はレイヤー画像303の焦点位置でピントが合うため、レイヤー画像303により構造把握が十分に行える。
図3において、黒で塗りつぶされた観察対象は合焦するもの、白抜きの観察対象は若干ボケるもの、破線で示した観察対象はボケるもの、をそれぞれ表している。すなわち、レイヤー画像301〜307において、観察対象308、311、312、313、314、315、316にそれぞれピントが合う。なお、図3に示す例では、観察対象308、311〜316は光軸方向(Z方向)と垂直な平面で位置が異なっているものとして説明する。
次に、本実施形態における画像処理装置102の動作を、図4〜図7を用いて説明する。なお、以下に述べる処理は、特にことわりの無いかぎり、画像処理装置102のCPUがプログラムを実行することにより実現されるものである。ただし、画像処理装置102は本実施形態のように汎用のコンピュータに後述する機能を実現させるプログラムをインストールすることにより構成することもできるし、専用のハードウェアとプログラムから構成することもできる。
図4は、画像提示の流れを示すフローチャートである。ステップS401では、注目領域の指定を行う。ここでは、深さ方向(Z方向)を含めて詳細観察の対象となるXY方向の範囲の指定が行われる。画像処理装置102が、注目領域指定画面を表示装置103に表示し、注目領域指定画面に対するユーザ操作により注目領域指定が行われ、画像処理装置102は注目領域の情報(位置情報など)を取得する。注目領域指定画面の具体例は図7(a)で説明する。
ステップS402では、焦点位置の異なる複数枚のレイヤー画像の注目領域の抽出を行う。注目領域抽出の具体例は図6(a)で説明する。
ステップS403では、合焦情報の検出を行う。S402で抽出した複数の注目領域それぞれに対して、合焦情報である画像コントラストを検出する。合焦情報の検出により、合焦領域(注目領域における合焦画像)の特定を行う。合焦情報の検出のフロー、及び、合焦情報は図5で説明する。
ステップS404では、焦点位置の異なる複数枚の注目領域を格納する。S402で抽出した複数の注目領域は、ユーザが深さ方向(Z方向)の詳細観察をするために利用される画像のため、直ぐにでも表示する可能性が高い画像である。そのため、表示装置103へスムーズに描画するために、表示用メモリに対して複数の注目領域の一時的な格納を行う。
ステップS405では、補助領域の表示を行う。ユーザが注目領域を選択した画像(観察画像の注目領域;観察領域)と、その観察領域を挟んで焦点位置が前後するレイヤー画像の注目領域(補助領域)が表示される。その他に、S403での合焦情報の検出結果に基づいた情報の表示も行われる。補助領域を含む補助領域提示画面の具体例は図7(b)で説明する。
以上の処理ステップにより、注目領域とそれらの補助領域の表示を行う。補助領域の表示により、ユーザは、深さ方向(Z方向)の詳細観察、及び、合焦領域の選択を簡便に行うことができる。
図5は、合焦情報検出の流れを示すフローチャートである。
ステップS501では、S402で抽出した複数枚の注目領域から任意の注目領域を選択する。
ステップS502では、S501で選択された注目領域を取得する。
ステップS503では、S502で取得した注目領域の画像コントラストを検出する。画像コントラストとは、画像コントラストをE、画素の輝度成分をL(m、n)とした場合に、以下の式を用いて算出できる。ここで、mは画素のY方向位置、nは画素のX方向位置を表している。
右辺の第1項はX方向に隣り合う画素の輝度差を表しており、第2項はY方向に隣り合う画素の輝度差を表している。画像コントラストEは、X方向とY方向に隣り合う画素の輝度差の自乗和を示す指標である。なお、図6では画像コントラストEを0〜1で規格化した値を用いている(後述)。
ステップS504では、すべての注目領域に対して合焦情報(画像コントラスト)を検出したか否かを判断する。画像コントラスト検出が終了していない注目領域が残っている場合には、S505に進み、未処理の注目領域を次に処理する注目領域として選択する。S504において全ての注目領域に対して画像コントラスト検出が終了していると判断されると、処理を終了する。
ステップS505では、未処理の注目領域を次に処理する注目領域として選択し、S502に移行する。
上述の説明では、画像コントラストとして輝度差の自乗和を用いる例を示したが、画像コントラストはこれに限るものではない。画像コントラストの別の例としては、離散コサイン変換を行って周波数成分を求め、周波数成分の中で高周波成分の総和を求める方法もある。あるいは、エッジ検出フィルタを用いてエッジ検出を行い、得られたエッジ成分をコントラストの度合いとしても良い。あるいは、輝度値の最大値および最小値を検出し、最大値と最小値の差をコントラストの度合いとしても良い。他にも、コントラスト検出に対しては、既知の様々な方法を適用することが可能である。
以上の説明により、全ての注目領域に対する画像コントラストを検出することができる。
図6は、複数の注目領域とその合焦情報を説明する模式図である。図6(a)は、注目領域抽出の一例である。レイヤー画像304における注目領域は604である。レイヤー画像301〜303、305〜307においても、レイヤー画像304の注目領域604に対応する領域として、601〜603、605〜607を抽出する。図6(b)は、注目領域とその合焦情報(画像コントラスト)のテーブルの一例である。注目領域606の合焦情報(画像コントラスト)が最も高い数値であり、これが合焦領域(注目領域における合焦画像)となる。
以上説明した複数の注目領域と、それぞれの合焦情報を利用することで、合焦領域の特定と補助領域の表示を行う。
図7は、注目領域指定画面、補助領域提示画面の模式図である。ここでは、S401とS405で説明した表示制御におけるユーザ操作画面を説明する。図7(a)は、注目領域指定画面の一例である。画像表示ウィンドウ701には、ある焦点位置で撮影されたレイヤー画像304の全体が表示される。ユーザは、マウスのドラッグ若しくはキーボードからの数値入力などにより、注目領域702のXY方向の位置およびサイズを指定することができる。例えば、ユーザが、ウィンドウ701に表示された画像の中で、深さ方向(Z方向)の詳細観察が必要と判断した部分を注目領域702に指定する、という使い方が想定される。画像全体について深さ方向の観察が必要な場合は、画像の全範囲を指定すれば良い。図7(a)の注目領域702は、図6(a)のレイヤー画像304の注目領域604に相当する。図7(b)は、補助領域提示画面の一例である。703は、補助領域ウィンドウを示している。ここでは、図7(a)で示した画像表示ウィンドウ701とは別ウィンドウで表示されるものである。704は、ユーザが選択した観察画像の注目領域(観察領域)である。705と706は補助領域であり、観察領域とは焦点位置の異なるレイヤー画像の注目領域(対応領域)である。705と706は、観察領域の焦点位置に対して焦点位置が前後する位置関係にある。図3の深さ方向(Z方向)を参照すると、観察領域の深さ位置「4」に対して、705の深さ位置は「3」、706の深さ位置は「6」である。707〜709は、観察領域、及び、補助領域の深さ位置(Z位置)を示している。710は、深さ位置、及び、標本をグラフィカルに表示する領域である。707〜709で示された観察領域、及び、補助領域の深さ位置(Z位置)が分かり易いように、それらを示す線712〜714は、太さ、長さ、色などを変えた強調表示が行われる。同様に、合焦領域の深さ位置は、711で示されているように四角で囲むなどの強調表示が行われる。715、716は、合焦方向を示す矢印である。矢印の先が合焦状態に近いことを示している。補助領域705と観察領域704では、観察領域704の方が合焦状態に近いため、矢印は右向きで示されている。同様に、補助領域706と観察領域704では、補助領域706が合焦領域であるため、矢印は右向きで示されている。
以上説明した注目領域指定画面と補助領域提示画面を利用することで、ユーザは、深さ方向(Z方向)の詳細観察、及び、合焦領域の選択を簡便に行うことができる。
ここでは、観察領域の焦点位置に対して焦点位置が前後する位置関係にある2つのレイヤー画像から得られる2つの補助領域を同時に表示するとしたが、合焦領域を同時に表示するなど、いずれか一方の領域を同時に表示するでも良い。
図8は、別の形態の注目領域指定画面、補助領域提示画面の模式図である。図7は注目領域指定画面と補助領域提示画面を別ウィンドウで表示するとしたが、図8では同じウィンドウで表示している。また、図8は、図7とは補助領域の提示の仕方が異なる例である。図7と同じ内容となるものは同一符号で示している。
801は、ユーザが選択した観察画像の注目領域(観察領域)である。802と803は補助領域であり、観察領域とは焦点位置の異なるレイヤー画像の注目領域(対応領域)である。802と803は、観察領域の焦点位置に対して焦点位置が前後する位置関係にある。図3の深さ方向(Z方向)を参照すると、観察領域の深さ位置「4」に対して、802の深さ位置は「3」、803の深さ位置は「6」である。804は、合焦方向を示す矢印である。矢印の先が合焦状態に近いことを示している。観察領域801からは、深さ方向(Z方向)の深い位置のほうが合焦状態に近いため、矢印は下向きで示されている。図7の注目領域指定画面に相当する画面で注目領域801を指定すると、その近辺に補助領域802と803が表示される形態である。補助領域の深さ位置(Z位置)が直感的に分かり易いように、観察領域801に対して一部重畳するように補助領域が表示され、その重畳の前後関係がそのまま深さ位置(Z位置)を反映している。
なお、図7、図8は、それぞれ、注目領域指定画面、補助領域提示画面の一具体例を示すものにすぎず、少なくとも2つ以上の補助領域の表示と、観察領域と補助領域の深さ位置の表示ができさえすれば、どのような形式の設定画面を用いても良い。
図9は、推定構造に対する合焦情報検出の流れを示すフローチャートである。図5では合焦情報として画像コントラストを用いる例を説明したが、図9では構造推定を行い、その推定した構造に対してコントラストを検出する方法を説明する。
ステップS901では、S402で抽出した複数枚の注目領域から任意の注目領域を選択する。
ステップS902では、S901で選択された注目領域を取得する。
ステップS903では、S902で取得した注目領域の構造を推定する。構造とは、例えば、細胞核である。被写体(標本)がHE染色標本であった場合に、細胞核はヘマトキシリンにより濃い青紫色に染まる。この色情報や、円形に近いという形状情報を基に、細胞核の構造推定を行う。SVMなどの機械学習を併用することで、効率良く構造推定することが可能である。
ステップS904では、すべての注目領域に対して構造を推定したか否かを判断する。構造推定が終了していない注目領域が残っている場合には、S905に進み、未処理の注目領域を次に処理する注目領域として選択する。S904において全ての注目領域に対して構造推定が終了していると判断されると、処理を終了する。
ステップS905では、未処理の注目領域を次に処理する注目領域として選択し、S902に移行する。
ステップS906では、検出対象の構造を設定する。図3で示したように各レイヤー画像は焦点位置がそれぞれ異なるため、S903で推定する構造は、各レイヤー画像により異なるものとなる。ここでは、S903で推定した構造が全て包含されるように検出対象の構造を設定する。図3との対応で説明すると、308、311〜316の全ての構造を検出対象の構造として設定する。検出対象の構造の位置データ(座標データ)を保持しておき、以下の構造コントラスト検出の処理ステップでそれを利用する。
ステップS907では、S502で取得した注目領域の構造コントラストを検出する。レイヤー画像において、S906で設定した構造に対して、図5で説明した画像コントラストを求める。図3との対応で説明すると、レイヤー画像307では314〜316の構造に対するコントラストが求められる。308、311〜313の構造が存在する位置におけるコントラストも検出対象なのだが、ボケているために、ほとんどコントラストは検出されない。
以上の説明により、全ての注目領域に対する構造コントラストを検出することができる。構造コントラストを用いることにより、注目領域の注目ポイントとなる構造のコントラストを検出でき、観察対象に対するより正確な合焦状態を把握することができる。
HE染色標本の観察では、観察者は画像全域を見落としなく観察するため、観察し易さの観点からは画像全域を合焦させるのが良い。そのため、合焦情報として画像コントラストを用いることが望ましい。一方、IHC(免疫組織化学染色)標本では、癌化した核の計数など、注目領域が限定されて観察目的が明確である場合が多い。癌化した核の計数では、その核の合焦状態が重要となるため、観察のしやすさの観点からは注目領域の構造を合焦させるのが良い。そのため、合焦情報として構造コントラストを用いることが望ましい。
図10は、合焦情報検出を選択する提示画像の模式図である。図7と同じ内容となるものは同一符号で示している。
図10(a)は、注目領域指定画面の模式図である。1001は合焦情報の検出方法を選択する合焦情報検出方法選択ウィンドウである。構造コントラストか、画像コントラストかのいずれかが選択可能である。ユーザは、マウスのドラッグ若しくはキーボードからの数値入力などにより、注目領域1002のXY方向の位置およびサイズを指定することができる。1003は1個の細胞核を示している。細胞核がいくつか分布しており、合焦状態に近い細胞核から、黒塗りつぶし、網線、白抜き、破線、で表している。
図10(b)は、注目領域指定画面の模式図である。1003は、ユーザが選択した観察画像の注目領域(観察領域)である。1004と1005は補助領域であり、観察領域とは焦点位置の異なるレイヤー画像の注目領域(対応領域)である。1004と1005は、観察領域の焦点位置に対して焦点位置が前後する位置関係にある。観察領域の深さ位置「4」に対して、1004の深さ位置は「2」、1005の深さ位置は「6」である。合焦情報として構造コントラストを用いているので、注目領域の注目ポイントとなる細胞核のコントラストをピンポイントで検出でき、観察対象(細胞核)に対するより正確な合焦状態を把握することができる。
以上の説明により、画像コントラストの拡張により、簡単に合焦情報検出方法の選択が可能となる。
図11は、注目領域の優先度を説明する模式図である。図4のS404にて複数枚の注目領域を表示用メモリに対して一時的な格納を行うが、レイヤー画像の枚数が増えて、注目領域の枚数が増えてくると、注目領域のデータ容量が表示用メモリ容量を超えてしまう可能性がある。ここでは、その課題への対応策として、複数の注目領域に対して優先度を付与し、優先度の高い注目領域から優先的に表示用メモリに格納することを行う。優先度は、ユーザがその注目領域を観察する可能性が高い、という観点で付与される。
図11(a)は、焦点位置が異なる複数枚の注目領域それぞれに対応する合焦情報(画像コントラスト)を示す図である。横軸は深さ方向(Z方向)の位置、縦軸は合焦情報(画像コントラスト)である。1101は、複数枚の注目領域それぞれに対応する合焦情報(画像コントラスト)を示す曲線である。1102は観察領域の深さ方向(Z方向)の位置を示すラインであり、1103は合焦状態の注目領域の深さ方向(Z方向)の位置を示すラインである。合焦情報(画像コントラスト)が最も高い数値を示す注目領域の深さ位置は「23」であり、観察領域の深さ位置は「29」である。
図11(b)は、深さ方向(Z方向)の位置、合焦情報(画像コントラスト)、優先度を示すテーブルである。深さ方向(Z方向)の位置と合焦情報(画像コントラスト)の数値情報は、図11(a)の図と対応している。観察領域1104の深さ位置は「29」であり、その優先度は「3」で最も高く設定している。観察領域はユーザが既に観察している領域であり、観察時点の表示画像であるため、優先度は最も高い。合焦情報(画像コントラスト)が最も高い数値を示す注目領域である合焦領域1105の深さ位置は「23」であり、その優先度は「2」と設定している。ユーザは注目領域の合焦領域を観察する可能性が高いため、観察時点の表示画像に次いで高い優先度を設定している。深さ方向(Z方向)の位置が、観察領域1104と合焦領域1105の間に位置する注目領域に対しては、合焦領域に次ぐ優先度「1」を設定している。ユーザは観察領域から、合焦領域に向けて深さ方向(Z方向)の位置をスイープさせながら観察する可能性が高いことを考慮しているためである。深さ方向(Z方向)の位置が、観察領域1104と合焦領域1105の間に位置しない注目領域に対しては、最も低い優先度「0」を設定している。
図11(c)は、メモリ格納番号と優先度、格納する注目領域の深さ位置を示すテーブルである。ここでは、注目領域20枚が表示用メモリに格納できると想定している。優先度の高い順から優先的に表示用メモリに格納する。
優先度「1」の注目領域は複数あるが、ここでは以下の手順でその格納順番を定めている。優先度「3」と優先度「2」の中間に位置する注目領域αを定め、その注目領域αを表示用メモリに格納する。次に、優先度「3」と注目領域αの中間に位置する注目領域βを定め、その注目領域βを表示用メモリに格納する。次に、優先度「2」と注目領域αの中間に位置する注目領域γを定め、その注目領域γを表示用メモリに格納する。以下、同様の手順を繰り返し、優先度「1」の注目領域の表示用メモリ格納順番を定める。中間に位置する注目領域が存在しないとき、すなわち、中間に位置する注目領域が2つ存在する場合は、深さ位置(Z位置)が深い方向を選ぶ、などの決めごとを定めれば良い。これは、等分割を繰り返して、優先度を定める方法である。優先度「0」についても注目領域は複数あるが、優先度「3」に近い側の注目領域と優先度「2」に近い側の注目領域を交互表示用メモリに格納する方法を用いている。
以上の説明により、ユーザがその注目領域を観察する可能性が高い、という観点で注目領域に優先度を付与し、その優先度に従って表示用メモリに注目領域を格納することで、応答性・操作性良く注目領域を表示することができる。
図12は、注目領域に付与する優先度を説明するフローチャートである。
ステップS1201では、観察領域に優先度を付与する。図11を参照すると、観察領域1104の深さ位置は「29」であり、その優先度を最も高い「3」に設定する。
ステップS1202では、合焦領域に優先度を付与する。図11を参照すると、合焦領域1105の深さ位置は「23」であり、その優先度を、観察領域に次いで高い「2」に設定する。
ステップS1203では、観察領域と合焦領域の間に位置する注目領域に優先度を付与する。図11を参照すると、深さ方向(Z方向)の位置が、観察領域1104と合焦領域1105の間に位置する注目領域に対しては、合焦領域に次ぐ優先度「1」を設定する。
ステップS1204では、観察領域と合焦領域の間に位置しない注目領域に優先度を付与する。図11を参照すると、深さ方向(Z方向)の位置が、観察領域1104と合焦領域1105の間に位置しない注目領域に対しては、最も低い優先度「0」を設定する。
以上のフローに従って注目領域に優先度を付与することで、ユーザが観察する可能性が高い注目領域から優先的に表示用メモリに格納でき、応答性・操作性良い注目領域の表示が可能になる。
以上述べた本実施形態によれば、デジタル画像を利用した被写体(標本)観察において、合焦状態にある被写体(標本)の奥行き位置を容易に把握することができる。それにより、被写体(標本)の奥行き方向の詳細な観察を容易に行うことができる。
更に、限られたメモリ容量においても、表示応答性、表示操作性が向上する。それにより、被写体(標本)の奥行き方向の詳細な観察をストレスなく行うことができる。
[実施形態2]
以上述べた実施形態は、主に、切断面での組織の構築を観察する組織診を想定している。組織診では標本の厚さが数μmと薄く、Zスタック画像は、標本の表面凹凸や光学収差の影響による画像のピントぼけへの対応として用いられる。そのため、観察者は基本的には合焦領域に興味があり、合焦領域の周辺のZスタック画像は補助的に用いる。一方で、細胞診では標本の厚さが数十μmから数百μmと厚く、細胞や細胞集塊の立体構築を観察する。細胞診でのZスタック画像は、立体構造の把握という観点で用いられる。そのため、細胞診では、立体構造の把握が容易になる表示方法が重要である。以下では、細胞診を想定し、被写体(標本)の立体構造を容易に把握できる表示方法について述べる。
図20は、本発明の画像処理装置の制御部における表示候補画像データ生成部の機能構成を示すブロック図である。画像データ伸長部1901、合焦情報検出部1902、優先度付与部1903の説明は、図19での説明と同様である。
表示Zスタック数決定部2001は、合焦情報検出部1902で検出した合焦情報に基づいて、表示するZスタック数の決定を行う。表示Zスタック数とは、観察画像の注目領域(観察領域)と補助領域の数である。Zスタック数の決定方法については、図16で説明する。
図13は、細胞集塊とその合焦情報を説明する模式図である。
図13(a)は、細胞集塊1301のZスタック画像を取得した場合の深さ方向の位置(Z方向の位置)を示す図である。細胞集塊1301の深さ方向は、深さ位置「4」付近から深さ位置「13」付近まで存在している。観察者は、深さ位置「4」から深さ位置「13」までのZスタック画像10枚を観察して、細胞集塊1301の立体構築を把握する。
図13(b)は、細胞集塊1301の合焦情報(構造コントラスト)を示す図である。横軸はZスタック画像の深さ位置であり、縦軸は注目領域の合焦情報(構造コントラスト)である。細胞集塊1301が存在する深さ位置「4」から深さ位置「13」までのZスタック画像の構造コントラストは比較的高い値を示す。細胞集塊1301が存在しない深さ位置「1」、「2」、「3」、「14」、「15」のZスタック画像の構造コントラストは低い値を示す。合焦情報(構造コントラスト)から細胞集塊1301の深さ範囲(Z方向範囲)を推定することができる。なお、深さ範囲(Z方向範囲)とは、深さ方向(Z方向)における細胞集塊1301の存在範囲のことである。細胞集塊1301が存在する下限である深さ位置「4」が構造下限1304であり、細胞集塊1301が存在する上限である深さ位置「13」が構造上限1305である。構造コントラストが最も高い深さ位置「6」の注目領域が合焦領域1303である。細胞集塊1301の合焦情報(構造コントラスト)から、細胞集塊1301が深さ位置「4」から深さ位置「13」に存在すると判断し、その情報を利用して、立体構造の把握が容易になる表示を行う。
図14は、補助領域提示画面の一例である。1401は、補助領域ウィンドウを示している。ここでは、ある焦点位置で撮影されたZスタック画像の全体を表示する画像表示ウィンドウとは別ウィンドウで表示されるものとする。1402は、ユーザが選択した観察画像の注目領域(観察領域)である。1403、1404、1405、1406は補助領域であり、観察領域とは焦点位置の異なるZスタック画像の注目領域(対応領域)である。1403、1404、1402、1405、1406は観察領域の焦点位置が順次変化する位置関係にある。図13(a)の深さ方向(Z方向)を参照すると、観察領域の深さ位置「8」に対して、1403の深さ位置は「4」、1404の深さ位置は「6」、1405の深さ位置は「10」、1406の深さ位置は「12」である。1407〜1411は、観察領域、及び、補助領域の深さ位置(Z位置)を示している。1415は、深さ位置、及び、標本をグラフィカルに表示する領域である。1407〜1411で示された観察領域、及び、補助領域の深さ位置(Z位置)が分かり易いように、それらを示す線1419〜1423は、太さ、長さ、色などを変えた強調表示が行われる。同様に、合焦領域の深さ位置は、1416で示されているように四角で囲むなどの強調表示が行われる。構造下限、構造上限の深さ位置は、それぞれ、1417、1418で示されているように四角の点線で囲むなどの強調表示が行われる。1412は、合焦方向を示す矢印である。矢印の先が合焦状態に近いことを示している。補助領域1404と観察領域1405では、観察領域1404の方が合焦状態に近いため、矢印は下向きで示されている。1413、1414は、それぞれ、構造下限、構造上限を示す矢印である。注目領域(観察領域)1402と補助領域1403、1404、1405、1406が、構造下限と構造上限の間に存在することを示している。
注目領域(観察領域)1画面と補助領域4画面とで合計5画面が表示されている。注目領域(観察領域)が最前面に表示されているが、補助領域も同時に表示される。また、注目領域(観察領域)と補助領域のZスタック画像は、立体構造全体の把握を重視して、焦点位置が等間隔となるように表示される。注目領域(観察領域)の詳細観察が可能であり、複数の補助領域を併用利用することで、全体の立体構造が容易に把握しやすい表示方法となっている。
以上説明した補助領域提示画面を利用することで、ユーザは、深さ方向(Z方向)の詳細観察を簡便に行うことができ、且つ、細胞集塊の立体構造の把握が容易になる。
図15は、補助領域提示画面における注目領域(観察領域)の切り替えを説明する模式図である。図15(a)、(b)は、それぞれ補助領域ウィンドウ1401内の注目領域(観察領域)と補助領域を示している。図15(a)は図14と同様であり、1402は、ユーザが選択した観察画像の注目領域(観察領域)であり、1403、1404、1405、1406は補助領域であり、観察領域とは焦点位置の異なるZスタック画像の注目領域(対応領域)である。1404が合焦領域であるため、合焦方向を示す矢印1412は下向きで示されている。図15(b)は、注目領域(観察領域)のZ位置を切り替えたときの表示画面である。注目領域(観察領域)のZ位置として合焦領域である1404を選択したため、1404が最前面に表示され、合焦方向を示す矢印1412は横向きで示されている。
以上説明したように、注目領域(観察領域)の切り替えに際しても、観察画像の注目領域と、観察領域とは焦点位置の異なるZスタック画像の注目領域(対応領域)が常に表示されているため、細胞集塊の立体構造の把握が容易になる。
図16は、構造Zスタック数と表示Zスタック数の関係の一例である。横軸は細胞集塊などの観察対象が存在する深さ範囲を示す構造Zスタック数であり、縦軸は観察画像の注目領域(観察領域)と補助領域の数を示す表示Zスタック数である。図13、図14で説明した細胞集塊1301を例にすると、横軸の構造Zスタック数は「10」であり、縦軸の表示Zスタック数は「5」である。図16に示すとおり、注目領域(観察領域)と補助領域の数は、細胞集塊などの観察対象の深さ方向の存在範囲に合わせて決定するのが良い。観察対象の深さ範囲が相対的に広い場合には、補助領域の数を増やすことで、立体構造の把握がより容易になる。
以上述べた本実施形態によれば、デジタル画像を利用した被写体(標本)観察において、被写体(標本)の立体構造を容易に把握することができる。
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形および変更が可能である。
また、本明細書または図面に説明した技術要素は、単独であるいは各種の組合せによって技術的有用性を発揮するものであり、出願時の請求項に記載の組合せに限定されるものではない。また、本明細書または図面に例示した技術は複数目的を同時に達成するものであり、そのうちの一つの目的を達成すること自体で技術的有用性を持つものである。

Claims (12)

  1. 顕微鏡装置で取得した複数のレイヤー画像を含むZスタック画像のデータを取得する画像データ取得手段と、
    前記複数のレイヤー画像のうち少なくとも1つのレイヤー画像を観察画像として表示装置に表示する表示制御手段と、
    ユーザに指定された前記観察画像の注目領域の情報を取得する領域情報取得手段と、
    前記複数のレイヤー画像のそれぞれの前記注目領域に対応する対応領域における合焦情報を検出する検出手段と、を備え、
    前記表示制御手段は、前記検出手段の検出結果に基づいて、前記注目領域と該注目領域よりも合焦状態に近い前記対応領域との位置関係を示す画像を、前記注目領域と同時に前記表示装置に表示する
    ことを特徴とする画像処理装置。
  2. 顕微鏡装置で取得した複数のレイヤー画像を含むZスタック画像のデータを取得する画像データ取得手段と、
    前記複数のレイヤー画像のうち少なくとも1つのレイヤー画像を観察画像として表示装置に表示する表示制御手段と、
    ユーザに指定された前記観察画像の注目領域の情報を取得する領域情報取得手段と、
    前記複数のレイヤー画像のそれぞれの前記注目領域に対応する対応領域における合焦情報を検出する検出手段と、
    前記検出手段の検出結果に基づいて複数の前記対応領域に優先度を付与する付与手段と、
    前記付与手段で付与された優先度が高い前記対応領域のデータを記憶装置に優先的に格納する格納手段と、を備える
    ことを特徴とする画像処理装置。
  3. 前記検出手段は、前記複数の前記対応領域のそれぞれに含まれる構造を推定し、該推定した構造の合焦情報を検出する
    ことを特徴とする請求項1に記載の画像処理装置。
  4. 前記表示制御手段は、前記対応領域を、前記注目領域と同時に前記表示装置に表示する
    ことを特徴とする請求項1に記載の画像処理装置。
  5. 前記合焦情報から観察対象のZ方向範囲を決定し、前記観察対象のZ方向範囲に応じて前記注目領域と同時に前記表示装置に表示する前記対応領域の枚数を決定する決定手段を更に備える
    ことを特徴とする請求項4に記載の画像処理装置。
  6. 前記決定手段は、前記観察対象のZ方向範囲が広い場合の前記枚数に比べ、前記観察対象のZ方向範囲が相対的に狭い場合の前記枚数の方が少なくなるように、前記観察対象のZ方向範囲に応じて前記枚数を決定する
    ことを特徴とする請求項5に記載の画像処理装置。
  7. 前記決定手段は、前記注目領域及び複数の前記対応領域の焦点位置の間隔が等しくなるように、前記注目領域と同時に前記表示装置に表示する前記対応領域を決定する
    ことを特徴とする請求項6に記載の画像処理装置。
  8. 顕微鏡装置で取得した複数のレイヤー画像を含むZスタック画像のデータを処理する画像処理装置と、前記Zスタック画像を表示する表示装置と、を備える画像処理システムであって、
    前記Zスタック画像のデータを取得する画像データ取得手段と、
    前記複数のレイヤー画像のうち少なくとも1つのレイヤー画像を観察画像として表示装置に表示する表示制御手段と、
    ユーザに指定された前記観察画像の注目領域の情報を取得する領域情報取得手段と、
    前記複数のレイヤー画像のそれぞれの前記注目領域に対応する対応領域における合焦情報を検出する検出手段と、を備え、
    前記表示制御手段は、前記検出手段の検出結果に基づいて、前記注目領域と該注目領域よりも合焦状態に近い前記対応領域との位置関係を示す画像を、前記注目領域と同時に前記表示装置に表示する
    ことを特徴とする画像処理システム。
  9. 顕微鏡装置で取得した複数のレイヤー画像を含むZスタック画像のデータを処理する画像処理装置と、前記Zスタック画像を表示する表示装置と、を備える画像処理システムであって、
    前記Zスタック画像のデータを取得する画像データ取得手段と、
    前記複数のレイヤー画像のうち少なくとも1つのレイヤー画像を観察画像として表示装置に表示する表示制御手段と、
    ユーザに指定された前記観察画像の注目領域の情報を取得する領域情報取得手段と、
    前記複数のレイヤー画像のそれぞれの前記注目領域に対応する対応領域における合焦情報を検出する検出手段と、
    前記検出手段の検出結果に基づいて複数の前記対応領域に優先度を付与する付与手段と、
    前記付与手段で付与された優先度が高い前記対応領域のデータを記憶装置に優先的に格納する格納手段と、を備える
    ことを特徴とする画像処理システム。
  10. コンピュータが、顕微鏡装置で取得した複数のレイヤー画像を含むZスタック画像のデータを取得する画像データ取得工程と、
    コンピュータが、前記複数のレイヤー画像のうち少なくとも1つのレイヤー画像を観察画像として表示装置に表示する表示工程と、
    コンピュータが、ユーザに指定された前記観察画像の注目領域の情報を取得する領域情報取得工程と、
    コンピュータが、前記複数のレイヤー画像のそれぞれの前記注目領域に対応する対応領域における合焦情報を検出する検出工程と、を有し、
    前記表示工程では、前記検出工程の検出結果に基づいて、前記注目領域と該注目領域よりも合焦状態に近い前記対応領域との位置関係を示す画像を、前記注目領域と同時に前記表示装置に表示する
    ことを特徴とする画像処理方法。
  11. コンピュータが、顕微鏡装置で取得した複数のレイヤー画像を含むZスタック画像のデータを取得する画像データ取得工程と、
    コンピュータが、前記複数のレイヤー画像のうち少なくとも1つのレイヤー画像を観察画像として表示装置に表示する表示工程と、
    コンピュータが、ユーザに指定された前記観察画像の注目領域の情報を取得する領域情報取得工程と、
    コンピュータが、前記複数のレイヤー画像のそれぞれの前記注目領域に対応する対応領域における合焦情報を検出する検出工程と、
    コンピュータが、前記検出工程の検出結果に基づいて複数の前記対応領域に優先度を付与する付与工程と、
    コンピュータが、前記付与工程で付与された優先度が高い前記対応領域のデータを記憶装置に優先的に格納する格納工程と、を有する
    ことを特徴とする画像処理方法。
  12. 請求項10又は11に記載の画像処理方法の各工程をコンピュータに実行させることを特徴とするプログラム。
JP2012226899A 2011-12-27 2012-10-12 画像処理装置、画像処理システム、画像処理方法、およびプログラム Pending JP2013152426A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012226899A JP2013152426A (ja) 2011-12-27 2012-10-12 画像処理装置、画像処理システム、画像処理方法、およびプログラム
US14/369,092 US20140333751A1 (en) 2011-12-27 2012-12-14 Image processing apparatus and system, method for processing image, and program
PCT/JP2012/008024 WO2013099141A1 (en) 2011-12-27 2012-12-14 Image processing apparatus and system, method for processing image, and program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2011286779 2011-12-27
JP2011286779 2011-12-27
JP2012226899A JP2013152426A (ja) 2011-12-27 2012-10-12 画像処理装置、画像処理システム、画像処理方法、およびプログラム

Publications (1)

Publication Number Publication Date
JP2013152426A true JP2013152426A (ja) 2013-08-08

Family

ID=48696688

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012226899A Pending JP2013152426A (ja) 2011-12-27 2012-10-12 画像処理装置、画像処理システム、画像処理方法、およびプログラム

Country Status (3)

Country Link
US (1) US20140333751A1 (ja)
JP (1) JP2013152426A (ja)
WO (1) WO2013099141A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015127774A (ja) * 2013-12-27 2015-07-09 株式会社キーエンス 拡大観察装置、拡大画像観察方法、拡大画像観察プログラム及びコンピュータで読み取り可能な記録媒体
JPWO2015019978A1 (ja) * 2013-08-09 2017-03-02 武蔵エンジニアリング株式会社 焦点調節方法およびその装置
JP2017211530A (ja) * 2016-05-26 2017-11-30 オリンパス株式会社 顕微鏡画像表示装置
JP2018006867A (ja) * 2016-06-28 2018-01-11 キヤノン株式会社 画像処理装置および画像処理方法
JP2019204312A (ja) * 2018-05-24 2019-11-28 日本電子株式会社 生物組織画像処理装置及び方法
JP2021184264A (ja) * 2017-01-16 2021-12-02 株式会社ニコン 画像処理装置、顕微鏡システム、画像処理方法、及びプログラム

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6455829B2 (ja) * 2013-04-01 2019-01-23 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
TWI549478B (zh) * 2014-09-04 2016-09-11 宏碁股份有限公司 產生三維影像的方法及其電子裝置
DE102016101967B9 (de) * 2016-02-04 2022-06-30 Carl Zeiss Microscopy Gmbh Verfahren und Vorrichtungen zur Stereobilddarstellung
DE102016008854A1 (de) * 2016-07-25 2018-01-25 Universität Duisburg-Essen System zur gleichzeitigen videografischen oder fotografischen Erfassung von mehreren Bilder
JP6826455B2 (ja) * 2017-02-14 2021-02-03 株式会社日立製作所 画像形成装置
JP7311142B2 (ja) * 2019-08-23 2023-07-19 ライトタッチテクノロジー株式会社 生体組織識別装置および生体組織識別プログラム
CN111369631B (zh) * 2020-03-06 2023-04-07 厦门华联电子股份有限公司 基于xyz轴平台的样本图像自动采集方法及装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003073365A1 (en) * 2002-02-22 2003-09-04 Bacus Research Laboratories, Inc. Focusable virtual microscopy apparatus and method
JP2003305064A (ja) * 2002-04-17 2003-10-28 Morita Mfg Co Ltd 医科歯科用診療装置
JP2007159934A (ja) * 2005-12-15 2007-06-28 Hitachi Medical Corp 比較読影支援装置
JP5561027B2 (ja) * 2009-11-30 2014-07-30 ソニー株式会社 情報処理装置、情報処理方法及びそのプログラム
JP5540896B2 (ja) * 2010-05-31 2014-07-02 株式会社ニコン 顕微鏡制御装置、撮像システムおよびプログラム

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2015019978A1 (ja) * 2013-08-09 2017-03-02 武蔵エンジニアリング株式会社 焦点調節方法およびその装置
JP2020021086A (ja) * 2013-08-09 2020-02-06 武蔵エンジニアリング株式会社 焦点調節方法およびその装置
JP2015127774A (ja) * 2013-12-27 2015-07-09 株式会社キーエンス 拡大観察装置、拡大画像観察方法、拡大画像観察プログラム及びコンピュータで読み取り可能な記録媒体
JP2017211530A (ja) * 2016-05-26 2017-11-30 オリンパス株式会社 顕微鏡画像表示装置
JP2018006867A (ja) * 2016-06-28 2018-01-11 キヤノン株式会社 画像処理装置および画像処理方法
JP2021184264A (ja) * 2017-01-16 2021-12-02 株式会社ニコン 画像処理装置、顕微鏡システム、画像処理方法、及びプログラム
US11442262B2 (en) 2017-01-16 2022-09-13 Nikon Corporation Image processing device, microscope system, image processing method, and program
JP2019204312A (ja) * 2018-05-24 2019-11-28 日本電子株式会社 生物組織画像処理装置及び方法
WO2019225504A1 (ja) * 2018-05-24 2019-11-28 株式会社ニコン 生物組織画像処理装置及び方法
JP7181000B2 (ja) 2018-05-24 2022-11-30 日本電子株式会社 生物組織画像処理装置及び方法

Also Published As

Publication number Publication date
WO2013099141A1 (en) 2013-07-04
US20140333751A1 (en) 2014-11-13

Similar Documents

Publication Publication Date Title
JP2013152426A (ja) 画像処理装置、画像処理システム、画像処理方法、およびプログラム
JP6091137B2 (ja) 画像処理装置、画像処理システム、画像処理方法およびプログラム
US20180246868A1 (en) Image processing apparatus, control method image processing system, and program for display of annotations
JP5705096B2 (ja) 画像処理装置及び画像処理方法
JP5197785B2 (ja) 画像処理装置、撮像システム、画像処理システム
US8947519B2 (en) Image processing apparatus, image processing system, image processing method, and image processing program
US20150153559A1 (en) Image processing apparatus, imaging system, and image processing system
US20130016885A1 (en) Image processing apparatus, imaging system, and image processing system
US20190304409A1 (en) Image processing apparatus and image processing method
JP2013200640A (ja) 画像処理装置、画像処理システム、画像処理方法、およびプログラム
WO2013100028A9 (ja) 画像処理装置、画像表示システム、画像処理方法および画像処理プログラム
US20140184778A1 (en) Image processing apparatus, control method for the same, image processing system, and program
JP2015203704A (ja) 画像処理装置、画像処理方法、画像処理システム
US20140306992A1 (en) Image processing apparatus, image processing system and image processing method
US20160042122A1 (en) Image processing method and image processing apparatus
US20130265329A1 (en) Image processing apparatus, image display system, method for processing image, and image processing program
US20130265322A1 (en) Image processing apparatus, image processing system, image processing method, and image processing program
JP2015108837A (ja) 画像処理装置及び画像処理方法
JP5818828B2 (ja) 画像処理装置、撮像システム、画像処理システム
JP2016038542A (ja) 画像処理方法および画像処理装置
JP2016206228A (ja) 合焦位置検出装置、合焦位置検出方法、撮像装置、撮像システム
JP2017045430A (ja) 画像処理装置、画像処理システム、画像処理方法及びプログラム
JP2016166941A (ja) 合焦位置検出装置、合焦位置検出方法、撮像システム
JP2016038541A (ja) 画像処理方法および画像処理装置
JP2013250400A (ja) 画像処理装置、画像処理方法、および画像処理プログラム