JP2014132433A - 画像生成装置および画像生成方法 - Google Patents

画像生成装置および画像生成方法 Download PDF

Info

Publication number
JP2014132433A
JP2014132433A JP2013188641A JP2013188641A JP2014132433A JP 2014132433 A JP2014132433 A JP 2014132433A JP 2013188641 A JP2013188641 A JP 2013188641A JP 2013188641 A JP2013188641 A JP 2013188641A JP 2014132433 A JP2014132433 A JP 2014132433A
Authority
JP
Japan
Prior art keywords
image
viewpoint
edge
generating
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013188641A
Other languages
English (en)
Other versions
JP6362062B2 (ja
Inventor
Tomochika Murakami
友近 村上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2013188641A priority Critical patent/JP6362062B2/ja
Application filed by Canon Inc filed Critical Canon Inc
Priority to EP13811015.0A priority patent/EP2929507A1/en
Priority to PCT/JP2013/082650 priority patent/WO2014088048A1/en
Priority to EP13811016.8A priority patent/EP2929508A1/en
Priority to PCT/JP2013/082652 priority patent/WO2014088049A1/en
Priority to US14/649,181 priority patent/US9881373B2/en
Priority to US14/649,330 priority patent/US20150310613A1/en
Publication of JP2014132433A publication Critical patent/JP2014132433A/ja
Application granted granted Critical
Publication of JP6362062B2 publication Critical patent/JP6362062B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Abstract

【課題】被写体を撮影して得られた元画像から、画像処理によって、被写体の境界を明瞭化した画像を生成するための新規な技術を提供する。
【解決手段】被写体を撮影して得られた元画像から、エッジが強調または抽出された画像であるエッジ画像を生成する画像生成装置において、前記元画像から視点画像を生成する視点画像生成手段と、前記視点画像生成手段で生成された視点画像に対し、エッジを強調または抽出するエッジ処理を適用することにより、エッジ画像を生成するエッジ処理手段と、を有する。
【選択図】図9

Description

本発明は、被写体を撮影して得られた画像から観察に適した画像を生成する画像生成装置および画像生成方法に関する。
病理分野において、病理診断のツールである光学顕微鏡の代替として、プレパラートに載置された被検試料を撮像しデジタル化してディスプレイ上での病理診断を可能とするバーチャル・スライド・システムがある。バーチャル・スライド・システムによる病理診断画像のデジタル化により、従来の被検試料の光学顕微鏡像をデジタルデータとして取り扱える。それによって、遠隔診断の迅速化、デジタル画像を使った患者への説明、希少症例の共有化、教育・実習の効率化、などのメリットが得られる。
またデジタルデータに対しては様々な画像処理が可能で、バーチャル・スライド・システムで撮影した画像に対し、病理医の診断を支援する種々の診断支援機能が提案されている。
従来、診断支援機能の一例として、以下の提案がされている。
非特許文献1は、がんを診断する上で重要な所見であるN/C比(細胞質に対して核が占める比率)を算出することを目標とし、デジタル画像処理技術を用いて肝臓の病理組織標本画像から細胞膜を抽出する方法を開示している。非特許文献1では明視野、暗視野、位相差の3種類の観察像の色情報を組み合わせることで、明視野観察像単独の場合に比べて細胞膜の抽出正解率を向上させている。
また、細胞膜に限らず、細胞境界(細胞と細胞の間の細胞境界には細胞膜以外にも細胞間物質(間質)などが存在)や細胞と管や腔との境界を明瞭にすることは、診断を行う上で大きな意味がある。明瞭な境界は、医師が標本から複雑な肝臓の3次元構造を推測することを容易にするので、限られた情報からより精度の高い診断が実現できる。
また、細胞と管や腔との境界はN/C比を精度良く算出する上でも有用な情報である。例えば、肝臓の病理組織標本には、大別して核と細胞質からなる細胞の領域、肝細胞へ物質を供給する血管である類洞の領域があり、正しいN/C比を算出するには細胞が存在しない類洞の領域を正しく除外する必要がある。
特開2007−128009号公報
鳥澤奈美子,高橋正信,中野雅行,"肝病理組織標本画像中の細胞膜抽出におけるマルチイメージング利用の検討",電子情報通信学会総合大会,D−16−9,2009/3 児玉和也,久保田彰,"単一のレンズ系からの多様なボケ味の生成",映像情報メディア学会誌65(3),pp.372−381,2011年3月 児玉和也,久保田彰,"周波数領域上での線型結合に基づくScene Refocusing",映像メディア処理シンポジウム(IMPS2012),I−3.02,pp.45−46,2012年10月
しかしながら上述した従来の技術においては、以下のような問題があった。
非特許文献1では、明視野、暗視野、位相差観察像を取得するために、明視野顕微鏡に対して位相差用対物レンズや共用コンデンサを装備し、それらを切り替えて撮影している。その為、明視野観察用の光学顕微鏡に追加の部品が必要になるというコスト的な課題、撮影時に光学系および露出条件の変更の手間が発生するという課題があった。
本発明は、このような問題点に鑑みてなされたものであり、被写体を撮影して得られた元画像から、画像処理によって、被写体の境界を明瞭化した画像を生成するための新規な技術を提供することを目的とする。
本発明の第1態様は、被写体を撮影して得られた元画像から、エッジが強調または抽出された画像であるエッジ画像を生成する画像生成装置において、前記元画像から視点画像を生成する視点画像生成手段と、前記視点画像生成手段で生成された視点画像に対し、エッジを強調または抽出するエッジ処理を適用することにより、エッジ画像を生成するエッジ処理手段と、を有することを特徴とする画像生成装置である。
本発明の第2態様は、被写体を撮影して得られた元画像から、観察に適した視点画像を生成する画像生成装置において、前記元画像を解析することにより前記元画像に含まれるエッジの方向を推定し、その推定されたエッジの方向に基づいて、視点画像を生成すべき視点を決定する視点決定手段と、前記視点決定手段で決定された視点に対し、前記元画像から視点画像を生成する視点画像生成手段と、を有することを特徴とする画像生成装置である。
本発明の第3態様は、被写体を撮影して得られた元画像から、観察に適した視点画像を生成する画像生成装置において、前記元画像を解析することにより前記元画像に含まれるエッジの方向を推定し、その推定されたエッジの方向に基づいて、視点画像を生成すべき複数の視点を決定する視点決定手段と、前記視点決定手段で決定された複数の視点に対し、前記元画像から複数の視点画像を生成する視点画像生成手段と、前記複数の視点画像の中からユーザに2つ以上の視点画像を選択させる選択手段と、ユーザにより選択された2つ以上の視点画像を合成する画像合成手段と、を有することを特徴とする画像生成装置である。
本発明の第4態様は、被写体を撮影して得られた元画像から、エッジが強調または抽出された画像であるエッジ画像を生成する画像生成装置において、前記被写体に対する視線方向に応じたエッジ強調またはエッジ抽出を行うためのフィルタを生成するフィルタ生成手段と、前記元画像と前記フィルタを用いて、エッジ画像を生成するエッジ処理手段と、を有することを特徴とする画像生成装置である。
本発明の第5態様は、被写体を撮影して得られた元画像から、エッジが強調または抽出された画像であるエッジ画像を生成する画像生成方法であって、コンピュータが、前記元画像から視点画像を生成するステップと、コンピュータが、前記生成された視点画像に対し、エッジを強調または抽出するエッジ処理を適用することにより、エッジ画像を生成するステップと、を有することを特徴とする画像生成方法である。
本発明の第6態様は、被写体を撮影して得られた元画像から、観察に適した視点画像を生成する画像生成方法であって、コンピュータが、前記元画像を解析することにより前記元画像に含まれるエッジの方向を推定し、その推定されたエッジの方向に基づいて、視点画像を生成すべき視点を決定するステップと、コンピュータが、前記決定された視点に対し、前記元画像から視点画像を生成するステップと、を有することを特徴とする画像生成
方法である。
本発明の第7態様は、被写体を撮影して得られた元画像から、観察に適した視点画像を生成する画像生成方法であって、コンピュータが、前記元画像を解析することにより前記元画像に含まれるエッジの方向を推定し、その推定されたエッジの方向に基づいて、視点画像を生成すべき複数の視点を決定するステップと、コンピュータが、前記決定された複数の視点に対し、前記元画像から複数の視点画像を生成するステップと、コンピュータが、前記複数の視点画像の中からユーザに2つ以上の視点画像を選択させるステップと、コンピュータが、ユーザにより選択された2つ以上の視点画像を合成するステップと、を有することを特徴とする画像生成方法である。
本発明の第8態様は、被写体を撮影して得られた元画像から、エッジが強調または抽出された画像であるエッジ画像を生成する画像生成方法であって、コンピュータが、前記被写体に対する視線方向に応じたエッジ強調またはエッジ抽出を行うためのフィルタを生成するステップと、コンピュータが、前記元画像と前記フィルタを用いて、エッジ画像を生成するステップと、を有することを特徴とする画像生成方法である。
本発明の第9態様は、上記本発明の画像生成方法の各ステップをコンピュータに実行させることを特徴とするプログラムである。
本発明によれば、被写体を撮影して得られた元画像から、画像処理によって、被写体の境界を明瞭化した画像を生成することができる。
本発明の実施形態の画像生成および表示システムの構成図 画像表示アプリケーションの機能を説明する為の表示例 画像生成装置の内部構成を示す図 被写体の一例であるプレパラートを示す図 被写体を撮影する撮像装置の構成を模式的に示す図 視点画像でコントラストが強調される理由を説明する為の模式図 実施例1のエッジ抽出機能のGUIの例を示す図 実施例1のエッジ抽出処理の全体フローを示すフローチャート 実施例1の視点分解エッジ抽出・統合処理S802を示すフローチャート 実施例1のエッジ抽出機能の各設定のGUIの例を示す図 プレウィットテンプレートオペレータのフィルタとエッジ検出方向を示す図 視線方向に依存した視点エッジ抽出処理S903を示すフローチャート 視線方向に依存した視点エッジ抽出処理S903を示すフローチャート 実施例1のN/C比算出の処理フローを示すフローチャート 実施例3および4の視点分解エッジ抽出・統合処理S802を示すフローチャート 実施例3および4の視点決定処理S1501を示すフローチャート 実施例3の視点選定処理S1602を示すフローチャート 実施例4の視点選定処理S1602を示すフローチャート 実施例3および4で適用を想定する代表画像を示す模式図 実施例5の自動視点画像計算機能のGUIの例を示す図 プレパラート内の病理標本の表面に存在する凹凸を示す模式図 図21の各面での観察角φにおける散乱光の強度を示す模式図 視点の偏角および視線方向と光軸のなす角(観察角)の関係を示す模式図 視点位置によって変化するアンシャープマスクで用いるぼけ関数の模式図 実施例6の視点エッジ抽出処理S903の内部処理を示すフローチャート 実施例7で用いる3次元ぼけモデルを表す模式図 実施例7の視点分解エッジ抽出・統合処理S802を示すフローチャート 視点エッジ抽出処理S2702の内部処理を示すフローチャート 実施例7の視点エッジ抽出処理S903の内部処理を示すフローチャート 実施例8の視点分解エッジ抽出・統合処理S802を示すフローチャート 図30のステップS3003の内部処理を示すフローチャート
(全体構成)
図1は、本発明の実施形態に係る画像生成および表示システムの構成を示している。
画像生成装置(ホストコンピュータ)100には、ユーザからの入力を受け付ける入力操作デバイス110と、画像生成装置100から出力される画像などをユーザに提示するためのディスプレイ120が接続される。入力操作デバイス110としては、キーボード111、マウス112、ユーザの操作性を高めるための専用コントローラ113(例えばトラックボール、タッチパッド)などを利用できる。また画像生成装置100には、ハードディスクや光学ドライブ、フラッシュメモリ等の記憶装置130、ネットワークI/Fを通じてアクセスできる他のコンピュータシステム140が接続されている。なお、図1では記憶装置130は画像生成装置100の外部に存在するが、画像生成装置100に内蔵しても良い。
画像生成装置100は、入力操作デバイス110から入力されたユーザの制御信号に従い、記憶装置130から画像データを取得し、画像処理を適用することによって観察に適した観察用画像を生成したり、診断に必要な情報を抽出したりする。
画像表示アプリケーションおよび画像生成プログラム(いずれも不図示)は画像生成装置100で実行されるコンピュータプログラムである。これらのプログラムは画像生成装置100内の内部記憶装置(不図示)または記憶装置130に格納されている。後述する画像生成に関わる機能は画像生成プログラムによって提供されるものであり、画像生成プログラムの各機能は画像表示アプリケーションを介して呼び出す(利用する)ことができる。画像生成プログラムの処理結果(例えば生成された観察用画像)は、画像表示アプリケーションを介して、ユーザに提示される。
(表示画面)
図2は、予め撮影した検体の画像データを、画像表示アプリケーションを通じて、ディスプレイ120に表示した場合の一例である。
図2は画像表示アプリケーションの画面レイアウトの基本構成である。表示画面の全体ウィンドウ201内に、表示や操作のステータスと各種画像の情報を示す情報エリア202、観察対象の検体のサムネイル画像203、検体画像データの詳細観察用の表示領域205、表示領域205の表示倍率206、が配置されている。サムネイル画像203上に描画された枠線204は、詳細観察用の表示領域205に拡大表示している領域の位置および大きさを示している。このサムネイル画像203と枠線204によって、ユーザは検体画像データ全体中のどの部分を観察しているのかを容易に把握できる。
詳細観察用の表示領域205に表示する画像は、入力操作デバイス110による移動操作や拡大・縮小操作によって設定、更新できる。例えば、移動は画面上でのマウスのドラッグ操作により、拡大縮小はマウスホイールの回転等によって実現できる(例えば、ホイールの前方回転を拡大、後方回転を縮小に割り当てる)。また、焦点位置の異なる画像へ
の切り替えは、所定のキー(例えばCtrlキー)を押しながらのマウスホイールの回転等で実現できる(例えば、ホイールの前方回転を奥行きが深い画像への移動に、後方回転を奥行きが浅い画像への移動に割り当てる)。上記のようなユーザの表示画像の変更操作に伴い、表示領域205、表示倍率206、サムネイル画像203内の枠線204が更新される。このようにして、ユーザは所望する面内位置、奥行き位置、倍率の画像を観察できる。
(画像生成装置)
図3は画像生成装置100の内部構成を示す図である。
CPU301はメインメモリ302に格納されているプログラムやデータを用いて画像生成装置全体の制御を行う。またCPU301は、以降の実施例で説明する各種演算処理、データ処理、例えば、離散フーリエ変換やフィルタ処理、視点画像統合処理等を行う。
メインメモリ302は記憶装置130からロードされたプログラムやデータ、他のコンピュータシステム140からネットワークI/F(インターフェース)304を介してダウンロードしたプログラムやデータを一時的に記憶するエリアを備える。またメインメモリ302は、CPU301が各種の処理を行うために必要とするワークエリアを備える。
操作入力デバイス110はキーボード102、マウス103、専用コントローラ113などCPU301に各種の指示を入力することのできるデバイスにより構成される。ユーザは画像生成装置100の動作を制御する情報を操作入力デバイス110により入力する。305は操作入力デバイス110を介して入力された各種の指示等をCPU301に通知するためのI/Oである。
記憶装置130はハードディスクなどの大容量情報記憶装置であり、OS(オペレーティングシステム)や以降の実施例で説明する処理をCPU301に実行させるためのプログラムや画像データなどを記憶する。記憶装置130への情報の書き込みや記憶装置130からの情報の読み出しはI/O306を介して行われる。
ディスプレイ制御装置307は画像や文字等をディスプレイ120に表示させるための制御処理を行う。ディスプレイ120はユーザに入力を求めるための画面表示を行うとともに、記憶装置130や他のコンピュータシステム140から取得しCPU301で処理した画像データに基づく画像を表示する。
演算処理ボード303は、画像処理など特定の演算機能が強化されたプロセッサおよびバッファメモリ(不図示)を備えている。以降の説明では各種演算処理、データ処理にはCPU301を、メモリ領域としてメインメモリ302を用いるとして説明するが、演算処理ボード内のプロセッサやバッファメモリを用いることも可能であり、本発明の範疇とする。
(被写体)
図4は被写体の一例である病理標本のプレパラート(スライドとも呼ぶ)を表す。病理標本のプレパラートでは、スライドグラス410上に載置した検体400が封入剤(不図示)とその上に載せるカバーグラス411によって封入されている。検体400の大きさや厚みは検体毎によって異なっている。更にスライドグラス410上には検体に関する情報が記録されたラベルエリア412が存在する。ラベルエリア412への情報の記録は、ペンによる記入でもよいし、バーコードや2次元コードの印刷でもよい。また電気的、磁気的、または光学的な方法により情報を記憶可能な記憶媒体をラベルエリア412に設けてもよい。以降の実施形態では、被写体として図4に示す病理標本のプレパラートを例に説明する。
(撮像装置)
図5は被写体を撮影しデジタル画像を取得する撮像装置の構成の一部を模式的に表す。図5に示すように、本実施形態では、検体400の表面に平行にx軸とy軸をとり、検体400の深さ方向(光学系の光軸方向)にz軸をとる。
プレパラート(検体400)をステージ502上に置き、照明ユニット501から光を照射する。検体400を透過した光は、結像光学系503によって拡大され、撮像センサ504の受光面に結像する。撮像センサ504は複数の光電変換素子を有する一次元ラインセンサまたは二次元エリアセンサである。検体400の光像は撮像センサ504により電気信号に変換され、デジタルデータとして出力される。
一回の撮影で検体全体の画像を取得できない場合には、ステージ502をx方向および/またはy方向に移動しながら複数回の分割撮影を行い、得られた複数の分割画像を合成(繋ぎ合わせ)して検体全体の画像を生成する。また、ステージ502をz方向に移動しつつ複数回の撮影を行うことで、光軸方向(深さ方向)の焦点位置が異なる複数枚の画像(レイヤー画像と呼ぶ)を取得する。本明細書では、光軸方向(深さ方向)の焦点位置が異なる複数枚のレイヤー画像からなる画像群を「Zスタック画像」または「Zスタック画像データ」と呼ぶ。また、被写体を撮影することによって取得された画像であるレイヤー画像やZスタック画像を「元画像」と呼ぶ。
図2の表示倍率206に表示される倍率の値は、結像光学系503の倍率に画像表示アプリケーション上での拡大/縮小率を掛けた値である。なお、結像光学系503の倍率は固定でも良いし、対物レンズの交換によって可変であっても良い。
(視点画像を生成する技術の説明)
画像生成装置100では、暗視野観察や位相差観察など光学系に変更を加える観察・撮像方法を必要としない代わりに、Zスタック画像から画像処理によって中間画像(視点画像)を生成し、その中間画像を用いて観察や診断に適した観察用画像を生成する。まずは、Zスタック画像から中間画像としての視点画像を生成する処理に利用可能な技術について説明する。
光軸方向の焦点位置を変えて撮影した複数枚の画像(Zスタック画像)を元に、任意の方向から観察した視点画像(任意視点画像)を生成できることが知られている。ここで、視点画像とは所定の観察方向(即ち視点)から被写体を観察した画像を表す。
例えば特開2007−128009号公報(以降、特許文献1と呼ぶ)には、ピント位置を変えて撮影した焦点ぼけ画像群から、任意の視点や任意のぼけの画像を生成する方法が開示されている。この方法は、焦点ぼけ画像群に対し、3次元的な焦点ぼけがXYZ位置で不変になるように座標変換処理を施し、得られた直交座標系(XYZ)において3次元のフィルタ処理を適用することで視点やぼけを変更した画像を得る、というものである。
また、非特許文献2には、特許文献1の方法の改良が開示されている。非特許文献2では、視点から視線方向を求め、Zスタック画像を視線方向に積算することで積算画像を生成するとともに、同じように3次元ぼけの視線方向の積算画像も生成する。その後、Zスタック画像の積算画像に対し3次元ぼけの積算画像を逆フィルタ処理することにより、Z方向(レイヤー画像の枚数)の制約による影響を抑制し、高画質な視点画像を生成することができる。
また、非特許文献3には、非特許文献2の計算を高速化する方法が開示されている。非特許文献3の方法では、被写体(シーン)に依存せずに予め定まるフィルタと焦点ぼけ画像群の各Z位置のフーリエ変換画像の線型結合によって、周波数領域上での任意視点画像
や任意焦点ぼけ画像が効率的に計算できる。
以降の説明では、光軸方向の焦点位置を変えて撮影した複数枚の画像(Zスタック画像)を元に、任意の方向から観察した視点画像(任意視点画像)を生成することや、任意の焦点ぼけを持つ画像を生成する手法を総称して、MFI(マルチフォーカスイメージング)任意視点/焦点ぼけ画像生成法と呼ぶこととする。
なお、両側テレセントリックな光学系を持つ顕微鏡でピント位置を変えて撮影したZスタック画像は3次元的な焦点ぼけがXYZ位置で不変である。よって、両側テレセントリックな光学系で撮影したZスタック画像にMFI任意視点/焦点ぼけ画像生成法を適用する場合は、座標変換処理および座標変換処理に伴う画像の拡縮処理は不要である。
ライトフィールドと呼ばれる4次元の情報(XYの2次元画像に視点位置の自由度を加えた情報)が記録された画像を1回の撮影で取得可能な撮像装置が知られている。このような撮像装置はライトフィールドカメラやライトフィールド顕微鏡と呼ばれる。これらの装置では、本来結像面となる位置にレンズアレイが配置されており、それよりも後方のイメージセンサでライトフィールドを撮影する。ライトフィールドが記録された元画像からも、公知の技術を用いて、任意の焦点位置の画像や任意の方向から観察した視点画像(任意視点画像)を生成できる。
本実施例では、撮像装置の被写体に対する方向を物理的に変えることなく、Zスタック画像又はライトフィールドなどの撮像画像を元に、デジタル画像処理によって生成される任意の観察方向の画像を「視点画像」とよぶ。この視点画像は、被写体の撮影に用いる結像光学系を通る任意の光線を主光線とし、その主光線を中心とする光束によって撮像面に形成される画像を模擬した画像である。主光線の方向が観察方向に対応する。主光線の方向は任意に設定できる。また光束の大きさ(NA)も任意に設定できる。画像診断等が目的の場合には、視点画像の被写界深度は深いことが望ましいので、視点画像に対応する光束のNAは0.1以下が望ましい。
なお、デジタル画像処理によって生成(計算)した視点画像は、結像光学系の露出条件(絞りの位置・大きさ)や光軸方向やレンズ等を物理的に変えて撮影した画像とは、必ずしも一致しない。しかし、現実に撮影した画像と一致していなくても、視点を変えて被写体を観察したのと同様の特徴を有する画像であれば(つまり、観察方向を変えるのと同様の効果をデジタル画像処理によって与えることができれば)、画像観察や画像診断等には有用である。従って、現実に光軸方向等を変えて撮影した画像とは厳密には一致しないが、そのような画像と同様の特徴が現れるようにデジタル画像処理された画像も、本実施例の視点画像に含まれる。
特許文献1によれば、座標変換を施した焦点ぼけ画像群から、実空間上のレンズ面(瞳面に相当)上にある原点O(x,y,z)=(0,0,0)から視点(x,y,z)=(s,t,0)だけズレた位置のピンホールを通して観察した視点画像を生成できる。MFI任意視点/焦点ぼけ画像生成法では、レンズ面上の視点の位置を変えることで被写体を観察する観察方向、すなわち視線方向を変化させることができる。
視線方向は、結像した像に対応する被写体の所定の位置から発する光束の中で、レンズ面上の視点の位置(x,y,z)=(s,t,0)を通る直線の傾きである、と定義できる。視線方向は様々な方法で表現可能である。例えば、直線の進行方向を示す3次元的なベクトルによる表現でも良いし、前述の3次元的なベクトルが光軸となす角(観察角)と光軸に垂直な平面に射影したときのベクトルがX軸となす角(偏角)による表現でも良い。
結像光学系が両側テレセントリックではない場合、撮像面における3次元的な焦点ぼけは、合焦した被写体の空間的な位置(xyz座標内の位置)によって変化し、レンズ面上の視点の位置(x,y,z)=(s,t,0)を通る直線の傾きは一定とはならない。その場合、特許文献1に記載の座標変換後の直交座標系(XYZ)の上で視線方向を定義すると良く、視線方向は(X,Y,Z)=(−s,−t,1)のベクトルで表すことができる。以下、座標変換後の視線方向の求め方を説明する。
特許文献1には、結像光学系の焦点が合った任意の位置と撮像装置のレンズ面(瞳面に相当)上の同一の視点の位置(x,y,z)=(s,t,0)を結ぶ光線は、座標変換後の直交座標系(XYZ)では全て互いに平行な光線となることが記載されている。(特許文献1の図1〜3およびその説明を参照)
透視座標系(座標変換前の実空間)の被写体のある点から出た光は、(p+s,q+t,f)(fは焦点距離)を通過し、視点の位置(x,y,z)=(s,t,0)で屈折する。この直線は以下の式で表される。
Figure 2014132433

数1の直線は座標変換後の直交座標系(XYZ)では以下の式で表される。
Figure 2014132433

数2にZ=0(z=f)、Z=1(z=∞)を代入すると、それぞれ(X,Y,Z)=(p+s,q+t,0)、(X,Y,Z)=(p,q,1)となることから、直交座標系(X,Y,Z)での直線の傾きは(−s,−t,1)で表される。
従って、座標変換後の直交座標系での視線方向を表すベクトルは(X,Y,Z)=(−s,−t,1)となる。
なお、結像光学系が両側テレセントリックである場合、奥行き方向に焦点を変えて撮影した複数枚の画像(Zスタック画像)中の3次元的な焦点ぼけはZの位置によらず不変となる。
従って、空間的な位置によらず3次元的な焦点ぼけを不変とするための座標変換は必要ない。実空間においてピントが合った被写体の所定の位置(x,y,z)=(0,0,za)とレンズ面上の視点の位置(x,y,z)=(s,t,0)を結ぶ直線の傾き(−s,−t,za)をそのまま視線方向と見なしても良い。
(視点と実際に標本を観察したときの偏角θ及び観察角φの対応関係)
図23(a)は実空間上の視点の位置(x,y,z)=(s,t,0)を表す模式図であり、図23(b)は直交座標系(XYZ)において視点の位置(x,y,z)=(s,t,0)を通る光線を表す模式図である。
図23(a)で示す点線の円はレンズ面上(z=0)で光線が通過可能な範囲を表している。偏角θはレンズ面上の視点の位置(x,y,z)=(s,t,0)がレンズ面上(z=0)のx軸となす角、あるいは視線(−s,−t,1)をxy平面に射影したときの直線がx軸となす角と定義すると、下記の式で求められる。
Figure 2014132433

ただし、θはt,sの符号に応じて−180〜+180度の範囲に収まるように調整する。
続いて、図23(b)を用いて視線と変換座標上の観察角φの関係について説明する。
図23(b)では、数2で示す直線と数2に光軸上の点p=0、q=0を代入した場合の直線を太字の矢印で示している。
特許文献1によれば、直交座標系(XYZ)のZ=0は透視座標系(xyz)のz=f(またはz=−∞)に対応し、Z=1はz=∞(またはz=−f)に対応している。そのため、図23(b)は直交座標系(XYZ)において無限遠(Z=1)からの光束が、レンズ面上の手前の焦点面(Z=0)で広がりを持つことを示している。(特許文献1の図3およびその説明を参照)
ここで、変換座標上の観察角φを、視線(−s,−t,1)と光軸(Z軸)がなす角と定義すると、図23(b)からも明らかなように視線は、被写体の位置に依存しないので、観察角φは以下の式で求められる。
Figure 2014132433

なお、図23(b)の2本の点線はレンズ面上の最も端を通る光線を示しており、座標変換前の透視座標系(xyz)でのレンズの絞り半径をraとすると、視点の位置(x,y,z)=(s,t,0)が半径raの内部にある場合のみ視点画像は計算できる。
次に、実際に標本を観察したときの視線に対応する偏角θ、観察角φについて述べる。
スネルの法則では屈折率の異なる境界に光線が入射したとき、光線の入射角と入射側の媒質の屈折率の積は、光線の屈折角と屈折側の媒体の屈折率の積に等しい。標本の屈折率は空気の屈折率よりも大きいことから、空気中の観察角に比べ標本中の観察角は小さくなっている。そのため、屈折した光線で構成される、標本中の3次元的な焦点ぼけは、空気中での3次元的な焦点ぼけよりも小さくなっている。しかし、本実施例では標本と標本中での3次元的な焦点ぼけによる3次元的な結像関係に基づいて視点の位置を計算しているため、標本の屈折率の影響は考える必要はなく、偏角θおよび観察角φはそのまま標本中での観察方向を表している。
結像光学系が両側テレセントリックである場合には、座標変換を必要としないため、x方向とy方向のセンサ画素ピッチが等しいとすれば、観察角φは、x方向のセンサ画素ピッチΔxと、z方向の移動間隔Δz(単位はμm)を用いて、下記式で表現できる。
Figure 2014132433

なお、結像光学系が両側テレセントリックでない場合には、数5でΔxとΔzの代わりに、直交座標系(XYZ)におけるX方向のセンサ画素ピッチΔXとZ方向の移動間隔ΔZを用いれば観察角φが求められる。
以上で、実際に標本を観察したときの視線に対応する偏角θ、観察角φについて説明した。
以降の説明では、レンズ面上の視点の位置(x,y,z)=(s,t,0)を視点(s,t)と略して記載する。また、以降の説明では、直交座標系(XYZ)上での画像処理を前提として説明するため、視点の位置(s,t)に言及する場合のみ透視座標系(座標変換前の実空間)での位置を表すものとし、その他は特に断りが無い限りは、直交座標系(XYZ)での位置を表すとする。
図5の撮像装置で取得したZスタック画像に対し特許文献1の方法を適用すると、視点の位置、即ち観察方向を変えた視点画像を生成することが出来る。
特許文献1の方法で計算する視点画像は、非常に深い(無限大の)被写界深度を持ち、透過率が異なる標本内の物質の境界が明瞭に見える、という特徴を有している。
図6(a)は、直交座標系(XYZ)での光学系の3次元的なぼけを表す図である。600は3次元的なぼけ形状を示し、ピント位置(2つの円錐の頂点)では焦点ぼけは僅かだが、Z位置がピント位置から離れるに従い、焦点ぼけが広がる様子を示している。特許文献1の方法を用いれば、Zスタック画像から円錐600の内部を通る任意の視線方向(例えば直線610)の光線で構成される視点画像を生成することが出来る。
図6(b)は直交座標系(XYZ)での病理標本(検体)を異なる方向から見た様子を示す。図6(b)の標本620の内部には斜め方向の空洞630が存在している。
方向631から観察すると空洞630以外の部位が透けて見える為、空洞630の壁面のコントラストは明瞭ではない。また方向632から観察した場合も同様で空洞630のコントラストは不明瞭である。しかし空洞630の壁面に沿った方向633から観察する場合、他の部位の影響を受けないので、空洞630の壁面のコントラストは明瞭となる。なお、視線方向が多少空洞の壁面の方向と異なってもコントラストは比較的高い状態を維持できる。
一方、標本620のZスタック画像においては、いずれのZ位置(焦点位置)のレイヤー画像においても、方向631〜633の光線を含む多方向の光束の影響を受ける為、空洞の壁面のコントラストは方向633からの観察像に比べて明瞭にはならない。この現象は空洞に限らず、核や細胞膜、線維等においても同様である。
そのため、元画像であるZスタック画像またはレイヤー画像をそのまま用いるよりも、コントラストが明瞭な視点画像を用いる方が、よりエッジ検出がしやすいことが分かる。従って、Zスタック画像から視点画像を分解し(「視点画像の分解」は「視点画像の生成」と同じ意味である)、視点画像に対してエッジ抽出または強調処理を行うことで、エッジの検出性能を高めることが出来る。この方法により、元画像(レイヤー画像)からは検出が難しかったコントラストが弱い構造のエッジを、精度良く検出できるようになり、画像解析や画像診断に有用な情報が得やすくなる。
なお、本明細書では、画像からエッジ部分の像もしくは情報のみを取り出す操作をエッジの抽出と呼び、画像中のエッジ部分の像もしくは情報の識別性を向上させる操作をエッジの強調と呼ぶ。ただし、エッジの抽出と強調を特に区別する必要がない場合には、両方を包含する用語としてエッジ処理という用語を用い、エッジ処理によってエッジが抽出または強調された画像のことをエッジ画像と呼ぶ。
以下、画像生成装置100の具体的な実施例について説明する。
[実施例1]
(エッジ抽出設定画面)
図7(a)、図7(b)は実施例1におけるエッジ抽出機能の設定画面の一例である。
図2の画像表示アプリケーションで表示画像中の領域207をマウスで選択した後、マウスの右クリックで表示される機能拡張メニュー208から「視点分解エッジ抽出」(不図示)の項目を選択する。それに対応してエッジ抽出処理前後の画像を示す新規ウィンドウ700(図7(a))およびエッジ抽出機能の設定画面703(図7(b))が表示される。ウィンドウ700の左側領域701には領域207内の画像が表示され、右側領域702にはエッジ抽出処理結果の画像が表示される。
エッジ抽出機能の設定を変更する場合には、設定画面703を操作する。ユーザがマウスにより視点分解設定ボタン704を押下すると、エッジ抽出に用いる視点画像の方向(3次元的な観察方向)を決める為の設定画面が表示される。なお、視点の数は1つでも複数でも良い。詳細は後述する。ユーザが視点エッジ抽出設定ボタン705を押下すると、視点画像からエッジを抽出する方法やパラメータを設定する視点エッジ抽出設定画面が表示される。エッジを抽出する方法としては種々の方法が選択可能であり、詳細は後述する。ユーザが視点エッジ統合設定ボタン706を押下すると、視点画像からエッジを抽出した画像(以降、視点エッジ抽出像と呼ぶ)を統合した画像(以降、視点エッジ統合像と呼ぶ)を生成するための設定画面が表示される。ここでは各視点エッジ抽出像に対する重み付けの設定を行う。また必要ならばオプションで視点エッジ抽出像を統合した後のノイズ除去パラメータ等の設定を行うことも可能である。詳細は後述する。オーバーレイ表示707はチェックボックスであり、この設定を有効にすると右側領域702には選択領域207内の画像とエッジ抽出像が重ね合わせて表示される。ユーザが、必要に応じて上記設定を行い、実行ボタン708を押すと、視点画像の生成とエッジの抽出が行われ、処理結果が表示される。詳細は後述する。
710はウィンドウ700内で右クリックすることで呼び出し可能な機能拡張メニューである。機能拡張メニュー710の中にはN/C比算出(不図示)等の画像解析の項目が並んでいる。項目を選択すると、画像解析処理の設定画面(不図示)が表示され、ウィンドウ内の選択領域あるいは全体に対して解析処理を実行し、処理結果を表示する。詳細は後述する。
(エッジ抽出処理)
図8は前述の実行ボタン708を押下した際に実行されるエッジ抽出処理のフローを示す。この処理は、画像表示アプリケーションとそこから呼び出される画像生成プログラムによって実現されるものである。
Zスタック画像取得ステップS801では、画像表示アプリケーションで表示中の画像選択領域207の座標を元に、メインメモリ302または記憶装置130に格納されたZスタック画像から必要な範囲のデータを取得する。なお、Zスタック画像が他のコンピュータシステム140に存在する場合にはネットワークI/F304を通じてデータを取得し、メインメモリ302に格納する。
続いて、視点分解エッジ抽出・統合処理ステップS802では、被写体に対する視線方向(観察方向)を決める視点の情報に基づき、Zスタック画像から複数の視点に対する視点画像を生成する(この操作を視点画像への分解ともいう)。そして、各視点画像からエッジを抽出して視点エッジ抽出像を生成し、それらを統合して視点エッジ統合像を生成する。詳細は後述する。
続いて、輪郭抽出処理ステップS803では、視点エッジ統合像から輪郭を抽出した輪郭抽出像を生成する。なお、ステップS803の処理は必須ではなく、不図示の設定に従って適用/不適用が変更できる。詳細は後述する。
最後に、画像表示処理ステップS804では、輪郭抽出像、視点エッジ抽出像、あるいは視点エッジ統合像を画像表示アプリケーションの表示倍率に合わせて拡大/縮小し、右側領域702に表示する。オーバーレイ表示707が有効である場合、選択領域207内の画像に輪郭抽出像、視点エッジ抽出像、あるいは視点エッジ統合像を重ね合わせて表示する。この際、選択領域207内の画像に対し、対応する位置の視点エッジ抽出像あるいは視点エッジ統合像を加算した画像を右側領域702に表示しても良い。またさらに、加算した画像を、選択領域207内の画像と明るさが近くなるように諧調補正した画像を右側領域702に表示しても良い。複数の視点エッジ抽出像を一定の時間間隔で切り替えるアニメーション表示を行っても良い。このとき、輪郭抽出像、視点エッジ抽出像、あるいは視点エッジ統合像はチャネル(RGB)毎に色を付けて表示しても良いし、標本の色と重ならない別の色に変更しても良い。ここで表示に用いられる画像(輪郭抽出像、視点エッジ抽出像、視点エッジ統合像、又は、それらを元画像に合成した画像)は、いずれも画像観察や画像診断に適した観察用画像である。
(視点分解エッジ抽出・統合処理)
図9は視点分解エッジ抽出・統合処理S802の内部処理を示すフローチャートである。
まず、視点取得処理ステップS901では、後段のステップS902において視点画像の生成に必要な視点の位置情報を取得する。ステップS901では予め定められた視点の位置情報を、メインメモリ302や記憶装置130、他のコンピュータシステム140から取得しても良い。またステップS901では画像表示アプリケーション上で設定した情報に基づき視点の位置情報を計算して求めても良い。詳細は後述する。
続いて、視点画像生成ステップS902では、ステップS801で取得した選択領域207のZスタック画像を元に、ステップS901で求めた視点に対応する視点画像の生成を行う。なお、Zスタック画像から任意の視点画像を生成する方法(MFI任意視点/焦点ぼけ画像生成法)には、前述の特許文献1、非特許文献2、3等の方法をはじめとして、如何なる方法を用いてもよい。
続いて、視点エッジ抽出処理ステップS903では生成した視点画像に対し、視点エッジ抽出設定(705)に基づき、エッジ抽出処理を行う。視点が複数存在する場合は、視点数分の視点エッジ抽出処理を実行する。詳細は後述する。
続いて、視点エッジ統合像生成ステップS904では、視点エッジ統合設定(706)に基づき、ステップS903で生成した複数の視点エッジ抽出像を合成し、視点エッジ統合像を生成する。詳細は後述する。
以下、視点取得処理ステップS901、視点エッジ抽出処理ステップS903、視点エッジ統合像生成ステップS904の詳細を説明する。
(視点取得処理ステップS901)
以下、視点分解設定(704)に基づき、視点取得処理ステップS901で視点の位置情報を計算する場合について説明する。
図10(a)の視点分解設定画面1001は、視点分解設定ボタン704の押下時に表示される設定画面の一例である。ここではエッジ抽出に用いる視点画像の視点位置を設定する。
設定画面1001では視点の設定方法として直接設定とメッシュ設定の2つが選択できる。直接設定では、視点数と視点の位置(s,t)をユーザに直接指定させる。一方、メッシュ設定では、外径、内径(中心遮蔽)、離散化ステップをユーザに指定させ、これらの指定値から各視点の位置を計算する。
「外径」には、計算する視点の最大のズレ量を指定し、「内径(中心遮蔽)」には、計算する視点の最小のズレ量(つまり計算しない視点の最大のズレ量)を指定する。ここでは、レンズ面上の原点を中心とする距離(半径)によって、外径および内径(中心遮蔽)の値を設定する。なお、外径にはレンズ面上での光学系の半径raを越える値は設定できない。「離散化ステップ」は、「外径」で規定される円から「内径」で規定される円を除いたドーナツ状の領域内に、視点画像を生成する視点の位置を離散的に設定するための刻み間隔である。離散化ステップが細かい程、計算する視点数は増加する。
なお上述の円以外にも様々な形状の設定が可能である。例えば、半径の異なる複数の同心円や中心から放射線上に伸びる直線が設定できる。同心円設定の場合、各々の円の半径、各々の円上の視点の密度を決める離散化ステップ(例えば、角度間隔の設定)が設定できる。また中心から放射線上に伸びる直線の場合、線の間隔(例えば、角度間隔の設定)や放射線上の視点の密度を決める離散化ステップが設定できる。
(視点エッジ抽出処理ステップS903)
図10(b)の視点エッジ抽出設定画面1002は、視点エッジ抽出設定ボタン705押下時に表示する設定画面の一例である。ここでは視点画像からエッジ抽出を行う際に用いるエッジ抽出方式やパラメータを設定する。
設定画面1002の方式欄では、視点画像に適用するエッジ抽出方式が選択できる。
エッジ抽出方式としては多数の方式が存在する。例えば、エッジ抽出フィルタには、1次微分フィルタであるSobelフィルタやPrewitフィルタ、2次微分フィルタであるラプラシアンフィルタやその派生形のLOG(Laplacian Of Gaussian)フィルタが
ある。また、エッジ抽出フィルタには、フーリエ周波数上で処理するハイパスフィルタ、バンドパスフィルタなどがある。また、画像をフーリエ変換し、振幅スペクトルを1に規格化した後に逆フーリエ変換すると、形状情報が強調されたフーリエ位相画像が得られるので、これもエッジ抽出の一つである。2次微分が0になる位置を求めるゼロクロス検出法、方向性を持つ配列を用いてエッジを検出するプレウィットテンプレートマッチングも適用できる。また、顔認識や指紋認識などで用いられるガボールフィルタによるエッジ抽出、コンピュータビジョン分野で良く用いられるCanny Edge Detectorなども適用できる
。また、ノイズ除去手法の1つであるバイラテラルフィルタは、エッジを保ちつつ、ノイズを除く特徴をもつ。バイラテラルフィルタを繰り返し適用することでエッジと平坦領域の差が際立つため、この手法もエッジ抽出方式の一つとして用いることができる。また前述の方式の組合せによるエッジ抽出も可能である。
上記のように視点画像に適用するエッジ抽出処理には、様々な方式のものやそれらを組み合わせたものを利用できる。ただし、本実施例においては、視点エッジ統合像からエッジを検出するときの検出性能を高めるために、線型性を持たない(つまり非線型の)エッジ抽出処理を用いることが望ましい。以下、その理由について説明する。
一般に線型性とは、関数f(x)が以下の性質を持つことをいう。
・任意のx,yに対して、 f(x+y)=f(x)+f(y)
・任意のx,aに対して、 f(ax)=af(x)
エッジ抽出処理は画像に対する関数として捉えることができるため、その線型性も同じように定義することができる。
例えば、エッジ抽出処理をh、i番目の視点画像をIiで表すと、このエッジ抽出処理が線型性を満たす場合、
Figure 2014132433

が成立する。この式は、各視点画像Iiから得られた視点エッジ抽出像h(Ii)を統合した結果である視点エッジ統合像Σh(Ii)が、視点合成画像ΣIiに対するエッジ抽出処理結果h(ΣIi)と等価であることを示している。
言い換えると、エッジ抽出処理が線型性を持たないとは、複数の画像Iiを合成した後にその合成画像ΣIiに対してエッジ抽出処理を施した結果h(ΣIi)と、各画像Iiに対してエッジ抽出処理を施した後にそれらを合成した結果Σh(Ii)とが、一致しない性質ということができる。
前述の通り、視点合成画像では様々な方向からの光線が集まり、ピント位置前後の物体のコントラストが低下する傾向がある。そのため、線型性を持つエッジ抽出処理を用いると、視点エッジ抽出像を統合したときに各視点画像におけるエッジ抽出効果が、互いに打ち消され、全体的に弱まってしまう。従って、統合によってエッジ抽出効果が打ち消されないよう、非線型性を持つエッジ抽出処理を用いることが望ましい。
非線型性を持つフィルタを用いれば、エッジ抽出処理の非線型性は成立する。線型性を持つフィルタを用いる場合であっても、フィルタの出力(エッジ抽出結果)に対して加工(例えば、絶対値、2乗値、2値化)を施した後、統合することで、非線型性を実現できる。例えば、SobelフィルタやPrewitフィルタでは、画像内の画素位置I(i,j)に対しそれぞれx方向およびy方向の微分値を求めた後、勾配の大きさg(i,j)を求める。勾配の計算式として以下の例がある。いずれも線型フィルタを用いながら、非線型性を実現している。
Figure 2014132433

ただし、fx=I(i+1,j)−I(i−1,j)、fy=I(i,j+1)−I(i,j−1)であり、max()は括弧内の引数の中から最大値を採る関数である。
また、視点画像毎に適用するフィルタを変えることも有効である。以下の式のように、i番目の視点画像に適用するフィルタ操作の関数をhiとすると、すべてのhiが同一のフィルタでない限り、線型性は成立しない。
Figure 2014132433
エッジ抽出処理においては、視点画像の視線方向に応じて、適用するエッジ抽出処理のパラメータを変更することが好ましい。視点画像では、元画像に比べて視線方向に近い方向を持つ構造のコントラストが明瞭になり、それ以外の方向の構造のコントラストは明瞭になりにくい。それゆえ、XY平面内の視線方向に直交するエッジが抽出または強調されるようにエッジ抽出処理のパラメータを変更すれば、エッジの抽出または強調を効率的に
(効果的に)行うことができる。具体的な方法としては、視線方向とエッジ検出方向とが一致するように、視線方向に合わせてフィルタの係数を適応的に変更すれば良い。
図11(a)〜図11(h)にプレウィットテンプレートマッチングで用いる3×3のテンプレートの例を示す。3×3のテンプレートの下に記載されている矢印はエッジ検出方向を表している。フィルタの9個の係数の配列を変えることでエッジ検出方向を制御できる。これらのフィルタを用いる場合、矢印で表されるエッジ検出方向とXY平面内の視線方向を一致させると良い。
また、視線方向に直交するエッジを検出するフィルタとして2次元ガボールフィルタを用いることも出来る。2次元ガボールフィルタはガウス関数とcos関数との積で表される
フィルタであり、下記の数式で表される。
Figure 2014132433

λはcos関数部の波長成分、ψはcos関数部の位相オフセット、θは関数の縞模様の方向、σはガウス関数部の分散、γはガウス関数部の縦横のアスペクト比を表す。
2次元ガボールフィルタは任意の方向に係数を変化させることが出来るため、生成すべき視点画像の視線方向に合わせたフィルタを作ることでエッジの検出効果をより高めることができる。
図12は視線方向に依存した視点エッジ抽出処理S903の内部処理を表すフローチャートである。図12に示す処理は、図9に示すように、すべての視点について繰り返し実行される。
まず、視点偏角算出ステップS1201では処理対象の視点の偏角を算出する。図23(a)に示すように、所定の視点の位置を(s,t)とする場合、視点の偏角θは、
Figure 2014132433

で計算できる。ただし、偏角はs,tの符号に応じて−180〜+180度の範囲に収まるように調整する。
なお、視点の動径rは、
Figure 2014132433

で計算できる。また視点の位置(s,t)は偏角θと動径rを用いれば、
Figure 2014132433
で表現できる。
続いてステップS1202では、ステップS1201で算出した視点の偏角に基づいてフィルタの読み出しまたは生成を行う。
視線方向に依存したエッジ抽出フィルタとして図11(a)〜図11(h)に示すプレウィットテンプレートマッチングの配列を用いる場合、向きは8方向に限定されるため、視点の偏角に最も近い方向の配列を選択し、フィルタを読み出す。またエッジ抽出フィルタとして2次元ガボールフィルタを用いることも可能で、θに視点の偏角を設定してフィルタを生成すれば、任意の視線方向に沿って係数が変化するフィルタが生成できる。なお、2次元ガボールフィルタのλやσは画素ピッチ、倍率に基づく既定値でも良いし、視点の動径に対応させた値でも良い。またλやσを被写体の特徴等に基づいて変化させても良い。
続いて、フィルタ処理ステップS1203では、ステップS1202で読み出しまたは生成したフィルタを用いて、視点画像に対してフィルタ処理を行い、エッジの抽出を行う。
図12の処理の変形例について説明する。プレウィットテンプレートマッチングやガボールフィルタによるエッジ抽出のように、1つの視点画像に複数方向(例えば8方向)のフィルタを適用し、複数方向のエッジ抽出性能を高めつつ、線型性を成立しないようにすることは可能である。例えば、視点画像毎に、視点の偏角に対応するフィルタでエッジ抽出した結果を他のフィルタの結果よりも強調し、統合すれば、視点によってフィルタの強度が変わることになるため、フィルタが固定であっても線型性は成立しない。
図13は視点画像毎に多方向からエッジ抽出を行う場合の、視線方向に依存した視点エッジ抽出処理の内部のフローチャートの一例である。図13の処理も、図12の処理と同じく、視点毎に繰り返し実行される。
視点偏角算出ステップS1301では、ステップS1201と同様、処理対象の視点の偏角を算出する。
次にステップS1302では、フィルタ方向毎の強度変倍率の和を格納する変数A1および視点エッジ抽出像を格納する2次元バッファB1のそれぞれを0で初期化する。
続いて、ステップS1303では、個々の視点画像に対し繰り返し適用するフィルタの中の1番目のフィルタの読み出しまたは生成を行う。例えば、図11(a)〜図11(h)に示す8つのフィルタを順に適用する場合、1番目に設定したフィルタ(例えば図11(a))を読み出す。また個々の視点画像に対しθを変えたN個(例えば16個)の2次元ガボールフィルタを適用する場合には、1番目の角度θを設定し2次元ガボールフィルタの読み出しまたは生成を行う。
続いて、フィルタ処理ステップS1304では処理対象の視点画像に対し、ステップS1303またはステップS1309で読み出しまたは生成したフィルタを用いてフィルタ処理を行う。
続いて、方向判定ステップS1305では、視点偏角算出ステップS1301で求めた視点の偏角とフィルタ処理ステップS1304で視点画像に適用したフィルタのエッジ検出方向が一致するか、又は両者の角度の差Δθが所定範囲に収まるか否かを判定する。所定範囲に収まるかを判定する理由は、現在のフィルタのエッジ検出方向が隣接するフィルタのエッジ検出方向よりも視点の偏角に近いかを判断する為である。例えば図11(a)〜図11(h)に示す8つのフィルタを適用する場合、所定範囲は−22.5度以上22.5度未満となる。
方向判定ステップS1305の判定結果が真であれば変数A1に強度変倍率M(Mは1より大きい実数。例えばM=3。)を加算しステップS1306に進む。偽であれば変数
A1に1を加算し、加算処理ステップS1307に進む。
強調処理ステップS1306では、フィルタ処理ステップS1304で求めたフィルタ処理結果の画像の画素値をM倍に強調する。例えば、図11(a)〜図11(h)に示す8つのフィルタを用いる場合に、視点の偏角が0度であり、フィルタの方向も同様に0度で両者が一致する場合には、フィルタ処理結果の画像の画素値はM倍に変倍される。
続いて、加算処理ステップS1307では、視点画像をエッジ抽出(条件によってはさらに強度をM倍)した結果を2次元バッファB1に加算する。
続いて、ステップS1308では処理対象の視点画像に全てのフィルタを適用したか判定する。偽の場合にはステップS1309に進み、次のフィルタを読み出しまたは生成し、フィルタ処理ステップS1304に進む。真の場合には、正規化処理ステップS1310に進む。
続いて、正規化処理ステップS1310では2次元バッファB1の各画素の値を変数A1の値で割る。
上記の処理により、1つの視点画像に対し多数のフィルタを適用する場合でも、線型性が成立しない視点エッジ抽出処理が実現できる。
なお、フィルタ処理ステップS1304では、フィルタの処理結果の絶対値や2乗値などを求めることで、非線型性を実現しても良い。その場合でも同様に、方向性判定ステップS1305で視点の偏角とフィルタの方向が一致する場合には、強調処理ステップS1306に進み、処理結果を強調することでエッジ抽出処理の効果を高められる。
また、既に述べたように、図13に示す処理以外でも線型性が成立しないようにできる。例えば、SobelフィルタやPrewitフィルタと同様に、複数の方向から適用した線型フィルタの処理結果を集め、それぞれの2乗値の和の平方根、絶対値の和、絶対値の最大値などを求めて、最終的なフィルタ結果とすることで非線型性を実現できる。
なお、視点エッジ抽出処理はフーリエ変換上で行っても良い。2次元ガボールフィルタのようにフィルタのサイズが大きい場合、フィルタ処理はフーリエ変換上で処理する方が早い。その場合、処理後に逆フーリエ変換する必要はなく、後段の視点エッジ統合像生成で逆変換すればよい。
また、視点エッジ抽出設定画面1002ではノイズ除去設定が可能である。ノイズ除去設定としては、閾値による2値化や、メディアンフィルタ、エッジを保ったノイズ除去が可能なバイラテラルフィルタなどが適用できる。この処理により明瞭なコントラストを持つエッジを抽出し、よりN/C比を検出しやすくすることができる。
(視点エッジ統合像生成ステップS904)
図10(c)の視点エッジ統合設定画面1003は視点エッジ統合設定ボタン706押下時に表示する設定画面の一例である。ここでは視点エッジ抽出像を統合する際の合成方法を設定する。設定画面1003には各々のエッジ抽出像を統合する際の合成方法を選択するリストボックスがあり、「均等」、「ガウスぼけ」、「最大値の選択・合成」など、様々な合成方法を選択可能となっている。ここで「均等」は等しい重み付けで、「ガウスぼけ」は各視点の原点(光軸上)からの距離に従ってガウス関数で求めた重み付けで各々のエッジ抽出像を合成する方法を示す。また「最大値の選択・合成」は各々のエッジ抽出像の同位置の画素値を比較し、最大の画素値を選択することで各々のエッジ抽出像と同じサイズの合成像を作る方法を示す。
視点エッジ統合像生成ステップS904では、複数の視点エッジ抽出像を統合し、視点エッジ統合像を生成する。
なお、視点エッジ抽出像がフーリエ空間周波数表現のままの場合、フーリエ変換上で統合し、その後、逆フーリエ変換を行う。フーリエ変換では線型性が成立するため、空間で
統合しても、周波数上で統合してから逆変換しても結果は一致する。
また、視点エッジ統合像生成ステップS904では、視点エッジ抽出処理ステップS903同様にエッジ抽出像に含まれるノイズを除去する為、ノイズ除去を行っても良い。その場合、設定画面1003でノイズ除去設定を行う。
なお、図10(a)〜図10(c)に示す設定画面はあくまで一例である。ユーザである病理医が設定に煩わされずに素早く観察・診断できるよう、デフォルトの設定や自動的に最適値が設定される機能を備えることが望ましい。
以上、本実施例における視点分解エッジ抽出・統合処理(図8のS802)について述べた。
(輪郭抽出処理)
続いて輪郭抽出処理(図8のS803)の一例について述べる。
視点エッジ統合像ではエッジが強調されているものの、ノイズや信号の強弱が存在する。そこで、より輪郭を見やすくするために、輪郭抽出処理を行う。例えば、視点エッジ統合像を2値化し(2値化の閾値は予め決められた値を用いても良いし、動的に決めても良い)、その後、膨張・縮小処理を繰り返すことにより、輪郭を抽出できる。他にも輪郭抽出方法には様々な公知の技術があり、ここではいずれの方法も適用できる。またさらに細線化処理を追加することで輪郭が存在する位置精度を高めることができる。処理の結果、視点エッジ統合像から輪郭抽出像が得られる。
(画像の表示・解析)
続いて画像表示処理S804を経て、画像表示アプリケーション上に視点エッジ抽出像、視点エッジ統合像あるいは輪郭抽出像を示すことで、細胞と細胞の間の細胞境界、細胞と類洞の境目などを分かりやすくできる。それによって病理医は患部組織の3次元構造をイメージしやすくなる。
さらに、ウィンドウ700内でマウスを右クリックすることにより機能拡張メニュー710を呼び出し、N/C比(核/細胞質比)算出等の項目を選択することで、画像解析を行うことが出来る。
図14はN/C比算出の処理フローの一例である。
N/C比算出にあたっては左側領域702内の選択領域207の画像と輪郭抽出像の2枚の画像を用いることを前提とする。以下、画像中の核の部分を核領域、核を取り巻く細胞質の部分を細胞質領域、核領域と細胞質領域を合わせた全体を細胞領域と呼ぶ。
まず、核領域決定処理ステップS1401では核領域の決定を行う。例としては以下の方法がある。HE染色では核内は濃青に染色される為、輪郭抽出像内の該当閉領域内に位置する選択領域207内の画素が一定以上の比率で所定の範囲の色域に属すか否かで、核領域か否かを判別できる。判別に用いる比率及び色域は、予め複数のサンプルを用いて学習すれば良い。
続いて、細胞質領域決定処理ステップS1402では細胞質領域の決定を行う。HE染色では細胞質はピンク色に染色される。従って、核領域決定処理と同様、輪郭抽出像内の該当閉領域内に位置する選択領域207内の画素が一定以上の比率で所定の範囲の色域に属すか否かで、細胞領域か否かを判別できる。その後、細胞領域から、ステップS1401で核領域と見なされた閉領域を除外することにより、細胞質領域を特定する。ここでの判別に用いる比率及び色域も、予め複数のサンプルを用いて学習すれば良い。
自動処理では十分な精度が出ない場合には、ユーザが介在(補助)して領域決定を行っ
ても良い。その場合、ステップS1402の後、GUIでユーザに輪郭、核領域、細胞領域を修正できる設定画面を表示する。
最後にN/C比算出処理ステップS1403では、上記で求めた核領域の面積を細胞質領域の面積で割り、N/C比を求める。
上記で述べたN/C比算出フローはあくまで一例であり、その他、様々な変形や改良が可能である。
(本実施例の利点)
以上述べたように、本実施例ではZスタック画像を視点画像に分解し、エッジ抽出を行うことにより、光学系や露出条件の変更を行うことなく、標本を観察する上で有用な細胞膜や細胞境界、細胞と管や腔との境界を明瞭にすることができる。それにより診断に有用な画像の提示、N/C比の算出等の診断支援機能が実現できる。
なお、本実施例では実行ボタン708が押されたときに視点分解エッジ抽出・統合処理を実行するようにしたが、図7(b)、図10(a)〜図10(c)に示す設定パラメータが変更される度に視点分解エッジ抽出・統合処理を実行するようにしても良い。そうすると、設定パラメータの変更に同期してリアルタイムに処理結果が表示されることとなる。この構成の場合には、図7(b)、図10(a)〜図10(c)に示す設定項目を1つの設定画面内に展開して配置すると良い。このような実装形態も本発明の範疇となる。
[実施例2]
実施例1では視点画像からエッジを抽出したが、実施例2では、視点画像からエッジを強調した画像を生成する方法について説明する。ただし、実施例1との違いは僅かである為、実施例1の説明図の一部を読み変えて説明する。
以降、図7〜10内の各ステップおよび各部の名称での「エッジ抽出」の用語を「エッジ強調」に読み変えて、その差異点について説明する。
図9の視点エッジ強調処理S903で用いるエッジ強調方式は、図10(b)に示される視点エッジ強調設定画面1002において設定可能である。選択できるエッジ強調方式の一例にアンシャープマスクがある。
アンシャープマスクとは画像の鮮鋭化手法の一種であり、原画像から、原画像をぼかした画像を減算し、その差分画像に閾値処理や強調処理を施したものを原画像に加算することで、鮮鋭化を実現する。原画像I(X,Y)にアンシャープマスクを適用した結果の画像U(X,Y)は下記の式で表現できる。
Figure 2014132433

I(X,Y)は原画像、D(X,Y)は差分画像、Amountは原画像への差分画像の適応量である。
差分画像D(X,Y)は、下記の式で計算される。
Figure 2014132433
原画像I(X,Y)にガウス関数G(X,Y)を畳み込んで得られるぼけ画像を、原画像I(X,Y)から減算したものが、差分画像D(X,Y)である(**は2次元の畳み込み演算を表す記号とする。)。なお、ガウス関数G(X,Y)は下記の式で表現できる。
Figure 2014132433
上記のようにアンシャープマスクを用いれば、ガウス関数の標準偏差σ、差分画像の適応量Amount、閾値Thresholdの3つを調整することで原画像I(X,Y)への変更量を制
御し、エッジを強調した画像が生成できる。
本実施例では、視点画像ごとにアンシャープマスクを適用し、エッジを強調した画像を生成する。閾値Thresholdを適切に設定することで、比較的コントラストが低い部分は変
更を施さずそのままとし、コントラストが高いエッジの部分をより強調することが出来る。これによりピント位置の像に対する強調処理では実現できない効果が得られる。
図9の視点エッジ統合像生成ステップS904では、視点毎の視点エッジ強調像を統合し、出力する。
図10(c)の視点エッジ統合設定画面1003では実施例1と同様に視点エッジ強調像を統合する際の合成方法が選択可能である。視点エッジ統合像を観察するとき、エッジ部分はコントラストが強調されている方が良いが、エッジ以外の部分については、ピント位置の像に見た目が近い方が観察しやすい(不自然さが小さい)。そのような画像を得たい場合には、視点エッジ統合設定画面1003ではガウスぼけのような、元の光学系の3次元ぼけに近い重み付けの設定を選択すると良い。
生成された視点エッジ統合像は、図8の画像表示処理ステップS804により、ウィンドウ700の右側領域702に表示される。
なお、本実施例ではアンシャープマスクを用いたエッジ強調について説明したが、視点画像中のエッジを選択的に強調できる手法であれば、その他の方法でも構わない。例えば、ガウスぼけ以外のぼけ関数を用いて原画像をぼかし、差分画像を求めても良い。前述のぼけ関数は実施例1と同様に、非線型の関数、視点に依存して変化する関数を用いても良い。また、差分画像の適応量Amountや差分画像に対する閾値Thresholdを画像に依存して
可変にしても良い。また、本実施例を用いて生成した強調画像を、公知の診断支援アルゴリズムに入力することで、実施例1と同様、N/C比等の定量評価値の算出精度を高める効果を実現できる。
以上述べたように、本実施例の構成によれば、光学系の切り替えや露出等の撮影条件の変更を伴う撮像なしに、細胞膜や細胞境界、細胞と管や腔との境界を強調した観察しやすい標本画像の生成が可能となり、医師の診断効率を高められる効果が実現できる。
[実施例3]
本実施例では、Zスタック画像から事前に計算する視点を求めることで、エッジの抽出や強調をより効果的に行うとともに、計算負荷低減を図る方法について述べる。
これまでの実施例1、2では、視点分解設定(図10(a)参照)においてユーザが計算する視点の位置を設定する方法について説明した。しかし、事前に元画像に含まれるエッジの方向が分かるならば、よりエッジが抽出しやすい視点を決定することが出来る。そこで本実施例では、Zスタック画像を解析することにより元画像に含まれるエッジの方向を推定し、その推定されたエッジの方向に基づいて、視点画像を生成すべき視点を決定する。これにより、エッジの抽出や強調をより効果的に行うことができるとともに、計算する視点画像の数を減らすことで計算負荷の低減を期待できる。
図15は本実施例における視点分解エッジ抽出・統合処理(図8のステップS802)のフローチャートである。
視点決定処理ステップS1501では、図8のZスタック画像取得ステップS801で取得したZスタック画像を解析し、観察に適した視点を決定する。以降の視点画像生成ステップS1502以降の処理は図9の同一名称の処理と同様の為、説明を省略する。
視点決定処理の詳細について説明する。図16は視点決定処理ステップS1501の内部処理を示すフローチャートである。
代表画像取得ステップS1601ではZスタック画像から代表画像を取得する。続いて、視点選定処理ステップS1602では代表画像の中に存在する抽出・強調したい画像のエッジの方向を推定(検出)し、それを元に観察に適した視点の位置を選定する。
ここで代表画像とはZスタック画像の特徴を表す1枚の画像であり、抽出・強調したい画像のエッジを少ない計算負荷で求めるための画像である。例えば、代表画像の例として、Zスタック画像を構成する複数のレイヤー画像の中で被写体に最も良くピントが合った画像、複数のレイヤー画像から生成した全焦点画像、あるいはそれらの縮小画像などが挙げられる。
被写体に最もよくピントが合った画像の選択方法としては、レイヤー画像のそれぞれに対し、各画素で所定の矩形領域内の画素値の分散を計算する処理を画像全体に適用し、画像全体での分散の和が最大となる画像を選択する方法がある。それ以外にもオートフォーカスの分野の公知技術やその他様々な手法を適用可能である。
また全焦点画像の生成は、特許文献1の手法を用いて視線方向を光軸方向に合わせた視点画像を生成することで可能である。それ以外にも、Zスタック画像から奥行き方向の画素値の変化が大きい画素を選択し統合する選択的統合法など、様々な公知技術が適用可能である。
またZスタック画像を格納するフォーマットに既に縮小画像が存在する場合には、代表画像として、その縮小画像を用いても良い。例えばZスタック画像の各々がJPEG2000により圧縮符号化されている場合、Zスタック画像のそれぞれに離散ウェーブレット変換が施されている。そのため、離散ウェーブレット変換の低周波画像成分を取得し、画像を生成すると代表画像生成の計算負荷が低減できる。
図17は本実施例における視点選定処理ステップS1602の内部処理を表すフローチャートである。本実施例では、ハフ変換等のエッジ検出方法を用いて元画像からエッジを検出し、その検出結果からエッジの方向を求め、その情報を視点の決定に利用する。
2値化処理ステップS1701では、代表画像に対して2値化処理を行い、2値化画像を求める。2値化処理としては、固定の閾値を用いる単純な2値化処理以外にも、画像特徴に応じて閾値を決める適応的2値化処理を用いても良い。さらにエッジの検出精度を高めるために、2値化処理を行う前に、代表画像に対し実施例1で述べた様々なエッジ抽出処理を施しても良い。
続いてハフ変換ステップS1702では、2値化画像に対しハフ変換を行う。ハフ変換ではXY空間の1点を通りうる直線を、別の空間(例えばθρ空間)での軌跡に変換する変換であり、変換空間上で投票数の多い点からXY空間中の直線、即ちエッジの方向を求めることができる。θρ空間の場合、ρは原点からXY空間の直線に降ろした垂線の長さ、θは垂線とX軸のなす角である。
続いて上位投票位置取得ステップS1703では、ハフ変換のθρ空間上で投票数の多い上位Na個を選び、それぞれのθρ座標を取得する。
続いて視点位置計算ステップS1704では、上位投票位置取得ステップS1703で取得したθ座標を元に、視点の位置(s,t)を計算する。はじめにθρ空間のθ座標はXY空間上の直線(エッジ)に直交する方向の角度を表すことから、θを視点の偏角θに設定する。つぎに予め定めた視点の動径rの値(例えば5つ)と、視点の偏角θを用いて視点の位置を計算する。なお、視点の動径には、予め定めた固定値、又は、画素ピッチ、倍率、被写体の特徴を元に決めた値を設定する。
図19(a)〜図19(d)は病理標本の模式図であり、これらの図を参照して視点位置の計算について具体的に説明する。
図19(a)は筋線維などの特定の向きの画像成分が強い領域の代表画像である。例えば、図19(a)の代表画像に対するハフ変換の結果から、エッジの直線と直交する角度は−30度と求まり、それを視点の偏角に設定する。
なお、視点位置計算ステップS1704で求めた複数の視点の位置の中から、エッジのコントラスト変化が観察しやすい視点の位置を絞るには、ステップS1704の後に下記のような処理を追加するとよい。
図19(b)は前述の偏角方向でZスタック画像をスライスした一断面の模式図である。この図は、5枚のレイヤー画像からZスタック画像が構成されている例を模式的に示している。
視点の位置は、まず予め定めた複数の視点の動径とステップS1704で求めたNa個の偏角の組合せを元に算出する。
次に、Zスタック画像から、視点の偏角を求める際に用いたハフ変換のθρ空間上の座標に対応するXY空間上の直線(エッジ)を中心とする、一定の幅Δρを持つ帯状の領域を切り出す。その結果、図19(b)に示すようなZスタック画像が得られる。次に各々の視点に対し、視点の位置から求まる視線方向(X,Y,Z)=(−s,−t,1)に沿って前述の帯状のZスタック画像を積算した積算画像を作る。そして積算画像の分散が最も大きくなる視点の位置を最終的な視点と定める。
なお、視点の位置を絞る際には下記のような構成を取ることで計算負荷を抑えることができる。まず、XY平面内での視線方向に直交する方向(図19(a)では線維の方向に相当)にZスタック画像の帯状の領域内を積分した2次元のデータを作成し、その後、積分した2次元データに対し視線方向に沿った積算を行い、最後に分散の計算を行う。
以上の処理により、計算に用いる視点がリストアップされる。
以上のように求めた視点から視点画像を生成すると、画像の特徴とは無関係に機械的に定めた方向(例えば、偏角45×n度:n=0〜7、動径0.25×m:m=0〜4)の視点画像よりも、画像に含まれるエッジをより強調可能な視点画像を生成できる。これにより、エッジの抽出性能を高める効果が得られる。
以上、本実施例の構成によれば、観察対象領域毎に観察に適した視点を定めることが可能となり、少ない計算負荷で高精度にエッジを抽出/強調する効果が実現できる。
[実施例4]
本実施例では、実施例3の視点選定処理とは異なる方法により、観察に適した視点の位置を求める方法を述べる。実際例3では、元画像に含まれるエッジ成分という画像特徴に基づきエッジの方向推定を行ったのに対し、本実施例では、元画像に含まれる被写体の位置関係という画像特徴に基づきエッジの方向推定を行う。
図19(c)は、細胞と細胞の境界が含まれる領域の代表画像の例である。細胞の境界にはそれぞれの細胞の細胞膜、細胞間物質(間質)などが存在する。
図19(a)の画像と異なり、細胞境界(破線)のエッジは弱く、実施例3で述べた方法で直接エッジを検出することは容易ではない。この場合、細胞境界は隣接する核と核の間を横切り、その細胞境界のエッジの方向は2つの核を結ぶ方向に対し概ね直交すると推定できる。よって、近接する核の中心を結ぶ方向を視線方向として選び、視点画像を計算すると細胞境界を検出できる可能性が高くなる。
図19(d)は隣接する核の間を結ぶ直線方向でZスタック画像をスライスした一断面の模式図である。Zスタック画像の視線方向での断面の模式図から、細胞境界の観察に向く視点の位置が求められることが分かる。
図18に本実施例における視点選定処理ステップS1602の内部処理を示すフローチャートを示す。
図18ではまず、核領域抽出ステップS1801で、取得した代表画像から細胞核が存在する領域の抽出を行う。
一般にHE染色では核は濃青に染色される為、カラー画像の青チャネルを用いて適応的2値化処理を行い、その後、膨張・収縮を順に等しい回数ずつ行うクロージング処理等を用いて内部の穴を埋めることによって核領域の抽出が実現できる。この方法以外にも、細胞核領域の抽出には様々な公知の方法があり、いずれの方法を使用してもよい。なお、一定以下のサイズの領域は核では無くノイズと見なし除去するノイズ除去を行うことが望ましい。
続いて、ラベリングステップS1802では、ステップS1801で抽出したそれぞれの核領域に番号を割り当てる。ラベリングは連結した複数の画素の領域を1つのグループとして分類する処理で、既に良く知られた技術であるため説明は省略する。
続いて、重心位置算出ステップS1803では、ステップS1802で番号を割り当てた核領域に対し、それぞれの重心の位置を計算する。
ステップS1804〜S1812はラベル番号が割り当てられた核領域から近接する核を結ぶ直線の方向を求めるループ処理である。
ステップS1804では1番目のラベル番号を処理対象として選択する。
続いて核間距離計算ステップS1805では、処理対象のラベル番号が割り当てられた核の重心とその他のラベル番号が割り当てられた核の重心の間の距離を求める。このとき、既に距離を計算したラベル番号の組合せに対し重複計算するのを避ける為、処理対象のラベル番号以前の番号が割り当てられたラベルとの核間距離計算は省略すると良い。その場合、計算結果として以前求めた同一の組合せの核間距離計算結果を適用する。
続いてソートステップS1806では、ステップS1805で求めた距離の値を用いて、ラベルの組合せを昇順(距離が小さい組合せが上位に来る順序)に並べる。
続いて距離上位選択ステップS1807では、距離を昇順でソートした結果の上位から順に一定数Ncのラベルの組合せを選択する。例えば、観察対象である標本部位の細胞の近傍には4つの細胞が存在すると仮定すれば、Nc=4となる。
続いて視点偏角計算ステップS1808では、ステップS1807求めたラベルの組合せのそれぞれについて、核の重心を結ぶ直線がX軸となす角度を求める。この直線の角度は、前述の通り、2つの細胞の境界にある細胞境界と直交する角度となるため、それを視点の偏角に設定する。
続いて、視点位置計算ステップS1809では、求めた視点の偏角から視点の位置を計算する。実施例3と同様に、予め定めた、レンズの絞り半径ra内の複数の視点の動径と決定した偏角から、視点の位置(s,t)を求める。
このとき、さらに視点を絞るには、下記のような処理を追加すると良い。
具体的には、まず2つの核の重心の中間位置を通り、視点の偏角に直交する直線を中心とした一定の幅Δρを持つ帯状の領域を切り出す。その結果、図19(d)に示すようなZスタック画像が得られる。このとき、核の影響を除くために核が存在しない範囲でZスタック画像を切り出すことが望ましい。
そして、各々の視点の3次元的な視線方向(X,Y,Z)=(−s,−t,1)にZスタック画像を加算した積算画像を作り、積算画像の分散が最も大きい視点を選択する。上記の処理により細胞境界の観察に適した視点を絞ることが出来る。なお、実施例3同様、先にXY平面内での視線方向に(図19(c)では細胞境界の方向に相当)にZスタック画像の帯状の領域内を積分することで、計算負荷を抑えることができる。
続いて、視点リスト追加ステップS1810では視点位置計算ステップS1809で求めた視点の位置をリストに追加する。なお、既にリストに同一の視点位置が記録されている場合には追加を行わない。
続いて、ステップS1811では全てのラベル番号に対して処理が終了したかを判定し、終了していない場合はステップS1812に進み、処理対象を次のラベル番号が割り振られた核領域に設定する。全てのラベル番号の処理が終了した場合には視点上位選択ステップS1813に進む。
視点上位選択ステップS1813は、視点リスト中の視点数を絞る処理であり、選択領域207内に細胞が多数存在する場合でも、有効な視点数を一定範囲に収めることが出来る。なお、フローチャートには図示しないが、視点リスト中の視点数が所定の視点数Nd以下の場合にはステップS1813の処理は実行しない。
まず、ステップS1813ではクラスタリング等の公知の技術を用いて、視点リスト中の視点位置の分布を分析する。クラスタリングでは予め決めたパラメータを設定する。そして、各々の分布の重心を代表視点位置とし、代表視点位置毎に分布内の視点数をカウントする。続いて分布内の視点数が多い順に視点位置をソートし、上位Nd個の視点位置を選択する。これにより、視点数を絞ることができる。
以上で、細胞の核の位置関係に基づく視点選定処理を終了する。
図15の視点決定処理ステップS1501で上記のように求めた視点の位置を出力し、続く視点画像生成ステップS1502で視点画像を作れば、核と核の間に存在する細胞境界のコントラストを高め、細胞境界の抽出精度を向上させることができる。
本実施例の構成によれば、光学系や露出等の撮影条件の変更なしに、コントラストが弱い細胞膜や細胞境界を抽出・強調することが可能となり、医師の診断効率を高める効果が実現できる。
[実施例5]
本実施例では実施例3,4で説明した視点決定処理S1501を用いて、観察する視点位置を自動計算し、ユーザに提示することにより、病理医の診断効率を高める方法について述べる。
以下、図20に示す自動視点画像計算設定画面を用いて説明する。
本実施例では実施例1と同様に、まず画像表示アプリケーションで観察したい領域207を選択し、機能拡張メニュー208を表示する。
続いて、機能拡張メニュー208の中から自動視点画像計算(不図示)を選択すると新規ウィンドウ700が開き、左側領域701には領域207内の画像が表示され、右側領域702には計算した視点画像が表示される。その際、同時に図20の自動視点画像計算設定画面2000が表示される。
設定画面2000内の自動計算ボタン2001を押下すると、実施例3,4で説明した視点決定処理(S1501)および視点画像生成処理(S1502)が実行され、視点画像リスト2002内に観察に適した視点がリストアップされる。
ユーザがマウスを用いて、視点画像リスト内の所望の視点を選択すると、該当する視点画像が右側領域702に表示される。
なお、視点画像の計算、即ち視点画像生成処理(S1502)は、ユーザが視点画像リスト内の所望の視点を選択した時に実行しても良い。このとき、ユーザが一度選択した視点の視点画像はメモリに記憶しておき、次回同じ視点が選択された場合には、視点画像生成処理は実行せずに、メモリから視点画像を読み込んで表示すると良い。
また、視点画像の表示だけでなく、視点画像に対して実施例1,2で述べたエッジ抽出や強調処理を適用した結果を表示しても良い。
また、実施例1,2で述べたエッジ抽出や強調処理を行わなくとも、コントラストが明瞭な視点画像のみを選択・合成すれば、様々な視線方向の画像が合わさった撮影像よりもエッジのコントラストが大きいことが期待できる。そのため、ユーザが視点画像リストから、観察対象箇所のコントラストが明瞭な視点画像を複数選択し、選択した複数の視点画像の合成画像を右側領域702に表示しても良い。例えば、自動計算ボタン2001を押下して視点画像リストを生成し、続いて視点画像リスト2002中の視点画像毎に存在するチェックボックス(不図示)をオンにすることで複数の画像を選択する。最後に1903に示す複数視点合成ボタンを押し、視点画像の合成画像をウィンドウ700の右側領域702表示する。なお合成画像の強度が視点画像の強度と大きく変化しないように、合成画像の強度(画素値)を合成枚数で割るとよい。
本実施例の構成によれば、領域毎に観察に適した視点画像を自動的に計算することで病理医が所望する方向の視点画像を素早く表示することが可能となり、病理医の診断効率を高める効果が実現できる。
[実施例6]
本実施例では、実施例1、2の効果をより高める構成について述べる。
実施例1では、図6(b)を用いて、視点画像の特徴として、透過率が異なる標本内の物質の境界が明瞭に見える点を述べた。視点画像は、この特徴の他に、もう1つ特徴的な性質を有している。それは、視点画像では、照明の一部領域から標本を照らして得る偏斜照明の観察像のように、XY平面での視線方向に沿って変化する凹凸が強調され、標本が立体的に見える点である。視点画像では偏斜照明の像と同様、光軸方向に対して視線方向が傾くほど、即ち、視線の観察角φが大きくなるほど、標本表面の凹凸のコントラストが高くなり、標本表面が立体的に見える。
(ただし、物理的には偏斜照明の像と視点画像は異なっている。偏斜照明の像はフォーカス位置の変更に伴って光学的なぼけが発生するが、視点画像はフォーカス位置の変更によらず被写界深度は非常に深いままであるという違いがある。なお、視点画像はピントを合わせるZスタック画像のZ位置Zfによって変化するが、その変化はXY方向の平行移動で表される。)
本実施例では、視点エッジ抽出(または強調)処理S903において、前記の視点画像の特徴を考慮することで、標本表面の凹凸を効果的に強調(または抽出)する構成について述べる。
以下、視点画像において視線方向が光軸から傾くほど、標本表面の凹凸のコントラストが高くなる理由について説明する。
図21の2100はプレパラート内の病理標本の表面に存在する凹凸を示す模式図である。図21に示すxz平面の凹凸は奥行き方向であるy方向にも続いているとする。
組織診用の病理標本はパラフィンで固定された後、マイクロトームで均一な厚みにスライスされ、その後染色が施されている。しかし、病理標本は完全に均一ではなく、細胞と管や腔の境界、核と細胞質の間の境界などでは組織の構造や物質の成分に起因する凹凸が存在し、病理標本の表面には図21に示すような起伏のある構造が存在している。
(図21は簡易的なモデルであり、実際の標本の凹凸には図21のようにとがった部分は少ない。また図21のような凸の構造だけでなく標本内部に凹んだ構造も存在する。また表面が平らでも内部に屈折率が異なる物質が存在する場合は光学的な距離が変わるため、標本内部の屈折率の不連続は表面凹凸と見なすことができる。)
なお、実際のプレパラートでは、カバーグラスと標本の間に透明な封入剤が存在している。しかし、封入剤の屈折率と標本の屈折率の差は僅かで影響は少ないため、以降、両者の屈折率は同一として説明する。
図21の2111は凹凸の無い面、2112は右上がりの斜面、2113は右下がりの斜面を示す。斜面2112、斜面2113がx軸となす傾斜角はそれぞれα(α>0)である。
図22は図21の2111〜2113の面での観察角φにおける散乱光の強度を示す模式図である。図22の(a)、(b)、(c)はそれぞれ平面2111、斜面2112、2113での光の散乱を示している。それぞれの面に接する円は、標本表面での光の拡散特性を完全拡散透過面と仮定した場合の散乱方向による散乱光の強度を示す。円内の太い矢印の線は光軸(Z軸)からφだけ傾けた角度から観察した場合の散乱光の強度を示している。(実際には標本表面は完全拡散透過面ではなく、光の入射方向・観察方向による強度依存性があるが、説明を簡略化するため、ここでは完全拡散透過面と仮定して説明する。)
完全拡散透過面では、面と直交する法線方向の光の強度をI、観察方向と面の法線のなす角をδとすると、δ方向の散乱光の強度I(δ)はI(δ)=Icosδで表せる。
図22の(a)、(b)、(c)において、観察方向と面の法線のなす角δはそれぞれφ、φ+α、φ−αで表せるため、それぞれの散乱光の強度は、
cosφ、Icos(φ+α)、Icos(φ−α)
となる。
なお、観察方向から見てzの値が増加する斜面(上りの斜面)では傾斜角αを正とし、Zの値が減少する斜面(下りの斜面)では傾斜角αを負とすれば、いずれの面でも散乱光の強度は、Icos(φ−α)で表せる。
斜面2112、2113の観察角φ方向の散乱光の強度を平面2111の観察角φ方向の散乱光の強度で割った値をコントラストC(φ,α)として定義すると、コントラストは下記の式となる。
Figure 2014132433
表1にφおよびαを変えたコントラストC(φ,α)の値を示す。
Figure 2014132433

表1より、観察角φが小さいときは、傾斜角αが大きくても斜面2112、2113の間のコントラストは低いため観察しづらく、観察角φが大きくなるに従い、傾斜角αが小さくてもコントラストは大きくなり、観察しやすくなることが分かる。
次に、表面凹凸2100の傾斜角αと、視点画像で観察されるパターンの空間周波数の関係について述べる。
図21の病理標本の表面凹凸2100の高さをH、幅をWとすると、
W=2H/tanα
の関係が成り立つ。組織診の病理標本の厚みは約4μmであり、Hを厚みの10%の0.4μmと仮定する。また、画像を観察したときに凹凸の存在が視認できる限界のコントラストCを0.1と仮定する。
表1で観察角φ=10度、20度、30度においてコントラストCが0.1以上となる最小のα(それぞれα=20度、10度、5度)から凹凸幅Wを求めた結果を表2に示す。
Figure 2014132433

表2から、観察角φが大きいほど、傾斜角αの小さな凹凸でも視認しやすくなることがわかる。
病理標本の表面凹凸が周期的であると仮定すると、凹凸幅Wに対応する空間周波数は簡易的に1/Wで求めることが出来る。表3にセンサ画素ピッチを0.25μmと仮定した場合の凹凸幅W[μm]の空間周波数を示す。
Figure 2014132433

表3から、コントラストCが0.1以上として観察される標本の凹凸は、観察角φが小さい場合(10度)には比較的高周波領域にあり、観察角φが大きい場合(30度)には比較的低周波領域にあることが分かる。
そのため、視点エッジ抽出(強調)処理S903では、観察角φが小さい場合は主に高周波成分(空間周波数が高い像)に対してエッジ抽出(強調)を行うとよい。一方、観察角φが大きい場合には、観察角φが小さい場合に比べて、より低い周波数成分(空間周波数が低い像)にまでエッジ抽出(強調)を行う範囲を広げるとよい。すなわち、観察角φが大きい視点画像になるほど、より低周波の側からエッジ抽出(強調)を行うとよい。これにより、視点画像の特徴にあわせて、標本表面の凹凸を効果的に抽出(または強調)できる。
次に視点の偏角θと表面凹凸のコントラストの関係について述べる。
図21は表面凹凸のエッジに垂直な方向(輝度変化の方向)と視点の偏角θ(θ=0)が一致した場合の図である。表面凹凸のエッジに垂直な方向とx軸とのなす角を凹凸方向角βとすると、凹凸方向角βと偏角θが一致しない場合には、表面凹凸2100を斜め方向から観察することになる。このとき、偏角θ−βの角度を持つ観察方向から見た、斜面2113とその反対方向の斜面2112の見かけ上の傾斜角α’は
Figure 2014132433

で求まる。数17から、見かけ上の傾斜角α’はαより小さくなり、凹凸方向角βと偏角θの差|θ−β|によって、コントラストCが低下することが分かる。逆に言えば、凹凸方向角βと偏角θが一致する場合に最もコントラストが高くなり、表面凹凸が抽出しやすくなる。また、凹凸方向角βと偏角θの差|θ−β|が90度となるときは、コントラストCが最小(ゼロ)となる。
(エッジ強調)
前述のように、視線方向の観察角φが大きいほど、より低周波の側からエッジ強調(抽出)の処理を施すことが好ましい。そこで本実施例では、観察角φの大きさに応じて、エッジ強調(抽出)の効果が得られる空間周波数の範囲が可変するよう(観察角φが大きくなるほど範囲が低周波側に広がるよう)、エッジ強調(抽出)処理のパラメータを制御する。
以下、この方法を、実施例2で述べたアンシャープマスクによるエッジ強調処理に応用した場合の具体例を説明する。
アンシャープマスク処理では、空間上で与えたぼけのMTF(Modulation Transfer Function)を表すMtfB(f)とアンシャープマスク処理結果のMTFを表すMtfU(f)の間には、以下の関係がある。
MtfU(f)=1+Amount×(1−MtfB(f))
空間上で与えるぼけが大きい程、MtfB(f)は周波数軸の原点側(低周波側)に寄り、アンシャープマスク処理結果のMtfU(f)は低周波側から大きな強調ができる。つまり、アンシャープマスク処理で用いるぼけ関数(数14のガウス関数G(X,Y))
によるぼけの広がりが大きい程、低周波側の強調を大きくすることができる。
具体的には、本実施例では数15に示すぼけ関数の代わりに、以下のぼけ関数を用いる。
Figure 2014132433

とする。
数18のθは視点の偏角に対応し、σおよびσはそれぞれX軸方向とY軸方向のぼけの広がりを表す標準偏差である。
以下にσ、σと観察角φの対応を示す。
Figure 2014132433

c、σX0、σY0は所定の定数とする。σは観察角φの関数f(φ)であればよく、上記式はあくまで一例であり、それ以外の関数を用いることも可能である。
数19によりアンシャープマスクで用いるぼけ関数と実際の撮像系における視点の偏角θと観察角φを対応付けることにより、数18の関数G(X,Y)は、実際の撮像系の偏角θおよび観察角φに対応して変化するぼけ関数となる。
図24に数18により生成される、視点位置によって変化するぼけ関数の模式図を示す。ぼけ関数2401、2402、2403から、動径(s+t1/2の大きさに従ってぼけの半径σが長くなることが分かる。また、ぼけ関数2401、2404、2405から、ぼけの長辺が視点の偏角θ分だけ回転していることが分かる。
即ち、前述のぼけ関数を用いたアンシャープマスクで視点画像を強調すると、観察角φが大きな視点画像では、より低い周波数からXθ軸方向の輝度変化がエッジ強調される。
図25は本実施例における視点エッジ抽出処理S903の内部処理を示すフローチャートである。
まず視点偏角算出ステップS2501では、数3に従い、視点(s,t)より視点偏角θを算出する。
続いて、視点観察角算出ステップS2502では、数5に従い、視点(s,t)、X方向のセンサ画素ピッチ(画像のサンプリングピッチ)ΔX、およびZ方向の移動間隔(レイヤー画像の間隔)ΔZを用いて、観察角φを算出する。
続いて、フィルタ読み出し(生成)ステップS2503では、視点画像に適用するフィルタを読み出し(または生成)する。S2503ではまず、S2502で算出した観察角φを数19に代入し、σおよびσを求める。次にS2501で計算した偏角θとS2502で算出したσおよびσの値をインデックスとして、数18を用いて予め計算したぼけ関数が登録されているテーブルから、該当するぼけ関数のデータを読み出す。または、偏角θとσおよびσの値を数18に代入し、ぼけ関数を生成(計算)してもよい。
続いて、フィルタ処理ステップS2504では、S2503で読み出した(または計算した)ぼけ関数を用いて、数14および数13に示すアンシャープマスクによるエッジ強調処理を行い、視点エッジ強調像を生成する。
続いてフィルタ処理ステップS2504の効果を高める内部処理について述べる。
実施例2で説明したアンシャープマスクによるエッジ強調手法は、効果が高く計算負荷が小さいため広く用いられるが、画像中に含まれる高周波ノイズが目立ちやすくなる課題がある。以下、アンシャープマスクに対する高周波ノイズの抑制方法について述べる。
(ノイズ抑制 1)動的な閾値処理)
表1より、同じ傾斜角αでも観察角φによって観察される表面凹凸のコントラストが異なる。従って、観察角φに依存して数13の閾値Thresholdを可変にするとよい。観察角
φが大きいほど、高周波ノイズの抑制効果が大きくなるように、エッジ処理のパラメータの一つである閾値Thresholdを変更するのである。すなわち、観察角φが小さいときは閾
値Thresholdを小さく、観察角φが大きいときは閾値Thresholdを大きく設定することで、視点毎に表面凹凸とノイズを適正に分離でき、ノイズを抑制できる。
例えば、閾値Thresholdを以下の式で設定するとよい。
Figure 2014132433

なお、Tは所定の定数である。
(ノイズ抑制 2)閾値処理で輝度成分使用)
図22で説明したように、標本表面の凹凸がある場合、観察角φによって散乱光の強度が変化する。従って、数13に示す閾値処理は、色成分毎よりも輝度で計算し、差分画像のゼロおよび非ゼロの位置は各色共通化する方がよりノイズを抑えられる。
このような閾値処理を採用したアンシャープマスク処理の式を以下に記す。
Figure 2014132433

添え字cは色成分を表し、Ic(X,Y),Dc(X,Y),Uc(X,Y)はそれぞれ色成分cごとの画像、差分画像、アンシャープマスク適用画像を表す。L(X,Y)は画像の色成分Ic(X,Y)から求めた輝度成分である。また、DL(X,Y)は輝度L(X,Y)とぼけ関数G(X,Y)から求めた差分画像であり、BL(X,Y)はDL(X,Y)の絶対値を閾値Thresholdと比較して求めた2値画像である。Amountは数13と
同じく、エッジ強調の程度を表す適応量である。**は2次元の畳み込み演算を表す記号である。
(ノイズ抑制 3)事前のローパスフィルタ適用)
また別のノイズ抑制方法として、原画像にローパスフィルタを適用した後で差分画像を計算する方法の好ましい。具体的には、数21のDc(X,Y)、DL(X,Y)の計算
において
Figure 2014132433

を用いる。ここでLP()は画像に対するローパスフィルタ適用を表す関数である。ローパスフィルタとしてはガウス関数など様々なぼけ関数が適用可能である。またLP()にはメディアンフィルタやεフィルタ、バイラテラルフィルタなどのノイズ低減処理を適用することも可能である。
ローパスフィルタ処理により、Dc(X,Y)、DL(X,Y)では高周波成分が抑制され、アンシャープマスク結果画像での高周波成分の強調が抑えられる。標本表面の凹凸の中でも、注目する細胞境界や細胞と管や腔との境界の凹凸は比較的構造が大きく、空間周波数が低いため、上記のローパスフィルタ処理による影響は少ない。
なお上記以外にもアンシャープマスクには種々の高周波ノイズ除去方法や改良法が提案されており、フィルタ処理ステップS2504においてそれらを適用することも本発明の範疇とする。
(視点位置に応じた重み付け)
続いて、視点エッジ統合像生成ステップS904では視点エッジ抽出ステップS903で計算した複数の視点画像を集め、設定画面1003で指定された重み付けを用いて視点エッジ統合像を作る。この重み付けは複数の視点エッジ抽出像のうち、どの視点エッジ抽出像を重視して統合するかを表している。
重み付けを制御することで視点エッジ統合像のぼけを制御できる。その際、設定画面1003で「ガウスぼけ」を選択すると、一般的な撮像系のぼけと近い為、自然な見た目が得られる一方で、観察角φが大きくなる程、重み付けは小さくなるため、エッジ強調箇所の強度は弱まり、差が観察しづらくなる。
表1で既に示したように、観察角φが大きいほど、標本表面の凹凸が大きなコントラストで観察できる。従って、視点エッジ強調画像のうち、元の視点画像成分(数13のI(X,Y))は撮像系のぼけに近いぼけで統合し、視点エッジ強調成分(D(X,Y))は撮像系のぼけよりも強度低下を抑えて統合できれば、標本表面の凹凸が観察しやすくなる。
そこで、観察角φが大きいエッジ抽出像ほど重みを小さくして合成する方法によりエッジ統合像を生成する場合は、予め、エッジ抽出像を求める際に、観察角φが大きい視点画像ほどエッジ強調(抽出)の度合いを大きくしておくとよい。これにより、エッジ統合像の生成時に、重みとエッジ強調(抽出)の度合いとが相互にキャンセルし、エッジ強調成分の低下を抑えることができる。
視点画像成分を統合する際に、視点(s,t)を通る光線の重みが下記のガウスぼけの式で表されるとする。
Figure 2014132433

ここでσは視点エッジ統合像のぼけの広がりを表す標準偏差である。
このとき、アンシャープマスクの適応量Amountを視点位置(s,t)に応じて、下記のように制御する。Aは所定の定数である。
Figure 2014132433

そうすると、元の視点画像成分の重み付けは数23で示すガウスぼけとなるが、視点エッジ強調成分(D(X,Y))の重み付けは数23と数24の掛け算となり、視点位置(s,t)の部分がキャンセルされ、視点に依存しない一定の比で統合することができる。
以下、フィルタ処理ステップS1203またはS2504に前述の処理を適用する手順を述べる。
まず、視点エッジ統合設定1003での重み付けの設定情報に基づいて、数24を用いて視点に依存した適応量Amountを求める。重み付けの設定情報とは、例えば、ガウスぼけなどの重み付けの形状を表す関数、ぼけの広がりを表す標準偏差σの値などが挙げられる。
続いて、数13あるいは数21において、視点に依存した適応量Amount(s,t)を用いて
エッジを強調する。以上により、視点エッジ統合像において原画像の雰囲気を留めつつ、エッジをより識別しやすくできる。なお、数18は一例であり、他にも様々な関数が設定可能である。
以上では、アンシャープマスクを用いたエッジ強調について説明したが、同様の処理をエッジ抽出に適用することも可能である。アンシャープマスクの計算過程で求める数14のD(X,Y)(あるいは数21、数22のDc(X,Y)、DL(X,Y))はエッジを抽出した画像を表しており、エッジ抽出像と見なせる。
従って、フィルタ処理S2504において、数14あるいはアンシャープマスクの適用結果から原画像を減算した画像を出力すれば、エッジ抽出が実現できる。
なお、実施例1と同様、前記のエッジ抽出結果に対して絶対値や2乗値などを求めることで、さらに非線型性を高め、視点エッジ統合像におけるエッジを強めることも可能である。
(本実施例の利点)
以上述べたように、本実施例では視点の偏角θおよび観察角φを用いて、エッジ抽出または強調する周波数帯域、強さ、ノイズ低減条件などを制御することで、視点画像全体に対する過強調を抑え、効率的に表面に凹凸を強調することができる。その結果、表面に凹凸を持った細胞膜や細胞境界、細胞と管や腔との境界などを強調することができ、それにより診断に有用な画像の提示、N/C比の算出等の診断支援機能が実現できる。
[実施例7]
本実施例では、被写体の撮影に用いた撮像系のぼけ関数(3次元ぼけモデル)よりも大きなぼけを持つぼけ関数(3次元ぼけモデル)を用いてエッジ強調(またはエッジ抽出)用のフィルタ生成を行い、それにより視点エッジ画像を生成する方法について述べる。
図26(a)の2601は直交座標系(XYZ)での撮像系の3次元ぼけあるいは撮像系の3次元ぼけに最も近い3次元ぼけを表し、図26(b)の2602は2601以上のぼけを持つ3次元ぼけを表す。図26(c)の2603は撮像系で取得した焦点ぼけ画像群(Zスタック画像)を表す。なお、3次元ぼけ2602はエッジ強調または抽出の目的で用いるため、以降、エッジ処理用の3次元ぼけとも呼ぶ。
3次元ぼけ2601、2602は、ピント位置(ぼけが最も小さいZ位置)から距離Dにある所定のZ位置のぼけ半径Rを用いて、下記式のガウスぼけで表される。
Figure 2014132433

3次元ぼけ2601のぼけ半径をRb1、3次元ぼけ2602のぼけ半径をRb2とすると、Rb2≧Rb1の関係にある。
視点(s,t)から見た視点画像as,t(X,Y)は、同一の視線方向のZスタック画
像2603の積分値bs,t(X,Y)を、同一の視線方向の撮像系の3次元ぼけ2601
の積分値cs,t(X,Y)でデコンボリューションして得ることができる。(非特許文献
2の3.3節に対応する記載がある。非特許文献2の図7で示されるように、実空間情報f(X,Y,Z)にフィルタh(X,Y,Z)をコンボリューションすることで統合的撮影画像群g(X,Y,Z)が得られる関係は、視線方向への積分にかかわらず成立する。)
数式で表現すると下記のようになる。
Figure 2014132433

ただし、As,t(u,v),Bs,t(u,v),Cs,t(u,v)はそれぞれas,t(X,Y),bs,t(X,Y),cs,t(X,Y)のフーリエ変換であり、u,vはそれぞれX,Y方向の変化に対応する周波数座標である。
次に、エッジ処理用の3次元ぼけ2602の同一視線方向の積分値をcs,t’(X,Y
)とし、bs,t(X,Y)をcs,t’(X,Y)でデコンボリューションして得られる画像as,t’(X,Y)の特性について考える。画像as,t’(X,Y)は下記の式で表現できる。
Figure 2014132433

ただし、As,t’(u,v),Cs,t’(u,v)はそれぞれas,t’(X,Y),cs,t’(X,Y)のフーリエ変換である。
数27は下記のように変形できる。
Figure 2014132433

ただし、
Figure 2014132433
である。
数28から、画像as,t’(X,Y)は、本来の視点画像as,t(X,Y)が数29で表
される周波数フィルタで処理された画像であることが分かる。
エッジ処理用の3次元ぼけ2602は3次元ぼけ2601以上のぼけを持つことから、それぞれの視線方向の積分値であるcs,t’(X,Y)、cs,t(X,Y)を比べると、cs,t’(X,Y)のぼけの方が大きいという関係が成り立つ。cs,t’(X,Y)、cs,t
(X,Y)は共に積分値が同一なので、Es,t(u,v)の直流成分は1となる。視点や
周波数によって特性は異なるが全体としてはエッジ強調の特性を持ち、cs,t’(X,Y
)のぼけが大きくなるほど、エッジ強調の特性が強く現れる。
図27は本実施例における視点分解エッジ抽出・統合処理S802の内部処理を示すフローチャートである。実施例1とは異なり、視点画像生成ステップS902は不要となっている。以下処理フローを説明する。
まず、視点取得処理ステップS2701は、エッジ強調または抽出した視点画像の生成に必要な視点の位置情報を取得する。処理内容は視点取得処理ステップS901と同様のため、説明は省略する。
次に、視点エッジ強調ステップS2702では、視点エッジ抽出設定(705)に基づき、エッジ強調処理を行う。詳細は後述する。なお、視点が複数存在する場合は、図9と同様、視点数分の処理を実行する。
最後に、視点エッジ統合像生成ステップS2703では、視点エッジ統合設定(706)に基づき、ステップS2702で生成した視点エッジ強調像を合成し、視点エッジ統合像を生成する。処理内容は視点エッジ統合像生成ステップS904と同様のため、説明は省略する。
図28は視点エッジ強調ステップS2702の内部処理を示すフローチャートである。
まず、視点観察角算出ステップS2801では、数5に従い、視点(s,t)、X方向のセンサ画素ピッチ(画像のサンプリングピッチ)ΔX、およびZ方向の移動間隔(レイヤー画像の間隔)ΔZを用いて、観察角φを算出する。
次に、エッジ処理用3次元ぼけ情報算出ステップS2802では、撮影像の3次元ぼけの情報(単位距離あたりのぼけ半径rb1)とS2801で算出した観察角φを用いて、エッジ処理用の3次元ぼけの情報(単位距離あたりのぼけ半径rb2)を求める。計算方法の一例を下記に示す。
Figure 2014132433

ただし、cは所定の定数である。定数cの値は、視点エッジ抽出設定画面1002でエッジ強調の強さの一部として設定することも可能である。
数30より、観察角φ(光軸方向と視線方向のなす角度)が大きくなるほど、エッジ処理用の3次元ぼけの大きさ(ぼけ半径rb2)が大きくなる。なお、撮影像の3次元ぼけの情報として、距離Dにおけるぼけ半径Rb1が入力される場合、単位距離当たりのぼけ半径rb1は、rb1=Rb1/Dで計算できる。
続いて、フィルタ読み出し(フィルタ生成)ステップS2803では、視線方向のエッジ処理用の3次元ぼけ2602の積分値のフーリエ変換C’s,t(u,v)を取得する。
予め計算されたC’s,t(u,v)が記憶装置130やメインメモリ303に格納されて
いる場合は、S2802で求めたエッジ処理用の3次元ぼけの情報(rb2)とZスタック画像のレイヤー数を元に、対応するデータを読み出す。あるいは、エッジ処理用の3次元ぼけの情報(rb2)とZスタック画像のレイヤー数から3次元ぼけを計算し、視線方向への積分のフーリエ変換によってC’s,t(u,v)を求めても良い。なお、予め、記
憶装置130やメインメモリにC’s,t(u,v)−1を格納し、ステップS2803で
読み出すことで計算量を低減しても良い。
なお、画像生成装置100では様々な焦点ぼけを持つ撮影像から高速に視点画像を計算するために、複数の3次元ぼけ(例えば半径Rの異なるガウスぼけ)や複数の視点での3次元ぼけの積分値のフーリエ変換を予め計算し、記憶装置130やメインメモリ303に保持する。従って、新たにエッジ強調のためのフィルタを持つ必要がない。
続いて、デコンボリューションステップS2804では、はじめに、Zスタック画像2603を視点(s,t)からの視線方向に積分した積分値bs,t(X,Y)を求める。続
いて、そのフーリエ変換Bs,t(u,v)を計算する。次に、ステップS2803で求め
たC’s,t(u,v)を用いて、数27から視点エッジ強調像のフーリエ変換であるA’s,t(u,v)を求める。最後に、A’s,t(u,v)を逆フーリエ変換することで、視点
エッジ強調像であるa’s,t(X,Y)を求める。
以上の処理により、視点の観察角φが大きくなるほど視点画像中のエッジ強調の度合いを高めた視点エッジ強調像を生成することができる。
また本実施例の視点分解エッジ抽出・統合処理S802は図9に示す構成をとることも可能である。その場合の視点エッジ抽出処理S903の内部処理を図29に示す。
視点観察角算出ステップS2901およびはエッジ処理用3次元ぼけ情報算出ステップS2902はそれぞれS2801、S2802と同一の処理であるため、説明を省略する。
次にフィルタ読み出し(生成)ステップS2903では、C’s,t(u,v)だけでな
く、さらに撮像系の3次元ぼけの視線方向の積分像のフーリエ変換であるCs,t(u,v
)も取得する。S2903でも、図28のS2803と同様、記憶装置130やメインメモリ303から予め計算されたデータを読み出しても良いし、計算により求めても良い。
次にエッジ強調フィルタ算出ステップS2904では、S2903で取得したCs,t
u,v)およびC’s,t(u,v)を用いて数29の式により、エッジ強調フィルタEs,t(u,v)を算出する。
フィルタ処理ステップS2905では、ステップS902で予め計算した視点画像as,t(X,Y)に対しフーリエ変換を実施してAs,t(u,v)を求め、数28によりエッジ強調フィルタEs,t(u,v)を適用してA’s,t(u,v)を求める。最後に、A’s,t
(u,v)を逆フーリエ変換することで、視点エッジ強調像であるa’s,t(X,Y)を
求める。
なお、本実施例の構成は実施例6と同様、エッジ抽出にも適用可能である。S2803で読み出す周波数フィルタC’s,t(u,v)やS2904で算出するエッジ強調フィル
タEs,t(u,v)の直流成分を0とすれば、A’s,t(u,v)の直流成分は0となる。その逆フーリエ変換であるa’s,t(X,Y)は各画素から画像平均値を引いた画像と等
しいため、エッジ抽出像と見なすことができる。
(本実施例の利点)
以上述べたように、本実施例では、実施例6と同様の効果が実現できる。また様々なぼけを持つZスタック画像から視点画像を高速に求めるために画像生成装置100に格納されたフィルタを活用できるため、新たにフィルタを生成する計算負荷がない(少ない)というメリットがある。またフィルタを格納するための追加の記憶容量が不要となるメリットもある。
[実施例8]
実施例7では非特許文献2の方法に基づいて視点エッジ統合像を生成する説明をしたが、実施例8では非特許文献3の方法に基づいて視点エッジ統合像を生成することで、実施例7に比べて計算負荷を大きく低減する構成について述べる。
図30は実施例8における視点分解エッジ抽出・統合処理ステップS802の内部処理を示すフローチャートである。
まず、視点取得処理ステップS3001では、ステップS802で生成する視点エッジ統合像の生成に必要な視点の位置情報を取得する。ステップS901とほぼ同様の処理であるため、説明は省略する。
次に、フーリエ変換処理ステップS3002では、ステップS801で取得したZスタック画像の各レイヤー画像に対し、2次元フーリエ変換を実行し、フーリエ変換したレイヤー画像を生成する。数式で表現すると下記になる。
Figure 2014132433

ここでnはZスタック画像のn枚目のレイヤー画像を表す数字、F{}は2次元フーリエ変換を表す関数、g(n)(X,Y)はZスタック画像のn枚目のレイヤー画像である。
次に、視点エッジ強調用フィルタ読み出し処理ステップS3003ではステップS3001で求めた視点位置毎に視点エッジ強調用フィルタC’s,t(u,v)を読み出す。詳
細は後述する。
次に、ぼけ変更フィルタ生成処理ステップS3004ではステップS3003で読みだした視点画像強調用フィルタを用いて、3次元ぼけ変更フィルタH(n)(u,v)を生成する。数式で表現すると下記になる。
Figure 2014132433

なお、k(s,t)は所望の3次元的な焦点ぼけh(X,Y,Z)を構成する、視点(s,t)を通る光線の重みを表す関数であり、以下の関係が成立している。
Figure 2014132433
ぼけ変更フィルタ適用処理ステップS3005では、ステップ3002で求めたZスタック画像の各レイヤー画像のフーリエ変換g(n)(X,Y)とステップS3004で求めた3次元ぼけ変更フィルタH(n)(u,v)の間で下記の演算を実施する。これにより、エッジ強調された視点エッジ統合像のフーリエ変換像A’(u,v)を得る。
Figure 2014132433

ただし、ここでA’(u,v)はZスタック画像のnf枚目(Z方向の座標がZ=Zf)における視点エッジ統合像のフーリエ変換像である。なお、予め、数32でH(n−nf)(u,v)を求めてから数34を計算しても良い。
最後に、逆フーリエ変換処理ステップS3006ではステップS3005で求めた視点エッジ統合像のフーリエ変換A’(u,v)に逆フーリエ変換を実施し、エッジ強調処理が適用された視点エッジ統合像a’(X,Y)を得る。
続いて、ステップS3003について説明する。
図31は視点エッジ強調用フィルタ読み出し処理ステップS3003の内部処理を示すフローチャートである。
まず、視点観察角算出ステップS3101では、ステップS2801と同様に、視点(s,t)、X方向のセンサの画素ピッチΔX、およびZ方向の移動間隔(レイヤー画像の間隔)ΔZを用いて、数5から観察角φを計算する。既にステップS2801で説明したため詳細は省略する。
次に、エッジ処理用3次元ぼけ情報算出ステップS3102では、ステップS2802と同様、撮影像の3次元ぼけの情報(rb1)およびステップS3101で求めた観察角φを用いて数30からエッジ処理用の3次元ぼけの情報(rb2)を求める。
次に、フィルタ読み出し(生成)ステップS3103ではステップS2803と同様、記憶装置130やメインメモリ303から、ステップS3102で計算した情報(rb2)を元に、C’s,t(u,v)を取得する。ステップS2803と同様、記憶装置130
やメインメモリ303にC’s,t(u,v)−1を格納しておき、それを読み出しても良
い。その場合、ステップS3004での数32の計算を高速化することができる。既にステップS2803で説明したため詳細は省略する。
(本実施例の利点)
以上述べたように、本実施例では、実施例7と同様の効果が実現できる。また本実施例は実施例7に比べ、非特許文献3に記載のMFI任意視点/焦点ぼけ画像生成法を用いることで、視点エッジ統合像の計算負荷を大幅に低減できる。従って、ユーザの指示に対しより高速に所望の視点エッジ統合像が生成でき、エッジ抽出(または強調)機能の使い勝手をより一層高めることができる。
以上、複数の実施例を挙げて本発明の好適な実施形態を説明したが、本発明の構成はこれらの実施例に限られない。
例えば、上記実施例では明視野顕微鏡で撮影されたZスタック画像を元画像として用いた場合について説明したが、本発明は、落射照明型顕微鏡、ライトフィールドカメラ、ライトフィールド顕微鏡等で撮影された画像に対しても適用可能である。
ライトフィールドカメラやライトフィールド顕微鏡は、ライトフィールドと呼ばれる4次元の情報(XYの2次元画像に視点位置の自由度を加えた情報)が記録された画像を1回の撮影で取得可能な撮像装置である。これらの装置では、本来結像面となる位置にレンズアレイが配置されており、それよりも後方のイメージセンサでライトフィールドを撮影する。ライトフィールドが記録された元画像からは、公知の技術を用いて、任意の焦点位置の画像や任意の方向から観察した視点画像を生成できる。したがって、ライトフィールドカメラやライトフィールド顕微鏡で取得した元画像に対しても本発明を好ましく適用することが可能である。
また上記実施例では被写体として病理標本を例に説明してきたが、被写体はそれに限定されない。落射照明型顕微鏡の観察対象である金属等の反射物体でも構わない。また透過観察型顕微鏡の観察対象である透明な生物標本でも良い。また被写体はデジタルカメラの撮影対象である風景や人物でも構わない。いずれも場合においても特許文献1等で開示される技術を用いれば、被写体のピント位置を変えて撮影した複数枚の画像群から任意の視点画像が生成でき、本発明が適用できる。
また各実施例で説明した構成を互いに組み合わせてもよい。例えば、実施例1,2にお
ける視点取得処理(S901)を視点決定処理(S1501)に変更することが可能である。この場合、視点は予め視点分解設定(704)等で定めた設定から決定されるのではなく、Zスタック画像を解析して自動的に決定される。
また実施例3,4において、領域が大きい場合には領域をさらに小さなブロックに分割し、ブロック毎に計算する視点の方向を異ならせても良い。細胞膜や細胞境界が湾曲する場合や核が多数存在する場合でも、エッジの抽出精度を高めることが可能となる。
100:画像生成装置

Claims (27)

  1. 被写体を撮影して得られた元画像から、エッジが強調または抽出された画像であるエッジ画像を生成する画像生成装置において、
    前記元画像から視点画像を生成する視点画像生成手段と、
    前記視点画像生成手段で生成された視点画像に対し、エッジを強調または抽出するエッジ処理を適用することにより、エッジ画像を生成するエッジ処理手段と、を有する
    ことを特徴とする画像生成装置。
  2. 前記エッジ処理は、複数の画像を合成した後にその合成画像に対して当該エッジ処理を施した結果と、前記複数の画像のそれぞれに対して当該エッジ処理を施した後にそれらのエッジ画像を合成した結果とが、一致しない性質をもつ処理である
    ことを特徴とする請求項1に記載の画像生成装置。
  3. 前記エッジ処理手段は、視点画像の視線方向に応じて、当該視点画像に適用するエッジ処理のパラメータを変更する
    ことを特徴とする請求項1または2に記載の画像生成装置。
  4. 前記エッジ処理手段は、視線方向に直交する方向のエッジが強調または抽出されるように、前記エッジ処理のパラメータを変更する
    ことを特徴とする請求項3に記載の画像生成装置。
  5. 前記エッジ処理は、前記視点画像にフィルタを適用する処理であり、
    前記エッジ処理手段は、前記エッジ処理のパラメータとして、前記視点画像に適用するフィルタの係数を変更する
    ことを特徴とする請求項4に記載の画像生成装置。
  6. 前記エッジ処理手段は、前記被写体の深さ方向と視線方向のなす角度が大きいほど、エッジの強調または抽出を行う空間周波数の範囲が低周波側に広がるように、前記エッジ処理のパラメータを変更する
    ことを特徴とする請求項3に記載の画像生成装置。
  7. 前記エッジ処理は、エッジ画像に含まれる高周波ノイズを抑制する処理を含んでおり、
    前記エッジ処理手段は、前記被写体の深さ方向と視線方向のなす角度が大きいほど、高周波ノイズの抑制効果が大きくなるように、前記エッジ処理のパラメータを変更する
    ことを特徴とする請求項3に記載の画像生成装置。
  8. 前記元画像を解析することにより前記元画像に含まれるエッジの方向を推定し、その推定されたエッジの方向に基づいて、視点画像を生成すべき視点を決定する視点決定手段をさらに有する
    ことを特徴とする請求項1〜7のうちいずれか1項に記載の画像生成装置。
  9. 互いに視点が異なる複数の視点画像から生成された複数のエッジ画像を統合することにより、統合されたエッジ画像を生成する画像統合手段をさらに有する
    ことを特徴とする請求項1〜8のうちいずれか1項に記載の画像生成装置。
  10. 前記画像統合手段は、前記複数のエッジ画像を重み付けして合成するものであり、
    前記被写体の深さ方向と視線方向のなす角度が大きい視点画像から生成されたエッジ画像ほど、重みを小さくする
    ことを特徴とする請求項9に記載の画像生成装置。
  11. 前記エッジ処理手段は、前記被写体の深さ方向と視線方向のなす角度が大きい視点画像ほど、エッジ強調またはエッジ抽出の度合いが大きくなるように、各エッジ画像の生成を行う
    ことを特徴とする請求項10に記載の画像生成装置。
  12. 被写体を撮影して得られた元画像から、観察に適した視点画像を生成する画像生成装置において、
    前記元画像を解析することにより前記元画像に含まれるエッジの方向を推定し、その推定されたエッジの方向に基づいて、視点画像を生成すべき視点を決定する視点決定手段と、
    前記視点決定手段で決定された視点に対し、前記元画像から視点画像を生成する視点画像生成手段と、を有する
    ことを特徴とする画像生成装置。
  13. 前記視点決定手段は、前記推定されたエッジの方向と視線方向とが直交するように、視点画像を生成すべき視点を決定する
    ことを特徴とする請求項8または12に記載の画像生成装置。
  14. 前記視点決定手段は、前記元画像からエッジを検出し、その検出結果からエッジの方向を求める
    ことを特徴とする請求項8、12、13のうちいずれか1項に記載の画像生成装置。
  15. 前記被写体は細胞であり、
    前記視点決定手段は、前記元画像から細胞の核の位置を検出し、隣接する2つの核の位置関係に基づいて、その2つの核の間を横切る細胞境界のエッジの方向を求める
    ことを特徴とする請求項8、12、13のうちいずれか1項に記載の画像生成装置。
  16. 被写体を撮影して得られた元画像から、観察に適した視点画像を生成する画像生成装置において、
    前記元画像を解析することにより前記元画像に含まれるエッジの方向を推定し、その推定されたエッジの方向に基づいて、視点画像を生成すべき複数の視点を決定する視点決定手段と、
    前記視点決定手段で決定された複数の視点に対し、前記元画像から複数の視点画像を生成する視点画像生成手段と、
    前記複数の視点画像の中からユーザに2つ以上の視点画像を選択させる選択手段と、
    ユーザにより選択された2つ以上の視点画像を合成する合成手段と、を有する
    ことを特徴とする画像生成装置。
  17. 被写体を撮影して得られた元画像から、エッジが強調または抽出された画像であるエッジ画像を生成する画像生成装置において、
    前記被写体に対する視線方向に応じたエッジ強調またはエッジ抽出を行うためのフィルタを生成するフィルタ生成手段と、
    前記元画像と前記フィルタを用いて、エッジ画像を生成するエッジ処理手段と、を有する
    ことを特徴とする画像生成装置。
  18. 前記フィルタは、前記元画像を撮影した撮像系のぼけ関数よりも大きなぼけをもつ、エッジ処理用のぼけ関数を用いて生成される
    ことを特徴とする請求項17に記載の画像生成装置。
  19. 前記エッジ処理用のぼけ関数は、前記被写体の深さ方向と視線方向のなす角度が大きくなるほど、より大きなぼけをもつ
    ことを特徴とする請求項18に記載の画像生成装置。
  20. 異なる視線方向に応じて生成された複数のエッジ画像を統合することにより、統合されたエッジ画像を生成する画像統合手段をさらに有する
    ことを特徴とする請求項17〜19のうちいずれか1項に記載の画像生成装置。
  21. 前記元画像は、深さ方向の焦点位置を変えて前記被写体を撮影して得られた複数のレイヤー画像から構成されるZスタック画像である
    ことを特徴とする請求項1〜20のうちいずれか1項に記載の画像生成装置。
  22. 前記元画像は、ライトフィールドが記録された画像である
    ことを特徴とする請求項1〜20のうちいずれか1項に記載の画像生成装置。
  23. 被写体を撮影して得られた元画像から、エッジが強調または抽出された画像であるエッジ画像を生成する画像生成方法であって、
    コンピュータが、前記元画像から視点画像を生成するステップと、
    コンピュータが、前記生成された視点画像に対し、エッジを強調または抽出するエッジ処理を適用することにより、エッジ画像を生成するステップと、を有する
    ことを特徴とする画像生成方法。
  24. 被写体を撮影して得られた元画像から、観察に適した視点画像を生成する画像生成方法であって、
    コンピュータが、前記元画像を解析することにより前記元画像に含まれるエッジの方向を推定し、その推定されたエッジの方向に基づいて、視点画像を生成すべき視点を決定するステップと、
    コンピュータが、前記決定された視点に対し、前記元画像から視点画像を生成するステップと、を有する
    ことを特徴とする画像生成方法。
  25. 被写体を撮影して得られた元画像から、観察に適した視点画像を生成する画像生成方法であって、
    コンピュータが、前記元画像を解析することにより前記元画像に含まれるエッジの方向を推定し、その推定されたエッジの方向に基づいて、視点画像を生成すべき複数の視点を決定するステップと、
    コンピュータが、前記決定された複数の視点に対し、前記元画像から複数の視点画像を生成するステップと、
    コンピュータが、前記複数の視点画像の中からユーザに2つ以上の視点画像を選択させるステップと、
    コンピュータが、ユーザにより選択された2つ以上の視点画像を合成するステップと、を有する
    ことを特徴とする画像生成方法。
  26. 被写体を撮影して得られた元画像から、エッジが強調または抽出された画像であるエッジ画像を生成する画像生成方法であって、
    コンピュータが、前記被写体に対する視線方向に応じたエッジ強調またはエッジ抽出を行うためのフィルタを生成するステップと、
    コンピュータが、前記元画像と前記フィルタを用いて、エッジ画像を生成するステップ
    と、を有する
    ことを特徴とする画像生成方法。
  27. 請求項23〜26のうちいずれか1項に記載の画像生成方法の各ステップをコンピュータに実行させることを特徴とするプログラム。
JP2013188641A 2012-12-07 2013-09-11 画像生成装置および画像生成方法 Active JP6362062B2 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2013188641A JP6362062B2 (ja) 2012-12-07 2013-09-11 画像生成装置および画像生成方法
PCT/JP2013/082650 WO2014088048A1 (en) 2012-12-07 2013-11-28 Image generating apparatus and image generating method
EP13811016.8A EP2929508A1 (en) 2012-12-07 2013-11-28 Image generating apparatus and image generating method
PCT/JP2013/082652 WO2014088049A1 (en) 2012-12-07 2013-11-28 Image generating apparatus and image generating method
EP13811015.0A EP2929507A1 (en) 2012-12-07 2013-11-28 Image generating apparatus and image generating method
US14/649,181 US9881373B2 (en) 2012-12-07 2013-11-28 Image generating apparatus and image generating method
US14/649,330 US20150310613A1 (en) 2012-12-07 2013-11-28 Image generating apparatus and image generating method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012268173 2012-12-07
JP2012268173 2012-12-07
JP2013188641A JP6362062B2 (ja) 2012-12-07 2013-09-11 画像生成装置および画像生成方法

Publications (2)

Publication Number Publication Date
JP2014132433A true JP2014132433A (ja) 2014-07-17
JP6362062B2 JP6362062B2 (ja) 2018-07-25

Family

ID=51411482

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013188641A Active JP6362062B2 (ja) 2012-12-07 2013-09-11 画像生成装置および画像生成方法

Country Status (1)

Country Link
JP (1) JP6362062B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016184224A (ja) * 2015-03-25 2016-10-20 株式会社日立ハイテクノロジーズ 細胞診断支援装置、細胞診断支援方法、遠隔診断支援システム、サービス提供システム、及び画像処理方法
WO2018056417A1 (ja) * 2016-09-23 2018-03-29 株式会社アーステクニカ 選別装置及び選別方法
US10055829B2 (en) 2015-10-15 2018-08-21 Samsung Electronics Co., Ltd. Method of measuring thickness, method of processing image and electronic system performing the same
JP2019017301A (ja) * 2017-07-18 2019-02-07 国立大学法人大阪大学 力計測方法及び力計測装置
JP2021117886A (ja) * 2020-01-29 2021-08-10 株式会社Screenホールディングス 画像処理装置、画像処理システムおよび画像処理方法

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008017303A (ja) * 2006-07-07 2008-01-24 Toyota Motor Corp 画像表示装置
JP2009543458A (ja) * 2006-07-07 2009-12-03 イーストマン コダック カンパニー スミア補正の微分フィルタリングを有するプリンタ
JP2010066156A (ja) * 2008-09-11 2010-03-25 Nikon Corp 形状測定装置
JP2010134768A (ja) * 2008-12-05 2010-06-17 Tokyo Univ Of Science 画像特徴合成動画生成装置、画像特徴合成動画生成方法、及びプログラム
JP2011055467A (ja) * 2009-08-07 2011-03-17 Sharp Corp 撮像画像処理システム、画像出力方法、プログラムおよび記録媒体
JP2011065339A (ja) * 2009-09-16 2011-03-31 Pioneer Electronic Corp 画像処理装置、画像処理方法、画像処理プログラム、及び、記憶媒体
JP2012203847A (ja) * 2011-03-28 2012-10-22 Tokyo Univ Of Science 画質改善画像生成装置、画像の画質改善方法、及びプログラム
JP2012205111A (ja) * 2011-03-25 2012-10-22 Casio Comput Co Ltd 撮像装置
JP2012209806A (ja) * 2011-03-30 2012-10-25 Canon Inc 画像処理装置、撮像システム、画像処理システム
JP2012216992A (ja) * 2011-03-31 2012-11-08 Casio Comput Co Ltd 画像再構成装置、画像再構成方法、及び画像再構成プログラム

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008017303A (ja) * 2006-07-07 2008-01-24 Toyota Motor Corp 画像表示装置
JP2009543458A (ja) * 2006-07-07 2009-12-03 イーストマン コダック カンパニー スミア補正の微分フィルタリングを有するプリンタ
JP2010066156A (ja) * 2008-09-11 2010-03-25 Nikon Corp 形状測定装置
JP2010134768A (ja) * 2008-12-05 2010-06-17 Tokyo Univ Of Science 画像特徴合成動画生成装置、画像特徴合成動画生成方法、及びプログラム
JP2011055467A (ja) * 2009-08-07 2011-03-17 Sharp Corp 撮像画像処理システム、画像出力方法、プログラムおよび記録媒体
JP2011065339A (ja) * 2009-09-16 2011-03-31 Pioneer Electronic Corp 画像処理装置、画像処理方法、画像処理プログラム、及び、記憶媒体
JP2012205111A (ja) * 2011-03-25 2012-10-22 Casio Comput Co Ltd 撮像装置
JP2012203847A (ja) * 2011-03-28 2012-10-22 Tokyo Univ Of Science 画質改善画像生成装置、画像の画質改善方法、及びプログラム
JP2012209806A (ja) * 2011-03-30 2012-10-25 Canon Inc 画像処理装置、撮像システム、画像処理システム
JP2012216992A (ja) * 2011-03-31 2012-11-08 Casio Comput Co Ltd 画像再構成装置、画像再構成方法、及び画像再構成プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
児玉和也,久保田彰: "単一のレンズ系からの多様なボケ味の生成", 映像情報メディア学会誌, vol. 65, no. 3, JPN6018004553, 1 June 2011 (2011-06-01), JP, pages 372 - 381, ISSN: 0003736080 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016184224A (ja) * 2015-03-25 2016-10-20 株式会社日立ハイテクノロジーズ 細胞診断支援装置、細胞診断支援方法、遠隔診断支援システム、サービス提供システム、及び画像処理方法
US10453192B2 (en) 2015-03-25 2019-10-22 Hitachi High-Technologies Corporation Cytologic diagnosis support apparatus, cytologic diagnosis support method, remote diagnosis support system, service providing system, and image processing method
US10055829B2 (en) 2015-10-15 2018-08-21 Samsung Electronics Co., Ltd. Method of measuring thickness, method of processing image and electronic system performing the same
WO2018056417A1 (ja) * 2016-09-23 2018-03-29 株式会社アーステクニカ 選別装置及び選別方法
KR20190086436A (ko) * 2016-09-23 2019-07-22 가부시키가이샤 아-스 테크니카 선별장치 및 선별방법
JPWO2018056417A1 (ja) * 2016-09-23 2019-08-29 株式会社アーステクニカ 選別装置及び選別方法
EP3517933A4 (en) * 2016-09-23 2020-04-22 Kabushiki Kaisha Earthtechnica SORTING DEVICE AND SORTING METHOD
KR102242948B1 (ko) * 2016-09-23 2021-04-21 가부시키가이샤 아-스 테크니카 선별장치 및 선별방법
JP2019017301A (ja) * 2017-07-18 2019-02-07 国立大学法人大阪大学 力計測方法及び力計測装置
JP2021117886A (ja) * 2020-01-29 2021-08-10 株式会社Screenホールディングス 画像処理装置、画像処理システムおよび画像処理方法
JP7431592B2 (ja) 2020-01-29 2024-02-15 株式会社Screenホールディングス 画像処理装置、画像処理システムおよび画像処理方法

Also Published As

Publication number Publication date
JP6362062B2 (ja) 2018-07-25

Similar Documents

Publication Publication Date Title
US9881373B2 (en) Image generating apparatus and image generating method
US20150279033A1 (en) Image data generating apparatus and image data generating method
Forster et al. Complex wavelets for extended depth‐of‐field: A new method for the fusion of multichannel microscopy images
KR20210113236A (ko) 병리학 시료의 자동화된 이미징 및 분석을 위한 컴퓨터 사용 현미경 검사 기반의 시스템 및 방법
JP6362062B2 (ja) 画像生成装置および画像生成方法
JP6791245B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
Piccinini et al. Extended depth of focus in optical microscopy: Assessment of existing methods and a new proposal
US20210049338A1 (en) System, method, and computer-accessible medium for processing brain images and extracting neuronal structures
US8064679B2 (en) Targeted edge detection method and apparatus for cytological image processing applications
Boorboor et al. Visualization of neuronal structures in wide-field microscopy brain images
IL280503B (en) A focus with extended and increased depth on biological samples
JP2023542619A (ja) 試料のデジタル画像の品質管理のためのコンピュータ実装方法
JP2015057682A (ja) 画像生成装置および画像生成方法
Shaw et al. Optical mesoscopy, machine learning, and computational microscopy enable high information content diagnostic imaging of blood films
Merchant et al. Three-dimensional imaging
Teranikar et al. Correcting anisotropic intensity in light sheet images using dehazing and image morphology
Lobachev et al. Compensating anisotropy in histological serial sections with optical flow-based interpolation.
Shuvo et al. Multi-focus image fusion for confocal microscopy using u-net regression map
JP2015191362A (ja) 画像データ生成装置および画像データ生成方法
WO2021100328A1 (ja) 画像処理方法、画像処理装置および画像処理システム
Garud et al. Volume visualization approach for depth-of-field extension in digital pathology
JP2013188361A (ja) 画像処理装置
Intarapanich et al. Fast processing of microscopic images using object-based extended depth of field
JP2010025758A (ja) 画像処理装置および画像処理方法
Zhang et al. Multifocus image fusion and depth reconstruction

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160907

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180411

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180522

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180619

R151 Written notification of patent or utility model registration

Ref document number: 6362062

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151