JP2014132433A - 画像生成装置および画像生成方法 - Google Patents
画像生成装置および画像生成方法 Download PDFInfo
- Publication number
- JP2014132433A JP2014132433A JP2013188641A JP2013188641A JP2014132433A JP 2014132433 A JP2014132433 A JP 2014132433A JP 2013188641 A JP2013188641 A JP 2013188641A JP 2013188641 A JP2013188641 A JP 2013188641A JP 2014132433 A JP2014132433 A JP 2014132433A
- Authority
- JP
- Japan
- Prior art keywords
- image
- viewpoint
- edge
- generating
- processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 154
- 238000012545 processing Methods 0.000 claims abstract description 232
- 238000000605 extraction Methods 0.000 claims description 156
- 230000008569 process Effects 0.000 claims description 60
- 238000003384 imaging method Methods 0.000 claims description 44
- 210000004027 cell Anatomy 0.000 claims description 41
- 230000010354 integration Effects 0.000 claims description 34
- 210000004940 nucleus Anatomy 0.000 claims description 32
- 230000000694 effects Effects 0.000 claims description 20
- 210000003855 cell nucleus Anatomy 0.000 claims description 5
- 230000002194 synthesizing effect Effects 0.000 claims description 5
- 238000001514 detection method Methods 0.000 claims description 4
- 238000005516 engineering process Methods 0.000 abstract description 2
- 230000006870 function Effects 0.000 description 69
- 238000004364 calculation method Methods 0.000 description 58
- 230000003287 optical effect Effects 0.000 description 45
- 238000010586 diagram Methods 0.000 description 23
- 238000000354 decomposition reaction Methods 0.000 description 21
- 238000003860 storage Methods 0.000 description 21
- 238000003745 diagnosis Methods 0.000 description 20
- 230000008859 change Effects 0.000 description 18
- 230000001575 pathological effect Effects 0.000 description 15
- 238000006243 chemical reaction Methods 0.000 description 14
- 238000003708 edge detection Methods 0.000 description 13
- 210000000805 cytoplasm Anatomy 0.000 description 12
- 210000000170 cell membrane Anatomy 0.000 description 11
- 230000002146 bilateral effect Effects 0.000 description 9
- 230000009467 reduction Effects 0.000 description 9
- 239000013598 vector Substances 0.000 description 9
- 238000005286 illumination Methods 0.000 description 8
- 238000002360 preparation method Methods 0.000 description 8
- 230000008901 benefit Effects 0.000 description 7
- 239000002131 composite material Substances 0.000 description 7
- 239000000126 substance Substances 0.000 description 7
- 230000009466 transformation Effects 0.000 description 7
- 230000003044 adaptive effect Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 5
- 230000002708 enhancing effect Effects 0.000 description 5
- 230000005484 gravity Effects 0.000 description 5
- 210000001519 tissue Anatomy 0.000 description 5
- 230000006978 adaptation Effects 0.000 description 4
- 238000009826 distribution Methods 0.000 description 4
- 238000010191 image analysis Methods 0.000 description 4
- 230000001965 increasing effect Effects 0.000 description 4
- 210000004185 liver Anatomy 0.000 description 4
- 230000001629 suppression Effects 0.000 description 4
- 238000001308 synthesis method Methods 0.000 description 4
- 230000007423 decrease Effects 0.000 description 3
- 239000008393 encapsulating agent Substances 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 238000007490 hematoxylin and eosin (H&E) staining Methods 0.000 description 3
- 238000010827 pathological analysis Methods 0.000 description 3
- 230000005855 radiation Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000001174 ascending effect Effects 0.000 description 2
- 239000006059 cover glass Substances 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 230000007170 pathology Effects 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 238000002834 transmittance Methods 0.000 description 2
- 206010028980 Neoplasm Diseases 0.000 description 1
- 238000000149 argon plasma sintering Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 210000004204 blood vessel Anatomy 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 201000011510 cancer Diseases 0.000 description 1
- 239000003990 capacitor Substances 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000008602 contraction Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000009792 diffusion process Methods 0.000 description 1
- 238000011049 filling Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000004907 flux Effects 0.000 description 1
- 238000003707 image sharpening Methods 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 210000005229 liver cell Anatomy 0.000 description 1
- 239000012528 membrane Substances 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 229910052751 metal Inorganic materials 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 210000001087 myotubule Anatomy 0.000 description 1
- 238000000879 optical micrograph Methods 0.000 description 1
- 239000012188 paraffin wax Substances 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000010287 polarization Effects 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 238000011158 quantitative evaluation Methods 0.000 description 1
- 238000011946 reduction process Methods 0.000 description 1
- 238000004171 remote diagnosis Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Investigating Or Analysing Materials By Optical Means (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
Abstract
【解決手段】被写体を撮影して得られた元画像から、エッジが強調または抽出された画像であるエッジ画像を生成する画像生成装置において、前記元画像から視点画像を生成する視点画像生成手段と、前記視点画像生成手段で生成された視点画像に対し、エッジを強調または抽出するエッジ処理を適用することにより、エッジ画像を生成するエッジ処理手段と、を有する。
【選択図】図9
Description
またデジタルデータに対しては様々な画像処理が可能で、バーチャル・スライド・システムで撮影した画像に対し、病理医の診断を支援する種々の診断支援機能が提案されている。
非特許文献1は、がんを診断する上で重要な所見であるN/C比(細胞質に対して核が占める比率)を算出することを目標とし、デジタル画像処理技術を用いて肝臓の病理組織標本画像から細胞膜を抽出する方法を開示している。非特許文献1では明視野、暗視野、位相差の3種類の観察像の色情報を組み合わせることで、明視野観察像単独の場合に比べて細胞膜の抽出正解率を向上させている。
また、細胞と管や腔との境界はN/C比を精度良く算出する上でも有用な情報である。例えば、肝臓の病理組織標本には、大別して核と細胞質からなる細胞の領域、肝細胞へ物質を供給する血管である類洞の領域があり、正しいN/C比を算出するには細胞が存在しない類洞の領域を正しく除外する必要がある。
非特許文献1では、明視野、暗視野、位相差観察像を取得するために、明視野顕微鏡に対して位相差用対物レンズや共用コンデンサを装備し、それらを切り替えて撮影している。その為、明視野観察用の光学顕微鏡に追加の部品が必要になるというコスト的な課題、撮影時に光学系および露出条件の変更の手間が発生するという課題があった。
方法である。
図1は、本発明の実施形態に係る画像生成および表示システムの構成を示している。
画像生成装置(ホストコンピュータ)100には、ユーザからの入力を受け付ける入力操作デバイス110と、画像生成装置100から出力される画像などをユーザに提示するためのディスプレイ120が接続される。入力操作デバイス110としては、キーボード111、マウス112、ユーザの操作性を高めるための専用コントローラ113(例えばトラックボール、タッチパッド)などを利用できる。また画像生成装置100には、ハードディスクや光学ドライブ、フラッシュメモリ等の記憶装置130、ネットワークI/Fを通じてアクセスできる他のコンピュータシステム140が接続されている。なお、図1では記憶装置130は画像生成装置100の外部に存在するが、画像生成装置100に内蔵しても良い。
図2は、予め撮影した検体の画像データを、画像表示アプリケーションを通じて、ディスプレイ120に表示した場合の一例である。
の切り替えは、所定のキー(例えばCtrlキー)を押しながらのマウスホイールの回転等で実現できる(例えば、ホイールの前方回転を奥行きが深い画像への移動に、後方回転を奥行きが浅い画像への移動に割り当てる)。上記のようなユーザの表示画像の変更操作に伴い、表示領域205、表示倍率206、サムネイル画像203内の枠線204が更新される。このようにして、ユーザは所望する面内位置、奥行き位置、倍率の画像を観察できる。
図3は画像生成装置100の内部構成を示す図である。
CPU301はメインメモリ302に格納されているプログラムやデータを用いて画像生成装置全体の制御を行う。またCPU301は、以降の実施例で説明する各種演算処理、データ処理、例えば、離散フーリエ変換やフィルタ処理、視点画像統合処理等を行う。
図4は被写体の一例である病理標本のプレパラート(スライドとも呼ぶ)を表す。病理標本のプレパラートでは、スライドグラス410上に載置した検体400が封入剤(不図示)とその上に載せるカバーグラス411によって封入されている。検体400の大きさや厚みは検体毎によって異なっている。更にスライドグラス410上には検体に関する情報が記録されたラベルエリア412が存在する。ラベルエリア412への情報の記録は、ペンによる記入でもよいし、バーコードや2次元コードの印刷でもよい。また電気的、磁気的、または光学的な方法により情報を記憶可能な記憶媒体をラベルエリア412に設けてもよい。以降の実施形態では、被写体として図4に示す病理標本のプレパラートを例に説明する。
図5は被写体を撮影しデジタル画像を取得する撮像装置の構成の一部を模式的に表す。図5に示すように、本実施形態では、検体400の表面に平行にx軸とy軸をとり、検体400の深さ方向(光学系の光軸方向)にz軸をとる。
画像生成装置100では、暗視野観察や位相差観察など光学系に変更を加える観察・撮像方法を必要としない代わりに、Zスタック画像から画像処理によって中間画像(視点画像)を生成し、その中間画像を用いて観察や診断に適した観察用画像を生成する。まずは、Zスタック画像から中間画像としての視点画像を生成する処理に利用可能な技術について説明する。
例えば特開2007−128009号公報(以降、特許文献1と呼ぶ)には、ピント位置を変えて撮影した焦点ぼけ画像群から、任意の視点や任意のぼけの画像を生成する方法が開示されている。この方法は、焦点ぼけ画像群に対し、3次元的な焦点ぼけがXYZ位置で不変になるように座標変換処理を施し、得られた直交座標系(XYZ)において3次元のフィルタ処理を適用することで視点やぼけを変更した画像を得る、というものである。
また、非特許文献2には、特許文献1の方法の改良が開示されている。非特許文献2では、視点から視線方向を求め、Zスタック画像を視線方向に積算することで積算画像を生成するとともに、同じように3次元ぼけの視線方向の積算画像も生成する。その後、Zスタック画像の積算画像に対し3次元ぼけの積算画像を逆フィルタ処理することにより、Z方向(レイヤー画像の枚数)の制約による影響を抑制し、高画質な視点画像を生成することができる。
また、非特許文献3には、非特許文献2の計算を高速化する方法が開示されている。非特許文献3の方法では、被写体(シーン)に依存せずに予め定まるフィルタと焦点ぼけ画像群の各Z位置のフーリエ変換画像の線型結合によって、周波数領域上での任意視点画像
や任意焦点ぼけ画像が効率的に計算できる。
なお、両側テレセントリックな光学系を持つ顕微鏡でピント位置を変えて撮影したZスタック画像は3次元的な焦点ぼけがXYZ位置で不変である。よって、両側テレセントリックな光学系で撮影したZスタック画像にMFI任意視点/焦点ぼけ画像生成法を適用する場合は、座標変換処理および座標変換処理に伴う画像の拡縮処理は不要である。
特許文献1には、結像光学系の焦点が合った任意の位置と撮像装置のレンズ面(瞳面に相当)上の同一の視点の位置(x,y,z)=(s,t,0)を結ぶ光線は、座標変換後の直交座標系(XYZ)では全て互いに平行な光線となることが記載されている。(特許文献1の図1〜3およびその説明を参照)
数1の直線は座標変換後の直交座標系(XYZ)では以下の式で表される。
数2にZ=0(z=f)、Z=1(z=∞)を代入すると、それぞれ(X,Y,Z)=(p+s,q+t,0)、(X,Y,Z)=(p,q,1)となることから、直交座標系(X,Y,Z)での直線の傾きは(−s,−t,1)で表される。
従って、座標変換後の直交座標系での視線方向を表すベクトルは(X,Y,Z)=(−s,−t,1)となる。
従って、空間的な位置によらず3次元的な焦点ぼけを不変とするための座標変換は必要ない。実空間においてピントが合った被写体の所定の位置(x,y,z)=(0,0,za)とレンズ面上の視点の位置(x,y,z)=(s,t,0)を結ぶ直線の傾き(−s,−t,za)をそのまま視線方向と見なしても良い。
図23(a)は実空間上の視点の位置(x,y,z)=(s,t,0)を表す模式図であり、図23(b)は直交座標系(XYZ)において視点の位置(x,y,z)=(s,t,0)を通る光線を表す模式図である。
ただし、θはt,sの符号に応じて−180〜+180度の範囲に収まるように調整する。
図23(b)では、数2で示す直線と数2に光軸上の点p=0、q=0を代入した場合の直線を太字の矢印で示している。
特許文献1によれば、直交座標系(XYZ)のZ=0は透視座標系(xyz)のz=f(またはz=−∞)に対応し、Z=1はz=∞(またはz=−f)に対応している。そのため、図23(b)は直交座標系(XYZ)において無限遠(Z=1)からの光束が、レンズ面上の手前の焦点面(Z=0)で広がりを持つことを示している。(特許文献1の図3およびその説明を参照)
ここで、変換座標上の観察角φTを、視線(−s,−t,1)と光軸(Z軸)がなす角と定義すると、図23(b)からも明らかなように視線は、被写体の位置に依存しないので、観察角φTは以下の式で求められる。
なお、図23(b)の2本の点線はレンズ面上の最も端を通る光線を示しており、座標変換前の透視座標系(xyz)でのレンズの絞り半径をraとすると、視点の位置(x,y,z)=(s,t,0)が半径raの内部にある場合のみ視点画像は計算できる。
スネルの法則では屈折率の異なる境界に光線が入射したとき、光線の入射角と入射側の媒質の屈折率の積は、光線の屈折角と屈折側の媒体の屈折率の積に等しい。標本の屈折率は空気の屈折率よりも大きいことから、空気中の観察角に比べ標本中の観察角は小さくなっている。そのため、屈折した光線で構成される、標本中の3次元的な焦点ぼけは、空気中での3次元的な焦点ぼけよりも小さくなっている。しかし、本実施例では標本と標本中での3次元的な焦点ぼけによる3次元的な結像関係に基づいて視点の位置を計算しているため、標本の屈折率の影響は考える必要はなく、偏角θおよび観察角φはそのまま標本中での観察方向を表している。
結像光学系が両側テレセントリックである場合には、座標変換を必要としないため、x方向とy方向のセンサ画素ピッチが等しいとすれば、観察角φは、x方向のセンサ画素ピッチΔxと、z方向の移動間隔Δz(単位はμm)を用いて、下記式で表現できる。
なお、結像光学系が両側テレセントリックでない場合には、数5でΔxとΔzの代わりに、直交座標系(XYZ)におけるX方向のセンサ画素ピッチΔXとZ方向の移動間隔ΔZを用いれば観察角φが求められる。
以上で、実際に標本を観察したときの視線に対応する偏角θ、観察角φについて説明した。
以降の説明では、レンズ面上の視点の位置(x,y,z)=(s,t,0)を視点(s,t)と略して記載する。また、以降の説明では、直交座標系(XYZ)上での画像処理を前提として説明するため、視点の位置(s,t)に言及する場合のみ透視座標系(座標変換前の実空間)での位置を表すものとし、その他は特に断りが無い限りは、直交座標系(XYZ)での位置を表すとする。
特許文献1の方法で計算する視点画像は、非常に深い(無限大の)被写界深度を持ち、透過率が異なる標本内の物質の境界が明瞭に見える、という特徴を有している。
方向631から観察すると空洞630以外の部位が透けて見える為、空洞630の壁面のコントラストは明瞭ではない。また方向632から観察した場合も同様で空洞630のコントラストは不明瞭である。しかし空洞630の壁面に沿った方向633から観察する場合、他の部位の影響を受けないので、空洞630の壁面のコントラストは明瞭となる。なお、視線方向が多少空洞の壁面の方向と異なってもコントラストは比較的高い状態を維持できる。
なお、本明細書では、画像からエッジ部分の像もしくは情報のみを取り出す操作をエッジの抽出と呼び、画像中のエッジ部分の像もしくは情報の識別性を向上させる操作をエッジの強調と呼ぶ。ただし、エッジの抽出と強調を特に区別する必要がない場合には、両方を包含する用語としてエッジ処理という用語を用い、エッジ処理によってエッジが抽出または強調された画像のことをエッジ画像と呼ぶ。
(エッジ抽出設定画面)
図7(a)、図7(b)は実施例1におけるエッジ抽出機能の設定画面の一例である。
図2の画像表示アプリケーションで表示画像中の領域207をマウスで選択した後、マウスの右クリックで表示される機能拡張メニュー208から「視点分解エッジ抽出」(不図示)の項目を選択する。それに対応してエッジ抽出処理前後の画像を示す新規ウィンドウ700(図7(a))およびエッジ抽出機能の設定画面703(図7(b))が表示される。ウィンドウ700の左側領域701には領域207内の画像が表示され、右側領域702にはエッジ抽出処理結果の画像が表示される。
図8は前述の実行ボタン708を押下した際に実行されるエッジ抽出処理のフローを示す。この処理は、画像表示アプリケーションとそこから呼び出される画像生成プログラムによって実現されるものである。
図9は視点分解エッジ抽出・統合処理S802の内部処理を示すフローチャートである。
まず、視点取得処理ステップS901では、後段のステップS902において視点画像の生成に必要な視点の位置情報を取得する。ステップS901では予め定められた視点の位置情報を、メインメモリ302や記憶装置130、他のコンピュータシステム140から取得しても良い。またステップS901では画像表示アプリケーション上で設定した情報に基づき視点の位置情報を計算して求めても良い。詳細は後述する。
続いて、視点エッジ統合像生成ステップS904では、視点エッジ統合設定(706)に基づき、ステップS903で生成した複数の視点エッジ抽出像を合成し、視点エッジ統合像を生成する。詳細は後述する。
以下、視点取得処理ステップS901、視点エッジ抽出処理ステップS903、視点エッジ統合像生成ステップS904の詳細を説明する。
以下、視点分解設定(704)に基づき、視点取得処理ステップS901で視点の位置情報を計算する場合について説明する。
図10(a)の視点分解設定画面1001は、視点分解設定ボタン704の押下時に表示される設定画面の一例である。ここではエッジ抽出に用いる視点画像の視点位置を設定する。
設定画面1001では視点の設定方法として直接設定とメッシュ設定の2つが選択できる。直接設定では、視点数と視点の位置(s,t)をユーザに直接指定させる。一方、メッシュ設定では、外径、内径(中心遮蔽)、離散化ステップをユーザに指定させ、これらの指定値から各視点の位置を計算する。
図10(b)の視点エッジ抽出設定画面1002は、視点エッジ抽出設定ボタン705押下時に表示する設定画面の一例である。ここでは視点画像からエッジ抽出を行う際に用いるエッジ抽出方式やパラメータを設定する。
エッジ抽出方式としては多数の方式が存在する。例えば、エッジ抽出フィルタには、1次微分フィルタであるSobelフィルタやPrewitフィルタ、2次微分フィルタであるラプラシアンフィルタやその派生形のLOG(Laplacian Of Gaussian)フィルタが
ある。また、エッジ抽出フィルタには、フーリエ周波数上で処理するハイパスフィルタ、バンドパスフィルタなどがある。また、画像をフーリエ変換し、振幅スペクトルを1に規格化した後に逆フーリエ変換すると、形状情報が強調されたフーリエ位相画像が得られるので、これもエッジ抽出の一つである。2次微分が0になる位置を求めるゼロクロス検出法、方向性を持つ配列を用いてエッジを検出するプレウィットテンプレートマッチングも適用できる。また、顔認識や指紋認識などで用いられるガボールフィルタによるエッジ抽出、コンピュータビジョン分野で良く用いられるCanny Edge Detectorなども適用できる
。また、ノイズ除去手法の1つであるバイラテラルフィルタは、エッジを保ちつつ、ノイズを除く特徴をもつ。バイラテラルフィルタを繰り返し適用することでエッジと平坦領域の差が際立つため、この手法もエッジ抽出方式の一つとして用いることができる。また前述の方式の組合せによるエッジ抽出も可能である。
・任意のx,yに対して、 f(x+y)=f(x)+f(y)
・任意のx,aに対して、 f(ax)=af(x)
例えば、エッジ抽出処理をh、i番目の視点画像をIiで表すと、このエッジ抽出処理が線型性を満たす場合、
が成立する。この式は、各視点画像Iiから得られた視点エッジ抽出像h(Ii)を統合した結果である視点エッジ統合像Σh(Ii)が、視点合成画像ΣIiに対するエッジ抽出処理結果h(ΣIi)と等価であることを示している。
言い換えると、エッジ抽出処理が線型性を持たないとは、複数の画像Iiを合成した後にその合成画像ΣIiに対してエッジ抽出処理を施した結果h(ΣIi)と、各画像Iiに対してエッジ抽出処理を施した後にそれらを合成した結果Σh(Ii)とが、一致しない性質ということができる。
ただし、fx=I(i+1,j)−I(i−1,j)、fy=I(i,j+1)−I(i,j−1)であり、max()は括弧内の引数の中から最大値を採る関数である。
また、視点画像毎に適用するフィルタを変えることも有効である。以下の式のように、i番目の視点画像に適用するフィルタ操作の関数をhiとすると、すべてのhiが同一のフィルタでない限り、線型性は成立しない。
(効果的に)行うことができる。具体的な方法としては、視線方向とエッジ検出方向とが一致するように、視線方向に合わせてフィルタの係数を適応的に変更すれば良い。
図11(a)〜図11(h)にプレウィットテンプレートマッチングで用いる3×3のテンプレートの例を示す。3×3のテンプレートの下に記載されている矢印はエッジ検出方向を表している。フィルタの9個の係数の配列を変えることでエッジ検出方向を制御できる。これらのフィルタを用いる場合、矢印で表されるエッジ検出方向とXY平面内の視線方向を一致させると良い。
フィルタであり、下記の数式で表される。
λはcos関数部の波長成分、ψはcos関数部の位相オフセット、θは関数の縞模様の方向、σはガウス関数部の分散、γはガウス関数部の縦横のアスペクト比を表す。
2次元ガボールフィルタは任意の方向に係数を変化させることが出来るため、生成すべき視点画像の視線方向に合わせたフィルタを作ることでエッジの検出効果をより高めることができる。
で計算できる。ただし、偏角はs,tの符号に応じて−180〜+180度の範囲に収まるように調整する。
視線方向に依存したエッジ抽出フィルタとして図11(a)〜図11(h)に示すプレウィットテンプレートマッチングの配列を用いる場合、向きは8方向に限定されるため、視点の偏角に最も近い方向の配列を選択し、フィルタを読み出す。またエッジ抽出フィルタとして2次元ガボールフィルタを用いることも可能で、θに視点の偏角を設定してフィルタを生成すれば、任意の視線方向に沿って係数が変化するフィルタが生成できる。なお、2次元ガボールフィルタのλやσは画素ピッチ、倍率に基づく既定値でも良いし、視点の動径に対応させた値でも良い。またλやσを被写体の特徴等に基づいて変化させても良い。
続いて、フィルタ処理ステップS1203では、ステップS1202で読み出しまたは生成したフィルタを用いて、視点画像に対してフィルタ処理を行い、エッジの抽出を行う。
次にステップS1302では、フィルタ方向毎の強度変倍率の和を格納する変数A1および視点エッジ抽出像を格納する2次元バッファB1のそれぞれを0で初期化する。
続いて、フィルタ処理ステップS1304では処理対象の視点画像に対し、ステップS1303またはステップS1309で読み出しまたは生成したフィルタを用いてフィルタ処理を行う。
方向判定ステップS1305の判定結果が真であれば変数A1に強度変倍率M(Mは1より大きい実数。例えばM=3。)を加算しステップS1306に進む。偽であれば変数
A1に1を加算し、加算処理ステップS1307に進む。
続いて、加算処理ステップS1307では、視点画像をエッジ抽出(条件によってはさらに強度をM倍)した結果を2次元バッファB1に加算する。
続いて、正規化処理ステップS1310では2次元バッファB1の各画素の値を変数A1の値で割る。
上記の処理により、1つの視点画像に対し多数のフィルタを適用する場合でも、線型性が成立しない視点エッジ抽出処理が実現できる。
なお、フィルタ処理ステップS1304では、フィルタの処理結果の絶対値や2乗値などを求めることで、非線型性を実現しても良い。その場合でも同様に、方向性判定ステップS1305で視点の偏角とフィルタの方向が一致する場合には、強調処理ステップS1306に進み、処理結果を強調することでエッジ抽出処理の効果を高められる。
また、既に述べたように、図13に示す処理以外でも線型性が成立しないようにできる。例えば、SobelフィルタやPrewitフィルタと同様に、複数の方向から適用した線型フィルタの処理結果を集め、それぞれの2乗値の和の平方根、絶対値の和、絶対値の最大値などを求めて、最終的なフィルタ結果とすることで非線型性を実現できる。
また、視点エッジ抽出設定画面1002ではノイズ除去設定が可能である。ノイズ除去設定としては、閾値による2値化や、メディアンフィルタ、エッジを保ったノイズ除去が可能なバイラテラルフィルタなどが適用できる。この処理により明瞭なコントラストを持つエッジを抽出し、よりN/C比を検出しやすくすることができる。
図10(c)の視点エッジ統合設定画面1003は視点エッジ統合設定ボタン706押下時に表示する設定画面の一例である。ここでは視点エッジ抽出像を統合する際の合成方法を設定する。設定画面1003には各々のエッジ抽出像を統合する際の合成方法を選択するリストボックスがあり、「均等」、「ガウスぼけ」、「最大値の選択・合成」など、様々な合成方法を選択可能となっている。ここで「均等」は等しい重み付けで、「ガウスぼけ」は各視点の原点(光軸上)からの距離に従ってガウス関数で求めた重み付けで各々のエッジ抽出像を合成する方法を示す。また「最大値の選択・合成」は各々のエッジ抽出像の同位置の画素値を比較し、最大の画素値を選択することで各々のエッジ抽出像と同じサイズの合成像を作る方法を示す。
なお、視点エッジ抽出像がフーリエ空間周波数表現のままの場合、フーリエ変換上で統合し、その後、逆フーリエ変換を行う。フーリエ変換では線型性が成立するため、空間で
統合しても、周波数上で統合してから逆変換しても結果は一致する。
また、視点エッジ統合像生成ステップS904では、視点エッジ抽出処理ステップS903同様にエッジ抽出像に含まれるノイズを除去する為、ノイズ除去を行っても良い。その場合、設定画面1003でノイズ除去設定を行う。
なお、図10(a)〜図10(c)に示す設定画面はあくまで一例である。ユーザである病理医が設定に煩わされずに素早く観察・診断できるよう、デフォルトの設定や自動的に最適値が設定される機能を備えることが望ましい。
続いて輪郭抽出処理(図8のS803)の一例について述べる。
視点エッジ統合像ではエッジが強調されているものの、ノイズや信号の強弱が存在する。そこで、より輪郭を見やすくするために、輪郭抽出処理を行う。例えば、視点エッジ統合像を2値化し(2値化の閾値は予め決められた値を用いても良いし、動的に決めても良い)、その後、膨張・縮小処理を繰り返すことにより、輪郭を抽出できる。他にも輪郭抽出方法には様々な公知の技術があり、ここではいずれの方法も適用できる。またさらに細線化処理を追加することで輪郭が存在する位置精度を高めることができる。処理の結果、視点エッジ統合像から輪郭抽出像が得られる。
続いて画像表示処理S804を経て、画像表示アプリケーション上に視点エッジ抽出像、視点エッジ統合像あるいは輪郭抽出像を示すことで、細胞と細胞の間の細胞境界、細胞と類洞の境目などを分かりやすくできる。それによって病理医は患部組織の3次元構造をイメージしやすくなる。
N/C比算出にあたっては左側領域702内の選択領域207の画像と輪郭抽出像の2枚の画像を用いることを前提とする。以下、画像中の核の部分を核領域、核を取り巻く細胞質の部分を細胞質領域、核領域と細胞質領域を合わせた全体を細胞領域と呼ぶ。
ても良い。その場合、ステップS1402の後、GUIでユーザに輪郭、核領域、細胞領域を修正できる設定画面を表示する。
上記で述べたN/C比算出フローはあくまで一例であり、その他、様々な変形や改良が可能である。
以上述べたように、本実施例ではZスタック画像を視点画像に分解し、エッジ抽出を行うことにより、光学系や露出条件の変更を行うことなく、標本を観察する上で有用な細胞膜や細胞境界、細胞と管や腔との境界を明瞭にすることができる。それにより診断に有用な画像の提示、N/C比の算出等の診断支援機能が実現できる。
実施例1では視点画像からエッジを抽出したが、実施例2では、視点画像からエッジを強調した画像を生成する方法について説明する。ただし、実施例1との違いは僅かである為、実施例1の説明図の一部を読み変えて説明する。
以降、図7〜10内の各ステップおよび各部の名称での「エッジ抽出」の用語を「エッジ強調」に読み変えて、その差異点について説明する。
I(X,Y)は原画像、D(X,Y)は差分画像、Amountは原画像への差分画像の適応量である。
御し、エッジを強調した画像が生成できる。
本実施例では、視点画像ごとにアンシャープマスクを適用し、エッジを強調した画像を生成する。閾値Thresholdを適切に設定することで、比較的コントラストが低い部分は変
更を施さずそのままとし、コントラストが高いエッジの部分をより強調することが出来る。これによりピント位置の像に対する強調処理では実現できない効果が得られる。
図10(c)の視点エッジ統合設定画面1003では実施例1と同様に視点エッジ強調像を統合する際の合成方法が選択可能である。視点エッジ統合像を観察するとき、エッジ部分はコントラストが強調されている方が良いが、エッジ以外の部分については、ピント位置の像に見た目が近い方が観察しやすい(不自然さが小さい)。そのような画像を得たい場合には、視点エッジ統合設定画面1003ではガウスぼけのような、元の光学系の3次元ぼけに近い重み付けの設定を選択すると良い。
生成された視点エッジ統合像は、図8の画像表示処理ステップS804により、ウィンドウ700の右側領域702に表示される。
可変にしても良い。また、本実施例を用いて生成した強調画像を、公知の診断支援アルゴリズムに入力することで、実施例1と同様、N/C比等の定量評価値の算出精度を高める効果を実現できる。
本実施例では、Zスタック画像から事前に計算する視点を求めることで、エッジの抽出や強調をより効果的に行うとともに、計算負荷低減を図る方法について述べる。
これまでの実施例1、2では、視点分解設定(図10(a)参照)においてユーザが計算する視点の位置を設定する方法について説明した。しかし、事前に元画像に含まれるエッジの方向が分かるならば、よりエッジが抽出しやすい視点を決定することが出来る。そこで本実施例では、Zスタック画像を解析することにより元画像に含まれるエッジの方向を推定し、その推定されたエッジの方向に基づいて、視点画像を生成すべき視点を決定する。これにより、エッジの抽出や強調をより効果的に行うことができるとともに、計算する視点画像の数を減らすことで計算負荷の低減を期待できる。
視点決定処理ステップS1501では、図8のZスタック画像取得ステップS801で取得したZスタック画像を解析し、観察に適した視点を決定する。以降の視点画像生成ステップS1502以降の処理は図9の同一名称の処理と同様の為、説明を省略する。
代表画像取得ステップS1601ではZスタック画像から代表画像を取得する。続いて、視点選定処理ステップS1602では代表画像の中に存在する抽出・強調したい画像のエッジの方向を推定(検出)し、それを元に観察に適した視点の位置を選定する。
また全焦点画像の生成は、特許文献1の手法を用いて視線方向を光軸方向に合わせた視点画像を生成することで可能である。それ以外にも、Zスタック画像から奥行き方向の画素値の変化が大きい画素を選択し統合する選択的統合法など、様々な公知技術が適用可能である。
またZスタック画像を格納するフォーマットに既に縮小画像が存在する場合には、代表画像として、その縮小画像を用いても良い。例えばZスタック画像の各々がJPEG2000により圧縮符号化されている場合、Zスタック画像のそれぞれに離散ウェーブレット変換が施されている。そのため、離散ウェーブレット変換の低周波画像成分を取得し、画像を生成すると代表画像生成の計算負荷が低減できる。
2値化処理ステップS1701では、代表画像に対して2値化処理を行い、2値化画像を求める。2値化処理としては、固定の閾値を用いる単純な2値化処理以外にも、画像特徴に応じて閾値を決める適応的2値化処理を用いても良い。さらにエッジの検出精度を高めるために、2値化処理を行う前に、代表画像に対し実施例1で述べた様々なエッジ抽出処理を施しても良い。
続いて視点位置計算ステップS1704では、上位投票位置取得ステップS1703で取得したθ座標を元に、視点の位置(sp,tp)を計算する。はじめにθρ空間のθ座標はXY空間上の直線(エッジ)に直交する方向の角度を表すことから、θを視点の偏角θpに設定する。つぎに予め定めた視点の動径rpの値(例えば5つ)と、視点の偏角θpを用いて視点の位置を計算する。なお、視点の動径には、予め定めた固定値、又は、画素ピッチ、倍率、被写体の特徴を元に決めた値を設定する。
図19(a)は筋線維などの特定の向きの画像成分が強い領域の代表画像である。例えば、図19(a)の代表画像に対するハフ変換の結果から、エッジの直線と直交する角度は−30度と求まり、それを視点の偏角に設定する。
視点の位置は、まず予め定めた複数の視点の動径とステップS1704で求めたNa個の偏角の組合せを元に算出する。
次に、Zスタック画像から、視点の偏角を求める際に用いたハフ変換のθρ空間上の座標に対応するXY空間上の直線(エッジ)を中心とする、一定の幅Δρを持つ帯状の領域を切り出す。その結果、図19(b)に示すようなZスタック画像が得られる。次に各々の視点に対し、視点の位置から求まる視線方向(X,Y,Z)=(−s,−t,1)に沿って前述の帯状のZスタック画像を積算した積算画像を作る。そして積算画像の分散が最も大きくなる視点の位置を最終的な視点と定める。
以上の処理により、計算に用いる視点がリストアップされる。
以上、本実施例の構成によれば、観察対象領域毎に観察に適した視点を定めることが可能となり、少ない計算負荷で高精度にエッジを抽出/強調する効果が実現できる。
本実施例では、実施例3の視点選定処理とは異なる方法により、観察に適した視点の位置を求める方法を述べる。実際例3では、元画像に含まれるエッジ成分という画像特徴に基づきエッジの方向推定を行ったのに対し、本実施例では、元画像に含まれる被写体の位置関係という画像特徴に基づきエッジの方向推定を行う。
図19(a)の画像と異なり、細胞境界(破線)のエッジは弱く、実施例3で述べた方法で直接エッジを検出することは容易ではない。この場合、細胞境界は隣接する核と核の間を横切り、その細胞境界のエッジの方向は2つの核を結ぶ方向に対し概ね直交すると推定できる。よって、近接する核の中心を結ぶ方向を視線方向として選び、視点画像を計算すると細胞境界を検出できる可能性が高くなる。
図18ではまず、核領域抽出ステップS1801で、取得した代表画像から細胞核が存在する領域の抽出を行う。
一般にHE染色では核は濃青に染色される為、カラー画像の青チャネルを用いて適応的2値化処理を行い、その後、膨張・収縮を順に等しい回数ずつ行うクロージング処理等を用いて内部の穴を埋めることによって核領域の抽出が実現できる。この方法以外にも、細胞核領域の抽出には様々な公知の方法があり、いずれの方法を使用してもよい。なお、一定以下のサイズの領域は核では無くノイズと見なし除去するノイズ除去を行うことが望ましい。
続いて、重心位置算出ステップS1803では、ステップS1802で番号を割り当てた核領域に対し、それぞれの重心の位置を計算する。
ステップS1804では1番目のラベル番号を処理対象として選択する。
続いて核間距離計算ステップS1805では、処理対象のラベル番号が割り当てられた核の重心とその他のラベル番号が割り当てられた核の重心の間の距離を求める。このとき、既に距離を計算したラベル番号の組合せに対し重複計算するのを避ける為、処理対象のラベル番号以前の番号が割り当てられたラベルとの核間距離計算は省略すると良い。その場合、計算結果として以前求めた同一の組合せの核間距離計算結果を適用する。
続いて距離上位選択ステップS1807では、距離を昇順でソートした結果の上位から順に一定数Ncのラベルの組合せを選択する。例えば、観察対象である標本部位の細胞の近傍には4つの細胞が存在すると仮定すれば、Nc=4となる。
続いて、視点位置計算ステップS1809では、求めた視点の偏角から視点の位置を計算する。実施例3と同様に、予め定めた、レンズの絞り半径ra内の複数の視点の動径と決定した偏角から、視点の位置(s,t)を求める。
具体的には、まず2つの核の重心の中間位置を通り、視点の偏角に直交する直線を中心とした一定の幅Δρを持つ帯状の領域を切り出す。その結果、図19(d)に示すようなZスタック画像が得られる。このとき、核の影響を除くために核が存在しない範囲でZスタック画像を切り出すことが望ましい。
そして、各々の視点の3次元的な視線方向(X,Y,Z)=(−s,−t,1)にZスタック画像を加算した積算画像を作り、積算画像の分散が最も大きい視点を選択する。上記の処理により細胞境界の観察に適した視点を絞ることが出来る。なお、実施例3同様、先にXY平面内での視線方向に(図19(c)では細胞境界の方向に相当)にZスタック画像の帯状の領域内を積分することで、計算負荷を抑えることができる。
続いて、ステップS1811では全てのラベル番号に対して処理が終了したかを判定し、終了していない場合はステップS1812に進み、処理対象を次のラベル番号が割り振られた核領域に設定する。全てのラベル番号の処理が終了した場合には視点上位選択ステップS1813に進む。
以上で、細胞の核の位置関係に基づく視点選定処理を終了する。
本実施例の構成によれば、光学系や露出等の撮影条件の変更なしに、コントラストが弱い細胞膜や細胞境界を抽出・強調することが可能となり、医師の診断効率を高める効果が実現できる。
本実施例では実施例3,4で説明した視点決定処理S1501を用いて、観察する視点位置を自動計算し、ユーザに提示することにより、病理医の診断効率を高める方法について述べる。
本実施例では実施例1と同様に、まず画像表示アプリケーションで観察したい領域207を選択し、機能拡張メニュー208を表示する。
続いて、機能拡張メニュー208の中から自動視点画像計算(不図示)を選択すると新規ウィンドウ700が開き、左側領域701には領域207内の画像が表示され、右側領域702には計算した視点画像が表示される。その際、同時に図20の自動視点画像計算設定画面2000が表示される。
ユーザがマウスを用いて、視点画像リスト内の所望の視点を選択すると、該当する視点画像が右側領域702に表示される。
また、視点画像の表示だけでなく、視点画像に対して実施例1,2で述べたエッジ抽出や強調処理を適用した結果を表示しても良い。
本実施例では、実施例1、2の効果をより高める構成について述べる。
実施例1では、図6(b)を用いて、視点画像の特徴として、透過率が異なる標本内の物質の境界が明瞭に見える点を述べた。視点画像は、この特徴の他に、もう1つ特徴的な性質を有している。それは、視点画像では、照明の一部領域から標本を照らして得る偏斜照明の観察像のように、XY平面での視線方向に沿って変化する凹凸が強調され、標本が立体的に見える点である。視点画像では偏斜照明の像と同様、光軸方向に対して視線方向が傾くほど、即ち、視線の観察角φが大きくなるほど、標本表面の凹凸のコントラストが高くなり、標本表面が立体的に見える。
(ただし、物理的には偏斜照明の像と視点画像は異なっている。偏斜照明の像はフォーカス位置の変更に伴って光学的なぼけが発生するが、視点画像はフォーカス位置の変更によらず被写界深度は非常に深いままであるという違いがある。なお、視点画像はピントを合わせるZスタック画像のZ位置Zfによって変化するが、その変化はXY方向の平行移動で表される。)
以下、視点画像において視線方向が光軸から傾くほど、標本表面の凹凸のコントラストが高くなる理由について説明する。
組織診用の病理標本はパラフィンで固定された後、マイクロトームで均一な厚みにスライスされ、その後染色が施されている。しかし、病理標本は完全に均一ではなく、細胞と管や腔の境界、核と細胞質の間の境界などでは組織の構造や物質の成分に起因する凹凸が存在し、病理標本の表面には図21に示すような起伏のある構造が存在している。
(図21は簡易的なモデルであり、実際の標本の凹凸には図21のようにとがった部分は少ない。また図21のような凸の構造だけでなく標本内部に凹んだ構造も存在する。また表面が平らでも内部に屈折率が異なる物質が存在する場合は光学的な距離が変わるため、標本内部の屈折率の不連続は表面凹凸と見なすことができる。)
なお、実際のプレパラートでは、カバーグラスと標本の間に透明な封入剤が存在している。しかし、封入剤の屈折率と標本の屈折率の差は僅かで影響は少ないため、以降、両者の屈折率は同一として説明する。
図22は図21の2111〜2113の面での観察角φにおける散乱光の強度を示す模式図である。図22の(a)、(b)、(c)はそれぞれ平面2111、斜面2112、2113での光の散乱を示している。それぞれの面に接する円は、標本表面での光の拡散特性を完全拡散透過面と仮定した場合の散乱方向による散乱光の強度を示す。円内の太い矢印の線は光軸(Z軸)からφだけ傾けた角度から観察した場合の散乱光の強度を示している。(実際には標本表面は完全拡散透過面ではなく、光の入射方向・観察方向による強度依存性があるが、説明を簡略化するため、ここでは完全拡散透過面と仮定して説明する。)
図22の(a)、(b)、(c)において、観察方向と面の法線のなす角δはそれぞれφ、φ+α、φ−αで表せるため、それぞれの散乱光の強度は、
I0cosφ、I0cos(φ+α)、I0cos(φ−α)
となる。
なお、観察方向から見てzの値が増加する斜面(上りの斜面)では傾斜角αを正とし、Zの値が減少する斜面(下りの斜面)では傾斜角αを負とすれば、いずれの面でも散乱光の強度は、I0cos(φ−α)で表せる。
表1より、観察角φが小さいときは、傾斜角αが大きくても斜面2112、2113の間のコントラストは低いため観察しづらく、観察角φが大きくなるに従い、傾斜角αが小さくてもコントラストは大きくなり、観察しやすくなることが分かる。
図21の病理標本の表面凹凸2100の高さをH、幅をWとすると、
W=2H/tanα
の関係が成り立つ。組織診の病理標本の厚みは約4μmであり、Hを厚みの10%の0.4μmと仮定する。また、画像を観察したときに凹凸の存在が視認できる限界のコントラストCを0.1と仮定する。
表1で観察角φ=10度、20度、30度においてコントラストCが0.1以上となる最小のα(それぞれα=20度、10度、5度)から凹凸幅Wを求めた結果を表2に示す。
表2から、観察角φが大きいほど、傾斜角αの小さな凹凸でも視認しやすくなることがわかる。
表3から、コントラストCが0.1以上として観察される標本の凹凸は、観察角φが小さい場合(10度)には比較的高周波領域にあり、観察角φが大きい場合(30度)には比較的低周波領域にあることが分かる。
そのため、視点エッジ抽出(強調)処理S903では、観察角φが小さい場合は主に高周波成分(空間周波数が高い像)に対してエッジ抽出(強調)を行うとよい。一方、観察角φが大きい場合には、観察角φが小さい場合に比べて、より低い周波数成分(空間周波数が低い像)にまでエッジ抽出(強調)を行う範囲を広げるとよい。すなわち、観察角φが大きい視点画像になるほど、より低周波の側からエッジ抽出(強調)を行うとよい。これにより、視点画像の特徴にあわせて、標本表面の凹凸を効果的に抽出(または強調)できる。
図21は表面凹凸のエッジに垂直な方向(輝度変化の方向)と視点の偏角θ(θ=0)が一致した場合の図である。表面凹凸のエッジに垂直な方向とx軸とのなす角を凹凸方向角βとすると、凹凸方向角βと偏角θが一致しない場合には、表面凹凸2100を斜め方向から観察することになる。このとき、偏角θ−βの角度を持つ観察方向から見た、斜面2113とその反対方向の斜面2112の見かけ上の傾斜角α’は
で求まる。数17から、見かけ上の傾斜角α’はαより小さくなり、凹凸方向角βと偏角θの差|θ−β|によって、コントラストCが低下することが分かる。逆に言えば、凹凸方向角βと偏角θが一致する場合に最もコントラストが高くなり、表面凹凸が抽出しやすくなる。また、凹凸方向角βと偏角θの差|θ−β|が90度となるときは、コントラストCが最小(ゼロ)となる。
前述のように、視線方向の観察角φが大きいほど、より低周波の側からエッジ強調(抽出)の処理を施すことが好ましい。そこで本実施例では、観察角φの大きさに応じて、エッジ強調(抽出)の効果が得られる空間周波数の範囲が可変するよう(観察角φが大きくなるほど範囲が低周波側に広がるよう)、エッジ強調(抽出)処理のパラメータを制御する。
以下、この方法を、実施例2で述べたアンシャープマスクによるエッジ強調処理に応用した場合の具体例を説明する。
アンシャープマスク処理では、空間上で与えたぼけのMTF(Modulation Transfer Function)を表すMtfB(f)とアンシャープマスク処理結果のMTFを表すMtfU(f)の間には、以下の関係がある。
MtfU(f)=1+Amount×(1−MtfB(f))
空間上で与えるぼけが大きい程、MtfB(f)は周波数軸の原点側(低周波側)に寄り、アンシャープマスク処理結果のMtfU(f)は低周波側から大きな強調ができる。つまり、アンシャープマスク処理で用いるぼけ関数(数14のガウス関数G(X,Y))
によるぼけの広がりが大きい程、低周波側の強調を大きくすることができる。
とする。
数18のθは視点の偏角に対応し、σXおよびσYはそれぞれX軸方向とY軸方向のぼけの広がりを表す標準偏差である。
以下にσX、σYと観察角φの対応を示す。
c、σX0、σY0は所定の定数とする。σXは観察角φの関数f(φ)であればよく、上記式はあくまで一例であり、それ以外の関数を用いることも可能である。
即ち、前述のぼけ関数を用いたアンシャープマスクで視点画像を強調すると、観察角φが大きな視点画像では、より低い周波数からXθ軸方向の輝度変化がエッジ強調される。
まず視点偏角算出ステップS2501では、数3に従い、視点(s,t)より視点偏角θを算出する。
続いて、視点観察角算出ステップS2502では、数5に従い、視点(s,t)、X方向のセンサ画素ピッチ(画像のサンプリングピッチ)ΔX、およびZ方向の移動間隔(レイヤー画像の間隔)ΔZを用いて、観察角φを算出する。
続いて、フィルタ読み出し(生成)ステップS2503では、視点画像に適用するフィルタを読み出し(または生成)する。S2503ではまず、S2502で算出した観察角φを数19に代入し、σXおよびσYを求める。次にS2501で計算した偏角θとS2502で算出したσXおよびσYの値をインデックスとして、数18を用いて予め計算したぼけ関数が登録されているテーブルから、該当するぼけ関数のデータを読み出す。または、偏角θとσXおよびσYの値を数18に代入し、ぼけ関数を生成(計算)してもよい。
続いて、フィルタ処理ステップS2504では、S2503で読み出した(または計算した)ぼけ関数を用いて、数14および数13に示すアンシャープマスクによるエッジ強調処理を行い、視点エッジ強調像を生成する。
実施例2で説明したアンシャープマスクによるエッジ強調手法は、効果が高く計算負荷が小さいため広く用いられるが、画像中に含まれる高周波ノイズが目立ちやすくなる課題がある。以下、アンシャープマスクに対する高周波ノイズの抑制方法について述べる。
表1より、同じ傾斜角αでも観察角φによって観察される表面凹凸のコントラストが異なる。従って、観察角φに依存して数13の閾値Thresholdを可変にするとよい。観察角
φが大きいほど、高周波ノイズの抑制効果が大きくなるように、エッジ処理のパラメータの一つである閾値Thresholdを変更するのである。すなわち、観察角φが小さいときは閾
値Thresholdを小さく、観察角φが大きいときは閾値Thresholdを大きく設定することで、視点毎に表面凹凸とノイズを適正に分離でき、ノイズを抑制できる。
例えば、閾値Thresholdを以下の式で設定するとよい。
なお、T0は所定の定数である。
図22で説明したように、標本表面の凹凸がある場合、観察角φによって散乱光の強度が変化する。従って、数13に示す閾値処理は、色成分毎よりも輝度で計算し、差分画像のゼロおよび非ゼロの位置は各色共通化する方がよりノイズを抑えられる。
このような閾値処理を採用したアンシャープマスク処理の式を以下に記す。
添え字cは色成分を表し、Ic(X,Y),Dc(X,Y),Uc(X,Y)はそれぞれ色成分cごとの画像、差分画像、アンシャープマスク適用画像を表す。L(X,Y)は画像の色成分Ic(X,Y)から求めた輝度成分である。また、DL(X,Y)は輝度L(X,Y)とぼけ関数G(X,Y)から求めた差分画像であり、BL(X,Y)はDL(X,Y)の絶対値を閾値Thresholdと比較して求めた2値画像である。Amountは数13と
同じく、エッジ強調の程度を表す適応量である。**は2次元の畳み込み演算を表す記号である。
また別のノイズ抑制方法として、原画像にローパスフィルタを適用した後で差分画像を計算する方法の好ましい。具体的には、数21のDc(X,Y)、DL(X,Y)の計算
において
を用いる。ここでLP()は画像に対するローパスフィルタ適用を表す関数である。ローパスフィルタとしてはガウス関数など様々なぼけ関数が適用可能である。またLP()にはメディアンフィルタやεフィルタ、バイラテラルフィルタなどのノイズ低減処理を適用することも可能である。
ローパスフィルタ処理により、Dc(X,Y)、DL(X,Y)では高周波成分が抑制され、アンシャープマスク結果画像での高周波成分の強調が抑えられる。標本表面の凹凸の中でも、注目する細胞境界や細胞と管や腔との境界の凹凸は比較的構造が大きく、空間周波数が低いため、上記のローパスフィルタ処理による影響は少ない。
なお上記以外にもアンシャープマスクには種々の高周波ノイズ除去方法や改良法が提案されており、フィルタ処理ステップS2504においてそれらを適用することも本発明の範疇とする。
続いて、視点エッジ統合像生成ステップS904では視点エッジ抽出ステップS903で計算した複数の視点画像を集め、設定画面1003で指定された重み付けを用いて視点エッジ統合像を作る。この重み付けは複数の視点エッジ抽出像のうち、どの視点エッジ抽出像を重視して統合するかを表している。
重み付けを制御することで視点エッジ統合像のぼけを制御できる。その際、設定画面1003で「ガウスぼけ」を選択すると、一般的な撮像系のぼけと近い為、自然な見た目が得られる一方で、観察角φが大きくなる程、重み付けは小さくなるため、エッジ強調箇所の強度は弱まり、差が観察しづらくなる。
表1で既に示したように、観察角φが大きいほど、標本表面の凹凸が大きなコントラストで観察できる。従って、視点エッジ強調画像のうち、元の視点画像成分(数13のI(X,Y))は撮像系のぼけに近いぼけで統合し、視点エッジ強調成分(D(X,Y))は撮像系のぼけよりも強度低下を抑えて統合できれば、標本表面の凹凸が観察しやすくなる。
そこで、観察角φが大きいエッジ抽出像ほど重みを小さくして合成する方法によりエッジ統合像を生成する場合は、予め、エッジ抽出像を求める際に、観察角φが大きい視点画像ほどエッジ強調(抽出)の度合いを大きくしておくとよい。これにより、エッジ統合像の生成時に、重みとエッジ強調(抽出)の度合いとが相互にキャンセルし、エッジ強調成分の低下を抑えることができる。
ここでσは視点エッジ統合像のぼけの広がりを表す標準偏差である。
このとき、アンシャープマスクの適応量Amountを視点位置(s,t)に応じて、下記のように制御する。A0は所定の定数である。
そうすると、元の視点画像成分の重み付けは数23で示すガウスぼけとなるが、視点エッジ強調成分(D(X,Y))の重み付けは数23と数24の掛け算となり、視点位置(s,t)の部分がキャンセルされ、視点に依存しない一定の比で統合することができる。
まず、視点エッジ統合設定1003での重み付けの設定情報に基づいて、数24を用いて視点に依存した適応量Amountを求める。重み付けの設定情報とは、例えば、ガウスぼけなどの重み付けの形状を表す関数、ぼけの広がりを表す標準偏差σの値などが挙げられる。
続いて、数13あるいは数21において、視点に依存した適応量Amount(s,t)を用いて
エッジを強調する。以上により、視点エッジ統合像において原画像の雰囲気を留めつつ、エッジをより識別しやすくできる。なお、数18は一例であり、他にも様々な関数が設定可能である。
従って、フィルタ処理S2504において、数14あるいはアンシャープマスクの適用結果から原画像を減算した画像を出力すれば、エッジ抽出が実現できる。
なお、実施例1と同様、前記のエッジ抽出結果に対して絶対値や2乗値などを求めることで、さらに非線型性を高め、視点エッジ統合像におけるエッジを強めることも可能である。
以上述べたように、本実施例では視点の偏角θおよび観察角φを用いて、エッジ抽出または強調する周波数帯域、強さ、ノイズ低減条件などを制御することで、視点画像全体に対する過強調を抑え、効率的に表面に凹凸を強調することができる。その結果、表面に凹凸を持った細胞膜や細胞境界、細胞と管や腔との境界などを強調することができ、それにより診断に有用な画像の提示、N/C比の算出等の診断支援機能が実現できる。
本実施例では、被写体の撮影に用いた撮像系のぼけ関数(3次元ぼけモデル)よりも大きなぼけを持つぼけ関数(3次元ぼけモデル)を用いてエッジ強調(またはエッジ抽出)用のフィルタ生成を行い、それにより視点エッジ画像を生成する方法について述べる。
3次元ぼけ2601、2602は、ピント位置(ぼけが最も小さいZ位置)から距離Dにある所定のZ位置のぼけ半径Rを用いて、下記式のガウスぼけで表される。
3次元ぼけ2601のぼけ半径をRb1、3次元ぼけ2602のぼけ半径をRb2とすると、Rb2≧Rb1の関係にある。
像2603の積分値bs,t(X,Y)を、同一の視線方向の撮像系の3次元ぼけ2601
の積分値cs,t(X,Y)でデコンボリューションして得ることができる。(非特許文献
2の3.3節に対応する記載がある。非特許文献2の図7で示されるように、実空間情報f(X,Y,Z)にフィルタh(X,Y,Z)をコンボリューションすることで統合的撮影画像群g(X,Y,Z)が得られる関係は、視線方向への積分にかかわらず成立する。)
数式で表現すると下記のようになる。
ただし、As,t(u,v),Bs,t(u,v),Cs,t(u,v)はそれぞれas,t(X,Y),bs,t(X,Y),cs,t(X,Y)のフーリエ変換であり、u,vはそれぞれX,Y方向の変化に対応する周波数座標である。
)とし、bs,t(X,Y)をcs,t’(X,Y)でデコンボリューションして得られる画像as,t’(X,Y)の特性について考える。画像as,t’(X,Y)は下記の式で表現できる。
ただし、As,t’(u,v),Cs,t’(u,v)はそれぞれas,t’(X,Y),cs,t’(X,Y)のフーリエ変換である。
(X,Y)は共に積分値が同一なので、Es,t(u,v)の直流成分は1となる。視点や
周波数によって特性は異なるが全体としてはエッジ強調の特性を持ち、cs,t’(X,Y
)のぼけが大きくなるほど、エッジ強調の特性が強く現れる。
まず、視点取得処理ステップS2701は、エッジ強調または抽出した視点画像の生成に必要な視点の位置情報を取得する。処理内容は視点取得処理ステップS901と同様のため、説明は省略する。
次に、視点エッジ強調ステップS2702では、視点エッジ抽出設定(705)に基づき、エッジ強調処理を行う。詳細は後述する。なお、視点が複数存在する場合は、図9と同様、視点数分の処理を実行する。
最後に、視点エッジ統合像生成ステップS2703では、視点エッジ統合設定(706)に基づき、ステップS2702で生成した視点エッジ強調像を合成し、視点エッジ統合像を生成する。処理内容は視点エッジ統合像生成ステップS904と同様のため、説明は省略する。
まず、視点観察角算出ステップS2801では、数5に従い、視点(s,t)、X方向のセンサ画素ピッチ(画像のサンプリングピッチ)ΔX、およびZ方向の移動間隔(レイヤー画像の間隔)ΔZを用いて、観察角φを算出する。
次に、エッジ処理用3次元ぼけ情報算出ステップS2802では、撮影像の3次元ぼけの情報(単位距離あたりのぼけ半径rb1)とS2801で算出した観察角φを用いて、エッジ処理用の3次元ぼけの情報(単位距離あたりのぼけ半径rb2)を求める。計算方法の一例を下記に示す。
ただし、cは所定の定数である。定数cの値は、視点エッジ抽出設定画面1002でエッジ強調の強さの一部として設定することも可能である。
数30より、観察角φ(光軸方向と視線方向のなす角度)が大きくなるほど、エッジ処理用の3次元ぼけの大きさ(ぼけ半径rb2)が大きくなる。なお、撮影像の3次元ぼけの情報として、距離Dにおけるぼけ半径Rb1が入力される場合、単位距離当たりのぼけ半径rb1は、rb1=Rb1/Dで計算できる。
予め計算されたC’s,t(u,v)が記憶装置130やメインメモリ303に格納されて
いる場合は、S2802で求めたエッジ処理用の3次元ぼけの情報(rb2)とZスタック画像のレイヤー数を元に、対応するデータを読み出す。あるいは、エッジ処理用の3次元ぼけの情報(rb2)とZスタック画像のレイヤー数から3次元ぼけを計算し、視線方向への積分のフーリエ変換によってC’s,t(u,v)を求めても良い。なお、予め、記
憶装置130やメインメモリにC’s,t(u,v)−1を格納し、ステップS2803で
読み出すことで計算量を低減しても良い。
なお、画像生成装置100では様々な焦点ぼけを持つ撮影像から高速に視点画像を計算するために、複数の3次元ぼけ(例えば半径Rの異なるガウスぼけ)や複数の視点での3次元ぼけの積分値のフーリエ変換を予め計算し、記憶装置130やメインメモリ303に保持する。従って、新たにエッジ強調のためのフィルタを持つ必要がない。
いて、そのフーリエ変換Bs,t(u,v)を計算する。次に、ステップS2803で求め
たC’s,t(u,v)を用いて、数27から視点エッジ強調像のフーリエ変換であるA’s,t(u,v)を求める。最後に、A’s,t(u,v)を逆フーリエ変換することで、視点
エッジ強調像であるa’s,t(X,Y)を求める。
以上の処理により、視点の観察角φが大きくなるほど視点画像中のエッジ強調の度合いを高めた視点エッジ強調像を生成することができる。
視点観察角算出ステップS2901およびはエッジ処理用3次元ぼけ情報算出ステップS2902はそれぞれS2801、S2802と同一の処理であるため、説明を省略する。
次にフィルタ読み出し(生成)ステップS2903では、C’s,t(u,v)だけでな
く、さらに撮像系の3次元ぼけの視線方向の積分像のフーリエ変換であるCs,t(u,v
)も取得する。S2903でも、図28のS2803と同様、記憶装置130やメインメモリ303から予め計算されたデータを読み出しても良いし、計算により求めても良い。
次にエッジ強調フィルタ算出ステップS2904では、S2903で取得したCs,t(
u,v)およびC’s,t(u,v)を用いて数29の式により、エッジ強調フィルタEs,t(u,v)を算出する。
フィルタ処理ステップS2905では、ステップS902で予め計算した視点画像as,t(X,Y)に対しフーリエ変換を実施してAs,t(u,v)を求め、数28によりエッジ強調フィルタEs,t(u,v)を適用してA’s,t(u,v)を求める。最後に、A’s,t
(u,v)を逆フーリエ変換することで、視点エッジ強調像であるa’s,t(X,Y)を
求める。
タEs,t(u,v)の直流成分を0とすれば、A’s,t(u,v)の直流成分は0となる。その逆フーリエ変換であるa’s,t(X,Y)は各画素から画像平均値を引いた画像と等
しいため、エッジ抽出像と見なすことができる。
以上述べたように、本実施例では、実施例6と同様の効果が実現できる。また様々なぼけを持つZスタック画像から視点画像を高速に求めるために画像生成装置100に格納されたフィルタを活用できるため、新たにフィルタを生成する計算負荷がない(少ない)というメリットがある。またフィルタを格納するための追加の記憶容量が不要となるメリットもある。
実施例7では非特許文献2の方法に基づいて視点エッジ統合像を生成する説明をしたが、実施例8では非特許文献3の方法に基づいて視点エッジ統合像を生成することで、実施例7に比べて計算負荷を大きく低減する構成について述べる。
まず、視点取得処理ステップS3001では、ステップS802で生成する視点エッジ統合像の生成に必要な視点の位置情報を取得する。ステップS901とほぼ同様の処理であるため、説明は省略する。
ここでnはZスタック画像のn枚目のレイヤー画像を表す数字、F{}は2次元フーリエ変換を表す関数、g(n)(X,Y)はZスタック画像のn枚目のレイヤー画像である。
細は後述する。
なお、ka(s,t)は所望の3次元的な焦点ぼけha(X,Y,Z)を構成する、視点(s,t)を通る光線の重みを表す関数であり、以下の関係が成立している。
ただし、ここでA’(u,v)はZスタック画像のnf枚目(Z方向の座標がZ=Zf)における視点エッジ統合像のフーリエ変換像である。なお、予め、数32でH(n−nf)(u,v)を求めてから数34を計算しても良い。
図31は視点エッジ強調用フィルタ読み出し処理ステップS3003の内部処理を示すフローチャートである。
まず、視点観察角算出ステップS3101では、ステップS2801と同様に、視点(s,t)、X方向のセンサの画素ピッチΔX、およびZ方向の移動間隔(レイヤー画像の間隔)ΔZを用いて、数5から観察角φを計算する。既にステップS2801で説明したため詳細は省略する。
次に、エッジ処理用3次元ぼけ情報算出ステップS3102では、ステップS2802と同様、撮影像の3次元ぼけの情報(rb1)およびステップS3101で求めた観察角φを用いて数30からエッジ処理用の3次元ぼけの情報(rb2)を求める。
次に、フィルタ読み出し(生成)ステップS3103ではステップS2803と同様、記憶装置130やメインメモリ303から、ステップS3102で計算した情報(rb2)を元に、C’s,t(u,v)を取得する。ステップS2803と同様、記憶装置130
やメインメモリ303にC’s,t(u,v)−1を格納しておき、それを読み出しても良
い。その場合、ステップS3004での数32の計算を高速化することができる。既にステップS2803で説明したため詳細は省略する。
以上述べたように、本実施例では、実施例7と同様の効果が実現できる。また本実施例は実施例7に比べ、非特許文献3に記載のMFI任意視点/焦点ぼけ画像生成法を用いることで、視点エッジ統合像の計算負荷を大幅に低減できる。従って、ユーザの指示に対しより高速に所望の視点エッジ統合像が生成でき、エッジ抽出(または強調)機能の使い勝手をより一層高めることができる。
例えば、上記実施例では明視野顕微鏡で撮影されたZスタック画像を元画像として用いた場合について説明したが、本発明は、落射照明型顕微鏡、ライトフィールドカメラ、ライトフィールド顕微鏡等で撮影された画像に対しても適用可能である。
ライトフィールドカメラやライトフィールド顕微鏡は、ライトフィールドと呼ばれる4次元の情報(XYの2次元画像に視点位置の自由度を加えた情報)が記録された画像を1回の撮影で取得可能な撮像装置である。これらの装置では、本来結像面となる位置にレンズアレイが配置されており、それよりも後方のイメージセンサでライトフィールドを撮影する。ライトフィールドが記録された元画像からは、公知の技術を用いて、任意の焦点位置の画像や任意の方向から観察した視点画像を生成できる。したがって、ライトフィールドカメラやライトフィールド顕微鏡で取得した元画像に対しても本発明を好ましく適用することが可能である。
ける視点取得処理(S901)を視点決定処理(S1501)に変更することが可能である。この場合、視点は予め視点分解設定(704)等で定めた設定から決定されるのではなく、Zスタック画像を解析して自動的に決定される。
また実施例3,4において、領域が大きい場合には領域をさらに小さなブロックに分割し、ブロック毎に計算する視点の方向を異ならせても良い。細胞膜や細胞境界が湾曲する場合や核が多数存在する場合でも、エッジの抽出精度を高めることが可能となる。
Claims (27)
- 被写体を撮影して得られた元画像から、エッジが強調または抽出された画像であるエッジ画像を生成する画像生成装置において、
前記元画像から視点画像を生成する視点画像生成手段と、
前記視点画像生成手段で生成された視点画像に対し、エッジを強調または抽出するエッジ処理を適用することにより、エッジ画像を生成するエッジ処理手段と、を有する
ことを特徴とする画像生成装置。 - 前記エッジ処理は、複数の画像を合成した後にその合成画像に対して当該エッジ処理を施した結果と、前記複数の画像のそれぞれに対して当該エッジ処理を施した後にそれらのエッジ画像を合成した結果とが、一致しない性質をもつ処理である
ことを特徴とする請求項1に記載の画像生成装置。 - 前記エッジ処理手段は、視点画像の視線方向に応じて、当該視点画像に適用するエッジ処理のパラメータを変更する
ことを特徴とする請求項1または2に記載の画像生成装置。 - 前記エッジ処理手段は、視線方向に直交する方向のエッジが強調または抽出されるように、前記エッジ処理のパラメータを変更する
ことを特徴とする請求項3に記載の画像生成装置。 - 前記エッジ処理は、前記視点画像にフィルタを適用する処理であり、
前記エッジ処理手段は、前記エッジ処理のパラメータとして、前記視点画像に適用するフィルタの係数を変更する
ことを特徴とする請求項4に記載の画像生成装置。 - 前記エッジ処理手段は、前記被写体の深さ方向と視線方向のなす角度が大きいほど、エッジの強調または抽出を行う空間周波数の範囲が低周波側に広がるように、前記エッジ処理のパラメータを変更する
ことを特徴とする請求項3に記載の画像生成装置。 - 前記エッジ処理は、エッジ画像に含まれる高周波ノイズを抑制する処理を含んでおり、
前記エッジ処理手段は、前記被写体の深さ方向と視線方向のなす角度が大きいほど、高周波ノイズの抑制効果が大きくなるように、前記エッジ処理のパラメータを変更する
ことを特徴とする請求項3に記載の画像生成装置。 - 前記元画像を解析することにより前記元画像に含まれるエッジの方向を推定し、その推定されたエッジの方向に基づいて、視点画像を生成すべき視点を決定する視点決定手段をさらに有する
ことを特徴とする請求項1〜7のうちいずれか1項に記載の画像生成装置。 - 互いに視点が異なる複数の視点画像から生成された複数のエッジ画像を統合することにより、統合されたエッジ画像を生成する画像統合手段をさらに有する
ことを特徴とする請求項1〜8のうちいずれか1項に記載の画像生成装置。 - 前記画像統合手段は、前記複数のエッジ画像を重み付けして合成するものであり、
前記被写体の深さ方向と視線方向のなす角度が大きい視点画像から生成されたエッジ画像ほど、重みを小さくする
ことを特徴とする請求項9に記載の画像生成装置。 - 前記エッジ処理手段は、前記被写体の深さ方向と視線方向のなす角度が大きい視点画像ほど、エッジ強調またはエッジ抽出の度合いが大きくなるように、各エッジ画像の生成を行う
ことを特徴とする請求項10に記載の画像生成装置。 - 被写体を撮影して得られた元画像から、観察に適した視点画像を生成する画像生成装置において、
前記元画像を解析することにより前記元画像に含まれるエッジの方向を推定し、その推定されたエッジの方向に基づいて、視点画像を生成すべき視点を決定する視点決定手段と、
前記視点決定手段で決定された視点に対し、前記元画像から視点画像を生成する視点画像生成手段と、を有する
ことを特徴とする画像生成装置。 - 前記視点決定手段は、前記推定されたエッジの方向と視線方向とが直交するように、視点画像を生成すべき視点を決定する
ことを特徴とする請求項8または12に記載の画像生成装置。 - 前記視点決定手段は、前記元画像からエッジを検出し、その検出結果からエッジの方向を求める
ことを特徴とする請求項8、12、13のうちいずれか1項に記載の画像生成装置。 - 前記被写体は細胞であり、
前記視点決定手段は、前記元画像から細胞の核の位置を検出し、隣接する2つの核の位置関係に基づいて、その2つの核の間を横切る細胞境界のエッジの方向を求める
ことを特徴とする請求項8、12、13のうちいずれか1項に記載の画像生成装置。 - 被写体を撮影して得られた元画像から、観察に適した視点画像を生成する画像生成装置において、
前記元画像を解析することにより前記元画像に含まれるエッジの方向を推定し、その推定されたエッジの方向に基づいて、視点画像を生成すべき複数の視点を決定する視点決定手段と、
前記視点決定手段で決定された複数の視点に対し、前記元画像から複数の視点画像を生成する視点画像生成手段と、
前記複数の視点画像の中からユーザに2つ以上の視点画像を選択させる選択手段と、
ユーザにより選択された2つ以上の視点画像を合成する合成手段と、を有する
ことを特徴とする画像生成装置。 - 被写体を撮影して得られた元画像から、エッジが強調または抽出された画像であるエッジ画像を生成する画像生成装置において、
前記被写体に対する視線方向に応じたエッジ強調またはエッジ抽出を行うためのフィルタを生成するフィルタ生成手段と、
前記元画像と前記フィルタを用いて、エッジ画像を生成するエッジ処理手段と、を有する
ことを特徴とする画像生成装置。 - 前記フィルタは、前記元画像を撮影した撮像系のぼけ関数よりも大きなぼけをもつ、エッジ処理用のぼけ関数を用いて生成される
ことを特徴とする請求項17に記載の画像生成装置。 - 前記エッジ処理用のぼけ関数は、前記被写体の深さ方向と視線方向のなす角度が大きくなるほど、より大きなぼけをもつ
ことを特徴とする請求項18に記載の画像生成装置。 - 異なる視線方向に応じて生成された複数のエッジ画像を統合することにより、統合されたエッジ画像を生成する画像統合手段をさらに有する
ことを特徴とする請求項17〜19のうちいずれか1項に記載の画像生成装置。 - 前記元画像は、深さ方向の焦点位置を変えて前記被写体を撮影して得られた複数のレイヤー画像から構成されるZスタック画像である
ことを特徴とする請求項1〜20のうちいずれか1項に記載の画像生成装置。 - 前記元画像は、ライトフィールドが記録された画像である
ことを特徴とする請求項1〜20のうちいずれか1項に記載の画像生成装置。 - 被写体を撮影して得られた元画像から、エッジが強調または抽出された画像であるエッジ画像を生成する画像生成方法であって、
コンピュータが、前記元画像から視点画像を生成するステップと、
コンピュータが、前記生成された視点画像に対し、エッジを強調または抽出するエッジ処理を適用することにより、エッジ画像を生成するステップと、を有する
ことを特徴とする画像生成方法。 - 被写体を撮影して得られた元画像から、観察に適した視点画像を生成する画像生成方法であって、
コンピュータが、前記元画像を解析することにより前記元画像に含まれるエッジの方向を推定し、その推定されたエッジの方向に基づいて、視点画像を生成すべき視点を決定するステップと、
コンピュータが、前記決定された視点に対し、前記元画像から視点画像を生成するステップと、を有する
ことを特徴とする画像生成方法。 - 被写体を撮影して得られた元画像から、観察に適した視点画像を生成する画像生成方法であって、
コンピュータが、前記元画像を解析することにより前記元画像に含まれるエッジの方向を推定し、その推定されたエッジの方向に基づいて、視点画像を生成すべき複数の視点を決定するステップと、
コンピュータが、前記決定された複数の視点に対し、前記元画像から複数の視点画像を生成するステップと、
コンピュータが、前記複数の視点画像の中からユーザに2つ以上の視点画像を選択させるステップと、
コンピュータが、ユーザにより選択された2つ以上の視点画像を合成するステップと、を有する
ことを特徴とする画像生成方法。 - 被写体を撮影して得られた元画像から、エッジが強調または抽出された画像であるエッジ画像を生成する画像生成方法であって、
コンピュータが、前記被写体に対する視線方向に応じたエッジ強調またはエッジ抽出を行うためのフィルタを生成するステップと、
コンピュータが、前記元画像と前記フィルタを用いて、エッジ画像を生成するステップ
と、を有する
ことを特徴とする画像生成方法。 - 請求項23〜26のうちいずれか1項に記載の画像生成方法の各ステップをコンピュータに実行させることを特徴とするプログラム。
Priority Applications (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013188641A JP6362062B2 (ja) | 2012-12-07 | 2013-09-11 | 画像生成装置および画像生成方法 |
PCT/JP2013/082650 WO2014088048A1 (en) | 2012-12-07 | 2013-11-28 | Image generating apparatus and image generating method |
EP13811016.8A EP2929508A1 (en) | 2012-12-07 | 2013-11-28 | Image generating apparatus and image generating method |
PCT/JP2013/082652 WO2014088049A1 (en) | 2012-12-07 | 2013-11-28 | Image generating apparatus and image generating method |
EP13811015.0A EP2929507A1 (en) | 2012-12-07 | 2013-11-28 | Image generating apparatus and image generating method |
US14/649,181 US9881373B2 (en) | 2012-12-07 | 2013-11-28 | Image generating apparatus and image generating method |
US14/649,330 US20150310613A1 (en) | 2012-12-07 | 2013-11-28 | Image generating apparatus and image generating method |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012268173 | 2012-12-07 | ||
JP2012268173 | 2012-12-07 | ||
JP2013188641A JP6362062B2 (ja) | 2012-12-07 | 2013-09-11 | 画像生成装置および画像生成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014132433A true JP2014132433A (ja) | 2014-07-17 |
JP6362062B2 JP6362062B2 (ja) | 2018-07-25 |
Family
ID=51411482
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013188641A Active JP6362062B2 (ja) | 2012-12-07 | 2013-09-11 | 画像生成装置および画像生成方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6362062B2 (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016184224A (ja) * | 2015-03-25 | 2016-10-20 | 株式会社日立ハイテクノロジーズ | 細胞診断支援装置、細胞診断支援方法、遠隔診断支援システム、サービス提供システム、及び画像処理方法 |
WO2018056417A1 (ja) * | 2016-09-23 | 2018-03-29 | 株式会社アーステクニカ | 選別装置及び選別方法 |
US10055829B2 (en) | 2015-10-15 | 2018-08-21 | Samsung Electronics Co., Ltd. | Method of measuring thickness, method of processing image and electronic system performing the same |
JP2019017301A (ja) * | 2017-07-18 | 2019-02-07 | 国立大学法人大阪大学 | 力計測方法及び力計測装置 |
JP2021117886A (ja) * | 2020-01-29 | 2021-08-10 | 株式会社Screenホールディングス | 画像処理装置、画像処理システムおよび画像処理方法 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008017303A (ja) * | 2006-07-07 | 2008-01-24 | Toyota Motor Corp | 画像表示装置 |
JP2009543458A (ja) * | 2006-07-07 | 2009-12-03 | イーストマン コダック カンパニー | スミア補正の微分フィルタリングを有するプリンタ |
JP2010066156A (ja) * | 2008-09-11 | 2010-03-25 | Nikon Corp | 形状測定装置 |
JP2010134768A (ja) * | 2008-12-05 | 2010-06-17 | Tokyo Univ Of Science | 画像特徴合成動画生成装置、画像特徴合成動画生成方法、及びプログラム |
JP2011055467A (ja) * | 2009-08-07 | 2011-03-17 | Sharp Corp | 撮像画像処理システム、画像出力方法、プログラムおよび記録媒体 |
JP2011065339A (ja) * | 2009-09-16 | 2011-03-31 | Pioneer Electronic Corp | 画像処理装置、画像処理方法、画像処理プログラム、及び、記憶媒体 |
JP2012203847A (ja) * | 2011-03-28 | 2012-10-22 | Tokyo Univ Of Science | 画質改善画像生成装置、画像の画質改善方法、及びプログラム |
JP2012205111A (ja) * | 2011-03-25 | 2012-10-22 | Casio Comput Co Ltd | 撮像装置 |
JP2012209806A (ja) * | 2011-03-30 | 2012-10-25 | Canon Inc | 画像処理装置、撮像システム、画像処理システム |
JP2012216992A (ja) * | 2011-03-31 | 2012-11-08 | Casio Comput Co Ltd | 画像再構成装置、画像再構成方法、及び画像再構成プログラム |
-
2013
- 2013-09-11 JP JP2013188641A patent/JP6362062B2/ja active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008017303A (ja) * | 2006-07-07 | 2008-01-24 | Toyota Motor Corp | 画像表示装置 |
JP2009543458A (ja) * | 2006-07-07 | 2009-12-03 | イーストマン コダック カンパニー | スミア補正の微分フィルタリングを有するプリンタ |
JP2010066156A (ja) * | 2008-09-11 | 2010-03-25 | Nikon Corp | 形状測定装置 |
JP2010134768A (ja) * | 2008-12-05 | 2010-06-17 | Tokyo Univ Of Science | 画像特徴合成動画生成装置、画像特徴合成動画生成方法、及びプログラム |
JP2011055467A (ja) * | 2009-08-07 | 2011-03-17 | Sharp Corp | 撮像画像処理システム、画像出力方法、プログラムおよび記録媒体 |
JP2011065339A (ja) * | 2009-09-16 | 2011-03-31 | Pioneer Electronic Corp | 画像処理装置、画像処理方法、画像処理プログラム、及び、記憶媒体 |
JP2012205111A (ja) * | 2011-03-25 | 2012-10-22 | Casio Comput Co Ltd | 撮像装置 |
JP2012203847A (ja) * | 2011-03-28 | 2012-10-22 | Tokyo Univ Of Science | 画質改善画像生成装置、画像の画質改善方法、及びプログラム |
JP2012209806A (ja) * | 2011-03-30 | 2012-10-25 | Canon Inc | 画像処理装置、撮像システム、画像処理システム |
JP2012216992A (ja) * | 2011-03-31 | 2012-11-08 | Casio Comput Co Ltd | 画像再構成装置、画像再構成方法、及び画像再構成プログラム |
Non-Patent Citations (1)
Title |
---|
児玉和也,久保田彰: "単一のレンズ系からの多様なボケ味の生成", 映像情報メディア学会誌, vol. 65, no. 3, JPN6018004553, 1 June 2011 (2011-06-01), JP, pages 372 - 381, ISSN: 0003736080 * |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016184224A (ja) * | 2015-03-25 | 2016-10-20 | 株式会社日立ハイテクノロジーズ | 細胞診断支援装置、細胞診断支援方法、遠隔診断支援システム、サービス提供システム、及び画像処理方法 |
US10453192B2 (en) | 2015-03-25 | 2019-10-22 | Hitachi High-Technologies Corporation | Cytologic diagnosis support apparatus, cytologic diagnosis support method, remote diagnosis support system, service providing system, and image processing method |
US10055829B2 (en) | 2015-10-15 | 2018-08-21 | Samsung Electronics Co., Ltd. | Method of measuring thickness, method of processing image and electronic system performing the same |
WO2018056417A1 (ja) * | 2016-09-23 | 2018-03-29 | 株式会社アーステクニカ | 選別装置及び選別方法 |
KR20190086436A (ko) * | 2016-09-23 | 2019-07-22 | 가부시키가이샤 아-스 테크니카 | 선별장치 및 선별방법 |
JPWO2018056417A1 (ja) * | 2016-09-23 | 2019-08-29 | 株式会社アーステクニカ | 選別装置及び選別方法 |
EP3517933A4 (en) * | 2016-09-23 | 2020-04-22 | Kabushiki Kaisha Earthtechnica | SORTING DEVICE AND SORTING METHOD |
KR102242948B1 (ko) * | 2016-09-23 | 2021-04-21 | 가부시키가이샤 아-스 테크니카 | 선별장치 및 선별방법 |
JP2019017301A (ja) * | 2017-07-18 | 2019-02-07 | 国立大学法人大阪大学 | 力計測方法及び力計測装置 |
JP2021117886A (ja) * | 2020-01-29 | 2021-08-10 | 株式会社Screenホールディングス | 画像処理装置、画像処理システムおよび画像処理方法 |
JP7431592B2 (ja) | 2020-01-29 | 2024-02-15 | 株式会社Screenホールディングス | 画像処理装置、画像処理システムおよび画像処理方法 |
Also Published As
Publication number | Publication date |
---|---|
JP6362062B2 (ja) | 2018-07-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9881373B2 (en) | Image generating apparatus and image generating method | |
US20150279033A1 (en) | Image data generating apparatus and image data generating method | |
Forster et al. | Complex wavelets for extended depth‐of‐field: A new method for the fusion of multichannel microscopy images | |
KR20210113236A (ko) | 병리학 시료의 자동화된 이미징 및 분석을 위한 컴퓨터 사용 현미경 검사 기반의 시스템 및 방법 | |
JP6362062B2 (ja) | 画像生成装置および画像生成方法 | |
JP6791245B2 (ja) | 画像処理装置、画像処理方法及び画像処理プログラム | |
Piccinini et al. | Extended depth of focus in optical microscopy: Assessment of existing methods and a new proposal | |
US20210049338A1 (en) | System, method, and computer-accessible medium for processing brain images and extracting neuronal structures | |
US8064679B2 (en) | Targeted edge detection method and apparatus for cytological image processing applications | |
Boorboor et al. | Visualization of neuronal structures in wide-field microscopy brain images | |
IL280503B (en) | A focus with extended and increased depth on biological samples | |
JP2023542619A (ja) | 試料のデジタル画像の品質管理のためのコンピュータ実装方法 | |
JP2015057682A (ja) | 画像生成装置および画像生成方法 | |
Shaw et al. | Optical mesoscopy, machine learning, and computational microscopy enable high information content diagnostic imaging of blood films | |
Merchant et al. | Three-dimensional imaging | |
Teranikar et al. | Correcting anisotropic intensity in light sheet images using dehazing and image morphology | |
Lobachev et al. | Compensating anisotropy in histological serial sections with optical flow-based interpolation. | |
Shuvo et al. | Multi-focus image fusion for confocal microscopy using u-net regression map | |
JP2015191362A (ja) | 画像データ生成装置および画像データ生成方法 | |
WO2021100328A1 (ja) | 画像処理方法、画像処理装置および画像処理システム | |
Garud et al. | Volume visualization approach for depth-of-field extension in digital pathology | |
JP2013188361A (ja) | 画像処理装置 | |
Intarapanich et al. | Fast processing of microscopic images using object-based extended depth of field | |
JP2010025758A (ja) | 画像処理装置および画像処理方法 | |
Zhang et al. | Multifocus image fusion and depth reconstruction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160907 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171121 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171218 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180213 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180411 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180522 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180619 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6362062 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |