JP2013152699A - 画像処理装置、画像処理システム、画像処理方法およびプログラム - Google Patents

画像処理装置、画像処理システム、画像処理方法およびプログラム Download PDF

Info

Publication number
JP2013152699A
JP2013152699A JP2012219498A JP2012219498A JP2013152699A JP 2013152699 A JP2013152699 A JP 2013152699A JP 2012219498 A JP2012219498 A JP 2012219498A JP 2012219498 A JP2012219498 A JP 2012219498A JP 2013152699 A JP2013152699 A JP 2013152699A
Authority
JP
Japan
Prior art keywords
annotation
image
display
annotations
added
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012219498A
Other languages
English (en)
Other versions
JP6091137B2 (ja
Inventor
Takuya Tsujimoto
卓哉 辻本
Masanori Sato
正規 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012219498A priority Critical patent/JP6091137B2/ja
Priority to US14/355,267 priority patent/US20140292814A1/en
Priority to PCT/JP2012/007914 priority patent/WO2013099124A1/en
Priority to CN201280063832.7A priority patent/CN103999119A/zh
Publication of JP2013152699A publication Critical patent/JP2013152699A/ja
Application granted granted Critical
Publication of JP6091137B2 publication Critical patent/JP6091137B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Abstract

【課題】関心領域に多数のアノテーションが密集している場合にも、ユーザーがそれぞれのアノテーションを容易に判別することができるようにするための技術を提供すること。
【解決手段】画像処理装置は、被写体の画像のデータと該画像に付加された複数のアノテーションのデータとを取得する取得手段と、前記画像を前記アノテーションと共に表示装置に表示する表示制御手段と、を備える。前記複数のアノテーションのデータは、各アノテーションが付加されている画像中の位置を示す位置情報と、各アノテーションを画像に付加したユーザーの情報と、を含む。前記表示制御手段は、前記複数のアノテーションのうちの一部または全部をグループ化して、且つ、前記複数のアノテーションが異なるユーザーによって付加されたものである場合に、ユーザー毎にアノテーションの表示形態を異ならせて、該複数のアノテーションを前記画像の上に重ねて表示する。
【選択図】図7

Description

本発明は、画像処理装置、画像処理システム、画像処理方法、およびプログラムに関する。
近年、病理分野において、病理診断のツールである光学顕微鏡の代替として、プレパラートに載置された被検試料(検体)の撮像と画像のデジタル化によってディスプレイ上での病理診断を可能とするバーチャルスライドシステムが注目を集めている。バーチャルスライドシステムを用いた病理診断画像のデジタル化により、従来の被検試料の光学顕微鏡像をデジタルデータとして取り扱うことが可能となる。その結果、遠隔診断の迅速化、デジタル画像を用いた患者への説明、希少症例の共有化、教育・実習の効率化、などのメリットが得られると期待されている。
光学顕微鏡と同等程度の操作をバーチャルスライドシステムで実現するためには、プレパラート上の被検試料全体をデジタル化する必要がある。被検試料全体のデジタル化により、バーチャルスライドシステムで作成したデジタルデータをPC(Personal Computer)
やワークステーション上で動作するビューワソフトで観察することができる。被検試料全体をデジタル化した場合の画素数は、通常、数億画素から数十億画素と非常に大きなデータ量となる。バーチャルスライドシステムで作成したデータ量は膨大であるが、それゆえ、ビューワで拡大・縮小処理を行うことでミクロ(細部拡大像)からマクロ(全体俯瞰像)まで観察することが可能となり、種々の利便性を提供する。必要な情報を予めすべて取得しておくことで、低倍画像から高倍画像までユーザーが求める解像度・倍率による即時の表示が可能となる。
なお、文書データに付加されたアノテーションの作成者を判別可能とした文書管理装置が提案されている(特許文献1)。
特開平11−25077号公報
バーチャルスライド画像に複数のユーザーがアノテーションを付加した場合には、関心領域(注目部位)に多数のアノテーションが付加されることになる。その結果、関心領域に密集している多数のアノテーションをディスプレイ上に表示させても、それぞれのアノテーションを判別することは非常に難しい。
それぞれのアノテーションがどのユーザーによって付加されたものかを判別することは特に難しく、たとえ色分けされていたとしても、同一の関心領域または同一の位置に複数のアノテーションが付加されると、それを判別することは難しい。
そこで、本発明は、関心領域に多数のアノテーションが密集している場合にも、ユーザーがそれぞれのアノテーションを容易に判別することができるようにするための技術を提供することを目的とする。
本発明に係る画像処理装置は、被写体の画像のデータと該画像に付加された複数のアノ
テーションのデータとを取得する取得手段と、前記画像を前記アノテーションと共に表示装置に表示する表示制御手段と、を備え、前記複数のアノテーションのデータは、各アノテーションが付加されている画像中の位置を示す位置情報と、各アノテーションを画像に付加したユーザーの情報と、を含み、前記表示制御手段は、前記複数のアノテーションのうちの一部または全部をグループ化して、且つ、前記複数のアノテーションが異なるユーザーによって付加されたものである場合に、ユーザー毎にアノテーションの表示形態を異ならせて、該複数のアノテーションを前記画像の上に重ねて表示する。
本発明に係る画像処理システムは、本発明に係る画像処理装置と、前記画像処理装置から出力される画像およびアノテーションを表示する表示装置と、を備える。
本発明に係る画像処理方法は、コンピュータが、被写体の画像のデータと該画像に付加された複数のアノテーションのデータとを取得する取得ステップと、コンピュータが、前記画像を前記アノテーションと共に表示装置に表示する表示ステップと、を有し、前記複数のアノテーションのデータは、各アノテーションが付加されている画像中の位置を示す位置情報と、各アノテーションを画像に付加したユーザーの情報と、を含み、前記表示ステップでは、前記複数のアノテーションのうちの一部または全部をグループ化して、且つ、前記複数のアノテーションが異なるユーザーによって付加されたものである場合に、ユーザー毎にアノテーションの表示形態を異ならせて、該複数のアノテーションを前記画像の上に重ねて表示する。
本発明に係るプログラムは、本発明に係る画像処理方法の各工程をコンピュータに実行させるプログラムである。
関心領域に多数のアノテーションが密集している場合にも、ユーザーがそれぞれのアノテーションを容易に判別することができるように、画像およびアノテーションを画面表示することができる。
第1実施形態の画像処理システムの装置構成の全体図。 第1実施形態の画像処理システムにおける撮像装置の機能ブロック図。 画像処理装置の機能ブロック図。 画像処理装置のハードウェア構成図。 異なる倍率毎に予め用意する階層画像の概念を説明する図。 アノテーション付加および提示の流れを示すフローチャート。 アノテーション付加の詳細な流れを示すフローチャート。 アノテーション提示の詳細な流れを示すフローチャート。 画像処理システムの表示画面の一例。 アノテーションデータリストの構成の一例。 第2実施形態の画像処理システムの装置構成の全体図。 アノテーションのグルーピングの処理の流れを示すフローチャート。 第2実施形態の画像処理システムの表示画面の一例。 第3実施形態のアノテーションデータリストの構成の一例。 第3実施形態のアノテーション付加の流れを示すフローチャート。 自動診断処理の流れの一例を示すフローチャート。
[第1の実施形態]
本発明の画像処理装置は、撮像装置と表示装置を備えた画像処理システムにおいて用い
ることができる。この画像処理システムについて、図1を用いて説明する。
(画像処理システムの装置構成)
図1は、本発明の画像処理装置を用いた画像処理システムであり、撮像装置(顕微鏡装置、またはバーチャルスライドスキャナ)101、画像処理装置102、表示装置103から構成され、撮像対象となる検体(被検試料)の二次元画像を取得し表示する機能を有するシステムである。撮像装置101と画像処理装置102との間は、専用もしくは汎用I/Fのケーブル104で接続され、画像処理装置102と表示装置103の間は、汎用のI/Fのケーブル105で接続される。
撮像装置101は、二次元の平面方向に位置の異なる複数枚の二次元画像を撮像し、デジタル画像を出力する機能を持つバーチャルスライド装置を用いることができる。二次元画像の取得にはCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子が用いられる。なお、バーチャルスライド装置の代わりに、通常の光学顕微鏡の接眼部にデジタルカメラを取り付けたデジタル顕微鏡装置により、撮像装置101を構成することもできる。
画像処理装置102は、撮像装置101から取得した複数枚の原画像データから、表示装置103に表示するデータを、原画像データをもとにユーザーからの要求に応じて生成する機能等を持つ装置である。画像処理装置102は、CPU(中央演算処理装置)、RAM、記憶装置、操作部を含む各種I/Fなどのハードウェア資源を備えた、汎用のコンピュータやワークステーションで構成される。記憶装置は、ハードディスクドライブなどの大容量情報記憶装置であり、後述する各処理を実現するためのプログラムやデータ、OS(オペレーティングシステム)などが格納されている。上述した各機能は、CPUが記憶装置からRAMに必要なプログラムおよびデータをロードし、当該プログラムを実行することにより実現されるものである。操作部は、キーボードやマウスなどにより構成され、操作者が各種の指示を入力するために利用される。
表示装置103は、画像処理装置102が演算処理した結果である観察用画像を表示するディスプレイであり、CRTや液晶ディスプレイ等により構成される。
図1の例では、撮像装置101と画像処理装置102と表示装置103の3つの装置により撮像システムが構成されているが、本発明の構成はこの構成に限定されるものではない。例えば、表示装置と一体化した画像処理装置を用いてもよいし、画像処理装置の機能を撮像装置に組み込んでもよい。また撮像装置、画像処理装置、表示装置の機能を1つの装置で実現することもできる。また逆に、画像処理装置等の機能を分割して複数の装置によって実現してもよい。
(撮像装置の機能構成)
図2は、撮像装置101の機能構成を示すブロック図である。
撮像装置101は、概略、照明ユニット201、ステージ202、ステージ制御ユニット205、結像光学系207、撮像ユニット210、現像処理ユニット219、プレ計測ユニット220、メイン制御系221、データ出力部222から構成される。
照明ユニット201は、ステージ202上に配置されたプレパラート206に対して均一に光を照射する手段であり、光源、照明光学系、および光源駆動の制御系から構成される。ステージ202は、ステージ制御ユニット205によって駆動制御され、XYZの三軸方向への移動が可能である。プレパラート206は、観察対象となる組織の切片や塗抹した細胞をスライドグラス上に貼り付け、封入剤とともにカバーグラスの下に固定した部材である。
ステージ制御ユニット205は、駆動制御系203とステージ駆動機構204から構成
される。駆動制御系203は、メイン制御系221の指示を受け、ステージ202の駆動制御を行う。ステージ202の移動方向、移動量などは、プレ計測ユニット220によって計測した検体の位置情報および厚み情報(距離情報)と、必要に応じてユーザーからの指示とに基づいて決定される。ステージ駆動機構204は、駆動制御系203の指示に従い、ステージ202を駆動する。
結像光学系207は、プレパラート206の検体の光学像を撮像センサ208へ結像するためのレンズ群である。
撮像ユニット210は、撮像センサ208とアナログフロントエンド(AFE)209から構成される。撮像センサ208は、二次元の光学像を光電変換によって電気的な物理量へ変える一次元もしくは二次元のイメージセンサであり、例えば、CCDやCMOSデバイスが用いられる。一次元センサの場合、走査方向へスキャンすることで二次元画像が得られる。撮像センサ208からは、光の強度に応じた電圧値をもつ電気信号が出力される。撮像画像としてカラー画像が所望される場合は、例えば、Bayer配列のカラーフィルタが取り付けられた単板のイメージセンサを用いればよい。撮像ユニット210は、ステージ202がXY軸方向に移動することにより、検体の分割画像を撮像する。
AFE209は、撮像センサ208から出力されたアナログ信号をデジタル信号へ変換する回路である。AFE209は後述するH/Vドライバ、CDS(Correlated double sampling)、アンプ、AD変換器およびタイミングジェネレータによって構成される。H/Vドライバは、撮像センサ208を駆動するための垂直同期信号および水平同期信号を、センサ駆動に必要な電位に変換する。CDSは、固定パターンのノイズを除去する二重相関サンプリング回路である。アンプは、CDSでノイズ除去されたアナログ信号のゲインを調整するアナログアンプである。AD変換器は、アナログ信号をデジタル信号に変換する。撮像装置最終段での出力が8ビットの場合、後段の処理を考慮して、AD変換器はアナログ信号を10ビットから16ビット程度に量子化されたデジタルデータへ変換し、出力する。変換されたセンサ出力データはRAWデータと呼ばれる。RAWデータは後段の現像処理ユニット219で現像処理される。タイミングジェネレータは、撮像センサ208のタイミングおよび後段の現像処理ユニット219のタイミングを調整する信号を生成する。
撮像センサ208としてCCDを用いる場合、上記AFE209は必須となるが、デジタル出力可能なCMOSイメージセンサの場合は、上記AFE209の機能をセンサに内包することになる。また、不図示ではあるが、撮像センサ208の制御を行う撮像制御部が存在し、撮像センサ208の動作制御や、シャッタースピード、フレームレートやROI(Region Of Interest)など動作タイミングや制御を合わせて行う。
現像処理ユニット219は、黒補正部211、ホワイトバランス調整部212、デモザイキング処理部213、画像合成処理部214、解像度変換処理部215、フィルタ処理部216、γ補正部217および圧縮処理部218から構成される。黒補正部211は、RAWデータの各画素から、遮光時に得られた黒補正データを減算する処理を行う。ホワイトバランス調整部212は、照明ユニット201の光の色温度に応じて、RGB各色のゲインを調整することによって、望ましい白色を再現する処理を行う。具体的には、黒補正後のRAWデータに対しホワイトバランス補正用データが加算される。単色の画像を取り扱う場合にはホワイトバランス調整処理は不要となる。現像処理ユニット219は、撮像ユニット210で撮像された検体の分割画像データから後述する階層画像データを生成する。
デモザイキング処理部213は、Bayer配列のRAWデータから、RGB各色の画像データを生成する処理を行う。デモザイキング処理部213は、RAWデータにおける
周辺画素(同色の画素と他色の画素を含む)の値を補間することによって、注目画素のRGB各色の値を計算する。またデモザイキング処理部213は、欠陥画素の補正処理(補間処理)も実行する。なお、撮像センサ208がカラーフィルタを有しておらず、単色の画像が得られている場合、デモザイキング処理は不要となる。
画像合成処理部214は、撮像センサ208によって撮像範囲を分割して取得した画像データをつなぎ合わせて所望の撮像範囲の大容量画像データを生成する処理を行う。一般に、既存のイメージセンサによって一回の撮像で取得できる撮像範囲より検体の存在範囲が広いため、一枚の二次元画像データを、分割された画像データのつなぎ合わせによって生成する。例えば、0.25μmの分解能でプレパラート206上の10mm角の範囲を撮像すると仮定した場合、一辺の画素数は10mm/0.25μmの4万画素となり、トータルの画素数はその二乗である16億画素となる。10M(1000万)の画素数を持つ撮像センサ208を用いて16億画素の画像データを取得するには、16億/1000万の160個に領域を分割して撮像を行う必要がある。なお、複数の画像データをつなぎ合わせる方法としては、ステージ202の位置情報に基づいて位置合わせをしてつなぐ方法や、複数の分割画像の対応する点または線を対応させてつなぐ方法、分割画像データの位置情報に基づいてつなぐ方法などがある。つなぎ合わせの際、0次補間、線形補間、高次補間等の補間処理により滑らかにつなげることができる。本実施の形態では、一枚の大容量画像の生成を想定しているが、画像処理装置102の機能として、分割取得された画像を表示データの生成時につなぎ合わせる構成をとってもよい。
解像度変換処理部215は、画像合成処理部214で生成された大容量の二次元画像を高速に表示するために、表示倍率に応じた倍率画像を予め解像度変換によって生成する処理を行う。低倍から高倍まで複数の段階の画像データを生成し、ひとまとめにした階層構造を持つ画像データとして構成する。詳細については図5を用いて後述する。
フィルタ処理部216は、画像に含まれる高周波成分の抑制、ノイズ除去、解像感強調を実現するデジタルフィルタである。γ補正部217は、一般的な表示デバイスの階調表現特性に合わせて、画像に逆特性を付加する処理を実行したり、高輝度部の階調圧縮や暗部処理によって人間の視覚特性に合わせた階調変換を実行したりする。本実施形態では形態観察を目的とした画像取得のため、後段の合成処理や表示処理に適した階調変換が画像データに対して適用される。
圧縮処理部218は、大容量の二次元画像データの伝送の効率化および保存する際の容量削減が目的で行われる圧縮の符号化処理である。静止画像の圧縮手法として、JPEG(Joint Photographic Experts Group)、JPEGを改良、進化させたJPEG2000やJPEG XR等の規格化された符号化方式が広く一般に知られている。
プレ計測ユニット220は、プレパラート206上の検体の位置情報、所望の焦点位置までの距離情報、および検体厚みに起因する光量調整用のパラメータを算出するための事前計測を行うユニットである。本計測(撮像画像データの取得)の前にプレ計測ユニット220によって情報を取得することで、無駄のない撮像を実施することが可能となる。二次元平面の位置情報取得には、撮像センサ208より解像力の低い二次元撮像センサが用いられる。プレ計測ユニット220は、取得した画像から検体のXY平面上での位置を把握する。距離情報および厚み情報の取得には、レーザー変位計やシャックハルトマン方式の計測器が用いられる。
メイン制御系221は、これまで説明してきた各種ユニットの制御を行う機能である。メイン制御系221および現像処理ユニット219の制御機能は、CPUとROMとRAMを有する制御回路により実現される。すなわち、ROM内にプログラムおよびデータが格納されており、CPUがRAMをワークメモリとして使いプログラムを実行することで
、メイン制御系221および現像処理ユニット219の機能が実現される。ROMには例えばEEPROMやフラッシュメモリなどのデバイスが用いられ、RAMには例えばDDR3などのDRAMデバイスが用いられる。なお、現像処理ユニット219の機能を専用のハードウェアデバイスとしてASIC化したもので置き換えてもよい。
データ出力部222は、現像処理ユニット219によって生成されたRGBのカラー画像を画像処理装置102に送るためのインターフェースである。撮像装置101と画像処理装置102とは、光通信のケーブルにより接続される。あるいは、USBやGigabitEthernet(登録商標)等の汎用インターフェースが使用される。
(画像処理装置の機能構成)
図3は、本実施形態の画像処理装置102の機能構成を示すブロック図である。
画像処理装置102は、概略、画像データ取得部301、記憶保持部(メモリ)302、ユーザー入力情報取得部303、表示装置情報取得部304、アノテーションデータ生成部305、ユーザー情報取得部306、時刻情報取得部307、アノテーションデータリスト308、表示データ生成制御部309、表示画像データ取得部310、表示データ生成部311、および表示データ出力部312から構成される。
画像データ取得部301は、撮像装置101で撮像された画像データを取得する。ここで言う画像データは、検体を分割して撮像することにより得られたRGBのカラーの分割画像データ、分割画像データを合成した一枚の二次元画像データ、および二次元画像データをもとに表示倍率毎に階層化された画像データの少なくとも何れかである。なお、分割画像データはモノクロの画像データでもよい。
記憶保持部302は、画像データ取得部301を介して外部装置から取得した画像データを取り込み、記憶、保持する。
ユーザー入力情報取得部303は、マウスやキーボード等の操作部を介して、画像診断を行う際に用いる表示アプリケーションへの入力情報を取得する。表示アプリケーションの操作には、例えば、表示位置変更や拡大・縮小表示などの表示画像データの更新指示や、関心領域に対する注釈であるアノテーションの付加等がある。また、ユーザー入力情報取得部303は、ユーザーの登録情報や画像診断時のユーザー選択結果を取得する。
表示装置情報取得部304は、表示装置103が保有するディスプレイの表示エリア情報(画面解像度)の他、現在表示されている画像の表示倍率の情報を取得する。
アノテーションデータ生成部305は、全体画像内の位置座標、表示倍率、アノテーションとして付加されたテキスト情報、および本実施形態の特徴であるユーザー情報をアノテーションデータリストとして生成する。リストの生成には、ユーザー入力情報取得部303および表示装置情報取得部304で得られた表示画面内の位置情報、表示倍率情報、アノテーションとして付加されたテキスト入力情報、後述するユーザー情報とアノテーションを付加した時刻の情報が使われる。詳細は図7を用いて後述する。
ユーザー情報取得部306は、アノテーションを付加したユーザーを識別するためのユーザー情報を取得する。ユーザー情報は、画像処理装置102上で動作する診断画像を閲覧するための表示アプリケーションへのログインIDによって判断される。または、予め登録されているユーザー情報から、使用者を選択することでも取得することができる。
時刻情報取得部307は、アノテーションが付加された日付、時刻を、画像処理装置102が保有する時計、またはネットワーク上の時計から日時情報として取得する。
アノテーションデータリスト308は、アノテーションデータ生成部305で生成されたアノテーションの各種情報をリスト化した参照テーブルである。リストの構成については図10を用いて説明する。
表示データ生成制御部309は、ユーザー入力情報取得部303で取得したユーザーからの指示に従い表示データの生成を制御する表示制御手段である。表示データは主に、画像データとアノテーション表示データからなる。
表示画像データ取得部310は、表示データ生成制御部309の制御に従い、表示に必要な画像データを記憶保持部302から取得する。
表示データ生成部311は、アノテーションデータ生成部305で生成されたアノテーションデータリスト308と、表示画像データ取得部310によって取得された画像データを用いて、表示装置103で表示するための表示データを生成する。
表示データ出力部312は、表示データ生成部311で生成された表示データを外部装置である表示装置103へ出力する。
(画像形成装置のハードウェア構成)
図4は、本実施形態の画像処理装置102のハードウェア構成を示すブロック図である。情報処理を行う装置として、例えばPC(Personal Computer)が用いられる。
PCは、CPU(Central Processing Unit)401、RAM(Random Access Memory
)402、記憶装置403、データ入出力I/F405、およびこれらを互いに接続する内部バス404を備える。
CPU401は、必要に応じてRAM402等に適宜アクセスし、各種演算処理を行いながらPCの各ブロック全体を統括的に制御する。RAM402は、CPU401の作業用領域等として用いられ、OS、実行中の各種プログラム、本実施形態の特徴であるアノテーションのユーザー識別や表示用データの生成など処理の対象となる各種データを一時的に保持する。記憶装置403は、CPU401に実行させるOS、プログラムや各種パラメータなどのファームウェアが固定的に記憶されている情報を記録し読み出す補助記憶装置である。HDD(Hard Disk Drive)やSSD(Solid State Disk)等の磁気ディス
クドライブもしくはFlashメモリを用いた半導体デバイスが用いられる。
データ入出力I/F405には、LAN I/F406を介して画像サーバー1101
が接続される。また、グラフィクスボード407を介して表示装置103が、外部装置I/F408を介してバーチャルスライド装置やデジタル顕微鏡に代表される撮像装置101が、操作I/F409を介してキーボード410やマウス411が接続される。
表示装置103は、例えば液晶、EL(Electro-Luminescence)、CRT(Cathode Ray Tube)等を用いた表示デバイスである。当該表示装置103は、外部装置として接続される形態を想定しているが、表示装置と一体化したPCを想定してもよい。例えばノートPCがこれに該当する。
操作I/F409との接続デバイスとしてキーボード410やマウス411等のポインティングデバイスを想定しているが、タッチパネル等表示装置103の画面が直接入力デバイスとなる構成を取ることも可能である。その場合、タッチパネルは表示装置103と一体となり得る。
(倍率毎に用意された階層画像の概念)
図5は、異なる倍率毎に予め用意された階層画像の概念図である。階層画像とは、同じ被写体(同じ画像内容)の複数の二次元画像から構成される画像セットであって、低解像から高解像まで段階的に解像度を異ならせている画像セットのことである。本実施形態の撮像装置101の解像度変換処理部215で生成される階層画像について説明する。
501、502、503および504は表示倍率に応じて用意されたそれぞれ解像度の異なる二次元画像である。説明を簡単にするため、503の階層画像は504の1/2、
502の階層画像は503の1/2、501の階層画像は502の1/2となる各一次元方向の解像度となっている。
撮像装置101で取得した画像データは診断の目的から高解像、高分解能の撮像データであることが望まれる。ただし、先に説明したとおり数十億画素からなる画像データの縮小画像を表示する場合、表示の要求に合わせて都度解像度変換を行っていたのでは処理が間に合わなくなる。そのため、予め倍率の異なる何段階かの階層画像を用意しておき、用意された階層画像から表示側の要求に応じて表示倍率と近接する倍率の画像データを選択し、表示倍率に合わせて倍率の調整を行うことが望ましい。一般には画質の点でより高倍の画像データから表示データを生成することがより好ましい。
撮像が高解像に行われるため、表示用の階層画像データは、一番高解像な画像データをもとに、解像度変換手法によって縮小することで生成される。解像度変換の手法として二次元の線形な補間処理であるバイリニアの他、三次の補間式を用いたバイキュービックなどが広く知られている。
各階層の画像データはXとYの二次元の軸を持っている。XYと直交する方向の軸として記載しているPは、階層化されたピラミッド形式の構成からとっている。
505は1枚の階層画像502の中の分割画像データを指している。そもそも大容量の二次元画像データの生成は、分割して撮像した画像データのつなぎ合わせによって行われる。505の分割画像データは、撮像センサ208によって1回に撮像可能な範囲のデータを想定している。なお、1回の撮像で取得した画像データの分割や、任意の枚数のつなぎ合わせの結果である画像データを分割画像データ505の規定サイズとしてもよい。
このように拡大、縮小等の異なる表示倍率で診断、観察することを想定した病理用の画像データは、図5に示したように階層化された画像として生成、保持するのが望ましい。各階層画像データをとりまとめて、一つの画像データとして取り扱えるようにしても、それぞれを独立な画像データとして用意し、表示倍率との関係を明示する情報を保持する構成でもよい。ここでは単一の画像データとして以後の説明を行う。
(アノテーションの付加、提示の方法)
本実施形態の画像処理装置102におけるアノテーション付加、および提示の流れを図6のフローチャートを用いて説明する。
ステップS601では、表示装置情報取得部304が、表示装置103の表示エリアのサイズ情報(画面解像度)の他、現在表示されている画像の表示倍率の情報を取得する。表示エリアのサイズ情報は、生成する表示データのサイズを決める際に用いられる。表示倍率は、階層画像から何れかの画像データを選択する時、およびアノテーションデータリストの生成時に用いられる。リスト化された情報については後述する。
ステップS602では、表示画像データ取得部310が、表示装置103に現在表示されている画像の表示倍率(もしくは初期の段階では規定の倍率)に対応した画像データを記憶保持部302より取得する。
ステップS603では、表示データ生成部311が、取得した画像データをもとに表示装置103で表示するための表示データを生成する。表示倍率が取得した階層画像の倍率と異なる場合は、解像度変換の処理を行う。生成された表示データは、表示装置103に表示される。
ステップS604では、表示データ生成制御部309が、ユーザー入力情報をもとに、
ユーザーからの指示によって表示されている画面の更新が為されたか否かを判断する。具体的には、表示されている画面外側に存在する画像データを表示する表示位置の変更の他、表示倍率の変更がある。画面更新が必要な場合はステップS602へ戻り、以下画像データの取得、表示データの生成による画面更新の処理を行う。画面更新の要求がない場合には、ステップS605へ進む。
ステップS605では、表示データ生成制御部309が、ユーザー入力情報をもとに、ユーザーからアノテーション付加の指示、要求を受けたかどうかを判断する。アノテーション付加の指示が行われた場合は、ステップS606へ進む。アノテーションの付加の指示が行われなかった場合は、アノテーション付加の処理をスキップして、ステップS607へ進む。
ステップS606では、アノテーションの付加に伴う各種処理を行う。処理内容としては、キーボード410等で入力されたアノテーション内容(コメント)の格納の他、本実施例の特徴であるユーザー情報とのリンクや同一(既存)アノテーションへのコメント追加が挙げられる。詳細については図7を用いて後述する。
ステップS607では、表示データ生成制御部309が、付加されたアノテーションの提示要求があるか否かを判断する。ユーザーからアノテーションを提示する要求がある場合にはステップS608へ進む。ない場合は、ステップS604へ戻り、以降の処理を繰り返す。なお、フローの説明上時系列に説明を行っているが、表示位置や倍率の変更である画面更新要求の受付、アノテーション付加およびアノテーション提示は同時、シーケンシャル等を含む何れのタイミングによって行われてもよい。
ステップS608では、表示データ生成制御部309が、提示の要求を受けて、ユーザーへアノテーションを効果的に提示するための処理を行う。詳細については図8を用いて後述する。
(アノテーションの付加)
図7は、図6のステップS606で示したアノテーションを付加する処理の詳細な流れを示すフローチャートである。図7では、アノテーションが付加される画像の位置情報と表示倍率、およびユーザー情報に基づいてアノテーションデータを生成する流れについて説明する。
ステップS701では、表示データ生成制御部309が、診断の対象である画像データに対してアノテーションが付加されているか否かを判断する。アノテーションの付加が行われていればステップS608へ、アノテーションの付加が初めて行われた場合はスキップしてステップS704へそれぞれ進む。参照する画像データに対して、既にアノテーションが付加されている状況としては、他のユーザーによる同一検体に対する所見が求められた場合や、一度付加したアノテーションを含む各種診断内容に対して同一ユーザーが確認する場合等がある。
ステップS608では、表示データ生成制御部309が、過去に付加されたアノテーションをユーザーへ提示する。処理の詳細については図8を用いて後述する。
ステップS702では、表示データ生成制御部309が、ユーザーの操作が、提示されたアノテーションのいずれかに対するコメント内容の更新や新規追加であるか、新規のアノテーションの追加であるかを判断する。同一の(つまり既存の)アノテーションに対するコメント追加や修正が行われる場合は、ステップS703において、アノテーションデータ生成部305がコメントの追加・修正の対象となるアノテーションのID番号を把握、選択する。それ以外の場合、つまり異なる関心領域に対する新規アノテーションの追加が行われる場合は、ステップS703の処理をスキップし、ステップS704へ進む。
ステップS704では、アノテーションデータ生成部305が、アノテーションを付加する画像の位置情報を取得する。表示装置103から得られる情報は表示画像中の相対位置情報のため、アノテーションデータ生成部305は、記憶保持部302に保持されている画像データ全体の位置に換算する処理を行うことで、絶対的な位置の座標を把握する。
アノテーションが付加される画像中の絶対的な位置情報は、倍率が異なる階層画像データでも利用できるよう、階層画像ごとにアノテーションが付加された位置と表示倍率との対応関係を算出することで得られる。例えば、20倍の表示倍率で画像原点(X=Y=0)からの距離(画素)がそれぞれ100画素となる点P(100、100)の位置にアノテーションが付加される場合を想定する。40倍の高倍画像ではアノテーションが付加される座標はP1(200、200)となる。また、10倍の低倍画像ではアノテーションが付加される座標はP2(50、50)となる。ここでは説明を簡単にするため、きりの良い表示倍率を用いて説明を行っているが、表示倍率が例えば25倍の時には、40倍の高倍画像ではアノテーションが付加される座標はP3(160、160)と示されるように、取得する階層画像の倍率と表示倍率との比を座標の値にかけてやればよい。
ステップS705では、ユーザー入力情報取得部303が、キーボード410によって入力されたアノテーション内容(テキスト情報)を取得する。取得されたテキスト情報はアノテーション提示の際に使用する。
ステップS706では、表示装置情報取得部304が、表示装置103に表示されている画像の表示倍率を取得する。この表示倍率はアノテーション付加の指示が行われた際の観察時の倍率である。なお、ここでは表示装置103から表示倍率情報を取得する構成にしているが、画像処理装置102が表示データを生成しているため、内部で保持している表示倍率のデータを使用する構成でもよい。
ステップS707では、ユーザー情報取得部306が、アノテーションを付加したユーザーに関する各種情報を取得する。
ステップS708では、時刻情報取得部307が、アノテーション付加の指示が行われた時の情報を取得する。また、診断や観察の日時など、付随する日時情報を合わせて取得してもよい。
ステップS709では、アノテーションデータ生成部305が、ステップS704で取得した位置情報、ステップS705で取得したテキスト情報、ステップS706で取得した表示倍率、ステップS707で取得したユーザー情報、およびステップS708で取得した日時情報をもとにアノテーションデータを生成する。
ステップS710では、アノテーションデータ生成部305が、ステップS709で生成されたアノテーションデータに基づき、アノテーションの付加が初めて行われた場合はアノテーションデータリストの新規作成を、既にリストが存在している場合は、そのリストの値、内容を更新する。なお、このリストに格納する情報は、ステップS704で生成した階層画像ごとのアノテーションが付加される位置情報、実際には各倍率の階層画像毎に換算された位置情報、付加される表示倍率、アノテーションとして入力されたテキスト情報、ユーザー名および日付情報である。アノテーションデータリストの構成については図10を用いて後述する。
(アノテーションの提示)
図8は、アノテーションを提示する処理(図6および図7のS608)の詳細な流れを示すフローチャートである。図8では、アノテーションデータリストに基づいてアノテーションを提示するための表示データを生成する流れについて説明する。
ステップS801では、表示データ生成制御部309が、ユーザーから表示画面の更新
要求があるか否かを判断する。一般に画像データ全体を網羅的に観察するスクリーニングでの表示倍率(5倍から10倍程度)と、詳細観察での表示倍率(20倍から40倍)と、アノテーションの付加された位置を確認するための表示倍率とは異なることが予想される。そのため、表示データ生成制御部309が、アノテーション提示に適した表示倍率の選択を行うか否かをユーザーの指示に基づいて決める。または、アノテーションが付加された範囲から自動で表示倍率を設定してもよい。表示画面の更新が必要な場合はステップS802へ進む。表示画面の更新要求がない場合は更新処理をスキップしステップS803へ進む。
ステップS802では、表示画面の更新要求を受けて、表示画像データ取得部310が、アノテーション提示に適した表示画像データを選択する。例えば、アノテーションが複数付加されていた場合は、付加されたアノテーションの位置がもれなく画面に表示できるよう、複数のアノテーションを包含する領域が少なくとも表示されるように表示領域のサイズを決定する。表示画像データ取得部310は、決定された表示領域のサイズに基づいて、階層画像データの中から所望の解像度(倍率)の画像データを選択する。
ステップS803では、ディスプレイ画面の表示領域に対してアノテーションを付加した数が多いか否かを判断する。判断に用いる閾値は任意に設定できる。また、ユーザーの意志によって以後説明するアノテーション表示モードとポインタ表示モードを選択できる構成にしてもよい。ここでアノテーションの数に応じて表示モードを切り替える理由は、画面の表示領域に対してアノテーションを付加した数が多すぎる場合に、背景となる診断用の画像を観察することが困難となるためである。一定以上の割合でアノテーション内容が画面に表示される場合は、ポインタ表示モードを採用するのが望ましい。ポインタ表示モードとは、アノテーションが付加された位置情報のみを画面上にアイコンやフラグ等を用いて示すモードのことである。また、アノテーション表示モードとは、コメントとして入力されたアノテーション内容を画面に表示するモードのことである。ポインタ表示モードを選択、採用する場合はステップS804へ、アノテーション表示モードを選択、採用する場合はステップS805へそれぞれ進む。
ステップS804(ポインタ表示モード)では、表示データ生成部311がアノテーションの位置をアイコン等のポインタで表示するためのデータを生成する。このとき、表示倍率、アノテーションを付加したユーザーの違い等によって、ポインタのアイコンの種類や色および提示の方法を変えることができる。ポインタ表示の画面例は図9(e)を用いて後述する。
ステップS805(アノテーション表示モード)では、表示データ生成部311がアノテーションとして付加された内容をテキストとして表示するためのデータを生成する。ユーザーの識別を行うため、表示するアノテーションのコメント内容である文字の色をユーザー毎に変更する。文字色を変える以外にも、アノテーション枠の色、形状、アノテーション自体の点滅表示や透過表示を変えるなど、アノテーションを付加したユーザーが識別できる方法であればよい。アノテーション表示の画面例は図9(d)を用いて後述する。
ステップS806では、表示データ生成部311が、選択された表示画像データとステップS804またはステップS805で生成されたアノテーション表示データをもとに、画面表示用の表示データを生成する。
ステップS807では、表示データ出力部312が、ステップ806で生成した表示データを表示装置103に対して出力する。
ステップS808では、出力された表示データをもとに、表示装置103が表示画面を更新する。
ステップS809では、表示データ生成制御部309は、現在の表示モードがアノテーション表示モードかポインタ表示モードであるか否かを判断する。ポインタ表示モードの場合はステップS810へ進む。アノテーション表示モードの場合はスキップし、ステップS812へ進む。
ステップS810(ポインタ表示モード)では、表示データ生成制御部309は、画面上に表示されているポインタをユーザーが選択、もしくはマウスカーソルをポインタ上にかざしたか否かを判断する。アノテーション表示モードではアノテーションとして入力されたテキストの内容が画面に表示される構成をとるが、ポインタ表示モードでは必要に応じてアノテーション内容を表示する構成をとる。ポインタが選択またはポインタ上にマウスカーソルがかざされた場合はステップ811へ進む。選択されなかった場合はアノテーション提示の処理を終了する。
ステップS811では、表示データ生成制御部309は、選択されたポインタの位置に付加されているアノテーションのテキスト内容をポップアップで表示するよう制御する。ポップアップ処理の場合はポインタの選択が外れると、アノテーション内容の表示も行わなくなる。一度選択すれば消す指示を出すまでは画面上に表示され続ける構成をとってよい。
ステップS812では、表示データ生成制御部309は、アノテーションが選択されたか否かを判断する。アノテーションの選択によって、そのアノテーションが付加された際の表示倍率、表示位置を再現する。アノテーションが選択された場合はステップS813へ進む。選択されなかった場合はアノテーション提示の処理を終了する。
ステップS813では、表示データ生成制御部309からの指示に基づき、表示画像データ取得部310が表示画像データを選択する。ここで選択する表示画像データは、アノテーションデータリストに格納されたアノテーション付加時の位置情報および表示倍率をもとにして選択される。
ステップS814では、表示データ生成部311が、ステップS812で選択されたアノテーション、およびステップS813で選択された表示画像データに基づき、表示データを生成する。
ステップS815の表示データの出力、およびステップS816の表示データの表示装置103上での画面表示は、それぞれステップS807およびステップS808と同じため説明は省略する。
(表示画面レイアウト)
図9(a)から図9(f)は、本実施形態の画像処理装置102で生成した表示データを表示装置103に表示した場合の表示画面の一例である。アノテーション付加時の表示画面やポインタ表示モードおよびアノテーション表示モード、およびアノテーションを付加した際の画像表示位置や表示倍率の再現について説明する。
図9(a)は、表示装置103の画面レイアウトの基本構成である。表示画面は、全体ウィンドウ901内に、表示や操作のステータスと各種画像の情報を示す情報エリア902と、観察対象のサムネイル画像903と、詳細観察用の検体画像データの表示領域905とが配置された構成である。サムネイル画像903の中には、表示領域905に表示しているエリア(詳細観察エリア)を示す詳細表示領域904が表示され、また、表示領域905の中には、表示領域905に表示している画像の表示倍率906が表示される。各領域、画像はシングルドキュメントインターフェースによって全体ウィンドウ901の表示領域が機能領域毎に分割される形態でも、マルチドキュメントインターフェースによって各々の領域が別ウィンドウで構成される形態でも構わない。サムネイル画像903は、検体の全体像における検体画像データの表示領域905の位置や大きさを表示する。位置
や大きさは、詳細表示領域904の枠によって把握することができる。詳細表示領域904の設定は、例えば、タッチパネルまたはマウス411等の外部接続された入力装置からのユーザー指示による直接の設定でも、表示されている画像に対する表示領域の移動や拡大・縮小操作によっても設定、更新することができる。検体画像データの表示領域905には、詳細観察用の検体画像データが表示される。ここでは、ユーザーからの操作指示によって、表示領域の移動(検体全体画像の中から観察の対象となる部分領域の選択、移動)や表示倍率の変更による画像の拡大・縮小像が表示される。
図9(b)は、アノテーションを付加する際の操作画面の例である。表示倍率906は20倍に設定されているものとする。ユーザーは、表示領域905の画像の上で、関心領域(または関心位置)を選択し、新規のアノテーションを付加することができる。関心領域または関心位置とは、ユーザーが画像の中で注目すべき部分と判断した領域または位置であり、例えば、画像診断の場合には異常が現れている部分、詳細観察が必要な部分、その他何らかの所見がある部分が関心領域または関心位置として指定される。新規のアノテーションは、マウス411により画像上の位置を指定した後、アノテーション入力モードへ移行してキーボード410によりテキスト(アノテーション内容)を入力する、という操作によって付加される。図9(b)は、マウスカーソル907の位置にアノテーション908を付加する状態を示しており、アノテーション908に対し「アノテーション1」というアノテーション内容(コメントともいう)が入力されている。アノテーションの位置情報やアノテーション内容は、そのときの表示領域905の画像の表示倍率(906)の値と関連付けて保存される。
図9(c)は、既存のアノテーションと同じ位置にアノテーションを追加する際の操作画面の例である。あるユーザーによって図9(b)に示されるアノテーション1が付加された後、別のユーザーが同じ画像データの同じ位置にアノテーション2を追加する例について説明する。別のユーザーは、画面表示されたアノテーションの中から任意のアノテーションを選択し、そのアノテーションに対して(つまりアノテーションが既に付加されている関心領域または関心位置に対して)コメントを追加することができる。図9(c)の符号909は、図9(b)でアノテーション1が付加されたポイント(位置)であり、符号910はアノテーション1に対してアノテーション2が付加された状態を示している。このように同一の関心領域(関心位置)に対して追加や修正のコメントを入れることができる。
同一の関心領域(関心位置)に対して複数のコメントが付加された場合には、ユーザーの情報を用いて、どのユーザーが入力したアノテーション(コメント)なのかが容易に識別できるように画面表示するとよい。さらに、アノテーションが付加された日時の情報に基づき、いつ頃付加されたアノテーションなのか、或いは、どのような順番で付加されたアノテーションなのかが容易に識別できるようにするとなおよい。このようなユーザーの識別や日時の識別を実現する具体的な方法としては、アノテーションの表示形態を異ならせるという方法が好ましい。ところで図9(c)では同一の関心領域(関心位置)に付加された複数のアノテーションをグループ化し、1つのアノテーション枠内に表示する例を示したが、それぞれのアノテーションを別々のアノテーション枠内に表示する形態をとってもよい。前者の場合は、1つのアノテーションの中に複数のコメントが列挙されているように見え、後者の場合は、複数のアノテーションが同じ位置に付加されているように見える。ただし後者の場合も、同じ位置のアノテーションに対して同じ形態のアノテーション枠を用いることで、アノテーションのグループを容易に判別できるようにするとよい。同じグループに属するアノテーションは、付加された日時に基づき、時間順(古い順もしくは新しい順)に並べて表示されることが望ましい。これにより、注目点に対する複数ユーザーの診断所見の比較や参照、および時系列でのコメントの変遷の把握が容易になる。
ユーザー毎にアノテーションの表示形態を異ならせる方法としては、さまざまな方法を採用し得る。例えば、(1)アノテーション内容であるテキストの表現方法の変更、(2)アノテーション枠の変更、(3)アノテーション全体の表示方法などが想定される。(1)テキストの表現方法の変更とは、テキストの色、輝度、サイズ、フォントの種類や修飾(太字、斜字体)、テキストの背景の色や模様等をユーザー毎に異ならせる方法である。また図9(c)のように、アノテーション毎にユーザーの名前やIDを表示するという方法もある。(2)アノテーション枠の変更とは、枠の色や線種(実線、破線)、形状(吹き出し、矩形以外の選択)、背景の色や模様等をユーザー毎に異ならせる方法である。(3)アノテーション全体の表示方法とは、表示領域905に表示される背景画像である画像データとのαブレンディング(透過画像表示)やアノテーション自体の点滅表示等のやり方をユーザー毎に異ならせるというものである。なお、ここで述べた表示形態のバリエーションは一例であり、これらを組み合わせたり、これら以外の表示形態を用いたりしてもよい。
日時毎にアノテーションの表示形態を異ならせる場合も、上記の(1)〜(3)と同じ方法を利用することができる。ただし日時に基づき表示形態を変える場合は、例えば、時間、時間帯、日、週、月といった所定の期間単位でアノテーションをカテゴライズし、異なる時期(期間)に付加されたアノテーションの間で表示形態を異ならせるのがよい。また、アノテーションの色や輝度を段階的に変化させるなど、時間順(古い順もしくは新しい順)に表示形態を少しずつ変えるようにしてもよい。このようにすることで、表示形態の変化からアノテーションの時系列を簡単に把握できるようになる。
図9(d)は、アノテーション表示モードの画面表示の例である。ここでは画像中の3箇所に4つのアノテーションが付加された場合の例を示している。911はアノテーション1と2が付加されたポイントを、912はアノテーションの内容を示している。画像中の複数の位置にアノテーションが付加されている場合は、そのすべてのアノテーションの位置が表示できるように表示領域905の表示倍率が調整される。ここでは低倍である5倍の表示倍率で画像が表示されている例を示している。この表示画面において、各アノテーションが付加されたときの表示倍率に応じてアノテーションの表示形態を異ならせるとよい。例えば、アノテーション1と2と3は20倍の表示画像に対して付加され、アノテーション4は40倍の表示画像に対して付加されたとする。このとき図9(d)のようにアノテーションの表示形態が異なっていると、各アノテーションが付加されたときの表示倍率が違っていることを容易に判別することができる。アノテーション1と2と3は同じ表示倍率(20倍)であるが、アノテーション1と2は同一箇所に対するアノテーショングループであるため、アノテーション3とは表示形態を変えている。複数のアノテーションが付加されたポイントは、ユーザーの関心度が高いと見なすことができる。それゆえ、図9(d)のように、1つのアノテーションのみが付加されている場合と複数のアノテーションが同じポイントに付加されている場合とで、アノテーションの表示形態を変えることが望ましい。このとき、同じポイントに付加されているアノテーションの数が多いほうがより目立つ(ユーザーの注意を惹く)ような表示形態となるようにするとよい。
図9(e)は、アノテーションをポインタ表示モードで表示する際の画面表示例である。1つの画像に多くのアノテーションが付加されている場合、アノテーション表示モードで表示すると、画像の多くの部分がアノテーションで隠されてしまったり、アノテーションが多すぎて紛らわしかったりし、観察の妨げになる。ポインタ表示モードは、アノテーションの内容は隠し、アノテーションが付加された位置情報と表示倍率との関係のみをフラグやポインタを用いて明示するモードである。これにより、画像に付加された多数のアノテーションの中から所望のアノテーションを選択することを容易にできる。913はアノテーションが付加された位置を示すアイコン画像(フラグ、ポインタともいう)である。914はアイコン画像が選択された場合にアノテーション内容をポップアップで表示す
る例を示している。
図9(f)は、アノテーションが付加されたときの画像中の表示位置と表示倍率を再現した画面の表示例である。アノテーション表示モードまたはポインタ表示モードで所望のアノテーションが選択された際に、表示データ生成制御部309は、アノテーションデータリストを参照してアノテーションが付加されたときの表示倍率と画像中の表示位置を特定し、それと同じ表示倍率及び位置の表示データを生成して表示する。なお、選択されたアノテーションの全体画像との位置関係は、サムネイル画像903中のアノテーション全体の表示枠916および選択されたアノテーションの再現範囲917から判断することができる。
(アノテーションデータリストの例)
図10は、本実施形態の画像処理装置102で生成したアノテーションデータリストの構成を示している。
図10に示すように、アノテーションデータリストには、画像に付加されたアノテーションの情報が格納されている。リストの1つの行が1つのアノテーションの情報を表している。それぞれのアノテーションには、付加した順番にID番号が割り振られている。各アノテーション情報は、グループID、ユーザー名、アノテーション内容、アノテーション付加時の位置情報および表示倍率、アノテーションを付加した日時情報などを含んでいる。グループIDは、図9(c)で示した、同一箇所に対して付加されたアノテーションであることを示す属性情報である。例えばID1と2のアノテーションは同一箇所に付加されたもののため、同一のグループID「1」となり、位置情報、表示倍率も同じになっている。なお、アノテーションの付加が関心位置(点)ではなく関心領域(ある広がりをもった領域)に対して行われる場合には、位置情報として点の座標値ではなく領域を規定する情報(例えば多角形領域の頂点座標など)をアノテーションデータに記録すればよい。アノテーションデータリストに格納する内容の主なものは示したとおりであるが、検索に必要な情報を含めその他の情報を格納する構成にしてもよい。また、画像を取得した日時や画像を診断に用いた日時の情報、ユーザーが独自に定義した項目などをアノテーション情報として格納できる構成をとってもよい。合わせて格納している位置情報と表示倍率によって、アノテーションを付加した際の観察環境を再現することができる。
(本実施形態の効果)
アノテーションを付加する際に、アノテーション内容自体の格納の他、ユーザー情報を合わせて格納してその対応関係をリストとして用意することで、アノテーションを提示する際に、付加したユーザーの識別を容易にすることが可能となる。その結果、病理医の手間を減らすことができる画像処理装置を提供することができる。本実施の形態では特に、同一箇所に対する複数のアノテーションをひとまとめにすることで、注目点に対する複数ユーザーの診断所見の比較や参照、および時系列でのコメントの変遷をわかりやすく提示することができる。
[第2の実施形態]
本発明の第2実施形態に係る画像処理システムについて図を用いて説明する。
第1の実施形態では、アノテーションが付加された位置と表示倍率の他、ユーザー情報をリストとして格納することで、アノテーションをユーザーに提示する際のユーザー識別を容易にした。第2の実施形態では、同一箇所のアノテーションのみならず、位置の異なる関心領域に付加された複数のアノテーションをグルーピングすることで、必要な情報を的確に提示し、診断作業に注力できるようにする。第2実施形態では、第1実施形態と異なる構成以外は第1実施形態で説明した構成を用いることができる。
また、第1の実施形態ではユーザー情報をログイン情報やユーザーによる選択によって取得する構成を説明しているが、第2の実施形態はネットワークを介した遠隔のユーザー
間でのアノテーションの付加を想定しており、第1の実施形態で取得したユーザー情報以外に、例えばネットワーク接続しているコンピュータに割り当てられたネットワーク情報(IPアドレスなど)を用いることもできる。
(画像処理システムの装置構成)
図11は、本発明の第2の実施形態に係る画像処理システムを構成する装置の全体図である。
本実施形態の画像処理システムは、画像サーバー1101、画像処理装置102、画像処理装置102と接続された表示装置103、画像処理装置1104、画像処理装置1104と接続された表示装置1105から構成される。画像サーバー1101と画像処理装置102と画像処理装置1104はネットワークを介して接続されている。画像処理装置102は検体を撮像した画像データを画像サーバー1101から取得し、表示装置103へ表示するための画像データを生成することができる。画像サーバー1101と画像処理装置102との間は、ネットワーク1102を介して、汎用I/FのLANケーブル1103で接続される。画像サーバー1101は、バーチャルスライド装置である撮像装置101によって撮像された画像データを保存する大容量の記憶装置を備えたコンピュータである。画像サーバー1101は、階層化された異なる表示倍率の画像データを一つのまとまりとして画像サーバー1101に接続されたローカルストレージに保存していても良いし、それぞれを分割してネットワーク上の何処かに存在するサーバー群(クラウド・サーバ)に対して各分割画像データの実体とリンク情報を分けて持つ構成でもよい。階層画像データ自体、一つのサーバーに保存しておく必要もない。なお、画像処理装置102および表示装置103は第1の実施態様の画像処理システムと同様である。画像処理装置1104は、画像サーバー1101や画像処理装置102から離れた場所(遠隔地)にあるものとする。画像処理装置1104の機能は画像処理装置102と同じである。異なるユーザーが画像処理装置102および1104を使用し、アノテーションを付加する際、付加されたデータを画像サーバー1101に格納することで、双方から画像データおよびアノテーション内容を参照することができる。
図11の例では、画像サーバー1101と画像処理装置102、1104と表示装置103、1105の5つの装置により画像処理システムが構成されているが、本発明はこの構成に限定されるものではない。例えば、表示装置103、1105が一体化した画像処理装置102、1104を用いてもよいし、画像処理装置102、1104の持つ機能の一部を画像サーバー1101に組み込んでもよい。また逆に、画像サーバー1101や画像処理装置102、1104の機能を分割して複数の装置によって実現してもよい。
ここでは、画像サーバー1101に格納されたアノテーションが付加された画像データを、遠隔に存在する異なる画像処理装置102、1104から互いにアクセスし、取得する構成を想定している。しかし、本発明は、一方の画像処理装置(例えば102)がローカルに画像データを格納し、この画像処理装置102に対して他のユーザーが遠隔からアクセスする構成を取ることもできる。
(アノテーションの関心領域内でのグルーピング)
図12は、第1実施形態の図7で説明したアノテーションを付加する処理に対して、本実施形態の特徴である、同一関心領域のグルーピング機能を付加した処理の流れを示すフローチャートである。アノテーション付加の各種情報取得までのプロセスは図7と同様のため、同じ処理の説明については省略する。
ステップS701からステップS710までのアノテーション付加の処理内容は第1実施形態の図7で説明した内容とほぼ同様である。アノテーションデータの生成処理(S709)の前に、同一の関心領域に付加されたアノテーションをひとまとめにする処理が追
加されている。
ステップS1201では、複数のアノテーションを同一の関心領域内の関連情報としてひとまとめにする処理(カテゴライズもしくはグルーピングと呼ぶ)を利用するか否かをユーザーが判断する。同一箇所に対するアノテーションに関しては、第1実施形態で説明しているとおり、ユーザーの種別、付加日時等を識別できるよう表示の形態を変更し、アノテーションの統合処理を行っている。例えば、ユーザーは、任意の倍率(一般には20倍以上の高倍)で表示された関心領域(ユーザーである病理医が注目する領域)内に付加された複数のアノテーションに対し、診断する際の情報としてひとくくりにした方が良いか否かを判断する。これは、悪性箇所の指摘だけではなく、周辺組織への影響や正常と思われる細胞、組織との比較等、診断が複数の情報をもとに多視点で行われることによる。複数のアノテーションのグルーピングを行う場合は、ユーザーがマウス411等を使ってグルーピング機能の実行を指示することで、ステップS1202へ進む。グルーピングを行わない場合はステップS709へ進む。グルーピングの方法については図13(a)および(b)を用いて後述する。
ステップS1202では、アノテーションデータ生成部305(図3参照)が、グルーピングするアノテーションをユーザーに指定させる。指定の方法としては、リストとして提示された複数のアノテーションの中から、チェックボックスを利用して選択する方法や、グルーピングする領域をマウス411等で範囲指定し、範囲に含まれるアノテーションを選択、指定する方法などがある。
ステップS709のアノテーションデータの生成およびステップS710のアノテーションデータリストの生成・更新の処理は第1の実施形態と同じため、説明は省略する。変更点は、アノテーションデータを生成する際、同一箇所のグループID付与と同じく、同一関心領域のグループID付与を行い、リストにもその内容を格納する点である。
(表示画面レイアウト)
図13は、画像処理装置102で生成した表示データを表示装置103に表示した場合の表示画面の一例である。図13では、同一関心領域内としてのグルーピング、およびアノテーションを付加した際の画像表示位置や表示倍率の複数再現について説明する。
図13(a)は、グルーピングするアノテーションを指定する際に画面表示されるアノテーションリストの例である。アノテーションリスト1301は、個別に割り振られたID番号、同一箇所におけるアノテーションとしてまとめられたグループの関係を示すグループID、アノテーション内容、ユーザー名、および関連情報としてグルーピングするアノテーションを指定するためのチェックボックス1302から構成される。ここでは、アノテーションID1、2および4が選択されている例を示している。ID1と2は同一箇所に付加されたアノテーションとして元々グルーピングされており、グループID「1」が付与されている。チェックボックス1302によって複数のアノテーションが選択できるものとする。また、各項目に対して優先度付けを行い、複数の項目に対するソート操作を行うことも可能である。ここでは、チェックボックスにより一つのグルーピングが行える構成を示したが、関心領域を複数設定する場合には、関心領域用のグループIDを割り付けることで対応させることができる。
図13(b)は、図13(a)で示したグルーピング操作をリストからではなく、エリア指定で行うための表示画面の例である。ここでは同一箇所に付加されたアノテーションを含めて3箇所、4つのアノテーションが付加された場合の例を示している。1305はアノテーションが付加されたポイント(位置)を、1306は付加されたアノテーションの内容である。この画像は5倍の表示倍率であることが1303に示されている。関心領
域の指定は、マウス411のドラッグ操作による領域指定によって行う。1304がマウス411によって指定された関心領域である。ここでは、アノテーション1と2、および4が同一関心領域内の関連情報として選択、指定されている。
図13(c)は、アノテーションが付加されたときの画像中の表示位置と表示倍率を複数再現した画面の表示例である。アノテーション表示モード、およびポインタ表示モードで所望のアノテーションが選択された際に、アノテーションデータリストを参照してアノテーションを付加した際の表示倍率と画像中の表示位置をそれぞれ再現する。この例では合計6つの選択されたアノテーションが表示されている。6つのアノテーションの内、右上のアノテーション付加時の表示倍率のみ40倍と他と異なる設定となっている。表示倍率の違いは、表示倍率1303内での倍率表示の他、各表示領域905枠の色の変更等でも明示することができる。また、左上の表示枠には同一関心領域の対象として3つのアノテーションが表示されている。1307はアノテーションの表示内容である。
選択されたアノテーションの全体画像との位置関係は、第1の実施形態と同じように表示される。サムネイル画像903中のアノテーション全体の表示枠1308および複数選択されたアノテーションの再現範囲1309から判断することができる。再現範囲1309と表示領域905との対応関係は枠線の色、線種等で判別させることができる。また、表示領域905の任意の表示画像、または再現範囲1309を選択することで、表示領域905全体を使用した表示モードへ移行することもできる。
(本実施形態の効果)
同一箇所に付加したアノテーションだけでなく、異なる箇所に付加したアノテーションをもグループ化し、関連情報として提示する機能を設けたことにより、注目の対象が点から領域に広がり、関心領域に対する複数ユーザーの診断所見の比較や参照、および時系列でのコメントの変遷をわかりやすく提示することができる。
[第3の実施形態]
本発明の第3実施形態に係る画像処理システムについて図を用いて説明する。
第1の実施形態では、アノテーションが付加された位置と表示倍率の他、ユーザー情報をリストとして格納することで、アノテーションをユーザーに提示する際のユーザー識別を容易にした。第2の実施形態では、同一箇所のアノテーションのみならず、位置の異なる関心領域に付加された複数のアノテーションをグルーピングすることで、必要な情報を的確に提示し、診断作業に注力できるようにした。第3実施形態では、アノテーションリストの項目に新たに「ユーザー属性」情報を追加することで、病理診断におけるワークフローを円滑化できるようにする。病理診断におけるワークフローでは、複数のユーザー(例えば、技師、病理医、臨床医)がそれぞれ異なる目的(観点、役割)又は異なる方法(例えば、画像解析による自動付加、目視による付加)で順番に同じ画像にアノテーションを付加していく。ユーザー属性とは、各ユーザーがアノテーションを付加したときの目的(観点、役割)又は方法を示す情報である。第3実施形態では、アノテーションリストの構成とアノテーション付加の流れ以外は第1実施形態で説明した構成を用いることができる。
(アノテーションデータリストの例)
図14は、本実施形態の画像処理装置102で生成したアノテーションデータリストの構成を示している。
第1の実施形態で用いるアノテーションリストについては、既に図10に示して説明を行ったが、図14が図10と異なる点は、リスト項目として「ユーザー属性」が加わっている点である。「ユーザー属性」は、アノテーションを付加したユーザーの属性を示すものであり、例えば「病理医」や「技師」、「臨床医」、「自動診断」などが考えられる。
ただし、自動診断によるアノテーション付加は、病理医や技師、臨床医などの人間によるアノテーション付加とは異なる手順で行われるため、本実施形態におけるアノテーション付加の手順については図15を用いて後述する。なお、図14ではユーザー属性として属性名を直接格納しているが、代わりにユーザー属性IDを格納し、これとは別にユーザー属性IDとユーザー属性名称を格納したテーブルを用意するような、リレーショナルデータベース形式のリストを用いても良い。
一般的な病理診断のワークフローを考慮すれば、上記ユーザー属性を用意することで、診断作業がより効率化される。例えば、一般的な病理診断では、スライドに関するデータは技師から病理医、臨床医の順に流れていく。ただし、病理医と臨床医の間に、他の病理医が関わっていても良い。これを踏まえれば、本実施形態を用いた診断では、スライドの画像取得後に、まず技師がスクリーニングを行って、病理医に注目して欲しい箇所へアノテーションを付加することが考えられる。技師が何らかの自動診断機能を用いるときは、そのソフトウェアによってアノテーションが付加される。次に病理医は、上記技師によるアノテーションも参考に、スライド上の検体の異常部やリファレンスとなる正常部など診断に必要な箇所にアノテーションを付加することが考えられる。また、病理医が自動診断機能を用いる場合は、技師の場合と同じくソフトウェアによってアノテーションが付加される。複数の病理医によって診断が行われる場合は、先に診断を行った病理医のアノテーションを参考にして、追加のアノテーションを付加することが考えられる。その後、スライドデータが臨床医まで届いたら、臨床医は病理医が付加したアノテーションを参考にして、診断理由を理解することが考えられる。この際、技師や自動診断機能によって付加されたアノテーションがある場合は、それらを適宜非表示にすれば、余分な情報を参照せずに済む。当然、臨床医も技師や病理医と同様に、スライドに関する所見をアノテーションとして付加できる。仮に、セカンドオピニオンを得るためにスライドデータが他の病院の臨床医まで届いた場合であっても、上記臨床医の場合と同様に、過去に付加された各種アノテーションを参考に診断を行うことが可能である。このように、ユーザー情報の一つとしてユーザー属性をアノテーションに関連付けておき、ユーザー属性毎にアノテーションの表示態様を変えたり、表示/非表示を切り換えたりできるようにすれば、病理診断ワークフローの各段階において、各アノテーション情報の性質把握や情報の取捨選択が容易になり、病理診断作業を円滑化できる。
(アノテーションの付加)
図15は、本実施形態におけるアノテーション付加手順を示すフローチャートである。図15では、アノテーションリストの項目として自動診断を含むユーザー属性を加えたときの、アノテーション付加の流れについて説明する。
ステップS1501では、ユーザーから自動診断ソフトウェアの実行指示があったか否かを判断する。実行指示があった場合は、ステップS1502へ進む。指示がなかった場合は、ステップS1503へ進む。
ステップS1502では、自動診断ソフトウェアがユーザーの実行指示に従い、自動診断を実行する。その処理の詳細については図16を用いて後述する。
ステップS1503では、アノテーション付加がユーザーによって行われる。ステップS1503の処理の詳細は、図7で示される処理と同様である。
その後のステップS704からS710で示されるアノテーション付加の処理内容は、第1実施形態の図7で説明した内容とほぼ同様である。ただし、本実施形態のステップS704およびS705では、位置情報および入力情報を自動診断ソフトウェアの出力結果から取得するところが、第1実施形態と異なる。また、本実施形態のステップS707では、ユーザー情報を自動診断ソフトウェアから取得するところが、第1実施形態と異なる。
(自動診断手順の例)
図16は、自動診断実行手順の一例を示すフローチャートである。図16では、自動診断プログラムが画像解析を行い、診断情報を生成する流れの一例について説明する。
ステップS1601では、解析用画像の取得を行う。ここでは、組織診を例に挙げ、薄くスライスされた組織片を対象に、HE染色された検体を対象とする。
ステップS1602では、取得した画像中に含まれる分析対象となる細胞のエッジを抽出する。抽出処理をしやすくするため、空間フィルタによるエッジ強調処理を事前に施しても構わない。例えば、細胞がエオシンによって赤色からピンク色に染色されていることを利用し、同色の領域から細胞膜の境界を検出するとよい。
ステップS1603では、ステップS1602で抽出されたエッジに基づいて、細胞の輪郭を抽出する。ステップS1602で検出したエッジが不連続かつ断続的なものの場合、その間をつなぐ処理を施すことで輪郭部分を抽出することが可能となる。不連続点のつなぎは一般的な線形の補間で構わないが、より精度を高めるためにより高次の補間式を採用してもよい。
ステップS1604では、ステップS1603で検出された輪郭をもとに細胞の認識、特定を行う。一般に細胞は円形をしているので、輪郭の形状やサイズを考慮することにより誤判定を少なくすることができる。また、一部では細胞の重なりを生じていることで細胞の特定が難しいものも存在する。その場合は、後段の細胞核の特定結果を待って、再度認識、特定の処理を実施する。
ステップS1605では、細胞核の輪郭を抽出する。ステップS1602では細胞がエオシンによって赤色からピンク色に染色されていることを利用した。細胞核は、ヘマトキシリンによって青紫に染色されている。よってステップS1605では、中心部分(細胞核)が青紫色であり、その周囲(細胞質)が赤色の領域を検出し、青紫色の中心部分の領域の境界を検出する処理を行うとよい。
ステップS1606では、ステップS1605で検出された輪郭情報をもとに細胞核の特定を行う。正常細胞では一般に核の大きさは3〜5μm程度であるが、異常をきたすとサイズの肥大、多核化、異形化など様々な変化を生じる。ステップS1604で特定された細胞内に含まれていることが細胞核の存在の目安の一つとなる。ステップS1604で特定が困難であった細胞に関しても、核を特定することで判断することが可能となる。
ステップS1607では、ステップS1604およびステップS1606で特定した細胞および細胞核のサイズを計測する。ここでのサイズは面積を示しており、細胞膜内の細胞質の面積と核内の面積をそれぞれ求める。また合わせて細胞の総数を数えたり、その形状やサイズの統計情報をとったりしても良い。
ステップS1608では、ステップS1607で得られた面積情報をもとに、細胞質と核の比であるN/C比を算出する。個々の細胞について算出した結果の統計情報を得る。
ステップS1609では、解析用画像の領域内、場合によってはユーザーによって指定された範囲内において、全細胞に関する解析処理を完了したか否かを判断する。解析処理が完了した場合は処理を完了する。解析処理が完了していない場合は、ステップS1602へ戻り解析処理を繰り返す。
上記の解析処理の結果、異常が疑われるN/C比の大きな箇所を抽出し、抽出した箇所に対してアノテーション情報を付加することが可能となる。
(本実施形態の効果)
アノテーションリストに格納する情報として、ユーザー名の他にユーザー属性を用いることで、アノテーションを病理診断ワークフローの観点から識別することができる。例えば、アノテーションが自動診断により付加された場合とユーザーにより付加された場合とで、アノテーションの表示形態を異ならせると良い。また、ユーザーが技師の場合と医師(病理医、臨床医など)の場合とで表示形態を異ならせても良いし、さらに、ユーザーが
病理医の場合と臨床医の場合とで表示形態を異ならせても良い。これにより、アノテーションが多数存在していても、それを参照するユーザーの業務内容に応じて、コメントの内容やその変遷をさらに分かりやすく提示することができる。
[その他の実施形態]
本発明の目的は、以下によって達成されてもよい。すなわち、前述した実施形態の機能の全部または一部を実現するソフトウェアのプログラムコードを記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給する。そして、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行する。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを非一時的に記録した記録媒体は本発明を構成することになる。
また、コンピュータが、読み出したプログラムコードを実行することにより、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが、実際の処理の一部または全部を行う。その処理によって前述した実施形態の機能が実現される場合も本発明に含まれ得る。
さらに、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれたとする。その後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も本発明に含まれ得る。
本発明を上記記録媒体に適用する場合、その記録媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。
また、第1〜第3の実施形態で説明してきた構成をお互いに組み合わせることもできる。例えば、画像処理装置が撮像装置と画像サーバーの両方に接続されており、処理に用いる画像をいずれの装置から取得できるような構成にしてもよい。その他、上記各実施形態における様々な技術を適宜組み合わせることで得られる構成も本発明の範疇に属する。
101:撮像装置、102:画像処理装置、103:表示装置、301:画像データ取得部、305:アノテーションデータ生成部、306:ユーザー情報取得部、308:アノテーションデータリスト、309:表示データ生成制御部

Claims (14)

  1. 被写体の画像のデータと該画像に付加された複数のアノテーションのデータとを取得する取得手段と、
    前記画像を前記アノテーションと共に表示装置に表示する表示制御手段と、を備え、
    前記複数のアノテーションのデータは、各アノテーションが付加されている画像中の位置を示す位置情報と、各アノテーションを画像に付加したユーザーの情報と、を含み、
    前記表示制御手段は、
    前記複数のアノテーションのうちの一部または全部をグループ化して、且つ、
    前記複数のアノテーションが異なるユーザーによって付加されたものである場合に、ユーザー毎にアノテーションの表示形態を異ならせて、
    該複数のアノテーションを前記画像の上に重ねて表示する
    ことを特徴とする画像処理装置。
  2. 複数のユーザーが異なる目的又は異なる方法で順番に前記画像にアノテーションを付加していくものであって、
    前記ユーザーの情報は、当該ユーザーがアノテーションを付加したときの目的又は方法を示すユーザー属性を含み、
    前記表示制御手段は、ユーザー属性毎にアノテーションの表示形態を異ならせる
    ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記表示制御手段は、前記アノテーションが自動診断により付加された場合とユーザーにより付加された場合とで、前記アノテーションの表示形態を異ならせる
    ことを特徴とする請求項1又は2に記載の画像処理装置。
  4. 前記表示制御手段は、前記ユーザーが技師の場合と医師の場合とで、前記アノテーションの表示形態を異ならせる
    ことを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
  5. 前記表示制御手段は、前記ユーザーが病理医の場合と臨床医の場合とで、前記アノテーションの表示形態を異ならせる
    ことを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。
  6. 前記取得手段が取得する前記画像のデータは、解像度が段階的に異なる同じ被写体の複数の画像から構成されている階層画像のデータを含む
    ことを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。
  7. 前記表示制御手段は、前記位置情報に基づいて、前記複数のアノテーションのうち前記画像中の同じ関心領域に付加されているアノテーションをグループ化する
    ことを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。
  8. 前記表示制御手段は、前記位置情報に基づいて、前記複数のアノテーションのうち前記画像中の同じ位置に付加されているアノテーションをグループ化する
    ことを特徴とする請求項1乃至7のいずれか1項に記載の画像処理装置。
  9. 前記表示制御手段は、前記複数のアノテーションのうちユーザーが指定したアノテーションをグループ化する
    ことを特徴とする請求項1乃至8のいずれか1項に記載の画像処理装置。
  10. 前記複数のアノテーションのデータは、各アノテーションが付加された日時の情報を更
    に含み、
    前記表示制御手段は、同じグループに属するアノテーションを、前記日時の情報に基づいて、時間順に並べて表示する
    ことを特徴とする請求項1乃至9のいずれか1項に記載の画像処理装置。
  11. 前記複数のアノテーションのデータは、各アノテーションが付加された日時の情報を更に含み、
    前記表示制御手段は、異なる時期に付加されたアノテーションの間で表示形態を異ならせる
    ことを特徴とする請求項1乃至10のいずれか1項に記載の画像処理装置。
  12. 請求項1乃至11のいずれか1項に記載の画像処理装置と、前記画像処理装置から出力される画像およびアノテーションを表示する表示装置と、を備える
    ことを特徴とする画像処理システム。
  13. コンピュータが、被写体の画像のデータと該画像に付加された複数のアノテーションのデータとを取得する取得ステップと、
    コンピュータが、前記画像を前記アノテーションと共に表示装置に表示する表示ステップと、を有し、
    前記複数のアノテーションのデータは、各アノテーションが付加されている画像中の位置を示す位置情報と、各アノテーションを画像に付加したユーザーの情報と、を含み、
    前記表示ステップでは、
    前記複数のアノテーションのうちの一部または全部をグループ化して、且つ、
    前記複数のアノテーションが異なるユーザーによって付加されたものである場合に、ユーザー毎にアノテーションの表示形態を異ならせて、
    該複数のアノテーションを前記画像の上に重ねて表示する
    ことを特徴とする画像処理方法。
  14. 請求項13に記載の画像処理方法の各工程をコンピュータに実行させることを特徴とするプログラム。
JP2012219498A 2011-12-26 2012-10-01 画像処理装置、画像処理システム、画像処理方法およびプログラム Active JP6091137B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2012219498A JP6091137B2 (ja) 2011-12-26 2012-10-01 画像処理装置、画像処理システム、画像処理方法およびプログラム
US14/355,267 US20140292814A1 (en) 2011-12-26 2012-12-11 Image processing apparatus, image processing system, image processing method, and program
PCT/JP2012/007914 WO2013099124A1 (en) 2011-12-26 2012-12-11 Image processing apparatus, image processing system, image processing method, and program
CN201280063832.7A CN103999119A (zh) 2011-12-26 2012-12-11 图像处理设备、图像处理系统、图像处理方法和程序

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2011283723 2011-12-26
JP2011283723 2011-12-26
JP2012219498A JP6091137B2 (ja) 2011-12-26 2012-10-01 画像処理装置、画像処理システム、画像処理方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2013152699A true JP2013152699A (ja) 2013-08-08
JP6091137B2 JP6091137B2 (ja) 2017-03-08

Family

ID=48696672

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012219498A Active JP6091137B2 (ja) 2011-12-26 2012-10-01 画像処理装置、画像処理システム、画像処理方法およびプログラム

Country Status (4)

Country Link
US (1) US20140292814A1 (ja)
JP (1) JP6091137B2 (ja)
CN (1) CN103999119A (ja)
WO (1) WO2013099124A1 (ja)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015077208A (ja) * 2013-10-16 2015-04-23 株式会社東芝 医用画像撮影システム
JP2016517114A (ja) * 2013-04-19 2016-06-09 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 画像注釈のグループ化
JP2016115127A (ja) * 2014-12-15 2016-06-23 コニカミノルタ株式会社 文書管理プログラム、文書管理方法及び文書管理装置
JP2017058799A (ja) * 2015-09-15 2017-03-23 コニカミノルタ株式会社 診療支援システム、サーバー装置及びプログラム
JP2017062772A (ja) * 2015-08-06 2017-03-30 フジフィルム メディカル システムズ ユーエスエイ インコーポレイテッド 医療画像化表示システムを使用して情報を記録する方法及び装置
WO2018026003A1 (ja) * 2016-08-04 2018-02-08 ローランドディ―.ジー.株式会社 医療器材用メモ情報管理装置、医療器材用メモ情報管理システム
JP2018085127A (ja) * 2013-09-25 2018-05-31 ハートフロー, インコーポレイテッド 自動医療画像注釈の検証及び修正のためのシステム及び方法
JP2018173902A (ja) * 2017-03-31 2018-11-08 大日本印刷株式会社 コンピュータプログラム、表示装置、表示システム及び表示方法
JP2020501273A (ja) * 2016-12-08 2020-01-16 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 画像内物体の注釈付けの学習
JP2020038600A (ja) * 2018-08-31 2020-03-12 ソニー株式会社 医療システム、医療装置および医療方法
WO2020075782A1 (ja) * 2018-10-09 2020-04-16 株式会社スカイマティクス 診断支援システム及びその方法
US10642956B2 (en) 2016-04-13 2020-05-05 Canon Kabushiki Kaisha Medical report generation apparatus, method for controlling medical report generation apparatus, medical image browsing apparatus, method for controlling medical image browsing apparatus, medical report generation system, and non-transitory computer readable medium
JP2020523150A (ja) * 2017-06-16 2020-08-06 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 胎児監視データに注釈付けすること
WO2021117613A1 (ja) * 2019-12-10 2021-06-17 ソニーグループ株式会社 情報処理方法、情報処理装置、情報処理プログラムおよび情報処理システム
WO2021261323A1 (ja) * 2020-06-24 2021-12-30 ソニーグループ株式会社 情報処理装置、情報処理方法、プログラム及び情報処理システム
JP7482491B1 (ja) 2023-07-25 2024-05-14 株式会社Quastella 細胞画像分析システム、細胞画像分析装置及び細胞画像分析プログラム

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140096018A1 (en) * 2012-09-28 2014-04-03 Interactive Memories, Inc. Methods for Recognizing Digital Images of Persons known to a Customer Creating an Image-Based Project through an Electronic Interface
JP2014178474A (ja) * 2013-03-14 2014-09-25 Sony Corp デジタル顕微鏡装置、その合焦位置探索方法およびプログラム
JP6455829B2 (ja) * 2013-04-01 2019-01-23 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
US20150317071A1 (en) * 2014-05-05 2015-11-05 Peter N. Moore Method and Computer-Readable Medium for Cueing the Display of Active Content to an Audience
TWI645417B (zh) * 2015-07-01 2018-12-21 禾耀股份有限公司 多媒體互動醫療報告系統與多媒體互動醫療報告方法
JP6333871B2 (ja) * 2016-02-25 2018-05-30 ファナック株式会社 入力画像から検出した対象物を表示する画像処理装置
JP6683042B2 (ja) * 2016-07-06 2020-04-15 富士ゼロックス株式会社 データ処理装置、システムおよびプログラム
WO2018066429A1 (ja) * 2016-10-03 2018-04-12 ローランドディ―.ジー.株式会社 医療器材表示装置、医療器材表示プログラム
US10430924B2 (en) * 2017-06-30 2019-10-01 Quirklogic, Inc. Resizable, open editable thumbnails in a computing device
FR3074948B1 (fr) 2017-12-08 2021-10-22 Hewel Systeme et procede de traitement d’images collaboratif et interactif
US10818386B2 (en) * 2018-11-21 2020-10-27 Enlitic, Inc. Multi-label heat map generating system
CN110750966B (zh) * 2019-09-30 2023-09-19 广州视源电子科技股份有限公司 一种批注的处理方法、装置、设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004206658A (ja) * 2002-10-29 2004-07-22 Fuji Xerox Co Ltd 表示制御方法、情報表示処理システム、クライアント端末、管理サーバ、プログラム
JP2005339295A (ja) * 2004-05-28 2005-12-08 Fuji Xerox Co Ltd 文書処理装置、文書処理方法及び文書処理プログラム
WO2007119615A1 (ja) * 2006-04-14 2007-10-25 Konica Minolta Medical & Graphic, Inc. 医用画像表示装置及びプログラム
JP2009510598A (ja) * 2005-09-27 2009-03-12 サーカー ピーティーイー リミテッド コミュニケーション及びコラボレーションのためのシステム
JP2011117991A (ja) * 2009-11-30 2011-06-16 Sony Corp 情報処理装置、情報処理方法及びそのプログラム

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0905651A3 (en) * 1997-09-29 2000-02-23 Canon Kabushiki Kaisha Image processing apparatus and method
US6519603B1 (en) * 1999-10-28 2003-02-11 International Business Machine Corporation Method and system for organizing an annotation structure and for querying data and annotations
US7738688B2 (en) * 2000-05-03 2010-06-15 Aperio Technologies, Inc. System and method for viewing virtual slides
US7346841B2 (en) * 2000-12-19 2008-03-18 Xerox Corporation Method and apparatus for collaborative annotation of a document
GB2382509B (en) * 2001-11-23 2003-10-08 Voxar Ltd Handling of image data created by manipulation of image data sets
AU2003247452A1 (en) * 2002-05-31 2004-07-14 University Of Utah Research Foundation System and method for visual annotation and knowledge representation
US7551187B2 (en) * 2004-02-10 2009-06-23 Microsoft Corporation Systems and methods that utilize a dynamic digital zooming interface in connection with digital inking
JP4946189B2 (ja) * 2006-06-13 2012-06-06 富士ゼロックス株式会社 アノテーション情報配信プログラム及びアノテーション情報配信装置
WO2008130906A1 (en) * 2007-04-17 2008-10-30 Mikos, Ltd. System and method for using three dimensional infrared imaging to provide psychological profiles of individuals
US20090254867A1 (en) * 2008-04-03 2009-10-08 Microsoft Corporation Zoom for annotatable margins
US20090307618A1 (en) * 2008-06-05 2009-12-10 Microsoft Corporation Annotate at multiple levels
JP2010057902A (ja) * 2008-08-06 2010-03-18 Toshiba Corp レポート作成支援装置、レポート作成支援システム、及び医用画像参照装置
US8194102B2 (en) * 2008-10-06 2012-06-05 Microsoft Corporation Rendering annotations for images
US20100135562A1 (en) * 2008-11-28 2010-06-03 Siemens Computer Aided Diagnosis Ltd. Computer-aided detection with enhanced workflow
US20100318893A1 (en) * 2009-04-04 2010-12-16 Brett Matthews Online document annotation and reading system
US9524700B2 (en) * 2009-05-14 2016-12-20 Pure Depth Limited Method and system for displaying images of various formats on a single display
JP5561027B2 (ja) * 2009-11-30 2014-07-30 ソニー株式会社 情報処理装置、情報処理方法及びそのプログラム
US9202007B2 (en) * 2010-01-21 2015-12-01 Mckesson Financial Holdings Method, apparatus and computer program product for providing documentation and/or annotation capabilities for volumetric data
US20110182493A1 (en) * 2010-01-25 2011-07-28 Martin Huber Method and a system for image annotation
EP2601591A4 (en) * 2010-08-04 2017-02-08 Copia Interactive, LLC System for and method of collaborative annotation of digital content
US8843852B2 (en) * 2010-12-17 2014-09-23 Orca Health, Inc. Medical interface, annotation and communication systems
JP5685928B2 (ja) * 2010-12-24 2015-03-18 ソニー株式会社 情報処理装置、画像データ最適化方法、プログラム
US9552334B1 (en) * 2011-05-10 2017-01-24 Myplanit Inc. Geotemporal web and mobile service system and methods
US9116997B2 (en) * 2011-09-22 2015-08-25 Alibaba.Com Limited Presenting user preference activities
US9483454B2 (en) * 2011-10-07 2016-11-01 D2L Corporation Systems and methods for context specific annotation of electronic files
US20140006992A1 (en) * 2012-07-02 2014-01-02 Schlumberger Technology Corporation User sourced data issue management
JP2014063448A (ja) * 2012-09-24 2014-04-10 Sony Corp 情報処理装置、情報処理方法、および情報処理プログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004206658A (ja) * 2002-10-29 2004-07-22 Fuji Xerox Co Ltd 表示制御方法、情報表示処理システム、クライアント端末、管理サーバ、プログラム
JP2005339295A (ja) * 2004-05-28 2005-12-08 Fuji Xerox Co Ltd 文書処理装置、文書処理方法及び文書処理プログラム
JP2009510598A (ja) * 2005-09-27 2009-03-12 サーカー ピーティーイー リミテッド コミュニケーション及びコラボレーションのためのシステム
WO2007119615A1 (ja) * 2006-04-14 2007-10-25 Konica Minolta Medical & Graphic, Inc. 医用画像表示装置及びプログラム
JP2011117991A (ja) * 2009-11-30 2011-06-16 Sony Corp 情報処理装置、情報処理方法及びそのプログラム

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016517114A (ja) * 2013-04-19 2016-06-09 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 画像注釈のグループ化
JP2018085127A (ja) * 2013-09-25 2018-05-31 ハートフロー, インコーポレイテッド 自動医療画像注釈の検証及び修正のためのシステム及び方法
JP2015077208A (ja) * 2013-10-16 2015-04-23 株式会社東芝 医用画像撮影システム
JP2016115127A (ja) * 2014-12-15 2016-06-23 コニカミノルタ株式会社 文書管理プログラム、文書管理方法及び文書管理装置
JP2017062772A (ja) * 2015-08-06 2017-03-30 フジフィルム メディカル システムズ ユーエスエイ インコーポレイテッド 医療画像化表示システムを使用して情報を記録する方法及び装置
US11024420B2 (en) 2015-08-06 2021-06-01 Fujifilm Medical Systems U.S.A., Inc. Methods and apparatus for logging information using a medical imaging display system
JP7178164B2 (ja) 2015-08-06 2022-11-25 フジフィルム ヘルスケア アメリカズ コーポレイション 医療画像化表示システムを使用して情報を記録する方法及び装置
JP2017058799A (ja) * 2015-09-15 2017-03-23 コニカミノルタ株式会社 診療支援システム、サーバー装置及びプログラム
US10642956B2 (en) 2016-04-13 2020-05-05 Canon Kabushiki Kaisha Medical report generation apparatus, method for controlling medical report generation apparatus, medical image browsing apparatus, method for controlling medical image browsing apparatus, medical report generation system, and non-transitory computer readable medium
WO2018026003A1 (ja) * 2016-08-04 2018-02-08 ローランドディ―.ジー.株式会社 医療器材用メモ情報管理装置、医療器材用メモ情報管理システム
JP2020501273A (ja) * 2016-12-08 2020-01-16 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 画像内物体の注釈付けの学習
JP2018173902A (ja) * 2017-03-31 2018-11-08 大日本印刷株式会社 コンピュータプログラム、表示装置、表示システム及び表示方法
JP2020523150A (ja) * 2017-06-16 2020-08-06 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 胎児監視データに注釈付けすること
JP7208928B2 (ja) 2017-06-16 2023-01-19 コーニンクレッカ フィリップス エヌ ヴェ 胎児監視データに注釈付けすること
JP2020038600A (ja) * 2018-08-31 2020-03-12 ソニー株式会社 医療システム、医療装置および医療方法
JP7322409B2 (ja) 2018-08-31 2023-08-08 ソニーグループ株式会社 医療システム、医療装置および医療方法
WO2020075782A1 (ja) * 2018-10-09 2020-04-16 株式会社スカイマティクス 診断支援システム及びその方法
JP7190143B2 (ja) 2018-10-09 2022-12-15 株式会社スカイマティクス 診断支援システム及びその方法
JPWO2020075782A1 (ja) * 2018-10-09 2021-09-02 株式会社スカイマティクス 診断支援システム及びその方法
US11907341B2 (en) 2018-10-09 2024-02-20 Skymatix, Inc. Diagnostic assistance system and method therefor
WO2021117613A1 (ja) * 2019-12-10 2021-06-17 ソニーグループ株式会社 情報処理方法、情報処理装置、情報処理プログラムおよび情報処理システム
WO2021261323A1 (ja) * 2020-06-24 2021-12-30 ソニーグループ株式会社 情報処理装置、情報処理方法、プログラム及び情報処理システム
JP7482491B1 (ja) 2023-07-25 2024-05-14 株式会社Quastella 細胞画像分析システム、細胞画像分析装置及び細胞画像分析プログラム

Also Published As

Publication number Publication date
JP6091137B2 (ja) 2017-03-08
US20140292814A1 (en) 2014-10-02
WO2013099124A1 (en) 2013-07-04
CN103999119A (zh) 2014-08-20

Similar Documents

Publication Publication Date Title
JP6091137B2 (ja) 画像処理装置、画像処理システム、画像処理方法およびプログラム
US20200050655A1 (en) Image processing apparatus, control method for the same, image processing system, and program
US20130187954A1 (en) Image data generation apparatus and image data generation method
WO2013100025A9 (ja) 画像処理装置、画像処理システム、画像処理方法および画像処理プログラム
JP5660273B2 (ja) 画像診断方法、画像診断装置および画像診断プログラム
WO2013100028A9 (ja) 画像処理装置、画像表示システム、画像処理方法および画像処理プログラム
US20140306992A1 (en) Image processing apparatus, image processing system and image processing method
JP2014130221A (ja) 画像処理装置、その制御方法、画像処理システム、及びプログラム
JP5442542B2 (ja) 病理診断支援装置、病理診断支援方法、病理診断支援のための制御プログラムおよび該制御プログラムを記録した記録媒体
JP2013152426A (ja) 画像処理装置、画像処理システム、画像処理方法、およびプログラム
US20160042122A1 (en) Image processing method and image processing apparatus
JP2013134574A (ja) 画像データ生成装置、画像データ表示システムおよび画像データ生成方法
JP2013200640A (ja) 画像処理装置、画像処理システム、画像処理方法、およびプログラム
JP2013153429A (ja) 画像処理装置、画像表示システム、画像処理方法および画像処理プログラム
WO2013100026A1 (ja) 画像処理装置、画像処理システム、画像処理方法および画像処理プログラム
JP2013152701A (ja) 画像処理装置、画像処理システム、画像処理方法
JP5832281B2 (ja) 画像処理装置、画像処理システム、画像処理方法、およびプログラム
JP2016038542A (ja) 画像処理方法および画像処理装置
JP6338730B2 (ja) 表示データを生成する装置、方法、及びプログラム
WO2013099125A1 (en) Image processing apparatus, image processing system and image processing method
JP2013250574A (ja) 画像処理装置、画像表示システム、画像処理方法および画像処理プログラム
JP2016038541A (ja) 画像処理方法および画像処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160901

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170207

R151 Written notification of patent or utility model registration

Ref document number: 6091137

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151