JP2013152701A - Image processing device, image processing system and image processing method - Google Patents
Image processing device, image processing system and image processing method Download PDFInfo
- Publication number
- JP2013152701A JP2013152701A JP2012225979A JP2012225979A JP2013152701A JP 2013152701 A JP2013152701 A JP 2013152701A JP 2012225979 A JP2012225979 A JP 2012225979A JP 2012225979 A JP2012225979 A JP 2012225979A JP 2013152701 A JP2013152701 A JP 2013152701A
- Authority
- JP
- Japan
- Prior art keywords
- image
- annotation
- display
- image processing
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Abandoned
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
本発明は、画像処理装置、画像処理システム、画像処理方法およびプログラムに関する。 The present invention relates to an image processing apparatus, an image processing system, an image processing method, and a program.
近年、病理分野において、病理診断のツールである光学顕微鏡の代替として、プレパラートに載置された被検試料(被写体)の撮像と画像のデジタル化によってディスプレイ上での病理診断を可能とするバーチャルスライドシステムが注目を集めている。バーチャルスライドシステムを用いた病理診断画像のデジタル化により、被写体の光学顕微鏡像をデジタル画像データとして取り扱うことが可能となる。その結果、遠隔診断の迅速化、デジタル画像を用いた患者への説明、希少症例の共有化、教育・実習の効率化、などのメリットが得られると期待されている。 In recent years, in the field of pathology, as an alternative to an optical microscope, which is a tool for pathological diagnosis, a virtual slide that enables pathological diagnosis on a display by imaging a test sample (subject) placed on a slide and digitizing the image The system is drawing attention. By digitizing a pathological diagnosis image using a virtual slide system, an optical microscope image of a subject can be handled as digital image data. As a result, it is expected that merits such as quick remote diagnosis, explanation to patients using digital images, sharing of rare cases, and efficiency of education / practice will be obtained.
光学顕微鏡と同等程度の操作をバーチャルスライドシステムで実現するためには、プレパラート上の被写体全体の画像をデジタル化する必要がある。被写体全体の画像のデジタル化により、被写体全体をPC(Personal Computer)やワークステーション上で動作する
ビューワソフト(ビューワ)で観察することができる。被写体全体の画像をデジタル化した場合の画素数は、通常、数億画素から数十億画素と非常に大きなデータ量となる。このように、バーチャルスライドシステムで作成したデジタル画像データのデータ量は膨大である。しかし、それにより、ビューワで画像の拡大・縮小処理を行うことでミクロ(細部拡大像)からマクロ(全体俯瞰像)まで観察することが可能となり、種々の利便性を提供することが可能となる。必要な情報を予めすべて取得しておくことで、ユーザーが求める解像度や倍率の画像を即時表示することが可能となる。例えば、低倍率の画像から高倍率の画像まで即時表示することが可能となる。
また、医用画像(超音波画像)を取得するときにその医用画像にアノテーションを付加しておいて、アノテーション中のコメントを検索キーとして医用画像を検索する画像処理装置が提案されている(特許文献1)。
In order to realize an operation equivalent to that of an optical microscope with a virtual slide system, it is necessary to digitize the entire image of the subject on the slide. By digitizing the image of the entire subject, the entire subject can be observed with viewer software (viewer) operating on a PC (Personal Computer) or a workstation. The number of pixels when an image of the entire subject is digitized is usually a very large data amount of several hundred million to several billion pixels. Thus, the amount of digital image data created by the virtual slide system is enormous. However, it is possible to observe from the micro (detailed enlarged image) to the macro (overall bird's-eye view image) by performing enlargement / reduction processing of the image with the viewer, and it is possible to provide various conveniences. . By acquiring all necessary information in advance, it is possible to immediately display an image having the resolution and magnification required by the user. For example, it is possible to immediately display from a low magnification image to a high magnification image.
Also, an image processing apparatus has been proposed in which an annotation is added to a medical image when a medical image (ultrasonic image) is acquired, and the medical image is searched using a comment in the annotation as a search key (Patent Document) 1).
バーチャルスライド画像のような診断画像中には、その他の医用画像と比べて、診断医が注目する位置(注目位置;注目部位;関心領域)が多数存在する。それら注目位置を検索するためにアノテーションとしての注釈(コメント)のみを付加した場合には、検索対象が注釈に限定されるため、所望の注目位置を見つけ出すには制限がある。また、付加したアノテーションのすべてを確認して注目位置を探していたのでは、診断医(病理医)の手間が増えて、診断医による診断のための時間が長くなってしまう。 In a diagnostic image such as a virtual slide image, compared to other medical images, there are many positions (attention positions; attention sites; regions of interest) that are noticed by the diagnosis doctor. When only annotations (comments) as annotations are added in order to search these attention positions, the search target is limited to the annotations, and there is a limitation in finding a desired attention position. In addition, if all the added annotations are checked and the attention position is searched for, the time required for diagnosis by the diagnostician is increased because the time required for the diagnostician (pathologist) increases.
そこで、本発明は、ユーザーが注目位置を効率良く見つけだすことを可能とし、ひいてはユーザーの手間を減らすことのできる技術を提供することを目的とする。 Accordingly, an object of the present invention is to provide a technique that enables a user to efficiently find a position of interest, and thus reduces the user's trouble.
本発明の画像処理装置は、被写体を撮像して得られた診断画像にアノテーションを付加する付加手段と、アノテーションに関連する情報として、予め定められた属性の情報であ
る属性情報を、アノテーションと共に記憶部に記録する記録手段と、前記診断画像においてアノテーションが付加された複数の位置の中から、ユーザーが注目する位置である注目位置を検索する検索手段と、前記検索手段の検索結果を表示部に表示する表示手段と、を備え、前記検索手段は、アノテーションに含まれるワード、または、属性情報をキーとして、前記注目位置を検索することを特徴とする。
The image processing apparatus according to the present invention stores an addition unit that adds an annotation to a diagnostic image obtained by imaging a subject, and attribute information that is information about a predetermined attribute as information related to the annotation, together with the annotation. A recording unit for recording in the unit, a search unit for searching for a target position that is a position of interest to the user from a plurality of positions added with annotations in the diagnostic image, and a search result of the search unit on the display unit Display means for displaying, wherein the search means searches for the position of interest using a word or attribute information included in the annotation as a key.
本発明の画像処理システムは、前記画像処理装置と、前記表示部と、を備えることを特徴とする。 An image processing system according to the present invention includes the image processing apparatus and the display unit.
本発明の画像処理方法は、コンピュータが、被写体を撮像して得られた診断画像にアノテーションを付加する付加ステップと、コンピュータが、アノテーションに関連する情報として、予め定められた属性の情報である属性情報を、アノテーションと共に記憶部に記録する記録ステップと、コンピュータが、診断画像においてアノテーションが付加された複数の位置の中から、ユーザーが注目する位置である注目位置を検索する検索ステップと、コンピュータが、前記検索ステップの検索結果を表示部に表示する表示ステップと、を含み、前記検索ステップでは、アノテーションに含まれるワードまたは属性情報をキーとして、前記注目位置が検索されることを特徴とする。 The image processing method of the present invention includes an adding step in which a computer adds an annotation to a diagnostic image obtained by capturing an image of a subject, and an attribute that is information of a predetermined attribute as information related to the annotation. A recording step of recording information in the storage unit together with the annotation, a search step in which the computer searches a position of interest, which is a position of interest by the user, from a plurality of positions to which the annotation is added in the diagnostic image; And a display step of displaying a search result of the search step on a display unit. In the search step, the attention position is searched using a word or attribute information included in the annotation as a key.
本発明のプログラムは、前記画像処理方法の各ステップをコンピュータに実行させることを特徴とする。 A program according to the present invention causes a computer to execute each step of the image processing method.
本発明によれば、ユーザーが注目位置を効率良く見つけだすことが可能となり、ひいてはユーザーの手間を減らすことができる。 According to the present invention, it becomes possible for the user to efficiently find the position of interest, thereby reducing the user's trouble.
(実施例1)
以下、図面を参照しながら本発明の実施例1に係る画像処理システムについて説明する。
本発明の実施例1に係る画像処理装置は、撮像装置と表示装置を備えた画像処理システムにおいて用いることができる。
(画像処理システムの装置構成)
本実施例に係る画像処理システムについて、図1を用いて説明する。
図1は、本実施例に係る画像処理装置を用いた画像処理システムの構成を示す図である。本実施例に係る画像処理システムは、撮像装置(顕微鏡装置、またはバーチャルスライドスキャナ)101、画像処理装置102、表示装置103などから構成され、撮像対象となる被写体(被検試料)の二次元画像を取得し表示する機能を有する。撮像装置101と画像処理装置102とは、専用もしくは汎用のI/Fのケーブル104で互いに接続され、画像処理装置102と表示装置103とは、汎用のI/Fのケーブル105で互いに接続される。
Example 1
Hereinafter, an image processing system according to a first embodiment of the present invention will be described with reference to the drawings.
The image processing apparatus according to the first embodiment of the present invention can be used in an image processing system including an imaging device and a display device.
(Device configuration of image processing system)
An image processing system according to the present embodiment will be described with reference to FIG.
FIG. 1 is a diagram illustrating a configuration of an image processing system using the image processing apparatus according to the present embodiment. The image processing system according to this embodiment includes an imaging device (microscope device or virtual slide scanner) 101, an
撮像装置101としては、例えば、二次元の平面方向に位置の異なる複数枚の二次元画像を撮像し、デジタル画像を出力する機能を持つバーチャルスライド装置を用いることができる。二次元画像の取得にはCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子が用いられる。なお、撮像装置101として、通常の光学顕微鏡の接眼部にデジタルカメラを取り付けたデジタル顕微鏡装置を用いることもできる。
画像処理装置102は、ユーザーからの要求に応じて、撮像装置101から取得したデジタル画像データ(原画像データ)から、表示装置103に表示するデータ(表示データ)を生成する機能等を有する。画像処理装置102は、CPU(中央演算処理装置)、RAM、記憶装置、操作部を含む各種I/Fなどのハードウェア資源を備えた、汎用のコンピュータやワークステーションで構成される。記憶装置は、ハードディスクドライブなどの大容量情報記憶装置であり、後述する各処理を実現するためのプログラムやデータ、OS(オペレーティングシステム)などが格納されている。画像処理装置102の各機能は、CPUが記憶装置からRAMに必要なプログラムおよびデータをロードし、当該プログラムを実行することにより実現されるものである。操作部は、キーボードやマウスなどにより構成され、ユーザーが各種の指示を入力するために利用される。
表示装置103は、画像処理装置102が演算処理した結果である表示データに基づく画像を表示するディスプレイ(表示部)である。表示装置103としては、EL(Electro-Luminescence)、液晶、CRT(Cathode Ray Tube)等を用いた表示デバイスを用いることができる。
As the
The
The
なお、図1の例では、撮像装置101と画像処理装置102と表示装置103の3つの装置により画像処理システムが構成されているが、本発明の構成はこの構成に限定されるものではない。例えば、表示装置と一体化した画像処理装置を用いてもよいし、画像処理装置の機能を撮像装置に組み込んでもよい。また、撮像装置、画像処理装置、表示装置の機能を1つの装置で実現することもできる。逆に、1つの装置の機能を複数の装置によって実現してもよい。例えば、画像処理装置の機能が複数の装置によって実現されてもよい。
In the example of FIG. 1, the image processing system is configured by three devices of the
(撮像装置の機能構成)
図2は、撮像装置101の機能構成を示すブロック図である。
撮像装置101は、概略、照明ユニット201、ステージ202、ステージ制御ユニット205、結像光学系207、撮像ユニット210、現像処理ユニット219、プレ計測ユニット220、メイン制御系221、データ出力部222から構成される。
(Functional configuration of imaging device)
FIG. 2 is a block diagram illustrating a functional configuration of the
The
照明ユニット201は、ステージ202上に配置されたプレパラート206(被写体)に対して均一に光を照射する手段であり、光源、照明光学系、および光源駆動の制御系から構成される。ステージ202は、ステージ制御ユニット205によって駆動制御され、XYZの三軸方向への移動が可能である。プレパラート206は、観察対象となる被写体(組織の切片や塗抹した細胞)をスライドグラス上に貼り付け、封入剤とともにカバーグラスの下に固定した部材である。
ステージ制御ユニット205は、駆動制御系203とステージ駆動機構204から構成される。駆動制御系203は、メイン制御系221の指示を受け、ステージ202の駆動制御を行う。ステージ202の移動方向、移動量などは、プレ計測ユニット217によって計測した被写体の位置情報および厚み情報(距離情報)と、必要に応じてユーザーからの指示とに基づいて決定される。ステージ駆動機構204は、駆動制御系203の指示に従い、ステージ202を駆動する。
結像光学系207は、プレパラート206の被写体の光学像を撮像センサ208へ結像するためのレンズ群である。
The
The
The imaging
撮像ユニット210は、撮像センサ208とアナログフロントエンド(AFE)209から構成される。
撮像センサ208は、二次元の光学像を光電変換によって電気的な物理量へ変える一次元もしくは二次元のイメージセンサであり、撮像センサ208として、例えばCCDやCMOSデバイスが用いられる。撮像センサ208が一次元センサの場合、走査方向へスキャンすることで二次元画像(二次元の撮像画像)が得られる。撮像センサ208からは、光の強度に応じた電圧値をもつ電気信号(アナログ信号)が出力される。撮像画像としてカラー画像が所望される場合は、例えば、Bayer配列のカラーフィルタが取り付けられた単板のイメージセンサを用いればよい。撮像ユニット210は、ステージ202がXY軸方向に駆動することにより、被写体の分割画像(撮像領域が互いに異なる複数の分割画像)を撮像する。
AFE209は、撮像センサ208から出力されたアナログ信号をデジタル信号へ変換する回路である。AFE209は後述するH/Vドライバ、CDS(Correlated double sampling)、アンプ、AD変換器およびタイミングジェネレータによって構成される。H/Vドライバは、撮像センサ208を駆動するための垂直同期信号および水平同期信号を、センサ駆動に必要な電位に変換する。CDSは、固定パターンのノイズを除去する二重相関サンプリング回路である。アンプは、CDSでノイズ除去されたアナログ信号のゲインを調整するアナログアンプである。AD変換器は、アナログ信号をデジタル信号に変換する。撮像装置最終段での出力が8ビットの場合、後段の処理を考慮して、AD変換器はアナログ信号を10ビットから16ビット程度に量子化されたデジタルデータへ変換し、出力する。変換されたセンサ出力データはRAWデータと呼ばれる。RAWデータは後段の現像処理ユニット219で現像処理される。タイミングジェネレータは、撮像センサ208の処理タイミングおよび後段の現像処理ユニット219の処理タイミングを調整する信号を生成する。
撮像センサ208としてCCDを用いる場合、上記AFE209は必須となるが、デジタル出力可能なCMOSイメージセンサの場合は、上記AFE209の機能をセンサに内包することになる。また、不図示ではあるが、撮像センサ208の制御を行う撮像制御部が存在し、撮像センサ208の動作制御や、シャッタースピード、フレームレートやROI(Region Of Interest)など動作タイミングや制御が合わせて行われる。
The
The
The
When a CCD is used as the
現像処理ユニット219は、黒補正部211、ホワイトバランス調整部212、デモザイキング処理部213、画像合成処理部214、解像度変換処理部215、フィルタ処理部216、γ補正部217および圧縮処理部218から構成される。
黒補正部211は、RAWデータの各画素から、遮光時に得られた黒補正データを減算する処理を行う。
ホワイトバランス調整部212は、照明ユニット201の光の色温度に応じて、RGB各色のゲインを調整することによって、望ましい白色を再現する処理を行う。具体的には、黒補正後のRAWデータに対しホワイトバランス補正用データが加算される。単色の画像を取り扱う場合にはホワイトバランス調整処理は不要となる。
デモザイキング処理部213は、Bayer配列のRAWデータから、RGB各色の画像データを生成する処理を行う。デモザイキング処理部213は、RAWデータにおける
周辺画素(同色の画素と他色の画素を含む)の値を補間することによって、注目画素のRGB各色の値を計算する。またデモザイキング処理部213は、欠陥画素の補正処理(補間処理)も実行する。なお、撮像センサ208がカラーフィルタを有しておらず、単色の画像が得られている場合、デモザイキング処理は不要となる。
画像合成処理部214は、撮像センサ208によって撮像範囲を分割して取得した分割画像データをつなぎ合わせて所望の撮像範囲の大容量画像データを生成する処理を行う。一般に、既存のイメージセンサによって一回の撮像で取得できる撮像範囲より被写体の存在範囲が広いため、一枚の二次元画像データ(大容量画像データ)を、分割画像データのつなぎ合わせによって生成する。例えば、0.25μmの分解能でプレパラート206上の10mm角の範囲を撮像すると仮定した場合、一辺の画素数は10mm/0.25μmの4万画素となり、トータルの画素数はその二乗である16億画素となる。10M(1000万)の画素数を持つ撮像センサ208を用いて16億画素の画像データを取得するには、16億/1000万の160個に領域を分割して撮像を行う必要がある。なお、複数の画像データをつなぎ合わせる方法としては、ステージ202の位置情報に基づいて位置合わせをしてつなぐ方法や、複数の分割画像の対応する点または線の位置合わせをしてつなぐ方法、分割画像データの位置情報に基づいてつなぐ方法などがある。つなぎ合わせの際、0次補間、線形補間、高次補間等の補間処理により複数の分割画像を滑らかにつなげることができる。なお、本実施例では、一枚の大容量画像の生成を想定しているが、画像処理装置102が、複数の分割画像データを取得し、表示データを生成する際に、分割画像をつなぎ合わせてもよい。
解像度変換処理部215は、画像合成処理部214で生成された大容量の二次元画像を高速に表示するために、倍率が互いに異なる複数の画像を予め解像度変換によって生成する処理を行う。解像度変換処理部215は、低倍率から高倍率まで複数の倍率の画像データを生成し、それらの画像データをひとまとめにした階層構造を持つデータを生成する。当該階層構造を持つデータの詳細については図5を用いて後述する。
フィルタ処理部216は、画像に含まれる高周波成分の抑制、ノイズ除去、解像感強調を実現するデジタルフィルタである。γ補正部217は、一般的な表示デバイスの階調表現特性に合わせて、画像に逆特性を付加する処理を実行したり、高輝度部の階調圧縮や暗部処理によって人間の視覚特性に合わせた階調変換を実行したりする。本実施例では形態観察を目的とした画像取得のため、合成処理や表示処理に適した階調変換が画像データに対して適用される。
圧縮処理部218は、大容量の二次元画像データの伝送の効率化および保存する際の容量を削減(圧縮)するための符号化処理を行う。静止画像の圧縮手法として、JPEG(Joint Photographic Experts Group)、JPEGを改良、進化させたJPEG2000やJPEG XR等の規格化された符号化方式が広く一般に知られている。
The
The
The white
The
The image
The resolution
The
The
プレ計測ユニット220は、プレパラート206上の被写体の位置情報、所望の焦点位置までの距離情報、および被写体の厚みに起因する光量調整用のパラメータを算出するための事前計測を行うユニットである。本計測の前にプレ計測ユニット220によって情報を取得することで、無駄のない撮像を実施することが可能となる。二次元平面の位置情報の取得には、撮像センサ208より解像力の低い二次元撮像センサが用いられる。プレ計測ユニット220は、取得した画像から被写体のXY平面上での位置を把握する。距離情報および厚み情報の取得には、レーザー変位計やシャックハルトマン方式の計測器が用いられる。
The
メイン制御系221は、これまで説明してきた各種ユニットの制御を行う機能である。メイン制御系221および現像処理ユニット219の制御機能は、CPUとROMとRAMを有する制御回路により実現される。すなわち、ROM内にプログラムおよびデータが格納されており、CPUがRAMをワークメモリとして使いプログラムを実行することで、メイン制御系221および現像処理ユニット219の機能が実現される。ROMには例
えばEEPROMやフラッシュメモリなどのデバイスが用いられ、RAMには例えばDDR3などのDRAMデバイスが用いられる。なお、メイン制御系221を、現像処理ユニット219の機能を専用のハードウェアデバイスとしてASIC化したものに置き換えてもよい。
The
データ出力部222は、現像処理ユニット219によって生成された画像データを診断画像データとして画像処理装置102に送るためのインターフェースである。撮像装置101と画像処理装置102とは、光通信ケーブルにより互いに接続される。あるいは、USBやGigabitEthernet(登録商標)等の汎用インターフェースが使用される。
The
(画像処理装置の機能構成)
図3は、本実施例に係る画像処理装置102の機能構成を示すブロック図である。
画像処理装置102は、概略、画像データ取得部301、記憶保持部(メモリ)302、ユーザー入力情報取得部303、表示装置情報取得部304、アノテーションデータ生成部305、アノテーションリスト記憶部306、アノテーション検索処理部307、表示データ生成制御部308、表示画像データ取得部309、表示データ生成部310、および表示データ出力部311から構成される。
(Functional configuration of image processing apparatus)
FIG. 3 is a block diagram illustrating a functional configuration of the
The
画像データ取得部301は、撮像装置101で撮像された画像データ(被写体を撮像して得られた診断画像(診断対象の画像)のデータ)を取得する。ここで言う診断画像データは、被写体を分割して撮像することにより得られたRGBのカラーの分割画像データ、分割画像データを合成した一枚の二次元画像データ(高解像画像データ)、および高解像画像データをもとに生成された各倍率の画像データ(階層画像データ)の少なくとも何れかである。なお、分割画像データはモノクロの画像データでもよい。
The image
記憶保持部302は、画像データ取得部301を介して外部装置(撮像装置101)から取得した画像データを取り込み、記憶、保持する。
The
ユーザー入力情報取得部303は、マウスやキーボード等の操作部を介して、診断画像内の表示位置の変更、診断画像の表示倍率(表示する断層画像の倍率;拡大率や縮小率)の変更などの表示画像データ(診断画像の表示される領域の画像データ)の更新指示を取得する。また、ユーザー入力情報取得部303は、マウスやキーボード等の操作部を介して、診断画像の関心位置へのアノテーションの付加等を行う際に用いる表示アプリケーションへの入力情報を取得する。アノテーションとは、画像データに対して注釈として付与される情報のことであり、注釈があるという情報だけでも良いし、注釈内容(テキストデータ)も含まれていても良い。
The user input
表示装置情報取得部304は、表示装置103が保有するディスプレイの表示エリア情報(画面解像度)の他、現在表示されている画像の表示倍率の情報(表示倍率情報)を取得する。
The display device
アノテーションデータ生成部305は、診断画像の、ユーザーに指定された位置にアノテーションを付加する。また、アノテーションデータ生成部305は、アノテーションを付加する際に、注釈内容としてのテキスト情報だけでなく、アノテーションに関連する情報としての属性情報をテキスト情報と共に記憶部(アノテーションリスト記憶部306)に記録する。属性情報は、後述するように、診断画像に付加された多数のアノテーションの中から、観察者(医師、技師など)が注目すべきアノテーションを絞り込むために利用される。それゆえ、アノテーションの絞り込み(検索)に有用な情報であれば、どのような種類の情報でも属性情報として用いることができる。例えば、いつ、誰が(人が付加す
る場合もコンピュータが自動付加する場合もある)、アノテーションを付加したか、という情報や、アノテーションを付加した目的・意図・観点を表す情報などを、属性情報として用いることができる。属性情報の詳細は後述する。
アノテーションデータ生成部305は、ユーザー入力情報取得部303から表示画面(表示装置103の画面)内の位置座標(表示画面内の、ユーザーに指定された位置(アノテーションを付加する位置)の座標)の情報を取得する。また、アノテーションデータ生成部305は、表示装置情報取得部304から表示倍率情報を取得する。そして、アノテーションデータ生成部305は、それらの情報を用いて、上記表示画面内の位置座標を診断画像内の位置座標に変換する。その後、アノテーションデータ生成部305は、アノテーションとして入力されたテキスト情報(テキストデータ)、上記診断画像内の位置座標の情報、上記表示倍率情報、および属性情報を含むアノテーションデータを生成する。生成したアノテーションデータは、アノテーションリスト記憶部306に記録される。アノテーションの付加処理の詳細は図7を用いて後述する。
The annotation
The annotation
アノテーションリスト記憶部306は、アノテーションデータ生成部305で生成されたアノテーションデータをリスト化した参照テーブル(アノテーションリスト)を記憶する。アノテーションリストの構成については図11を用いて後述する。
The annotation
アノテーション検索処理部307は、アノテーションが付加された複数の位置から、ユーザーが注目する位置である注目位置を検索する。注目位置の検索処理の詳細は図8を用いて後述する。
The annotation
表示データ生成制御部308は、ユーザー入力情報取得部303の指示に従い表示データの生成を制御する。表示データは、主に、表示画像データとアノテーション画像データ(アノテーションの画像のデータ)とからなる。
表示画像データ取得部309は、表示データ生成制御部308からの指示に従い、表示に必要な診断画像データ(表示画像データ)を記憶保持部302から取得する。
The display data
The display image
表示データ生成部310と表示データ出力部311により、表示データが生成され、表示装置103へ出力される。それにより、表示データに基づく画像が表示装置103に表示される。また、注目位置の検索が行われた場合には、表示データ生成部310と表示データ出力部311により、アノテーション検索処理部307による検索結果が表示装置103に表示される。
具体的には、表示データ生成部310は、アノテーションデータ生成部305で生成されたアノテーションデータと、表示画像データ取得部309によって取得された診断画像データとを用いて、表示装置103で表示するための表示データを生成する。
表示データ出力部311は、表示データ生成部310で生成された表示データを外部装置である表示装置103へ出力する。
Display data is generated by the display
Specifically, the display
The display
(画像形成装置のハードウェア構成)
図4は、本実施例に係る画像処理装置のハードウェア構成を示すブロック図である。情報処理を行う画像処理装置として、例えばPC(Personal Computer)が用いられる。
PCは、CPU(Central Processing Unit)401、RAM(Random Access Memory
)402、記憶装置403、データ入出力I/F405、およびこれらを互いに接続する内部バス404を備える。
CPU401は、必要に応じてRAM402等にアクセスし、各種演算処理を行いながらPCの各ブロックを統括的に制御する。
RAM402は、CPU401の作業用領域等として用いられ、OS、実行中の各種プログラム、本発明の特徴であるアノテーションの検索や表示データの生成など処理で使用する各種データを一時的に保持する。
記憶装置403は、CPU401に実行させるOS、プログラムや各種パラメータなどのファームウェアが固定的に記憶されている補助記憶装置である。記憶装置403としては、HDD(Hard Disk Drive)等の磁気ディスクドライブもしくはFlashメモリを
用いた半導体デバイス(SSD(Solid State Disk)等)が用いられる。
データ入出力I/F405には、LAN I/F406を介して画像サーバー1101
が、グラフィクスボード407を介して表示装置103が、外部装置I/F408を介してバーチャルスライド装置やデジタル顕微鏡に代表される撮像装置101が、操作I/F409を介してキーボード410やマウス411が、それぞれ接続される。
(Hardware configuration of image forming apparatus)
FIG. 4 is a block diagram illustrating a hardware configuration of the image processing apparatus according to the present embodiment. As an image processing apparatus that performs information processing, for example, a PC (Personal Computer) is used.
The PC includes a CPU (Central Processing Unit) 401, a RAM (Random Access Memory).
) 402, a
The
The
The
The data input / output I /
However, the
なお、本実施例では、表示装置103が外部装置として接続されるPCを想定しているが、表示装置と一体化したPCであってもよい。例えばノートPCがこれに該当する。
なお、本実施例では、操作I/F409を介して接続される入力デバイスとしてキーボード410やマウス411等のポインティングデバイスを想定しているが、表示装置103の画面がタッチパネルとなっている場合には、該タッチパネルを入力デバイスとして用いてもよい。その場合、タッチパネルは表示装置103と一体となり得る。
In this embodiment, a PC to which the
In the present embodiment, a pointing device such as a keyboard 410 and a
(倍率毎に階層化されたデータの概念)
既に述べたように、画像処理装置102には、倍率毎に階層化されたデータが入力されることもある。図5は、倍率毎に予め用意された画像(階層画像;撮像装置101の解像度変換処理部215で生成される画像)の概念図である。
階層画像は軸Xと軸Yの二次元の軸を持っている。軸X,Yに直交する方向の軸Pは、複数の階層画像をピラミッド形式で示すための軸である。
符号501,502,503,504は、倍率が互いに異なる二次元画像(階層画像)であり、解像度が互いに異なる階層画像である。説明を簡単にするため、階層画像503の各一次元方向(X方向、Y方向)の解像度は、階層画像504の1/2となっている。階層画像502の各一次元方向の解像度は、階層画像503の1/2となっている。階層画像501の各一次元方向の解像度は、階層画像502の1/2となっている。
符号505は、分割画像のサイズの領域を指している。
(Concept of data hierarchized for each magnification)
As described above, the
The hierarchical image has a two-dimensional axis of axis X and axis Y. An axis P in a direction orthogonal to the axes X and Y is an axis for showing a plurality of hierarchical images in a pyramid format.
撮像装置101で撮像して得られる画像データは診断の目的から高解像、高分解能の画像データであることが望まれる。ただし、先に説明したとおり数十億画素からなる画像データの縮小画像を表示する場合、表示の要求がある度に解像度変換を行っていたのでは処理が間に合わなくなってしまう。そのため、予め倍率の異なるいくつかの階層画像を用意し、用意された階層画像から、表示倍率と近接する倍率の画像を選択し、表示倍率に合わせて選択した画像の解像度変換を行うことが望ましい。それにより、解像度変換の処理量を低減することができる。一般には、より高倍率の画像から表示倍率の画像を生成するのが、画質の点でより好ましい。
The image data obtained by imaging with the
撮像して得られる画像データは高解像の画像データであるため、該画像データを、解像度変換手法によって縮小することにより、他の倍率の階層画像データが生成される。解像度変換の手法としては、二次元の線形な補間処理であるバイリニアの他、三次の補間式を用いたバイキュービックなどが広く知られている。 Since the image data obtained by imaging is high-resolution image data, hierarchical image data of other magnifications is generated by reducing the image data by a resolution conversion method. As a resolution conversion method, bicubic using a cubic interpolation formula is widely known in addition to bilinear which is a two-dimensional linear interpolation process.
このように、診断画像の表示倍率を変化させて診断、観察する場合には、診断画像データとして、図に示したように倍率が互いに異なる複数の階層画像データを用意することが望ましい。なお、複数の階層画像データをとりまとめて一つのデータ(ファイル)として取り扱えるようにしてもよいし、各階層画像データを独立な画像データとして用意するとともに、倍率と画像データの関係を表す情報が用意されてもよい。 Thus, when diagnosing and observing while changing the display magnification of a diagnostic image, it is desirable to prepare a plurality of hierarchical image data having different magnifications as shown in the figure as diagnostic image data. A plurality of hierarchical image data may be collected and handled as one data (file), and each hierarchical image data is prepared as independent image data and information indicating the relationship between the magnification and the image data is prepared. May be.
(アノテーションの付加、注目位置の検索、検索結果の表示の方法)
本実施例に係る画像処理装置における、アノテーションの付加、注目位置の検索および検索結果の表示の流れを図6のフローチャートを用いて説明する。
(How to add annotations, search attention positions, and display search results)
The flow of annotation addition, attention position search, and search result display in the image processing apparatus according to the present embodiment will be described with reference to the flowchart of FIG.
ステップS601では、表示装置情報取得部304が、表示装置103の表示エリア(画面)のサイズ情報(画面解像度)、及び、現在の表示されている診断画像の倍率の情報(表示倍率情報)を取得する。表示エリアのサイズ情報は、生成する表示データのサイズを決める際に用いる。表示倍率は、階層画像を選択する時、およびアノテーションデータの生成時に用いる。アノテーションデータの生成については後述する。
In step S601, the display device
ステップS602では、表示画像データ取得部309が、ステップS601で取得された表示倍率に対応した診断画像データを記憶保持部302より取得する。具体的には、表示画像データ取得部309は、ステップS601で取得された表示倍率に最も近い(または、表示倍率より大きく、且つ、表示倍率に最も近い)倍率の診断画像データを記憶保持部302より取得する。なお、診断画像が表示されていない場合には、表示画像データ取得部309が、所定の表示倍率(初期値)に対応した診断画像データを記憶保持部302より取得する。
In step S <b> 602, the display image
ステップS603では、表示データ生成部310が、ステップS602で取得された診断画像データを用いて表示データを生成する。具体的には、表示倍率がステップS602で取得された診断画像データの倍率と等しい場合には、表示データ生成部310は、当該取得された診断画像データをそのまま用いて表示データを生成する。表示倍率がステップS602で取得された診断画像データの倍率と異なる場合には、表示データ生成部310は、倍率が表示倍率となるように、取得された診断画像データの解像度変換を行い、該解像度変換された画像データを用いて表示データを生成する。生成された表示データは、表示装置103に表示される。このとき、診断画像内の表示する位置(表示位置)が指示されている場合には、表示倍率の診断画像の該位置が表示されるように、表示倍率の診断画像データの一部または全部を抽出して表示データが生成される。
In step S603, the display
ステップS604では、ユーザー入力情報取得部303が、ユーザーから表示画像データの更新が指示されたか否かを判断する。具体的には、表示位置の変更や表示倍率の変更など、診断画像の表示領域の変更の指示があったか否かが判断される。表示画像データの更新指示があった場合はステップS602へ戻り、診断画像データの取得、表示データの生成による画面更新(表示画像の更新)の処理が行われる。表示画像データの更新の指示がない場合には、ステップS605へ進む。
In step S604, the user input
ステップS605では、ユーザー入力情報取得部303が、ユーザーからアノテーション付加の指示、要求を受けたか否かを判断する。アノテーション付加の指示があった場合は、ステップS606へ進む。アノテーションの付加の指示がなかった場合は、アノテーション付加の処理をスキップして、ステップS607へ進む。例えば、ユーザー入力情報取得部303は、ユーザーがアノテーションを付加する位置を指定した場合に、アノテーション付加の指示があったと判断する。
In step S605, the user input
ステップS606では、アノテーションの付加に伴う各種処理が行われる。処理内容としては、キーボード410等で入力されたテキストのデータをアノテーションとして取得する他、本実施例の特徴である属性情報の取得が挙げられる。ステップS606の詳細については図7を用いて後述する。 In step S606, various processes accompanying the addition of the annotation are performed. As processing contents, in addition to acquiring text data input with the keyboard 410 or the like as annotations, acquisition of attribute information, which is a feature of this embodiment, can be mentioned. Details of step S606 will be described later with reference to FIG.
ステップS607では、ユーザー入力情報取得部303が、ユーザーから注目位置の検索の指示、要求を受けたか否かを判断する。注目位置の検索の指示があった場合は、ステップS608へ進む。注目位置の検索の指示がなかった場合は、処理を終了する。
In step S <b> 607, the user input
ステップS608では、注目位置の検索に伴う各種処理が行われる。本ステップでは、アノテーションに含まれるワードまたは属性情報をキーとして、注目位置が検索される。具体的には、注目位置を検索することにより、アノテーションが付加された複数の位置から、注目位置の候補である候補位置が検出される。ステップS608の処理の詳細については図8を用いて後述する。なお、検索の結果、位置が1つも検出されなかった場合には、表示データ生成部310と表示データ出力部311により、入力されたキーに対応する位置がない旨の画像やメッセージが、検索結果として表示装置103に表示される。
In step S608, various processes associated with the search for the target position are performed. In this step, the attention position is searched using the word or attribute information included in the annotation as a key. Specifically, by searching for a target position, candidate positions that are candidates for the target position are detected from a plurality of positions with annotations added. Details of the processing in step S608 will be described later with reference to FIG. If no position is detected as a result of the search, an image or message indicating that there is no position corresponding to the input key is displayed by the display
ステップS609では、ユーザー入力情報取得部303が、ユーザーから注目位置の検索結果の表示の指示、要求を受けたか否かを判断する。検索結果の表示の指示があった場合は、ステップS610へ進む。検索結果の表示の指示がなかった場合は、処理を終了する。
In step S <b> 609, the user input
ステップS610では、検索結果を表示するための処理が行われる。ステップS610の処理の詳細については図9を用いて後述する。 In step S610, processing for displaying the search result is performed. Details of the processing in step S610 will be described later with reference to FIG.
なお、図6では、表示位置や表示倍率の変更の要求である画面更新要求の受付、アノテーションの付加、注目位置の検索がシーケンシャルに行われる場合を示しているが、それらの処理のタイミングはこれに限らない。これらの処理は同時に行われてもよいし、図6の順番に限らず、どのようなタイミングで行われてもよい。 Note that FIG. 6 shows a case where a screen update request that is a request for changing the display position and display magnification, an annotation addition, and a search for a target position are sequentially performed. Not limited to. These processes may be performed simultaneously, and may be performed not only in the order of FIG. 6 but at any timing.
(アノテーションの付加)
図7は、図6のステップS606で示したアノテーションを付加する処理の詳細な流れを示すフローチャートである。以下、図7を用いて、アノテーションが付加された位置、表示倍率、および、属性情報に基づいてアノテーションデータを生成する処理の流れについて説明する。
(Add annotation)
FIG. 7 is a flowchart showing a detailed flow of processing for adding an annotation shown in step S606 of FIG. Hereinafter, the flow of processing for generating annotation data based on the position where the annotation is added, the display magnification, and the attribute information will be described with reference to FIG.
ステップS701では、アノテーションデータ生成部305が、ユーザー入力情報取得部303から位置座標(ユーザーに指定された、アノテーションを付加する位置の座標)の情報を取得する。ここで取得される情報は、表示装置103の表示画面内での位置(相対位置)の情報であるため、アノテーションデータ生成部305は、上記取得した情報で表される位置を記憶保持部302に保持されている診断画像内での位置(絶対位置)に換算する。
In step S <b> 701, the annotation
ステップS702では、アノテーションデータ生成部305が、ユーザー入力情報取得部303から、ユーザーがキーボード410を用いて入力したテキストのデータ(アノテーション)を取得する。アノテーション付加の指示があった場合に、ユーザーにテキスト(注釈)の入力を促す画像が表示され、ユーザーは該画像の表示に応じてアノテーション内容としてのテキスト情報を入力する。
In step S <b> 702, the annotation
ステップS703では、アノテーションデータ生成部305が、表示装置情報取得部304から、現在(アノテーションの付加が指示された時)の表示倍率の情報を取得する。なお、ここでは表示装置103から表示倍率情報を取得する構成にしているが、画像処理装置102が表示データを生成しているため、内部で保持している表示倍率のデータを使用する構成でもよい。
In step S <b> 703, the annotation
ステップS704では、アノテーションデータ生成部305が、ユーザーによるアノテーションの検索を容易にするための各種属性情報を取得する。ステップS701で換算した位置情報、ステップS702で取得した表示倍率も広い意味では属性情報である。位置
情報や表示倍率は、アノテーションを付加する際の観察の状態を示す情報であるのに対して、ステップS704で取得する属性情報は、病理診断を行う際の環境やユーザーの意図を反映したものである。
具体的には、属性情報は、日時情報、ユーザー情報、診断情報、診断基準情報などを含む。
日時情報は、例えば、対応するアノテーションが付加された日時であり、例えば、アノテーションの付加が指示された日時や、アノテーションとしてのテキストが入力された日時である。また、日時情報は、診断画像の観察(診断)が行われた日時であってもよい。
ユーザー情報は、アノテーションを付加したユーザーを特定する情報であり、例えば、ユーザー名、ユーザーを識別する識別子、ユーザー属性などである。病理診断におけるワークフローでは、複数のユーザー(例えば、技師、病理医、臨床医、コンピュータ(自動診断ソフトウェア))がそれぞれ異なる目的(観点、役割)又は異なる方法(例えば、画像解析による自動付加、目視による付加)で順番に同じ画像にアノテーションを付加していく。ユーザー属性とは、各ユーザーがアノテーションを付加したときの目的(観点、役割)又は方法を示す情報であり、例えば「病理医」や「技師」、「臨床医」、「自動診断」などが考えられる。このように、ユーザー情報の一つとしてユーザー属性をアノテーションに関連付けておき、ユーザー属性毎に検索できるようにすれば、病理診断ワークフローの各段階において、各アノテーション情報の性質把握や情報の取捨選択が容易になり、病理診断作業を円滑化できる。
診断情報は、診断画像の診断内容を表す情報である。診断情報は、例えば、アノテーションの付加がどのような目的で行われたのかを示す重要度情報、病気の進行度合い、客観的(相対的)な観察を行うための比較対象であるか否かの情報などである。
診断基準情報とは、臓器ごとの診断分類をまとめた情報であり、国や地域ごとの実情に沿った形態となっている。診断分類は臓器ごとの病期(ステージ)を示すものである。例えば、胃癌であれば、ある地域の診断基準である癌分類規約αで規定されている診断分類と、別の地域の診断基準である癌分類規約βで規定されている診断分類は異なることがある。そこで、ユーザーが診断画像の診断を行う際に用いた診断基準・診断分類を表す情報を、診断基準情報として属性情報に付加する。診断基準・診断分類については、図15を用いて後述する。
本実施例では、属性情報は、複数の選択肢(カテゴリ)からユーザーにより選択された情報であるものとする。
なお、属性情報は、自動で生成されてもよいし、ユーザーにより入力されてもよい。一部の属性情報が自動で生成され、他の属性情報がユーザーにより入力(選択)されてもよい。例えば、日時情報などは自動で生成可能である。属性情報をユーザーが入力する場合には、例えば、アノテーション付加の指示があった場合に、ユーザーに属性情報の入力を促す画像が表示され、ユーザーは該画像の表示に応じて属性情報を入力する。なお、属性情報の入力のタイミングは、アノテーションとしてのテキストの入力のタイミングと同じであってもよいし異なっていてもよい。
In step S704, the annotation
Specifically, the attribute information includes date and time information, user information, diagnostic information, diagnostic criteria information, and the like.
The date / time information is, for example, the date / time when the corresponding annotation is added, for example, the date / time when the addition of the annotation is instructed or the date / time when the text as the annotation is input. The date / time information may be the date / time when the diagnosis image was observed (diagnosis).
The user information is information for identifying the user to which the annotation is added, and includes, for example, a user name, an identifier for identifying the user, a user attribute, and the like. In a workflow in pathological diagnosis, multiple users (for example, engineers, pathologists, clinicians, computers (automatic diagnosis software)) have different purposes (viewpoints, roles) or different methods (for example, automatic addition by image analysis, visual inspection) Add annotations to the same image in order. The user attribute is information indicating the purpose (viewpoint, role) or method when each user adds an annotation. For example, “pathologist”, “engineer”, “clinician”, “automatic diagnosis”, etc. It is done. In this way, by associating user attributes with annotations as one piece of user information and making it possible to search for each user attribute, it is possible to grasp the nature of each annotation information and to select information at each stage of the pathological diagnosis workflow. It becomes easy and the pathological diagnosis work can be facilitated.
The diagnostic information is information representing the diagnostic content of the diagnostic image. Diagnostic information includes, for example, importance information indicating the purpose of adding annotations, the degree of disease progression, and whether or not to compare for objective (relative) observation Information.
The diagnostic criteria information is information that summarizes the diagnostic classification for each organ, and is in a form in accordance with the actual situation for each country or region. The diagnostic classification indicates the stage (stage) for each organ. For example, in the case of gastric cancer, the diagnostic classification specified in the cancer classification code α, which is a diagnostic standard in one area, may be different from the diagnostic classification specified in the cancer classification code β, which is a diagnostic standard in another area. is there. Therefore, information representing the diagnostic criteria / diagnosis classification used when the user diagnoses the diagnostic image is added to the attribute information as diagnostic criteria information. The diagnostic criteria and diagnostic classification will be described later with reference to FIG.
In this embodiment, it is assumed that the attribute information is information selected by the user from a plurality of options (categories).
The attribute information may be automatically generated or input by the user. Some attribute information may be automatically generated, and other attribute information may be input (selected) by the user. For example, date information can be automatically generated. When the user inputs attribute information, for example, when there is an instruction to add an annotation, an image prompting the user to input attribute information is displayed, and the user inputs attribute information according to the display of the image. . Note that the input timing of attribute information may be the same as or different from the input timing of text as an annotation.
ステップS705では、ステップS701で換算した位置座標の情報(絶対位置の情報)と、ステップS702で取得したテキスト情報、ステップS703で取得した表示倍率情報、およびステップS704で取得した各種属性情報を含むデータをアノテーションデータとして生成する。
なお、アノテーションが付加された診断画像内での絶対的な位置座標は、以下のように、アノテーション付加時の表示診断画像と倍率が異なる階層画像内での位置座標に変換することができる。例えば、20倍の表示倍率で画像原点(X=Y=0)からの距離(画素数)がそれぞれ100画素となる点P(100,100)の位置にアノテーションが付加された場合を想定する。この場合、40倍の高倍画像ではアノテーションが付加された位置座標はP1(200,200)となる。また、10倍の低倍画像ではアノテーションが付加された位置座標はP2(50,50)となる。ここでは説明を簡単にするため、きり
の良い表示倍率を用いて説明を行っているが、表示倍率が25倍で点P(100,100)の位置にアノテーションが付加された場合には、40倍の高倍画像ではアノテーションが付加された位置座標はP3(160,160)となる。このように、階層画像の倍率と表示倍率との比を座標(点Pの座標)の値に乗算することで、アノテーションが付加された診断画像内での絶対的な位置座標を、アノテーション付加時の表示診断画像と倍率が異なる階層画像内での位置座標に変換することができる。このような変換を行うことにより、アノテーション付加時の表示診断画像と倍率が異なる階層画像を表示する時にもアノテーションの付加位置を示すことが可能となる。本実施例では、各階層画像内での絶対位置を本ステップで算出し、算出したそれらの位置の情報をアノテーションデータに含めるものとする。
In step S705, the data including the position coordinate information converted in step S701 (absolute position information), the text information acquired in step S702, the display magnification information acquired in step S703, and various attribute information acquired in step S704. Is generated as annotation data.
The absolute position coordinates in the diagnostic image to which the annotation is added can be converted into the position coordinates in the hierarchical image having a magnification different from that of the display diagnostic image at the time of adding the annotation as follows. For example, it is assumed that an annotation is added at the position of a point P (100, 100) where the distance (number of pixels) from the image origin (X = Y = 0) is 100 pixels at a display magnification of 20 times. In this case, in the 40 × high-magnification image, the position coordinate to which the annotation is added is P1 (200, 200). In addition, in the case of a 10 × low-magnification image, the position coordinates where the annotation is added are P2 (50, 50). Here, in order to simplify the description, the description has been given using a display magnification with a sharpness. However, when the display magnification is 25 times and an annotation is added at the position of the point P (100, 100), 40 is used. In the double high-magnification image, the position coordinates to which the annotation is added are P3 (160, 160). Thus, by multiplying the value of the coordinate (the coordinate of the point P) by the ratio between the magnification of the hierarchical image and the display magnification, the absolute position coordinate in the diagnostic image to which the annotation has been added can be obtained when the annotation is added. Can be converted into position coordinates in a hierarchical image having a magnification different from that of the displayed diagnostic image. By performing such conversion, it is possible to indicate the annotation addition position even when displaying a hierarchical image having a different magnification from the display diagnostic image at the time of annotation addition. In this embodiment, the absolute position in each hierarchical image is calculated in this step, and information on the calculated position is included in the annotation data.
ステップS706では、アノテーションデータ生成部305が、診断画像の診断(表示)が開始されてからアノテーションの付加が行われたか否かを判断する。アノテーションの付加が初めて行われた場合はステップS708へ、過去に一度でもアノテーションの付加が行われていればステップS707へ進む。
In step S706, the annotation
ステップS707では、アノテーションデータ生成部305が、ステップS708で作成されたアノテーションリストの更新を行う。具体的には、アノテーションデータ生成部305は、既に記録されているアノテーションリストに、ステップS705で生成されたアノテーションデータを追加する。
In step S707, the annotation
ステップS708では、アノテーションデータ生成部305が、アノテーションリストを生成する。具体的には、アノテーションデータ生成部305は、ステップS705で生成されたアノテーションデータを含むアノテーションリストを生成する。アノテーションリストの構成については図11を用いて後述する。
In step S708, the annotation
(注目位置の検索)
図8は、図6のステップS608で示した注目位置を検索する処理の詳細な流れを示すフローチャートである。以下、図8を用いて、アノテーションリストに基づいて注目位置を検索し、検索結果のリストを生成する処理の流れについて説明する。
(Search attention position)
FIG. 8 is a flowchart showing a detailed flow of the process of searching for the target position shown in step S608 of FIG. Hereinafter, the flow of processing for searching for a position of interest based on an annotation list and generating a search result list will be described with reference to FIG.
ステップS801では、アノテーション検索処理部307が、注目位置の検索がアノテーションに含まれるワードをキーとした検索か否かを判断する。アノテーションに含まれるワードをキーとして検索を行う場合はステップS802へ、属性情報をキーとした検索を行う場合はステップS805へ進む。
In step S801, the annotation
ステップS802では、アノテーション検索処理部307が、ユーザー入力情報取得部303から、検索キーであるワード(キーワード)を取得する。ユーザーは、例えば、キーボードやマウスなどを用いてキーワードを入力したり、過去の検索履歴の中からキーワードを選択したりする。当該ユーザー操作に応じてキーワードがユーザー入力情報取得部303からアノテーション検索処理部307へ送られる。
ステップS803では、アノテーション検索処理部307が、ステップS707またはステップS708で生成、更新されたアノテーションリストに格納されたテキストデータ(アノテーション)を取得する。
ステップS804では、アノテーション検索処理部307が、ステップS803で取得された複数のテキストデータに対し、ステップS802で取得されたキーワードによる検索をかける。ここでは、キーワードと完全一致、キーワード中の一部の単語と一致等、一般的なキーワード検索の手法を使用することができる。
In step S <b> 802, the annotation
In step S803, the annotation
In step S804, the annotation
ステップS805では、アノテーション検索処理部307が、ユーザー入力情報取得部
303から、検索キーである属性情報を取得する。検索キーとしての属性情報は、複数の選択肢の中から選択される。なお、検索キーとしての属性情報は、上記キーワードと同様に入力(選択)されてもよい。
検索キーを設定する際の表示画像の構成については図10を用いて後述する。
ステップS806では、アノテーション検索処理部307が、アノテーションリストに格納された属性情報を取得する。
ステップS807では、アノテーション検索処理部307が、ステップS806で取得された属性情報に対し、ステップS805で取得された属性情報(検索キー)による検索をかける。アノテーション付加時に属性情報が複数の選択肢(カテゴリ)から選択される場合には、検索キーである属性情報とカテゴリが一致した属性情報を検出するなどの一般的な手法を用いればよい。
なお、ステップS804,S807とも検索手法は上記手法に限定されるものではなく、目的に応じた広く一般に知られている検索手法を用いることができる。
In step S <b> 805, the annotation
The configuration of the display image when setting the search key will be described later with reference to FIG.
In step S806, the annotation
In step S807, the annotation
In both steps S804 and S807, the search method is not limited to the above method, and a widely known search method according to the purpose can be used.
ステップS808では、アノテーション検索処理部307が、ステップS804及びステップS807の検索結果をリスト化する。例えば、ステップS804で検出されたテキストデータを含むアノテーションデータと、ステップS807で検出された属性情報を含むアノテーションデータとを含むアノテーションデータのリスト(検索結果リスト)が作成される。
In step S808, the annotation
(注目位置の検索結果の表示)
図9は、図6のステップS610で示した注目位置の検索結果を表示する処理の詳細な流れを示すフローチャートである。以下、図9を用いて、検索結果リストに基づいて検索結果を表する処理の流れについて説明する。本実施例では、検索結果として、診断画像を表示装置103に表示するとともに、該診断画像内に候補位置を示す。即ち、検索結果として、診断画像内に候補位置が示された画像が表示される。
(Display of search results for attention positions)
FIG. 9 is a flowchart showing a detailed flow of the process of displaying the search result of the target position shown in step S610 of FIG. Hereinafter, the flow of processing for representing a search result based on the search result list will be described with reference to FIG. In this embodiment, a diagnostic image is displayed on the
ステップS901では、表示データ生成制御部308が、アノテーション検索処理部307から、ステップS808で生成された検索結果リストを取得する。
In step S901, the display data
ステップS902では、表示データ生成制御部308が、取得した検索結果リストに含まれるアノテーションデータの位置情報(即ち候補位置の位置情報)に基づいて、画面に表示する診断画像の範囲(表示範囲)を算出する。本実施例では、検索により複数の候補位置が検出された場合には、全ての候補位置が含まれるような表示範囲(表示位置と表示倍率)が計算される。具体的には、全ての候補位置が含まれるような最小の表示範囲が計算される。
In step S902, the display data
ステップS903では、表示データ生成制御部308が、検索結果を表示する際の表示倍率と現在の表示倍率が異なるか否か、及び、検索結果を表示する際の表示位置と現在の表示位置が異なるか否か、すなわち表示画像データの更新が必要となるか否かを判断する。一般に画像データ全体を網羅的に観察するスクリーニングでの表示倍率(5倍から10倍程度)と、詳細観察での表示倍率(20倍から40倍)と、注目位置の検索結果を確認するための表示倍率(ステップS902で算出される倍率)とは異なることが予想される。そのため、本ステップの処理を行う必要がある。表示画像データの更新が必要な場合はステップS904へ進む。表示画像データの更新が必要ない場合はステップS905へ進む。
In step S903, the display data
ステップS904では、表示画像データ取得部309が、ステップS903での判断結果に応じて、検索結果を表示する際の表示倍率(ステップS902で計算された表示倍率)に対応する診断画像を取得する。
In step S904, the display image
ステップS905では、表示データ生成制御部308が、候補位置の数が所定数より多いか否かを判断する。判断に用いる閾値(所定数)は任意に設定できる。候補位置の数が所定数より多い場合はステップS906へ進み、候補位置の数が所定数以下の場合はステップS907へ進む。
In step S905, the display data
ステップS906では、表示データ生成制御部308が、ポインタ表示モードを選択する。ポインタ表示モードは、アイコン画像を用いて診断画像内に候補位置を示すモードである。そして、表示データ生成部310が、上記選択に応じて、ポインタ表示データを生成する。ポインタ表示データは、候補位置にポインタが位置する画像データである。
In step S906, the display data
ステップS907では、表示データ生成制御部308が、アノテーション表示モードを選択する。アノテーション表示モードは、対応するアノテーション(テキスト)の画像を用いて診断画像内に候補位置を示すモードである。そして、表示データ生成部310が、上記選択に応じて、アノテーション表示データを生成する。アノテーション表示データは、候補位置に、対応するアノテーションの画像が位置する画像データである。
In step S907, the display data
ステップS908では、表示データ生成部310が、ステップS906またはステップS907で生成された表示データ(ポインタ表示データ、アノテーション表示データ)と、ステップS902で計算された表示倍率の診断画像データとを合成して、検索結果としての表示データを生成する。具体的には、ステップS902で計算された表示倍率の診断画像に、ポインタ表示画像またはアノテーション表示画像を重ねた画像データが生成される。
In step S908, the display
ステップS909では、表示データ出力部311が、ステップ908で生成された表示データを表示装置103に出力する。
ステップS910では、表示装置103が、ステップS909で出力された表示データに基づく画像が表示されるように、画面(表示画像)を更新する。
In step S909, the display
In step S910, the
即ち、本実施例では、候補位置の数が所定数より多い場合に、アイコン画像を用いて診断画像内に候補位置が示された画像が、検索結果として表示される。ポインタ表示モードでの表示画像例は図10を用いて後述する。また、候補位置の数が所定数以下の場合に、対応するアノテーションの画像を用いて診断画像内に候補位置が示された画像が、検索結果として表示される。
画面の表示領域に対するアノテーションの画像の領域の割合が大きい場合、診断画像の観察が困難となる。上記構成を採用することで、アノテーションの画像が診断画像の観察の妨げになることを抑制することができる。なお、本実施例では、候補位置の数に応じて表示モードが選択されるものとしたが、ユーザーが表示モードを選択できる構成であってもよい。
That is, in this embodiment, when the number of candidate positions is larger than a predetermined number, an image in which the candidate positions are indicated in the diagnostic image using the icon image is displayed as a search result. An example of a display image in the pointer display mode will be described later with reference to FIG. Further, when the number of candidate positions is equal to or less than a predetermined number, an image in which the candidate positions are indicated in the diagnostic image using the corresponding annotation image is displayed as a search result.
When the ratio of the annotation image area to the screen display area is large, it is difficult to observe the diagnostic image. By adopting the above configuration, it is possible to suppress the annotation image from obstructing the observation of the diagnostic image. In this embodiment, the display mode is selected according to the number of candidate positions. However, a configuration in which the user can select the display mode may be used.
ステップS911では、表示データ生成制御部308が、現在の表示モードがアノテーション表示モードかポインタ表示モードかを判断する。現在の表示モードがポインタ表示モードの場合はステップS912へ進む。現在の表示モードがアノテーション表示モードの場合はステップS914へ進む。
In step S911, the display data
ステップS912では、表示データ生成制御部308が、ユーザー入力情報取得部303からの情報をもとに、画面上に表示されているアイコン(アイコン画像)をユーザーが選択しているか、もしくはユーザーがマウスカーソルをアイコン上にかざしたかを判断する。アイコンが選択された場合、または、アイコン上にマウスカーソルがかざされた場合にはステップ913へ進む。そうでない場合には処理を終了する。
ステップS913では、表示データ生成部310が、ステップS912での判定結果に応じて、該当するアイコンの位置(候補位置)に付加されたアノテーション(テキスト)の画像をポップアップで表示する。ポップアップ表示されたアノテーションの画像は、マウスカーソルがポインタから外れた場合に消去(非表示)してもよいし、ユーザー操作などにより消去が指示されるまで表示され続けてもよい。
ステップS912,S913の処理を行うことにより、ユーザーはポインタ表示モードにおいてアノテーションの内容(コメントの内容)を確認することができる。
In step S912, the display data
In step S913, the display
By performing the processes of steps S912 and S913, the user can check the content of the annotation (content of the comment) in the pointer display mode.
ステップS914では、表示データ生成制御部308が、ユーザー入力情報取得部303などからの情報をもとに、診断画像内に示された候補位置(本実施例ではアノテーションの画像)が選択されたか否かを判断する。候補位置が選択された場合はステップS915へ進む。候補位置が選択されなかった場合は処理を終了する。
In step S914, whether or not the display data
ステップS915では、表示画像データ取得部309が、ステップS914での判定結果に応じて、選択された候補位置にアノテーションを付加したときの表示倍率と同じ倍率の診断画像データを選択する。
In step S915, the display image
ステップS916では、表示データ生成部310が、ステップS914で選択された候補位置のアノテーションデータおよびステップS915で選択された診断画像データに基づき、表示データを生成する。具体的には、ステップS914で選択された候補位置にアノテーションを付加したときの表示位置および表示倍率で、該アノテーションが付加された診断画像が表示されるように、表示データを生成する。本処理を行うことにより、アノテーション付加時の表示画像を再現した表示を行うことができる。
In step S916, the display
ステップS917では、表示データ出力部311が、ステップ916で生成された表示データを表示装置103に出力する。ステップS918では、表示装置103が、ステップS917で出力された表示データに基づく画像が表示されるように、表示画面(表示画像)を更新する。
In step S <b> 917, the display
(表示画像レイアウト)
図10(a)〜図10(e)は、本実施例に係る画像処理装置102で生成された表示データに基づく画像(表示画像)の一例である。
図10(a)は、診断画像を観察する際の表示画像のレイアウトの基本構成を示す。図10(a)の例では、表示画像は、全体ウィンドウ1001内に、情報エリア1002、サムネイル画像エリア1003、観察画像表示エリア1005が配置された画像である。
情報エリア1002には、表示や操作のステータス、各種画像の情報および検索画像(検索の設定を行うための画像)や検索結果が表示される。
サムネイル画像エリア1003には、観察対象の被写体のサムネイル画像が表示される。また、サムネイル画像エリア1003には、観察中の領域を示す詳細表示領域枠1004が表示される。詳細表示領域枠1004を表示することにより、観察中の領域の位置や大きさ(後述する詳細観察用の画像の、サムネイル画像内での位置や大きさ)を把握することができる。
観察画像表示エリア1005には、詳細観察用の画像が表示される。具体的には、詳細観察用の画像として、診断画像の一部または全部の領域が、設定された表示倍率で表示される。また、観察画像表示エリア1005の領域1006には、詳細観察用の画像の表示倍率が表示される。詳細観察を行う被写体の領域は、例えば、タッチパネルまたはマウス411等の外部接続された入力装置からのユーザー指示により設定、更新することができる。また、表示されている画像の移動や拡大・縮小操作(表示倍率の変更)によっても設定、更新することができる。
なお、シングルドキュメントインターフェースによって全体ウィンドウ1001の表示
領域を分割して上述した各エリアを得る構成であってもよいし、マルチドキュメントインターフェースによって上記各エリアを互いに異なるウィンドウのエリアとする構成であってもよい。
(Display image layout)
FIG. 10A to FIG. 10E are examples of images (display images) based on display data generated by the
FIG. 10A shows a basic configuration of a layout of a display image when observing a diagnostic image. In the example of FIG. 10A, the display image is an image in which an
The
In the
In the observation
In addition, the configuration may be such that the display area of the
図10(b)は、アノテーション付加時の表示画像の例である。図10(b)では、表示倍率は20倍に設定されている。ユーザーが観察画像表示エリア1005に表示される画像内の位置を選択すると、該位置が関心位置として判断され、該位置にアノテーションが付加される。例えば、ユーザーがマウスポインタを用いて位置を指定すると、アノテーション入力モードへ移行し、テキストの入力が促される。そして、ユーザーがキーボード410によるテキスト入力を行うことにより、上記指定した位置にアノテーションが付加される。その際、画像処理装置102は、アノテーションが付加された位置情報と表示倍率とを表示装置103から取得する。また、アノテーションを付加する際に、属性情報を合わせて設定することができる。符号1009は、属性情報の設定を行うための画像であり、例えば、設定可能な属性情報のリストの画像である。ユーザーが属性情報のリスト1009から所望の属性情報を選択、指定すると、付加するアノテーションに対して該選択された属性情報が関連付けられる。図10(b)は、マウスカーソルが位置1007で確定され、アノテーションとしてのテキスト1008を入力する状態を示している。
FIG. 10B is an example of a display image when an annotation is added. In FIG. 10B, the display magnification is set to 20 times. When the user selects a position in the image displayed in the observation
図10(c)は、注目位置検索時の表示画像(検索の設定を行うための画像;設定画像)の例である。
設定画像1010は、注目位置検索時に情報エリア1002に表示されてもよいし、新たな画像として表示されてもよい。ここでは、アノテーションが付加されている場合に、情報エリア1002内に設定画像1010が表示されるものとする。なお、これに限らず、1回の診断中の最初のアノテーション付加時に設定画像1010が表示される構成であってもよい。
注目位置の検索は、アノテーションとしてのテキストに含まれるワード、または、属性情報を検索キーとして行われる。なお、アノテーションとしてのテキストに含まれるワードと、属性情報との両方を検索キーとして用いてもよいし、いずれか一方を検索キーとして用いてもよい。図10(c)は、検索キーである属性情報として、診断情報、進行度、日時および診断者の4種類の属性の情報が設定可能な場合の例であるが、属性の種類はこれに限らない。
FIG. 10C shows an example of a display image (image for setting search; setting image) at the time of attention position search.
The
The search for the attention position is performed using a word included in the text as the annotation or attribute information as a search key. Note that both the word included in the text as the annotation and the attribute information may be used as the search key, or one of them may be used as the search key. FIG. 10C shows an example in which information of four types of attributes such as diagnosis information, progress, date and time, and a diagnostician can be set as attribute information that is a search key. However, the types of attributes are not limited to this. Absent.
ユーザーは、テキストボックス1011内に、アノテーションとしてのテキストに含まれるワード(キーワード)を検索キーとして入力することができる。ユーザーは、キーワードを直接入力してもよい。あるいは、過去に使用したキーワードのリストを別ウィンドウもしくはダイアログとして表示して、該リストから検索キーとするワードをユーザーに選択させてもよい。
複数のラジオボタン1012は、複数の属性にそれぞれ対応する。ユーザーは、少なくとも1つ以上のラジオボタン1012を選択することにより、選択されたラジオボタンに対応する属性を、検索キーとする属性情報の属性として選択することができる。
符号1014は、検索キーとする属性情報が表示される領域である。但し、領域1014に属性情報が表示されていても、その属性に対応するラジオボタンが選択されていない場合には、検索の際に当該属性情報は検索キーとして使用されない。領域1014に属性情報が表示されており、その属性に対応するラジオボタンが選択されている場合には、検索の際に当該属性情報が検索キーとして使用される。
The user can input a word (keyword) included in the text as an annotation in the
The plurality of
選択リストボタン1013は、対応する属性の属性情報(選択肢)のリストを表示するためのボタンである。例えば、ユーザーが診断情報に対応する選択リストボタン1013を選択した場合、診断情報の選択肢のリストの画像1015が、別ウィンドウもしくはダイアログとして表示される。画像1015は、複数の選択肢に対応する複数のラジオボタ
ン1016を含む。ユーザーは、1つ以上のラジオボタン1016を選択、変更することにより、検索キーを選択、変更することができる。例えば、要注意箇所を検索する「要注意」、正常な箇所を検索する「正常」、比較のための箇所を検索する「比較参照」の中から検索キーを選択することができる。進行度についても、同様に、検索キーを設定することができる。具体的には、細胞や組織に対する病気の進行度合い(進行レベル)を表す複数の選択肢の中から検索キーを選択することができる。
The
日時情報を検索キーとする場合には、属性「日時」に対応するテキストボックス内にユーザーが日時(アノテーション付加日、診断日など)を直接入力してもよい。保存されているアノテーションデータに含まれる日時情報のリスト1017を別ウィンドウもしくはダイアログとして表示して、該リストから検索キーとする日時をユーザーに選択させてもよい。複数の日時を検索キーとしてもよいし、或る期間を検索キーとしてもよい。
ユーザー情報を検索キーとする場合には、属性「診断者」に対応するテキストボックス内にユーザーがユーザー名等を直接入力してもよい。登録されているユーザーのリストを別ウィンドウもしくはダイアログとして表示して、該リストから検索キーとするユーザーをユーザーに選択させてもよい。
When the date / time information is used as a search key, the user may directly input the date / time (annotation addition date, diagnosis date, etc.) in a text box corresponding to the attribute “date / time”. The date /
When user information is used as a search key, the user may directly input a user name or the like in a text box corresponding to the attribute “diagnostic”. A list of registered users may be displayed as a separate window or dialog, and the user may be selected as a search key from the list.
キーワードが入力されて検索ボタン(図中の「検索」)が選択された場合には、キーワードによる検索が行われる。検索キーとしての属性情報が設定されて(具体的には、ラジオボタン1012が選択され、且つ、対応する属性情報が設定されて)検索ボタンが選択された場合には、属性情報をキーとした検索が行われる。
When a keyword is input and a search button (“Search” in the figure) is selected, a search using a keyword is performed. When attribute information as a search key is set (specifically, when
図10(d)は、ポインタ表示モードで検索結果を表示する際の表示画像の例である。より多くのアノテーションが付加されている場合に、図10(d)のようにアノテーション(コメント)を隠し、候補位置にアイコン画像1018のみを表示することで、診断画像の表示を妨げることなく候補位置を確認することが可能となる。また、図10(d)の例では、属性情報毎に異なるアイコン画像が示されている。そのような構成とすることにより、候補位置と属性情報の関係を示すことができ、複数の候補位置の中から所望の位置(注目位置)を見つけやすくなる。また、任意のアイコン画像が選択された場合には、アノテーション1019が表示される。それにより、ユーザーは候補位置のアノテーションを確認することができる。なお、キーワードを用いた検索により抽出された候補位置と、属性情報を用いた検索により抽出された候補位置とで、アイコン画像を異ならせてもよい。
アノテーション表示モードでは、アノテーション1019が各候補位置に表示される。アノテーション表示モードでは、アイコン画像1018は、表示されてもよいし、表示されなくてもよい。
FIG. 10D is an example of a display image when the search result is displayed in the pointer display mode. When more annotations are added, the annotation (comment) is hidden as shown in FIG. 10D, and only the
In the annotation display mode, an
図10(e)は、診断画像内に示された候補位置を選択した時の表示画像の例である。アノテーション表示モードまたはポインタ表示モードで所望の候補位置が選択された場合、アノテーションリスト(具体的には、候補位置のアノテーションデータに含まれる表示位置と表示倍率)を参照して、アノテーション付加時の表示が再現される。その結果、アノテーション1020は、付加時の画面内の位置に提示される。また、再現表示した画像の領域が、サムネイル画像中に再現範囲1022として表示され、検索結果を表示する際に表示した診断画像の領域が、サムネイル画像中に表示枠1021として表示される。それにより、再現表示されている領域と、検索結果を表示する際に表示した診断画像の領域との位置関係を判断することが可能となる。
FIG. 10E is an example of a display image when the candidate position shown in the diagnostic image is selected. When a desired candidate position is selected in annotation display mode or pointer display mode, refer to the annotation list (specifically, the display position and display magnification included in the annotation data at the candidate position) and display when adding annotation Is reproduced. As a result, the
(アノテーションリストの例)
図11は、本実施例に係る画像処理装置102で生成されたアノテーションリストの構成を示している。
アノテーションリストは、アノテーションデータのリストである。各アノテーションデータにアノテーションが付加された順番を表すID番号が割り振られている。アノテーションデータは、上述したように、位置情報、表示倍率、アノテーション(コメント;図中の「アノテーション内容」)、属性情報などが含まれており、アノテーションリストではそれらの情報がID番号毎に示されている。キーワードによる検索はアノテーション内容を対象に行われ、属性情報に基づく検索は属性情報を対象に行われる。位置情報と表示倍率は、アノテーション付加時の表示を再現するのに用いられる。なお、属性情報は予め定められた属性の情報であってもよいし、ユーザー定義による新たな属性が追加設定されてもよい。
(Annotation list example)
FIG. 11 shows the configuration of the annotation list generated by the
The annotation list is a list of annotation data. An ID number indicating the order in which annotations are added to each annotation data is assigned. As described above, the annotation data includes position information, display magnification, annotation (comment; “annotation content” in the figure), attribute information, and the like, and such information is shown for each ID number in the annotation list. ing. A search using keywords is performed on annotation content, and a search based on attribute information is performed on attribute information. The position information and the display magnification are used to reproduce the display when the annotation is added. The attribute information may be predetermined attribute information, or a new attribute defined by the user may be additionally set.
(診断基準、診断分類、警告画面)
図15(a)及び図15(b)は、診断基準設定の画面、診断分類の画面の一例を説明する図である。
図15(a)は、診断基準設定の画面の一例である。例えば、全体ウィンドウ1001におけるメニュー操作により診断基準の変更・設定ができるものとする。診断基準としては、国際規約・国際指標である癌分類国際規約I、癌分類国際規約II、日本における規約
・指標である癌分類日本規約I、癌分類日本指標I、米国における規約・指標である癌分類米国指標I、癌分類米国指標IIが示されている。癌分類日本規約Iはさらに臓器ごとに、胃癌、大腸癌、肝癌、肺癌、乳癌、食道癌、甲状腺癌、膀胱癌、前立腺癌などに分類されている。メニュー操作により診断基準1501、規約・指標の一覧1502、臓器ごとの規約・指標の一覧1503がそれぞれ提示される。ここではユーザーが、メニュー操作により診断基準、癌分類日本規約I、胃癌をそれぞれ選択した場合を示している。
図15(b)は、診断分類の画面の一例である。癌分類日本規約Iにおける胃癌の診断
分類1504は、大きくは2つ、深達度と進行度からなっている。深達度は、胃癌が胃壁をどこまで超えているかを示す指標であり、AIからAIVの4段階に分類される。AIは胃癌が胃の表面にとどまっている、AIVは胃癌の浸潤が他の臓器まで及ぶ、などの内容である。進行度は、胃癌がどこまで転移しているかを示す指標であり、BIからBVの5段階に分類される。BIは胃癌の転移がない、BVはリンパ節転移がある、などの内容である。癌分類日本規約Iに従った胃癌の診断では、標本画像などの情報から深達度と進行度の診断
を行う。診断分類1504は、情報エリア1002、若しくは、別ウィンドウに表示されるものであり、必要に応じてユーザーが表示・非表示を操作できる。
図15(a)、図15(b)で示した診断基準・診断分類は、随時更新されるものであり、国や地域によっても統一されていない。ユーザーが古い診断基準で診断された標本を再度見直す場合や、研究用に診断基準の異なる他国の標本を確認する場合に、診断根拠として記載されたアノテーション内容が、どの診断基準に依るものかを簡単に判別できるようにすることが診断基準・診断分類を明記する理由である。
(Diagnosis criteria, diagnosis classification, warning screen)
FIG. 15A and FIG. 15B are diagrams illustrating an example of a diagnostic criteria setting screen and a diagnostic classification screen.
FIG. 15A is an example of a diagnostic criteria setting screen. For example, it is assumed that the diagnostic criteria can be changed / set by a menu operation in the
FIG. 15B is an example of a diagnostic classification screen. Cancer classification The Japanese classification I of gastric
The diagnostic criteria and diagnostic classification shown in FIGS. 15A and 15B are updated as needed, and are not unified by country or region. When a user reviews a sample diagnosed with old diagnostic criteria again, or when checking a sample from another country with a different diagnostic criteria for research, which diagnostic criteria the annotation content described as the basis of diagnosis depends on The reason for specifying the diagnostic criteria and diagnostic classification is to enable easy identification.
(本実施例の効果)
以上述べたように、本実施例によれば、アノテーションを付加する際に、アノテーションの他、検索キーとして利用可能な属性情報が合わせて格納される。それにより、病理診断の多様な目的に応じた検索が可能となり、ユーザーが注目位置を効率良く見つけだすことが可能となる。その結果、ユーザー(病理医)の手間を減らすことができる。
また、本実施例では、検索によって多くの候補位置が抽出された場合に、候補位置と属性情報との関係を明示することで、所望の位置(注目位置)を容易に見つけだすことが可能となる。
(Effect of this embodiment)
As described above, according to this embodiment, when an annotation is added, attribute information that can be used as a search key is stored together with the annotation. Thereby, searching according to various purposes of pathological diagnosis becomes possible, and the user can efficiently find the target position. As a result, the trouble of the user (pathologist) can be reduced.
Further, in this embodiment, when a large number of candidate positions are extracted by the search, it is possible to easily find a desired position (attention position) by specifying the relationship between the candidate position and the attribute information. .
(アノテーションの他の例)
上記実施例では、ユーザーにより入力されたコメント及びそれに関連する属性情報をアノテーションとして診断画像に付加する例を説明した。しかし、アノテーションとして付加する情報は上記実施例のものに限られず、診断画像又は診断作業に関連する情報であれ
ばどのような情報をアノテーションとして付加してもよい。例えば、コンピュータ(画像処理装置)が、診断画像を解析することによって診断を支援するための各種情報を自動で検出する機能(自動診断ソフトウェア)を有している場合には、その検出結果に基づいてアノテーションを自動で生成し付加することもできる。この場合でも、アノテーションの記録、検索、表示等の処理は上記実施例と同じ様に行うことができる。
コンピュータにより自動生成される情報の一例として、病変部位に関する情報が挙げられる。以下、自動診断ソフトウェアの診断支援機能の一例を説明すると共に、診断支援機能で得られた病変部位に関する情報をアノテーションとして診断画像に付加する例を説明する。以下では、上記実施例との差を分かりやすくするため、診断支援機能で自動検出された情報に基づき生成されるアノテーションを「診断支援データ」と記す。
(Another example of annotation)
In the above-described embodiment, an example in which a comment input by a user and attribute information related thereto is added as an annotation to a diagnostic image has been described. However, the information added as an annotation is not limited to that in the above embodiment, and any information may be added as an annotation as long as it is information related to a diagnostic image or a diagnostic work. For example, when a computer (image processing apparatus) has a function (automatic diagnosis software) for automatically detecting various information for supporting diagnosis by analyzing a diagnostic image, based on the detection result Annotations can be automatically generated and added. Even in this case, processing such as annotation recording, retrieval, and display can be performed in the same manner as in the above embodiment.
An example of information automatically generated by a computer is information on a lesion site. Hereinafter, an example of the diagnosis support function of the automatic diagnosis software will be described, and an example of adding information on a lesion site obtained by the diagnosis support function as an annotation to the diagnosis image will be described. In the following, in order to make the difference from the above embodiment easy to understand, an annotation generated based on information automatically detected by the diagnosis support function is referred to as “diagnosis support data”.
(診断支援機能による病変部位の自動検出の説明と自動検出アルゴリズムの例)
診断支援とは、病理医の診断を支援する機能であり、例えば、前立腺癌における病変領域の自動検出が挙げられる。前立腺癌は、悪性度が高いほど腺管の大きさが不揃いになる傾向がある。腺管の検出とその構造パターンの分類により、病変領域の検出と前立腺癌の悪性度を自動判別することができる。腺管の検出にはテクスチャ解析などが用いられ、例えば、ガボールフィルタによるフィルタ演算により各空間位置での局所特徴量を抽出して腺管領域を検出することができる。構造パターンの分類には、腺管の細胞質面積、内腔面積などを形状特徴量として複雑度を算出することで、悪性度の指標とすることができる。診断支援で自動検出された病変領域と病変情報(悪性度判別)は、診断支援データリストの一例である。
(Description of automatic detection of lesion site by diagnosis support function and example of automatic detection algorithm)
Diagnosis support is a function that supports diagnosis by a pathologist, and includes automatic detection of a lesion area in prostate cancer, for example. Prostate cancer tends to have irregular gland duct sizes as the degree of malignancy increases. By detecting the duct and classifying the structure pattern, it is possible to automatically detect the lesion area and determine the malignancy of prostate cancer. For example, texture analysis or the like is used for detection of the ducts. For example, local feature amounts at each spatial position can be extracted by a filter operation using a Gabor filter to detect a ductal region. The classification of the structure pattern can be used as an index of malignancy by calculating the complexity using the cytoplasmic area, lumen area, etc. of the gland duct as the shape feature amount. The lesion area and lesion information (malignancy determination) automatically detected by the diagnosis support are an example of a diagnosis support data list.
他の診断支援の例として、乳癌におけるER(エストロゲン受容体)陽性率の自動検出が挙げられる。ER陽性率は、乳癌の治療方針を決定する際の重要な指針となる。IHC(免疫組織化学染色)法を用いると、ER発現が強く認められる核は濃く染色される。核とその染まり具合の自動検出により、ER陽性率の判別を行う。この場合は、自動検出された核を明示した画像データとその数値データ(陽性核の数、割合など)、陽性率が診断支援データリストとなる。 Another example of diagnosis support is automatic detection of ER (estrogen receptor) positive rate in breast cancer. The ER positive rate is an important guideline in deciding the treatment policy for breast cancer. When the IHC (immunohistochemical staining) method is used, nuclei in which ER expression is strongly observed are stained deeply. The ER positive rate is determined by automatic detection of the nucleus and the degree of staining. In this case, image data specifying the automatically detected nuclei, numerical data thereof (number of positive nuclei, ratio, etc.), and positive rate become the diagnosis support data list.
(診断支援データリストの例)
図16は、本実施例に係る画像処理装置102で生成された診断支援データリストの構成を示している。
診断支援機能で自動検出された病変部位に関わるデータ(診断支援データ)は、病変領域を示す画像データ(診断支援画像データ)が含まれるためデータ量が膨大になる傾向がある。そのため、診断支援データリストとは別に、病変領域を示す画像データを保持する構成が望ましい。この場合は、診断支援データリストには、病変領域を示す画像データへのポインタが記述(記録)されることになる。このポインタは、診断画像中の注目すべき位置を示す情報であり、図11のアノテーションデータリストにおける位置情報に相当する情報である。なお、診断支援データリストにおいても、ポインタの代わりに、診断画像中の病変領域の位置情報を記録しても良い。
診断支援データリストは、診断支援データのリストである。各診断支援データに診断支援データが付加された順番を表すID番号が割り振られている。診断支援データは、上述したように、画像データポインタ、病変情報などを含んでおり、診断支援データリストではそれらの情報がID番号毎に示されている。ワードによる検索は病変情報を対象に行われ、属性情報に基づく検索は属性情報を対象に行われる。なお、属性情報としては、付加日時、診断支援ソフトの種類・バージョンなどがある。なお、「病変情報」を、図10(c)における「診断情報」や「進行度」と同様に予め定められたリストから選択される情報としてもよい(つまり、病変情報を、属性情報に含めても良い。)。
(Example of diagnosis support data list)
FIG. 16 illustrates a configuration of a diagnosis support data list generated by the
The data (diagnosis support data) related to the lesion site automatically detected by the diagnosis support function includes image data (diagnosis support image data) indicating the lesion area, and therefore the data amount tends to be enormous. Therefore, it is desirable that the image data indicating the lesion area be held separately from the diagnosis support data list. In this case, a pointer to image data indicating a lesion area is described (recorded) in the diagnosis support data list. This pointer is information indicating a position to be noted in the diagnostic image, and is information corresponding to position information in the annotation data list of FIG. In the diagnosis support data list, the position information of the lesion area in the diagnosis image may be recorded instead of the pointer.
The diagnosis support data list is a list of diagnosis support data. An ID number indicating the order in which diagnosis support data is added to each diagnosis support data is assigned. As described above, the diagnosis support data includes an image data pointer, lesion information, and the like, and the information is shown for each ID number in the diagnosis support data list. Search by word is performed on lesion information, and search based on attribute information is performed on attribute information. The attribute information includes the addition date and time, the type / version of the diagnosis support software, and the like. Note that the “lesion information” may be information selected from a predetermined list in the same way as the “diagnosis information” and “progress” in FIG. 10C (that is, the lesion information is included in the attribute information). May be.)
(診断支援データの検索)
診断支援データの検索は、図8の注目位置の検索と同様の手法で実施できる。図8及びその説明における「アノテーション」を「診断支援データ」と読み替えれば良い。
(Search for diagnosis support data)
The search for the diagnosis support data can be performed by the same method as the search for the target position in FIG. “Annotation” in FIG. 8 and the description thereof may be read as “diagnosis support data”.
(診断支援データの表示)
診断支援データの表示は、表示画像データとは別の、病変領域を示す診断支援画像データの表示となる。ただし、診断支援機能での病変領域の自動検出をより詳細に実施することで、表示画像データの上へ病変領域を示す画像を重畳表示する形態も可能である。例えば、前立腺癌の自動診断において、悪性領域の検出とともに、悪性度判別Vの領域、IVの
領域など、領域ごとの悪性度判別を実施しておけば、表示画像データへの悪性度判別Vの
領域の重畳表示が可能となる。
(Display of diagnosis support data)
The display of the diagnosis support data is a display of the diagnosis support image data indicating the lesion area, which is different from the display image data. However, it is possible to superimpose and display an image showing a lesion area on the display image data by performing automatic detection of the lesion area by the diagnosis support function in more detail. For example, in the automatic diagnosis of prostate cancer, if the malignancy determination for each region such as the malignancy determination V region, IV region, etc. is performed together with the detection of the malignant region, the malignancy determination V of the display image data A region can be displayed in a superimposed manner.
(本実施例の診断支援データによる効果)
以上述べたように、本実施例によれば、診断支援データを付加する際に、病変情報の他、検索キーとして利用可能な属性情報が合わせて格納される。それにより、病理診断の多様な目的に応じた検索が可能となり、ユーザーが病変領域等の注目位置を効率良く見つけだすことが可能となる。その結果、ユーザー(病理医)の手間を減らすことができる。
(Effects of diagnosis support data of this embodiment)
As described above, according to this embodiment, when adding diagnosis support data, attribute information that can be used as a search key is stored together with lesion information. As a result, searching according to various purposes of pathological diagnosis becomes possible, and the user can efficiently find a target position such as a lesion area. As a result, the trouble of the user (pathologist) can be reduced.
(実施例2)
以下、本発明の実施例2に係る画像処理システムについて図を用いて説明する。
実施例1では、検索結果として、診断画像内に候補位置が示された画像を表示装置に表示する構成とした。本実施例では、検索結果として、候補位置毎に対応する属性情報を示すリストを作成して、表示装置に表示する。それにより、候補位置の属性情報を容易に把握することが可能となる。また、ユーザーがリストから候補位置を選択した場合に、選択された候補位置が示された画像を表示装置に表示する。それにより、候補位置と属性情報との関係を容易に把握することが可能となる。以下では、実施例1と異なる点について詳しく説明し、実施例1と同じ構成や処理については極力説明を省略する。
(Example 2)
Hereinafter, an image processing system according to a second embodiment of the present invention will be described with reference to the drawings.
In the first embodiment, as a search result, an image in which candidate positions are shown in the diagnostic image is displayed on the display device. In this embodiment, a list indicating attribute information corresponding to each candidate position is created as a search result and displayed on the display device. Thereby, it becomes possible to easily grasp the attribute information of the candidate position. Also, when the user selects a candidate position from the list, an image showing the selected candidate position is displayed on the display device. Thereby, it becomes possible to easily grasp the relationship between the candidate position and the attribute information. Hereinafter, differences from the first embodiment will be described in detail, and descriptions of the same configurations and processes as those of the first embodiment will be omitted as much as possible.
(画像処理システムの装置構成)
図12は、本実施例に係る画像処理システムの構成を示す図である。
本実施例に係る画像処理システムは、画像サーバー1201、画像処理装置102、表示装置103などから構成される。画像処理装置102は、被写体を撮像して得られた診断画像データを画像サーバー1201から取得し、表示装置103で表示する表示データを生成する。画像サーバー1201と画像処理装置102とは、ネットワーク1202を介して、汎用I/FのLANケーブル1203を用いて互いに接続される。画像サーバー1201は、撮像装置101で生成された診断画像データを保存する大容量の記憶装置を備えたコンピュータである。本実施例では、画像サーバー1201は、同じ被写体で倍率が互いに異なる複数の診断画像データ(階層化された複数の階層画像データ)を、一つのまとまりとして、画像サーバー1201に接続されたローカルストレージに保存している。
なお、診断画像データは、ネットワーク上の何処かに存在するサーバー群(クラウド・サーバー)に保存してもよい。例えば、診断画像データを複数の分割画像データに分割してクラウド・サーバーに保存してもよい。その場合には、元の画像データを復元するための情報や、同じ被写体で倍率が互いに異なる複数の診断画像データを得るための情報がリンク情報として画像サーバー1201で生成、保持される。同じ被写体で倍率が互いに異なる複数の診断画像データのうち、一部のデータが他のデータと異なるサーバーに保存されてもよい。
なお、画像処理装置102の大まかな機能は実施例1と同様である。表示装置103の機能は実施例1と同じである。
(Device configuration of image processing system)
FIG. 12 is a diagram illustrating the configuration of the image processing system according to the present embodiment.
The image processing system according to this embodiment includes an
The diagnostic image data may be stored in a server group (cloud server) existing somewhere on the network. For example, the diagnostic image data may be divided into a plurality of divided image data and stored in a cloud server. In that case, information for restoring the original image data and information for obtaining a plurality of diagnostic image data having the same subject and different magnifications are generated and held in the
The general functions of the
なお、図12の例では、画像サーバー1201と画像処理装置102と表示装置103
の3つの装置により画像処理システムが構成されているが、本発明の構成はこの構成に限定されるものではない。例えば、表示装置と一体化した画像処理装置を用いてもよいし、画像処理装置102の機能の一部または全部を画像サーバー1201に組み込んでもよい。また、画像サーバー1201と画像処理装置102と表示装置103の機能を1つの装置で実現することもできる。逆に、1つの装置の機能を複数の装置によって実現してもよい。例えば、画像サーバー1201の機能が複数の装置によって実現されてもよい。画像処理装置102の機能が複数の装置によって実現されてもよい。
なお、実施例1では、画像処理装置102が、撮像装置101で撮像され出力された診断画像データにアノテーションを付加し、該診断画像データから注目位置を検索する構成とした。1枚の診断画像(ここでは、階層化された複数の診断画像も1枚の診断画像とする)から注目位置が検索される。本実施例では、画像サーバー1201で保存している診断画像に対してアノテーションを付加し、画像サーバー1201で保存されている診断画像から注目位置が検索される。そのため、複数の診断画像から注目位置を検索することができる。例えば、1人の患者から得られた複数の診断画像から注目位置を検索することができる。それにより、1人の患者の経過観察や同一病変の様々な位置での状態の比較などを容易に行うことが可能となる。また、複数枚の診断画像から注目位置を検索することにより、類似の症例や条件に合致するアノテーションを容易に把握することができる。
In the example of FIG. 12, the
The image processing system is configured by these three devices, but the configuration of the present invention is not limited to this configuration. For example, an image processing device integrated with a display device may be used, or a part or all of the functions of the
In the first embodiment, the
(注目位置の検索結果の表示)
図13は、図6のステップS610で注目位置の検索結果を表示する処理の流れを示すフローチャートである。図13では、候補位置をリストとして表示し、ユーザーが選択したリスト内容に基づいて候補位置を表示する流れについて説明する。
(Display of search results for attention positions)
FIG. 13 is a flowchart showing a flow of processing for displaying the search result of the target position in step S610 of FIG. FIG. 13 illustrates a flow in which candidate positions are displayed as a list and the candidate positions are displayed based on the list contents selected by the user.
ステップS901では、表示データ生成制御部308が、アノテーション検索処理部307から、ステップS808で生成された検索結果リストを取得する。
In step S901, the display data
ステップS1301では、表示データ生成制御部308が、ステップS901で取得された検索結果リストを用いて、候補位置毎に対応する属性情報を示すリスト(属性情報リスト)を生成する。そして、表示データ生成部310が、属性情報リストを含む表示データを生成する。属性情報リストの表示領域は、例えば、図10(a)で示した情報エリア1002である。但し、これに限らず、他に属性情報リストの表示領域が設定されてもよい。属性情報リストの表示領域は、独立したウィンドウの領域であってもよい。属性情報リストを表示する際の表示画像の例は図14(a)〜図14(c)を用いて後述する。
In step S1301, the display data
ステップS1302では、表示データ出力部311が、ステップS1301で生成された表示データを表示装置103に出力し、表示装置103が、該表示データに基づく表示画像を表示する。
In step S1302, the display
本実施例では、属性情報リストはソート可能なリストである。
ステップS1303では、表示データ生成制御部308が、ユーザー入力情報取得部303からの情報などをもとに、属性情報リストのソートの要求があるか否かを判断する。ソートの要求があった場合は、ステップS1304へ進む。ソートの要求がなかった場合は、ステップS1307へ進む。
In this embodiment, the attribute information list is a sortable list.
In step S1303, the display data
ステップS1304では、表示データ生成制御部308が、属性情報リストをソートする。例えば、属性情報リストは、ユーザー操作に応じて、日時情報で表される日時順にソートされる。具体的には、日時情報で表される日時順にソートするユーザー操作があった場合は、表示データ生成制御部308は、該操作に応じて、属性情報リストの日時の項目を選択し、日時情報が昇順又は降順となるように属性情報をソートする。
ステップS1305では、表示データ生成部310が、属性情報リストがステップS1
304でのソート後の属性情報リストとなるように、表示データを更新する。
ステップS1306では、表示データ出力部311が、ステップS1305で更新された表示データを表示装置103に出力し、表示装置103が、該表示データに基づく表示画像を表示する。
In step S1304, the display data
In step S1305, the display
The display data is updated so that the attribute information list after sorting in 304 is obtained.
In step S1306, the display
ステップS1307では、表示データ生成制御部308が、ユーザー入力情報取得部303などからの情報をもとに、表示されている属性情報リストから候補位置が選択されたか否かを判断する。候補位置は1つだけ選択されてもよいし、複数選択されてもよい。候補位置の選択がされた場合は、ステップS902へ進む。候補位置が選択されなかった場合には処理を終了する。
その後、実施例1と同様にステップS902〜S904の処理が行われ、実施例1と同様にステップS907〜S910の処理が行われ、実施例1と同様にステップS914〜S918の処理が行われる。
In step S1307, the display data
Thereafter, the processes of steps S902 to S904 are performed as in the first embodiment, the processes of steps S907 to S910 are performed as in the first embodiment, and the processes of steps S914 to S918 are performed as in the first embodiment.
(表示画像レイアウト)
図14(a)〜図14(c)は、本実施例に係る画像処理装置102で生成された表示データに基づく画像(表示画像)の一例である。
図14(a)は、検索結果として表示される属性情報リストの例である。属性情報リスト1401は、候補位置毎の属性情報を含む。また、属性情報リスト1401は、該当する候補位置をリストから選択するためのチェックボックス1402、属性情報に基づくソートを行うためのソートボタン1403を含む。ユーザーは、チェックボックス1402を選択することにより候補位置を1つまたは複数選択できる。また、属性情報の優先度を設定することで、複数の属性情報によるソート操作を行うことも可能である。
(Display image layout)
FIG. 14A to FIG. 14C are examples of images (display images) based on display data generated by the
FIG. 14A shows an example of an attribute information list displayed as a search result. The
図14(b)は、チェックボックス1402を用いて選択された候補位置をアノテーション表示モードで表示したときの表示画像の例である。ここでは3つの候補位置が選択された場合の例を示している。本実施例では、選択された全ての候補位置が表示されるような表示位置および表示倍率で、診断画像およびアノテーション(選択された候補位置に対応するアノテーション)の画像1405が表示される。アノテーションの画像1405は、対応する候補位置1406に表示される。図14(b)の例では、低倍である5倍の表示倍率で診断画像とアノテーションの画像とが表示されている。また、アノテーションの画像は、属性情報(例えば、アノテーション付加時の表示倍率)毎に異なる形態で表示されている。例えば、アノテーション1が付加されたときの表示倍率は10倍、アノテーション2が付加されたときの表示倍率は20倍、アノテーション3が付加されたときの表示倍率は40倍であったとする。アノテーション付加時の表示倍率毎にアノテーションの画像の表示方法を変えることで、表示倍率の違いが判別可能となる。ここではアノテーションの表示枠の線種により属性情報を区別しているが、表示枠の色や形で区別してもよい。
なお、本実施例では、チェックボックス1402を用いて候補位置が選択された場合に、該選択された候補位置がアノテーション表示モードで明示されるものとしたが、選択された候補位置がポインタ表示モードで明示されてもよい。実施例1と同様に、表示する候補位置の数に応じて表示モードを切り替えてもよい。
FIG. 14B shows an example of a display image when the candidate position selected using the
In this embodiment, when a candidate position is selected using the
図14(c)は、診断画像内に示された候補位置(アノテーションの画像やアイコン画像)が選択された際に表示される画像の例である。図14(c)は、4つの候補位置が選択された場合の例である。図14(c)では、候補位置毎に、図10(e)と同様の再現表示がされている。符号1405で示される4つのアノテーション1〜4の内、アノテーション1,3,4を付加した時の表示倍率は20倍となっており、アノテーション2を付加した時の表示倍率のみ40倍となっている。各候補位置にアノテーションを付加したときの表示倍率は、領域1404内に表示された表示倍率から確認することができる。また、これに限らず、各診断画像の表示領域の枠の色によって表示倍率の違いを明示してもよ
い。
また、リストから候補位置を選択した際に表示した診断画像の領域(例えば図14(b)のように表示された診断画像の領域)と、再現表示された各領域との位置関係は、実施例1と同様に判断することができる。具体的には、リストから候補位置を選択した際に表示した診断画像の領域が、サムネイル画像中に表示枠1407として表示され、再現表示された各領域が、サムネイル画像中に再現範囲1408として表示される。再現範囲1407と再現表示されている画像との対応関係は、枠線の色、線種等で判別させることができる。また、再現表示されている複数の画像と、複数の再現範囲とのうち、1つを選択することで、選択された画像(再現範囲)に対応する表示倍率の画像を観察画像表示エリア全体に表示する表示モードに移行してもよい。
FIG. 14C is an example of an image displayed when a candidate position (annotation image or icon image) shown in the diagnostic image is selected. FIG. 14C shows an example when four candidate positions are selected. In FIG. 14C, the same reproduction display as in FIG. 10E is displayed for each candidate position. Of the four
Further, the positional relationship between the diagnostic image area displayed when the candidate position is selected from the list (for example, the diagnostic image area displayed as shown in FIG. 14B) and each area that is reproduced and displayed is It can be determined in the same manner as in Example 1. Specifically, the diagnostic image area displayed when the candidate position is selected from the list is displayed as a
(本実施例の効果)
以上述べたように、本実施例によれば、アノテーションを付加する際に、アノテーションの他、検索キーとして利用可能な属性情報が合わせて格納される。それにより、病理診断の多様な目的に応じた検索が可能となり、ユーザーが注目位置を効率良く見つけだすことが可能となる。その結果、ユーザー(病理医)の手間を減らすことができる。
また、本実施例では、注目位置の検索結果として候補位置毎の属性情報のリストを表示し、リストから選択された候補位置が示された診断画像を表示する構成とした。それにより、より具体的に注目位置の検索結果を把握することが可能となる。
(Effect of this embodiment)
As described above, according to this embodiment, when an annotation is added, attribute information that can be used as a search key is stored together with the annotation. Thereby, searching according to various purposes of pathological diagnosis becomes possible, and the user can efficiently find the target position. As a result, the trouble of the user (pathologist) can be reduced.
In the present embodiment, a list of attribute information for each candidate position is displayed as a result of searching for the target position, and a diagnostic image showing the candidate position selected from the list is displayed. Thereby, it becomes possible to grasp the search result of the attention position more specifically.
(その他の実施例)
本発明の目的は、以下によって達成されてもよい。すなわち、前述した実施例の機能の全部または一部を実現するソフトウェアのプログラムコードを記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給する。そして、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行する。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施例の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。
また、コンピュータが、読み出したプログラムコードを実行することにより、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが、実際の処理の一部または全部を行う。その処理によって前述した実施例の機能が実現される場合も本発明に含まれ得る。
さらに、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれたとする。その後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施例の機能が実現される場合も本発明に含まれ得る。
本発明を上記記録媒体に適用する場合、その記録媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。
また、実施例1,2で説明してきた構成をお互いに組み合わせることもできる。例えば、実施例1のシステムに対し実施例2の複数の注目位置の再現表示処理を適用してもよいし、画像処理装置が撮像装置と画像サーバーの両方に接続されており、処理に用いる画像をいずれの装置から取得できるような構成にしてもよい。その他、上記各実施例における様々な技術を適宜組み合わせることで得られる構成も本発明の範疇に属する。
(Other examples)
The object of the present invention may be achieved by the following. That is, a recording medium (or storage medium) in which a program code of software that realizes all or part of the functions of the above-described embodiments is recorded is supplied to the system or apparatus. Then, the computer (or CPU or MPU) of the system or apparatus reads and executes the program code stored in the recording medium. In this case, the program code itself read from the recording medium realizes the functions of the above-described embodiments, and the recording medium on which the program code is recorded constitutes the present invention.
In addition, when the computer executes the read program code, an operating system (OS) operating on the computer performs part or all of the actual processing based on the instruction of the program code. The case where the functions of the above-described embodiments are realized by the processing can also be included in the present invention.
Furthermore, it is assumed that the program code read from the recording medium is written in a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer. Thereafter, based on the instruction of the program code, the CPU of the function expansion card or function expansion unit performs part or all of the actual processing, and the functions of the above-described embodiments are realized by the processing. It can be included in the invention.
When the present invention is applied to the recording medium, program code corresponding to the flowchart described above is stored in the recording medium.
Further, the configurations described in the first and second embodiments can be combined with each other. For example, the reproduction display processing of a plurality of positions of interest of the second embodiment may be applied to the system of the first embodiment, and the image processing device is connected to both the imaging device and the image server, and the image used for the processing May be obtained from any device. In addition, configurations obtained by appropriately combining various techniques in the above embodiments also belong to the category of the present invention.
102 画像処理装置
305 アノテーションデータ生成部
306 アノテーションリスト記憶部
307 アノテーション検索処理部
310 表示データ生成部
311 表示データ出力部
DESCRIPTION OF
Claims (27)
アノテーションに関連する情報として、予め定められた属性の情報である属性情報を、アノテーションと共に記憶部に記録する記録手段と、
前記診断画像においてアノテーションが付加された複数の位置の中から、ユーザーが注目する位置である注目位置を検索する検索手段と、
前記検索手段の検索結果を表示部に表示する表示手段と、
を備え、
前記検索手段は、アノテーションに含まれるワード、または、属性情報をキーとして、前記注目位置を検索する
ことを特徴とする画像処理装置。 An adding means for adding an annotation to a diagnostic image obtained by imaging a subject;
Recording means for recording attribute information, which is information of a predetermined attribute, as information related to the annotation in the storage unit together with the annotation;
Search means for searching for a position of interest, which is a position to which the user pays attention, from a plurality of positions with annotations added in the diagnostic image;
Display means for displaying a search result of the search means on a display unit;
With
The image processing apparatus, wherein the search means searches the attention position using a word or attribute information included in the annotation as a key.
ことを特徴とする請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the attribute information includes diagnostic information representing a diagnostic content of the diagnostic image.
前記アノテーションは、前記自動診断手段の検出結果に基づいて付加されるアノテーションを含む
ことを特徴とする請求項1に記載の画像処理装置。 Further comprising automatic diagnostic means for automatically detecting information for supporting diagnosis by analyzing the diagnostic image;
The image processing apparatus according to claim 1, wherein the annotation includes an annotation added based on a detection result of the automatic diagnosis unit.
前記検索手段は、前記診断を支援するための情報に含まれるワードをキーとして検索を行う
ことを特徴とする請求項3に記載の画像処理装置。 The annotation added based on the detection result of the automatic diagnosis means includes information for supporting the diagnosis as text information,
The image processing apparatus according to claim 3, wherein the search unit performs a search using a word included in information for supporting the diagnosis as a key.
ことを特徴とする請求項1または2に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the attribute information includes information indicating a diagnostic criterion used when diagnosing the diagnostic image.
ことを特徴とする請求項1、2、または5に記載の画像処理装置。 6. The image processing according to claim 1, wherein the attribute information includes date and time information indicating a date and time when a corresponding annotation is added, or a date and time when the diagnostic image is observed. apparatus.
ことを特徴とする請求項1、2、5、または6に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the attribute information includes user information that identifies a user who has added an annotation.
前記ユーザー情報は、当該ユーザーがアノテーションを付加したときの目的又は方法を示すユーザー属性を含み、
前記検索手段は、前記ユーザー属性をキーとして、前記注目位置を検索する
ことを特徴とする請求項7に記載の画像処理装置。 A plurality of users sequentially add annotations to the diagnostic image for different purposes or different methods,
The user information includes a user attribute indicating a purpose or a method when the user adds an annotation,
The image processing apparatus according to claim 7, wherein the search unit searches the attention position using the user attribute as a key.
ことを特徴とする請求項1、2、5、6、7、または8に記載の画像処理装置。 The image processing apparatus according to claim 1, 2, 5, 6, 7, or 8, wherein the attribute information is information input by a user who has added an annotation.
前記表示手段は、候補位置毎に対応する属性情報を示すリストを、前記検索結果として前記表示部に表示する
ことを特徴とする請求項1乃至9のいずれか1項に記載の画像処理装置。 The search means detects a candidate position that is a candidate for the target position from a plurality of positions added with annotations by the adding means by performing a search,
The image processing apparatus according to claim 1, wherein the display unit displays a list indicating attribute information corresponding to each candidate position on the display unit as the search result.
前記属性情報のリストは、日時情報で表される日時順にソート可能である
ことを特徴とする請求項10に記載の画像処理装置。 The attribute information includes date and time information indicating the date and time when the corresponding annotation was added, or the date and time when the diagnostic image was observed,
The image processing apparatus according to claim 10, wherein the attribute information list is sortable in order of date and time represented by date and time information.
ことを特徴とする請求項10または11に記載の画像処理装置。 The display means displays the diagnostic image on the display unit and indicates the selected candidate position in the diagnostic image when a user selects a candidate position from the list. The image processing apparatus according to 10 or 11.
ことを特徴とする請求項10乃至12のいずれか1項に記載の画像処理装置。 When the user selects a plurality of candidate positions from the list, the display means displays the diagnostic image on the display unit at a display position and a display magnification that include all the selected candidate positions, The image processing apparatus according to claim 10, wherein the selected candidate position is indicated in the diagnostic image.
前記表示手段は、前記検索結果として、前記診断画像を前記表示部に表示するとともに、該診断画像内に前記候補位置を示す
ことを特徴とする請求項1乃至9のいずれか1項に記載の画像処理装置。 The search means detects a candidate position that is a candidate for the target position from a plurality of positions added with annotations by the adding means by performing a search,
10. The display device according to claim 1, wherein the display unit displays the diagnostic image on the display unit as the search result, and indicates the candidate position in the diagnostic image. 11. Image processing device.
ことを特徴とする請求項14に記載の画像処理装置。 When a plurality of candidate positions are detected by the search means, the display means displays the diagnostic image on the display unit at a display position and display magnification that include all candidate positions, and the diagnostic image The image processing apparatus according to claim 14, wherein the candidate position is indicated within the image.
ことを特徴とする請求項12乃至15のいずれか1項に記載の画像処理装置。 The image processing apparatus according to claim 12, wherein the display unit indicates the candidate position using a corresponding annotation image.
ことを特徴とする請求項12乃至15のいずれか1項に記載の画像処理装置。 The image processing apparatus according to claim 12, wherein the display unit indicates the candidate position using an icon image.
表示する候補位置の数が所定数以下の場合に、対応するアノテーションの画像を用いて前記候補位置を示し、
表示する候補位置の数が所定数より多い場合に、アイコン画像を用いて前記候補位置を示す
ことを特徴とする請求項12乃至17のいずれか1項に記載の画像処理装置。 The display means includes
When the number of candidate positions to be displayed is a predetermined number or less, the candidate position is indicated using a corresponding annotation image;
18. The image processing apparatus according to claim 12, wherein when the number of candidate positions to be displayed is greater than a predetermined number, the candidate positions are indicated using an icon image.
ことを特徴とする請求項17または18に記載の画像処理装置。 The image processing apparatus according to claim 17, wherein the icon image is different for each attribute information.
ことを特徴とする請求項16または18に記載の画像処理装置。 The image processing apparatus according to claim 16, wherein the annotation image is different for each piece of attribute information.
示部に表示する
ことを特徴とする請求項14または15に記載の画像処理装置。 The display unit displays the diagnostic image on the display unit at a display position and a display magnification when an annotation is added to the candidate position when the indicated candidate position is selected by a user. The image processing apparatus according to claim 14 or 15.
ことを特徴とする請求項1乃至21のいずれか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 21, wherein the search unit searches the attention position from one diagnostic image.
ことを特徴とする請求項1乃至21のいずれか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 21, wherein the search unit searches the attention position from a plurality of diagnostic images.
コンピュータが、アノテーションに関連する情報として、予め定められた属性の情報である属性情報を、アノテーションと共に記憶部に記録する記録ステップと、
コンピュータが、診断画像においてアノテーションが付加された複数の位置の中から、ユーザーが注目する位置である注目位置を検索する検索ステップと、
コンピュータが、前記検索ステップの検索結果を表示部に表示する表示ステップと、
を含み、
前記検索ステップでは、アノテーションに含まれるワードまたは属性情報をキーとして、前記注目位置が検索される
ことを特徴とする画像処理方法。 An adding step in which a computer adds an annotation to a diagnostic image obtained by imaging a subject;
A recording step in which the computer records attribute information, which is information of a predetermined attribute, as information related to the annotation in the storage unit together with the annotation;
A search step in which a computer searches for a target position that is a position that a user pays attention to from among a plurality of positions that are annotated in a diagnostic image;
A computer displaying a search result of the search step on a display unit;
Including
In the search step, the attention position is searched using a word or attribute information included in the annotation as a key.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012225979A JP2013152701A (en) | 2011-12-26 | 2012-10-11 | Image processing device, image processing system and image processing method |
PCT/JP2012/007916 WO2013099125A1 (en) | 2011-12-26 | 2012-12-11 | Image processing apparatus, image processing system and image processing method |
US14/356,213 US20140306992A1 (en) | 2011-12-26 | 2012-12-11 | Image processing apparatus, image processing system and image processing method |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011283722 | 2011-12-26 | ||
JP2011283722 | 2011-12-26 | ||
JP2012225979A JP2013152701A (en) | 2011-12-26 | 2012-10-11 | Image processing device, image processing system and image processing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013152701A true JP2013152701A (en) | 2013-08-08 |
Family
ID=49048964
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012225979A Abandoned JP2013152701A (en) | 2011-12-26 | 2012-10-11 | Image processing device, image processing system and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013152701A (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015069223A (en) * | 2013-09-26 | 2015-04-13 | オリンパス株式会社 | Cell observation information processing system, cell observation information processing method, cell observation information processing program, recording part provided in cell observation information processing system, and device provided in cell observation information processing system |
JP2015094827A (en) * | 2013-11-11 | 2015-05-18 | ソニー株式会社 | Image processing apparatus and image processing method |
JP2018085127A (en) * | 2013-09-25 | 2018-05-31 | ハートフロー, インコーポレイテッド | System and method for verification and correction of automated medical image annotations |
JP2018142788A (en) * | 2017-02-27 | 2018-09-13 | 京セラドキュメントソリューションズ株式会社 | Image processing apparatus and image forming apparatus |
JP2019514602A (en) * | 2016-05-10 | 2019-06-06 | ヒールセリオン カンパニー リミテッド | Portable Ultrasound Diagnostic System Providing Guided Ultrasound Images |
JPWO2021124869A1 (en) * | 2019-12-17 | 2021-06-24 | ||
US20210295997A1 (en) * | 2018-08-08 | 2021-09-23 | Deep Bio Inc. | Bioimage diagnosis system, bioimage diagnosis method, and terminal for executing same |
-
2012
- 2012-10-11 JP JP2012225979A patent/JP2013152701A/en not_active Abandoned
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018085127A (en) * | 2013-09-25 | 2018-05-31 | ハートフロー, インコーポレイテッド | System and method for verification and correction of automated medical image annotations |
JP2015069223A (en) * | 2013-09-26 | 2015-04-13 | オリンパス株式会社 | Cell observation information processing system, cell observation information processing method, cell observation information processing program, recording part provided in cell observation information processing system, and device provided in cell observation information processing system |
JP2015094827A (en) * | 2013-11-11 | 2015-05-18 | ソニー株式会社 | Image processing apparatus and image processing method |
JP2019514602A (en) * | 2016-05-10 | 2019-06-06 | ヒールセリオン カンパニー リミテッド | Portable Ultrasound Diagnostic System Providing Guided Ultrasound Images |
JP2018142788A (en) * | 2017-02-27 | 2018-09-13 | 京セラドキュメントソリューションズ株式会社 | Image processing apparatus and image forming apparatus |
US20210295997A1 (en) * | 2018-08-08 | 2021-09-23 | Deep Bio Inc. | Bioimage diagnosis system, bioimage diagnosis method, and terminal for executing same |
JPWO2021124869A1 (en) * | 2019-12-17 | 2021-06-24 | ||
WO2021124869A1 (en) * | 2019-12-17 | 2021-06-24 | 富士フイルム株式会社 | Diagnostic assistance device, diagnostic assistance method, and diagnostic assistance program |
JP7355849B2 (en) | 2019-12-17 | 2023-10-03 | 富士フイルム株式会社 | Diagnosis support device, diagnosis support method, and diagnosis support program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6091137B2 (en) | Image processing apparatus, image processing system, image processing method, and program | |
JP6124543B2 (en) | Image processing apparatus, image processing method, image processing system, and program | |
JP6799146B2 (en) | Digital pathology system and related workflows to provide visualized slide-wide image analysis | |
JP2013152701A (en) | Image processing device, image processing system and image processing method | |
US20140306992A1 (en) | Image processing apparatus, image processing system and image processing method | |
JP5660273B2 (en) | Image diagnosis method, image diagnosis apparatus, and image diagnosis program | |
US8699769B2 (en) | Generating artificial hyperspectral images using correlated analysis of co-registered images | |
JP6348504B2 (en) | Biological sample split screen display and system and method for capturing the records | |
JP5442542B2 (en) | Pathological diagnosis support device, pathological diagnosis support method, control program for pathological diagnosis support, and recording medium recording the control program | |
US20140184778A1 (en) | Image processing apparatus, control method for the same, image processing system, and program | |
JP5927591B2 (en) | CASE DISPLAY DEVICE, CASE DISPLAY METHOD, AND PROGRAM | |
WO2013100028A1 (en) | Image processing device, image display system, image processing method, and image processing program | |
US20130187954A1 (en) | Image data generation apparatus and image data generation method | |
US20160042122A1 (en) | Image processing method and image processing apparatus | |
JP2012073179A (en) | Pathological diagnosis support device, pathological diagnosis support method, control program for pathological diagnosis support and recording medium with control program recorded thereon | |
JP2013200640A (en) | Image processing device, image processing system, image processing method and program | |
JP5832281B2 (en) | Image processing apparatus, image processing system, image processing method, and program | |
Molin et al. | Scale Stain: Multi-resolution feature enhancement in pathology visualization | |
JP5702943B2 (en) | Pathological diagnosis support device, pathological diagnosis support method, control program for pathological diagnosis support, and recording medium recording the control program | |
Sadimin et al. | Pathology imaging informatics for clinical practice and investigative and translational research | |
Treanor | Virtual slides: an introduction | |
JP6338730B2 (en) | Apparatus, method, and program for generating display data | |
JP2016038542A (en) | Image processing method and image processing apparatus | |
WO2013099125A1 (en) | Image processing apparatus, image processing system and image processing method | |
Patil et al. | Evaluation and comparison between smartphone and photomicrography based whole slide imaging |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150930 |
|
A762 | Written abandonment of application |
Free format text: JAPANESE INTERMEDIATE CODE: A762 Effective date: 20160307 |