JP2013152701A - Image processing device, image processing system and image processing method - Google Patents

Image processing device, image processing system and image processing method Download PDF

Info

Publication number
JP2013152701A
JP2013152701A JP2012225979A JP2012225979A JP2013152701A JP 2013152701 A JP2013152701 A JP 2013152701A JP 2012225979 A JP2012225979 A JP 2012225979A JP 2012225979 A JP2012225979 A JP 2012225979A JP 2013152701 A JP2013152701 A JP 2013152701A
Authority
JP
Japan
Prior art keywords
image
annotation
display
image processing
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP2012225979A
Other languages
Japanese (ja)
Inventor
Tomohiko Takayama
知彦 高山
Takuya Tsujimoto
卓哉 辻本
Masanori Sato
正規 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012225979A priority Critical patent/JP2013152701A/en
Priority to PCT/JP2012/007916 priority patent/WO2013099125A1/en
Priority to US14/356,213 priority patent/US20140306992A1/en
Publication of JP2013152701A publication Critical patent/JP2013152701A/en
Abandoned legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing device allowing a user to efficiently find a position of interest while reducing the time and effort of the user.SOLUTION: The image processing device includes: an adding unit that adds an annotation to a diagnostic image obtained by taking an image of an object; a storage that stores a piece of attribute information which is a piece of predetermined attribute information as the information on the annotation in a storage along with annotation; a searching unit that searches a position of interest as a position interested by the user from the plural positions added with the annotation in the diagnostic image; and a display unit that displays the search result by the searching unit on the display section. The searching unit searches the position of interest using a word or a piece of attribute information included in the annotation.

Description

本発明は、画像処理装置、画像処理システム、画像処理方法およびプログラムに関する。   The present invention relates to an image processing apparatus, an image processing system, an image processing method, and a program.

近年、病理分野において、病理診断のツールである光学顕微鏡の代替として、プレパラートに載置された被検試料(被写体)の撮像と画像のデジタル化によってディスプレイ上での病理診断を可能とするバーチャルスライドシステムが注目を集めている。バーチャルスライドシステムを用いた病理診断画像のデジタル化により、被写体の光学顕微鏡像をデジタル画像データとして取り扱うことが可能となる。その結果、遠隔診断の迅速化、デジタル画像を用いた患者への説明、希少症例の共有化、教育・実習の効率化、などのメリットが得られると期待されている。   In recent years, in the field of pathology, as an alternative to an optical microscope, which is a tool for pathological diagnosis, a virtual slide that enables pathological diagnosis on a display by imaging a test sample (subject) placed on a slide and digitizing the image The system is drawing attention. By digitizing a pathological diagnosis image using a virtual slide system, an optical microscope image of a subject can be handled as digital image data. As a result, it is expected that merits such as quick remote diagnosis, explanation to patients using digital images, sharing of rare cases, and efficiency of education / practice will be obtained.

光学顕微鏡と同等程度の操作をバーチャルスライドシステムで実現するためには、プレパラート上の被写体全体の画像をデジタル化する必要がある。被写体全体の画像のデジタル化により、被写体全体をPC(Personal Computer)やワークステーション上で動作する
ビューワソフト(ビューワ)で観察することができる。被写体全体の画像をデジタル化した場合の画素数は、通常、数億画素から数十億画素と非常に大きなデータ量となる。このように、バーチャルスライドシステムで作成したデジタル画像データのデータ量は膨大である。しかし、それにより、ビューワで画像の拡大・縮小処理を行うことでミクロ(細部拡大像)からマクロ(全体俯瞰像)まで観察することが可能となり、種々の利便性を提供することが可能となる。必要な情報を予めすべて取得しておくことで、ユーザーが求める解像度や倍率の画像を即時表示することが可能となる。例えば、低倍率の画像から高倍率の画像まで即時表示することが可能となる。
また、医用画像(超音波画像)を取得するときにその医用画像にアノテーションを付加しておいて、アノテーション中のコメントを検索キーとして医用画像を検索する画像処理装置が提案されている(特許文献1)。
In order to realize an operation equivalent to that of an optical microscope with a virtual slide system, it is necessary to digitize the entire image of the subject on the slide. By digitizing the image of the entire subject, the entire subject can be observed with viewer software (viewer) operating on a PC (Personal Computer) or a workstation. The number of pixels when an image of the entire subject is digitized is usually a very large data amount of several hundred million to several billion pixels. Thus, the amount of digital image data created by the virtual slide system is enormous. However, it is possible to observe from the micro (detailed enlarged image) to the macro (overall bird's-eye view image) by performing enlargement / reduction processing of the image with the viewer, and it is possible to provide various conveniences. . By acquiring all necessary information in advance, it is possible to immediately display an image having the resolution and magnification required by the user. For example, it is possible to immediately display from a low magnification image to a high magnification image.
Also, an image processing apparatus has been proposed in which an annotation is added to a medical image when a medical image (ultrasonic image) is acquired, and the medical image is searched using a comment in the annotation as a search key (Patent Document) 1).

特開平11−353327号公報JP-A-11-353327

バーチャルスライド画像のような診断画像中には、その他の医用画像と比べて、診断医が注目する位置(注目位置;注目部位;関心領域)が多数存在する。それら注目位置を検索するためにアノテーションとしての注釈(コメント)のみを付加した場合には、検索対象が注釈に限定されるため、所望の注目位置を見つけ出すには制限がある。また、付加したアノテーションのすべてを確認して注目位置を探していたのでは、診断医(病理医)の手間が増えて、診断医による診断のための時間が長くなってしまう。   In a diagnostic image such as a virtual slide image, compared to other medical images, there are many positions (attention positions; attention sites; regions of interest) that are noticed by the diagnosis doctor. When only annotations (comments) as annotations are added in order to search these attention positions, the search target is limited to the annotations, and there is a limitation in finding a desired attention position. In addition, if all the added annotations are checked and the attention position is searched for, the time required for diagnosis by the diagnostician is increased because the time required for the diagnostician (pathologist) increases.

そこで、本発明は、ユーザーが注目位置を効率良く見つけだすことを可能とし、ひいてはユーザーの手間を減らすことのできる技術を提供することを目的とする。   Accordingly, an object of the present invention is to provide a technique that enables a user to efficiently find a position of interest, and thus reduces the user's trouble.

本発明の画像処理装置は、被写体を撮像して得られた診断画像にアノテーションを付加する付加手段と、アノテーションに関連する情報として、予め定められた属性の情報であ
る属性情報を、アノテーションと共に記憶部に記録する記録手段と、前記診断画像においてアノテーションが付加された複数の位置の中から、ユーザーが注目する位置である注目位置を検索する検索手段と、前記検索手段の検索結果を表示部に表示する表示手段と、を備え、前記検索手段は、アノテーションに含まれるワード、または、属性情報をキーとして、前記注目位置を検索することを特徴とする。
The image processing apparatus according to the present invention stores an addition unit that adds an annotation to a diagnostic image obtained by imaging a subject, and attribute information that is information about a predetermined attribute as information related to the annotation, together with the annotation. A recording unit for recording in the unit, a search unit for searching for a target position that is a position of interest to the user from a plurality of positions added with annotations in the diagnostic image, and a search result of the search unit on the display unit Display means for displaying, wherein the search means searches for the position of interest using a word or attribute information included in the annotation as a key.

本発明の画像処理システムは、前記画像処理装置と、前記表示部と、を備えることを特徴とする。   An image processing system according to the present invention includes the image processing apparatus and the display unit.

本発明の画像処理方法は、コンピュータが、被写体を撮像して得られた診断画像にアノテーションを付加する付加ステップと、コンピュータが、アノテーションに関連する情報として、予め定められた属性の情報である属性情報を、アノテーションと共に記憶部に記録する記録ステップと、コンピュータが、診断画像においてアノテーションが付加された複数の位置の中から、ユーザーが注目する位置である注目位置を検索する検索ステップと、コンピュータが、前記検索ステップの検索結果を表示部に表示する表示ステップと、を含み、前記検索ステップでは、アノテーションに含まれるワードまたは属性情報をキーとして、前記注目位置が検索されることを特徴とする。   The image processing method of the present invention includes an adding step in which a computer adds an annotation to a diagnostic image obtained by capturing an image of a subject, and an attribute that is information of a predetermined attribute as information related to the annotation. A recording step of recording information in the storage unit together with the annotation, a search step in which the computer searches a position of interest, which is a position of interest by the user, from a plurality of positions to which the annotation is added in the diagnostic image; And a display step of displaying a search result of the search step on a display unit. In the search step, the attention position is searched using a word or attribute information included in the annotation as a key.

本発明のプログラムは、前記画像処理方法の各ステップをコンピュータに実行させることを特徴とする。   A program according to the present invention causes a computer to execute each step of the image processing method.

本発明によれば、ユーザーが注目位置を効率良く見つけだすことが可能となり、ひいてはユーザーの手間を減らすことができる。   According to the present invention, it becomes possible for the user to efficiently find the position of interest, thereby reducing the user's trouble.

実施例1に係る画像処理システムの構成を示す図1 is a diagram illustrating a configuration of an image processing system according to a first embodiment. 実施例1に係る撮像装置の機能構成を示すブロック図FIG. 1 is a block diagram illustrating a functional configuration of an imaging apparatus according to a first embodiment. 実施例1に係る画像処理装置の機能構成を示すブロック図1 is a block diagram illustrating a functional configuration of an image processing apparatus according to a first embodiment. 実施例1に係る画像処理装置のハードウェア構成を示すブロック図1 is a block diagram illustrating a hardware configuration of an image processing apparatus according to a first embodiment. 倍率毎に予め用意された階層画像の概念図Conceptual diagram of hierarchical image prepared in advance for each magnification 実施例1に係る画像処理装置の全体的な処理の流れを示すフローチャート1 is a flowchart showing the overall processing flow of the image processing apparatus according to the first embodiment. 実施例1に係るアノテーションの付加処理の流れを示すフローチャート10 is a flowchart showing the flow of annotation addition processing according to the first embodiment. 実施例1に係る注目位置の検索処理の流れを示すフローチャート7 is a flowchart illustrating a flow of attention position search processing according to the first embodiment. 実施例1に係る検索結果の表示処理の流れを示すフローチャート7 is a flowchart showing the flow of search result display processing according to the first embodiment. 実施例1に係る表示画像の一例Example of display image according to embodiment 1 アノテーションリストの構成の一例An example of annotation list configuration 実施例2に係る画像処理システムの構成を示す図FIG. 10 is a diagram illustrating a configuration of an image processing system according to the second embodiment. 実施例2に係る検索結果の表示処理の流れを示すフローチャート10 is a flowchart illustrating a flow of search result display processing according to the second embodiment. 実施例2に係る表示画像の一例Example of display image according to embodiment 2 実施例1に係る診断基準設定の画面、診断分類の画面の一例Example of diagnostic criteria setting screen and diagnostic classification screen according to embodiment 1 診断支援データリストの構成の一例Example of diagnosis support data list configuration

(実施例1)
以下、図面を参照しながら本発明の実施例1に係る画像処理システムについて説明する。
本発明の実施例1に係る画像処理装置は、撮像装置と表示装置を備えた画像処理システムにおいて用いることができる。
(画像処理システムの装置構成)
本実施例に係る画像処理システムについて、図1を用いて説明する。
図1は、本実施例に係る画像処理装置を用いた画像処理システムの構成を示す図である。本実施例に係る画像処理システムは、撮像装置(顕微鏡装置、またはバーチャルスライドスキャナ)101、画像処理装置102、表示装置103などから構成され、撮像対象となる被写体(被検試料)の二次元画像を取得し表示する機能を有する。撮像装置101と画像処理装置102とは、専用もしくは汎用のI/Fのケーブル104で互いに接続され、画像処理装置102と表示装置103とは、汎用のI/Fのケーブル105で互いに接続される。
Example 1
Hereinafter, an image processing system according to a first embodiment of the present invention will be described with reference to the drawings.
The image processing apparatus according to the first embodiment of the present invention can be used in an image processing system including an imaging device and a display device.
(Device configuration of image processing system)
An image processing system according to the present embodiment will be described with reference to FIG.
FIG. 1 is a diagram illustrating a configuration of an image processing system using the image processing apparatus according to the present embodiment. The image processing system according to this embodiment includes an imaging device (microscope device or virtual slide scanner) 101, an image processing device 102, a display device 103, and the like, and a two-dimensional image of a subject (test sample) to be imaged. It has the function to acquire and display. The imaging apparatus 101 and the image processing apparatus 102 are connected to each other by a dedicated or general-purpose I / F cable 104, and the image processing apparatus 102 and the display apparatus 103 are connected to each other by a general-purpose I / F cable 105. .

撮像装置101としては、例えば、二次元の平面方向に位置の異なる複数枚の二次元画像を撮像し、デジタル画像を出力する機能を持つバーチャルスライド装置を用いることができる。二次元画像の取得にはCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子が用いられる。なお、撮像装置101として、通常の光学顕微鏡の接眼部にデジタルカメラを取り付けたデジタル顕微鏡装置を用いることもできる。
画像処理装置102は、ユーザーからの要求に応じて、撮像装置101から取得したデジタル画像データ(原画像データ)から、表示装置103に表示するデータ(表示データ)を生成する機能等を有する。画像処理装置102は、CPU(中央演算処理装置)、RAM、記憶装置、操作部を含む各種I/Fなどのハードウェア資源を備えた、汎用のコンピュータやワークステーションで構成される。記憶装置は、ハードディスクドライブなどの大容量情報記憶装置であり、後述する各処理を実現するためのプログラムやデータ、OS(オペレーティングシステム)などが格納されている。画像処理装置102の各機能は、CPUが記憶装置からRAMに必要なプログラムおよびデータをロードし、当該プログラムを実行することにより実現されるものである。操作部は、キーボードやマウスなどにより構成され、ユーザーが各種の指示を入力するために利用される。
表示装置103は、画像処理装置102が演算処理した結果である表示データに基づく画像を表示するディスプレイ(表示部)である。表示装置103としては、EL(Electro-Luminescence)、液晶、CRT(Cathode Ray Tube)等を用いた表示デバイスを用いることができる。
As the imaging device 101, for example, a virtual slide device having a function of capturing a plurality of two-dimensional images with different positions in a two-dimensional plane direction and outputting a digital image can be used. A solid-state imaging device such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor) is used to acquire a two-dimensional image. As the image pickup apparatus 101, a digital microscope apparatus in which a digital camera is attached to an eyepiece part of a normal optical microscope can be used.
The image processing apparatus 102 has a function of generating data (display data) to be displayed on the display apparatus 103 from digital image data (original image data) acquired from the imaging apparatus 101 in response to a request from the user. The image processing apparatus 102 is configured by a general-purpose computer or workstation having hardware resources such as various I / Fs including a CPU (Central Processing Unit), a RAM, a storage device, and an operation unit. The storage device is a large-capacity information storage device such as a hard disk drive, and stores programs, data, OS (operating system) and the like for realizing each processing described later. Each function of the image processing apparatus 102 is realized by the CPU loading a necessary program and data from the storage device to the RAM and executing the program. The operation unit includes a keyboard, a mouse, and the like, and is used by the user to input various instructions.
The display device 103 is a display (display unit) that displays an image based on display data that is a result of arithmetic processing performed by the image processing device 102. As the display device 103, a display device using EL (Electro-Luminescence), liquid crystal, CRT (Cathode Ray Tube), or the like can be used.

なお、図1の例では、撮像装置101と画像処理装置102と表示装置103の3つの装置により画像処理システムが構成されているが、本発明の構成はこの構成に限定されるものではない。例えば、表示装置と一体化した画像処理装置を用いてもよいし、画像処理装置の機能を撮像装置に組み込んでもよい。また、撮像装置、画像処理装置、表示装置の機能を1つの装置で実現することもできる。逆に、1つの装置の機能を複数の装置によって実現してもよい。例えば、画像処理装置の機能が複数の装置によって実現されてもよい。   In the example of FIG. 1, the image processing system is configured by three devices of the imaging device 101, the image processing device 102, and the display device 103, but the configuration of the present invention is not limited to this configuration. For example, an image processing device integrated with a display device may be used, or the function of the image processing device may be incorporated in the imaging device. In addition, the functions of the imaging device, the image processing device, and the display device can be realized by a single device. Conversely, the function of one device may be realized by a plurality of devices. For example, the function of the image processing device may be realized by a plurality of devices.

(撮像装置の機能構成)
図2は、撮像装置101の機能構成を示すブロック図である。
撮像装置101は、概略、照明ユニット201、ステージ202、ステージ制御ユニット205、結像光学系207、撮像ユニット210、現像処理ユニット219、プレ計測ユニット220、メイン制御系221、データ出力部222から構成される。
(Functional configuration of imaging device)
FIG. 2 is a block diagram illustrating a functional configuration of the imaging apparatus 101.
The imaging apparatus 101 is generally configured by an illumination unit 201, a stage 202, a stage control unit 205, an imaging optical system 207, an imaging unit 210, a development processing unit 219, a pre-measurement unit 220, a main control system 221, and a data output unit 222. Is done.

照明ユニット201は、ステージ202上に配置されたプレパラート206(被写体)に対して均一に光を照射する手段であり、光源、照明光学系、および光源駆動の制御系から構成される。ステージ202は、ステージ制御ユニット205によって駆動制御され、XYZの三軸方向への移動が可能である。プレパラート206は、観察対象となる被写体(組織の切片や塗抹した細胞)をスライドグラス上に貼り付け、封入剤とともにカバーグラスの下に固定した部材である。
ステージ制御ユニット205は、駆動制御系203とステージ駆動機構204から構成される。駆動制御系203は、メイン制御系221の指示を受け、ステージ202の駆動制御を行う。ステージ202の移動方向、移動量などは、プレ計測ユニット217によって計測した被写体の位置情報および厚み情報(距離情報)と、必要に応じてユーザーからの指示とに基づいて決定される。ステージ駆動機構204は、駆動制御系203の指示に従い、ステージ202を駆動する。
結像光学系207は、プレパラート206の被写体の光学像を撮像センサ208へ結像するためのレンズ群である。
The illumination unit 201 is means for uniformly irradiating light to a preparation 206 (subject) disposed on the stage 202, and includes a light source, an illumination optical system, and a light source drive control system. The stage 202 is driven and controlled by a stage control unit 205, and can move in three directions of XYZ. The preparation 206 is a member in which a subject to be observed (a tissue slice or smeared cells) is attached on a slide glass and fixed together with an encapsulant under the cover glass.
The stage control unit 205 includes a drive control system 203 and a stage drive mechanism 204. The drive control system 203 receives the instruction from the main control system 221 and performs drive control of the stage 202. The moving direction, moving amount, and the like of the stage 202 are determined based on the subject position information and thickness information (distance information) measured by the pre-measurement unit 217 and, if necessary, instructions from the user. The stage drive mechanism 204 drives the stage 202 in accordance with instructions from the drive control system 203.
The imaging optical system 207 is a lens group for forming an optical image of the subject of the preparation 206 on the image sensor 208.

撮像ユニット210は、撮像センサ208とアナログフロントエンド(AFE)209から構成される。
撮像センサ208は、二次元の光学像を光電変換によって電気的な物理量へ変える一次元もしくは二次元のイメージセンサであり、撮像センサ208として、例えばCCDやCMOSデバイスが用いられる。撮像センサ208が一次元センサの場合、走査方向へスキャンすることで二次元画像(二次元の撮像画像)が得られる。撮像センサ208からは、光の強度に応じた電圧値をもつ電気信号(アナログ信号)が出力される。撮像画像としてカラー画像が所望される場合は、例えば、Bayer配列のカラーフィルタが取り付けられた単板のイメージセンサを用いればよい。撮像ユニット210は、ステージ202がXY軸方向に駆動することにより、被写体の分割画像(撮像領域が互いに異なる複数の分割画像)を撮像する。
AFE209は、撮像センサ208から出力されたアナログ信号をデジタル信号へ変換する回路である。AFE209は後述するH/Vドライバ、CDS(Correlated double sampling)、アンプ、AD変換器およびタイミングジェネレータによって構成される。H/Vドライバは、撮像センサ208を駆動するための垂直同期信号および水平同期信号を、センサ駆動に必要な電位に変換する。CDSは、固定パターンのノイズを除去する二重相関サンプリング回路である。アンプは、CDSでノイズ除去されたアナログ信号のゲインを調整するアナログアンプである。AD変換器は、アナログ信号をデジタル信号に変換する。撮像装置最終段での出力が8ビットの場合、後段の処理を考慮して、AD変換器はアナログ信号を10ビットから16ビット程度に量子化されたデジタルデータへ変換し、出力する。変換されたセンサ出力データはRAWデータと呼ばれる。RAWデータは後段の現像処理ユニット219で現像処理される。タイミングジェネレータは、撮像センサ208の処理タイミングおよび後段の現像処理ユニット219の処理タイミングを調整する信号を生成する。
撮像センサ208としてCCDを用いる場合、上記AFE209は必須となるが、デジタル出力可能なCMOSイメージセンサの場合は、上記AFE209の機能をセンサに内包することになる。また、不図示ではあるが、撮像センサ208の制御を行う撮像制御部が存在し、撮像センサ208の動作制御や、シャッタースピード、フレームレートやROI(Region Of Interest)など動作タイミングや制御が合わせて行われる。
The imaging unit 210 includes an imaging sensor 208 and an analog front end (AFE) 209.
The imaging sensor 208 is a one-dimensional or two-dimensional image sensor that changes a two-dimensional optical image into an electrical physical quantity by photoelectric conversion. As the imaging sensor 208, for example, a CCD or a CMOS device is used. When the imaging sensor 208 is a one-dimensional sensor, a two-dimensional image (two-dimensional captured image) is obtained by scanning in the scanning direction. The imaging sensor 208 outputs an electrical signal (analog signal) having a voltage value corresponding to the light intensity. When a color image is desired as the captured image, for example, a single-plate image sensor to which a Bayer array color filter is attached may be used. The imaging unit 210 captures a divided image (a plurality of divided images having different imaging areas) of the subject by driving the stage 202 in the XY axis direction.
The AFE 209 is a circuit that converts an analog signal output from the image sensor 208 into a digital signal. The AFE 209 includes an H / V driver, a CDS (Correlated double sampling), an amplifier, an AD converter, and a timing generator, which will be described later. The H / V driver converts a vertical synchronization signal and a horizontal synchronization signal for driving the image sensor 208 into potentials necessary for driving the sensor. CDS is a double correlation sampling circuit that removes noise of fixed patterns. The amplifier is an analog amplifier that adjusts the gain of an analog signal from which noise has been removed by CDS. The AD converter converts an analog signal into a digital signal. When the output at the final stage of the imaging apparatus is 8 bits, the AD converter converts the analog signal into digital data quantized from about 10 bits to about 16 bits and outputs it in consideration of subsequent processing. The converted sensor output data is called RAW data. The RAW data is developed by a subsequent development processing unit 219. The timing generator generates a signal for adjusting the processing timing of the image sensor 208 and the processing timing of the development processing unit 219 in the subsequent stage.
When a CCD is used as the image sensor 208, the AFE 209 is indispensable. However, in the case of a CMOS image sensor capable of digital output, the function of the AFE 209 is included in the sensor. Although not shown, there is an imaging control unit that controls the imaging sensor 208, and the operation timing and control such as the operation control of the imaging sensor 208, the shutter speed, the frame rate, and the ROI (Region Of Interest) are combined. Done.

現像処理ユニット219は、黒補正部211、ホワイトバランス調整部212、デモザイキング処理部213、画像合成処理部214、解像度変換処理部215、フィルタ処理部216、γ補正部217および圧縮処理部218から構成される。
黒補正部211は、RAWデータの各画素から、遮光時に得られた黒補正データを減算する処理を行う。
ホワイトバランス調整部212は、照明ユニット201の光の色温度に応じて、RGB各色のゲインを調整することによって、望ましい白色を再現する処理を行う。具体的には、黒補正後のRAWデータに対しホワイトバランス補正用データが加算される。単色の画像を取り扱う場合にはホワイトバランス調整処理は不要となる。
デモザイキング処理部213は、Bayer配列のRAWデータから、RGB各色の画像データを生成する処理を行う。デモザイキング処理部213は、RAWデータにおける
周辺画素(同色の画素と他色の画素を含む)の値を補間することによって、注目画素のRGB各色の値を計算する。またデモザイキング処理部213は、欠陥画素の補正処理(補間処理)も実行する。なお、撮像センサ208がカラーフィルタを有しておらず、単色の画像が得られている場合、デモザイキング処理は不要となる。
画像合成処理部214は、撮像センサ208によって撮像範囲を分割して取得した分割画像データをつなぎ合わせて所望の撮像範囲の大容量画像データを生成する処理を行う。一般に、既存のイメージセンサによって一回の撮像で取得できる撮像範囲より被写体の存在範囲が広いため、一枚の二次元画像データ(大容量画像データ)を、分割画像データのつなぎ合わせによって生成する。例えば、0.25μmの分解能でプレパラート206上の10mm角の範囲を撮像すると仮定した場合、一辺の画素数は10mm/0.25μmの4万画素となり、トータルの画素数はその二乗である16億画素となる。10M(1000万)の画素数を持つ撮像センサ208を用いて16億画素の画像データを取得するには、16億/1000万の160個に領域を分割して撮像を行う必要がある。なお、複数の画像データをつなぎ合わせる方法としては、ステージ202の位置情報に基づいて位置合わせをしてつなぐ方法や、複数の分割画像の対応する点または線の位置合わせをしてつなぐ方法、分割画像データの位置情報に基づいてつなぐ方法などがある。つなぎ合わせの際、0次補間、線形補間、高次補間等の補間処理により複数の分割画像を滑らかにつなげることができる。なお、本実施例では、一枚の大容量画像の生成を想定しているが、画像処理装置102が、複数の分割画像データを取得し、表示データを生成する際に、分割画像をつなぎ合わせてもよい。
解像度変換処理部215は、画像合成処理部214で生成された大容量の二次元画像を高速に表示するために、倍率が互いに異なる複数の画像を予め解像度変換によって生成する処理を行う。解像度変換処理部215は、低倍率から高倍率まで複数の倍率の画像データを生成し、それらの画像データをひとまとめにした階層構造を持つデータを生成する。当該階層構造を持つデータの詳細については図5を用いて後述する。
フィルタ処理部216は、画像に含まれる高周波成分の抑制、ノイズ除去、解像感強調を実現するデジタルフィルタである。γ補正部217は、一般的な表示デバイスの階調表現特性に合わせて、画像に逆特性を付加する処理を実行したり、高輝度部の階調圧縮や暗部処理によって人間の視覚特性に合わせた階調変換を実行したりする。本実施例では形態観察を目的とした画像取得のため、合成処理や表示処理に適した階調変換が画像データに対して適用される。
圧縮処理部218は、大容量の二次元画像データの伝送の効率化および保存する際の容量を削減(圧縮)するための符号化処理を行う。静止画像の圧縮手法として、JPEG(Joint Photographic Experts Group)、JPEGを改良、進化させたJPEG2000やJPEG XR等の規格化された符号化方式が広く一般に知られている。
The development processing unit 219 includes a black correction unit 211, a white balance adjustment unit 212, a demosaicing processing unit 213, an image composition processing unit 214, a resolution conversion processing unit 215, a filter processing unit 216, a γ correction unit 217, and a compression processing unit 218. Composed.
The black correction unit 211 performs a process of subtracting the black correction data obtained at the time of shading from each pixel of the RAW data.
The white balance adjustment unit 212 performs a process of reproducing a desired white color by adjusting the gain of each RGB color according to the color temperature of the light of the illumination unit 201. Specifically, white balance correction data is added to the RAW data after black correction. When handling a monochrome image, the white balance adjustment process is not necessary.
The demosaicing processing unit 213 performs processing for generating image data of each color of RGB from RAW data in the Bayer array. The demosaicing processing unit 213 calculates the value of each RGB color of the target pixel by interpolating the values of peripheral pixels (including pixels of the same color and other colors) in the RAW data. The demosaicing processing unit 213 also executes defective pixel correction processing (interpolation processing). Note that when the imaging sensor 208 does not have a color filter and a single color image is obtained, the demosaicing process is not necessary.
The image composition processing unit 214 performs a process of generating large-capacity image data in a desired imaging range by joining the divided image data acquired by dividing the imaging range by the imaging sensor 208. In general, since the existence range of the subject is wider than the imaging range that can be acquired by one imaging with an existing image sensor, one piece of two-dimensional image data (large-capacity image data) is generated by joining the divided image data. For example, assuming that a 10 mm square area on the slide 206 is imaged with a resolution of 0.25 μm, the number of pixels on one side is 40,000 pixels of 10 mm / 0.25 μm, and the total number of pixels is 1.6 billion, which is the square of the number of pixels. It becomes a pixel. In order to acquire image data of 1.6 billion pixels using the image sensor 208 having 10M (10 million) pixels, it is necessary to divide the area into 160 areas of 1.6 billion / 10,000,000 and perform imaging. In addition, as a method of joining a plurality of image data, a method of joining by aligning based on the position information of the stage 202, a method of joining by matching points or lines corresponding to a plurality of divided images, There is a method of connecting based on position information of image data. At the time of joining, a plurality of divided images can be smoothly connected by interpolation processing such as zero-order interpolation, linear interpolation, and high-order interpolation. In the present embodiment, it is assumed that one large-capacity image is generated. However, when the image processing apparatus 102 acquires a plurality of divided image data and generates display data, the divided images are joined together. May be.
The resolution conversion processing unit 215 performs processing for generating a plurality of images with different magnifications in advance by resolution conversion in order to display the large-capacity two-dimensional image generated by the image composition processing unit 214 at high speed. The resolution conversion processing unit 215 generates image data of a plurality of magnifications from low magnification to high magnification, and generates data having a hierarchical structure in which these image data are collected together. Details of the data having the hierarchical structure will be described later with reference to FIG.
The filter processing unit 216 is a digital filter that realizes suppression of high-frequency components contained in an image, noise removal, and resolution enhancement. The γ correction unit 217 executes processing for adding an inverse characteristic to an image in accordance with the gradation expression characteristic of a general display device, or adjusts to the human visual characteristic by gradation compression or dark part processing of a high luminance part. Or perform tone conversion. In this embodiment, in order to acquire an image for the purpose of morphological observation, gradation conversion suitable for composition processing and display processing is applied to image data.
The compression processing unit 218 performs encoding processing for improving the efficiency of transmission of large-capacity two-dimensional image data and reducing (compressing) the capacity when storing. As a still image compression technique, standardized encoding methods such as JPEG (Joint Photographic Experts Group) and JPEG 2000 and JPEG XR, which are improved and evolved from JPEG, are widely known.

プレ計測ユニット220は、プレパラート206上の被写体の位置情報、所望の焦点位置までの距離情報、および被写体の厚みに起因する光量調整用のパラメータを算出するための事前計測を行うユニットである。本計測の前にプレ計測ユニット220によって情報を取得することで、無駄のない撮像を実施することが可能となる。二次元平面の位置情報の取得には、撮像センサ208より解像力の低い二次元撮像センサが用いられる。プレ計測ユニット220は、取得した画像から被写体のXY平面上での位置を把握する。距離情報および厚み情報の取得には、レーザー変位計やシャックハルトマン方式の計測器が用いられる。   The pre-measurement unit 220 is a unit that performs pre-measurement for calculating the position information of the subject on the slide 206, the distance information to the desired focal position, and the parameter for adjusting the amount of light caused by the thickness of the subject. By acquiring information by the pre-measurement unit 220 before the main measurement, it is possible to perform image pickup without waste. A two-dimensional image sensor having a lower resolving power than the image sensor 208 is used to acquire position information on the two-dimensional plane. The pre-measurement unit 220 grasps the position of the subject on the XY plane from the acquired image. For obtaining distance information and thickness information, a laser displacement meter or a Shack-Hartmann measuring instrument is used.

メイン制御系221は、これまで説明してきた各種ユニットの制御を行う機能である。メイン制御系221および現像処理ユニット219の制御機能は、CPUとROMとRAMを有する制御回路により実現される。すなわち、ROM内にプログラムおよびデータが格納されており、CPUがRAMをワークメモリとして使いプログラムを実行することで、メイン制御系221および現像処理ユニット219の機能が実現される。ROMには例
えばEEPROMやフラッシュメモリなどのデバイスが用いられ、RAMには例えばDDR3などのDRAMデバイスが用いられる。なお、メイン制御系221を、現像処理ユニット219の機能を専用のハードウェアデバイスとしてASIC化したものに置き換えてもよい。
The main control system 221 is a function for controlling the various units described so far. The control functions of the main control system 221 and the development processing unit 219 are realized by a control circuit having a CPU, a ROM, and a RAM. That is, the program and data are stored in the ROM, and the functions of the main control system 221 and the development processing unit 219 are realized by the CPU executing the program using the RAM as a work memory. For example, a device such as an EEPROM or a flash memory is used as the ROM, and a DRAM device such as DDR3 is used as the RAM. Note that the main control system 221 may be replaced with a function obtained by developing the function of the development processing unit 219 into an ASIC as a dedicated hardware device.

データ出力部222は、現像処理ユニット219によって生成された画像データを診断画像データとして画像処理装置102に送るためのインターフェースである。撮像装置101と画像処理装置102とは、光通信ケーブルにより互いに接続される。あるいは、USBやGigabitEthernet(登録商標)等の汎用インターフェースが使用される。   The data output unit 222 is an interface for sending the image data generated by the development processing unit 219 to the image processing apparatus 102 as diagnostic image data. The imaging device 101 and the image processing device 102 are connected to each other by an optical communication cable. Alternatively, a general-purpose interface such as USB or Gigabit Ethernet (registered trademark) is used.

(画像処理装置の機能構成)
図3は、本実施例に係る画像処理装置102の機能構成を示すブロック図である。
画像処理装置102は、概略、画像データ取得部301、記憶保持部(メモリ)302、ユーザー入力情報取得部303、表示装置情報取得部304、アノテーションデータ生成部305、アノテーションリスト記憶部306、アノテーション検索処理部307、表示データ生成制御部308、表示画像データ取得部309、表示データ生成部310、および表示データ出力部311から構成される。
(Functional configuration of image processing apparatus)
FIG. 3 is a block diagram illustrating a functional configuration of the image processing apparatus 102 according to the present embodiment.
The image processing apparatus 102 includes an outline, an image data acquisition unit 301, a storage holding unit (memory) 302, a user input information acquisition unit 303, a display device information acquisition unit 304, an annotation data generation unit 305, an annotation list storage unit 306, and an annotation search. The processing unit 307, the display data generation control unit 308, the display image data acquisition unit 309, the display data generation unit 310, and the display data output unit 311 are configured.

画像データ取得部301は、撮像装置101で撮像された画像データ(被写体を撮像して得られた診断画像(診断対象の画像)のデータ)を取得する。ここで言う診断画像データは、被写体を分割して撮像することにより得られたRGBのカラーの分割画像データ、分割画像データを合成した一枚の二次元画像データ(高解像画像データ)、および高解像画像データをもとに生成された各倍率の画像データ(階層画像データ)の少なくとも何れかである。なお、分割画像データはモノクロの画像データでもよい。   The image data acquisition unit 301 acquires image data captured by the imaging apparatus 101 (diagnosis image (image of a diagnosis target) obtained by imaging a subject). The diagnostic image data referred to here is RGB color divided image data obtained by dividing and imaging a subject, one piece of two-dimensional image data (high resolution image data) obtained by combining the divided image data, and It is at least one of the image data (hierarchical image data) of each magnification generated based on the high resolution image data. The divided image data may be monochrome image data.

記憶保持部302は、画像データ取得部301を介して外部装置(撮像装置101)から取得した画像データを取り込み、記憶、保持する。   The storage holding unit 302 captures, stores, and holds image data acquired from an external device (imaging device 101) via the image data acquisition unit 301.

ユーザー入力情報取得部303は、マウスやキーボード等の操作部を介して、診断画像内の表示位置の変更、診断画像の表示倍率(表示する断層画像の倍率;拡大率や縮小率)の変更などの表示画像データ(診断画像の表示される領域の画像データ)の更新指示を取得する。また、ユーザー入力情報取得部303は、マウスやキーボード等の操作部を介して、診断画像の関心位置へのアノテーションの付加等を行う際に用いる表示アプリケーションへの入力情報を取得する。アノテーションとは、画像データに対して注釈として付与される情報のことであり、注釈があるという情報だけでも良いし、注釈内容(テキストデータ)も含まれていても良い。   The user input information acquisition unit 303 changes the display position in the diagnostic image, changes the display magnification of the diagnostic image (magnification of the tomographic image to be displayed; enlargement rate or reduction rate), etc., via an operation unit such as a mouse or a keyboard. The update instruction of the display image data (image data of the area where the diagnostic image is displayed) is acquired. In addition, the user input information acquisition unit 303 acquires input information to a display application used when adding an annotation to a position of interest of a diagnostic image via an operation unit such as a mouse or a keyboard. An annotation is information given as an annotation to image data, and may be only information indicating that there is an annotation, or may include annotation content (text data).

表示装置情報取得部304は、表示装置103が保有するディスプレイの表示エリア情報(画面解像度)の他、現在表示されている画像の表示倍率の情報(表示倍率情報)を取得する。   The display device information acquisition unit 304 acquires display magnification information (display magnification information) of the currently displayed image, in addition to display area information (screen resolution) of the display held by the display device 103.

アノテーションデータ生成部305は、診断画像の、ユーザーに指定された位置にアノテーションを付加する。また、アノテーションデータ生成部305は、アノテーションを付加する際に、注釈内容としてのテキスト情報だけでなく、アノテーションに関連する情報としての属性情報をテキスト情報と共に記憶部(アノテーションリスト記憶部306)に記録する。属性情報は、後述するように、診断画像に付加された多数のアノテーションの中から、観察者(医師、技師など)が注目すべきアノテーションを絞り込むために利用される。それゆえ、アノテーションの絞り込み(検索)に有用な情報であれば、どのような種類の情報でも属性情報として用いることができる。例えば、いつ、誰が(人が付加す
る場合もコンピュータが自動付加する場合もある)、アノテーションを付加したか、という情報や、アノテーションを付加した目的・意図・観点を表す情報などを、属性情報として用いることができる。属性情報の詳細は後述する。
アノテーションデータ生成部305は、ユーザー入力情報取得部303から表示画面(表示装置103の画面)内の位置座標(表示画面内の、ユーザーに指定された位置(アノテーションを付加する位置)の座標)の情報を取得する。また、アノテーションデータ生成部305は、表示装置情報取得部304から表示倍率情報を取得する。そして、アノテーションデータ生成部305は、それらの情報を用いて、上記表示画面内の位置座標を診断画像内の位置座標に変換する。その後、アノテーションデータ生成部305は、アノテーションとして入力されたテキスト情報(テキストデータ)、上記診断画像内の位置座標の情報、上記表示倍率情報、および属性情報を含むアノテーションデータを生成する。生成したアノテーションデータは、アノテーションリスト記憶部306に記録される。アノテーションの付加処理の詳細は図7を用いて後述する。
The annotation data generation unit 305 adds an annotation to the position specified by the user in the diagnostic image. In addition, when an annotation is added, the annotation data generation unit 305 records not only text information as annotation content but also attribute information as information related to the annotation together with the text information in the storage unit (annotation list storage unit 306). To do. As will be described later, the attribute information is used to narrow down annotations that an observer (doctor, engineer, etc.) should pay attention from among a large number of annotations added to a diagnostic image. Therefore, any type of information can be used as attribute information as long as it is useful for narrowing down (searching) annotations. For example, attribute information includes information such as when and who (whether added by a person or computer automatically), information indicating the annotation, purpose, intention, or viewpoint Can be used. Details of the attribute information will be described later.
The annotation data generation unit 305 receives the position coordinates (coordinates of the position specified by the user (position where the annotation is added) in the display screen) in the display screen (screen of the display device 103) from the user input information acquisition unit 303. Get information. The annotation data generation unit 305 acquires display magnification information from the display device information acquisition unit 304. Then, the annotation data generation unit 305 converts the position coordinates in the display screen into position coordinates in the diagnostic image using the information. Thereafter, the annotation data generation unit 305 generates annotation data including text information (text data) input as an annotation, information on position coordinates in the diagnostic image, display magnification information, and attribute information. The generated annotation data is recorded in the annotation list storage unit 306. Details of the annotation addition processing will be described later with reference to FIG.

アノテーションリスト記憶部306は、アノテーションデータ生成部305で生成されたアノテーションデータをリスト化した参照テーブル(アノテーションリスト)を記憶する。アノテーションリストの構成については図11を用いて後述する。   The annotation list storage unit 306 stores a reference table (annotation list) in which the annotation data generated by the annotation data generation unit 305 is listed. The structure of the annotation list will be described later with reference to FIG.

アノテーション検索処理部307は、アノテーションが付加された複数の位置から、ユーザーが注目する位置である注目位置を検索する。注目位置の検索処理の詳細は図8を用いて後述する。   The annotation search processing unit 307 searches an attention position, which is a position that the user pays attention, from a plurality of positions to which the annotation is added. Details of the attention position search processing will be described later with reference to FIG.

表示データ生成制御部308は、ユーザー入力情報取得部303の指示に従い表示データの生成を制御する。表示データは、主に、表示画像データとアノテーション画像データ(アノテーションの画像のデータ)とからなる。
表示画像データ取得部309は、表示データ生成制御部308からの指示に従い、表示に必要な診断画像データ(表示画像データ)を記憶保持部302から取得する。
The display data generation control unit 308 controls display data generation in accordance with instructions from the user input information acquisition unit 303. The display data mainly includes display image data and annotation image data (annotation image data).
The display image data acquisition unit 309 acquires diagnostic image data (display image data) necessary for display from the storage holding unit 302 in accordance with an instruction from the display data generation control unit 308.

表示データ生成部310と表示データ出力部311により、表示データが生成され、表示装置103へ出力される。それにより、表示データに基づく画像が表示装置103に表示される。また、注目位置の検索が行われた場合には、表示データ生成部310と表示データ出力部311により、アノテーション検索処理部307による検索結果が表示装置103に表示される。
具体的には、表示データ生成部310は、アノテーションデータ生成部305で生成されたアノテーションデータと、表示画像データ取得部309によって取得された診断画像データとを用いて、表示装置103で表示するための表示データを生成する。
表示データ出力部311は、表示データ生成部310で生成された表示データを外部装置である表示装置103へ出力する。
Display data is generated by the display data generation unit 310 and the display data output unit 311 and is output to the display device 103. Thereby, an image based on the display data is displayed on the display device 103. When the attention position is searched, the display data generation unit 310 and the display data output unit 311 display the search result by the annotation search processing unit 307 on the display device 103.
Specifically, the display data generation unit 310 uses the annotation data generated by the annotation data generation unit 305 and the diagnostic image data acquired by the display image data acquisition unit 309 to display on the display device 103. Generate display data.
The display data output unit 311 outputs the display data generated by the display data generation unit 310 to the display device 103 which is an external device.

(画像形成装置のハードウェア構成)
図4は、本実施例に係る画像処理装置のハードウェア構成を示すブロック図である。情報処理を行う画像処理装置として、例えばPC(Personal Computer)が用いられる。
PCは、CPU(Central Processing Unit)401、RAM(Random Access Memory
)402、記憶装置403、データ入出力I/F405、およびこれらを互いに接続する内部バス404を備える。
CPU401は、必要に応じてRAM402等にアクセスし、各種演算処理を行いながらPCの各ブロックを統括的に制御する。
RAM402は、CPU401の作業用領域等として用いられ、OS、実行中の各種プログラム、本発明の特徴であるアノテーションの検索や表示データの生成など処理で使用する各種データを一時的に保持する。
記憶装置403は、CPU401に実行させるOS、プログラムや各種パラメータなどのファームウェアが固定的に記憶されている補助記憶装置である。記憶装置403としては、HDD(Hard Disk Drive)等の磁気ディスクドライブもしくはFlashメモリを
用いた半導体デバイス(SSD(Solid State Disk)等)が用いられる。
データ入出力I/F405には、LAN I/F406を介して画像サーバー1101
が、グラフィクスボード407を介して表示装置103が、外部装置I/F408を介してバーチャルスライド装置やデジタル顕微鏡に代表される撮像装置101が、操作I/F409を介してキーボード410やマウス411が、それぞれ接続される。
(Hardware configuration of image forming apparatus)
FIG. 4 is a block diagram illustrating a hardware configuration of the image processing apparatus according to the present embodiment. As an image processing apparatus that performs information processing, for example, a PC (Personal Computer) is used.
The PC includes a CPU (Central Processing Unit) 401, a RAM (Random Access Memory).
) 402, a storage device 403, a data input / output I / F 405, and an internal bus 404 for connecting them together.
The CPU 401 accesses the RAM 402 and the like as necessary, and comprehensively controls each block of the PC while performing various arithmetic processes.
The RAM 402 is used as a work area for the CPU 401, and temporarily stores the OS, various programs being executed, and various data used in processing such as annotation search and display data generation, which are features of the present invention.
The storage device 403 is an auxiliary storage device in which firmware such as an OS, a program, and various parameters to be executed by the CPU 401 is fixedly stored. As the storage device 403, a magnetic disk drive such as an HDD (Hard Disk Drive) or a semiconductor device (SSD (Solid State Disk) or the like) using a flash memory is used.
The data input / output I / F 405 is connected to the image server 1101 via the LAN I / F 406.
However, the display device 103 via the graphics board 407, the imaging device 101 represented by a virtual slide device and a digital microscope via the external device I / F 408, the keyboard 410 and the mouse 411 via the operation I / F 409, Each is connected.

なお、本実施例では、表示装置103が外部装置として接続されるPCを想定しているが、表示装置と一体化したPCであってもよい。例えばノートPCがこれに該当する。
なお、本実施例では、操作I/F409を介して接続される入力デバイスとしてキーボード410やマウス411等のポインティングデバイスを想定しているが、表示装置103の画面がタッチパネルとなっている場合には、該タッチパネルを入力デバイスとして用いてもよい。その場合、タッチパネルは表示装置103と一体となり得る。
In this embodiment, a PC to which the display device 103 is connected as an external device is assumed. However, a PC integrated with the display device may be used. For example, a notebook PC corresponds to this.
In the present embodiment, a pointing device such as a keyboard 410 and a mouse 411 is assumed as an input device connected via the operation I / F 409. However, when the screen of the display device 103 is a touch panel. The touch panel may be used as an input device. In that case, the touch panel can be integrated with the display device 103.

(倍率毎に階層化されたデータの概念)
既に述べたように、画像処理装置102には、倍率毎に階層化されたデータが入力されることもある。図5は、倍率毎に予め用意された画像(階層画像;撮像装置101の解像度変換処理部215で生成される画像)の概念図である。
階層画像は軸Xと軸Yの二次元の軸を持っている。軸X,Yに直交する方向の軸Pは、複数の階層画像をピラミッド形式で示すための軸である。
符号501,502,503,504は、倍率が互いに異なる二次元画像(階層画像)であり、解像度が互いに異なる階層画像である。説明を簡単にするため、階層画像503の各一次元方向(X方向、Y方向)の解像度は、階層画像504の1/2となっている。階層画像502の各一次元方向の解像度は、階層画像503の1/2となっている。階層画像501の各一次元方向の解像度は、階層画像502の1/2となっている。
符号505は、分割画像のサイズの領域を指している。
(Concept of data hierarchized for each magnification)
As described above, the image processing apparatus 102 may receive data hierarchized for each magnification. FIG. 5 is a conceptual diagram of an image (hierarchical image; an image generated by the resolution conversion processing unit 215 of the imaging device 101) prepared in advance for each magnification.
The hierarchical image has a two-dimensional axis of axis X and axis Y. An axis P in a direction orthogonal to the axes X and Y is an axis for showing a plurality of hierarchical images in a pyramid format.
Reference numerals 501, 502, 503, and 504 are two-dimensional images (hierarchical images) having different magnifications and hierarchical images having different resolutions. In order to simplify the description, the resolution of each one-dimensional direction (X direction, Y direction) of the hierarchical image 503 is ½ that of the hierarchical image 504. The resolution in each one-dimensional direction of the hierarchical image 502 is ½ of the hierarchical image 503. The resolution in each one-dimensional direction of the hierarchical image 501 is ½ of the hierarchical image 502.
Reference numeral 505 indicates an area of the size of the divided image.

撮像装置101で撮像して得られる画像データは診断の目的から高解像、高分解能の画像データであることが望まれる。ただし、先に説明したとおり数十億画素からなる画像データの縮小画像を表示する場合、表示の要求がある度に解像度変換を行っていたのでは処理が間に合わなくなってしまう。そのため、予め倍率の異なるいくつかの階層画像を用意し、用意された階層画像から、表示倍率と近接する倍率の画像を選択し、表示倍率に合わせて選択した画像の解像度変換を行うことが望ましい。それにより、解像度変換の処理量を低減することができる。一般には、より高倍率の画像から表示倍率の画像を生成するのが、画質の点でより好ましい。   The image data obtained by imaging with the imaging device 101 is desired to be high resolution and high resolution image data for the purpose of diagnosis. However, as described above, when displaying a reduced image of image data consisting of billions of pixels, if the resolution conversion is performed each time a display request is made, the process will not be in time. Therefore, it is desirable to prepare several hierarchical images with different magnifications in advance, select an image with a magnification close to the display magnification from the prepared hierarchical images, and perform resolution conversion of the selected image according to the display magnification. . Thereby, the processing amount of resolution conversion can be reduced. In general, it is more preferable in terms of image quality to generate a display magnification image from a higher magnification image.

撮像して得られる画像データは高解像の画像データであるため、該画像データを、解像度変換手法によって縮小することにより、他の倍率の階層画像データが生成される。解像度変換の手法としては、二次元の線形な補間処理であるバイリニアの他、三次の補間式を用いたバイキュービックなどが広く知られている。   Since the image data obtained by imaging is high-resolution image data, hierarchical image data of other magnifications is generated by reducing the image data by a resolution conversion method. As a resolution conversion method, bicubic using a cubic interpolation formula is widely known in addition to bilinear which is a two-dimensional linear interpolation process.

このように、診断画像の表示倍率を変化させて診断、観察する場合には、診断画像データとして、図に示したように倍率が互いに異なる複数の階層画像データを用意することが望ましい。なお、複数の階層画像データをとりまとめて一つのデータ(ファイル)として取り扱えるようにしてもよいし、各階層画像データを独立な画像データとして用意するとともに、倍率と画像データの関係を表す情報が用意されてもよい。   Thus, when diagnosing and observing while changing the display magnification of a diagnostic image, it is desirable to prepare a plurality of hierarchical image data having different magnifications as shown in the figure as diagnostic image data. A plurality of hierarchical image data may be collected and handled as one data (file), and each hierarchical image data is prepared as independent image data and information indicating the relationship between the magnification and the image data is prepared. May be.

(アノテーションの付加、注目位置の検索、検索結果の表示の方法)
本実施例に係る画像処理装置における、アノテーションの付加、注目位置の検索および検索結果の表示の流れを図6のフローチャートを用いて説明する。
(How to add annotations, search attention positions, and display search results)
The flow of annotation addition, attention position search, and search result display in the image processing apparatus according to the present embodiment will be described with reference to the flowchart of FIG.

ステップS601では、表示装置情報取得部304が、表示装置103の表示エリア(画面)のサイズ情報(画面解像度)、及び、現在の表示されている診断画像の倍率の情報(表示倍率情報)を取得する。表示エリアのサイズ情報は、生成する表示データのサイズを決める際に用いる。表示倍率は、階層画像を選択する時、およびアノテーションデータの生成時に用いる。アノテーションデータの生成については後述する。   In step S601, the display device information acquisition unit 304 acquires size information (screen resolution) of the display area (screen) of the display device 103 and information on the magnification of the currently displayed diagnostic image (display magnification information). To do. The size information of the display area is used when determining the size of display data to be generated. The display magnification is used when selecting a hierarchical image and generating annotation data. The generation of annotation data will be described later.

ステップS602では、表示画像データ取得部309が、ステップS601で取得された表示倍率に対応した診断画像データを記憶保持部302より取得する。具体的には、表示画像データ取得部309は、ステップS601で取得された表示倍率に最も近い(または、表示倍率より大きく、且つ、表示倍率に最も近い)倍率の診断画像データを記憶保持部302より取得する。なお、診断画像が表示されていない場合には、表示画像データ取得部309が、所定の表示倍率(初期値)に対応した診断画像データを記憶保持部302より取得する。   In step S <b> 602, the display image data acquisition unit 309 acquires diagnostic image data corresponding to the display magnification acquired in step S <b> 601 from the storage holding unit 302. Specifically, the display image data acquisition unit 309 stores the diagnostic image data having the magnification closest to the display magnification acquired in step S601 (or larger than the display magnification and closest to the display magnification). Get more. When no diagnostic image is displayed, the display image data acquisition unit 309 acquires diagnostic image data corresponding to a predetermined display magnification (initial value) from the storage holding unit 302.

ステップS603では、表示データ生成部310が、ステップS602で取得された診断画像データを用いて表示データを生成する。具体的には、表示倍率がステップS602で取得された診断画像データの倍率と等しい場合には、表示データ生成部310は、当該取得された診断画像データをそのまま用いて表示データを生成する。表示倍率がステップS602で取得された診断画像データの倍率と異なる場合には、表示データ生成部310は、倍率が表示倍率となるように、取得された診断画像データの解像度変換を行い、該解像度変換された画像データを用いて表示データを生成する。生成された表示データは、表示装置103に表示される。このとき、診断画像内の表示する位置(表示位置)が指示されている場合には、表示倍率の診断画像の該位置が表示されるように、表示倍率の診断画像データの一部または全部を抽出して表示データが生成される。   In step S603, the display data generation unit 310 generates display data using the diagnostic image data acquired in step S602. Specifically, when the display magnification is equal to the magnification of the diagnostic image data acquired in step S602, the display data generation unit 310 generates display data using the acquired diagnostic image data as it is. When the display magnification is different from the magnification of the diagnostic image data acquired in step S602, the display data generation unit 310 performs resolution conversion of the acquired diagnostic image data so that the magnification becomes the display magnification, and the resolution Display data is generated using the converted image data. The generated display data is displayed on the display device 103. At this time, when the display position (display position) in the diagnostic image is instructed, a part or all of the diagnostic image data at the display magnification is displayed so that the position of the diagnostic image at the display magnification is displayed. Extraction and display data are generated.

ステップS604では、ユーザー入力情報取得部303が、ユーザーから表示画像データの更新が指示されたか否かを判断する。具体的には、表示位置の変更や表示倍率の変更など、診断画像の表示領域の変更の指示があったか否かが判断される。表示画像データの更新指示があった場合はステップS602へ戻り、診断画像データの取得、表示データの生成による画面更新(表示画像の更新)の処理が行われる。表示画像データの更新の指示がない場合には、ステップS605へ進む。   In step S604, the user input information acquisition unit 303 determines whether or not an instruction to update display image data has been given by the user. Specifically, it is determined whether or not there has been an instruction to change the display area of the diagnostic image, such as changing the display position or changing the display magnification. If there is an instruction to update the display image data, the process returns to step S602, and diagnostic image data acquisition and screen update (display image update) processing by display data generation are performed. If there is no instruction to update the display image data, the process proceeds to step S605.

ステップS605では、ユーザー入力情報取得部303が、ユーザーからアノテーション付加の指示、要求を受けたか否かを判断する。アノテーション付加の指示があった場合は、ステップS606へ進む。アノテーションの付加の指示がなかった場合は、アノテーション付加の処理をスキップして、ステップS607へ進む。例えば、ユーザー入力情報取得部303は、ユーザーがアノテーションを付加する位置を指定した場合に、アノテーション付加の指示があったと判断する。   In step S605, the user input information acquisition unit 303 determines whether an annotation addition instruction and request has been received from the user. If there is an instruction to add an annotation, the process proceeds to step S606. If there is no instruction to add an annotation, the annotation adding process is skipped and the process proceeds to step S607. For example, the user input information acquisition unit 303 determines that there is an instruction for adding an annotation when the user specifies a position to add the annotation.

ステップS606では、アノテーションの付加に伴う各種処理が行われる。処理内容としては、キーボード410等で入力されたテキストのデータをアノテーションとして取得する他、本実施例の特徴である属性情報の取得が挙げられる。ステップS606の詳細については図7を用いて後述する。   In step S606, various processes accompanying the addition of the annotation are performed. As processing contents, in addition to acquiring text data input with the keyboard 410 or the like as annotations, acquisition of attribute information, which is a feature of this embodiment, can be mentioned. Details of step S606 will be described later with reference to FIG.

ステップS607では、ユーザー入力情報取得部303が、ユーザーから注目位置の検索の指示、要求を受けたか否かを判断する。注目位置の検索の指示があった場合は、ステップS608へ進む。注目位置の検索の指示がなかった場合は、処理を終了する。   In step S <b> 607, the user input information acquisition unit 303 determines whether an instruction and request for searching for a target position has been received from the user. If there is an instruction to search for the target position, the process proceeds to step S608. If there is no instruction to search for the position of interest, the process ends.

ステップS608では、注目位置の検索に伴う各種処理が行われる。本ステップでは、アノテーションに含まれるワードまたは属性情報をキーとして、注目位置が検索される。具体的には、注目位置を検索することにより、アノテーションが付加された複数の位置から、注目位置の候補である候補位置が検出される。ステップS608の処理の詳細については図8を用いて後述する。なお、検索の結果、位置が1つも検出されなかった場合には、表示データ生成部310と表示データ出力部311により、入力されたキーに対応する位置がない旨の画像やメッセージが、検索結果として表示装置103に表示される。   In step S608, various processes associated with the search for the target position are performed. In this step, the attention position is searched using the word or attribute information included in the annotation as a key. Specifically, by searching for a target position, candidate positions that are candidates for the target position are detected from a plurality of positions with annotations added. Details of the processing in step S608 will be described later with reference to FIG. If no position is detected as a result of the search, an image or message indicating that there is no position corresponding to the input key is displayed by the display data generation unit 310 and the display data output unit 311. Is displayed on the display device 103.

ステップS609では、ユーザー入力情報取得部303が、ユーザーから注目位置の検索結果の表示の指示、要求を受けたか否かを判断する。検索結果の表示の指示があった場合は、ステップS610へ進む。検索結果の表示の指示がなかった場合は、処理を終了する。   In step S <b> 609, the user input information acquisition unit 303 determines whether an instruction and a request for displaying the search result of the target position have been received from the user. If there is an instruction to display the search result, the process proceeds to step S610. If there is no instruction to display the search result, the process ends.

ステップS610では、検索結果を表示するための処理が行われる。ステップS610の処理の詳細については図9を用いて後述する。   In step S610, processing for displaying the search result is performed. Details of the processing in step S610 will be described later with reference to FIG.

なお、図6では、表示位置や表示倍率の変更の要求である画面更新要求の受付、アノテーションの付加、注目位置の検索がシーケンシャルに行われる場合を示しているが、それらの処理のタイミングはこれに限らない。これらの処理は同時に行われてもよいし、図6の順番に限らず、どのようなタイミングで行われてもよい。   Note that FIG. 6 shows a case where a screen update request that is a request for changing the display position and display magnification, an annotation addition, and a search for a target position are sequentially performed. Not limited to. These processes may be performed simultaneously, and may be performed not only in the order of FIG. 6 but at any timing.

(アノテーションの付加)
図7は、図6のステップS606で示したアノテーションを付加する処理の詳細な流れを示すフローチャートである。以下、図7を用いて、アノテーションが付加された位置、表示倍率、および、属性情報に基づいてアノテーションデータを生成する処理の流れについて説明する。
(Add annotation)
FIG. 7 is a flowchart showing a detailed flow of processing for adding an annotation shown in step S606 of FIG. Hereinafter, the flow of processing for generating annotation data based on the position where the annotation is added, the display magnification, and the attribute information will be described with reference to FIG.

ステップS701では、アノテーションデータ生成部305が、ユーザー入力情報取得部303から位置座標(ユーザーに指定された、アノテーションを付加する位置の座標)の情報を取得する。ここで取得される情報は、表示装置103の表示画面内での位置(相対位置)の情報であるため、アノテーションデータ生成部305は、上記取得した情報で表される位置を記憶保持部302に保持されている診断画像内での位置(絶対位置)に換算する。   In step S <b> 701, the annotation data generation unit 305 acquires information of position coordinates (coordinates of positions to which annotations are added designated by the user) from the user input information acquisition unit 303. Since the information acquired here is information on the position (relative position) in the display screen of the display device 103, the annotation data generation unit 305 stores the position represented by the acquired information in the storage holding unit 302. Convert to the position (absolute position) in the stored diagnostic image.

ステップS702では、アノテーションデータ生成部305が、ユーザー入力情報取得部303から、ユーザーがキーボード410を用いて入力したテキストのデータ(アノテーション)を取得する。アノテーション付加の指示があった場合に、ユーザーにテキスト(注釈)の入力を促す画像が表示され、ユーザーは該画像の表示に応じてアノテーション内容としてのテキスト情報を入力する。   In step S <b> 702, the annotation data generation unit 305 acquires text data (annotation) input by the user using the keyboard 410 from the user input information acquisition unit 303. When there is an instruction to add an annotation, an image prompting the user to input text (annotation) is displayed, and the user inputs text information as annotation content in accordance with the display of the image.

ステップS703では、アノテーションデータ生成部305が、表示装置情報取得部304から、現在(アノテーションの付加が指示された時)の表示倍率の情報を取得する。なお、ここでは表示装置103から表示倍率情報を取得する構成にしているが、画像処理装置102が表示データを生成しているため、内部で保持している表示倍率のデータを使用する構成でもよい。   In step S <b> 703, the annotation data generation unit 305 acquires the current display magnification information (when an annotation is instructed) from the display device information acquisition unit 304. Here, the display magnification information is acquired from the display device 103, but the image processing device 102 generates display data, so that the configuration may use the display magnification data held internally. .

ステップS704では、アノテーションデータ生成部305が、ユーザーによるアノテーションの検索を容易にするための各種属性情報を取得する。ステップS701で換算した位置情報、ステップS702で取得した表示倍率も広い意味では属性情報である。位置
情報や表示倍率は、アノテーションを付加する際の観察の状態を示す情報であるのに対して、ステップS704で取得する属性情報は、病理診断を行う際の環境やユーザーの意図を反映したものである。
具体的には、属性情報は、日時情報、ユーザー情報、診断情報、診断基準情報などを含む。
日時情報は、例えば、対応するアノテーションが付加された日時であり、例えば、アノテーションの付加が指示された日時や、アノテーションとしてのテキストが入力された日時である。また、日時情報は、診断画像の観察(診断)が行われた日時であってもよい。
ユーザー情報は、アノテーションを付加したユーザーを特定する情報であり、例えば、ユーザー名、ユーザーを識別する識別子、ユーザー属性などである。病理診断におけるワークフローでは、複数のユーザー(例えば、技師、病理医、臨床医、コンピュータ(自動診断ソフトウェア))がそれぞれ異なる目的(観点、役割)又は異なる方法(例えば、画像解析による自動付加、目視による付加)で順番に同じ画像にアノテーションを付加していく。ユーザー属性とは、各ユーザーがアノテーションを付加したときの目的(観点、役割)又は方法を示す情報であり、例えば「病理医」や「技師」、「臨床医」、「自動診断」などが考えられる。このように、ユーザー情報の一つとしてユーザー属性をアノテーションに関連付けておき、ユーザー属性毎に検索できるようにすれば、病理診断ワークフローの各段階において、各アノテーション情報の性質把握や情報の取捨選択が容易になり、病理診断作業を円滑化できる。
診断情報は、診断画像の診断内容を表す情報である。診断情報は、例えば、アノテーションの付加がどのような目的で行われたのかを示す重要度情報、病気の進行度合い、客観的(相対的)な観察を行うための比較対象であるか否かの情報などである。
診断基準情報とは、臓器ごとの診断分類をまとめた情報であり、国や地域ごとの実情に沿った形態となっている。診断分類は臓器ごとの病期(ステージ)を示すものである。例えば、胃癌であれば、ある地域の診断基準である癌分類規約αで規定されている診断分類と、別の地域の診断基準である癌分類規約βで規定されている診断分類は異なることがある。そこで、ユーザーが診断画像の診断を行う際に用いた診断基準・診断分類を表す情報を、診断基準情報として属性情報に付加する。診断基準・診断分類については、図15を用いて後述する。
本実施例では、属性情報は、複数の選択肢(カテゴリ)からユーザーにより選択された情報であるものとする。
なお、属性情報は、自動で生成されてもよいし、ユーザーにより入力されてもよい。一部の属性情報が自動で生成され、他の属性情報がユーザーにより入力(選択)されてもよい。例えば、日時情報などは自動で生成可能である。属性情報をユーザーが入力する場合には、例えば、アノテーション付加の指示があった場合に、ユーザーに属性情報の入力を促す画像が表示され、ユーザーは該画像の表示に応じて属性情報を入力する。なお、属性情報の入力のタイミングは、アノテーションとしてのテキストの入力のタイミングと同じであってもよいし異なっていてもよい。
In step S704, the annotation data generation unit 305 acquires various attribute information for facilitating the user's search for annotations. The position information converted in step S701 and the display magnification acquired in step S702 are also attribute information in a broad sense. Position information and display magnification are information indicating the state of observation when an annotation is added, whereas the attribute information acquired in step S704 reflects the environment at the time of pathological diagnosis and the intention of the user It is.
Specifically, the attribute information includes date and time information, user information, diagnostic information, diagnostic criteria information, and the like.
The date / time information is, for example, the date / time when the corresponding annotation is added, for example, the date / time when the addition of the annotation is instructed or the date / time when the text as the annotation is input. The date / time information may be the date / time when the diagnosis image was observed (diagnosis).
The user information is information for identifying the user to which the annotation is added, and includes, for example, a user name, an identifier for identifying the user, a user attribute, and the like. In a workflow in pathological diagnosis, multiple users (for example, engineers, pathologists, clinicians, computers (automatic diagnosis software)) have different purposes (viewpoints, roles) or different methods (for example, automatic addition by image analysis, visual inspection) Add annotations to the same image in order. The user attribute is information indicating the purpose (viewpoint, role) or method when each user adds an annotation. For example, “pathologist”, “engineer”, “clinician”, “automatic diagnosis”, etc. It is done. In this way, by associating user attributes with annotations as one piece of user information and making it possible to search for each user attribute, it is possible to grasp the nature of each annotation information and to select information at each stage of the pathological diagnosis workflow. It becomes easy and the pathological diagnosis work can be facilitated.
The diagnostic information is information representing the diagnostic content of the diagnostic image. Diagnostic information includes, for example, importance information indicating the purpose of adding annotations, the degree of disease progression, and whether or not to compare for objective (relative) observation Information.
The diagnostic criteria information is information that summarizes the diagnostic classification for each organ, and is in a form in accordance with the actual situation for each country or region. The diagnostic classification indicates the stage (stage) for each organ. For example, in the case of gastric cancer, the diagnostic classification specified in the cancer classification code α, which is a diagnostic standard in one area, may be different from the diagnostic classification specified in the cancer classification code β, which is a diagnostic standard in another area. is there. Therefore, information representing the diagnostic criteria / diagnosis classification used when the user diagnoses the diagnostic image is added to the attribute information as diagnostic criteria information. The diagnostic criteria and diagnostic classification will be described later with reference to FIG.
In this embodiment, it is assumed that the attribute information is information selected by the user from a plurality of options (categories).
The attribute information may be automatically generated or input by the user. Some attribute information may be automatically generated, and other attribute information may be input (selected) by the user. For example, date information can be automatically generated. When the user inputs attribute information, for example, when there is an instruction to add an annotation, an image prompting the user to input attribute information is displayed, and the user inputs attribute information according to the display of the image. . Note that the input timing of attribute information may be the same as or different from the input timing of text as an annotation.

ステップS705では、ステップS701で換算した位置座標の情報(絶対位置の情報)と、ステップS702で取得したテキスト情報、ステップS703で取得した表示倍率情報、およびステップS704で取得した各種属性情報を含むデータをアノテーションデータとして生成する。
なお、アノテーションが付加された診断画像内での絶対的な位置座標は、以下のように、アノテーション付加時の表示診断画像と倍率が異なる階層画像内での位置座標に変換することができる。例えば、20倍の表示倍率で画像原点(X=Y=0)からの距離(画素数)がそれぞれ100画素となる点P(100,100)の位置にアノテーションが付加された場合を想定する。この場合、40倍の高倍画像ではアノテーションが付加された位置座標はP1(200,200)となる。また、10倍の低倍画像ではアノテーションが付加された位置座標はP2(50,50)となる。ここでは説明を簡単にするため、きり
の良い表示倍率を用いて説明を行っているが、表示倍率が25倍で点P(100,100)の位置にアノテーションが付加された場合には、40倍の高倍画像ではアノテーションが付加された位置座標はP3(160,160)となる。このように、階層画像の倍率と表示倍率との比を座標(点Pの座標)の値に乗算することで、アノテーションが付加された診断画像内での絶対的な位置座標を、アノテーション付加時の表示診断画像と倍率が異なる階層画像内での位置座標に変換することができる。このような変換を行うことにより、アノテーション付加時の表示診断画像と倍率が異なる階層画像を表示する時にもアノテーションの付加位置を示すことが可能となる。本実施例では、各階層画像内での絶対位置を本ステップで算出し、算出したそれらの位置の情報をアノテーションデータに含めるものとする。
In step S705, the data including the position coordinate information converted in step S701 (absolute position information), the text information acquired in step S702, the display magnification information acquired in step S703, and various attribute information acquired in step S704. Is generated as annotation data.
The absolute position coordinates in the diagnostic image to which the annotation is added can be converted into the position coordinates in the hierarchical image having a magnification different from that of the display diagnostic image at the time of adding the annotation as follows. For example, it is assumed that an annotation is added at the position of a point P (100, 100) where the distance (number of pixels) from the image origin (X = Y = 0) is 100 pixels at a display magnification of 20 times. In this case, in the 40 × high-magnification image, the position coordinate to which the annotation is added is P1 (200, 200). In addition, in the case of a 10 × low-magnification image, the position coordinates where the annotation is added are P2 (50, 50). Here, in order to simplify the description, the description has been given using a display magnification with a sharpness. However, when the display magnification is 25 times and an annotation is added at the position of the point P (100, 100), 40 is used. In the double high-magnification image, the position coordinates to which the annotation is added are P3 (160, 160). Thus, by multiplying the value of the coordinate (the coordinate of the point P) by the ratio between the magnification of the hierarchical image and the display magnification, the absolute position coordinate in the diagnostic image to which the annotation has been added can be obtained when the annotation is added. Can be converted into position coordinates in a hierarchical image having a magnification different from that of the displayed diagnostic image. By performing such conversion, it is possible to indicate the annotation addition position even when displaying a hierarchical image having a different magnification from the display diagnostic image at the time of annotation addition. In this embodiment, the absolute position in each hierarchical image is calculated in this step, and information on the calculated position is included in the annotation data.

ステップS706では、アノテーションデータ生成部305が、診断画像の診断(表示)が開始されてからアノテーションの付加が行われたか否かを判断する。アノテーションの付加が初めて行われた場合はステップS708へ、過去に一度でもアノテーションの付加が行われていればステップS707へ進む。   In step S706, the annotation data generation unit 305 determines whether an annotation has been added since the diagnosis (display) of the diagnostic image is started. If an annotation is added for the first time, the process proceeds to step S708. If an annotation has been added even once in the past, the process proceeds to step S707.

ステップS707では、アノテーションデータ生成部305が、ステップS708で作成されたアノテーションリストの更新を行う。具体的には、アノテーションデータ生成部305は、既に記録されているアノテーションリストに、ステップS705で生成されたアノテーションデータを追加する。   In step S707, the annotation data generation unit 305 updates the annotation list created in step S708. Specifically, the annotation data generation unit 305 adds the annotation data generated in step S705 to the already recorded annotation list.

ステップS708では、アノテーションデータ生成部305が、アノテーションリストを生成する。具体的には、アノテーションデータ生成部305は、ステップS705で生成されたアノテーションデータを含むアノテーションリストを生成する。アノテーションリストの構成については図11を用いて後述する。   In step S708, the annotation data generation unit 305 generates an annotation list. Specifically, the annotation data generation unit 305 generates an annotation list including the annotation data generated in step S705. The structure of the annotation list will be described later with reference to FIG.

(注目位置の検索)
図8は、図6のステップS608で示した注目位置を検索する処理の詳細な流れを示すフローチャートである。以下、図8を用いて、アノテーションリストに基づいて注目位置を検索し、検索結果のリストを生成する処理の流れについて説明する。
(Search attention position)
FIG. 8 is a flowchart showing a detailed flow of the process of searching for the target position shown in step S608 of FIG. Hereinafter, the flow of processing for searching for a position of interest based on an annotation list and generating a search result list will be described with reference to FIG.

ステップS801では、アノテーション検索処理部307が、注目位置の検索がアノテーションに含まれるワードをキーとした検索か否かを判断する。アノテーションに含まれるワードをキーとして検索を行う場合はステップS802へ、属性情報をキーとした検索を行う場合はステップS805へ進む。   In step S801, the annotation search processing unit 307 determines whether the search for the target position is a search using a word included in the annotation as a key. If a search is performed using a word included in the annotation as a key, the process proceeds to step S802. If a search is performed using attribute information as a key, the process proceeds to step S805.

ステップS802では、アノテーション検索処理部307が、ユーザー入力情報取得部303から、検索キーであるワード(キーワード)を取得する。ユーザーは、例えば、キーボードやマウスなどを用いてキーワードを入力したり、過去の検索履歴の中からキーワードを選択したりする。当該ユーザー操作に応じてキーワードがユーザー入力情報取得部303からアノテーション検索処理部307へ送られる。
ステップS803では、アノテーション検索処理部307が、ステップS707またはステップS708で生成、更新されたアノテーションリストに格納されたテキストデータ(アノテーション)を取得する。
ステップS804では、アノテーション検索処理部307が、ステップS803で取得された複数のテキストデータに対し、ステップS802で取得されたキーワードによる検索をかける。ここでは、キーワードと完全一致、キーワード中の一部の単語と一致等、一般的なキーワード検索の手法を使用することができる。
In step S <b> 802, the annotation search processing unit 307 acquires a word (keyword) that is a search key from the user input information acquisition unit 303. For example, the user inputs a keyword using a keyboard, a mouse, or the like, or selects a keyword from past search history. In accordance with the user operation, a keyword is sent from the user input information acquisition unit 303 to the annotation search processing unit 307.
In step S803, the annotation search processing unit 307 acquires text data (annotation) stored in the annotation list generated and updated in step S707 or step S708.
In step S804, the annotation search processing unit 307 searches the plurality of text data acquired in step S803 with the keyword acquired in step S802. Here, it is possible to use a general keyword search method such as exact matching with a keyword or matching with some words in the keyword.

ステップS805では、アノテーション検索処理部307が、ユーザー入力情報取得部
303から、検索キーである属性情報を取得する。検索キーとしての属性情報は、複数の選択肢の中から選択される。なお、検索キーとしての属性情報は、上記キーワードと同様に入力(選択)されてもよい。
検索キーを設定する際の表示画像の構成については図10を用いて後述する。
ステップS806では、アノテーション検索処理部307が、アノテーションリストに格納された属性情報を取得する。
ステップS807では、アノテーション検索処理部307が、ステップS806で取得された属性情報に対し、ステップS805で取得された属性情報(検索キー)による検索をかける。アノテーション付加時に属性情報が複数の選択肢(カテゴリ)から選択される場合には、検索キーである属性情報とカテゴリが一致した属性情報を検出するなどの一般的な手法を用いればよい。
なお、ステップS804,S807とも検索手法は上記手法に限定されるものではなく、目的に応じた広く一般に知られている検索手法を用いることができる。
In step S <b> 805, the annotation search processing unit 307 acquires attribute information that is a search key from the user input information acquisition unit 303. The attribute information as the search key is selected from a plurality of options. The attribute information as the search key may be input (selected) in the same manner as the keyword.
The configuration of the display image when setting the search key will be described later with reference to FIG.
In step S806, the annotation search processing unit 307 acquires attribute information stored in the annotation list.
In step S807, the annotation search processing unit 307 searches the attribute information acquired in step S806 using the attribute information (search key) acquired in step S805. When attribute information is selected from a plurality of choices (categories) at the time of annotation addition, a general method such as detecting attribute information whose category matches the attribute information that is a search key may be used.
In both steps S804 and S807, the search method is not limited to the above method, and a widely known search method according to the purpose can be used.

ステップS808では、アノテーション検索処理部307が、ステップS804及びステップS807の検索結果をリスト化する。例えば、ステップS804で検出されたテキストデータを含むアノテーションデータと、ステップS807で検出された属性情報を含むアノテーションデータとを含むアノテーションデータのリスト(検索結果リスト)が作成される。   In step S808, the annotation search processing unit 307 lists the search results of steps S804 and S807. For example, a list (search result list) of annotation data including annotation data including text data detected in step S804 and annotation data including attribute information detected in step S807 is created.

(注目位置の検索結果の表示)
図9は、図6のステップS610で示した注目位置の検索結果を表示する処理の詳細な流れを示すフローチャートである。以下、図9を用いて、検索結果リストに基づいて検索結果を表する処理の流れについて説明する。本実施例では、検索結果として、診断画像を表示装置103に表示するとともに、該診断画像内に候補位置を示す。即ち、検索結果として、診断画像内に候補位置が示された画像が表示される。
(Display of search results for attention positions)
FIG. 9 is a flowchart showing a detailed flow of the process of displaying the search result of the target position shown in step S610 of FIG. Hereinafter, the flow of processing for representing a search result based on the search result list will be described with reference to FIG. In this embodiment, a diagnostic image is displayed on the display device 103 as a search result, and candidate positions are indicated in the diagnostic image. That is, as a search result, an image showing candidate positions in the diagnostic image is displayed.

ステップS901では、表示データ生成制御部308が、アノテーション検索処理部307から、ステップS808で生成された検索結果リストを取得する。   In step S901, the display data generation control unit 308 acquires the search result list generated in step S808 from the annotation search processing unit 307.

ステップS902では、表示データ生成制御部308が、取得した検索結果リストに含まれるアノテーションデータの位置情報(即ち候補位置の位置情報)に基づいて、画面に表示する診断画像の範囲(表示範囲)を算出する。本実施例では、検索により複数の候補位置が検出された場合には、全ての候補位置が含まれるような表示範囲(表示位置と表示倍率)が計算される。具体的には、全ての候補位置が含まれるような最小の表示範囲が計算される。   In step S902, the display data generation control unit 308 determines the range (display range) of the diagnostic image to be displayed on the screen based on the position information (that is, the position information of the candidate position) of the annotation data included in the acquired search result list. calculate. In the present embodiment, when a plurality of candidate positions are detected by the search, a display range (display position and display magnification) that includes all candidate positions is calculated. Specifically, a minimum display range that includes all candidate positions is calculated.

ステップS903では、表示データ生成制御部308が、検索結果を表示する際の表示倍率と現在の表示倍率が異なるか否か、及び、検索結果を表示する際の表示位置と現在の表示位置が異なるか否か、すなわち表示画像データの更新が必要となるか否かを判断する。一般に画像データ全体を網羅的に観察するスクリーニングでの表示倍率(5倍から10倍程度)と、詳細観察での表示倍率(20倍から40倍)と、注目位置の検索結果を確認するための表示倍率(ステップS902で算出される倍率)とは異なることが予想される。そのため、本ステップの処理を行う必要がある。表示画像データの更新が必要な場合はステップS904へ進む。表示画像データの更新が必要ない場合はステップS905へ進む。   In step S903, the display data generation control unit 308 determines whether the display magnification when displaying the search result is different from the current display magnification, and the display position when displaying the search result is different from the current display position. Whether or not it is necessary to update the display image data. In general, the display magnification (about 5 to 10 times) in screening that comprehensively observes the entire image data, the display magnification (20 to 40 times) in detailed observation, and the search result of the target position are confirmed. It is expected that it is different from the display magnification (the magnification calculated in step S902). Therefore, it is necessary to perform this step. If the display image data needs to be updated, the process proceeds to step S904. If it is not necessary to update the display image data, the process proceeds to step S905.

ステップS904では、表示画像データ取得部309が、ステップS903での判断結果に応じて、検索結果を表示する際の表示倍率(ステップS902で計算された表示倍率)に対応する診断画像を取得する。   In step S904, the display image data acquisition unit 309 acquires a diagnostic image corresponding to the display magnification (display magnification calculated in step S902) when displaying the search result according to the determination result in step S903.

ステップS905では、表示データ生成制御部308が、候補位置の数が所定数より多いか否かを判断する。判断に用いる閾値(所定数)は任意に設定できる。候補位置の数が所定数より多い場合はステップS906へ進み、候補位置の数が所定数以下の場合はステップS907へ進む。   In step S905, the display data generation control unit 308 determines whether the number of candidate positions is greater than a predetermined number. The threshold value (predetermined number) used for determination can be arbitrarily set. If the number of candidate positions is greater than the predetermined number, the process proceeds to step S906, and if the number of candidate positions is equal to or less than the predetermined number, the process proceeds to step S907.

ステップS906では、表示データ生成制御部308が、ポインタ表示モードを選択する。ポインタ表示モードは、アイコン画像を用いて診断画像内に候補位置を示すモードである。そして、表示データ生成部310が、上記選択に応じて、ポインタ表示データを生成する。ポインタ表示データは、候補位置にポインタが位置する画像データである。   In step S906, the display data generation control unit 308 selects a pointer display mode. The pointer display mode is a mode in which a candidate position is indicated in a diagnostic image using an icon image. Then, the display data generation unit 310 generates pointer display data according to the selection. The pointer display data is image data in which the pointer is located at the candidate position.

ステップS907では、表示データ生成制御部308が、アノテーション表示モードを選択する。アノテーション表示モードは、対応するアノテーション(テキスト)の画像を用いて診断画像内に候補位置を示すモードである。そして、表示データ生成部310が、上記選択に応じて、アノテーション表示データを生成する。アノテーション表示データは、候補位置に、対応するアノテーションの画像が位置する画像データである。   In step S907, the display data generation control unit 308 selects an annotation display mode. The annotation display mode is a mode in which candidate positions are indicated in a diagnostic image using a corresponding annotation (text) image. Then, the display data generation unit 310 generates annotation display data according to the selection. The annotation display data is image data in which a corresponding annotation image is located at a candidate position.

ステップS908では、表示データ生成部310が、ステップS906またはステップS907で生成された表示データ(ポインタ表示データ、アノテーション表示データ)と、ステップS902で計算された表示倍率の診断画像データとを合成して、検索結果としての表示データを生成する。具体的には、ステップS902で計算された表示倍率の診断画像に、ポインタ表示画像またはアノテーション表示画像を重ねた画像データが生成される。   In step S908, the display data generation unit 310 combines the display data (pointer display data and annotation display data) generated in step S906 or S907 and the diagnostic image data of the display magnification calculated in step S902. Then, display data as a search result is generated. Specifically, image data is generated by superimposing a pointer display image or an annotation display image on the diagnostic image having the display magnification calculated in step S902.

ステップS909では、表示データ出力部311が、ステップ908で生成された表示データを表示装置103に出力する。
ステップS910では、表示装置103が、ステップS909で出力された表示データに基づく画像が表示されるように、画面(表示画像)を更新する。
In step S909, the display data output unit 311 outputs the display data generated in step 908 to the display device 103.
In step S910, the display device 103 updates the screen (display image) so that an image based on the display data output in step S909 is displayed.

即ち、本実施例では、候補位置の数が所定数より多い場合に、アイコン画像を用いて診断画像内に候補位置が示された画像が、検索結果として表示される。ポインタ表示モードでの表示画像例は図10を用いて後述する。また、候補位置の数が所定数以下の場合に、対応するアノテーションの画像を用いて診断画像内に候補位置が示された画像が、検索結果として表示される。
画面の表示領域に対するアノテーションの画像の領域の割合が大きい場合、診断画像の観察が困難となる。上記構成を採用することで、アノテーションの画像が診断画像の観察の妨げになることを抑制することができる。なお、本実施例では、候補位置の数に応じて表示モードが選択されるものとしたが、ユーザーが表示モードを選択できる構成であってもよい。
That is, in this embodiment, when the number of candidate positions is larger than a predetermined number, an image in which the candidate positions are indicated in the diagnostic image using the icon image is displayed as a search result. An example of a display image in the pointer display mode will be described later with reference to FIG. Further, when the number of candidate positions is equal to or less than a predetermined number, an image in which the candidate positions are indicated in the diagnostic image using the corresponding annotation image is displayed as a search result.
When the ratio of the annotation image area to the screen display area is large, it is difficult to observe the diagnostic image. By adopting the above configuration, it is possible to suppress the annotation image from obstructing the observation of the diagnostic image. In this embodiment, the display mode is selected according to the number of candidate positions. However, a configuration in which the user can select the display mode may be used.

ステップS911では、表示データ生成制御部308が、現在の表示モードがアノテーション表示モードかポインタ表示モードかを判断する。現在の表示モードがポインタ表示モードの場合はステップS912へ進む。現在の表示モードがアノテーション表示モードの場合はステップS914へ進む。   In step S911, the display data generation control unit 308 determines whether the current display mode is the annotation display mode or the pointer display mode. If the current display mode is the pointer display mode, the process proceeds to step S912. If the current display mode is the annotation display mode, the process proceeds to step S914.

ステップS912では、表示データ生成制御部308が、ユーザー入力情報取得部303からの情報をもとに、画面上に表示されているアイコン(アイコン画像)をユーザーが選択しているか、もしくはユーザーがマウスカーソルをアイコン上にかざしたかを判断する。アイコンが選択された場合、または、アイコン上にマウスカーソルがかざされた場合にはステップ913へ進む。そうでない場合には処理を終了する。
ステップS913では、表示データ生成部310が、ステップS912での判定結果に応じて、該当するアイコンの位置(候補位置)に付加されたアノテーション(テキスト)の画像をポップアップで表示する。ポップアップ表示されたアノテーションの画像は、マウスカーソルがポインタから外れた場合に消去(非表示)してもよいし、ユーザー操作などにより消去が指示されるまで表示され続けてもよい。
ステップS912,S913の処理を行うことにより、ユーザーはポインタ表示モードにおいてアノテーションの内容(コメントの内容)を確認することができる。
In step S912, the display data generation control unit 308 selects the icon (icon image) displayed on the screen based on the information from the user input information acquisition unit 303, or the user uses the mouse. Determine whether the cursor is over the icon. When the icon is selected or when the mouse cursor is held over the icon, the process proceeds to step 913. If not, the process ends.
In step S913, the display data generation unit 310 displays an image of the annotation (text) added to the corresponding icon position (candidate position) in a pop-up according to the determination result in step S912. The annotation image displayed in a pop-up may be deleted (hidden) when the mouse cursor moves off the pointer, or may continue to be displayed until deletion is instructed by a user operation or the like.
By performing the processes of steps S912 and S913, the user can check the content of the annotation (content of the comment) in the pointer display mode.

ステップS914では、表示データ生成制御部308が、ユーザー入力情報取得部303などからの情報をもとに、診断画像内に示された候補位置(本実施例ではアノテーションの画像)が選択されたか否かを判断する。候補位置が選択された場合はステップS915へ進む。候補位置が選択されなかった場合は処理を終了する。   In step S914, whether or not the display data generation control unit 308 has selected a candidate position (an annotation image in this embodiment) indicated in the diagnostic image based on information from the user input information acquisition unit 303 or the like. Determine whether. If a candidate position is selected, the process proceeds to step S915. If no candidate position is selected, the process ends.

ステップS915では、表示画像データ取得部309が、ステップS914での判定結果に応じて、選択された候補位置にアノテーションを付加したときの表示倍率と同じ倍率の診断画像データを選択する。   In step S915, the display image data acquisition unit 309 selects diagnostic image data having the same magnification as the display magnification when an annotation is added to the selected candidate position, according to the determination result in step S914.

ステップS916では、表示データ生成部310が、ステップS914で選択された候補位置のアノテーションデータおよびステップS915で選択された診断画像データに基づき、表示データを生成する。具体的には、ステップS914で選択された候補位置にアノテーションを付加したときの表示位置および表示倍率で、該アノテーションが付加された診断画像が表示されるように、表示データを生成する。本処理を行うことにより、アノテーション付加時の表示画像を再現した表示を行うことができる。   In step S916, the display data generation unit 310 generates display data based on the annotation data at the candidate position selected in step S914 and the diagnostic image data selected in step S915. Specifically, display data is generated so that the diagnostic image with the annotation is displayed at the display position and display magnification when the annotation is added to the candidate position selected in step S914. By performing this processing, it is possible to perform display that reproduces the display image when the annotation is added.

ステップS917では、表示データ出力部311が、ステップ916で生成された表示データを表示装置103に出力する。ステップS918では、表示装置103が、ステップS917で出力された表示データに基づく画像が表示されるように、表示画面(表示画像)を更新する。   In step S <b> 917, the display data output unit 311 outputs the display data generated in step 916 to the display device 103. In step S918, the display device 103 updates the display screen (display image) so that an image based on the display data output in step S917 is displayed.

(表示画像レイアウト)
図10(a)〜図10(e)は、本実施例に係る画像処理装置102で生成された表示データに基づく画像(表示画像)の一例である。
図10(a)は、診断画像を観察する際の表示画像のレイアウトの基本構成を示す。図10(a)の例では、表示画像は、全体ウィンドウ1001内に、情報エリア1002、サムネイル画像エリア1003、観察画像表示エリア1005が配置された画像である。
情報エリア1002には、表示や操作のステータス、各種画像の情報および検索画像(検索の設定を行うための画像)や検索結果が表示される。
サムネイル画像エリア1003には、観察対象の被写体のサムネイル画像が表示される。また、サムネイル画像エリア1003には、観察中の領域を示す詳細表示領域枠1004が表示される。詳細表示領域枠1004を表示することにより、観察中の領域の位置や大きさ(後述する詳細観察用の画像の、サムネイル画像内での位置や大きさ)を把握することができる。
観察画像表示エリア1005には、詳細観察用の画像が表示される。具体的には、詳細観察用の画像として、診断画像の一部または全部の領域が、設定された表示倍率で表示される。また、観察画像表示エリア1005の領域1006には、詳細観察用の画像の表示倍率が表示される。詳細観察を行う被写体の領域は、例えば、タッチパネルまたはマウス411等の外部接続された入力装置からのユーザー指示により設定、更新することができる。また、表示されている画像の移動や拡大・縮小操作(表示倍率の変更)によっても設定、更新することができる。
なお、シングルドキュメントインターフェースによって全体ウィンドウ1001の表示
領域を分割して上述した各エリアを得る構成であってもよいし、マルチドキュメントインターフェースによって上記各エリアを互いに異なるウィンドウのエリアとする構成であってもよい。
(Display image layout)
FIG. 10A to FIG. 10E are examples of images (display images) based on display data generated by the image processing apparatus 102 according to the present embodiment.
FIG. 10A shows a basic configuration of a layout of a display image when observing a diagnostic image. In the example of FIG. 10A, the display image is an image in which an information area 1002, a thumbnail image area 1003, and an observation image display area 1005 are arranged in the entire window 1001.
The information area 1002 displays display and operation statuses, information on various images, search images (images for setting search), and search results.
In the thumbnail image area 1003, thumbnail images of the subject to be observed are displayed. In the thumbnail image area 1003, a detailed display area frame 1004 indicating the area being observed is displayed. By displaying the detailed display area frame 1004, it is possible to grasp the position and size of the area under observation (the position and size of an image for detailed observation described later in the thumbnail image).
In the observation image display area 1005, an image for detailed observation is displayed. Specifically, a part or all of the diagnostic image is displayed at a set display magnification as an image for detailed observation. Further, the display magnification of the image for detailed observation is displayed in an area 1006 of the observation image display area 1005. The area of the subject for which detailed observation is performed can be set and updated by a user instruction from an externally connected input device such as a touch panel or a mouse 411, for example. It can also be set and updated by moving the displayed image or by enlarging / reducing (changing the display magnification).
In addition, the configuration may be such that the display area of the entire window 1001 is divided by the single document interface to obtain each of the above-described areas, or the above-described areas may be configured as different window areas by the multi-document interface. Good.

図10(b)は、アノテーション付加時の表示画像の例である。図10(b)では、表示倍率は20倍に設定されている。ユーザーが観察画像表示エリア1005に表示される画像内の位置を選択すると、該位置が関心位置として判断され、該位置にアノテーションが付加される。例えば、ユーザーがマウスポインタを用いて位置を指定すると、アノテーション入力モードへ移行し、テキストの入力が促される。そして、ユーザーがキーボード410によるテキスト入力を行うことにより、上記指定した位置にアノテーションが付加される。その際、画像処理装置102は、アノテーションが付加された位置情報と表示倍率とを表示装置103から取得する。また、アノテーションを付加する際に、属性情報を合わせて設定することができる。符号1009は、属性情報の設定を行うための画像であり、例えば、設定可能な属性情報のリストの画像である。ユーザーが属性情報のリスト1009から所望の属性情報を選択、指定すると、付加するアノテーションに対して該選択された属性情報が関連付けられる。図10(b)は、マウスカーソルが位置1007で確定され、アノテーションとしてのテキスト1008を入力する状態を示している。   FIG. 10B is an example of a display image when an annotation is added. In FIG. 10B, the display magnification is set to 20 times. When the user selects a position in the image displayed in the observation image display area 1005, the position is determined as a position of interest, and an annotation is added to the position. For example, when the user designates the position using the mouse pointer, the mode shifts to the annotation input mode, and the user is prompted to input text. Then, when the user inputs text using the keyboard 410, an annotation is added at the designated position. At that time, the image processing apparatus 102 acquires the position information with the annotation added and the display magnification from the display apparatus 103. In addition, attribute information can be set together when an annotation is added. Reference numeral 1009 denotes an image for setting attribute information, for example, an image of a list of settable attribute information. When the user selects and designates desired attribute information from the attribute information list 1009, the selected attribute information is associated with the annotation to be added. FIG. 10B shows a state in which the mouse cursor is confirmed at a position 1007 and text 1008 is input as an annotation.

図10(c)は、注目位置検索時の表示画像(検索の設定を行うための画像;設定画像)の例である。
設定画像1010は、注目位置検索時に情報エリア1002に表示されてもよいし、新たな画像として表示されてもよい。ここでは、アノテーションが付加されている場合に、情報エリア1002内に設定画像1010が表示されるものとする。なお、これに限らず、1回の診断中の最初のアノテーション付加時に設定画像1010が表示される構成であってもよい。
注目位置の検索は、アノテーションとしてのテキストに含まれるワード、または、属性情報を検索キーとして行われる。なお、アノテーションとしてのテキストに含まれるワードと、属性情報との両方を検索キーとして用いてもよいし、いずれか一方を検索キーとして用いてもよい。図10(c)は、検索キーである属性情報として、診断情報、進行度、日時および診断者の4種類の属性の情報が設定可能な場合の例であるが、属性の種類はこれに限らない。
FIG. 10C shows an example of a display image (image for setting search; setting image) at the time of attention position search.
The setting image 1010 may be displayed in the information area 1002 when searching for the attention position, or may be displayed as a new image. Here, it is assumed that the setting image 1010 is displayed in the information area 1002 when an annotation is added. However, the configuration is not limited to this, and the setting image 1010 may be displayed when the first annotation is added during one diagnosis.
The search for the attention position is performed using a word included in the text as the annotation or attribute information as a search key. Note that both the word included in the text as the annotation and the attribute information may be used as the search key, or one of them may be used as the search key. FIG. 10C shows an example in which information of four types of attributes such as diagnosis information, progress, date and time, and a diagnostician can be set as attribute information that is a search key. However, the types of attributes are not limited to this. Absent.

ユーザーは、テキストボックス1011内に、アノテーションとしてのテキストに含まれるワード(キーワード)を検索キーとして入力することができる。ユーザーは、キーワードを直接入力してもよい。あるいは、過去に使用したキーワードのリストを別ウィンドウもしくはダイアログとして表示して、該リストから検索キーとするワードをユーザーに選択させてもよい。
複数のラジオボタン1012は、複数の属性にそれぞれ対応する。ユーザーは、少なくとも1つ以上のラジオボタン1012を選択することにより、選択されたラジオボタンに対応する属性を、検索キーとする属性情報の属性として選択することができる。
符号1014は、検索キーとする属性情報が表示される領域である。但し、領域1014に属性情報が表示されていても、その属性に対応するラジオボタンが選択されていない場合には、検索の際に当該属性情報は検索キーとして使用されない。領域1014に属性情報が表示されており、その属性に対応するラジオボタンが選択されている場合には、検索の際に当該属性情報が検索キーとして使用される。
The user can input a word (keyword) included in the text as an annotation in the text box 1011 as a search key. The user may directly enter a keyword. Alternatively, a list of keywords used in the past may be displayed as a separate window or dialog, and the user may select a word as a search key from the list.
The plurality of radio buttons 1012 correspond to a plurality of attributes, respectively. The user can select the attribute corresponding to the selected radio button as the attribute of the attribute information as the search key by selecting at least one radio button 1012.
Reference numeral 1014 denotes an area in which attribute information used as a search key is displayed. However, even if the attribute information is displayed in the area 1014, if the radio button corresponding to the attribute is not selected, the attribute information is not used as a search key in the search. When attribute information is displayed in the area 1014 and a radio button corresponding to the attribute is selected, the attribute information is used as a search key in the search.

選択リストボタン1013は、対応する属性の属性情報(選択肢)のリストを表示するためのボタンである。例えば、ユーザーが診断情報に対応する選択リストボタン1013を選択した場合、診断情報の選択肢のリストの画像1015が、別ウィンドウもしくはダイアログとして表示される。画像1015は、複数の選択肢に対応する複数のラジオボタ
ン1016を含む。ユーザーは、1つ以上のラジオボタン1016を選択、変更することにより、検索キーを選択、変更することができる。例えば、要注意箇所を検索する「要注意」、正常な箇所を検索する「正常」、比較のための箇所を検索する「比較参照」の中から検索キーを選択することができる。進行度についても、同様に、検索キーを設定することができる。具体的には、細胞や組織に対する病気の進行度合い(進行レベル)を表す複数の選択肢の中から検索キーを選択することができる。
The selection list button 1013 is a button for displaying a list of attribute information (options) of the corresponding attribute. For example, when the user selects a selection list button 1013 corresponding to diagnostic information, an image 1015 of a list of diagnostic information options is displayed as a separate window or dialog. The image 1015 includes a plurality of radio buttons 1016 corresponding to a plurality of options. The user can select and change the search key by selecting and changing one or more radio buttons 1016. For example, a search key can be selected from “attention required” for searching for a point requiring attention, “normal” for searching for a normal point, and “reference comparison” for searching for a point for comparison. Similarly, a search key can be set for the degree of progress. Specifically, a search key can be selected from a plurality of options representing the degree of progression of disease to a cell or tissue (progression level).

日時情報を検索キーとする場合には、属性「日時」に対応するテキストボックス内にユーザーが日時(アノテーション付加日、診断日など)を直接入力してもよい。保存されているアノテーションデータに含まれる日時情報のリスト1017を別ウィンドウもしくはダイアログとして表示して、該リストから検索キーとする日時をユーザーに選択させてもよい。複数の日時を検索キーとしてもよいし、或る期間を検索キーとしてもよい。
ユーザー情報を検索キーとする場合には、属性「診断者」に対応するテキストボックス内にユーザーがユーザー名等を直接入力してもよい。登録されているユーザーのリストを別ウィンドウもしくはダイアログとして表示して、該リストから検索キーとするユーザーをユーザーに選択させてもよい。
When the date / time information is used as a search key, the user may directly input the date / time (annotation addition date, diagnosis date, etc.) in a text box corresponding to the attribute “date / time”. The date / time information list 1017 included in the stored annotation data may be displayed as a separate window or dialog, and the user may select a date / time as a search key from the list. A plurality of dates and times may be used as search keys, or a certain period may be used as a search key.
When user information is used as a search key, the user may directly input a user name or the like in a text box corresponding to the attribute “diagnostic”. A list of registered users may be displayed as a separate window or dialog, and the user may be selected as a search key from the list.

キーワードが入力されて検索ボタン(図中の「検索」)が選択された場合には、キーワードによる検索が行われる。検索キーとしての属性情報が設定されて(具体的には、ラジオボタン1012が選択され、且つ、対応する属性情報が設定されて)検索ボタンが選択された場合には、属性情報をキーとした検索が行われる。   When a keyword is input and a search button (“Search” in the figure) is selected, a search using a keyword is performed. When attribute information as a search key is set (specifically, when radio button 1012 is selected and corresponding attribute information is set) and a search button is selected, attribute information is used as a key. A search is performed.

図10(d)は、ポインタ表示モードで検索結果を表示する際の表示画像の例である。より多くのアノテーションが付加されている場合に、図10(d)のようにアノテーション(コメント)を隠し、候補位置にアイコン画像1018のみを表示することで、診断画像の表示を妨げることなく候補位置を確認することが可能となる。また、図10(d)の例では、属性情報毎に異なるアイコン画像が示されている。そのような構成とすることにより、候補位置と属性情報の関係を示すことができ、複数の候補位置の中から所望の位置(注目位置)を見つけやすくなる。また、任意のアイコン画像が選択された場合には、アノテーション1019が表示される。それにより、ユーザーは候補位置のアノテーションを確認することができる。なお、キーワードを用いた検索により抽出された候補位置と、属性情報を用いた検索により抽出された候補位置とで、アイコン画像を異ならせてもよい。
アノテーション表示モードでは、アノテーション1019が各候補位置に表示される。アノテーション表示モードでは、アイコン画像1018は、表示されてもよいし、表示されなくてもよい。
FIG. 10D is an example of a display image when the search result is displayed in the pointer display mode. When more annotations are added, the annotation (comment) is hidden as shown in FIG. 10D, and only the icon image 1018 is displayed at the candidate position, so that the candidate position is not hindered. Can be confirmed. In the example of FIG. 10D, a different icon image is shown for each attribute information. With such a configuration, the relationship between the candidate position and the attribute information can be shown, and a desired position (attention position) can be easily found from among the plurality of candidate positions. When an arbitrary icon image is selected, an annotation 1019 is displayed. Thereby, the user can confirm the annotation of the candidate position. Note that the icon image may be different between the candidate position extracted by the search using the keyword and the candidate position extracted by the search using the attribute information.
In the annotation display mode, an annotation 1019 is displayed at each candidate position. In the annotation display mode, the icon image 1018 may be displayed or may not be displayed.

図10(e)は、診断画像内に示された候補位置を選択した時の表示画像の例である。アノテーション表示モードまたはポインタ表示モードで所望の候補位置が選択された場合、アノテーションリスト(具体的には、候補位置のアノテーションデータに含まれる表示位置と表示倍率)を参照して、アノテーション付加時の表示が再現される。その結果、アノテーション1020は、付加時の画面内の位置に提示される。また、再現表示した画像の領域が、サムネイル画像中に再現範囲1022として表示され、検索結果を表示する際に表示した診断画像の領域が、サムネイル画像中に表示枠1021として表示される。それにより、再現表示されている領域と、検索結果を表示する際に表示した診断画像の領域との位置関係を判断することが可能となる。   FIG. 10E is an example of a display image when the candidate position shown in the diagnostic image is selected. When a desired candidate position is selected in annotation display mode or pointer display mode, refer to the annotation list (specifically, the display position and display magnification included in the annotation data at the candidate position) and display when adding annotation Is reproduced. As a result, the annotation 1020 is presented at a position in the screen at the time of addition. In addition, the area of the reproduced and displayed image is displayed as a reproduction range 1022 in the thumbnail image, and the area of the diagnostic image displayed when displaying the search result is displayed as a display frame 1021 in the thumbnail image. Thereby, it is possible to determine the positional relationship between the area that is reproduced and displayed and the area of the diagnostic image that is displayed when the search result is displayed.

(アノテーションリストの例)
図11は、本実施例に係る画像処理装置102で生成されたアノテーションリストの構成を示している。
アノテーションリストは、アノテーションデータのリストである。各アノテーションデータにアノテーションが付加された順番を表すID番号が割り振られている。アノテーションデータは、上述したように、位置情報、表示倍率、アノテーション(コメント;図中の「アノテーション内容」)、属性情報などが含まれており、アノテーションリストではそれらの情報がID番号毎に示されている。キーワードによる検索はアノテーション内容を対象に行われ、属性情報に基づく検索は属性情報を対象に行われる。位置情報と表示倍率は、アノテーション付加時の表示を再現するのに用いられる。なお、属性情報は予め定められた属性の情報であってもよいし、ユーザー定義による新たな属性が追加設定されてもよい。
(Annotation list example)
FIG. 11 shows the configuration of the annotation list generated by the image processing apparatus 102 according to the present embodiment.
The annotation list is a list of annotation data. An ID number indicating the order in which annotations are added to each annotation data is assigned. As described above, the annotation data includes position information, display magnification, annotation (comment; “annotation content” in the figure), attribute information, and the like, and such information is shown for each ID number in the annotation list. ing. A search using keywords is performed on annotation content, and a search based on attribute information is performed on attribute information. The position information and the display magnification are used to reproduce the display when the annotation is added. The attribute information may be predetermined attribute information, or a new attribute defined by the user may be additionally set.

(診断基準、診断分類、警告画面)
図15(a)及び図15(b)は、診断基準設定の画面、診断分類の画面の一例を説明する図である。
図15(a)は、診断基準設定の画面の一例である。例えば、全体ウィンドウ1001におけるメニュー操作により診断基準の変更・設定ができるものとする。診断基準としては、国際規約・国際指標である癌分類国際規約I、癌分類国際規約II、日本における規約
・指標である癌分類日本規約I、癌分類日本指標I、米国における規約・指標である癌分類米国指標I、癌分類米国指標IIが示されている。癌分類日本規約Iはさらに臓器ごとに、胃癌、大腸癌、肝癌、肺癌、乳癌、食道癌、甲状腺癌、膀胱癌、前立腺癌などに分類されている。メニュー操作により診断基準1501、規約・指標の一覧1502、臓器ごとの規約・指標の一覧1503がそれぞれ提示される。ここではユーザーが、メニュー操作により診断基準、癌分類日本規約I、胃癌をそれぞれ選択した場合を示している。
図15(b)は、診断分類の画面の一例である。癌分類日本規約Iにおける胃癌の診断
分類1504は、大きくは2つ、深達度と進行度からなっている。深達度は、胃癌が胃壁をどこまで超えているかを示す指標であり、AIからAIVの4段階に分類される。AIは胃癌が胃の表面にとどまっている、AIVは胃癌の浸潤が他の臓器まで及ぶ、などの内容である。進行度は、胃癌がどこまで転移しているかを示す指標であり、BIからBVの5段階に分類される。BIは胃癌の転移がない、BVはリンパ節転移がある、などの内容である。癌分類日本規約Iに従った胃癌の診断では、標本画像などの情報から深達度と進行度の診断
を行う。診断分類1504は、情報エリア1002、若しくは、別ウィンドウに表示されるものであり、必要に応じてユーザーが表示・非表示を操作できる。
図15(a)、図15(b)で示した診断基準・診断分類は、随時更新されるものであり、国や地域によっても統一されていない。ユーザーが古い診断基準で診断された標本を再度見直す場合や、研究用に診断基準の異なる他国の標本を確認する場合に、診断根拠として記載されたアノテーション内容が、どの診断基準に依るものかを簡単に判別できるようにすることが診断基準・診断分類を明記する理由である。
(Diagnosis criteria, diagnosis classification, warning screen)
FIG. 15A and FIG. 15B are diagrams illustrating an example of a diagnostic criteria setting screen and a diagnostic classification screen.
FIG. 15A is an example of a diagnostic criteria setting screen. For example, it is assumed that the diagnostic criteria can be changed / set by a menu operation in the entire window 1001. Diagnostic criteria include International Codes / International Indicators, International Classification of Cancer Classification I, International Classification of Cancer Classification II, Japanese Regulations / Indicator of Cancer Classification I, Japanese Classification I, Cancer Regulations / Indices The cancer classification US index I and the cancer classification US index II are shown. Cancer Code Japanese Code I is further classified into organs such as stomach cancer, colon cancer, liver cancer, lung cancer, breast cancer, esophageal cancer, thyroid cancer, bladder cancer, prostate cancer and so on. By menu operation, a diagnostic criterion 1501, a list of rules / indexes 1502, and a list of rules / indexes for each organ 1503 are presented. Here, a case where the user selects diagnostic criteria, cancer classification Japanese code I, and gastric cancer by menu operation is shown.
FIG. 15B is an example of a diagnostic classification screen. Cancer classification The Japanese classification I of gastric cancer diagnosis classification 1504 is roughly divided into two, a depth of advancement and a degree of progression. The depth of penetration is an index indicating how far the stomach cancer exceeds the stomach wall, and is classified into four stages from AI to AIV. AI indicates that gastric cancer remains on the surface of the stomach, and AIV indicates that gastric cancer infiltrates to other organs. The degree of progression is an index indicating how far the stomach cancer has metastasized, and is classified into five stages from BI to BV. BI has no gastric cancer metastasis, BV has lymph node metastasis, and so on. In the diagnosis of gastric cancer according to the Japanese classification I of cancer classification, the depth and progression are diagnosed from information such as specimen images. The diagnosis classification 1504 is displayed in the information area 1002 or another window, and the user can operate display / non-display as necessary.
The diagnostic criteria and diagnostic classification shown in FIGS. 15A and 15B are updated as needed, and are not unified by country or region. When a user reviews a sample diagnosed with old diagnostic criteria again, or when checking a sample from another country with a different diagnostic criteria for research, which diagnostic criteria the annotation content described as the basis of diagnosis depends on The reason for specifying the diagnostic criteria and diagnostic classification is to enable easy identification.

(本実施例の効果)
以上述べたように、本実施例によれば、アノテーションを付加する際に、アノテーションの他、検索キーとして利用可能な属性情報が合わせて格納される。それにより、病理診断の多様な目的に応じた検索が可能となり、ユーザーが注目位置を効率良く見つけだすことが可能となる。その結果、ユーザー(病理医)の手間を減らすことができる。
また、本実施例では、検索によって多くの候補位置が抽出された場合に、候補位置と属性情報との関係を明示することで、所望の位置(注目位置)を容易に見つけだすことが可能となる。
(Effect of this embodiment)
As described above, according to this embodiment, when an annotation is added, attribute information that can be used as a search key is stored together with the annotation. Thereby, searching according to various purposes of pathological diagnosis becomes possible, and the user can efficiently find the target position. As a result, the trouble of the user (pathologist) can be reduced.
Further, in this embodiment, when a large number of candidate positions are extracted by the search, it is possible to easily find a desired position (attention position) by specifying the relationship between the candidate position and the attribute information. .

(アノテーションの他の例)
上記実施例では、ユーザーにより入力されたコメント及びそれに関連する属性情報をアノテーションとして診断画像に付加する例を説明した。しかし、アノテーションとして付加する情報は上記実施例のものに限られず、診断画像又は診断作業に関連する情報であれ
ばどのような情報をアノテーションとして付加してもよい。例えば、コンピュータ(画像処理装置)が、診断画像を解析することによって診断を支援するための各種情報を自動で検出する機能(自動診断ソフトウェア)を有している場合には、その検出結果に基づいてアノテーションを自動で生成し付加することもできる。この場合でも、アノテーションの記録、検索、表示等の処理は上記実施例と同じ様に行うことができる。
コンピュータにより自動生成される情報の一例として、病変部位に関する情報が挙げられる。以下、自動診断ソフトウェアの診断支援機能の一例を説明すると共に、診断支援機能で得られた病変部位に関する情報をアノテーションとして診断画像に付加する例を説明する。以下では、上記実施例との差を分かりやすくするため、診断支援機能で自動検出された情報に基づき生成されるアノテーションを「診断支援データ」と記す。
(Another example of annotation)
In the above-described embodiment, an example in which a comment input by a user and attribute information related thereto is added as an annotation to a diagnostic image has been described. However, the information added as an annotation is not limited to that in the above embodiment, and any information may be added as an annotation as long as it is information related to a diagnostic image or a diagnostic work. For example, when a computer (image processing apparatus) has a function (automatic diagnosis software) for automatically detecting various information for supporting diagnosis by analyzing a diagnostic image, based on the detection result Annotations can be automatically generated and added. Even in this case, processing such as annotation recording, retrieval, and display can be performed in the same manner as in the above embodiment.
An example of information automatically generated by a computer is information on a lesion site. Hereinafter, an example of the diagnosis support function of the automatic diagnosis software will be described, and an example of adding information on a lesion site obtained by the diagnosis support function as an annotation to the diagnosis image will be described. In the following, in order to make the difference from the above embodiment easy to understand, an annotation generated based on information automatically detected by the diagnosis support function is referred to as “diagnosis support data”.

(診断支援機能による病変部位の自動検出の説明と自動検出アルゴリズムの例)
診断支援とは、病理医の診断を支援する機能であり、例えば、前立腺癌における病変領域の自動検出が挙げられる。前立腺癌は、悪性度が高いほど腺管の大きさが不揃いになる傾向がある。腺管の検出とその構造パターンの分類により、病変領域の検出と前立腺癌の悪性度を自動判別することができる。腺管の検出にはテクスチャ解析などが用いられ、例えば、ガボールフィルタによるフィルタ演算により各空間位置での局所特徴量を抽出して腺管領域を検出することができる。構造パターンの分類には、腺管の細胞質面積、内腔面積などを形状特徴量として複雑度を算出することで、悪性度の指標とすることができる。診断支援で自動検出された病変領域と病変情報(悪性度判別)は、診断支援データリストの一例である。
(Description of automatic detection of lesion site by diagnosis support function and example of automatic detection algorithm)
Diagnosis support is a function that supports diagnosis by a pathologist, and includes automatic detection of a lesion area in prostate cancer, for example. Prostate cancer tends to have irregular gland duct sizes as the degree of malignancy increases. By detecting the duct and classifying the structure pattern, it is possible to automatically detect the lesion area and determine the malignancy of prostate cancer. For example, texture analysis or the like is used for detection of the ducts. For example, local feature amounts at each spatial position can be extracted by a filter operation using a Gabor filter to detect a ductal region. The classification of the structure pattern can be used as an index of malignancy by calculating the complexity using the cytoplasmic area, lumen area, etc. of the gland duct as the shape feature amount. The lesion area and lesion information (malignancy determination) automatically detected by the diagnosis support are an example of a diagnosis support data list.

他の診断支援の例として、乳癌におけるER(エストロゲン受容体)陽性率の自動検出が挙げられる。ER陽性率は、乳癌の治療方針を決定する際の重要な指針となる。IHC(免疫組織化学染色)法を用いると、ER発現が強く認められる核は濃く染色される。核とその染まり具合の自動検出により、ER陽性率の判別を行う。この場合は、自動検出された核を明示した画像データとその数値データ(陽性核の数、割合など)、陽性率が診断支援データリストとなる。   Another example of diagnosis support is automatic detection of ER (estrogen receptor) positive rate in breast cancer. The ER positive rate is an important guideline in deciding the treatment policy for breast cancer. When the IHC (immunohistochemical staining) method is used, nuclei in which ER expression is strongly observed are stained deeply. The ER positive rate is determined by automatic detection of the nucleus and the degree of staining. In this case, image data specifying the automatically detected nuclei, numerical data thereof (number of positive nuclei, ratio, etc.), and positive rate become the diagnosis support data list.

(診断支援データリストの例)
図16は、本実施例に係る画像処理装置102で生成された診断支援データリストの構成を示している。
診断支援機能で自動検出された病変部位に関わるデータ(診断支援データ)は、病変領域を示す画像データ(診断支援画像データ)が含まれるためデータ量が膨大になる傾向がある。そのため、診断支援データリストとは別に、病変領域を示す画像データを保持する構成が望ましい。この場合は、診断支援データリストには、病変領域を示す画像データへのポインタが記述(記録)されることになる。このポインタは、診断画像中の注目すべき位置を示す情報であり、図11のアノテーションデータリストにおける位置情報に相当する情報である。なお、診断支援データリストにおいても、ポインタの代わりに、診断画像中の病変領域の位置情報を記録しても良い。
診断支援データリストは、診断支援データのリストである。各診断支援データに診断支援データが付加された順番を表すID番号が割り振られている。診断支援データは、上述したように、画像データポインタ、病変情報などを含んでおり、診断支援データリストではそれらの情報がID番号毎に示されている。ワードによる検索は病変情報を対象に行われ、属性情報に基づく検索は属性情報を対象に行われる。なお、属性情報としては、付加日時、診断支援ソフトの種類・バージョンなどがある。なお、「病変情報」を、図10(c)における「診断情報」や「進行度」と同様に予め定められたリストから選択される情報としてもよい(つまり、病変情報を、属性情報に含めても良い。)。
(Example of diagnosis support data list)
FIG. 16 illustrates a configuration of a diagnosis support data list generated by the image processing apparatus 102 according to the present embodiment.
The data (diagnosis support data) related to the lesion site automatically detected by the diagnosis support function includes image data (diagnosis support image data) indicating the lesion area, and therefore the data amount tends to be enormous. Therefore, it is desirable that the image data indicating the lesion area be held separately from the diagnosis support data list. In this case, a pointer to image data indicating a lesion area is described (recorded) in the diagnosis support data list. This pointer is information indicating a position to be noted in the diagnostic image, and is information corresponding to position information in the annotation data list of FIG. In the diagnosis support data list, the position information of the lesion area in the diagnosis image may be recorded instead of the pointer.
The diagnosis support data list is a list of diagnosis support data. An ID number indicating the order in which diagnosis support data is added to each diagnosis support data is assigned. As described above, the diagnosis support data includes an image data pointer, lesion information, and the like, and the information is shown for each ID number in the diagnosis support data list. Search by word is performed on lesion information, and search based on attribute information is performed on attribute information. The attribute information includes the addition date and time, the type / version of the diagnosis support software, and the like. Note that the “lesion information” may be information selected from a predetermined list in the same way as the “diagnosis information” and “progress” in FIG. 10C (that is, the lesion information is included in the attribute information). May be.)

(診断支援データの検索)
診断支援データの検索は、図8の注目位置の検索と同様の手法で実施できる。図8及びその説明における「アノテーション」を「診断支援データ」と読み替えれば良い。
(Search for diagnosis support data)
The search for the diagnosis support data can be performed by the same method as the search for the target position in FIG. “Annotation” in FIG. 8 and the description thereof may be read as “diagnosis support data”.

(診断支援データの表示)
診断支援データの表示は、表示画像データとは別の、病変領域を示す診断支援画像データの表示となる。ただし、診断支援機能での病変領域の自動検出をより詳細に実施することで、表示画像データの上へ病変領域を示す画像を重畳表示する形態も可能である。例えば、前立腺癌の自動診断において、悪性領域の検出とともに、悪性度判別Vの領域、IVの
領域など、領域ごとの悪性度判別を実施しておけば、表示画像データへの悪性度判別Vの
領域の重畳表示が可能となる。
(Display of diagnosis support data)
The display of the diagnosis support data is a display of the diagnosis support image data indicating the lesion area, which is different from the display image data. However, it is possible to superimpose and display an image showing a lesion area on the display image data by performing automatic detection of the lesion area by the diagnosis support function in more detail. For example, in the automatic diagnosis of prostate cancer, if the malignancy determination for each region such as the malignancy determination V region, IV region, etc. is performed together with the detection of the malignant region, the malignancy determination V of the display image data A region can be displayed in a superimposed manner.

(本実施例の診断支援データによる効果)
以上述べたように、本実施例によれば、診断支援データを付加する際に、病変情報の他、検索キーとして利用可能な属性情報が合わせて格納される。それにより、病理診断の多様な目的に応じた検索が可能となり、ユーザーが病変領域等の注目位置を効率良く見つけだすことが可能となる。その結果、ユーザー(病理医)の手間を減らすことができる。
(Effects of diagnosis support data of this embodiment)
As described above, according to this embodiment, when adding diagnosis support data, attribute information that can be used as a search key is stored together with lesion information. As a result, searching according to various purposes of pathological diagnosis becomes possible, and the user can efficiently find a target position such as a lesion area. As a result, the trouble of the user (pathologist) can be reduced.

(実施例2)
以下、本発明の実施例2に係る画像処理システムについて図を用いて説明する。
実施例1では、検索結果として、診断画像内に候補位置が示された画像を表示装置に表示する構成とした。本実施例では、検索結果として、候補位置毎に対応する属性情報を示すリストを作成して、表示装置に表示する。それにより、候補位置の属性情報を容易に把握することが可能となる。また、ユーザーがリストから候補位置を選択した場合に、選択された候補位置が示された画像を表示装置に表示する。それにより、候補位置と属性情報との関係を容易に把握することが可能となる。以下では、実施例1と異なる点について詳しく説明し、実施例1と同じ構成や処理については極力説明を省略する。
(Example 2)
Hereinafter, an image processing system according to a second embodiment of the present invention will be described with reference to the drawings.
In the first embodiment, as a search result, an image in which candidate positions are shown in the diagnostic image is displayed on the display device. In this embodiment, a list indicating attribute information corresponding to each candidate position is created as a search result and displayed on the display device. Thereby, it becomes possible to easily grasp the attribute information of the candidate position. Also, when the user selects a candidate position from the list, an image showing the selected candidate position is displayed on the display device. Thereby, it becomes possible to easily grasp the relationship between the candidate position and the attribute information. Hereinafter, differences from the first embodiment will be described in detail, and descriptions of the same configurations and processes as those of the first embodiment will be omitted as much as possible.

(画像処理システムの装置構成)
図12は、本実施例に係る画像処理システムの構成を示す図である。
本実施例に係る画像処理システムは、画像サーバー1201、画像処理装置102、表示装置103などから構成される。画像処理装置102は、被写体を撮像して得られた診断画像データを画像サーバー1201から取得し、表示装置103で表示する表示データを生成する。画像サーバー1201と画像処理装置102とは、ネットワーク1202を介して、汎用I/FのLANケーブル1203を用いて互いに接続される。画像サーバー1201は、撮像装置101で生成された診断画像データを保存する大容量の記憶装置を備えたコンピュータである。本実施例では、画像サーバー1201は、同じ被写体で倍率が互いに異なる複数の診断画像データ(階層化された複数の階層画像データ)を、一つのまとまりとして、画像サーバー1201に接続されたローカルストレージに保存している。
なお、診断画像データは、ネットワーク上の何処かに存在するサーバー群(クラウド・サーバー)に保存してもよい。例えば、診断画像データを複数の分割画像データに分割してクラウド・サーバーに保存してもよい。その場合には、元の画像データを復元するための情報や、同じ被写体で倍率が互いに異なる複数の診断画像データを得るための情報がリンク情報として画像サーバー1201で生成、保持される。同じ被写体で倍率が互いに異なる複数の診断画像データのうち、一部のデータが他のデータと異なるサーバーに保存されてもよい。
なお、画像処理装置102の大まかな機能は実施例1と同様である。表示装置103の機能は実施例1と同じである。
(Device configuration of image processing system)
FIG. 12 is a diagram illustrating the configuration of the image processing system according to the present embodiment.
The image processing system according to this embodiment includes an image server 1201, an image processing device 102, a display device 103, and the like. The image processing apparatus 102 acquires diagnostic image data obtained by imaging a subject from the image server 1201 and generates display data to be displayed on the display apparatus 103. The image server 1201 and the image processing apparatus 102 are connected to each other using a general-purpose I / F LAN cable 1203 via a network 1202. The image server 1201 is a computer including a large-capacity storage device that stores diagnostic image data generated by the imaging device 101. In this embodiment, the image server 1201 collects a plurality of diagnostic image data (hierarchical hierarchical image data) having the same subject and different magnifications as a single unit in a local storage connected to the image server 1201. Saved.
The diagnostic image data may be stored in a server group (cloud server) existing somewhere on the network. For example, the diagnostic image data may be divided into a plurality of divided image data and stored in a cloud server. In that case, information for restoring the original image data and information for obtaining a plurality of diagnostic image data having the same subject and different magnifications are generated and held in the image server 1201 as link information. Some of the plurality of diagnostic image data having the same subject and different magnifications may be stored in a server different from other data.
The general functions of the image processing apparatus 102 are the same as those in the first embodiment. The function of the display device 103 is the same as that of the first embodiment.

なお、図12の例では、画像サーバー1201と画像処理装置102と表示装置103
の3つの装置により画像処理システムが構成されているが、本発明の構成はこの構成に限定されるものではない。例えば、表示装置と一体化した画像処理装置を用いてもよいし、画像処理装置102の機能の一部または全部を画像サーバー1201に組み込んでもよい。また、画像サーバー1201と画像処理装置102と表示装置103の機能を1つの装置で実現することもできる。逆に、1つの装置の機能を複数の装置によって実現してもよい。例えば、画像サーバー1201の機能が複数の装置によって実現されてもよい。画像処理装置102の機能が複数の装置によって実現されてもよい。
なお、実施例1では、画像処理装置102が、撮像装置101で撮像され出力された診断画像データにアノテーションを付加し、該診断画像データから注目位置を検索する構成とした。1枚の診断画像(ここでは、階層化された複数の診断画像も1枚の診断画像とする)から注目位置が検索される。本実施例では、画像サーバー1201で保存している診断画像に対してアノテーションを付加し、画像サーバー1201で保存されている診断画像から注目位置が検索される。そのため、複数の診断画像から注目位置を検索することができる。例えば、1人の患者から得られた複数の診断画像から注目位置を検索することができる。それにより、1人の患者の経過観察や同一病変の様々な位置での状態の比較などを容易に行うことが可能となる。また、複数枚の診断画像から注目位置を検索することにより、類似の症例や条件に合致するアノテーションを容易に把握することができる。
In the example of FIG. 12, the image server 1201, the image processing apparatus 102, and the display apparatus 103
The image processing system is configured by these three devices, but the configuration of the present invention is not limited to this configuration. For example, an image processing device integrated with a display device may be used, or a part or all of the functions of the image processing device 102 may be incorporated in the image server 1201. Further, the functions of the image server 1201, the image processing apparatus 102, and the display apparatus 103 can be realized by one apparatus. Conversely, the function of one device may be realized by a plurality of devices. For example, the function of the image server 1201 may be realized by a plurality of devices. The function of the image processing apparatus 102 may be realized by a plurality of apparatuses.
In the first embodiment, the image processing apparatus 102 adds an annotation to the diagnostic image data imaged and output by the imaging apparatus 101, and searches the attention position from the diagnostic image data. The position of interest is searched from one diagnostic image (here, a plurality of hierarchical diagnostic images are also regarded as one diagnostic image). In this embodiment, an annotation is added to the diagnostic image stored in the image server 1201, and the position of interest is searched from the diagnostic image stored in the image server 1201. Therefore, the position of interest can be searched from a plurality of diagnostic images. For example, the position of interest can be searched from a plurality of diagnostic images obtained from one patient. Thereby, it is possible to easily perform follow-up observation of one patient, comparison of states at various positions of the same lesion, and the like. Further, by searching for a target position from a plurality of diagnostic images, it is possible to easily grasp annotations that match similar cases and conditions.

(注目位置の検索結果の表示)
図13は、図6のステップS610で注目位置の検索結果を表示する処理の流れを示すフローチャートである。図13では、候補位置をリストとして表示し、ユーザーが選択したリスト内容に基づいて候補位置を表示する流れについて説明する。
(Display of search results for attention positions)
FIG. 13 is a flowchart showing a flow of processing for displaying the search result of the target position in step S610 of FIG. FIG. 13 illustrates a flow in which candidate positions are displayed as a list and the candidate positions are displayed based on the list contents selected by the user.

ステップS901では、表示データ生成制御部308が、アノテーション検索処理部307から、ステップS808で生成された検索結果リストを取得する。   In step S901, the display data generation control unit 308 acquires the search result list generated in step S808 from the annotation search processing unit 307.

ステップS1301では、表示データ生成制御部308が、ステップS901で取得された検索結果リストを用いて、候補位置毎に対応する属性情報を示すリスト(属性情報リスト)を生成する。そして、表示データ生成部310が、属性情報リストを含む表示データを生成する。属性情報リストの表示領域は、例えば、図10(a)で示した情報エリア1002である。但し、これに限らず、他に属性情報リストの表示領域が設定されてもよい。属性情報リストの表示領域は、独立したウィンドウの領域であってもよい。属性情報リストを表示する際の表示画像の例は図14(a)〜図14(c)を用いて後述する。   In step S1301, the display data generation control unit 308 generates a list (attribute information list) indicating attribute information corresponding to each candidate position, using the search result list acquired in step S901. Then, the display data generation unit 310 generates display data including the attribute information list. The display area of the attribute information list is, for example, the information area 1002 shown in FIG. However, the display area of the attribute information list may be set in addition to this. The display area of the attribute information list may be an independent window area. An example of the display image when displaying the attribute information list will be described later with reference to FIGS. 14 (a) to 14 (c).

ステップS1302では、表示データ出力部311が、ステップS1301で生成された表示データを表示装置103に出力し、表示装置103が、該表示データに基づく表示画像を表示する。   In step S1302, the display data output unit 311 outputs the display data generated in step S1301 to the display device 103, and the display device 103 displays a display image based on the display data.

本実施例では、属性情報リストはソート可能なリストである。
ステップS1303では、表示データ生成制御部308が、ユーザー入力情報取得部303からの情報などをもとに、属性情報リストのソートの要求があるか否かを判断する。ソートの要求があった場合は、ステップS1304へ進む。ソートの要求がなかった場合は、ステップS1307へ進む。
In this embodiment, the attribute information list is a sortable list.
In step S1303, the display data generation control unit 308 determines whether there is a request for sorting the attribute information list based on information from the user input information acquisition unit 303 or the like. If there is a sort request, the process advances to step S1304. If there is no sort request, the process advances to step S1307.

ステップS1304では、表示データ生成制御部308が、属性情報リストをソートする。例えば、属性情報リストは、ユーザー操作に応じて、日時情報で表される日時順にソートされる。具体的には、日時情報で表される日時順にソートするユーザー操作があった場合は、表示データ生成制御部308は、該操作に応じて、属性情報リストの日時の項目を選択し、日時情報が昇順又は降順となるように属性情報をソートする。
ステップS1305では、表示データ生成部310が、属性情報リストがステップS1
304でのソート後の属性情報リストとなるように、表示データを更新する。
ステップS1306では、表示データ出力部311が、ステップS1305で更新された表示データを表示装置103に出力し、表示装置103が、該表示データに基づく表示画像を表示する。
In step S1304, the display data generation control unit 308 sorts the attribute information list. For example, the attribute information list is sorted in the order of the date and time represented by the date and time information according to the user operation. Specifically, when there is a user operation for sorting in the order of the date and time represented by the date and time information, the display data generation control unit 308 selects the date and time item of the attribute information list in accordance with the operation, and the date and time information Sort attribute information so that is in ascending or descending order.
In step S1305, the display data generation unit 310 displays the attribute information list in step S1.
The display data is updated so that the attribute information list after sorting in 304 is obtained.
In step S1306, the display data output unit 311 outputs the display data updated in step S1305 to the display device 103, and the display device 103 displays a display image based on the display data.

ステップS1307では、表示データ生成制御部308が、ユーザー入力情報取得部303などからの情報をもとに、表示されている属性情報リストから候補位置が選択されたか否かを判断する。候補位置は1つだけ選択されてもよいし、複数選択されてもよい。候補位置の選択がされた場合は、ステップS902へ進む。候補位置が選択されなかった場合には処理を終了する。
その後、実施例1と同様にステップS902〜S904の処理が行われ、実施例1と同様にステップS907〜S910の処理が行われ、実施例1と同様にステップS914〜S918の処理が行われる。
In step S1307, the display data generation control unit 308 determines whether a candidate position has been selected from the displayed attribute information list based on information from the user input information acquisition unit 303 and the like. Only one candidate position may be selected, or a plurality of candidate positions may be selected. If a candidate position is selected, the process proceeds to step S902. If no candidate position is selected, the process ends.
Thereafter, the processes of steps S902 to S904 are performed as in the first embodiment, the processes of steps S907 to S910 are performed as in the first embodiment, and the processes of steps S914 to S918 are performed as in the first embodiment.

(表示画像レイアウト)
図14(a)〜図14(c)は、本実施例に係る画像処理装置102で生成された表示データに基づく画像(表示画像)の一例である。
図14(a)は、検索結果として表示される属性情報リストの例である。属性情報リスト1401は、候補位置毎の属性情報を含む。また、属性情報リスト1401は、該当する候補位置をリストから選択するためのチェックボックス1402、属性情報に基づくソートを行うためのソートボタン1403を含む。ユーザーは、チェックボックス1402を選択することにより候補位置を1つまたは複数選択できる。また、属性情報の優先度を設定することで、複数の属性情報によるソート操作を行うことも可能である。
(Display image layout)
FIG. 14A to FIG. 14C are examples of images (display images) based on display data generated by the image processing apparatus 102 according to the present embodiment.
FIG. 14A shows an example of an attribute information list displayed as a search result. The attribute information list 1401 includes attribute information for each candidate position. The attribute information list 1401 includes a check box 1402 for selecting a corresponding candidate position from the list, and a sort button 1403 for sorting based on the attribute information. The user can select one or more candidate positions by selecting the check box 1402. In addition, by setting the priority of attribute information, it is possible to perform a sort operation using a plurality of attribute information.

図14(b)は、チェックボックス1402を用いて選択された候補位置をアノテーション表示モードで表示したときの表示画像の例である。ここでは3つの候補位置が選択された場合の例を示している。本実施例では、選択された全ての候補位置が表示されるような表示位置および表示倍率で、診断画像およびアノテーション(選択された候補位置に対応するアノテーション)の画像1405が表示される。アノテーションの画像1405は、対応する候補位置1406に表示される。図14(b)の例では、低倍である5倍の表示倍率で診断画像とアノテーションの画像とが表示されている。また、アノテーションの画像は、属性情報(例えば、アノテーション付加時の表示倍率)毎に異なる形態で表示されている。例えば、アノテーション1が付加されたときの表示倍率は10倍、アノテーション2が付加されたときの表示倍率は20倍、アノテーション3が付加されたときの表示倍率は40倍であったとする。アノテーション付加時の表示倍率毎にアノテーションの画像の表示方法を変えることで、表示倍率の違いが判別可能となる。ここではアノテーションの表示枠の線種により属性情報を区別しているが、表示枠の色や形で区別してもよい。
なお、本実施例では、チェックボックス1402を用いて候補位置が選択された場合に、該選択された候補位置がアノテーション表示モードで明示されるものとしたが、選択された候補位置がポインタ表示モードで明示されてもよい。実施例1と同様に、表示する候補位置の数に応じて表示モードを切り替えてもよい。
FIG. 14B shows an example of a display image when the candidate position selected using the check box 1402 is displayed in the annotation display mode. Here, an example in which three candidate positions are selected is shown. In the present embodiment, a diagnostic image and an image 1405 of an annotation (an annotation corresponding to the selected candidate position) are displayed at a display position and a display magnification at which all selected candidate positions are displayed. An annotation image 1405 is displayed at the corresponding candidate position 1406. In the example of FIG. 14B, the diagnostic image and the annotation image are displayed at a display magnification of 5 times, which is a low magnification. An annotation image is displayed in a different form for each attribute information (for example, display magnification at the time of annotation addition). For example, assume that the display magnification when annotation 1 is added is 10 times, the display magnification when annotation 2 is added is 20 times, and the display magnification when annotation 3 is added is 40 times. By changing the display method of the annotation image for each display magnification at the time of adding an annotation, the difference in display magnification can be determined. Here, the attribute information is distinguished by the line type of the annotation display frame, but may be distinguished by the color or shape of the display frame.
In this embodiment, when a candidate position is selected using the check box 1402, the selected candidate position is specified in the annotation display mode. However, the selected candidate position is displayed in the pointer display mode. May be specified. As in the first embodiment, the display mode may be switched according to the number of candidate positions to be displayed.

図14(c)は、診断画像内に示された候補位置(アノテーションの画像やアイコン画像)が選択された際に表示される画像の例である。図14(c)は、4つの候補位置が選択された場合の例である。図14(c)では、候補位置毎に、図10(e)と同様の再現表示がされている。符号1405で示される4つのアノテーション1〜4の内、アノテーション1,3,4を付加した時の表示倍率は20倍となっており、アノテーション2を付加した時の表示倍率のみ40倍となっている。各候補位置にアノテーションを付加したときの表示倍率は、領域1404内に表示された表示倍率から確認することができる。また、これに限らず、各診断画像の表示領域の枠の色によって表示倍率の違いを明示してもよ
い。
また、リストから候補位置を選択した際に表示した診断画像の領域(例えば図14(b)のように表示された診断画像の領域)と、再現表示された各領域との位置関係は、実施例1と同様に判断することができる。具体的には、リストから候補位置を選択した際に表示した診断画像の領域が、サムネイル画像中に表示枠1407として表示され、再現表示された各領域が、サムネイル画像中に再現範囲1408として表示される。再現範囲1407と再現表示されている画像との対応関係は、枠線の色、線種等で判別させることができる。また、再現表示されている複数の画像と、複数の再現範囲とのうち、1つを選択することで、選択された画像(再現範囲)に対応する表示倍率の画像を観察画像表示エリア全体に表示する表示モードに移行してもよい。
FIG. 14C is an example of an image displayed when a candidate position (annotation image or icon image) shown in the diagnostic image is selected. FIG. 14C shows an example when four candidate positions are selected. In FIG. 14C, the same reproduction display as in FIG. 10E is displayed for each candidate position. Of the four annotations 1 to 4 indicated by reference numeral 1405, the display magnification when annotations 1, 3, and 4 are added is 20 times, and the display magnification when annotation 2 is added is only 40 times. Yes. The display magnification when an annotation is added to each candidate position can be confirmed from the display magnification displayed in the area 1404. In addition, the display magnification difference may be clearly indicated by the color of the frame of the display area of each diagnostic image.
Further, the positional relationship between the diagnostic image area displayed when the candidate position is selected from the list (for example, the diagnostic image area displayed as shown in FIG. 14B) and each area that is reproduced and displayed is It can be determined in the same manner as in Example 1. Specifically, the diagnostic image area displayed when the candidate position is selected from the list is displayed as a display frame 1407 in the thumbnail image, and each reproduced area is displayed as the reproduction range 1408 in the thumbnail image. Is done. The correspondence between the reproduction range 1407 and the image that is reproduced and displayed can be determined by the color of the frame line, the line type, and the like. In addition, by selecting one of a plurality of reproduced images and a plurality of reproduction ranges, an image with a display magnification corresponding to the selected image (reproduction range) is displayed on the entire observation image display area. You may transfer to the display mode to display.

(本実施例の効果)
以上述べたように、本実施例によれば、アノテーションを付加する際に、アノテーションの他、検索キーとして利用可能な属性情報が合わせて格納される。それにより、病理診断の多様な目的に応じた検索が可能となり、ユーザーが注目位置を効率良く見つけだすことが可能となる。その結果、ユーザー(病理医)の手間を減らすことができる。
また、本実施例では、注目位置の検索結果として候補位置毎の属性情報のリストを表示し、リストから選択された候補位置が示された診断画像を表示する構成とした。それにより、より具体的に注目位置の検索結果を把握することが可能となる。
(Effect of this embodiment)
As described above, according to this embodiment, when an annotation is added, attribute information that can be used as a search key is stored together with the annotation. Thereby, searching according to various purposes of pathological diagnosis becomes possible, and the user can efficiently find the target position. As a result, the trouble of the user (pathologist) can be reduced.
In the present embodiment, a list of attribute information for each candidate position is displayed as a result of searching for the target position, and a diagnostic image showing the candidate position selected from the list is displayed. Thereby, it becomes possible to grasp the search result of the attention position more specifically.

(その他の実施例)
本発明の目的は、以下によって達成されてもよい。すなわち、前述した実施例の機能の全部または一部を実現するソフトウェアのプログラムコードを記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給する。そして、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行する。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施例の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。
また、コンピュータが、読み出したプログラムコードを実行することにより、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが、実際の処理の一部または全部を行う。その処理によって前述した実施例の機能が実現される場合も本発明に含まれ得る。
さらに、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれたとする。その後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施例の機能が実現される場合も本発明に含まれ得る。
本発明を上記記録媒体に適用する場合、その記録媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。
また、実施例1,2で説明してきた構成をお互いに組み合わせることもできる。例えば、実施例1のシステムに対し実施例2の複数の注目位置の再現表示処理を適用してもよいし、画像処理装置が撮像装置と画像サーバーの両方に接続されており、処理に用いる画像をいずれの装置から取得できるような構成にしてもよい。その他、上記各実施例における様々な技術を適宜組み合わせることで得られる構成も本発明の範疇に属する。
(Other examples)
The object of the present invention may be achieved by the following. That is, a recording medium (or storage medium) in which a program code of software that realizes all or part of the functions of the above-described embodiments is recorded is supplied to the system or apparatus. Then, the computer (or CPU or MPU) of the system or apparatus reads and executes the program code stored in the recording medium. In this case, the program code itself read from the recording medium realizes the functions of the above-described embodiments, and the recording medium on which the program code is recorded constitutes the present invention.
In addition, when the computer executes the read program code, an operating system (OS) operating on the computer performs part or all of the actual processing based on the instruction of the program code. The case where the functions of the above-described embodiments are realized by the processing can also be included in the present invention.
Furthermore, it is assumed that the program code read from the recording medium is written in a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer. Thereafter, based on the instruction of the program code, the CPU of the function expansion card or function expansion unit performs part or all of the actual processing, and the functions of the above-described embodiments are realized by the processing. It can be included in the invention.
When the present invention is applied to the recording medium, program code corresponding to the flowchart described above is stored in the recording medium.
Further, the configurations described in the first and second embodiments can be combined with each other. For example, the reproduction display processing of a plurality of positions of interest of the second embodiment may be applied to the system of the first embodiment, and the image processing device is connected to both the imaging device and the image server, and the image used for the processing May be obtained from any device. In addition, configurations obtained by appropriately combining various techniques in the above embodiments also belong to the category of the present invention.

102 画像処理装置
305 アノテーションデータ生成部
306 アノテーションリスト記憶部
307 アノテーション検索処理部
310 表示データ生成部
311 表示データ出力部
DESCRIPTION OF SYMBOLS 102 Image processing apparatus 305 Annotation data generation part 306 Annotation list memory | storage part 307 Annotation search processing part 310 Display data generation part 311 Display data output part

Claims (27)

被写体を撮像して得られた診断画像にアノテーションを付加する付加手段と、
アノテーションに関連する情報として、予め定められた属性の情報である属性情報を、アノテーションと共に記憶部に記録する記録手段と、
前記診断画像においてアノテーションが付加された複数の位置の中から、ユーザーが注目する位置である注目位置を検索する検索手段と、
前記検索手段の検索結果を表示部に表示する表示手段と、
を備え、
前記検索手段は、アノテーションに含まれるワード、または、属性情報をキーとして、前記注目位置を検索する
ことを特徴とする画像処理装置。
An adding means for adding an annotation to a diagnostic image obtained by imaging a subject;
Recording means for recording attribute information, which is information of a predetermined attribute, as information related to the annotation in the storage unit together with the annotation;
Search means for searching for a position of interest, which is a position to which the user pays attention, from a plurality of positions with annotations added in the diagnostic image;
Display means for displaying a search result of the search means on a display unit;
With
The image processing apparatus, wherein the search means searches the attention position using a word or attribute information included in the annotation as a key.
前記属性情報は、前記診断画像の診断内容を表す診断情報を含む
ことを特徴とする請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the attribute information includes diagnostic information representing a diagnostic content of the diagnostic image.
前記診断画像を解析することによって診断を支援するための情報を自動で検出する自動診断手段をさらに備え、
前記アノテーションは、前記自動診断手段の検出結果に基づいて付加されるアノテーションを含む
ことを特徴とする請求項1に記載の画像処理装置。
Further comprising automatic diagnostic means for automatically detecting information for supporting diagnosis by analyzing the diagnostic image;
The image processing apparatus according to claim 1, wherein the annotation includes an annotation added based on a detection result of the automatic diagnosis unit.
前記自動診断手段の検出結果に基づいて付加されたアノテーションは、前記診断を支援するための情報をテキスト情報として含んでおり、
前記検索手段は、前記診断を支援するための情報に含まれるワードをキーとして検索を行う
ことを特徴とする請求項3に記載の画像処理装置。
The annotation added based on the detection result of the automatic diagnosis means includes information for supporting the diagnosis as text information,
The image processing apparatus according to claim 3, wherein the search unit performs a search using a word included in information for supporting the diagnosis as a key.
前記属性情報は、前記診断画像の診断を行う際に用いた診断基準を表す情報を含む
ことを特徴とする請求項1または2に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the attribute information includes information indicating a diagnostic criterion used when diagnosing the diagnostic image.
前記属性情報は、対応するアノテーションが付加された日時、または、前記診断画像の観察が行われた日時を表す日時情報を含む
ことを特徴とする請求項1、2、または5に記載の画像処理装置。
6. The image processing according to claim 1, wherein the attribute information includes date and time information indicating a date and time when a corresponding annotation is added, or a date and time when the diagnostic image is observed. apparatus.
前記属性情報は、アノテーションを付加したユーザーを特定するユーザー情報を含む
ことを特徴とする請求項1、2、5、または6に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the attribute information includes user information that identifies a user who has added an annotation.
複数のユーザーが異なる目的又は異なる方法で順番に前記診断画像にアノテーションを付加していくものであって、
前記ユーザー情報は、当該ユーザーがアノテーションを付加したときの目的又は方法を示すユーザー属性を含み、
前記検索手段は、前記ユーザー属性をキーとして、前記注目位置を検索する
ことを特徴とする請求項7に記載の画像処理装置。
A plurality of users sequentially add annotations to the diagnostic image for different purposes or different methods,
The user information includes a user attribute indicating a purpose or a method when the user adds an annotation,
The image processing apparatus according to claim 7, wherein the search unit searches the attention position using the user attribute as a key.
前記属性情報は、アノテーションを付加したユーザーにより入力された情報である
ことを特徴とする請求項1、2、5、6、7、または8に記載の画像処理装置。
The image processing apparatus according to claim 1, 2, 5, 6, 7, or 8, wherein the attribute information is information input by a user who has added an annotation.
前記検索手段は、検索を行うことにより、前記付加手段でアノテーションが付加された複数の位置から、前記注目位置の候補である候補位置を検出し、
前記表示手段は、候補位置毎に対応する属性情報を示すリストを、前記検索結果として前記表示部に表示する
ことを特徴とする請求項1乃至9のいずれか1項に記載の画像処理装置。
The search means detects a candidate position that is a candidate for the target position from a plurality of positions added with annotations by the adding means by performing a search,
The image processing apparatus according to claim 1, wherein the display unit displays a list indicating attribute information corresponding to each candidate position on the display unit as the search result.
前記属性情報は、対応するアノテーションが付加された日時、または、前記診断画像の観察が行われた日時を表す日時情報を含み、
前記属性情報のリストは、日時情報で表される日時順にソート可能である
ことを特徴とする請求項10に記載の画像処理装置。
The attribute information includes date and time information indicating the date and time when the corresponding annotation was added, or the date and time when the diagnostic image was observed,
The image processing apparatus according to claim 10, wherein the attribute information list is sortable in order of date and time represented by date and time information.
ユーザーが前記リストから候補位置を選択した場合に、前記表示手段は、前記診断画像を前記表示部に表示するとともに、該診断画像内に前記選択された候補位置を示す
ことを特徴とする請求項10または11に記載の画像処理装置。
The display means displays the diagnostic image on the display unit and indicates the selected candidate position in the diagnostic image when a user selects a candidate position from the list. The image processing apparatus according to 10 or 11.
ユーザーが前記リストから複数の候補位置を選択した場合に、前記表示手段は、選択された全ての候補位置が含まれるような表示位置および表示倍率で前記診断画像を前記表示部に表示するとともに、該診断画像内に前記選択された候補位置を示す
ことを特徴とする請求項10乃至12のいずれか1項に記載の画像処理装置。
When the user selects a plurality of candidate positions from the list, the display means displays the diagnostic image on the display unit at a display position and a display magnification that include all the selected candidate positions, The image processing apparatus according to claim 10, wherein the selected candidate position is indicated in the diagnostic image.
前記検索手段は、検索を行うことにより、前記付加手段でアノテーションが付加された複数の位置から、前記注目位置の候補である候補位置を検出し、
前記表示手段は、前記検索結果として、前記診断画像を前記表示部に表示するとともに、該診断画像内に前記候補位置を示す
ことを特徴とする請求項1乃至9のいずれか1項に記載の画像処理装置。
The search means detects a candidate position that is a candidate for the target position from a plurality of positions added with annotations by the adding means by performing a search,
10. The display device according to claim 1, wherein the display unit displays the diagnostic image on the display unit as the search result, and indicates the candidate position in the diagnostic image. 11. Image processing device.
前記検索手段で複数の候補位置が検出された場合に、前記表示手段は、全ての候補位置が含まれるような表示位置および表示倍率で前記診断画像を前記表示部に表示するとともに、該診断画像内に前記候補位置を示す
ことを特徴とする請求項14に記載の画像処理装置。
When a plurality of candidate positions are detected by the search means, the display means displays the diagnostic image on the display unit at a display position and display magnification that include all candidate positions, and the diagnostic image The image processing apparatus according to claim 14, wherein the candidate position is indicated within the image.
前記表示手段は、対応するアノテーションの画像を用いて前記候補位置を示す
ことを特徴とする請求項12乃至15のいずれか1項に記載の画像処理装置。
The image processing apparatus according to claim 12, wherein the display unit indicates the candidate position using a corresponding annotation image.
前記表示手段は、アイコン画像を用いて前記候補位置を示す
ことを特徴とする請求項12乃至15のいずれか1項に記載の画像処理装置。
The image processing apparatus according to claim 12, wherein the display unit indicates the candidate position using an icon image.
前記表示手段は、
表示する候補位置の数が所定数以下の場合に、対応するアノテーションの画像を用いて前記候補位置を示し、
表示する候補位置の数が所定数より多い場合に、アイコン画像を用いて前記候補位置を示す
ことを特徴とする請求項12乃至17のいずれか1項に記載の画像処理装置。
The display means includes
When the number of candidate positions to be displayed is a predetermined number or less, the candidate position is indicated using a corresponding annotation image;
18. The image processing apparatus according to claim 12, wherein when the number of candidate positions to be displayed is greater than a predetermined number, the candidate positions are indicated using an icon image.
前記アイコン画像は、属性情報毎に異なる
ことを特徴とする請求項17または18に記載の画像処理装置。
The image processing apparatus according to claim 17, wherein the icon image is different for each attribute information.
前記アノテーションの画像は、属性情報毎に異なる
ことを特徴とする請求項16または18に記載の画像処理装置。
The image processing apparatus according to claim 16, wherein the annotation image is different for each piece of attribute information.
前記表示手段は、ユーザーにより前記示された候補位置が選択された場合に、該候補位置にアノテーションを付加したときの表示位置および表示倍率で、前記診断画像を前記表
示部に表示する
ことを特徴とする請求項14または15に記載の画像処理装置。
The display unit displays the diagnostic image on the display unit at a display position and a display magnification when an annotation is added to the candidate position when the indicated candidate position is selected by a user. The image processing apparatus according to claim 14 or 15.
前記検索手段は、1枚の診断画像から前記注目位置を検索する
ことを特徴とする請求項1乃至21のいずれか1項に記載の画像処理装置。
The image processing apparatus according to any one of claims 1 to 21, wherein the search unit searches the attention position from one diagnostic image.
前記検索手段は、複数枚の診断画像から前記注目位置を検索する
ことを特徴とする請求項1乃至21のいずれか1項に記載の画像処理装置。
The image processing apparatus according to any one of claims 1 to 21, wherein the search unit searches the attention position from a plurality of diagnostic images.
前記検索手段は、1人の患者から得られた複数の診断画像から前記注目位置を検索することを特徴とする請求項23に記載の画像処理装置。   24. The image processing apparatus according to claim 23, wherein the search unit searches the attention position from a plurality of diagnostic images obtained from one patient. 請求項1乃至24のいずれか1項に記載の画像処理装置と、前記表示部と、を備えることを特徴とする画像処理システム。   An image processing system comprising: the image processing apparatus according to claim 1; and the display unit. コンピュータが、被写体を撮像して得られた診断画像にアノテーションを付加する付加ステップと、
コンピュータが、アノテーションに関連する情報として、予め定められた属性の情報である属性情報を、アノテーションと共に記憶部に記録する記録ステップと、
コンピュータが、診断画像においてアノテーションが付加された複数の位置の中から、ユーザーが注目する位置である注目位置を検索する検索ステップと、
コンピュータが、前記検索ステップの検索結果を表示部に表示する表示ステップと、
を含み、
前記検索ステップでは、アノテーションに含まれるワードまたは属性情報をキーとして、前記注目位置が検索される
ことを特徴とする画像処理方法。
An adding step in which a computer adds an annotation to a diagnostic image obtained by imaging a subject;
A recording step in which the computer records attribute information, which is information of a predetermined attribute, as information related to the annotation in the storage unit together with the annotation;
A search step in which a computer searches for a target position that is a position that a user pays attention to from among a plurality of positions that are annotated in a diagnostic image;
A computer displaying a search result of the search step on a display unit;
Including
In the search step, the attention position is searched using a word or attribute information included in the annotation as a key.
請求項26に記載の画像処理方法の各ステップをコンピュータに実行させることを特徴とするプログラム。   A program causing a computer to execute each step of the image processing method according to claim 26.
JP2012225979A 2011-12-26 2012-10-11 Image processing device, image processing system and image processing method Abandoned JP2013152701A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012225979A JP2013152701A (en) 2011-12-26 2012-10-11 Image processing device, image processing system and image processing method
PCT/JP2012/007916 WO2013099125A1 (en) 2011-12-26 2012-12-11 Image processing apparatus, image processing system and image processing method
US14/356,213 US20140306992A1 (en) 2011-12-26 2012-12-11 Image processing apparatus, image processing system and image processing method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2011283722 2011-12-26
JP2011283722 2011-12-26
JP2012225979A JP2013152701A (en) 2011-12-26 2012-10-11 Image processing device, image processing system and image processing method

Publications (1)

Publication Number Publication Date
JP2013152701A true JP2013152701A (en) 2013-08-08

Family

ID=49048964

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012225979A Abandoned JP2013152701A (en) 2011-12-26 2012-10-11 Image processing device, image processing system and image processing method

Country Status (1)

Country Link
JP (1) JP2013152701A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015069223A (en) * 2013-09-26 2015-04-13 オリンパス株式会社 Cell observation information processing system, cell observation information processing method, cell observation information processing program, recording part provided in cell observation information processing system, and device provided in cell observation information processing system
JP2015094827A (en) * 2013-11-11 2015-05-18 ソニー株式会社 Image processing apparatus and image processing method
JP2018085127A (en) * 2013-09-25 2018-05-31 ハートフロー, インコーポレイテッド System and method for verification and correction of automated medical image annotations
JP2018142788A (en) * 2017-02-27 2018-09-13 京セラドキュメントソリューションズ株式会社 Image processing apparatus and image forming apparatus
JP2019514602A (en) * 2016-05-10 2019-06-06 ヒールセリオン カンパニー リミテッド Portable Ultrasound Diagnostic System Providing Guided Ultrasound Images
JPWO2021124869A1 (en) * 2019-12-17 2021-06-24
US20210295997A1 (en) * 2018-08-08 2021-09-23 Deep Bio Inc. Bioimage diagnosis system, bioimage diagnosis method, and terminal for executing same

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018085127A (en) * 2013-09-25 2018-05-31 ハートフロー, インコーポレイテッド System and method for verification and correction of automated medical image annotations
JP2015069223A (en) * 2013-09-26 2015-04-13 オリンパス株式会社 Cell observation information processing system, cell observation information processing method, cell observation information processing program, recording part provided in cell observation information processing system, and device provided in cell observation information processing system
JP2015094827A (en) * 2013-11-11 2015-05-18 ソニー株式会社 Image processing apparatus and image processing method
JP2019514602A (en) * 2016-05-10 2019-06-06 ヒールセリオン カンパニー リミテッド Portable Ultrasound Diagnostic System Providing Guided Ultrasound Images
JP2018142788A (en) * 2017-02-27 2018-09-13 京セラドキュメントソリューションズ株式会社 Image processing apparatus and image forming apparatus
US20210295997A1 (en) * 2018-08-08 2021-09-23 Deep Bio Inc. Bioimage diagnosis system, bioimage diagnosis method, and terminal for executing same
JPWO2021124869A1 (en) * 2019-12-17 2021-06-24
WO2021124869A1 (en) * 2019-12-17 2021-06-24 富士フイルム株式会社 Diagnostic assistance device, diagnostic assistance method, and diagnostic assistance program
JP7355849B2 (en) 2019-12-17 2023-10-03 富士フイルム株式会社 Diagnosis support device, diagnosis support method, and diagnosis support program

Similar Documents

Publication Publication Date Title
JP6091137B2 (en) Image processing apparatus, image processing system, image processing method, and program
JP6124543B2 (en) Image processing apparatus, image processing method, image processing system, and program
JP6799146B2 (en) Digital pathology system and related workflows to provide visualized slide-wide image analysis
JP2013152701A (en) Image processing device, image processing system and image processing method
US20140306992A1 (en) Image processing apparatus, image processing system and image processing method
JP5660273B2 (en) Image diagnosis method, image diagnosis apparatus, and image diagnosis program
US8699769B2 (en) Generating artificial hyperspectral images using correlated analysis of co-registered images
JP6348504B2 (en) Biological sample split screen display and system and method for capturing the records
JP5442542B2 (en) Pathological diagnosis support device, pathological diagnosis support method, control program for pathological diagnosis support, and recording medium recording the control program
US20140184778A1 (en) Image processing apparatus, control method for the same, image processing system, and program
JP5927591B2 (en) CASE DISPLAY DEVICE, CASE DISPLAY METHOD, AND PROGRAM
WO2013100028A1 (en) Image processing device, image display system, image processing method, and image processing program
US20130187954A1 (en) Image data generation apparatus and image data generation method
US20160042122A1 (en) Image processing method and image processing apparatus
JP2012073179A (en) Pathological diagnosis support device, pathological diagnosis support method, control program for pathological diagnosis support and recording medium with control program recorded thereon
JP2013200640A (en) Image processing device, image processing system, image processing method and program
JP5832281B2 (en) Image processing apparatus, image processing system, image processing method, and program
Molin et al. Scale Stain: Multi-resolution feature enhancement in pathology visualization
JP5702943B2 (en) Pathological diagnosis support device, pathological diagnosis support method, control program for pathological diagnosis support, and recording medium recording the control program
Sadimin et al. Pathology imaging informatics for clinical practice and investigative and translational research
Treanor Virtual slides: an introduction
JP6338730B2 (en) Apparatus, method, and program for generating display data
JP2016038542A (en) Image processing method and image processing apparatus
WO2013099125A1 (en) Image processing apparatus, image processing system and image processing method
Patil et al. Evaluation and comparison between smartphone and photomicrography based whole slide imaging

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150930

A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20160307