JP7066491B2 - Medical image processing device, teacher data creation program and teacher data creation method - Google Patents

Medical image processing device, teacher data creation program and teacher data creation method Download PDF

Info

Publication number
JP7066491B2
JP7066491B2 JP2018075759A JP2018075759A JP7066491B2 JP 7066491 B2 JP7066491 B2 JP 7066491B2 JP 2018075759 A JP2018075759 A JP 2018075759A JP 2018075759 A JP2018075759 A JP 2018075759A JP 7066491 B2 JP7066491 B2 JP 7066491B2
Authority
JP
Japan
Prior art keywords
display
medical image
image data
region
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018075759A
Other languages
Japanese (ja)
Other versions
JP2019180866A (en
Inventor
モー ブライアン
ベヴァリッジ エリン
メイコック ダニエル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Medical Systems Corp
Original Assignee
Canon Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Medical Systems Corp filed Critical Canon Medical Systems Corp
Priority to JP2018075759A priority Critical patent/JP7066491B2/en
Publication of JP2019180866A publication Critical patent/JP2019180866A/en
Application granted granted Critical
Publication of JP7066491B2 publication Critical patent/JP7066491B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明の実施形態は、医用画像処理装置、教師データ作成プログラム及び教師データ作成方法に関する。 Embodiments of the present invention relate to a medical image processing apparatus, a teacher data creation program, and a teacher data creation method.

画像認識に関する機械学習の教師データの作成のため、医用画像の画像認識対象領域を画定するアノテーションがユーザの手入力により当該医用画像に描画されている。教師データとして多量の医用画像が必要であるため、アノテーションを描画する作業はユーザにとても手間がかかる。 In order to create machine learning teacher data related to image recognition, annotations defining the image recognition target area of the medical image are manually drawn on the medical image by the user. Since a large amount of medical images are required as teacher data, the work of drawing annotations is very troublesome for the user.

特開2015-095043号公報Japanese Unexamined Patent Publication No. 2015-095043

発明が解決しようとする課題は、画像認識に関する機械学習の教師データの作成の手間を削減することである。 The problem to be solved by the invention is to reduce the trouble of creating teacher data for machine learning related to image recognition.

実施形態に係る医用画像処理装置は、画像認識に関する機械学習の教師データとして用いられる医用画像データが表示されるディスプレイと、前記医用画像データのうちの画像認識の対象領域を規定するアノテーションの付与領域を、ユーザによる指示に従い決定する決定部と、前記医用画像データ内の前記付与領域の位置と前記医用画像データに関連付けられた臨床情報との比較結果を出力する整合判定部と、前記比較結果を前記ディスプレイに表示する表示制御部と、を具備する。 The medical image processing apparatus according to the embodiment has a display on which medical image data used as teacher data for machine learning related to image recognition is displayed, and an annotated area that defines a target area for image recognition in the medical image data. A matching determination unit that outputs a comparison result between the position of the imparted region in the medical image data and clinical information associated with the medical image data, and the comparison result. A display control unit for displaying on the display is provided.

図1は、本実施形態に係る医用画像処理装置の構成を示す図である。FIG. 1 is a diagram showing a configuration of a medical image processing apparatus according to the present embodiment. 図2は、図1の処理回路による教師データ作成処理の典型的な流れを示す図である。FIG. 2 is a diagram showing a typical flow of teacher data creation processing by the processing circuit of FIG. 図3は、撮影軸基準のオリジナルの表示断面と被検体との位置関係を模式的に示す図である。FIG. 3 is a diagram schematically showing the positional relationship between the original display cross section of the imaging axis reference and the subject. 図4は、図2のステップS3におけるオリジナルの表示断面に関する表示画像の表示画面の一例を示す図である。FIG. 4 is a diagram showing an example of a display screen of a display image relating to the original display cross section in step S3 of FIG. 図5は、表示断面の回転の必要性を模式的に示す図である。FIG. 5 is a diagram schematically showing the necessity of rotation of the display cross section. 図6は、図2のステップS4における表示断面の回転処理を模式的に示す図である。FIG. 6 is a diagram schematically showing the rotation process of the display cross section in step S4 of FIG. 図7は、図2のステップS7におけるアノテーションの付与処理の実行画面の一例を示す図である。FIG. 7 is a diagram showing an example of an execution screen of the annotation processing in step S7 of FIG. 図8は、図2のステップS7におけるアノテーションの付与処理の典型的な流れを示す図である。FIG. 8 is a diagram showing a typical flow of annotation processing in step S7 of FIG. 図9は、図8のステップS72において表示される表示画面の一例を示す図である。FIG. 9 is a diagram showing an example of a display screen displayed in step S72 of FIG. 図10は、図8のステップS76において表示される、整合判定機能の比較結果の表示画面の一例を示す図である。FIG. 10 is a diagram showing an example of a display screen of the comparison result of the matching determination function displayed in step S76 of FIG. 図11は、図1のディスプレイに表示される、画像厚調整ツールとアノテーション厚調整ツールとが表示された表示画面を示す図である。FIG. 11 is a diagram showing a display screen on which the image thickness adjustment tool and the annotation thickness adjustment tool are displayed, which are displayed on the display of FIG. 1. 図12は、図11の表示画像のスラブ厚とアノテーションのスラブ厚とを模式的に示す図である。FIG. 12 is a diagram schematically showing the slab thickness of the display image of FIG. 11 and the slab thickness of the annotation. 図13は、図1のディスプレイに表示される、画像厚調整ツールとアノテーション厚調整ツールとの他の表示例を示す図である。FIG. 13 is a diagram showing another display example of the image thickness adjustment tool and the annotation thickness adjustment tool displayed on the display of FIG. 1. 図14は、図1の付与領域決定機能によるアノテーションの補間処理を模式的に示す図である。FIG. 14 is a diagram schematically showing an annotation interpolation process by the grant area determination function of FIG. 1. 図15は、図1の付与領域決定機能によるアノテーションの補間処理の応用を模式的に示す図である。FIG. 15 is a diagram schematically showing an application of annotation interpolation processing by the grant area determination function of FIG. 1.

以下、図面を参照しながら本実施形態に係わる医用画像処理装置を説明する。 Hereinafter, the medical image processing apparatus according to the present embodiment will be described with reference to the drawings.

本実施形態に係る医用画像処理装置は、医用画像データに画像処理を施すコンピュータである。医用画像処理装置としては、ワークステーションや画像閲覧装置(ビューワ)、読影レポート作成装置、PACS(Picture Archiving and Communication System)等の医療施設等で用いられるコンピュータでもよいし、医用画像診断装置に含まれるコンピュータでもよい。医用画像診断装置としては、X線コンピュータ断層撮影装置、X線診断装置、磁気共鳴イメージング装置、超音波診断装置、核医学診断装置等の如何なる医用モダリティにも適用可能である。以下、本実施形態に係る医用画像処理装置は、説明を具体的に行うため、画像処理を行うワークステーションであるとする。 The medical image processing apparatus according to the present embodiment is a computer that performs image processing on medical image data. The medical image processing device may be a computer used in a medical facility such as a workstation, an image viewing device (viewer), an image interpretation report creation device, or a PACS (Picture Archiving and Communication System), and is included in the medical diagnostic imaging device. It may be a computer. The medical image diagnostic device can be applied to any medical modality such as an X-ray computer tomography device, an X-ray diagnostic device, a magnetic resonance imaging device, an ultrasonic diagnostic device, and a nuclear medical diagnostic device. Hereinafter, the medical image processing apparatus according to the present embodiment is assumed to be a workstation that performs image processing in order to give a specific explanation.

本実施形態に係る医用画像データは、医用画像診断装置により生成された、被検体を対象とする画像データである。医用画像データは、2次元状に配列された複数のピクセルの集合である2次元画像データでもよいし、3次元状に配列された複数のボクセルの集合である3次元画像データもよい。しかしながら、以下の説明を具体的に行うため、医用画像データは、3次元画像データであるとする。また、ピクセルとボクセルとをまとめて画素と呼ぶことにする。 The medical image data according to the present embodiment is image data for a subject generated by a medical image diagnostic apparatus. The medical image data may be two-dimensional image data which is a set of a plurality of pixels arranged in a two-dimensional manner, or may be three-dimensional image data which is a set of a plurality of voxels arranged in a three-dimensional shape. However, in order to make the following description concrete, it is assumed that the medical image data is three-dimensional image data. Pixels and voxels are collectively referred to as pixels.

図1に示すように、本実施形態に係る医用画像処理装置1は、処理回路11、メモリ13、入力インタフェース15、通信インタフェース17及びディスプレイ19を有する。 As shown in FIG. 1, the medical image processing apparatus 1 according to the present embodiment includes a processing circuit 11, a memory 13, an input interface 15, a communication interface 17, and a display 19.

処理回路11は、CPU(Central Processing Unit)及びGPU(Graphics Processing Unit)等のプロセッサを有する。当該プロセッサがメモリ13等にインストールされた教師データ作成プログラムを起動することにより、画像読出機能111、テキスト読出機能112、付与領域決定機能113、整合判定機能114、画像処理機能115、表示制御機能116、記憶制御機能117及び機械学習機能118等を実行する。なお、各機能111~118は単一の処理回路で実現される場合に限らない。複数の独立したプロセッサを組み合わせて処理回路を構成し、各プロセッサがプログラムを実行することにより各機能111~118を実現するものとしても構わない。 The processing circuit 11 has a processor such as a CPU (Central Processing Unit) and a GPU (Graphics Processing Unit). When the processor activates the teacher data creation program installed in the memory 13 or the like, the image reading function 111, the text reading function 112, the given area determination function 113, the matching determination function 114, the image processing function 115, and the display control function 116 , The memory control function 117, the machine learning function 118, and the like are executed. It should be noted that each function 111 to 118 is not limited to the case where it is realized by a single processing circuit. A processing circuit may be configured by combining a plurality of independent processors, and each processor may execute a program to realize each function 111 to 118.

画像読出機能111において処理回路11は、メモリ13から処理対象の医用画像データを読み出す。処理対象の医用画像データは、画像認識に関する機械学習の教師データとして用いられる医用画像データである。 In the image reading function 111, the processing circuit 11 reads the medical image data to be processed from the memory 13. The medical image data to be processed is medical image data used as teacher data for machine learning related to image recognition.

テキスト読出機能112において処理回路11は、メモリ13から処理対象の医用画像データに関連付けられたテキストデータを読み出す。テキストデータは、医用画像データの被検体に関する臨床情報を表す文章のデータである。 In the text reading function 112, the processing circuit 11 reads the text data associated with the medical image data to be processed from the memory 13. The text data is textual data representing clinical information regarding a subject of medical image data.

付与領域決定機能113において処理回路11は、画像読出機能111により読み出された医用画像データに対しアノテーションの付与領域を、入力インタフェース15を介したユーザによる指示に従い決定する。本実施形態に係るアノテーションは、医用画像データに付される、画像認識の対象領域を規定するグラフィカルデータである。 In the imparting area determination function 113, the processing circuit 11 determines an annotation addition area for the medical image data read by the image reading function 111 according to an instruction by the user via the input interface 15. The annotation according to the present embodiment is graphical data attached to the medical image data and defining a target area for image recognition.

整合判定機能114において処理回路11は、付与領域決定機能113により決定されたアノテーションの付与領域とテキスト読出機能112により読み出されたテキストの臨床情報との比較結果を出力する。すなわち、整合判定機能114においては、アノテーションの付与領域とテキストが示す臨床情報との整合性が判定される。 In the matching determination function 114, the processing circuit 11 outputs a comparison result between the annotation area of the annotation determined by the addition area determination function 113 and the clinical information of the text read by the text reading function 112. That is, in the matching determination function 114, the consistency between the annotation area and the clinical information indicated by the text is determined.

画像処理機能115において処理回路11は、一定の読影条件で連続して作業するために画像読出機能111により読み出された医用画像データ等に、画像位置や表示画像種も含め表示条件を揃えるための種々の画像処理を施す。典型的には、処理回路11は、画像処理として、MPR(Multi-Planer Reconstruction)処理を3次元の医用画像データに施し、所定の表示断面(MPR断面)に関する2次元の表示画像データを生成する。なお、処理回路11は、MPR処理の他、ボリュームレンダリングやサーフェスボリュームレンダリング、画素値投影処理、CPR(Curved MPR)処理等の画像処理を行うことも可能である。 In the image processing function 115, the processing circuit 11 aligns the display conditions including the image position and the display image type with the medical image data or the like read by the image reading function 111 in order to continuously work under a constant image reading condition. Various image processing is performed. Typically, the processing circuit 11 applies MPR (Multi-Planer Reconstruction) processing to three-dimensional medical image data as image processing to generate two-dimensional display image data relating to a predetermined display cross section (MPR cross section). .. In addition to MPR processing, the processing circuit 11 can also perform image processing such as volume rendering, surface volume rendering, pixel value projection processing, and CPR (Curved MPR) processing.

表示制御機能116において処理回路11は、種々の情報をディスプレイ19に表示する。例えば、処理回路11は、画像読出機能111により読み出された医用画像データに基づく表示画像とテキスト読出機能112により読み出されたテキストデータに対応するテキストとをディスプレイ19に表示する。また、処理回路11は、表示画像データにアノテーションを描画する。 In the display control function 116, the processing circuit 11 displays various information on the display 19. For example, the processing circuit 11 displays on the display 19 a display image based on the medical image data read by the image reading function 111 and a text corresponding to the text data read by the text reading function 112. Further, the processing circuit 11 draws annotations on the display image data.

記憶制御機能117において処理回路11は、メモリ13に記憶するために種々の情報をメモリ13に転送する。例えば、処理回路11は、ディスプレイ19に表示された表示画像に対応する表示画像データをメモリ13に記憶させる。 In the storage control function 117, the processing circuit 11 transfers various information to the memory 13 for storage in the memory 13. For example, the processing circuit 11 stores the display image data corresponding to the display image displayed on the display 19 in the memory 13.

機械学習機能118において処理回路11は、アノテーションが付与された医用画像データに対して、画像認識に関する機械学習を行う。例えば、処理回路11は、アノテーションが付与された医用画像データをDNN(Deep Neural Network)に入力し、アノテーションの付与領域の解剖学的部位の分類結果を出力する。画像認識に関するDNNの一つとしてCNN(Convolutional Neural Network)が挙げられる。 In the machine learning function 118, the processing circuit 11 performs machine learning related to image recognition on the annotated medical image data. For example, the processing circuit 11 inputs the annotated medical image data to the DNN (Deep Neural Network), and outputs the classification result of the anatomical part of the annotated region. CNN (Convolutional Neural Network) is one of the DNNs related to image recognition.

メモリ13は、種々の情報を記憶するROM(Read Only Memory)やRAM(Random Access Memory)、HDD(Hard Disk Drive)、SSD(Solid State Drive)、集積回路記憶装置等の記憶装置である。メモリ13は、上記記憶装置以外にも、CD(Compact Disc)、DVD(Digital Versatile Disc)、フラッシュメモリ等の可搬型記憶媒体や、半導体メモリ素子等との間で種々の情報を読み書きする駆動装置であってもよい。また、メモリ13は、医用画像処理装置1にネットワークを介して接続された他のコンピュータ内にあってもよい。例えば、メモリ13は、教師データ作成プログラムを記憶する。また、メモリ13は、医用画像データと臨床情報とを関連付けて記憶する。 The memory 13 is a storage device such as a ROM (Read Only Memory), a RAM (Random Access Memory), an HDD (Hard Disk Drive), an SSD (Solid State Drive), or an integrated circuit storage device that stores various information. In addition to the above storage device, the memory 13 is a drive device for reading and writing various information between a portable storage medium such as a CD (Compact Disc), a DVD (Digital Versatile Disc), and a flash memory, a semiconductor memory element, and the like. May be. Further, the memory 13 may be in another computer connected to the medical image processing device 1 via a network. For example, the memory 13 stores a teacher data creation program. Further, the memory 13 stores medical image data in association with clinical information.

例えば、医用画像データには、読影レポートや電子カルテ等のテキストデータに関連付けられている。テキストデータは、具体的には、所見や診療録、問診結果、検査オーダ、検査指示等の、医用画像データの被写体である被検体の臨床情報を表す文章のデータである。本実施形態に係る臨床情報は、被検体に生じた病変の手がかりになる情報である。すなわち、テキストデータは、臨床情報の一形態であり、病変の種類や場所等を示す単語や文節、文章である。メモリ13には、医用画像データと臨床情報との複数の組合せが記憶されている。 For example, medical image data is associated with text data such as interpretation reports and electronic medical records. Specifically, the text data is text data representing clinical information of a subject, which is the subject of medical image data, such as findings, medical records, interview results, examination orders, and examination instructions. The clinical information according to this embodiment is information that serves as a clue for a lesion generated in a subject. That is, text data is a form of clinical information, and is a word, phrase, or sentence indicating the type and location of a lesion. A plurality of combinations of medical image data and clinical information are stored in the memory 13.

入力インタフェース15は、ユーザからの各種の入力操作を受け付け、受け付けた入力操作を電気信号に変換して処理回路11に出力する。具体的には、入力インタフェース15は、マウス、キーボード、トラックボール、スイッチ、ボタン、ジョイスティック、タッチパッド及びタッチパネルディスプレイ等の入力機器に接続されている。入力インタフェース15は、当該入力機器への入力操作に応じた電気信号を処理回路11へ出力する。また、入力インタフェース15に接続される入力機器は、ネットワーク等を介して接続された他のコンピュータに設けられた入力機器でも良い。 The input interface 15 receives various input operations from the user, converts the received input operations into electric signals, and outputs the received input operations to the processing circuit 11. Specifically, the input interface 15 is connected to an input device such as a mouse, keyboard, trackball, switch, button, joystick, touch pad, and touch panel display. The input interface 15 outputs an electric signal corresponding to an input operation to the input device to the processing circuit 11. Further, the input device connected to the input interface 15 may be an input device provided in another computer connected via a network or the like.

通信インタフェース17は、他のコンピュータとの間でデータ通信するためのインタフェースである。例えば、通信インタフェース17は、PACSからネットワークを介して、教師データとして利用される医用画像データとテキストデータとの複数の組合せを受信する。 The communication interface 17 is an interface for data communication with another computer. For example, the communication interface 17 receives a plurality of combinations of medical image data and text data used as teacher data from PACS via a network.

ディスプレイ19は、処理回路11の表示制御機能116に従い種々の情報を表示する。例えば、ディスプレイ19は、画像読出機能111により読み出された医用画像データに基づく表示画像とテキスト読出機能112により読み出されたテキストデータに対応するテキストとを表示する。ディスプレイ19としては、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)、CRT(Cathode Ray Tube)ディスプレイ、有機ELディスプレイ(OELD:Organic Electro Luminescence Display)、プラズマディスプレイ又は他の任意のディスプレイが適宜使用可能である。 The display 19 displays various information according to the display control function 116 of the processing circuit 11. For example, the display 19 displays a display image based on the medical image data read by the image reading function 111 and a text corresponding to the text data read by the text reading function 112. As the display 19, for example, a liquid crystal display (LCD), a CRT (Cathode Ray Tube) display, an organic EL display (OELD), a plasma display or any other display can be appropriately used. be.

以下、本実施形態に係る医用画像処理装置1の動作例について説明する。 Hereinafter, an operation example of the medical image processing apparatus 1 according to the present embodiment will be described.

図2は、本実施形態に係る医用画像処理装置1の処理回路11による教師データ作成処理の典型的な流れを示す図である。図2に示す処理は、処理回路11がメモリ13から教師データ作成プログラムを読み出して実行することにより実現される。なお、図2の処理の前段において、教師データの候補となる医用画像データとテキストデータとの複数の組合せが予めPACS等から通信インタフェース17等を介して取得され、メモリ13に記憶されているものとする。教師データの作成においては、作成対象とする症例に関する多数の医用画像データを用意し、当該医用画像データ各々についてアノテーションを付与する。すなわち、メモリ13に記憶される医用画像データは、何れの症例に関するものであるかが判明しているものとする。 FIG. 2 is a diagram showing a typical flow of teacher data creation processing by the processing circuit 11 of the medical image processing apparatus 1 according to the present embodiment. The process shown in FIG. 2 is realized by the processing circuit 11 reading the teacher data creation program from the memory 13 and executing the program. In the first stage of the process of FIG. 2, a plurality of combinations of medical image data and text data, which are candidates for teacher data, are previously acquired from PACS or the like via the communication interface 17 or the like and stored in the memory 13. And. In the creation of teacher data, a large number of medical image data related to the cases to be created are prepared, and annotations are added to each of the medical image data. That is, it is assumed that it is known which case the medical image data stored in the memory 13 is related to.

図2に示すように、まず、処理回路11は、画像読出機能111を実行する(ステップS1)。ステップS1において処理回路11は、教師データの作成対象の症例に関する1ボリュームの医用画像データをメモリ13から読み出す。 As shown in FIG. 2, first, the processing circuit 11 executes the image reading function 111 (step S1). In step S1, the processing circuit 11 reads out one volume of medical image data regarding the case for which the teacher data is to be created from the memory 13.

ステップS1が行われると処理回路11は、画像処理機能115を実行する(ステップS2)。ステップS2において処理回路11は、ステップS1において読み出した医用画像データに基づいて、撮影軸基準の第一の表示断面に関する表示画像を生成する。以下、撮影軸基準の第一の表示断面をオリジナルの表示断面と呼ぶことにする。 When step S1 is performed, the processing circuit 11 executes the image processing function 115 (step S2). In step S2, the processing circuit 11 generates a display image relating to the first display cross section of the imaging axis reference based on the medical image data read in step S1. Hereinafter, the first display cross section of the imaging axis reference will be referred to as an original display cross section.

ステップS2が行われると処理回路11は、表示制御機能116を実行する(ステップS3)。ステップS3において処理回路11は、ステップS2において生成されたオリジナルの表示断面の表示画像をディスプレイ19に表示する。 When step S2 is performed, the processing circuit 11 executes the display control function 116 (step S3). In step S3, the processing circuit 11 displays the display image of the original display cross section generated in step S2 on the display 19.

図3は、撮影軸A1基準のオリジナルの表示断面31と被検体Pとの位置関係を模式的に示す図である。図3に示すように、撮影軸A1は、医用画像データを収集した医用モダリティの撮影基準線である。例えば、医用モダリティがX線コンピュータ断層撮影装置である場合、撮影軸A1は、ガントリの回転部の回転中心軸、換言すれば、被検体Pが載置される天板33の長軸に平行に規定される。医用撮像においては撮影軸A1に被検体軸A2が一致するように位置合わせされる。被検体軸A2は、撮像対象部位の基準線であり、典型的には、被検体Pの全身の体軸に規定される。医用画像データは撮影軸A1を基準とした座標系により規定される。被検体軸A2が撮影軸A1に一致しているという仮定の下、被検体軸A2を基準とする直交三断面(アキシャル断面、サジタル断面及びコロナル断面)が規定される。オリジナルの表示断面として被検体軸A2を基準とする直交三断面の表示画像が生成される。例えば、アキシャル断面31は、撮影軸A1に直交する断面に規定される。図示しないが、コロナル断面は、撮影軸A1に平行し且つ鉛直軸に直交する断面に規定され、サジタル断面は、撮影軸A1及び鉛直軸に平行する断面に規定される。アキシャル断面に関する表示画像(以下、アキシャル画像)、サジタル断面に関する表示画像(以下、サジタル画像)及びコロナル断面に関する表示画像(以下、コロナル画像)は、ステップS1において読み出された医用画像データにMPR処理を施すことにより生成される。 FIG. 3 is a diagram schematically showing the positional relationship between the original display cross section 31 based on the imaging axis A1 and the subject P. As shown in FIG. 3, the imaging axis A1 is an imaging reference line of a medical modality in which medical image data is collected. For example, when the medical modality is an X-ray computer tomography apparatus, the imaging axis A1 is parallel to the rotation center axis of the rotating portion of the gantry, in other words, the long axis of the top plate 33 on which the subject P is placed. It is stipulated. In medical imaging, the subject axis A2 is aligned with the imaging axis A1. The subject axis A2 is a reference line of the imaging target site, and is typically defined on the body axis of the whole body of the subject P. The medical image data is defined by a coordinate system with reference to the imaging axis A1. Under the assumption that the subject axis A2 coincides with the imaging axis A1, three orthogonal cross sections (axial cross section, sagittal cross section, and coronal cross section) with respect to the subject axis A2 are defined. As the original display cross section, a display image of three orthogonal cross sections with respect to the subject axis A2 is generated. For example, the axial cross section 31 is defined as a cross section orthogonal to the photographing axis A1. Although not shown, the coronal cross section is defined as a cross section parallel to the imaging axis A1 and orthogonal to the vertical axis, and the sagittal cross section is defined as a cross section parallel to the imaging axis A1 and the vertical axis. The display image relating to the axial cross section (hereinafter referred to as the axial image), the display image relating to the sagittal cross section (hereinafter referred to as the sagittal image), and the display image relating to the coronal cross section (hereinafter referred to as the coronal image) are subjected to MPR processing on the medical image data read in step S1. Is generated by applying.

図4は、オリジナルの表示断面に関する表示画像の表示画面IS1の一例を示す図である。図4に示すように、表示画面IS1には、オリジナルの表示断面に関する表示画像I1として、撮影軸A1を基準としたアキシャル画像I1-1、コロナル画像I1-2及びサジタル画像I1-3が表示される。メインの表示画像が表示画面IS1において大きいサイズで表示され、他のサブの表示画像がメインの表示画像に比して小さいサイズで表示される。図4においては、アキシャル画像I1-1がメインの表示画像として表示され、コロナル画像I1-2及びサジタル画像I1-3がサブの表示画像として表示される。メインの表示画像は、入力インタフェース15等を介したユーザ指示に従いアキシャル画像I1-1、コロナル画像I1-2及びサジタル画像I1-3の中から任意に変更可能である。また、処理回路11は、メインの表示画像として、入力インタフェース15等を介したユーザ指示に従う任意の断面(オブリーク断面)に関する表示画像を医用画像データに基づいて生成しても良い。 FIG. 4 is a diagram showing an example of a display screen IS1 of a display image relating to an original display cross section. As shown in FIG. 4, the display screen IS1 displays an axial image I1-1, a coronal image I1-2, and a sagittal image I1-3 with reference to the photographing axis A1 as a display image I1 relating to the original display cross section. To. The main display image is displayed in a large size on the display screen IS1, and the other sub display images are displayed in a smaller size than the main display image. In FIG. 4, the axial image I1-1 is displayed as the main display image, and the coronal image I1-2 and the sagittal image I1-3 are displayed as the sub display images. The main display image can be arbitrarily changed from the axial image I1-1, the coronal image I1-2, and the sagittal image I1-3 according to the user's instruction via the input interface 15 and the like. Further, the processing circuit 11 may generate a display image relating to an arbitrary cross section (oblique cross section) according to a user instruction via an input interface 15 or the like as a main display image based on medical image data.

図4に示すように、処理回路11は、表示画面IS1に、回転ボタンB1と固定ボタンB2とを表示する。回転ボタンB1は、表示断面の回転を指示するためのGUI(Graphical User Interface)ボタンである。回転ボタンB1は、表示画面IS1への表示対象を、撮影軸を基準とするオリジナルの表示断面から、被検体軸を基準とする第二の表示断面へ変更するために設けられる。以下、第二の表示断面をセカンダリの表示断面と呼ぶことにする。固定ボタンB2は、表示断面の回転を停止するためのGUIボタンである。 As shown in FIG. 4, the processing circuit 11 displays the rotation button B1 and the fixed button B2 on the display screen IS1. The rotation button B1 is a GUI (Graphical User Interface) button for instructing rotation of the display cross section. The rotation button B1 is provided to change the display target on the display screen IS1 from the original display cross section based on the imaging axis to the second display cross section based on the subject axis. Hereinafter, the second display cross section will be referred to as a secondary display cross section. The fixed button B2 is a GUI button for stopping the rotation of the display cross section.

図5は、表示断面の回転の必要性を模式的に示す図である。図5に示すように、被検体軸(具体的には、被検体の体軸)A2が撮影軸A1に一致しない場合がある。被検体軸A2が撮影軸A1に一致しないと、撮影軸A1に直交するオリジナルのアキシャル断面31は、被検体軸A2に直交せず、真のアキシャル断面とはいえない。大量の表示画像のうちの特定の解剖学的部位にアノテーションを描画する教師データ作成処理においては、アノテーションの描画効率等の観点から、表示断面が被検体軸A2に対して常に一定の向きであることが望まれる。被検体軸A2に対する表示断面の向きは一定でないとするとユーザは、アノテーションの付与対象である解剖学的部位を見つけづらいからである。そこで、本実施形態に係る画像処理機能115は、ステップSA4において被検体軸A2を基準とする第二の表示断面に関する表示画像を生成する。 FIG. 5 is a diagram schematically showing the necessity of rotation of the display cross section. As shown in FIG. 5, the subject axis (specifically, the body axis of the subject) A2 may not coincide with the imaging axis A1. If the subject axis A2 does not coincide with the imaging axis A1, the original axial cross section 31 orthogonal to the imaging axis A1 is not orthogonal to the subject axis A2 and cannot be said to be a true axial cross section. In the teacher data creation process for drawing annotations on a specific anatomical part of a large number of display images, the display cross section is always oriented in a fixed direction with respect to the subject axis A2 from the viewpoint of annotation drawing efficiency and the like. Is desired. This is because if the orientation of the display cross section with respect to the subject axis A2 is not constant, it is difficult for the user to find the anatomical site to which the annotation is to be added. Therefore, the image processing function 115 according to the present embodiment generates a display image relating to the second display cross section with respect to the subject axis A2 in step SA4.

ユーザにより入力インタフェース15を介して回転ボタンB1が押下された場合、処理回路11は、画像処理機能115を実行する(ステップS4)、ステップS4において処理回路11は、表示断面を回転して、被検体軸基準の第二の表示断面に関する表示画像を生成する。 When the rotation button B1 is pressed by the user via the input interface 15, the processing circuit 11 executes the image processing function 115 (step S4), and in step S4, the processing circuit 11 rotates the display cross section and is covered. Generate a display image for the second display cross section of the sample axis reference.

図6は、ステップS4における表示断面の回転処理を模式的に示す図である。図6に示すように、被検体軸A2が撮影軸A1に一致せず、オリジナルの表示断面31であるアキシャル断面が被検体軸A2に非直交であるとする。ユーザにより入力インタフェース15を介して回転ボタンB1が押下された場合、処理回路11は、表示断面31を、被検体軸A2に直交する表示断面35まで自動的に回転する。 FIG. 6 is a diagram schematically showing the rotation process of the display cross section in step S4. As shown in FIG. 6, it is assumed that the subject axis A2 does not coincide with the imaging axis A1 and the axial cross section, which is the original display cross section 31, is non-orthogonal to the subject axis A2. When the rotation button B1 is pressed by the user via the input interface 15, the processing circuit 11 automatically rotates the display cross section 31 to the display cross section 35 orthogonal to the subject axis A2.

ステップS4が行われると処理回路11は、固定ボタンの押下を待機する(ステップS6)。ユーザは、表示断面の回転の完了後、入力インタフェース15を介して固定ボタンを押下する。回転ボタンの押下後は固定ボタンの押下に起因してアノテーションの付与処理(ステップS7)が可能になる。 When step S4 is performed, the processing circuit 11 waits for the fixed button to be pressed (step S6). After completing the rotation of the display cross section, the user presses the fixing button via the input interface 15. After pressing the rotation button, annotation processing (step S7) becomes possible due to the pressing of the fixed button.

ステップS6において固定ボタンが押下された場合(ステップS6:YES)、処理回路11は、アノテーションの付与処理を実行する(ステップS7)。 When the fixed button is pressed in step S6 (step S6: YES), the processing circuit 11 executes annotation processing (step S7).

図7は、アノテーションの付与処理の実行画面I2の一例を示す図である。図7に示すように、表示画面IS2には、被検体軸A2を基準としたアキシャル画像I2-1、コロナル画像I2-2及びサジタル画像I2-3が表示される。ユーザは、アキシャル画像I2-1、コロナル画像I2-2及びサジタル画像I2-3を観察し、教師データの作成対象である解剖学的部位を見つけ出す。そしてユーザは、入力インタフェース15を介して、アキシャル画像I2-1等の表示画像I2のうちの当該解剖学的部位に対応する画像領域を指定する。処理回路11は、入力インタフェース15を介して指定された表示画像領域に対応する、医用画像データ内の医用画像領域を特定し、特定された医用画像領域にアノテーションを付与する。 FIG. 7 is a diagram showing an example of the execution screen I2 of the annotation processing. As shown in FIG. 7, the display screen IS2 displays an axial image I2-1, a coronal image I2-2, and a sagittal image I2-3 with respect to the subject axis A2. The user observes the axial image I2-1, the coronal image I2-2, and the sagittal image I2-3 to find out the anatomical site for which the teacher data is to be created. Then, the user designates an image region corresponding to the anatomical part of the display image I2 such as the axial image I2-1 via the input interface 15. The processing circuit 11 identifies a medical image area in the medical image data corresponding to the designated display image area via the input interface 15, and annotates the specified medical image area.

アノテーションの付与領域の指定方法としては、例えば、以下の方法が挙げられる。
1)認識対象の領域(例:腫瘍)の領域そのものを、円を描くなどの方法でユーザが指定する。2)認識対象の領域「以外」をユーザが指定することで、認識対象の領域を指定する。3)認識対象が、領域ではなく「点」または「線」で指定される。4)認識対象の領域の内部の1点をユーザが指定すると、同じ画素値を持つ領域をワークステーションで検出し、その領域を認識対象の領域として指定する。5)動画像の各フレームに対して認識対象を指定することで、時間とともに領域が変化するような認識対象を指定する。
Examples of the method for designating the annotation area include the following methods.
1) The user specifies the area of the recognition target area (eg, tumor) itself by drawing a circle or the like. 2) The area to be recognized is specified by the user by specifying "other than" the area to be recognized. 3) The recognition target is specified by a "point" or "line" instead of an area. 4) When the user specifies one point inside the area to be recognized, the workstation detects an area having the same pixel value, and the area is designated as the area to be recognized. 5) By designating the recognition target for each frame of the moving image, the recognition target whose area changes with time is designated.

本実施形態に係る処理回路11は、アノテーションの付与作業を簡便・容易にするための種々の処理を実行可能である。これら処理については後述する。 The processing circuit 11 according to the present embodiment can execute various processes for simplifying and facilitating the annotation work. These processes will be described later.

ステップS7が行われると処理回路11は、記憶制御機能117を実行する(ステップS8)。ステップS8において処理回路11は、表示画像のデータをセカンダリの表示断面の向きと共にメモリ13に保存する。例えば、表示画面に保存ボタンが表示され、当該保存ボタンが入力インタフェース15等を介して押下されたことを契機として処理回路11は、表示画像のデータをセカンダリの表示断面の向きと共にメモリ13に保存する。当該表示断面の向きと共に表示画像のデータを保存することにより、ステップS4における回転処理を実行することなく、セカンダリの表示画像を表示させることが可能になる。 When step S7 is performed, the processing circuit 11 executes the memory control function 117 (step S8). In step S8, the processing circuit 11 stores the data of the display image in the memory 13 together with the orientation of the display cross section of the secondary. For example, when the save button is displayed on the display screen and the save button is pressed via the input interface 15 or the like, the processing circuit 11 saves the data of the display image in the memory 13 together with the orientation of the secondary display cross section. do. By saving the data of the display image together with the orientation of the display cross section, it is possible to display the secondary display image without executing the rotation process in step S4.

ステップS8が行われると処理回路11は、他の医用画像データについて処理するか否かを判定する(ステップS9)。教師データの作成対象である同一の症例に関する医用画像データがメモリ13に存在する場合、他の医用画像データについて処理すると判定し(ステップS9:YES)、処理回路11は、当該他の医用画像データについて再びステップS1-S9を繰り返す。そして教師データの作成対象である同一の症例に関する医用画像データがメモリ13に存在せず、他の医用画像データについて処理しないと判定した場合(ステップS9:NO)、処理回路11は、教師データ作成処理を終了する。 When step S8 is performed, the processing circuit 11 determines whether or not to process other medical image data (step S9). When the medical image data relating to the same case for which the teacher data is to be created exists in the memory 13, it is determined that the other medical image data is processed (step S9: YES), and the processing circuit 11 determines the other medical image data. Steps S1-S9 are repeated again. When it is determined that the medical image data relating to the same case for which the teacher data is to be created does not exist in the memory 13 and the other medical image data is not processed (step S9: NO), the processing circuit 11 creates the teacher data. End the process.

以上により、本実施形態に係る教師データ作成処理が終了する。 As a result, the teacher data creation process according to the present embodiment is completed.

なお、本実施形態に係る教師データ作成処理の手順は図2に示す手順のみに限定されない。例えば、オリジナルの表示断面に関する表示画像の生成及び表示をすることなく、被検体軸を基準とするセカンダリの表示断面に関する表示画像を生成及び表示しても良い。被検体軸が撮影軸に一致している場合、表示断面の回転処理(ステップS4)は行われなくても良い。 The procedure of the teacher data creation process according to the present embodiment is not limited to the procedure shown in FIG. For example, a display image relating to a secondary display cross section relative to a subject axis may be generated and displayed without generating and displaying a display image relating to the original display cross section. When the subject axis coincides with the photographing axis, the rotation process (step S4) of the displayed cross section may not be performed.

教師データ作成処理が終了すると処理回路11は、機械学習機能118を実行する。機械学習機能118において処理回路11は、アノテーションが付与された医用画像データをCNN等の画像認識に関するDNNに適用して順伝播処理を行い、アノテーションの付与領域の推定認識結果を出力する。次に処理回路11は、推定認識結果と正解認識結果との差分(誤差)を当該DNNに適用して逆伝播処理を行い、勾配ベクトルを計算する。次に処理回路11は、勾配ベクトルに基づいて当該DNNの重み付き行列やバイアス等のパラメータを更新する。 When the teacher data creation process is completed, the processing circuit 11 executes the machine learning function 118. In the machine learning function 118, the processing circuit 11 applies the annotated medical image data to a DNN related to image recognition such as CNN, performs forward propagation processing, and outputs an estimated recognition result of the annotation region. Next, the processing circuit 11 applies the difference (error) between the estimated recognition result and the correct answer recognition result to the DNN to perform back propagation processing, and calculates the gradient vector. Next, the processing circuit 11 updates parameters such as the weighted matrix and bias of the DNN based on the gradient vector.

なお、機械学習機能118は、画像読出機能111、テキスト読出機能112、付与領域決定機能113及び整合判定機能114と同一の処理回路11により実装される必要はない。すなわち、機械学習機能118は、医用画像処理装置1ではなく、他のDNN学習のためのコンピュータ(以下、DNN学習装置と呼ぶ)に実装されても良い。この場合、アノテーションが付与された医用画像データは、機械学習のため、通信インタフェース17を介してDNN学習装置に送信される。そしてDNN学習装置により機械学習機能118が実行される。 The machine learning function 118 does not need to be implemented by the same processing circuit 11 as the image reading function 111, the text reading function 112, the imparting area determination function 113, and the matching determination function 114. That is, the machine learning function 118 may be mounted not on the medical image processing device 1 but on another computer for DNN learning (hereinafter, referred to as a DNN learning device). In this case, the annotated medical image data is transmitted to the DNN learning device via the communication interface 17 for machine learning. Then, the machine learning function 118 is executed by the DNN learning device.

次に、図2のステップS7におけるアノテーションの付与処理の詳細について説明する。なお、以下の説明において、教師データの作成対象の症例は脳虚血であるとする。 Next, the details of the annotation processing in step S7 of FIG. 2 will be described. In the following explanation, it is assumed that the case for which teacher data is created is cerebral ischemia.

図8は、図2のステップS7におけるアノテーションの付与処理の典型的な流れを示す図である。図8に示すように、処理回路11は、テキスト読出機能112を実行する(ステップS71)。ステップS71において処理回路11は、ステップS1において読み出された医用画像データに関連付けられたテキストデータを読み出す。テキストデータとしては、例えば、当該医用画像データに関連付けられた所見のテキストデータが読み出される。この場合、処理回路11は、所見全体のテキストデータから、典型的には、予め定義された臨床的に意味のある単語や文節、文章の単位でテキストデータを個別に抽出する。例えば、「脳虚血」や「左半身不随」に対応するテキストデータが個別に抽出される。 FIG. 8 is a diagram showing a typical flow of annotation processing in step S7 of FIG. As shown in FIG. 8, the processing circuit 11 executes the text reading function 112 (step S71). In step S71, the processing circuit 11 reads out the text data associated with the medical image data read out in step S1. As the text data, for example, the text data of the findings associated with the medical image data is read out. In this case, the processing circuit 11 individually extracts text data from the text data of the entire findings, typically in units of predefined clinically meaningful words, phrases, or sentences. For example, text data corresponding to "cerebral ischemia" and "left hemiplegia" are individually extracted.

ステップS71が行われると処理回路11は、表示制御機能116を実行する(ステップS72)。ステップS72において処理回路11は、表示画像とステップS71において読み出したテキストデータに対応するテキストとを表示する。 When step S71 is performed, the processing circuit 11 executes the display control function 116 (step S72). In step S72, the processing circuit 11 displays the display image and the text corresponding to the text data read in step S71.

図9は、ステップS72において表示される表示画面IS3の一例を示す図である。図9に示すように、表示画面IS3には、表示画像I3とステップS71において抽出されたテキストデータに対応するテキストT3とが並べて表示される。図9においては、表示画像I3に関連するテキストT3として、脳虚血に由来する脳卒中の徴候に関するテキスト「Side of symptoms」T3-1、テキスト「Time since onset」T3-2、テキスト「Neurological defect」T3-3が表示される。テキストT3は、ユーザが教師データの作成対象である症例の部位を見いだす事を支援するために表示される。例えば、左半身に不随がある場合、右脳に症状がみられるはずである。テキスト「Side of symptoms」T3-1が表示されることにより、ユーザは、右脳又は左脳の何れかに症状がみられるかはずである、ということがわかる。また、テキスト「Time since onset」T3-2が表示されることにより、脳卒中等の徴候が出現した後の画像であることがわかり、従って右脳に症状がみられるはずである、ということがわかる。また、テキスト「Neurological defect」T3-3が表示されることにより、画像に視神経障害が描出されているはずである、ということがわかる。このように、ユーザは、表示画像I3だけでなく、テキストT3が表す臨床情報を参考にすることにより、教師データの作成対象である症例の部位を容易に見いだすことができる。なおテキストT3の表示形態は特に限定されない。 FIG. 9 is a diagram showing an example of the display screen IS3 displayed in step S72. As shown in FIG. 9, the display image I3 and the text T3 corresponding to the text data extracted in step S71 are displayed side by side on the display screen IS3. In FIG. 9, as the text T3 related to the display image I3, the text “Side of symptoms” T3-1, the text “Time since onset” T3-2, and the text “Neurological defect” regarding the signs of stroke derived from cerebral ischemia. T3-3 is displayed. The text T3 is displayed to assist the user in finding the site of the case for which the teacher data is to be created. For example, if the left half of the body is paralyzed, there should be symptoms in the right brain. By displaying the text "Side of symptoms" T3-1, the user knows that he or she should have symptoms in either the right or left brain. Also, by displaying the text "Time since on set" T3-2, it can be seen that the image is after the appearance of signs such as stroke, and therefore the symptoms should be seen in the right brain. Further, by displaying the text "Neurological defect" T3-3, it can be understood that the optic nerve disorder should be depicted in the image. In this way, the user can easily find the site of the case for which the teacher data is to be created by referring to the clinical information represented by the text T3 as well as the displayed image I3. The display form of the text T3 is not particularly limited.

ステップS72が行われると処理回路11は、入力インタフェース15を介してアノテーションの描画領域が指定されることを待機する(ステップS73)。ユーザは、ステップS72において表示された表示画像とテキストとを観察しながら、教師データの作成対象である脳虚血部位を見いだす。脳虚血部位が見いだされるとユーザは、入力インタフェース15を介して表示画像の脳虚血部位に対応する表示画像領域を描画領域として指定する。 When step S72 is performed, the processing circuit 11 waits for the annotation drawing area to be designated via the input interface 15 (step S73). The user finds the cerebral ischemia site for which the teacher data is created while observing the display image and the text displayed in step S72. When the cerebral ischemia site is found, the user designates the display image area corresponding to the cerebral ischemia site of the display image as the drawing area via the input interface 15.

アノテーションの描画領域が指定された場合(ステップS73:YES)、処理回路11は、付与領域決定機能113を実行する(ステップS74)。ステップS74において処理回路11は、ステップS73において指定された描画領域に対応する、医用画像データ内の画像領域(以下、付与領域と呼ぶ)を決定する。具体的には、処理回路11は、医用画像データ内における表示断面の位置に基づいて、表示画像の描画領域に対応する医用画像データの医用画像領域の座標を計算し、当該座標に対応する医用画像領域を付与領域として決定する。 When the drawing area of the annotation is specified (step S73: YES), the processing circuit 11 executes the grant area determination function 113 (step S74). In step S74, the processing circuit 11 determines an image area (hereinafter, referred to as an imparting area) in the medical image data corresponding to the drawing area designated in step S73. Specifically, the processing circuit 11 calculates the coordinates of the medical image area of the medical image data corresponding to the drawing area of the displayed image based on the position of the display cross section in the medical image data, and the medical circuit 11 corresponds to the coordinates. The image area is determined as the imparting area.

ステップS74が行われると処理回路11は、整合判定機能114を実行する(ステップS75)。ステップS75において処理回路11は、ステップS74において決定された付与領域の位置とステップS72において表示されたテキストが示す臨床情報とを比較する。より詳細には、処理回路11は、ステップS74において決定された付与領域の解剖学的部位がステップS72において表示されたテキストが示す臨床情報に整合するか否かを判定する。例えば、処理回路11は、テキストが示す臨床情報と当該臨床情報に対応する解剖学的部位の位置条件とを関連付けたテーブル(LUT:Look Up Table)を利用して整合性の判定を行う。位置条件は、当該臨床情報に対応する解剖学的部位の位置である。当該テーブルにおいては、例えば、テキスト「Side of symptoms」に解剖学的部位「右脳」が関連付けられている。この場合、処理回路11は、まず、医用画像データ内における付与領域の位置を特定し、特定された位置が、テキストに当該テーブルにおいて関連付けられた解剖学的部位に一致しているか否かを判定する。医用画像データ内における付与領域の位置として、当該位置の解剖学的部位が特定される。付与領域に対応する解剖学的部位は、例えば、解剖学的基準点(anatomical landmark)等を用いて特定されれば良い。例えば、メモリ13は、予め複数の解剖学的基準点が登録された人体解剖図譜のデータを記憶している。人体解剖図譜は、人体の標準的な形態のデータに、当該形態に対応する解剖学的部位の識別子である解剖学的基準点を関連付けたデータである。処理回路11は、医用画像データと人体解剖図譜のデータとを位置合わせし、付与領域に対応する人体解剖図譜の位置を特定し、当該位置に関連付けられた解剖学的部位を特定する。特定された解剖学的部位と、テキストに当該テーブルにおいて関連付けられた解剖学的部位とが一致している場合、処理回路11は、付与領域がテキストの臨床情報との間で整合していると判定し、一致していない場合、整合していないと判定する。 When step S74 is performed, the processing circuit 11 executes the matching determination function 114 (step S75). In step S75, the processing circuit 11 compares the position of the imparted region determined in step S74 with the clinical information indicated by the text displayed in step S72. More specifically, the processing circuit 11 determines whether the anatomical site of the imparted region determined in step S74 is consistent with the clinical information indicated by the text displayed in step S72. For example, the processing circuit 11 determines the consistency by using a table (LUT: Look Up Table) in which the clinical information indicated by the text and the position condition of the anatomical site corresponding to the clinical information are associated with each other. The positional condition is the position of the anatomical site corresponding to the clinical information. In the table, for example, the text "Side of symptoms" is associated with the anatomical site "right brain". In this case, the processing circuit 11 first identifies the position of the imparted region in the medical image data and determines whether the identified position matches the anatomical site associated with the text in the table. do. The anatomical site at the position is specified as the position of the imparted area in the medical image data. The anatomical site corresponding to the imparted region may be specified by using, for example, an anatomical landmark. For example, the memory 13 stores data of a human anatomical chart in which a plurality of anatomical reference points are registered in advance. The human anatomical chart is data in which the data of a standard morphology of the human body is associated with an anatomical reference point which is an identifier of an anatomical site corresponding to the morphology. The processing circuit 11 aligns the medical image data and the data of the human anatomical chart, identifies the position of the human anatomical chart corresponding to the imparted region, and identifies the anatomical portion associated with the position. If the identified anatomical site matches the anatomical site associated with the text in the table, processing circuit 11 states that the grant area is consistent with the clinical information in the text. Judgment is made, and if they do not match, it is determined that they do not match.

なお、上記テーブルの位置条件は、厳密度に応じて段階付けられても良い。例えば、臨床情報「左脳に虚血あり」であるとした場合、例えば、厳密度が軽度の位置条件は「左脳」に規定され、厳密度が高度の位置条件は「脳室以外の左脳」に規定される。採用する源密度は、ユーザにより任意に設定可能である。 The position conditions of the table may be graded according to the strictness. For example, if the clinical information is "ischemia in the left brain", for example, the positional condition with mild strictness is defined as "left brain", and the positional condition with high strictness is defined as "left brain other than the ventricular". Is regulated. The source density to be adopted can be arbitrarily set by the user.

上記整合性の判定処理は、表示されたテキスト全てについて個別に行われても良いし、表示されたテキストについて順番に整合の有無を判定し、「整合無し」と判定された時点で終了しても良い。 The consistency determination process may be performed individually for all the displayed texts, or the displayed texts may be determined in order whether or not they are consistent, and the process ends when it is determined that there is no consistency. Is also good.

ステップS75が行われると処理回路11は、表示制御機能116を実行する(ステップS76)。ステップS76において処理回路11は、ステップS75における比較結果をディスプレイ19に表示する。比較結果の表示形態については種々の態様が考えられる。 When step S75 is performed, the processing circuit 11 executes the display control function 116 (step S76). In step S76, the processing circuit 11 displays the comparison result in step S75 on the display 19. Various modes can be considered for the display form of the comparison result.

図10は、整合判定機能114の比較結果の表示画面IS4の一例を示す図である。図10に示すように、表示画面IS4には表示画像I3とテキストT3とが並べて表示される。表示画像I3のちのアノテーションの描画領域にはアノテーションIAが表示される。アノテーションIAは、赤等の特定のカラーで表示される。 FIG. 10 is a diagram showing an example of the display screen IS4 of the comparison result of the matching determination function 114. As shown in FIG. 10, the display image I3 and the text T3 are displayed side by side on the display screen IS4. The annotation IA is displayed in the drawing area of the annotation after the display image I3. Annotation IA is displayed in a specific color such as red.

比較結果として、処理回路11は、テキストT3-1、テキストT3-2及びテキストT3-3のうちの「整合無し」又は「整合有り」と判定されたテキストを強調して表示する。例えば、図10に示すように、テキスト「Side of symptoms」T3-1が表示されているにも関わらず、アノテーションIAが左脳に指定された場合、アノテーションIAの描画領域(すなわち、付与領域)がテキスト「Side of symptoms」T3-1が表す臨床情報との間で整合していないと判定される。この場合、テキスト「Side of symptoms」T3-1が他のテキスト「Time since onset」T3-2及び「Neurological defect」T3-3とは異なる視覚効果で警告として強調される。警告の視覚効果としては、例えば、図10に示すように、「整合無し」と判定されたテキストを太線で表示し、「整合有り」と判定されたテキストを通常の太さの線で表示すると良い。なお、強調の視覚効果として、テキストの線種を変更しても良いし、背景や文字の色を変更しても良いし、拡大又は縮小しても良いし、点滅等しても良い。 As a comparison result, the processing circuit 11 highlights and displays the text determined to be "unmatched" or "matched" among the text T3-1, the text T3-2, and the text T3-3. For example, as shown in FIG. 10, when the annotation IA is specified in the left brain even though the text “Side of symptoms” T3-1 is displayed, the drawing area (that is, the imparting area) of the annotation IA is It is determined that the text "Side of symptoms" is inconsistent with the clinical information represented by T3-1. In this case, the text "Side of symptoms" T3-1 is highlighted as a warning with a different visual effect than the other texts "Time since onset" T3-2 and "Neurological defect" T3-3. As a visual effect of the warning, for example, as shown in FIG. 10, when the text determined to be "inconsistent" is displayed with a thick line and the text determined to be "consistent" is displayed with a line of normal thickness. good. As the visual effect of emphasis, the line type of the text may be changed, the color of the background or the character may be changed, the enlargement or reduction may be performed, the blinking may be performed, or the like.

このように「整合無し」又は「整合有り」と判定されたテキストを強調して表示することにより、ユーザは、アノテーションの付与領域と当該テキストが表す臨床情報とが整合していないことを明瞭に把握することができる。これによりアノテーションの付与間違いを低減することができる。 By emphasizing and displaying the text determined to be "inconsistent" or "inconsistent" in this way, the user can clearly indicate that the annotation area and the clinical information represented by the text are not consistent. Can be grasped. This makes it possible to reduce annotation errors.

「整合無し」の比較結果の他の表示形態として、処理回路11は、ディスプレイ19に、「アノテーションがテキストに整合していません!」等の警告メッセージを表示しても良い。その他、処理回路11は、スピーカ等を介して当該警告メッセージの音声や警告音を発しても良い。また、処理回路11は、「整合有り」と判定された場合と「整合無し」と判定された場合とでアノテーションの視覚効果を変更しても良い。例えば、「整合有り」と判定された場合、アノテーションを黄色で表示し、「整合無し」と判定された場合、アノテーションを赤色で表示すると良い。また、整合の有無の判定結果をテキストデータとしてアノテーションに付随させてメモリ13に記憶されても良い。 As another display form of the comparison result of "no matching", the processing circuit 11 may display a warning message such as "annotation does not match the text!" On the display 19. In addition, the processing circuit 11 may emit a voice or a warning sound of the warning message via a speaker or the like. Further, the processing circuit 11 may change the visual effect of the annotation depending on whether it is determined to be "matched" or "unmatched". For example, if it is determined to be "consistent", the annotation may be displayed in yellow, and if it is determined to be "unmatched", the annotation may be displayed in red. Further, the determination result of the presence / absence of matching may be attached to the annotation as text data and stored in the memory 13.

また、他の整合の比較結果の表示形態を説明する。例えば、処理回路11は、「整合無し」と判定された場合、ユーザが指定したアノテーションの描画領域にアノテーションを描画しなくても良い。換言すれば、処理回路11は、テキストの臨床情報に整合する解剖学的部位にアノテーションの描画領域が指定された場合に限定して当該描画領域にアノテーションを描画する。このように、アノテーションの描画領域を指定しているのにも関わらずアノテーションが表示されないことにより、ユーザは、アノテーションの描画領域と当該テキストが表す臨床情報とが整合していないことを明瞭に把握することができる。これによりアノテーションの付与間違いを低減することができる。 In addition, the display form of the comparison result of other matching will be described. For example, the processing circuit 11 does not have to draw the annotation in the drawing area of the annotation specified by the user when it is determined that there is no matching. In other words, the processing circuit 11 draws the annotation in the drawing area only when the drawing area of the annotation is specified in the anatomical part matching the clinical information of the text. In this way, the annotation is not displayed even though the drawing area of the annotation is specified, so that the user can clearly understand that the drawing area of the annotation and the clinical information represented by the text are not consistent. can do. This makes it possible to reduce annotation errors.

以上により、本実施形態に係るアノテーションの付与処理が終了する。 As a result, the annotation processing according to the present embodiment is completed.

なお、上記のアノテーションの付与処理は一例であって種々の変形が可能である。例えば、上記説明においては、図2のステップS7として図8のステップS71-S76が行われるとした。しかしながら、図8の処理は単独で行われても良い。すなわち、撮影軸基準のオリジナル断面の表示画像に対してテキストが並べて表示されたり、アノテーションの描画領域が指定されたりしても良い。 The above annotation processing is an example and can be modified in various ways. For example, in the above description, it is assumed that steps S71 to S76 in FIG. 8 are performed as step S7 in FIG. However, the process of FIG. 8 may be performed independently. That is, the text may be displayed side by side with respect to the display image of the original cross section of the shooting axis reference, or the drawing area of the annotation may be specified.

上記説明においては、教師データの作成対象の症例に関する医用画像データのみがメモリ13に記憶されているとした。しかしながら、本実施形態はこれに限定されない。例えば、教師データの作成対象の症例及び非作成対象の症例の双方に関する医用画像データがメモリ13に記憶されていても良い。この場合、処理回路11は、図8のステップS71のテキスト読出機能112において、当該医用画像データに関連付けられているテキストデータの中から、教師データの作成対象の症例に関連するテキストデータのみを読み出すと良い。また、メモリ13には教師データの作成対象の症例に関する医用画像データと教師データの非作成対象の症例に関する医用画像データとが記憶されても良い。この場合、処理回路11は、図2のステップS1の画像読出機能111において、教師データの作成対象の症例に関する医用画像データのみを読み出すと良い。この機能の実装により、教師データの作成対象に関わらず大量の医用画像データ及びテキストデータをメモリ13に記憶させることができる。そして処理回路11は、その大量の医用画像データ及びテキストデータの中から教師データの作成対象の症例に関するデータのみを事後的に読み出すことができる。 In the above description, it is assumed that only the medical image data relating to the case for which the teacher data is created is stored in the memory 13. However, this embodiment is not limited to this. For example, medical image data relating to both the case to be created and the case to be non-created as teacher data may be stored in the memory 13. In this case, the processing circuit 11 reads only the text data related to the case for which the teacher data is created from the text data associated with the medical image data in the text reading function 112 of step S71 in FIG. Is good. Further, the memory 13 may store medical image data relating to a case for which teacher data is to be created and medical image data relating to a case to which teacher data is not created. In this case, the processing circuit 11 may read only the medical image data related to the case for which the teacher data is to be created in the image reading function 111 in step S1 of FIG. By implementing this function, a large amount of medical image data and text data can be stored in the memory 13 regardless of the target for creating the teacher data. Then, the processing circuit 11 can read out only the data related to the case for which the teacher data is to be created ex post facto from the large amount of medical image data and text data.

上記説明においては、ステップS72において表示画像と臨床情報を示すテキストとがディスプレイ19に表示されるとした。しかしながら、本実施形態はこれに限定されない。例えば、ステップS72において臨床情報を示すテキストが表示されず、表示画像だけが表示されても良い。当該実施形態においてユーザは、ステップS76における比較結果を参照することにより、アノテーションの付与領域が臨床情報に照らし正しいか否かを判断することが可能になる。 In the above description, it is assumed that the display image and the text indicating clinical information are displayed on the display 19 in step S72. However, this embodiment is not limited to this. For example, in step S72, the text indicating clinical information may not be displayed, and only the displayed image may be displayed. In the embodiment, the user can determine whether or not the annotation region of the annotation is correct in light of clinical information by referring to the comparison result in step S76.

次に、アノテーションの付与領域の効率化及び高精度化について説明する。 Next, the efficiency and accuracy of the annotation area will be described.

本実施形態に係る処理回路11は、アノテーションの付与の効率化及び高精度化等のため、表示画像に関するスラブ厚とアノテーションに関するスラブ厚とを独立に調整可能にする。このため処理回路11は、表示画像に関するスラブ厚を調整するためのGUIツール(以下、画像厚調整ツールと呼ぶ)と、アノテーションに関するスラブ厚を調整するためのGUIツール(アノテーション厚調整ツールと呼ぶ)とを表示画面に表示する。 The processing circuit 11 according to the present embodiment makes it possible to independently adjust the slab thickness related to the display image and the slab thickness related to the annotation in order to improve the efficiency and accuracy of annotation addition. Therefore, the processing circuit 11 includes a GUI tool for adjusting the slab thickness of the display image (hereinafter referred to as an image thickness adjustment tool) and a GUI tool for adjusting the slab thickness of the annotation (referred to as an annotation thickness adjustment tool). Is displayed on the display screen.

図11は、ディスプレイ19に表示される、画像厚調整ツールGIとアノテーション厚調整ツールGAとが表示された表示画面IS5を示す図である。表示画面ISは、例えば、アノテーションIAの付与のため、図3のステップS7や図9のステップS72等において表示される。 FIG. 11 is a diagram showing a display screen IS5 displayed on the display 19 in which the image thickness adjusting tool GI and the annotation thickness adjusting tool GA are displayed. The display screen IS is displayed, for example, in step S7 of FIG. 3 or step S72 of FIG. 9 for adding annotation IA.

図11に示すように、表示画面IS5には表示画像I5が表示される。表示画像I5にはアノテーションIAが描画される。表示画像I5に並んで画像厚調整ツールGIとアノテーション厚調整ツールGAとが表示される。画像厚調整ツールGIとアノテーション厚調整ツールGAとは、色や線種等で視覚的に区別して表示される。画像厚調整ツールGIは、表示画像のスラブ厚を調整するためのGUIツールである。画像厚調整ツールGIは、つまみGI1と一対のバーGI2と中心バーGI3を含む。一対のバーGI2の間隔は、表示画像I5のスラブ厚を示す。中心バーGI3は、表示画像I5の表示断面のスラブ厚の中心を示す。例えば、マウス等により上側のGI1をドラッグしながらGI1を上に動かすことにより一対のバーGI2の間隔が広がる。処理回路11は、表示画像I5にアノテーションの付与対象の描画領域が指定された場合、一対のバーGI2の間隔に応じたスラブ厚をリアルタイムで計算し、医用画像データ内における中心バーGI3が示す表示断面の位置を特定し、特定された位置を含み且つ当該スラブ厚を有する医用画像データの画像領域を特定し、特定された画像領域に基づいて表示画像I5を生成し、ディスプレイ19にリアルタイムで表示する。 As shown in FIG. 11, the display image I5 is displayed on the display screen IS5. Annotation IA is drawn on the display image I5. The image thickness adjustment tool GI and the annotation thickness adjustment tool GA are displayed alongside the display image I5. The image thickness adjustment tool GI and the annotation thickness adjustment tool GA are visually distinguished by color, line type, or the like. The image thickness adjustment tool GI is a GUI tool for adjusting the slab thickness of the displayed image. The image thickness adjusting tool GI includes a knob GI1, a pair of bar GI2, and a center bar GI3. The spacing between the pair of bars GI2 indicates the slab thickness of the displayed image I5. The center bar GI3 indicates the center of the slab thickness of the display cross section of the display image I5. For example, by moving the GI1 upward while dragging the upper GI1 with a mouse or the like, the distance between the pair of bars GI2 is widened. When the drawing area to be annotated is designated for the display image I5, the processing circuit 11 calculates the slab thickness according to the interval between the pair of bars GI2 in real time, and displays the display indicated by the center bar GI3 in the medical image data. The position of the cross section is specified, the image area of the medical image data including the specified position and having the slab thickness is specified, the display image I5 is generated based on the specified image area, and the display image I5 is displayed in real time on the display 19. do.

図11に示すように、アノテーション厚調整ツールGAは、つまみGA1と一対のバーGA2と中心バーGA3を含む。一対のバーGA2の間隔は、アノテーションIAのスラブ厚を示す。中心バーGI3は、アノテーションIAのスラブ厚の中心を示す。例えば、マウス等により上側のGA1をドラッグしながらGA1を上に動かすことにより一対のバーGA2の間隔が広がる。処理回路11は、一対のバーGA2の間隔に応じたスラブ厚をリアルタイムで計算し、医用画像データ内における中心バーGA3が示すアノテーションIAの中心位置を特定し、特定された中心位置を含む且つ当該スラブ厚を有する医用画像データの画像領域を特定し、当該画像領域をアノテーションIAの付与領域に設定する。 As shown in FIG. 11, the annotation thickness adjusting tool GA includes a knob GA1, a pair of bars GA2, and a center bar GA3. The spacing between the pair of bars GA2 indicates the slab thickness of annotation IA. The center bar GI3 indicates the center of the slab thickness of the annotation IA. For example, by moving the GA1 upward while dragging the upper GA1 with a mouse or the like, the distance between the pair of bars GA2 is widened. The processing circuit 11 calculates the slab thickness according to the interval between the pair of bars GA2 in real time, specifies the center position of the annotation IA indicated by the center bar GA3 in the medical image data, includes the specified center position, and said the same. An image area of medical image data having a slab thickness is specified, and the image area is set as an annotation IA imparting area.

図12は、図11の表示画像I5のスラブ厚SIとアノテーションIAのスラブ厚SAとを模式的に示す図である。アノテーションIAの付与領域RAは、表示画像I5のスラブ厚に対応する画像領域ではなく、アノテーションIAのスラブ厚SAに対応する画像領域に限定して設定される。処理回路11は、画像厚調整ツールGIとアノテーション厚調整ツールGAとを提供することにより、表示画像I5のスラブ厚SIとアノテーションIAのスラブ厚SAとを個別に設定することができる。表示画像I5のスラブ厚SIとアノテーションIAのスラブ厚SAとの大小関係は特に限定されない。例えば、図12に示すように、スラブ厚SAをスラブ厚SIよりも狭めることにより、アノテーションIAの付与領域を表示画像に比して高解像度で決定することができる。また、スラブ厚SAをスラブ厚SIよりも広げることにより、アノテーションIAの付与領域を簡易且つ高効率で決定することができる。 FIG. 12 is a diagram schematically showing the slab thickness SI of the display image I5 of FIG. 11 and the slab thickness SA of the annotation IA. The annotation area RA of the annotation IA is set only in the image area corresponding to the slab thickness SA of the annotation IA, not in the image area corresponding to the slab thickness of the display image I5. By providing the image thickness adjusting tool GI and the annotation thickness adjusting tool GA, the processing circuit 11 can individually set the slab thickness SI of the display image I5 and the slab thickness SA of the annotation IA. The magnitude relationship between the slab thickness SI of the display image I5 and the slab thickness SA of the annotation IA is not particularly limited. For example, as shown in FIG. 12, by making the slab thickness SA narrower than the slab thickness SI, the region to which the annotation IA is added can be determined with a higher resolution than the displayed image. Further, by expanding the slab thickness SA more than the slab thickness SI, the region to which the annotation IA is applied can be determined easily and with high efficiency.

図13は、ディスプレイ19に表示される、画像厚調整ツールGIとアノテーション厚調整ツールGAとの他の表示例を示す図である。図13に示すように、表示画面IS6にはメイン画像としてアキシャル画像I6-1が、サブ画像としてコロナル画像I6-2とサジタル画像I6-3とが表示される。 FIG. 13 is a diagram showing another display example of the image thickness adjusting tool GI and the annotation thickness adjusting tool GA displayed on the display 19. As shown in FIG. 13, the display screen IS6 displays an axial image I6-1 as a main image, and a coronal image I6-2 and a sagittal image I6-3 as sub-images.

図13に示すように、各画像I6には他の画像の表示断面を示す断面線Lが表示される。具体的には、アキシャル画像I6-1にはコロナル画像I6-2のコロナル断面を示す断面線LACとサジタル画像I6-3のサジタル断面を示す断面線LASとが重畳され、コロナル画像I6-2にはアキシャル画像I6-1のアキシャル断面を示す断面線LCAとサジタル画像I6-3のサジタル断面を示す断面線LCSとが重畳され、サジタル画像I6-3にはアキシャル画像I6-1のアキシャル断面を示す断面線LSAとコロナル画像I6-2のコロナル断面を示す断面線LSCとが重畳される。各断面線Lの移動操作に連動して断面画像を更新することも可能である。 As shown in FIG. 13, each image I6 displays a cross-section line L indicating a display cross-section of another image. Specifically, the cross-section line LAC showing the coronal cross section of the coronal image I6-2 and the cross-section line LAS showing the sagittal cross-section of the sagittal image I6-3 are superimposed on the axial image I6-1, and are superimposed on the coronal image I6-2. Is superimposed the cross-section line LCA showing the axial cross-section of the axial image I6-1 and the cross-section line LCS showing the sagittal cross-section of the sagittal image I6-3, and the sagittal image I6-3 shows the axial cross-section of the axial image I6-1. The cross-section line LSA and the cross-section line LSC showing the coronal cross-section of the coronal image I6-2 are superimposed. It is also possible to update the cross-sectional image in conjunction with the movement operation of each cross-sectional line L.

図13に示すように、アキシャル画像I6-1に隣接してアキシャル断面のスラブ厚を調整するための画像厚調整ツールGI-1、コロナル画像I6-2に隣接してコロナル断面のスラブ厚を調整するための画像厚調整ツールGI-2、サジタル画像I6-3に隣接してサジタル断面のスラブ厚を調整するための画像厚調整ツールGI-3が表示される。メイン画像であるアキシャル画像I6-1については画像厚調整ツールGI-1に隣接してアノテーション厚調整ツールGAが表示される。図13に示すように、画像厚調整ツールGIは各断面線Lの延長線上に表示されると良い。より詳細には、画像厚調整ツールGIの中心バーが断面線Lに一致するように表示される。これにより、断面線Lが示す表示断面と画像厚調整ツールGIが示す当該表示断面のスラブ厚との関連性を直感的に理解することができる。アノテーション厚調整ツールGAによりアノテーションのスラブ厚を調整可能である。アノテーション厚調整ツールGAについても同様に、各断面線Lの延長線上に表示されると良く、より詳細には、アノテーション厚調整ツールGAの中心バーが断面線Lに一致するように表示される。これにより、断面線Lが示す表示断面と画像厚調整ツールGIが示す当該表示断面のスラブ厚とアノテーション厚調整ツールGAが示す当該アノテーションのスラブ厚との関連性を直感的に理解することができる。 As shown in FIG. 13, the image thickness adjustment tool GI-1 for adjusting the slab thickness of the axial cross section adjacent to the axial image I6-1 and the slab thickness of the coronal cross section adjusted adjacent to the coronal image I6-2. The image thickness adjusting tool GI-2 for adjusting the image thickness and the image thickness adjusting tool GI-3 for adjusting the slab thickness of the sagittal cross section are displayed adjacent to the sagittal image I6-3. For the axial image I6-1 which is the main image, the annotation thickness adjustment tool GA is displayed adjacent to the image thickness adjustment tool GI-1. As shown in FIG. 13, the image thickness adjusting tool GI is preferably displayed on an extension line of each cross-sectional line L. More specifically, the center bar of the image thickness adjustment tool GI is displayed so as to coincide with the section line L. This makes it possible to intuitively understand the relationship between the display cross section indicated by the cross section line L and the slab thickness of the display cross section indicated by the image thickness adjustment tool GI. The annotation slab thickness can be adjusted by the annotation thickness adjustment tool GA. Similarly, the annotation thickness adjusting tool GA may be displayed on an extension line of each section line L, and more specifically, the center bar of the annotation thickness adjusting tool GA is displayed so as to coincide with the section line L. This makes it possible to intuitively understand the relationship between the display cross section indicated by the cross section line L, the slab thickness of the display cross section indicated by the image thickness adjustment tool GI, and the slab thickness of the annotation indicated by the annotation thickness adjustment tool GA. ..

例えば、ユーザは、入力インタフェース15を介して、メイン画像であるアキシャル画像I6-1においてアノテーションIAの描画領域を指定する。アキシャル画像I6-1に描画されたアノテーションIAは、他の断面にも反映される。すなわち、前述の通り、処理回路11は、アノテーションIAの描画領域が指定された場合、当該描画領域に対応する医用画像データ内のアノテーションIAの付与領域を決定する。また、処理回路11は、医用画像データ内におけるコロナル断面及びサジタル断面の位置と付与領域とに基づいて、コロナル断面及びサジタル断面における描画領域を計算し、描画領域にアノテーションを描画する。図14においてはコロナル断面には描画領域が存在するが、サジタル断面には描画領域が存在しない。この場合、処理回路11は、コロナル断面の描画領域にアノテーションIAを描画する。 For example, the user specifies the drawing area of the annotation IA in the axial image I6-1 which is the main image via the input interface 15. The annotation IA drawn on the axial image I6-1 is also reflected in other cross sections. That is, as described above, when the drawing area of the annotation IA is specified, the processing circuit 11 determines the area to which the annotation IA is added in the medical image data corresponding to the drawing area. Further, the processing circuit 11 calculates the drawing area in the coronal cross section and the sagittal cross section based on the position of the coronal cross section and the sagittal cross section and the imparted area in the medical image data, and draws the annotation in the drawing area. In FIG. 14, the coronal cross section has a drawing area, but the sagittal cross section does not have a drawing area. In this case, the processing circuit 11 draws the annotation IA in the drawing area of the coronal cross section.

なお、画像厚調整ツールGI及びアノテーション厚調整ツールGAは各スラブ厚を調整可能であれば形態は特に限定されない。例えば、画像厚調整ツールGI及びアノテーション厚調整ツールGAはスライダ等のGUIツールにより実現されても良い。 The form of the image thickness adjusting tool GI and the annotation thickness adjusting tool GA is not particularly limited as long as each slab thickness can be adjusted. For example, the image thickness adjustment tool GI and the annotation thickness adjustment tool GA may be realized by a GUI tool such as a slider.

アノテーションの付与領域を三次元的に決定する場合、ユーザは、所与のスラブ厚を有する表示断面をスライドし、複数の表示断面位置で描画領域を指定する。例えば、所与のスラブ厚を有するアキシャル断面をスライドしながら描画領域が複数のアキシャル断面位置で指定される。この際、処理回路11は、アキシャル断面を被検体軸に沿って互いに重複無く段階的にスライドしても良いし、重複しながら滑らかにスライドしても良い。 When determining the annotation area three-dimensionally, the user slides a display section having a given slab thickness and specifies a drawing area at a plurality of display section positions. For example, a drawing area is specified at multiple axial cross-section positions while sliding an axial cross-section with a given slab thickness. At this time, the processing circuit 11 may slide the axial cross section stepwise along the subject axis without overlapping with each other, or may slide smoothly while overlapping.

また、処理回路11は、付与領域決定機能113において、互いに離れた二つの表示画像で付与領域が指定された場合、当該二つの付与領域に対応する二つの付与領域を包含する画像領域を、アノテーションの付与領域に設定する。この処理をアノテーションの補間処理と呼ぶことにする。 Further, when the granting area is designated by two display images separated from each other in the granting area determination function 113, the processing circuit 11 annotates the image area including the two granting areas corresponding to the two granting areas. Set in the grant area of. This process is called annotation interpolation process.

図14は、付与領域決定機能113によるアノテーションの補間処理を模式的に示す図である。なお、図14においては、説明の簡単のため、表示画像I7のスラブ厚とアノテーションのスラブ厚とは同一であるとしている。まず、第一の表示画像I7-1においてアノテーションの描画領域が指定された場合、医用画像データDIにおいて当該描画領域に対応する付与領域RA1が決定される。次に入力インタフェース15等介した指示に従い断面移動が行われ、第一の表示画像から離れた第二の表示画像I7-2が設定される。この第二の表示断面17-2おいても同様に、医用画像データDIにおいてアノテーションの付与領域RA2が決定される。 FIG. 14 is a diagram schematically showing an annotation interpolation process by the grant area determination function 113. In FIG. 14, for the sake of simplicity, the slab thickness of the display image I7 and the slab thickness of the annotation are assumed to be the same. First, when the drawing area of the annotation is specified in the first display image I7-1, the given area RA1 corresponding to the drawing area is determined in the medical image data DI. Next, the cross-sectional movement is performed according to the instruction via the input interface 15 or the like, and the second display image I7-2 separated from the first display image is set. Similarly, in the second display cross section 17-2, the annotation region RA2 is determined in the medical image data DI.

次に処理回路11は補間処理を行う。補間処理において処理回路11は、医用画像データDIにおける付与領域RA1と付与領域RA2とを包含する画像領域を決定し、当該画像領域を補間後の付与領域RAI1に設定する。具体的には、付与領域RA1と付与領域RA2とを結ぶ直線上にある全画素が特定される。当該特定された画素の集合はアノテーションの補間領域RA3と呼ぶことができる。補間領域RA3と付与領域RA1と付与領域RA2との集合が補間後の付与領域RAI1に設定される。なお、補間は上記の直線補間に限定されず、任意の曲線補間でも良いし、直線と曲線とを合わせた補間でも良い。このようにアノテーションの補間処理を行うことにより、アノテーションの付与処理を簡便且つ高効率で行うことができる。 Next, the processing circuit 11 performs interpolation processing. In the interpolation process, the processing circuit 11 determines an image area including the given area RA1 and the given area RA2 in the medical image data DI, and sets the image area in the given area RAI1 after interpolation. Specifically, all the pixels on the straight line connecting the imparting region RA1 and the granting region RA2 are specified. The specified set of pixels can be referred to as an annotation interpolation region RA3. The set of the interpolation region RA3, the grant region RA1 and the grant region RA2 is set in the interpolation region RAI1 after interpolation. The interpolation is not limited to the above-mentioned linear interpolation, and may be arbitrary curve interpolation or interpolation that combines a straight line and a curve. By performing the annotation interpolation processing in this way, the annotation addition processing can be performed easily and with high efficiency.

なお、アノテーションの補間領域RA3には、単純な補間処理の場合、アノテーションの付与領域から除外すべき画像領域、すなわち、画像認識の対象外の画像領域が含まれてしまう場合がある。例えば、脳実質の虚血部分にアノテーションの付与領域を設定したい場合、画像認識の対象外である脳室が補間後の付与領域に含まれてしまう場合がある。処理回路11は、補間後の付与領域RAI1から画像認識の対象外領域を除外した領域を補間後の付与領域に設定する。この処理をアノテーションの補間&除外処理と呼ぶことにする。 In the case of simple interpolation processing, the annotation interpolation region RA3 may include an image region that should be excluded from the annotation region, that is, an image region that is not the target of image recognition. For example, when it is desired to set an annotation region in the ischemic portion of the brain parenchyma, the ventricles that are not the target of image recognition may be included in the interpolated region. The processing circuit 11 sets a region excluding the non-target area of image recognition from the interpolated imparted region RAI1 as the interpolated imparted region. This process is called annotation interpolation & exclusion process.

図15は、付与領域決定機能113によるアノテーションの補間処理の応用を模式的に示す図である。図15に示すように、図14と同様、医用画像データDIにおいて第一の表示画像I7-1に由来するアノテーションの付与領域RA1と第二の表示画像I7-2に由来するアノテーションの付与領域RA2とが決定される。 FIG. 15 is a diagram schematically showing the application of annotation interpolation processing by the grant area determination function 113. As shown in FIG. 14, as in FIG. 14, in the medical image data DI, the annotation region RA1 derived from the first display image I7-1 and the annotation region RA2 derived from the second display image I7-2 are added. Is decided.

次に処理回路11は補間&除外処理を行う。補間&除外処理において処理回路11は、まず、医用画像データDIに含まれる除外対象領域RB3を抽出する。除外対象領域は脳室等の任意の解剖学的部位に相当する。処理回路11は、除外対象領域RBを、閾値等により抽出することも可能であるし、解剖学的基準点を利用して抽出することも可能である。除外対象領域RBの抽出処理については特に限定されない。次に処理回路11は、医用画像データDIにおける付与領域RA1と付与領域RA2とを包含する画像領域を決定し、当該画像領域から除外対象領域RB3を除外した画像領域を補間後の付与領域RAI2に設定する。具体的には、付与領域RA1と付与領域RA2とを結ぶ補間領域(図14の補間領域RA3と同様)が特定され、当該補間領域から除外対象領域RBを除外する。除外対象領域RBの除外後の補間領域が補間&除外後の補間領域RA4に設定される。補間&除外後の補間領域RA4と付与領域RA1と付与領域RA2との集合が補間後の付与領域RAI2に設定される。このように補間&除外処理を行うことにより、除外対象領域RBを自動的にアノテーションの付与領域から除外することができるので、アノテーションの付与処理を正確且つ簡便に行うことができる。 Next, the processing circuit 11 performs interpolation & exclusion processing. In the interpolation & exclusion process, the processing circuit 11 first extracts the exclusion target area RB3 included in the medical image data DI. The excluded area corresponds to any anatomical site such as the ventricle. The processing circuit 11 can extract the exclusion target region RB by a threshold value or the like, or can extract it by using an anatomical reference point. The extraction process of the exclusion target area RB is not particularly limited. Next, the processing circuit 11 determines an image area including the given area RA1 and the given area RA2 in the medical image data DI, and sets the image area excluding the exclusion target area RB3 from the image area into the interpolated giving area RAI2. Set. Specifically, an interpolation region (similar to the interpolation region RA3 in FIG. 14) connecting the grant region RA1 and the grant region RA2 is specified, and the exclusion target region RB is excluded from the interpolation region. The interpolation area after exclusion of the exclusion target area RB is set in the interpolation area RA4 after interpolation & exclusion. The set of the interpolation region RA4, the grant region RA1 and the grant region RA2 after the interpolation & exclusion is set in the interpolation region RAI2 after the interpolation. By performing the interpolation & exclusion processing in this way, the exclusion target area RB can be automatically excluded from the annotation addition area, so that the annotation addition processing can be performed accurately and easily.

上記実施形態において臨床情報は、所見等に含まれる単語、文節又は文章が示す臨床的内容であるとした。しかしながら、本実施形態はこれに限定されない。例えば、臨床情報は、画像読出機能111により読み出された医用画像データの被検体と同一被検体に関する過去の医用画像データに付与されたアノテーションの付与領域の位置でも良い。当該過去の医用画像データは、教師データとして用いられた医用画像データでも良いし、単にアノテーションが付与された医用画像データでも良い。この場合、処理回路11は、整合判定機能114を実行し、画像読出機能111により読み出された今回の医用画像データに含まれるアノテーションの付与領域の位置と、過去の医用画像データに含まれるアノテーションの付与領域の位置とを比較する。付与領域の位置は、医用画像データにおける座標でも良いし、付与領域の解剖学的部位でも良い。比較結果の表示形態として、処理回路11は、例えば、今回のアノテーションの付与領域の位置と過去のアノテーションの付与領域の位置とが大幅に異なっている場合、警告をディスプレイ19に表示すると良い。また、今回のアノテーションの付与領域の位置と過去のアノテーションの付与領域の位置とが大幅に異なっていない場合、その旨のメッセージ等をディスプレイ19に表示しても良い。 In the above embodiment, the clinical information is defined as the clinical content indicated by words, phrases or sentences included in the findings and the like. However, this embodiment is not limited to this. For example, the clinical information may be the position of the annotation region of the annotation given to the past medical image data regarding the same subject as the subject of the medical image data read by the image reading function 111. The past medical image data may be medical image data used as teacher data, or may be simply annotated medical image data. In this case, the processing circuit 11 executes the matching determination function 114, and the position of the annotation region included in the current medical image data read by the image reading function 111 and the annotation included in the past medical image data. Compare with the position of the grant area. The position of the imparting region may be the coordinates in the medical image data or the anatomical portion of the imparting region. As a display form of the comparison result, for example, when the position of the annotation region of this time and the position of the annotation region of the past are significantly different from each other, the processing circuit 11 may display a warning on the display 19. Further, if the position of the annotation area of this time and the position of the annotation area of the past annotation are not significantly different, a message or the like to that effect may be displayed on the display 19.

他の例として、臨床情報は、画像読出機能111により読み出された医用画像データの被検体と同一被検体に関する過去の医用画像データに対する画像認識の認識結果である。当該過去の医用画像データは、今回の認識対象と同一の認識対象が明瞭に映像化された他モダリティにより収集された医用画像データが好ましい。画像認識の認識結果は、認識対象に関する画像領域である。この場合、処理回路11は、整合判定機能114を実行し、画像読出機能111により読み出された今回の医用画像データに含まれるアノテーションの付与領域の位置と、過去の医用画像データに対する画像認識結果の位置とを比較する。例えば、今回の医用画像データがX線コンピュータ断層撮影装置により収集されたCT画像データであり、過去の医用画像データが核医学診断装置により収集されたNM画像データであり、心筋虚血部位が認識対象であり、認識結果は、画像認識により心筋虚血部位であると認識された画像領域であるとする。付与領域の位置と画像認識結果の位置とは、医用画像データにおける座標でも良いし、付与領域の解剖学的部位でも良い。比較結果の表示形態として、処理回路11は、例えば、今回のアノテーションの付与領域の位置と過去の画像認識結果の位置とが大幅に異なっている場合、警告をディスプレイ19に表示すると良い。また、今回のアノテーションの付与領域の位置と過去の画像認識結果の位置とが大幅に異なっていない場合、その旨のメッセージ等をディスプレイ19に表示しても良い。 As another example, the clinical information is the recognition result of image recognition for the past medical image data regarding the same subject as the subject of the medical image data read by the image reading function 111. The past medical image data is preferably medical image data collected by another modality in which the same recognition target as the recognition target of this time is clearly visualized. The recognition result of image recognition is an image area related to a recognition target. In this case, the processing circuit 11 executes the matching determination function 114, and the position of the annotation region included in the current medical image data read by the image reading function 111 and the image recognition result for the past medical image data. Compare with the position of. For example, the current medical image data is CT image data collected by an X-ray computer tomography device, the past medical image data is NM image data collected by a nuclear medicine diagnostic device, and the myocardial ischemic site is recognized. It is assumed that the subject is an image region recognized as a myocardial ischemic site by image recognition. The position of the imparted region and the position of the image recognition result may be the coordinates in the medical image data or may be the anatomical portion of the imparted region. As a display form of the comparison result, for example, when the position of the annotation region of this time and the position of the past image recognition result are significantly different from each other, the processing circuit 11 may display a warning on the display 19. Further, if the position of the region to which the annotation is added this time and the position of the past image recognition result are not significantly different, a message or the like to that effect may be displayed on the display 19.

上記の通り、本実施形態に係る医用画像処理装置1は、少なくともディスプレイ19と処理回路11とを有する。ディスプレイ19には、画像認識に関する機械学習の教師データとして用いられる医用画像データが表示される。処理回路11は、付与領域決定機能113、整合判定機能114及び表示制御機能116を実現する。付与領域決定機能113において処理回路11は、医用画像データのうちの画像認識の対象領域を規定するアノテーションの付与領域を、ユーザによる指示に従い決定する。整合判定機能114において処理回路11は、医用画像データ内の付与領域の位置と当該医用画像データに関連付けられた臨床情報との比較結果を出力する。表示制御機能116において処理回路11は、整合判定機能114による比較結果をディスプレイ19に表示する。 As described above, the medical image processing apparatus 1 according to the present embodiment has at least a display 19 and a processing circuit 11. The display 19 displays medical image data used as teacher data for machine learning related to image recognition. The processing circuit 11 realizes the grant area determination function 113, the matching determination function 114, and the display control function 116. In the grant area determination function 113, the processing circuit 11 determines the annotation region of the medical image data that defines the target region for image recognition according to the instruction by the user. In the matching determination function 114, the processing circuit 11 outputs a comparison result between the position of the imparted region in the medical image data and the clinical information associated with the medical image data. In the display control function 116, the processing circuit 11 displays the comparison result by the matching determination function 114 on the display 19.

上記構成により、アノテーションを付すべき領域が指定されると、当該領域の位置と臨床情報と比較され、その比較結果が表示されるので、ユーザは、指定した領域が正しいのか否かを即時的に判断することができる。画像認識に関する機械学習の教師データの作成のために大量の画像にアノテーションを付す作業を行わなければならないが、本実施形態によれば、この作業を簡易且つ正確に行うことができる。 With the above configuration, when the area to be annotated is specified, the position of the area is compared with the clinical information and the comparison result is displayed, so that the user can immediately determine whether or not the specified area is correct. You can judge. In order to create teacher data for machine learning related to image recognition, it is necessary to perform the work of annotating a large number of images, but according to the present embodiment, this work can be performed easily and accurately.

以上説明した少なくとも1つの実施形態によれば、画像認識に関する機械学習の教師データの作成の手間を削減することができる。 According to at least one embodiment described above, it is possible to reduce the trouble of creating teacher data for machine learning related to image recognition.

上記説明において用いた「プロセッサ」という文言は、例えば、CPU、GPU、或いは、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC))、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、及びフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等の回路を意味する。プロセッサは記憶回路に保存されたプログラムを読み出し実行することで機能を実現する。なお、記憶回路にプログラムを保存する代わりに、プロセッサの回路内にプログラムを直接組み込むよう構成しても構わない。この場合、プロセッサは回路内に組み込まれたプログラムを読み出し実行することで機能を実現する。また、プログラムを実行するのではなく、論理回路の組合せにより当該プログラムに対応する機能を実現しても良い。なお、本実施形態の各プロセッサは、プロセッサごとに単一の回路として構成される場合に限らず、複数の独立した回路を組み合わせて1つのプロセッサとして構成し、その機能を実現するようにしてもよい。さらに、図1における複数の構成要素を1つのプロセッサへ統合してその機能を実現するようにしてもよい。 The term "processor" used in the above description refers to, for example, a CPU, a GPU, or an application specific integrated circuit (ASIC), a programmable logic device (for example, a simple programmable logic device (Simple Programmable Logic Device)). : SPLD), a complex programmable logic device (CPLD), and a field programmable gate array (FPGA)). The processor realizes the function by reading and executing the program stored in the storage circuit. Instead of storing the program in the storage circuit, the program may be directly embedded in the circuit of the processor. In this case, the processor realizes the function by reading and executing the program embedded in the circuit. Further, instead of executing the program, a function corresponding to the program may be realized by a combination of logic circuits. It should be noted that each processor of the present embodiment is not limited to the case where each processor is configured as a single circuit, and a plurality of independent circuits may be combined to form one processor to realize its function. good. Further, the plurality of components in FIG. 1 may be integrated into one processor to realize the function.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 Although some embodiments of the present invention have been described, these embodiments are presented as examples and are not intended to limit the scope of the invention. These embodiments can be implemented in various other embodiments, and various omissions, replacements, and changes can be made without departing from the gist of the invention. These embodiments and variations thereof are included in the scope of the invention described in the claims and the equivalent scope thereof, as are included in the scope and gist of the invention.

1 医用画像処理装置
11 処理回路
13 メモリ
15 入力インタフェース
17 通信インタフェース
19 ディスプレイ
111 画像読出機能
112 テキスト読出機能
113 付与領域決定機能
114 整合判定機能
115 画像処理機能
116 表示制御機能
117 記憶制御機能
118 機械学習機能
1 Medical image processing device 11 Processing circuit 13 Memory 15 Input interface 17 Communication interface 19 Display 111 Image reading function 112 Text reading function 113 Granted area determination function 114 Consistency judgment function 115 Image processing function 116 Display control function 117 Storage control function 118 Machine learning function

Claims (18)

用画像データが表示されるディスプレイと、
前記医用画像データにアノテーションを付与することにより画像認識に関する機械学習の教師データを生成するために、前記医用画像データのうちの前記アノテーションの付与領域を、ユーザによる指示に従い決定する決定部と、
前記医用画像データ内の前記付与領域の位置と前記医用画像データに関連付けられた臨床情報との比較結果を出力する整合判定部と、
前記比較結果を前記ディスプレイに表示する表示制御部と、
を具備し、
前記表示制御部は、前記アノテーションの付与処理における表示画面において、前記臨床情報に関する複数の解剖学的位置条件にそれぞれ対応する複数のテキストを、前記医用画像データと共に表示し、
前記整合判定部は、前記付与領域の位置が前記複数の解剖学的位置条件を満たすか否かを判定し、
前記表示制御部は、前記付与領域の位置が前記複数の解剖学的位置条件の何れかを満たさないと判定された場合、前記複数のテキストのうちの、当該満たさないと判定された解剖学的位置条件に対応するテキストを区別可能に表示する、
医用画像処理装置。
A display that displays medical image data and
In order to generate machine learning teacher data related to image recognition by annotating the medical image data, a determination unit that determines an annotation region of the medical image data according to a user's instruction. ,
A matching determination unit that outputs a comparison result between the position of the imparted region in the medical image data and clinical information associated with the medical image data, and a matching determination unit.
A display control unit that displays the comparison result on the display,
Equipped with
The display control unit displays a plurality of texts corresponding to the plurality of anatomical position conditions related to the clinical information together with the medical image data on the display screen in the annotation processing.
The matching determination unit determines whether or not the position of the imparting region satisfies the plurality of anatomical position conditions.
When the display control unit determines that the position of the imparted region does not satisfy any of the plurality of anatomical position conditions, the display control unit determines that the anatomical position of the plurality of texts does not satisfy the anatomical position. Distinguish the text corresponding to the positional condition,
Medical image processing equipment.
前記複数のテキストは、前記教師データの作成対象である症例に関するテキストであり、前記臨床情報である所見から抽出される、The plurality of texts are texts relating to the case for which the teacher data is to be created, and are extracted from the findings which are the clinical information.
請求項1記載の医用画像処理装置。The medical image processing apparatus according to claim 1.
前記複数の解剖学的位置条件の各々は、厳密度に応じて段階付けられている、請求項1記載の医用画像処理装置。The medical image processing apparatus according to claim 1, wherein each of the plurality of anatomical position conditions is graded according to the degree of rigor. 前記整合判定部は、
前記臨床情報が示す解剖学的部位に対応する解剖学的基準点を特定し、
記付与領域の位置が前記複数の解剖学的位置条件を満たすか否かを前記解剖学的基準点を介して判定する、
請求項1記載の医用画像処理装置。
The matching determination unit
Identify the anatomical reference point corresponding to the anatomical site indicated by the clinical information.
Whether or not the position of the imparted region satisfies the plurality of anatomical position conditions is determined via the anatomical reference point.
The medical image processing apparatus according to claim 1.
前記表示制御部は、前記医用画像データに基づく表示画像のちの前記付与領域に対応する画像領域に前記アノテーションを描画する、請求項1記載の医用画像処理装置。 The medical image processing device according to claim 1, wherein the display control unit draws the annotation in an image area corresponding to the imparted area in a display image based on the medical image data. 前記表示制御部は、前記臨床情報に対応する解剖学的部位に前記付与領域が指定された場合に限定して前記画像領域に前記アノテーションを描画する、請求項記載の医用画像処理装置。 The medical image processing apparatus according to claim 5 , wherein the display control unit draws the annotation on the image region only when the imparted region is designated for the anatomical site corresponding to the clinical information. 前記医用画像データに基づいて表示画像を生成する画像生成部を更に備え、
前記画像生成部は、前記医用画像データの収集に利用した医用モダリティの撮影軸を基準線とするオリジナルの表示断面に関する第一の表示画像を生成し、
前記表示制御部は、前記第一の表示画像を前記ディスプレイに表示し、
前記画像生成部は、変更指示を受けた場合、前記医用画像データに基づいて、前記医用画像データに含まれる患者領域の基準軸を前記基準線とするセカンダリの表示断面に関する第二の表示画像を生成し、
前記表示制御部は、前記第一の表示画像に代えて前記第二の表示画像を前記ディスプレイに表示する、
請求項1記載の医用画像処理装置。
Further, an image generation unit that generates a display image based on the medical image data is provided.
The image generation unit generates a first display image relating to the original display cross section with the imaging axis of the medical modality used for collecting the medical image data as a reference line.
The display control unit displays the first display image on the display.
When the image generation unit receives a change instruction, based on the medical image data, the image generation unit displays a second display image relating to a secondary display cross section having the reference axis of the patient region included in the medical image data as the reference line. Generate and
The display control unit displays the second display image on the display in place of the first display image.
The medical image processing apparatus according to claim 1.
前記表示画像のデータを記憶する記憶部を更に備え、
前記表示制御部は、前記表示画像のデータを保存するための保存ボタンを前記ディスプレイに表示し、
前記記憶部は、前記第二の表示画像において前記付与領域に対応する画像領域が指定された後に前記保存ボタンが押下された場合、前記第二の表示画像のデータと前記付与領域とを記憶する、
請求項記載の医用画像処理装置。
Further provided with a storage unit for storing the data of the display image,
The display control unit displays a save button for saving the data of the display image on the display.
The storage unit stores the data of the second display image and the grant area when the save button is pressed after the image area corresponding to the grant area is designated in the second display image. ,
The medical image processing apparatus according to claim 7 .
前記表示制御部は、前記保存ボタンが押下された場合、教師データとして用いられる他の医用画像データに基づく他の第一の表示画像を前記ディスプレイに表示する、請求項記載の医用画像処理装置。 The medical image processing device according to claim 8 , wherein the display control unit displays another first display image based on other medical image data used as teacher data on the display when the save button is pressed. .. 前記表示制御部は、前記医用画像データに基づく表示画像に関する第一のスラブ厚を調整するための第一のGUIツールと、前記アノテーションの前記付与領域に関する第二のスラブ厚を調整するための第二のGUIツールとを前記ディスプレイに表示する、請求項1記載の医用画像処理装置。 The display control unit has a first GUI tool for adjusting a first slab thickness for a display image based on the medical image data, and a second slab thickness for adjusting the second slab thickness for the imparted region of the annotation. The medical image processing apparatus according to claim 1, wherein the second GUI tool is displayed on the display. 前記決定部は、前記表示画像において前記アノテーションの付与対象の第一の画像領域が指定された場合、前記医用画像データにおける前記表示画像の表示断面の位置と前記第二のスラブ厚と前記第一の画像領域とに基づいて前記医用画像データにおける第二の画像領域を決定し、前記第二の画像領域を前記付与領域に設定する、請求項10記載の医用画像処理装置。 When the first image area to be annotated is specified in the display image, the determination unit determines the position of the display cross section of the display image in the medical image data, the second slab thickness, and the first. 10. The medical image processing apparatus according to claim 10 , wherein a second image region in the medical image data is determined based on the image region of the above, and the second image region is set as the imparted region. 前記表示制御部は、前記第一のGUIツールと前記第二のGUIツールとを視覚的に区別して表示する、請求項10記載の医用画像処理装置。 The medical image processing apparatus according to claim 10 , wherein the display control unit visually distinguishes and displays the first GUI tool and the second GUI tool. 前記決定部は、前記アノテーションの付与対象の第一の画像領域が第一の表示断面と第二の表示断面とで指定された場合、前記第一の表示断面と前記第二の表示断面とを包含する第二の画像領域を前記付与領域に設定する、請求項10記載の医用画像処理装置。 When the first image area to be annotated is designated by the first display cross section and the second display cross section, the determination unit obtains the first display cross section and the second display cross section. The medical image processing apparatus according to claim 10 , wherein a second image region to be included is set in the imparted region. 前記決定部は、前記第二の画像領域から画像認識の対象外領域を除外した領域を前記付与領域に設定する、請求項13記載の医用画像処理装置。 The medical image processing apparatus according to claim 13 , wherein the determination unit sets a region excluding a region not subject to image recognition from the second image region as the imparted region. 前記臨床情報は、前記医用画像データの被検体と同一被検体に関する過去の医用画像データに付与されたアノテーションの付与領域の位置である、請求項1記載の医用画像処理装置。 The medical image processing apparatus according to claim 1, wherein the clinical information is the position of an annotation region given to past medical image data relating to the same subject as the subject of the medical image data. 前記臨床情報は、前記医用画像データの被検体と同一被検体に関する過去の医用画像データに対する画像認識の認識結果である、請求項1記載の医用画像処理装置。 The medical image processing apparatus according to claim 1, wherein the clinical information is a recognition result of image recognition for past medical image data relating to the same subject as the subject of the medical image data. 用画像データが表示されるディスプレイとの間で通信可能なコンピュータに、
前記医用画像データにアノテーションを付与することにより画像認識に関する機械学習の教師データを生成するために、前記医用画像データのうちの前記アノテーションの付与領域を、ユーザによる指示に従い決定させる機能と、
前記医用画像データ内の前記付与領域の位置と前記医用画像データに関連付けられた臨床情報との比較結果を出力させる機能と、
前記比較結果を前記ディスプレイに表示させる機能と、
を実現させ、
前記表示させる機能は、前記アノテーションの付与処理における表示画面において、前記臨床情報に関する複数の解剖学的位置条件にそれぞれ対応する複数のテキストを、前記医用画像データと共に表示し、
前記出力させる機能は、前記付与領域の位置が前記複数の解剖学的位置条件を満たすか否かを判定し、
前記表示させる機能は、前記付与領域の位置が前記複数の解剖学的位置条件の何れかを満たさないと判定された場合、前記複数のテキストのうちの、当該満たさないと判定された解剖学的位置条件に対応するテキストを区別可能に表示する、
教師データ作成プログラム。
To a computer that can communicate with a display that displays medical image data,
In order to generate machine learning teacher data related to image recognition by annotating the medical image data, a function of determining the area to be annotated in the medical image data according to a user's instruction.
A function to output a comparison result between the position of the imparted region in the medical image data and clinical information associated with the medical image data, and
The function of displaying the comparison result on the display and
Realized ,
The display function displays a plurality of texts corresponding to a plurality of anatomical position conditions related to the clinical information together with the medical image data on the display screen in the annotation processing.
The output function determines whether or not the position of the imparted region satisfies the plurality of anatomical position conditions.
When it is determined that the position of the imparted region does not satisfy any of the plurality of anatomical position conditions, the function to be displayed is an anatomical determination that the position of the plurality of texts is not satisfied. Distinguish the text corresponding to the positional condition,
Teacher data creation program.
用画像データが表示されるディスプレイとの間で通信可能なコンピュータによる教師データ作成方法であって、
前記医用画像データにアノテーションを付与することにより画像認識に関する機械学習の教師データを生成するために、前記医用画像データのうちの前記アノテーションの付与領域を、ユーザによる指示に従い決定させる工程と、
前記医用画像データ内の前記付与領域の位置と前記医用画像データに関連付けられた臨床情報との比較結果を出力させる工程と、
前記比較結果を前記ディスプレイに表示させる工程と、
を具備し、
前記表示させる工程は、前記アノテーションの付与処理における表示画面において、前記臨床情報に関する複数の解剖学的位置条件にそれぞれ対応する複数のテキストを、前記医用画像データと共に表示し、
前記出力させる工程は、前記付与領域の位置が前記複数の解剖学的位置条件を満たすか否かを判定し、
前記表示させる工程は、前記付与領域の位置が前記複数の解剖学的位置条件の何れかを満たさないと判定された場合、前記複数のテキストのうちの、当該満たさないと判定された解剖学的位置条件に対応するテキストを区別可能に表示する、
教師データ作成方法。

It is a method of creating teacher data by a computer that can communicate with the display on which medical image data is displayed.
In order to generate machine learning teacher data related to image recognition by annotating the medical image data, a step of determining an annotation region of the medical image data according to a user's instruction.
A step of outputting a comparison result between the position of the imparted region in the medical image data and clinical information associated with the medical image data, and
The step of displaying the comparison result on the display and
Equipped with
In the step of displaying, a plurality of texts corresponding to a plurality of anatomical position conditions relating to the clinical information are displayed together with the medical image data on the display screen in the annotation processing.
In the output step, it is determined whether or not the position of the imparting region satisfies the plurality of anatomical position conditions.
In the step of displaying, when it is determined that the position of the imparting region does not satisfy any of the plurality of anatomical position conditions, the anatomical determination of the plurality of texts is not satisfied. Distinguish the text corresponding to the positional condition,
How to create teacher data.

JP2018075759A 2018-04-10 2018-04-10 Medical image processing device, teacher data creation program and teacher data creation method Active JP7066491B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018075759A JP7066491B2 (en) 2018-04-10 2018-04-10 Medical image processing device, teacher data creation program and teacher data creation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018075759A JP7066491B2 (en) 2018-04-10 2018-04-10 Medical image processing device, teacher data creation program and teacher data creation method

Publications (2)

Publication Number Publication Date
JP2019180866A JP2019180866A (en) 2019-10-24
JP7066491B2 true JP7066491B2 (en) 2022-05-13

Family

ID=68338293

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018075759A Active JP7066491B2 (en) 2018-04-10 2018-04-10 Medical image processing device, teacher data creation program and teacher data creation method

Country Status (1)

Country Link
JP (1) JP7066491B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7292184B2 (en) * 2019-11-11 2023-06-16 富士フイルム株式会社 LEARNING APPARATUS, LEARNING METHOD AND TRAINED MODEL
JP7154675B1 (en) * 2021-04-28 2022-10-18 株式会社スクリエ Medical Facility Referral System, Medical Facility Referral Method and Program

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004173839A (en) 2002-11-26 2004-06-24 Fuji Photo Film Co Ltd Image display system, display terminal, and apparatus for managing tomographic image
JP2006014928A (en) 2004-07-01 2006-01-19 Fuji Photo Film Co Ltd Method, device and program for displaying image
JP2008200373A (en) 2007-02-22 2008-09-04 Fujifilm Corp Similar case retrieval apparatus and its method and program and similar case database registration device and its method and program
JP2009034503A (en) 2007-08-02 2009-02-19 General Electric Co <Ge> Method and system for displaying tomosynthesis image
JP2009082227A (en) 2007-09-27 2009-04-23 Fujifilm Corp Medical report system, and medical report making apparatus and method
JP2010252989A (en) 2009-04-23 2010-11-11 Canon Inc Medical diagnosis support device and method of control for the same
WO2012063653A1 (en) 2010-11-12 2012-05-18 株式会社 日立メディコ Medical image display device and medical image display method
JP2015187845A (en) 2014-03-11 2015-10-29 株式会社東芝 Radiogram interpretation report preparation apparatus and radiogram interpretation report preparation system

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004173839A (en) 2002-11-26 2004-06-24 Fuji Photo Film Co Ltd Image display system, display terminal, and apparatus for managing tomographic image
JP2006014928A (en) 2004-07-01 2006-01-19 Fuji Photo Film Co Ltd Method, device and program for displaying image
JP2008200373A (en) 2007-02-22 2008-09-04 Fujifilm Corp Similar case retrieval apparatus and its method and program and similar case database registration device and its method and program
JP2009034503A (en) 2007-08-02 2009-02-19 General Electric Co <Ge> Method and system for displaying tomosynthesis image
JP2009082227A (en) 2007-09-27 2009-04-23 Fujifilm Corp Medical report system, and medical report making apparatus and method
JP2010252989A (en) 2009-04-23 2010-11-11 Canon Inc Medical diagnosis support device and method of control for the same
WO2012063653A1 (en) 2010-11-12 2012-05-18 株式会社 日立メディコ Medical image display device and medical image display method
JP2015187845A (en) 2014-03-11 2015-10-29 株式会社東芝 Radiogram interpretation report preparation apparatus and radiogram interpretation report preparation system

Also Published As

Publication number Publication date
JP2019180866A (en) 2019-10-24

Similar Documents

Publication Publication Date Title
US8625867B2 (en) Medical image display apparatus, method, and program
EP2904589B1 (en) Medical image navigation
US8929627B2 (en) Examination information display device and method
US11594002B2 (en) Overlay and manipulation of medical images in a virtual environment
CN107403425A (en) Radiological report is automatically generated from image and is excluded automatically without the image found
JP2010075403A (en) Information processing device and method of controlling the same, data processing system
JP7258772B2 (en) holistic patient radiology viewer
JP2017051591A (en) Information processing device and method thereof, information processing system, and computer program
US9697598B2 (en) Generating a key-image from a medical image
JP2019103848A (en) Medical image processing method, medical image processing device, medical image processing system, and medical image processing program
US20100082365A1 (en) Navigation and Visualization of Multi-Dimensional Image Data
JP7066491B2 (en) Medical image processing device, teacher data creation program and teacher data creation method
KR20150085943A (en) Method and apparatus of generating structured report including region of interest information in medical image reading processing
CN113645896A (en) System for surgical planning, surgical navigation and imaging
JP5539478B2 (en) Information processing apparatus and information processing method
JP2010110544A (en) Image processing device, method and program
US20230335261A1 (en) Combining natural language understanding and image segmentation to intelligently populate text reports
JPWO2019044081A1 (en) Medical image display device, method and program
JP7271277B2 (en) Medical image processing device and medical image processing system
JP2014184012A (en) Surgery support device, surgery support method, and surgery support program
Rahman et al. A framework to visualize 3d breast tumor using x-ray vision technique in mobile augmented reality
US20220108540A1 (en) Devices, systems and methods for generating and providing image information
CN104105441B (en) Extracted region processing system
JPWO2019044089A1 (en) Medical information display device, method and program
US10796433B2 (en) Interpretation support apparatus, operation method thereof, and non-transitory computer readable medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210120

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220314

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220329

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220427

R150 Certificate of patent or registration of utility model

Ref document number: 7066491

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150