JP7066491B2 - Medical image processing device, teacher data creation program and teacher data creation method - Google Patents
Medical image processing device, teacher data creation program and teacher data creation method Download PDFInfo
- Publication number
- JP7066491B2 JP7066491B2 JP2018075759A JP2018075759A JP7066491B2 JP 7066491 B2 JP7066491 B2 JP 7066491B2 JP 2018075759 A JP2018075759 A JP 2018075759A JP 2018075759 A JP2018075759 A JP 2018075759A JP 7066491 B2 JP7066491 B2 JP 7066491B2
- Authority
- JP
- Japan
- Prior art keywords
- display
- medical image
- image data
- region
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 32
- 230000006870 function Effects 0.000 claims description 90
- 238000010801 machine learning Methods 0.000 claims description 20
- 238000003384 imaging method Methods 0.000 claims description 19
- 238000010586 diagram Methods 0.000 description 29
- 230000007717 exclusion Effects 0.000 description 14
- 210000004556 brain Anatomy 0.000 description 9
- 208000024891 symptom Diseases 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 201000006474 Brain Ischemia Diseases 0.000 description 6
- 206010008120 Cerebral ischaemia Diseases 0.000 description 6
- 206010008118 cerebral infarction Diseases 0.000 description 6
- 210000003484 anatomy Anatomy 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 101001088739 Homo sapiens Probable inactive ribonuclease-like protein 12 Proteins 0.000 description 3
- 101001099922 Homo sapiens Retinoic acid-induced protein 1 Proteins 0.000 description 3
- 102100033988 Probable inactive ribonuclease-like protein 12 Human genes 0.000 description 3
- 238000002591 computed tomography Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 230000007547 defect Effects 0.000 description 3
- 230000000302 ischemic effect Effects 0.000 description 3
- 230000000926 neurological effect Effects 0.000 description 3
- 101001100103 Homo sapiens Retinoic acid-induced protein 2 Proteins 0.000 description 2
- 102100038452 Retinoic acid-induced protein 2 Human genes 0.000 description 2
- 208000006011 Stroke Diseases 0.000 description 2
- 238000002059 diagnostic imaging Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000003902 lesion Effects 0.000 description 2
- 230000002107 myocardial effect Effects 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 206010019468 Hemiplegia Diseases 0.000 description 1
- 206010028980 Neoplasm Diseases 0.000 description 1
- 206010033799 Paralysis Diseases 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 208000028867 ischemia Diseases 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000002595 magnetic resonance imaging Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000009206 nuclear medicine Methods 0.000 description 1
- 208000020911 optic nerve disease Diseases 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000002861 ventricular Effects 0.000 description 1
Images
Description
本発明の実施形態は、医用画像処理装置、教師データ作成プログラム及び教師データ作成方法に関する。 Embodiments of the present invention relate to a medical image processing apparatus, a teacher data creation program, and a teacher data creation method.
画像認識に関する機械学習の教師データの作成のため、医用画像の画像認識対象領域を画定するアノテーションがユーザの手入力により当該医用画像に描画されている。教師データとして多量の医用画像が必要であるため、アノテーションを描画する作業はユーザにとても手間がかかる。 In order to create machine learning teacher data related to image recognition, annotations defining the image recognition target area of the medical image are manually drawn on the medical image by the user. Since a large amount of medical images are required as teacher data, the work of drawing annotations is very troublesome for the user.
発明が解決しようとする課題は、画像認識に関する機械学習の教師データの作成の手間を削減することである。 The problem to be solved by the invention is to reduce the trouble of creating teacher data for machine learning related to image recognition.
実施形態に係る医用画像処理装置は、画像認識に関する機械学習の教師データとして用いられる医用画像データが表示されるディスプレイと、前記医用画像データのうちの画像認識の対象領域を規定するアノテーションの付与領域を、ユーザによる指示に従い決定する決定部と、前記医用画像データ内の前記付与領域の位置と前記医用画像データに関連付けられた臨床情報との比較結果を出力する整合判定部と、前記比較結果を前記ディスプレイに表示する表示制御部と、を具備する。 The medical image processing apparatus according to the embodiment has a display on which medical image data used as teacher data for machine learning related to image recognition is displayed, and an annotated area that defines a target area for image recognition in the medical image data. A matching determination unit that outputs a comparison result between the position of the imparted region in the medical image data and clinical information associated with the medical image data, and the comparison result. A display control unit for displaying on the display is provided.
以下、図面を参照しながら本実施形態に係わる医用画像処理装置を説明する。 Hereinafter, the medical image processing apparatus according to the present embodiment will be described with reference to the drawings.
本実施形態に係る医用画像処理装置は、医用画像データに画像処理を施すコンピュータである。医用画像処理装置としては、ワークステーションや画像閲覧装置(ビューワ)、読影レポート作成装置、PACS(Picture Archiving and Communication System)等の医療施設等で用いられるコンピュータでもよいし、医用画像診断装置に含まれるコンピュータでもよい。医用画像診断装置としては、X線コンピュータ断層撮影装置、X線診断装置、磁気共鳴イメージング装置、超音波診断装置、核医学診断装置等の如何なる医用モダリティにも適用可能である。以下、本実施形態に係る医用画像処理装置は、説明を具体的に行うため、画像処理を行うワークステーションであるとする。 The medical image processing apparatus according to the present embodiment is a computer that performs image processing on medical image data. The medical image processing device may be a computer used in a medical facility such as a workstation, an image viewing device (viewer), an image interpretation report creation device, or a PACS (Picture Archiving and Communication System), and is included in the medical diagnostic imaging device. It may be a computer. The medical image diagnostic device can be applied to any medical modality such as an X-ray computer tomography device, an X-ray diagnostic device, a magnetic resonance imaging device, an ultrasonic diagnostic device, and a nuclear medical diagnostic device. Hereinafter, the medical image processing apparatus according to the present embodiment is assumed to be a workstation that performs image processing in order to give a specific explanation.
本実施形態に係る医用画像データは、医用画像診断装置により生成された、被検体を対象とする画像データである。医用画像データは、2次元状に配列された複数のピクセルの集合である2次元画像データでもよいし、3次元状に配列された複数のボクセルの集合である3次元画像データもよい。しかしながら、以下の説明を具体的に行うため、医用画像データは、3次元画像データであるとする。また、ピクセルとボクセルとをまとめて画素と呼ぶことにする。 The medical image data according to the present embodiment is image data for a subject generated by a medical image diagnostic apparatus. The medical image data may be two-dimensional image data which is a set of a plurality of pixels arranged in a two-dimensional manner, or may be three-dimensional image data which is a set of a plurality of voxels arranged in a three-dimensional shape. However, in order to make the following description concrete, it is assumed that the medical image data is three-dimensional image data. Pixels and voxels are collectively referred to as pixels.
図1に示すように、本実施形態に係る医用画像処理装置1は、処理回路11、メモリ13、入力インタフェース15、通信インタフェース17及びディスプレイ19を有する。
As shown in FIG. 1, the medical
処理回路11は、CPU(Central Processing Unit)及びGPU(Graphics Processing Unit)等のプロセッサを有する。当該プロセッサがメモリ13等にインストールされた教師データ作成プログラムを起動することにより、画像読出機能111、テキスト読出機能112、付与領域決定機能113、整合判定機能114、画像処理機能115、表示制御機能116、記憶制御機能117及び機械学習機能118等を実行する。なお、各機能111~118は単一の処理回路で実現される場合に限らない。複数の独立したプロセッサを組み合わせて処理回路を構成し、各プロセッサがプログラムを実行することにより各機能111~118を実現するものとしても構わない。
The
画像読出機能111において処理回路11は、メモリ13から処理対象の医用画像データを読み出す。処理対象の医用画像データは、画像認識に関する機械学習の教師データとして用いられる医用画像データである。
In the
テキスト読出機能112において処理回路11は、メモリ13から処理対象の医用画像データに関連付けられたテキストデータを読み出す。テキストデータは、医用画像データの被検体に関する臨床情報を表す文章のデータである。
In the
付与領域決定機能113において処理回路11は、画像読出機能111により読み出された医用画像データに対しアノテーションの付与領域を、入力インタフェース15を介したユーザによる指示に従い決定する。本実施形態に係るアノテーションは、医用画像データに付される、画像認識の対象領域を規定するグラフィカルデータである。
In the imparting
整合判定機能114において処理回路11は、付与領域決定機能113により決定されたアノテーションの付与領域とテキスト読出機能112により読み出されたテキストの臨床情報との比較結果を出力する。すなわち、整合判定機能114においては、アノテーションの付与領域とテキストが示す臨床情報との整合性が判定される。
In the
画像処理機能115において処理回路11は、一定の読影条件で連続して作業するために画像読出機能111により読み出された医用画像データ等に、画像位置や表示画像種も含め表示条件を揃えるための種々の画像処理を施す。典型的には、処理回路11は、画像処理として、MPR(Multi-Planer Reconstruction)処理を3次元の医用画像データに施し、所定の表示断面(MPR断面)に関する2次元の表示画像データを生成する。なお、処理回路11は、MPR処理の他、ボリュームレンダリングやサーフェスボリュームレンダリング、画素値投影処理、CPR(Curved MPR)処理等の画像処理を行うことも可能である。
In the
表示制御機能116において処理回路11は、種々の情報をディスプレイ19に表示する。例えば、処理回路11は、画像読出機能111により読み出された医用画像データに基づく表示画像とテキスト読出機能112により読み出されたテキストデータに対応するテキストとをディスプレイ19に表示する。また、処理回路11は、表示画像データにアノテーションを描画する。
In the
記憶制御機能117において処理回路11は、メモリ13に記憶するために種々の情報をメモリ13に転送する。例えば、処理回路11は、ディスプレイ19に表示された表示画像に対応する表示画像データをメモリ13に記憶させる。
In the
機械学習機能118において処理回路11は、アノテーションが付与された医用画像データに対して、画像認識に関する機械学習を行う。例えば、処理回路11は、アノテーションが付与された医用画像データをDNN(Deep Neural Network)に入力し、アノテーションの付与領域の解剖学的部位の分類結果を出力する。画像認識に関するDNNの一つとしてCNN(Convolutional Neural Network)が挙げられる。
In the
メモリ13は、種々の情報を記憶するROM(Read Only Memory)やRAM(Random Access Memory)、HDD(Hard Disk Drive)、SSD(Solid State Drive)、集積回路記憶装置等の記憶装置である。メモリ13は、上記記憶装置以外にも、CD(Compact Disc)、DVD(Digital Versatile Disc)、フラッシュメモリ等の可搬型記憶媒体や、半導体メモリ素子等との間で種々の情報を読み書きする駆動装置であってもよい。また、メモリ13は、医用画像処理装置1にネットワークを介して接続された他のコンピュータ内にあってもよい。例えば、メモリ13は、教師データ作成プログラムを記憶する。また、メモリ13は、医用画像データと臨床情報とを関連付けて記憶する。
The
例えば、医用画像データには、読影レポートや電子カルテ等のテキストデータに関連付けられている。テキストデータは、具体的には、所見や診療録、問診結果、検査オーダ、検査指示等の、医用画像データの被写体である被検体の臨床情報を表す文章のデータである。本実施形態に係る臨床情報は、被検体に生じた病変の手がかりになる情報である。すなわち、テキストデータは、臨床情報の一形態であり、病変の種類や場所等を示す単語や文節、文章である。メモリ13には、医用画像データと臨床情報との複数の組合せが記憶されている。
For example, medical image data is associated with text data such as interpretation reports and electronic medical records. Specifically, the text data is text data representing clinical information of a subject, which is the subject of medical image data, such as findings, medical records, interview results, examination orders, and examination instructions. The clinical information according to this embodiment is information that serves as a clue for a lesion generated in a subject. That is, text data is a form of clinical information, and is a word, phrase, or sentence indicating the type and location of a lesion. A plurality of combinations of medical image data and clinical information are stored in the
入力インタフェース15は、ユーザからの各種の入力操作を受け付け、受け付けた入力操作を電気信号に変換して処理回路11に出力する。具体的には、入力インタフェース15は、マウス、キーボード、トラックボール、スイッチ、ボタン、ジョイスティック、タッチパッド及びタッチパネルディスプレイ等の入力機器に接続されている。入力インタフェース15は、当該入力機器への入力操作に応じた電気信号を処理回路11へ出力する。また、入力インタフェース15に接続される入力機器は、ネットワーク等を介して接続された他のコンピュータに設けられた入力機器でも良い。
The
通信インタフェース17は、他のコンピュータとの間でデータ通信するためのインタフェースである。例えば、通信インタフェース17は、PACSからネットワークを介して、教師データとして利用される医用画像データとテキストデータとの複数の組合せを受信する。
The
ディスプレイ19は、処理回路11の表示制御機能116に従い種々の情報を表示する。例えば、ディスプレイ19は、画像読出機能111により読み出された医用画像データに基づく表示画像とテキスト読出機能112により読み出されたテキストデータに対応するテキストとを表示する。ディスプレイ19としては、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)、CRT(Cathode Ray Tube)ディスプレイ、有機ELディスプレイ(OELD:Organic Electro Luminescence Display)、プラズマディスプレイ又は他の任意のディスプレイが適宜使用可能である。
The
以下、本実施形態に係る医用画像処理装置1の動作例について説明する。
Hereinafter, an operation example of the medical
図2は、本実施形態に係る医用画像処理装置1の処理回路11による教師データ作成処理の典型的な流れを示す図である。図2に示す処理は、処理回路11がメモリ13から教師データ作成プログラムを読み出して実行することにより実現される。なお、図2の処理の前段において、教師データの候補となる医用画像データとテキストデータとの複数の組合せが予めPACS等から通信インタフェース17等を介して取得され、メモリ13に記憶されているものとする。教師データの作成においては、作成対象とする症例に関する多数の医用画像データを用意し、当該医用画像データ各々についてアノテーションを付与する。すなわち、メモリ13に記憶される医用画像データは、何れの症例に関するものであるかが判明しているものとする。
FIG. 2 is a diagram showing a typical flow of teacher data creation processing by the
図2に示すように、まず、処理回路11は、画像読出機能111を実行する(ステップS1)。ステップS1において処理回路11は、教師データの作成対象の症例に関する1ボリュームの医用画像データをメモリ13から読み出す。
As shown in FIG. 2, first, the
ステップS1が行われると処理回路11は、画像処理機能115を実行する(ステップS2)。ステップS2において処理回路11は、ステップS1において読み出した医用画像データに基づいて、撮影軸基準の第一の表示断面に関する表示画像を生成する。以下、撮影軸基準の第一の表示断面をオリジナルの表示断面と呼ぶことにする。
When step S1 is performed, the
ステップS2が行われると処理回路11は、表示制御機能116を実行する(ステップS3)。ステップS3において処理回路11は、ステップS2において生成されたオリジナルの表示断面の表示画像をディスプレイ19に表示する。
When step S2 is performed, the
図3は、撮影軸A1基準のオリジナルの表示断面31と被検体Pとの位置関係を模式的に示す図である。図3に示すように、撮影軸A1は、医用画像データを収集した医用モダリティの撮影基準線である。例えば、医用モダリティがX線コンピュータ断層撮影装置である場合、撮影軸A1は、ガントリの回転部の回転中心軸、換言すれば、被検体Pが載置される天板33の長軸に平行に規定される。医用撮像においては撮影軸A1に被検体軸A2が一致するように位置合わせされる。被検体軸A2は、撮像対象部位の基準線であり、典型的には、被検体Pの全身の体軸に規定される。医用画像データは撮影軸A1を基準とした座標系により規定される。被検体軸A2が撮影軸A1に一致しているという仮定の下、被検体軸A2を基準とする直交三断面(アキシャル断面、サジタル断面及びコロナル断面)が規定される。オリジナルの表示断面として被検体軸A2を基準とする直交三断面の表示画像が生成される。例えば、アキシャル断面31は、撮影軸A1に直交する断面に規定される。図示しないが、コロナル断面は、撮影軸A1に平行し且つ鉛直軸に直交する断面に規定され、サジタル断面は、撮影軸A1及び鉛直軸に平行する断面に規定される。アキシャル断面に関する表示画像(以下、アキシャル画像)、サジタル断面に関する表示画像(以下、サジタル画像)及びコロナル断面に関する表示画像(以下、コロナル画像)は、ステップS1において読み出された医用画像データにMPR処理を施すことにより生成される。
FIG. 3 is a diagram schematically showing the positional relationship between the original
図4は、オリジナルの表示断面に関する表示画像の表示画面IS1の一例を示す図である。図4に示すように、表示画面IS1には、オリジナルの表示断面に関する表示画像I1として、撮影軸A1を基準としたアキシャル画像I1-1、コロナル画像I1-2及びサジタル画像I1-3が表示される。メインの表示画像が表示画面IS1において大きいサイズで表示され、他のサブの表示画像がメインの表示画像に比して小さいサイズで表示される。図4においては、アキシャル画像I1-1がメインの表示画像として表示され、コロナル画像I1-2及びサジタル画像I1-3がサブの表示画像として表示される。メインの表示画像は、入力インタフェース15等を介したユーザ指示に従いアキシャル画像I1-1、コロナル画像I1-2及びサジタル画像I1-3の中から任意に変更可能である。また、処理回路11は、メインの表示画像として、入力インタフェース15等を介したユーザ指示に従う任意の断面(オブリーク断面)に関する表示画像を医用画像データに基づいて生成しても良い。
FIG. 4 is a diagram showing an example of a display screen IS1 of a display image relating to an original display cross section. As shown in FIG. 4, the display screen IS1 displays an axial image I1-1, a coronal image I1-2, and a sagittal image I1-3 with reference to the photographing axis A1 as a display image I1 relating to the original display cross section. To. The main display image is displayed in a large size on the display screen IS1, and the other sub display images are displayed in a smaller size than the main display image. In FIG. 4, the axial image I1-1 is displayed as the main display image, and the coronal image I1-2 and the sagittal image I1-3 are displayed as the sub display images. The main display image can be arbitrarily changed from the axial image I1-1, the coronal image I1-2, and the sagittal image I1-3 according to the user's instruction via the
図4に示すように、処理回路11は、表示画面IS1に、回転ボタンB1と固定ボタンB2とを表示する。回転ボタンB1は、表示断面の回転を指示するためのGUI(Graphical User Interface)ボタンである。回転ボタンB1は、表示画面IS1への表示対象を、撮影軸を基準とするオリジナルの表示断面から、被検体軸を基準とする第二の表示断面へ変更するために設けられる。以下、第二の表示断面をセカンダリの表示断面と呼ぶことにする。固定ボタンB2は、表示断面の回転を停止するためのGUIボタンである。
As shown in FIG. 4, the
図5は、表示断面の回転の必要性を模式的に示す図である。図5に示すように、被検体軸(具体的には、被検体の体軸)A2が撮影軸A1に一致しない場合がある。被検体軸A2が撮影軸A1に一致しないと、撮影軸A1に直交するオリジナルのアキシャル断面31は、被検体軸A2に直交せず、真のアキシャル断面とはいえない。大量の表示画像のうちの特定の解剖学的部位にアノテーションを描画する教師データ作成処理においては、アノテーションの描画効率等の観点から、表示断面が被検体軸A2に対して常に一定の向きであることが望まれる。被検体軸A2に対する表示断面の向きは一定でないとするとユーザは、アノテーションの付与対象である解剖学的部位を見つけづらいからである。そこで、本実施形態に係る画像処理機能115は、ステップSA4において被検体軸A2を基準とする第二の表示断面に関する表示画像を生成する。
FIG. 5 is a diagram schematically showing the necessity of rotation of the display cross section. As shown in FIG. 5, the subject axis (specifically, the body axis of the subject) A2 may not coincide with the imaging axis A1. If the subject axis A2 does not coincide with the imaging axis A1, the original
ユーザにより入力インタフェース15を介して回転ボタンB1が押下された場合、処理回路11は、画像処理機能115を実行する(ステップS4)、ステップS4において処理回路11は、表示断面を回転して、被検体軸基準の第二の表示断面に関する表示画像を生成する。
When the rotation button B1 is pressed by the user via the
図6は、ステップS4における表示断面の回転処理を模式的に示す図である。図6に示すように、被検体軸A2が撮影軸A1に一致せず、オリジナルの表示断面31であるアキシャル断面が被検体軸A2に非直交であるとする。ユーザにより入力インタフェース15を介して回転ボタンB1が押下された場合、処理回路11は、表示断面31を、被検体軸A2に直交する表示断面35まで自動的に回転する。
FIG. 6 is a diagram schematically showing the rotation process of the display cross section in step S4. As shown in FIG. 6, it is assumed that the subject axis A2 does not coincide with the imaging axis A1 and the axial cross section, which is the original
ステップS4が行われると処理回路11は、固定ボタンの押下を待機する(ステップS6)。ユーザは、表示断面の回転の完了後、入力インタフェース15を介して固定ボタンを押下する。回転ボタンの押下後は固定ボタンの押下に起因してアノテーションの付与処理(ステップS7)が可能になる。
When step S4 is performed, the
ステップS6において固定ボタンが押下された場合(ステップS6:YES)、処理回路11は、アノテーションの付与処理を実行する(ステップS7)。
When the fixed button is pressed in step S6 (step S6: YES), the
図7は、アノテーションの付与処理の実行画面I2の一例を示す図である。図7に示すように、表示画面IS2には、被検体軸A2を基準としたアキシャル画像I2-1、コロナル画像I2-2及びサジタル画像I2-3が表示される。ユーザは、アキシャル画像I2-1、コロナル画像I2-2及びサジタル画像I2-3を観察し、教師データの作成対象である解剖学的部位を見つけ出す。そしてユーザは、入力インタフェース15を介して、アキシャル画像I2-1等の表示画像I2のうちの当該解剖学的部位に対応する画像領域を指定する。処理回路11は、入力インタフェース15を介して指定された表示画像領域に対応する、医用画像データ内の医用画像領域を特定し、特定された医用画像領域にアノテーションを付与する。
FIG. 7 is a diagram showing an example of the execution screen I2 of the annotation processing. As shown in FIG. 7, the display screen IS2 displays an axial image I2-1, a coronal image I2-2, and a sagittal image I2-3 with respect to the subject axis A2. The user observes the axial image I2-1, the coronal image I2-2, and the sagittal image I2-3 to find out the anatomical site for which the teacher data is to be created. Then, the user designates an image region corresponding to the anatomical part of the display image I2 such as the axial image I2-1 via the
アノテーションの付与領域の指定方法としては、例えば、以下の方法が挙げられる。
1)認識対象の領域(例:腫瘍)の領域そのものを、円を描くなどの方法でユーザが指定する。2)認識対象の領域「以外」をユーザが指定することで、認識対象の領域を指定する。3)認識対象が、領域ではなく「点」または「線」で指定される。4)認識対象の領域の内部の1点をユーザが指定すると、同じ画素値を持つ領域をワークステーションで検出し、その領域を認識対象の領域として指定する。5)動画像の各フレームに対して認識対象を指定することで、時間とともに領域が変化するような認識対象を指定する。
Examples of the method for designating the annotation area include the following methods.
1) The user specifies the area of the recognition target area (eg, tumor) itself by drawing a circle or the like. 2) The area to be recognized is specified by the user by specifying "other than" the area to be recognized. 3) The recognition target is specified by a "point" or "line" instead of an area. 4) When the user specifies one point inside the area to be recognized, the workstation detects an area having the same pixel value, and the area is designated as the area to be recognized. 5) By designating the recognition target for each frame of the moving image, the recognition target whose area changes with time is designated.
本実施形態に係る処理回路11は、アノテーションの付与作業を簡便・容易にするための種々の処理を実行可能である。これら処理については後述する。
The
ステップS7が行われると処理回路11は、記憶制御機能117を実行する(ステップS8)。ステップS8において処理回路11は、表示画像のデータをセカンダリの表示断面の向きと共にメモリ13に保存する。例えば、表示画面に保存ボタンが表示され、当該保存ボタンが入力インタフェース15等を介して押下されたことを契機として処理回路11は、表示画像のデータをセカンダリの表示断面の向きと共にメモリ13に保存する。当該表示断面の向きと共に表示画像のデータを保存することにより、ステップS4における回転処理を実行することなく、セカンダリの表示画像を表示させることが可能になる。
When step S7 is performed, the
ステップS8が行われると処理回路11は、他の医用画像データについて処理するか否かを判定する(ステップS9)。教師データの作成対象である同一の症例に関する医用画像データがメモリ13に存在する場合、他の医用画像データについて処理すると判定し(ステップS9:YES)、処理回路11は、当該他の医用画像データについて再びステップS1-S9を繰り返す。そして教師データの作成対象である同一の症例に関する医用画像データがメモリ13に存在せず、他の医用画像データについて処理しないと判定した場合(ステップS9:NO)、処理回路11は、教師データ作成処理を終了する。
When step S8 is performed, the
以上により、本実施形態に係る教師データ作成処理が終了する。 As a result, the teacher data creation process according to the present embodiment is completed.
なお、本実施形態に係る教師データ作成処理の手順は図2に示す手順のみに限定されない。例えば、オリジナルの表示断面に関する表示画像の生成及び表示をすることなく、被検体軸を基準とするセカンダリの表示断面に関する表示画像を生成及び表示しても良い。被検体軸が撮影軸に一致している場合、表示断面の回転処理(ステップS4)は行われなくても良い。 The procedure of the teacher data creation process according to the present embodiment is not limited to the procedure shown in FIG. For example, a display image relating to a secondary display cross section relative to a subject axis may be generated and displayed without generating and displaying a display image relating to the original display cross section. When the subject axis coincides with the photographing axis, the rotation process (step S4) of the displayed cross section may not be performed.
教師データ作成処理が終了すると処理回路11は、機械学習機能118を実行する。機械学習機能118において処理回路11は、アノテーションが付与された医用画像データをCNN等の画像認識に関するDNNに適用して順伝播処理を行い、アノテーションの付与領域の推定認識結果を出力する。次に処理回路11は、推定認識結果と正解認識結果との差分(誤差)を当該DNNに適用して逆伝播処理を行い、勾配ベクトルを計算する。次に処理回路11は、勾配ベクトルに基づいて当該DNNの重み付き行列やバイアス等のパラメータを更新する。
When the teacher data creation process is completed, the
なお、機械学習機能118は、画像読出機能111、テキスト読出機能112、付与領域決定機能113及び整合判定機能114と同一の処理回路11により実装される必要はない。すなわち、機械学習機能118は、医用画像処理装置1ではなく、他のDNN学習のためのコンピュータ(以下、DNN学習装置と呼ぶ)に実装されても良い。この場合、アノテーションが付与された医用画像データは、機械学習のため、通信インタフェース17を介してDNN学習装置に送信される。そしてDNN学習装置により機械学習機能118が実行される。
The
次に、図2のステップS7におけるアノテーションの付与処理の詳細について説明する。なお、以下の説明において、教師データの作成対象の症例は脳虚血であるとする。 Next, the details of the annotation processing in step S7 of FIG. 2 will be described. In the following explanation, it is assumed that the case for which teacher data is created is cerebral ischemia.
図8は、図2のステップS7におけるアノテーションの付与処理の典型的な流れを示す図である。図8に示すように、処理回路11は、テキスト読出機能112を実行する(ステップS71)。ステップS71において処理回路11は、ステップS1において読み出された医用画像データに関連付けられたテキストデータを読み出す。テキストデータとしては、例えば、当該医用画像データに関連付けられた所見のテキストデータが読み出される。この場合、処理回路11は、所見全体のテキストデータから、典型的には、予め定義された臨床的に意味のある単語や文節、文章の単位でテキストデータを個別に抽出する。例えば、「脳虚血」や「左半身不随」に対応するテキストデータが個別に抽出される。
FIG. 8 is a diagram showing a typical flow of annotation processing in step S7 of FIG. As shown in FIG. 8, the
ステップS71が行われると処理回路11は、表示制御機能116を実行する(ステップS72)。ステップS72において処理回路11は、表示画像とステップS71において読み出したテキストデータに対応するテキストとを表示する。
When step S71 is performed, the
図9は、ステップS72において表示される表示画面IS3の一例を示す図である。図9に示すように、表示画面IS3には、表示画像I3とステップS71において抽出されたテキストデータに対応するテキストT3とが並べて表示される。図9においては、表示画像I3に関連するテキストT3として、脳虚血に由来する脳卒中の徴候に関するテキスト「Side of symptoms」T3-1、テキスト「Time since onset」T3-2、テキスト「Neurological defect」T3-3が表示される。テキストT3は、ユーザが教師データの作成対象である症例の部位を見いだす事を支援するために表示される。例えば、左半身に不随がある場合、右脳に症状がみられるはずである。テキスト「Side of symptoms」T3-1が表示されることにより、ユーザは、右脳又は左脳の何れかに症状がみられるかはずである、ということがわかる。また、テキスト「Time since onset」T3-2が表示されることにより、脳卒中等の徴候が出現した後の画像であることがわかり、従って右脳に症状がみられるはずである、ということがわかる。また、テキスト「Neurological defect」T3-3が表示されることにより、画像に視神経障害が描出されているはずである、ということがわかる。このように、ユーザは、表示画像I3だけでなく、テキストT3が表す臨床情報を参考にすることにより、教師データの作成対象である症例の部位を容易に見いだすことができる。なおテキストT3の表示形態は特に限定されない。 FIG. 9 is a diagram showing an example of the display screen IS3 displayed in step S72. As shown in FIG. 9, the display image I3 and the text T3 corresponding to the text data extracted in step S71 are displayed side by side on the display screen IS3. In FIG. 9, as the text T3 related to the display image I3, the text “Side of symptoms” T3-1, the text “Time since onset” T3-2, and the text “Neurological defect” regarding the signs of stroke derived from cerebral ischemia. T3-3 is displayed. The text T3 is displayed to assist the user in finding the site of the case for which the teacher data is to be created. For example, if the left half of the body is paralyzed, there should be symptoms in the right brain. By displaying the text "Side of symptoms" T3-1, the user knows that he or she should have symptoms in either the right or left brain. Also, by displaying the text "Time since on set" T3-2, it can be seen that the image is after the appearance of signs such as stroke, and therefore the symptoms should be seen in the right brain. Further, by displaying the text "Neurological defect" T3-3, it can be understood that the optic nerve disorder should be depicted in the image. In this way, the user can easily find the site of the case for which the teacher data is to be created by referring to the clinical information represented by the text T3 as well as the displayed image I3. The display form of the text T3 is not particularly limited.
ステップS72が行われると処理回路11は、入力インタフェース15を介してアノテーションの描画領域が指定されることを待機する(ステップS73)。ユーザは、ステップS72において表示された表示画像とテキストとを観察しながら、教師データの作成対象である脳虚血部位を見いだす。脳虚血部位が見いだされるとユーザは、入力インタフェース15を介して表示画像の脳虚血部位に対応する表示画像領域を描画領域として指定する。
When step S72 is performed, the
アノテーションの描画領域が指定された場合(ステップS73:YES)、処理回路11は、付与領域決定機能113を実行する(ステップS74)。ステップS74において処理回路11は、ステップS73において指定された描画領域に対応する、医用画像データ内の画像領域(以下、付与領域と呼ぶ)を決定する。具体的には、処理回路11は、医用画像データ内における表示断面の位置に基づいて、表示画像の描画領域に対応する医用画像データの医用画像領域の座標を計算し、当該座標に対応する医用画像領域を付与領域として決定する。
When the drawing area of the annotation is specified (step S73: YES), the
ステップS74が行われると処理回路11は、整合判定機能114を実行する(ステップS75)。ステップS75において処理回路11は、ステップS74において決定された付与領域の位置とステップS72において表示されたテキストが示す臨床情報とを比較する。より詳細には、処理回路11は、ステップS74において決定された付与領域の解剖学的部位がステップS72において表示されたテキストが示す臨床情報に整合するか否かを判定する。例えば、処理回路11は、テキストが示す臨床情報と当該臨床情報に対応する解剖学的部位の位置条件とを関連付けたテーブル(LUT:Look Up Table)を利用して整合性の判定を行う。位置条件は、当該臨床情報に対応する解剖学的部位の位置である。当該テーブルにおいては、例えば、テキスト「Side of symptoms」に解剖学的部位「右脳」が関連付けられている。この場合、処理回路11は、まず、医用画像データ内における付与領域の位置を特定し、特定された位置が、テキストに当該テーブルにおいて関連付けられた解剖学的部位に一致しているか否かを判定する。医用画像データ内における付与領域の位置として、当該位置の解剖学的部位が特定される。付与領域に対応する解剖学的部位は、例えば、解剖学的基準点(anatomical landmark)等を用いて特定されれば良い。例えば、メモリ13は、予め複数の解剖学的基準点が登録された人体解剖図譜のデータを記憶している。人体解剖図譜は、人体の標準的な形態のデータに、当該形態に対応する解剖学的部位の識別子である解剖学的基準点を関連付けたデータである。処理回路11は、医用画像データと人体解剖図譜のデータとを位置合わせし、付与領域に対応する人体解剖図譜の位置を特定し、当該位置に関連付けられた解剖学的部位を特定する。特定された解剖学的部位と、テキストに当該テーブルにおいて関連付けられた解剖学的部位とが一致している場合、処理回路11は、付与領域がテキストの臨床情報との間で整合していると判定し、一致していない場合、整合していないと判定する。
When step S74 is performed, the
なお、上記テーブルの位置条件は、厳密度に応じて段階付けられても良い。例えば、臨床情報「左脳に虚血あり」であるとした場合、例えば、厳密度が軽度の位置条件は「左脳」に規定され、厳密度が高度の位置条件は「脳室以外の左脳」に規定される。採用する源密度は、ユーザにより任意に設定可能である。 The position conditions of the table may be graded according to the strictness. For example, if the clinical information is "ischemia in the left brain", for example, the positional condition with mild strictness is defined as "left brain", and the positional condition with high strictness is defined as "left brain other than the ventricular". Is regulated. The source density to be adopted can be arbitrarily set by the user.
上記整合性の判定処理は、表示されたテキスト全てについて個別に行われても良いし、表示されたテキストについて順番に整合の有無を判定し、「整合無し」と判定された時点で終了しても良い。 The consistency determination process may be performed individually for all the displayed texts, or the displayed texts may be determined in order whether or not they are consistent, and the process ends when it is determined that there is no consistency. Is also good.
ステップS75が行われると処理回路11は、表示制御機能116を実行する(ステップS76)。ステップS76において処理回路11は、ステップS75における比較結果をディスプレイ19に表示する。比較結果の表示形態については種々の態様が考えられる。
When step S75 is performed, the
図10は、整合判定機能114の比較結果の表示画面IS4の一例を示す図である。図10に示すように、表示画面IS4には表示画像I3とテキストT3とが並べて表示される。表示画像I3のちのアノテーションの描画領域にはアノテーションIAが表示される。アノテーションIAは、赤等の特定のカラーで表示される。
FIG. 10 is a diagram showing an example of the display screen IS4 of the comparison result of the matching
比較結果として、処理回路11は、テキストT3-1、テキストT3-2及びテキストT3-3のうちの「整合無し」又は「整合有り」と判定されたテキストを強調して表示する。例えば、図10に示すように、テキスト「Side of symptoms」T3-1が表示されているにも関わらず、アノテーションIAが左脳に指定された場合、アノテーションIAの描画領域(すなわち、付与領域)がテキスト「Side of symptoms」T3-1が表す臨床情報との間で整合していないと判定される。この場合、テキスト「Side of symptoms」T3-1が他のテキスト「Time since onset」T3-2及び「Neurological defect」T3-3とは異なる視覚効果で警告として強調される。警告の視覚効果としては、例えば、図10に示すように、「整合無し」と判定されたテキストを太線で表示し、「整合有り」と判定されたテキストを通常の太さの線で表示すると良い。なお、強調の視覚効果として、テキストの線種を変更しても良いし、背景や文字の色を変更しても良いし、拡大又は縮小しても良いし、点滅等しても良い。
As a comparison result, the
このように「整合無し」又は「整合有り」と判定されたテキストを強調して表示することにより、ユーザは、アノテーションの付与領域と当該テキストが表す臨床情報とが整合していないことを明瞭に把握することができる。これによりアノテーションの付与間違いを低減することができる。 By emphasizing and displaying the text determined to be "inconsistent" or "inconsistent" in this way, the user can clearly indicate that the annotation area and the clinical information represented by the text are not consistent. Can be grasped. This makes it possible to reduce annotation errors.
「整合無し」の比較結果の他の表示形態として、処理回路11は、ディスプレイ19に、「アノテーションがテキストに整合していません!」等の警告メッセージを表示しても良い。その他、処理回路11は、スピーカ等を介して当該警告メッセージの音声や警告音を発しても良い。また、処理回路11は、「整合有り」と判定された場合と「整合無し」と判定された場合とでアノテーションの視覚効果を変更しても良い。例えば、「整合有り」と判定された場合、アノテーションを黄色で表示し、「整合無し」と判定された場合、アノテーションを赤色で表示すると良い。また、整合の有無の判定結果をテキストデータとしてアノテーションに付随させてメモリ13に記憶されても良い。
As another display form of the comparison result of "no matching", the
また、他の整合の比較結果の表示形態を説明する。例えば、処理回路11は、「整合無し」と判定された場合、ユーザが指定したアノテーションの描画領域にアノテーションを描画しなくても良い。換言すれば、処理回路11は、テキストの臨床情報に整合する解剖学的部位にアノテーションの描画領域が指定された場合に限定して当該描画領域にアノテーションを描画する。このように、アノテーションの描画領域を指定しているのにも関わらずアノテーションが表示されないことにより、ユーザは、アノテーションの描画領域と当該テキストが表す臨床情報とが整合していないことを明瞭に把握することができる。これによりアノテーションの付与間違いを低減することができる。
In addition, the display form of the comparison result of other matching will be described. For example, the
以上により、本実施形態に係るアノテーションの付与処理が終了する。 As a result, the annotation processing according to the present embodiment is completed.
なお、上記のアノテーションの付与処理は一例であって種々の変形が可能である。例えば、上記説明においては、図2のステップS7として図8のステップS71-S76が行われるとした。しかしながら、図8の処理は単独で行われても良い。すなわち、撮影軸基準のオリジナル断面の表示画像に対してテキストが並べて表示されたり、アノテーションの描画領域が指定されたりしても良い。 The above annotation processing is an example and can be modified in various ways. For example, in the above description, it is assumed that steps S71 to S76 in FIG. 8 are performed as step S7 in FIG. However, the process of FIG. 8 may be performed independently. That is, the text may be displayed side by side with respect to the display image of the original cross section of the shooting axis reference, or the drawing area of the annotation may be specified.
上記説明においては、教師データの作成対象の症例に関する医用画像データのみがメモリ13に記憶されているとした。しかしながら、本実施形態はこれに限定されない。例えば、教師データの作成対象の症例及び非作成対象の症例の双方に関する医用画像データがメモリ13に記憶されていても良い。この場合、処理回路11は、図8のステップS71のテキスト読出機能112において、当該医用画像データに関連付けられているテキストデータの中から、教師データの作成対象の症例に関連するテキストデータのみを読み出すと良い。また、メモリ13には教師データの作成対象の症例に関する医用画像データと教師データの非作成対象の症例に関する医用画像データとが記憶されても良い。この場合、処理回路11は、図2のステップS1の画像読出機能111において、教師データの作成対象の症例に関する医用画像データのみを読み出すと良い。この機能の実装により、教師データの作成対象に関わらず大量の医用画像データ及びテキストデータをメモリ13に記憶させることができる。そして処理回路11は、その大量の医用画像データ及びテキストデータの中から教師データの作成対象の症例に関するデータのみを事後的に読み出すことができる。
In the above description, it is assumed that only the medical image data relating to the case for which the teacher data is created is stored in the
上記説明においては、ステップS72において表示画像と臨床情報を示すテキストとがディスプレイ19に表示されるとした。しかしながら、本実施形態はこれに限定されない。例えば、ステップS72において臨床情報を示すテキストが表示されず、表示画像だけが表示されても良い。当該実施形態においてユーザは、ステップS76における比較結果を参照することにより、アノテーションの付与領域が臨床情報に照らし正しいか否かを判断することが可能になる。
In the above description, it is assumed that the display image and the text indicating clinical information are displayed on the
次に、アノテーションの付与領域の効率化及び高精度化について説明する。 Next, the efficiency and accuracy of the annotation area will be described.
本実施形態に係る処理回路11は、アノテーションの付与の効率化及び高精度化等のため、表示画像に関するスラブ厚とアノテーションに関するスラブ厚とを独立に調整可能にする。このため処理回路11は、表示画像に関するスラブ厚を調整するためのGUIツール(以下、画像厚調整ツールと呼ぶ)と、アノテーションに関するスラブ厚を調整するためのGUIツール(アノテーション厚調整ツールと呼ぶ)とを表示画面に表示する。
The
図11は、ディスプレイ19に表示される、画像厚調整ツールGIとアノテーション厚調整ツールGAとが表示された表示画面IS5を示す図である。表示画面ISは、例えば、アノテーションIAの付与のため、図3のステップS7や図9のステップS72等において表示される。
FIG. 11 is a diagram showing a display screen IS5 displayed on the
図11に示すように、表示画面IS5には表示画像I5が表示される。表示画像I5にはアノテーションIAが描画される。表示画像I5に並んで画像厚調整ツールGIとアノテーション厚調整ツールGAとが表示される。画像厚調整ツールGIとアノテーション厚調整ツールGAとは、色や線種等で視覚的に区別して表示される。画像厚調整ツールGIは、表示画像のスラブ厚を調整するためのGUIツールである。画像厚調整ツールGIは、つまみGI1と一対のバーGI2と中心バーGI3を含む。一対のバーGI2の間隔は、表示画像I5のスラブ厚を示す。中心バーGI3は、表示画像I5の表示断面のスラブ厚の中心を示す。例えば、マウス等により上側のGI1をドラッグしながらGI1を上に動かすことにより一対のバーGI2の間隔が広がる。処理回路11は、表示画像I5にアノテーションの付与対象の描画領域が指定された場合、一対のバーGI2の間隔に応じたスラブ厚をリアルタイムで計算し、医用画像データ内における中心バーGI3が示す表示断面の位置を特定し、特定された位置を含み且つ当該スラブ厚を有する医用画像データの画像領域を特定し、特定された画像領域に基づいて表示画像I5を生成し、ディスプレイ19にリアルタイムで表示する。
As shown in FIG. 11, the display image I5 is displayed on the display screen IS5. Annotation IA is drawn on the display image I5. The image thickness adjustment tool GI and the annotation thickness adjustment tool GA are displayed alongside the display image I5. The image thickness adjustment tool GI and the annotation thickness adjustment tool GA are visually distinguished by color, line type, or the like. The image thickness adjustment tool GI is a GUI tool for adjusting the slab thickness of the displayed image. The image thickness adjusting tool GI includes a knob GI1, a pair of bar GI2, and a center bar GI3. The spacing between the pair of bars GI2 indicates the slab thickness of the displayed image I5. The center bar GI3 indicates the center of the slab thickness of the display cross section of the display image I5. For example, by moving the GI1 upward while dragging the upper GI1 with a mouse or the like, the distance between the pair of bars GI2 is widened. When the drawing area to be annotated is designated for the display image I5, the
図11に示すように、アノテーション厚調整ツールGAは、つまみGA1と一対のバーGA2と中心バーGA3を含む。一対のバーGA2の間隔は、アノテーションIAのスラブ厚を示す。中心バーGI3は、アノテーションIAのスラブ厚の中心を示す。例えば、マウス等により上側のGA1をドラッグしながらGA1を上に動かすことにより一対のバーGA2の間隔が広がる。処理回路11は、一対のバーGA2の間隔に応じたスラブ厚をリアルタイムで計算し、医用画像データ内における中心バーGA3が示すアノテーションIAの中心位置を特定し、特定された中心位置を含む且つ当該スラブ厚を有する医用画像データの画像領域を特定し、当該画像領域をアノテーションIAの付与領域に設定する。
As shown in FIG. 11, the annotation thickness adjusting tool GA includes a knob GA1, a pair of bars GA2, and a center bar GA3. The spacing between the pair of bars GA2 indicates the slab thickness of annotation IA. The center bar GI3 indicates the center of the slab thickness of the annotation IA. For example, by moving the GA1 upward while dragging the upper GA1 with a mouse or the like, the distance between the pair of bars GA2 is widened. The
図12は、図11の表示画像I5のスラブ厚SIとアノテーションIAのスラブ厚SAとを模式的に示す図である。アノテーションIAの付与領域RAは、表示画像I5のスラブ厚に対応する画像領域ではなく、アノテーションIAのスラブ厚SAに対応する画像領域に限定して設定される。処理回路11は、画像厚調整ツールGIとアノテーション厚調整ツールGAとを提供することにより、表示画像I5のスラブ厚SIとアノテーションIAのスラブ厚SAとを個別に設定することができる。表示画像I5のスラブ厚SIとアノテーションIAのスラブ厚SAとの大小関係は特に限定されない。例えば、図12に示すように、スラブ厚SAをスラブ厚SIよりも狭めることにより、アノテーションIAの付与領域を表示画像に比して高解像度で決定することができる。また、スラブ厚SAをスラブ厚SIよりも広げることにより、アノテーションIAの付与領域を簡易且つ高効率で決定することができる。
FIG. 12 is a diagram schematically showing the slab thickness SI of the display image I5 of FIG. 11 and the slab thickness SA of the annotation IA. The annotation area RA of the annotation IA is set only in the image area corresponding to the slab thickness SA of the annotation IA, not in the image area corresponding to the slab thickness of the display image I5. By providing the image thickness adjusting tool GI and the annotation thickness adjusting tool GA, the
図13は、ディスプレイ19に表示される、画像厚調整ツールGIとアノテーション厚調整ツールGAとの他の表示例を示す図である。図13に示すように、表示画面IS6にはメイン画像としてアキシャル画像I6-1が、サブ画像としてコロナル画像I6-2とサジタル画像I6-3とが表示される。
FIG. 13 is a diagram showing another display example of the image thickness adjusting tool GI and the annotation thickness adjusting tool GA displayed on the
図13に示すように、各画像I6には他の画像の表示断面を示す断面線Lが表示される。具体的には、アキシャル画像I6-1にはコロナル画像I6-2のコロナル断面を示す断面線LACとサジタル画像I6-3のサジタル断面を示す断面線LASとが重畳され、コロナル画像I6-2にはアキシャル画像I6-1のアキシャル断面を示す断面線LCAとサジタル画像I6-3のサジタル断面を示す断面線LCSとが重畳され、サジタル画像I6-3にはアキシャル画像I6-1のアキシャル断面を示す断面線LSAとコロナル画像I6-2のコロナル断面を示す断面線LSCとが重畳される。各断面線Lの移動操作に連動して断面画像を更新することも可能である。 As shown in FIG. 13, each image I6 displays a cross-section line L indicating a display cross-section of another image. Specifically, the cross-section line LAC showing the coronal cross section of the coronal image I6-2 and the cross-section line LAS showing the sagittal cross-section of the sagittal image I6-3 are superimposed on the axial image I6-1, and are superimposed on the coronal image I6-2. Is superimposed the cross-section line LCA showing the axial cross-section of the axial image I6-1 and the cross-section line LCS showing the sagittal cross-section of the sagittal image I6-3, and the sagittal image I6-3 shows the axial cross-section of the axial image I6-1. The cross-section line LSA and the cross-section line LSC showing the coronal cross-section of the coronal image I6-2 are superimposed. It is also possible to update the cross-sectional image in conjunction with the movement operation of each cross-sectional line L.
図13に示すように、アキシャル画像I6-1に隣接してアキシャル断面のスラブ厚を調整するための画像厚調整ツールGI-1、コロナル画像I6-2に隣接してコロナル断面のスラブ厚を調整するための画像厚調整ツールGI-2、サジタル画像I6-3に隣接してサジタル断面のスラブ厚を調整するための画像厚調整ツールGI-3が表示される。メイン画像であるアキシャル画像I6-1については画像厚調整ツールGI-1に隣接してアノテーション厚調整ツールGAが表示される。図13に示すように、画像厚調整ツールGIは各断面線Lの延長線上に表示されると良い。より詳細には、画像厚調整ツールGIの中心バーが断面線Lに一致するように表示される。これにより、断面線Lが示す表示断面と画像厚調整ツールGIが示す当該表示断面のスラブ厚との関連性を直感的に理解することができる。アノテーション厚調整ツールGAによりアノテーションのスラブ厚を調整可能である。アノテーション厚調整ツールGAについても同様に、各断面線Lの延長線上に表示されると良く、より詳細には、アノテーション厚調整ツールGAの中心バーが断面線Lに一致するように表示される。これにより、断面線Lが示す表示断面と画像厚調整ツールGIが示す当該表示断面のスラブ厚とアノテーション厚調整ツールGAが示す当該アノテーションのスラブ厚との関連性を直感的に理解することができる。 As shown in FIG. 13, the image thickness adjustment tool GI-1 for adjusting the slab thickness of the axial cross section adjacent to the axial image I6-1 and the slab thickness of the coronal cross section adjusted adjacent to the coronal image I6-2. The image thickness adjusting tool GI-2 for adjusting the image thickness and the image thickness adjusting tool GI-3 for adjusting the slab thickness of the sagittal cross section are displayed adjacent to the sagittal image I6-3. For the axial image I6-1 which is the main image, the annotation thickness adjustment tool GA is displayed adjacent to the image thickness adjustment tool GI-1. As shown in FIG. 13, the image thickness adjusting tool GI is preferably displayed on an extension line of each cross-sectional line L. More specifically, the center bar of the image thickness adjustment tool GI is displayed so as to coincide with the section line L. This makes it possible to intuitively understand the relationship between the display cross section indicated by the cross section line L and the slab thickness of the display cross section indicated by the image thickness adjustment tool GI. The annotation slab thickness can be adjusted by the annotation thickness adjustment tool GA. Similarly, the annotation thickness adjusting tool GA may be displayed on an extension line of each section line L, and more specifically, the center bar of the annotation thickness adjusting tool GA is displayed so as to coincide with the section line L. This makes it possible to intuitively understand the relationship between the display cross section indicated by the cross section line L, the slab thickness of the display cross section indicated by the image thickness adjustment tool GI, and the slab thickness of the annotation indicated by the annotation thickness adjustment tool GA. ..
例えば、ユーザは、入力インタフェース15を介して、メイン画像であるアキシャル画像I6-1においてアノテーションIAの描画領域を指定する。アキシャル画像I6-1に描画されたアノテーションIAは、他の断面にも反映される。すなわち、前述の通り、処理回路11は、アノテーションIAの描画領域が指定された場合、当該描画領域に対応する医用画像データ内のアノテーションIAの付与領域を決定する。また、処理回路11は、医用画像データ内におけるコロナル断面及びサジタル断面の位置と付与領域とに基づいて、コロナル断面及びサジタル断面における描画領域を計算し、描画領域にアノテーションを描画する。図14においてはコロナル断面には描画領域が存在するが、サジタル断面には描画領域が存在しない。この場合、処理回路11は、コロナル断面の描画領域にアノテーションIAを描画する。
For example, the user specifies the drawing area of the annotation IA in the axial image I6-1 which is the main image via the
なお、画像厚調整ツールGI及びアノテーション厚調整ツールGAは各スラブ厚を調整可能であれば形態は特に限定されない。例えば、画像厚調整ツールGI及びアノテーション厚調整ツールGAはスライダ等のGUIツールにより実現されても良い。 The form of the image thickness adjusting tool GI and the annotation thickness adjusting tool GA is not particularly limited as long as each slab thickness can be adjusted. For example, the image thickness adjustment tool GI and the annotation thickness adjustment tool GA may be realized by a GUI tool such as a slider.
アノテーションの付与領域を三次元的に決定する場合、ユーザは、所与のスラブ厚を有する表示断面をスライドし、複数の表示断面位置で描画領域を指定する。例えば、所与のスラブ厚を有するアキシャル断面をスライドしながら描画領域が複数のアキシャル断面位置で指定される。この際、処理回路11は、アキシャル断面を被検体軸に沿って互いに重複無く段階的にスライドしても良いし、重複しながら滑らかにスライドしても良い。
When determining the annotation area three-dimensionally, the user slides a display section having a given slab thickness and specifies a drawing area at a plurality of display section positions. For example, a drawing area is specified at multiple axial cross-section positions while sliding an axial cross-section with a given slab thickness. At this time, the
また、処理回路11は、付与領域決定機能113において、互いに離れた二つの表示画像で付与領域が指定された場合、当該二つの付与領域に対応する二つの付与領域を包含する画像領域を、アノテーションの付与領域に設定する。この処理をアノテーションの補間処理と呼ぶことにする。
Further, when the granting area is designated by two display images separated from each other in the granting
図14は、付与領域決定機能113によるアノテーションの補間処理を模式的に示す図である。なお、図14においては、説明の簡単のため、表示画像I7のスラブ厚とアノテーションのスラブ厚とは同一であるとしている。まず、第一の表示画像I7-1においてアノテーションの描画領域が指定された場合、医用画像データDIにおいて当該描画領域に対応する付与領域RA1が決定される。次に入力インタフェース15等介した指示に従い断面移動が行われ、第一の表示画像から離れた第二の表示画像I7-2が設定される。この第二の表示断面17-2おいても同様に、医用画像データDIにおいてアノテーションの付与領域RA2が決定される。
FIG. 14 is a diagram schematically showing an annotation interpolation process by the grant
次に処理回路11は補間処理を行う。補間処理において処理回路11は、医用画像データDIにおける付与領域RA1と付与領域RA2とを包含する画像領域を決定し、当該画像領域を補間後の付与領域RAI1に設定する。具体的には、付与領域RA1と付与領域RA2とを結ぶ直線上にある全画素が特定される。当該特定された画素の集合はアノテーションの補間領域RA3と呼ぶことができる。補間領域RA3と付与領域RA1と付与領域RA2との集合が補間後の付与領域RAI1に設定される。なお、補間は上記の直線補間に限定されず、任意の曲線補間でも良いし、直線と曲線とを合わせた補間でも良い。このようにアノテーションの補間処理を行うことにより、アノテーションの付与処理を簡便且つ高効率で行うことができる。
Next, the
なお、アノテーションの補間領域RA3には、単純な補間処理の場合、アノテーションの付与領域から除外すべき画像領域、すなわち、画像認識の対象外の画像領域が含まれてしまう場合がある。例えば、脳実質の虚血部分にアノテーションの付与領域を設定したい場合、画像認識の対象外である脳室が補間後の付与領域に含まれてしまう場合がある。処理回路11は、補間後の付与領域RAI1から画像認識の対象外領域を除外した領域を補間後の付与領域に設定する。この処理をアノテーションの補間&除外処理と呼ぶことにする。
In the case of simple interpolation processing, the annotation interpolation region RA3 may include an image region that should be excluded from the annotation region, that is, an image region that is not the target of image recognition. For example, when it is desired to set an annotation region in the ischemic portion of the brain parenchyma, the ventricles that are not the target of image recognition may be included in the interpolated region. The
図15は、付与領域決定機能113によるアノテーションの補間処理の応用を模式的に示す図である。図15に示すように、図14と同様、医用画像データDIにおいて第一の表示画像I7-1に由来するアノテーションの付与領域RA1と第二の表示画像I7-2に由来するアノテーションの付与領域RA2とが決定される。
FIG. 15 is a diagram schematically showing the application of annotation interpolation processing by the grant
次に処理回路11は補間&除外処理を行う。補間&除外処理において処理回路11は、まず、医用画像データDIに含まれる除外対象領域RB3を抽出する。除外対象領域は脳室等の任意の解剖学的部位に相当する。処理回路11は、除外対象領域RBを、閾値等により抽出することも可能であるし、解剖学的基準点を利用して抽出することも可能である。除外対象領域RBの抽出処理については特に限定されない。次に処理回路11は、医用画像データDIにおける付与領域RA1と付与領域RA2とを包含する画像領域を決定し、当該画像領域から除外対象領域RB3を除外した画像領域を補間後の付与領域RAI2に設定する。具体的には、付与領域RA1と付与領域RA2とを結ぶ補間領域(図14の補間領域RA3と同様)が特定され、当該補間領域から除外対象領域RBを除外する。除外対象領域RBの除外後の補間領域が補間&除外後の補間領域RA4に設定される。補間&除外後の補間領域RA4と付与領域RA1と付与領域RA2との集合が補間後の付与領域RAI2に設定される。このように補間&除外処理を行うことにより、除外対象領域RBを自動的にアノテーションの付与領域から除外することができるので、アノテーションの付与処理を正確且つ簡便に行うことができる。
Next, the
上記実施形態において臨床情報は、所見等に含まれる単語、文節又は文章が示す臨床的内容であるとした。しかしながら、本実施形態はこれに限定されない。例えば、臨床情報は、画像読出機能111により読み出された医用画像データの被検体と同一被検体に関する過去の医用画像データに付与されたアノテーションの付与領域の位置でも良い。当該過去の医用画像データは、教師データとして用いられた医用画像データでも良いし、単にアノテーションが付与された医用画像データでも良い。この場合、処理回路11は、整合判定機能114を実行し、画像読出機能111により読み出された今回の医用画像データに含まれるアノテーションの付与領域の位置と、過去の医用画像データに含まれるアノテーションの付与領域の位置とを比較する。付与領域の位置は、医用画像データにおける座標でも良いし、付与領域の解剖学的部位でも良い。比較結果の表示形態として、処理回路11は、例えば、今回のアノテーションの付与領域の位置と過去のアノテーションの付与領域の位置とが大幅に異なっている場合、警告をディスプレイ19に表示すると良い。また、今回のアノテーションの付与領域の位置と過去のアノテーションの付与領域の位置とが大幅に異なっていない場合、その旨のメッセージ等をディスプレイ19に表示しても良い。
In the above embodiment, the clinical information is defined as the clinical content indicated by words, phrases or sentences included in the findings and the like. However, this embodiment is not limited to this. For example, the clinical information may be the position of the annotation region of the annotation given to the past medical image data regarding the same subject as the subject of the medical image data read by the
他の例として、臨床情報は、画像読出機能111により読み出された医用画像データの被検体と同一被検体に関する過去の医用画像データに対する画像認識の認識結果である。当該過去の医用画像データは、今回の認識対象と同一の認識対象が明瞭に映像化された他モダリティにより収集された医用画像データが好ましい。画像認識の認識結果は、認識対象に関する画像領域である。この場合、処理回路11は、整合判定機能114を実行し、画像読出機能111により読み出された今回の医用画像データに含まれるアノテーションの付与領域の位置と、過去の医用画像データに対する画像認識結果の位置とを比較する。例えば、今回の医用画像データがX線コンピュータ断層撮影装置により収集されたCT画像データであり、過去の医用画像データが核医学診断装置により収集されたNM画像データであり、心筋虚血部位が認識対象であり、認識結果は、画像認識により心筋虚血部位であると認識された画像領域であるとする。付与領域の位置と画像認識結果の位置とは、医用画像データにおける座標でも良いし、付与領域の解剖学的部位でも良い。比較結果の表示形態として、処理回路11は、例えば、今回のアノテーションの付与領域の位置と過去の画像認識結果の位置とが大幅に異なっている場合、警告をディスプレイ19に表示すると良い。また、今回のアノテーションの付与領域の位置と過去の画像認識結果の位置とが大幅に異なっていない場合、その旨のメッセージ等をディスプレイ19に表示しても良い。
As another example, the clinical information is the recognition result of image recognition for the past medical image data regarding the same subject as the subject of the medical image data read by the
上記の通り、本実施形態に係る医用画像処理装置1は、少なくともディスプレイ19と処理回路11とを有する。ディスプレイ19には、画像認識に関する機械学習の教師データとして用いられる医用画像データが表示される。処理回路11は、付与領域決定機能113、整合判定機能114及び表示制御機能116を実現する。付与領域決定機能113において処理回路11は、医用画像データのうちの画像認識の対象領域を規定するアノテーションの付与領域を、ユーザによる指示に従い決定する。整合判定機能114において処理回路11は、医用画像データ内の付与領域の位置と当該医用画像データに関連付けられた臨床情報との比較結果を出力する。表示制御機能116において処理回路11は、整合判定機能114による比較結果をディスプレイ19に表示する。
As described above, the medical
上記構成により、アノテーションを付すべき領域が指定されると、当該領域の位置と臨床情報と比較され、その比較結果が表示されるので、ユーザは、指定した領域が正しいのか否かを即時的に判断することができる。画像認識に関する機械学習の教師データの作成のために大量の画像にアノテーションを付す作業を行わなければならないが、本実施形態によれば、この作業を簡易且つ正確に行うことができる。 With the above configuration, when the area to be annotated is specified, the position of the area is compared with the clinical information and the comparison result is displayed, so that the user can immediately determine whether or not the specified area is correct. You can judge. In order to create teacher data for machine learning related to image recognition, it is necessary to perform the work of annotating a large number of images, but according to the present embodiment, this work can be performed easily and accurately.
以上説明した少なくとも1つの実施形態によれば、画像認識に関する機械学習の教師データの作成の手間を削減することができる。 According to at least one embodiment described above, it is possible to reduce the trouble of creating teacher data for machine learning related to image recognition.
上記説明において用いた「プロセッサ」という文言は、例えば、CPU、GPU、或いは、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC))、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、及びフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等の回路を意味する。プロセッサは記憶回路に保存されたプログラムを読み出し実行することで機能を実現する。なお、記憶回路にプログラムを保存する代わりに、プロセッサの回路内にプログラムを直接組み込むよう構成しても構わない。この場合、プロセッサは回路内に組み込まれたプログラムを読み出し実行することで機能を実現する。また、プログラムを実行するのではなく、論理回路の組合せにより当該プログラムに対応する機能を実現しても良い。なお、本実施形態の各プロセッサは、プロセッサごとに単一の回路として構成される場合に限らず、複数の独立した回路を組み合わせて1つのプロセッサとして構成し、その機能を実現するようにしてもよい。さらに、図1における複数の構成要素を1つのプロセッサへ統合してその機能を実現するようにしてもよい。 The term "processor" used in the above description refers to, for example, a CPU, a GPU, or an application specific integrated circuit (ASIC), a programmable logic device (for example, a simple programmable logic device (Simple Programmable Logic Device)). : SPLD), a complex programmable logic device (CPLD), and a field programmable gate array (FPGA)). The processor realizes the function by reading and executing the program stored in the storage circuit. Instead of storing the program in the storage circuit, the program may be directly embedded in the circuit of the processor. In this case, the processor realizes the function by reading and executing the program embedded in the circuit. Further, instead of executing the program, a function corresponding to the program may be realized by a combination of logic circuits. It should be noted that each processor of the present embodiment is not limited to the case where each processor is configured as a single circuit, and a plurality of independent circuits may be combined to form one processor to realize its function. good. Further, the plurality of components in FIG. 1 may be integrated into one processor to realize the function.
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 Although some embodiments of the present invention have been described, these embodiments are presented as examples and are not intended to limit the scope of the invention. These embodiments can be implemented in various other embodiments, and various omissions, replacements, and changes can be made without departing from the gist of the invention. These embodiments and variations thereof are included in the scope of the invention described in the claims and the equivalent scope thereof, as are included in the scope and gist of the invention.
1 医用画像処理装置
11 処理回路
13 メモリ
15 入力インタフェース
17 通信インタフェース
19 ディスプレイ
111 画像読出機能
112 テキスト読出機能
113 付与領域決定機能
114 整合判定機能
115 画像処理機能
116 表示制御機能
117 記憶制御機能
118 機械学習機能
1 Medical
Claims (18)
前記医用画像データにアノテーションを付与することにより画像認識に関する機械学習の教師データを生成するために、前記医用画像データのうちの前記アノテーションの付与領域を、ユーザによる指示に従い決定する決定部と、
前記医用画像データ内の前記付与領域の位置と前記医用画像データに関連付けられた臨床情報との比較結果を出力する整合判定部と、
前記比較結果を前記ディスプレイに表示する表示制御部と、
を具備し、
前記表示制御部は、前記アノテーションの付与処理における表示画面において、前記臨床情報に関する複数の解剖学的位置条件にそれぞれ対応する複数のテキストを、前記医用画像データと共に表示し、
前記整合判定部は、前記付与領域の位置が前記複数の解剖学的位置条件を満たすか否かを判定し、
前記表示制御部は、前記付与領域の位置が前記複数の解剖学的位置条件の何れかを満たさないと判定された場合、前記複数のテキストのうちの、当該満たさないと判定された解剖学的位置条件に対応するテキストを区別可能に表示する、
医用画像処理装置。 A display that displays medical image data and
In order to generate machine learning teacher data related to image recognition by annotating the medical image data, a determination unit that determines an annotation region of the medical image data according to a user's instruction. ,
A matching determination unit that outputs a comparison result between the position of the imparted region in the medical image data and clinical information associated with the medical image data, and a matching determination unit.
A display control unit that displays the comparison result on the display,
Equipped with
The display control unit displays a plurality of texts corresponding to the plurality of anatomical position conditions related to the clinical information together with the medical image data on the display screen in the annotation processing.
The matching determination unit determines whether or not the position of the imparting region satisfies the plurality of anatomical position conditions.
When the display control unit determines that the position of the imparted region does not satisfy any of the plurality of anatomical position conditions, the display control unit determines that the anatomical position of the plurality of texts does not satisfy the anatomical position. Distinguish the text corresponding to the positional condition,
Medical image processing equipment.
請求項1記載の医用画像処理装置。The medical image processing apparatus according to claim 1.
前記臨床情報が示す解剖学的部位に対応する解剖学的基準点を特定し、
前記付与領域の位置が前記複数の解剖学的位置条件を満たすか否かを前記解剖学的基準点を介して判定する、
請求項1記載の医用画像処理装置。 The matching determination unit
Identify the anatomical reference point corresponding to the anatomical site indicated by the clinical information.
Whether or not the position of the imparted region satisfies the plurality of anatomical position conditions is determined via the anatomical reference point.
The medical image processing apparatus according to claim 1.
前記画像生成部は、前記医用画像データの収集に利用した医用モダリティの撮影軸を基準線とするオリジナルの表示断面に関する第一の表示画像を生成し、
前記表示制御部は、前記第一の表示画像を前記ディスプレイに表示し、
前記画像生成部は、変更指示を受けた場合、前記医用画像データに基づいて、前記医用画像データに含まれる患者領域の基準軸を前記基準線とするセカンダリの表示断面に関する第二の表示画像を生成し、
前記表示制御部は、前記第一の表示画像に代えて前記第二の表示画像を前記ディスプレイに表示する、
請求項1記載の医用画像処理装置。 Further, an image generation unit that generates a display image based on the medical image data is provided.
The image generation unit generates a first display image relating to the original display cross section with the imaging axis of the medical modality used for collecting the medical image data as a reference line.
The display control unit displays the first display image on the display.
When the image generation unit receives a change instruction, based on the medical image data, the image generation unit displays a second display image relating to a secondary display cross section having the reference axis of the patient region included in the medical image data as the reference line. Generate and
The display control unit displays the second display image on the display in place of the first display image.
The medical image processing apparatus according to claim 1.
前記表示制御部は、前記表示画像のデータを保存するための保存ボタンを前記ディスプレイに表示し、
前記記憶部は、前記第二の表示画像において前記付与領域に対応する画像領域が指定された後に前記保存ボタンが押下された場合、前記第二の表示画像のデータと前記付与領域とを記憶する、
請求項7記載の医用画像処理装置。 Further provided with a storage unit for storing the data of the display image,
The display control unit displays a save button for saving the data of the display image on the display.
The storage unit stores the data of the second display image and the grant area when the save button is pressed after the image area corresponding to the grant area is designated in the second display image. ,
The medical image processing apparatus according to claim 7 .
前記医用画像データにアノテーションを付与することにより画像認識に関する機械学習の教師データを生成するために、前記医用画像データのうちの前記アノテーションの付与領域を、ユーザによる指示に従い決定させる機能と、
前記医用画像データ内の前記付与領域の位置と前記医用画像データに関連付けられた臨床情報との比較結果を出力させる機能と、
前記比較結果を前記ディスプレイに表示させる機能と、
を実現させ、
前記表示させる機能は、前記アノテーションの付与処理における表示画面において、前記臨床情報に関する複数の解剖学的位置条件にそれぞれ対応する複数のテキストを、前記医用画像データと共に表示し、
前記出力させる機能は、前記付与領域の位置が前記複数の解剖学的位置条件を満たすか否かを判定し、
前記表示させる機能は、前記付与領域の位置が前記複数の解剖学的位置条件の何れかを満たさないと判定された場合、前記複数のテキストのうちの、当該満たさないと判定された解剖学的位置条件に対応するテキストを区別可能に表示する、
教師データ作成プログラム。 To a computer that can communicate with a display that displays medical image data,
In order to generate machine learning teacher data related to image recognition by annotating the medical image data, a function of determining the area to be annotated in the medical image data according to a user's instruction.
A function to output a comparison result between the position of the imparted region in the medical image data and clinical information associated with the medical image data, and
The function of displaying the comparison result on the display and
Realized ,
The display function displays a plurality of texts corresponding to a plurality of anatomical position conditions related to the clinical information together with the medical image data on the display screen in the annotation processing.
The output function determines whether or not the position of the imparted region satisfies the plurality of anatomical position conditions.
When it is determined that the position of the imparted region does not satisfy any of the plurality of anatomical position conditions, the function to be displayed is an anatomical determination that the position of the plurality of texts is not satisfied. Distinguish the text corresponding to the positional condition,
Teacher data creation program.
前記医用画像データにアノテーションを付与することにより画像認識に関する機械学習の教師データを生成するために、前記医用画像データのうちの前記アノテーションの付与領域を、ユーザによる指示に従い決定させる工程と、
前記医用画像データ内の前記付与領域の位置と前記医用画像データに関連付けられた臨床情報との比較結果を出力させる工程と、
前記比較結果を前記ディスプレイに表示させる工程と、
を具備し、
前記表示させる工程は、前記アノテーションの付与処理における表示画面において、前記臨床情報に関する複数の解剖学的位置条件にそれぞれ対応する複数のテキストを、前記医用画像データと共に表示し、
前記出力させる工程は、前記付与領域の位置が前記複数の解剖学的位置条件を満たすか否かを判定し、
前記表示させる工程は、前記付与領域の位置が前記複数の解剖学的位置条件の何れかを満たさないと判定された場合、前記複数のテキストのうちの、当該満たさないと判定された解剖学的位置条件に対応するテキストを区別可能に表示する、
教師データ作成方法。
It is a method of creating teacher data by a computer that can communicate with the display on which medical image data is displayed.
In order to generate machine learning teacher data related to image recognition by annotating the medical image data, a step of determining an annotation region of the medical image data according to a user's instruction.
A step of outputting a comparison result between the position of the imparted region in the medical image data and clinical information associated with the medical image data, and
The step of displaying the comparison result on the display and
Equipped with
In the step of displaying, a plurality of texts corresponding to a plurality of anatomical position conditions relating to the clinical information are displayed together with the medical image data on the display screen in the annotation processing.
In the output step, it is determined whether or not the position of the imparting region satisfies the plurality of anatomical position conditions.
In the step of displaying, when it is determined that the position of the imparting region does not satisfy any of the plurality of anatomical position conditions, the anatomical determination of the plurality of texts is not satisfied. Distinguish the text corresponding to the positional condition,
How to create teacher data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018075759A JP7066491B2 (en) | 2018-04-10 | 2018-04-10 | Medical image processing device, teacher data creation program and teacher data creation method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018075759A JP7066491B2 (en) | 2018-04-10 | 2018-04-10 | Medical image processing device, teacher data creation program and teacher data creation method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019180866A JP2019180866A (en) | 2019-10-24 |
JP7066491B2 true JP7066491B2 (en) | 2022-05-13 |
Family
ID=68338293
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018075759A Active JP7066491B2 (en) | 2018-04-10 | 2018-04-10 | Medical image processing device, teacher data creation program and teacher data creation method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7066491B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7292184B2 (en) * | 2019-11-11 | 2023-06-16 | 富士フイルム株式会社 | LEARNING APPARATUS, LEARNING METHOD AND TRAINED MODEL |
JP7154675B1 (en) * | 2021-04-28 | 2022-10-18 | 株式会社スクリエ | Medical Facility Referral System, Medical Facility Referral Method and Program |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004173839A (en) | 2002-11-26 | 2004-06-24 | Fuji Photo Film Co Ltd | Image display system, display terminal, and apparatus for managing tomographic image |
JP2006014928A (en) | 2004-07-01 | 2006-01-19 | Fuji Photo Film Co Ltd | Method, device and program for displaying image |
JP2008200373A (en) | 2007-02-22 | 2008-09-04 | Fujifilm Corp | Similar case retrieval apparatus and its method and program and similar case database registration device and its method and program |
JP2009034503A (en) | 2007-08-02 | 2009-02-19 | General Electric Co <Ge> | Method and system for displaying tomosynthesis image |
JP2009082227A (en) | 2007-09-27 | 2009-04-23 | Fujifilm Corp | Medical report system, and medical report making apparatus and method |
JP2010252989A (en) | 2009-04-23 | 2010-11-11 | Canon Inc | Medical diagnosis support device and method of control for the same |
WO2012063653A1 (en) | 2010-11-12 | 2012-05-18 | 株式会社 日立メディコ | Medical image display device and medical image display method |
JP2015187845A (en) | 2014-03-11 | 2015-10-29 | 株式会社東芝 | Radiogram interpretation report preparation apparatus and radiogram interpretation report preparation system |
-
2018
- 2018-04-10 JP JP2018075759A patent/JP7066491B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004173839A (en) | 2002-11-26 | 2004-06-24 | Fuji Photo Film Co Ltd | Image display system, display terminal, and apparatus for managing tomographic image |
JP2006014928A (en) | 2004-07-01 | 2006-01-19 | Fuji Photo Film Co Ltd | Method, device and program for displaying image |
JP2008200373A (en) | 2007-02-22 | 2008-09-04 | Fujifilm Corp | Similar case retrieval apparatus and its method and program and similar case database registration device and its method and program |
JP2009034503A (en) | 2007-08-02 | 2009-02-19 | General Electric Co <Ge> | Method and system for displaying tomosynthesis image |
JP2009082227A (en) | 2007-09-27 | 2009-04-23 | Fujifilm Corp | Medical report system, and medical report making apparatus and method |
JP2010252989A (en) | 2009-04-23 | 2010-11-11 | Canon Inc | Medical diagnosis support device and method of control for the same |
WO2012063653A1 (en) | 2010-11-12 | 2012-05-18 | 株式会社 日立メディコ | Medical image display device and medical image display method |
JP2015187845A (en) | 2014-03-11 | 2015-10-29 | 株式会社東芝 | Radiogram interpretation report preparation apparatus and radiogram interpretation report preparation system |
Also Published As
Publication number | Publication date |
---|---|
JP2019180866A (en) | 2019-10-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8625867B2 (en) | Medical image display apparatus, method, and program | |
EP2904589B1 (en) | Medical image navigation | |
US8929627B2 (en) | Examination information display device and method | |
US11594002B2 (en) | Overlay and manipulation of medical images in a virtual environment | |
CN107403425A (en) | Radiological report is automatically generated from image and is excluded automatically without the image found | |
JP2010075403A (en) | Information processing device and method of controlling the same, data processing system | |
JP7258772B2 (en) | holistic patient radiology viewer | |
JP2017051591A (en) | Information processing device and method thereof, information processing system, and computer program | |
US9697598B2 (en) | Generating a key-image from a medical image | |
JP2019103848A (en) | Medical image processing method, medical image processing device, medical image processing system, and medical image processing program | |
US20100082365A1 (en) | Navigation and Visualization of Multi-Dimensional Image Data | |
JP7066491B2 (en) | Medical image processing device, teacher data creation program and teacher data creation method | |
KR20150085943A (en) | Method and apparatus of generating structured report including region of interest information in medical image reading processing | |
CN113645896A (en) | System for surgical planning, surgical navigation and imaging | |
JP5539478B2 (en) | Information processing apparatus and information processing method | |
JP2010110544A (en) | Image processing device, method and program | |
US20230335261A1 (en) | Combining natural language understanding and image segmentation to intelligently populate text reports | |
JPWO2019044081A1 (en) | Medical image display device, method and program | |
JP7271277B2 (en) | Medical image processing device and medical image processing system | |
JP2014184012A (en) | Surgery support device, surgery support method, and surgery support program | |
Rahman et al. | A framework to visualize 3d breast tumor using x-ray vision technique in mobile augmented reality | |
US20220108540A1 (en) | Devices, systems and methods for generating and providing image information | |
CN104105441B (en) | Extracted region processing system | |
JPWO2019044089A1 (en) | Medical information display device, method and program | |
US10796433B2 (en) | Interpretation support apparatus, operation method thereof, and non-transitory computer readable medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210120 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211227 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220111 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220314 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220329 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220427 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7066491 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |