JP6397277B2 - 読影レポート作成のための支援装置およびその制御方法 - Google Patents
読影レポート作成のための支援装置およびその制御方法 Download PDFInfo
- Publication number
- JP6397277B2 JP6397277B2 JP2014181591A JP2014181591A JP6397277B2 JP 6397277 B2 JP6397277 B2 JP 6397277B2 JP 2014181591 A JP2014181591 A JP 2014181591A JP 2014181591 A JP2014181591 A JP 2014181591A JP 6397277 B2 JP6397277 B2 JP 6397277B2
- Authority
- JP
- Japan
- Prior art keywords
- area
- image data
- medical image
- areas
- attention
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 36
- 210000003484 anatomy Anatomy 0.000 claims description 22
- 238000012790 confirmation Methods 0.000 claims description 14
- 238000001514 detection method Methods 0.000 claims description 2
- 238000012545 processing Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 8
- 238000003745 diagnosis Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000000605 extraction Methods 0.000 description 3
- 238000002360 preparation method Methods 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 230000003187 abdominal effect Effects 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 210000004072 lung Anatomy 0.000 description 2
- 210000000056 organ Anatomy 0.000 description 2
- 238000011976 chest X-ray Methods 0.000 description 1
- 238000004195 computer-aided diagnosis Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 230000003902 lesion Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 210000004185 liver Anatomy 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 208000024891 symptom Diseases 0.000 description 1
- 239000000439 tumor marker Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/20—ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/7475—User input or interface means, e.g. keyboard, pointing device, joystick
- A61B5/748—Selection of a region of interest, e.g. using a graphics tablet
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/02—Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
- A61B6/03—Computed tomography [CT]
- A61B6/032—Transmission computed tomography [CT]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/46—Arrangements for interfacing with the operator or the patient
- A61B6/461—Displaying means of special interest
- A61B6/465—Displaying means of special interest adapted to display user selection data, e.g. graphical user interface, icons or menus
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/46—Arrangements for interfacing with the operator or the patient
- A61B6/467—Arrangements for interfacing with the operator or the patient characterised by special input means
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/46—Arrangements for interfacing with the operator or the patient
- A61B6/467—Arrangements for interfacing with the operator or the patient characterised by special input means
- A61B6/468—Arrangements for interfacing with the operator or the patient characterised by special input means allowing annotation or message recording
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/46—Arrangements for interfacing with the operator or the patient
- A61B6/467—Arrangements for interfacing with the operator or the patient characterised by special input means
- A61B6/469—Arrangements for interfacing with the operator or the patient characterised by special input means for selecting a region of interest [ROI]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/13—Tomography
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/46—Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
- A61B8/461—Displaying means of special interest
- A61B8/465—Displaying means of special interest adapted to display user selection data, e.g. icons or menus
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/46—Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
- A61B8/467—Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
- A61B8/468—Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means allowing annotation or message recording
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/46—Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
- A61B8/467—Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
- A61B8/469—Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means for selection of a region of interest
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/10—Office automation; Time management
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H15/00—ICT specially adapted for medical reports, e.g. generation or transmission thereof
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/05—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves
- A61B5/055—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/742—Details of notification to user or communication with user or patient ; user input means using visual displays
- A61B5/7435—Displaying user selection data, e.g. icons in a graphical user interface
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/13—Tomography
- A61B8/14—Echo-tomography
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Biomedical Technology (AREA)
- Pathology (AREA)
- Surgery (AREA)
- Biophysics (AREA)
- Heart & Thoracic Surgery (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- Veterinary Medicine (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Optics & Photonics (AREA)
- High Energy & Nuclear Physics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Epidemiology (AREA)
- Primary Health Care (AREA)
- Business, Economics & Management (AREA)
- Human Resources & Organizations (AREA)
- Strategic Management (AREA)
- Entrepreneurship & Innovation (AREA)
- Quality & Reliability (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Pulmonology (AREA)
- General Business, Economics & Management (AREA)
- Tourism & Hospitality (AREA)
- Operations Research (AREA)
- Marketing (AREA)
- Economics (AREA)
- Databases & Information Systems (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
Description
本発明は、読影レポートの作成を支援する支援装置およびその制御方法に関する。
医療の分野では、X線CT装置やMRI等の撮影装置により得られた医用画像データを医師が読影して診断を行う画像診断が行われている。画像診断では、主治医からの読影の依頼に応じて、医師が、画像から得られる所見(読影所見)や各種測定値を総合的に判断して画像に写る病変の症状を特定する。そして、医師は、その診断に至った経緯を読影所見や測定値を利用して、依頼元の主治医への読影レポートとしてまとめる。
このような読影レポートの作成において、読影者の視線を検知することにより、読影レポート作成時の医用画像データの確認状況を把握する技術が知られている。特許文献1には、レポート作成時の入力情報と、その入力情報を入力している時に医用画像データ内で注目している部分(注目情報)を対応づけて格納する技術が記載されている。この技術によれば、医用画像データのどの部分に注目して読影レポートを作成したのかを把握することができる。特許文献2には、検査情報やコンピュータ支援診断機能を用いて観察すべき観察箇所を特定し、特定された観察箇所を視線情報に基づき確認したかを判定する技術が記載されている。この技術によれば、事前に定められた観察すべき箇所を確認したかを把握することができる。
神山他:「融合移動グラフカットに基づく腹部CT像からの複数臓器同時抽出」、信学技報、MI2010−122、2011−01
しかしながら、特許文献1では入力情報と注目情報を対応づけて格納するにとどまり、入力が行われていない注目領域(ユーザが注目したものの、レポートには記述されていない領域)や、入力情報と注目情報との整合性について考慮されていない。また、特許文献2の技術によれば、事前に定められた観察すべき観察箇所で入力が行われたかを判定することは可能であるが、事前に定められていない領域について入力が行われたかを判定することはできない。換言すると、観察するよう促されていない領域について医師が所見を持ったもののそれを入力し忘れた場合(以下、記述漏れと称する)には、注意を促すことはできなかった。また、入力内容と注目情報の整合性が考慮されていないため、たとえば、入力内容で指摘された領域が注目情報にないような不一致(以下、確認漏れと称する)が発生した場合に、注意を促すことはできなかった。
本発明は、上述したような課題に鑑みてなされたものであり、記述漏れおよび/または確認漏れの発生を低減して適切な読影レポートを作成するための支援を提供することを目的とする。
上記の目的を達成するための本発明の一態様による支援装置は以下の構成を備える。すなわち、
読影レポートの作成を支援する支援装置であって、
読影対象の医用画像データを表示する表示手段と、
前記表示手段により表示された前記医用画像データにおいて読影時に注目された領域と判定された注目領域の集合を取得する第1の取得手段と、
前記医用画像データに対応するレポート文に記述されている医学的な領域である記述領域の集合を取得する第2の取得手段と、
前記注目領域の集合と前記記述領域の集合の整合性を判定する判定手段と、
前記判定手段による判定の結果を提示する提示手段と、を備える。
読影レポートの作成を支援する支援装置であって、
読影対象の医用画像データを表示する表示手段と、
前記表示手段により表示された前記医用画像データにおいて読影時に注目された領域と判定された注目領域の集合を取得する第1の取得手段と、
前記医用画像データに対応するレポート文に記述されている医学的な領域である記述領域の集合を取得する第2の取得手段と、
前記注目領域の集合と前記記述領域の集合の整合性を判定する判定手段と、
前記判定手段による判定の結果を提示する提示手段と、を備える。
本発明によれば、読影レポートの作成において、記述漏れまたは確認漏れの発生を低減することができる。
以下、添付の図面を参照しながら、本発明の好適な実施形態について説明する。ただし、発明の範囲は図示例に限定されるものではない。
[第1実施形態]
第1実施形態に係る読影レポート作成支援装置は、診断対象である症例に係る医用情報(医用画像データや電子カルテの情報など)や、ユーザからの入力情報(ユーザの視線情報やレポート文など)を取得し、当該症例に係る読影レポートの作成を支援する。ユーザとは、たとえば、医用画像データを読影する読影者である。以下では、医用画像データの一例として3次元の胸部X線CT画像データを扱う例を用いて説明する。もちろん本発明による読影の支援対象はこれに限定されるものではなく、たとえば、単純X線撮影による2次元画像や超音波断層像などの読影の支援にも適用可能である。以下に示す実施形態は、何れも読影レポート作成支援装置の処理の工程を説明するための一例に過ぎない。
第1実施形態に係る読影レポート作成支援装置は、診断対象である症例に係る医用情報(医用画像データや電子カルテの情報など)や、ユーザからの入力情報(ユーザの視線情報やレポート文など)を取得し、当該症例に係る読影レポートの作成を支援する。ユーザとは、たとえば、医用画像データを読影する読影者である。以下では、医用画像データの一例として3次元の胸部X線CT画像データを扱う例を用いて説明する。もちろん本発明による読影の支援対象はこれに限定されるものではなく、たとえば、単純X線撮影による2次元画像や超音波断層像などの読影の支援にも適用可能である。以下に示す実施形態は、何れも読影レポート作成支援装置の処理の工程を説明するための一例に過ぎない。
図1は、第1実施形態に係る読影レポート作成支援装置(以下、支援装置100)の機能構成例を示す。第1実施形態における支援装置100は、表示部200と症例情報端末300とに接続されている。表示部200は、モニタ1005(図2)を有し、システムやユーザの指示により様々な情報を表示する。モニタ1005に表示する具体的な内容に関しては後述する。
症例情報端末300は、診断対象である症例に関する医用情報、たとえば肺の異常陰影に係る医用情報(3次元医用画像データや電子カルテの情報など)を不図示のサーバから取得する。或いは、症例情報端末300は、外部記憶装置、例えばFDD、HDD、CDドライブ、DVDドライブ、MOドライブ、ZIPドライブ等を接続し、それらのドライブから医用情報を取得するようにしてもよい。また、症例情報端末300は、ユーザの要求に従い、肺の異常陰影に関する付随データ(腫瘍マーカー値などの臨床データや、対象患者の過去症例のレポートなど)を取得する。取得された医用情報や付随データはLAN等を介して支援装置100へと送信される。
支援装置100は、レポート作成部101と、領域情報取得部102と、視線情報取得部104と、レポート文取得部106と、注目領域取得部108と、記述領域取得部110と、判定部112と、提示情報作成部114とを備える。なお、支援装置100と症例情報端末300を別々の装置として示したが、これらは一体化されてもよい。
レポート作成部101は、レポート作成時の全体的な処理を行う。たとえば、レポート作成部101は、読影レポート作成画面(図5により後述)を表示部200のモニタ1005に表示する。読影レポート作成画面には、症例情報端末300から受信した読影対象の医用情報(医用画像データ)が表示され、ユーザは表示された医用画像データを読影して、後述のキーボード1007等を用いて読影レポートを入力する。こうして、ユーザは表示された医用情報(医用画像データなど)を観察することにより読影を行うことができる。
領域情報取得部102は、症例情報端末300から送信された医用画像データの座標位置と領域の対応付け情報(領域情報)を取得する。より具体的には、医用画像データの座標位置と医学的に分割された領域との対応付け情報を取得する。本実施形態では、医学的に分割された領域として解剖学的構造(たとえば、心臓、肝臓、右上葉など)が用いられる。取得した対応付け情報は注目領域取得部108、記述領域取得部110へと出力する。なお、このような領域情報の取得は、医用画像データに対し既知のセグメンテーション手法を適用し、セグメンテーション結果と画像の座標位置を対応づけることで実現できる。この様なセグメンテーション手法としては、たとえば、非特許文献1に記載の腹部の複数臓器同時抽出技術があげられる。なお、領域情報は、領域情報取得部102が読影対象の医用画像データを解析して取得してもよいし、症例情報端末300から送信される医用画像データに予め領域情報が含まれていてもよい。或いは、ユーザがマニュアルで解剖学的構造に対応する領域と名称を指定するようにしてもよい。
視線情報取得部104は、ユーザが、医用画像データのどの位置を見ているかという視線情報を取得する。本実施形態では、視線情報取得部104は、モニタ1005上の視線位置を検出し、モニタ1005上における医用画像データの表示位置と検出された視線位置の座標に基づいて、対応する医用画像データ上の座標位置を取得し、これを視線情報とする。取得された視線情報は、注目領域取得部108へ出力される。なお、視線情報取得部104は、例えば複数の視点から同期撮影可能なビデオカメラやアイトラッカー等の視線追尾装置1045(図5)を用いてモニタ上の視線位置を検出することで実現できる。具体的には、ユーザの顔や目を複数の視点から撮影し、撮影により得られたステレオ画像に対して所定の画像認識処理を施すことにより、モニタ上で視線が向いた場所の座標位置を検出できる。視線追尾装置1045は、例えばモニタの端(モニタ直下など)などに配置される。
レポート文取得部106は、読影レポート作成画面を用いて入力された、ユーザが医用画像データを読影した結果であるレポート文(テキストデータ)を取得する。取得したレポート文は記述領域取得部110へと出力する。
注目領域取得部108は、表示された医用画像データの医学的に分割された領域(たとえば、解剖学的構造に基づいて分割された領域)のうち、読影時にユーザが注目した領域である注目領域の集合を取得する。たとえば、注目領域取得部108は、領域情報取得部102が取得した領域情報と、視線情報取得部104が取得した視線情報を基に、表示されている医用画像データ上で注目した領域である注目領域を取得する。注目領域の具体的な内容については後述する。取得された注目領域は判定部112へと出力される。
記述領域取得部110は、医用画像データに対応するレポート文に記述されている医学的な領域(たとえば、解剖学的構造に基づく領域)である記述領域の集合を取得する。たとえば、記述領域取得部110は、領域情報取得部102が取得した領域情報と、レポート文取得部106が取得したレポート文を基に、記述領域を取得する。取得された記述領域は判定部112へと出力される。
判定部112は、注目領域取得部108で取得した注目領域の集合と、記述領域取得部110で取得した記述領域の集合を基に、注目領域と記述領域の整合性を判定する。判定した結果は提示情報作成部114へと出力する。提示情報作成部114は、判定部112で判定した結果を基に提示情報を作成する。作成した提示情報は、例えば表示部200へ出力され、モニタ1005により提示される。
なお、図1に示した支援装置100の各部の少なくとも一部は独立した装置として実現してもよい。また、夫々が機能を実現するソフトウェアとして実現してもよい。本実施形態では各部はそれぞれ所定のソフトウェアをコンピュータが実行することにより実現されているものとする。
図2は、図1に示した各部の夫々の機能をソフトウェアを実行することで実現するためのコンピュータ装置の基本的なハードウェア構成を示す図である。すなわち、本実施形態の支援装置100は、コンピュータ装置により実現され得る。CPU1001は、主として各構成要素の動作を制御する。主メモリ1002は、CPU1001が実行する制御プログラムを格納したり、CPU1001によるプログラム実行時の作業領域を提供したりする。磁気ディスク1003は、オペレーティングシステム(OS)、周辺機器のデバイスドライブ、後述する処理等を行うためのプログラムを含む各種アプリケーションソフト等を格納する。
表示メモリ1004は、表示用データを一時記憶する。モニタ1005は、例えばCRTモニタや液晶モニタ等であり、表示メモリ1004からのデータに基づいて画像やテキストなどの表示を行う。マウス1006及びキーボード1007は、ユーザによるポインティング入力及び文字等の入力をそれぞれ行う。インターフェース1008は、支援装置100をネットワーク等に接続する。たとえば、インターフェース1008を介して症例情報端末300が支援装置100に接続される。上記各構成要素は、共通バス1009により互いに通信可能に接続されている。
次に、以上のような構成を備えた本実施形態の支援装置100が行う処理(読影時のレポート作成を支援する処理)について、図3のフローチャートを用いて説明する。本実施形態では、CPU1001が主メモリ1002に格納されている各部の機能を実現するプログラムを実行することにより実現される。なお、以下の説明では、モニタ1005の画面上の位置(画素)をMN座標系、医用画像データでの位置(ボクセル)をXYZ座標系で表す。また、以下の説明では、視線情報取得部104による視線情報の検出は、予め決められたサンプリングレート(例えば0.1秒)で取得するものとする。そして、ある時点での視線情報をOt(otx, oty,otz)(t = 1, 2, …)とする。
ステップS300において、レポート作成部101は、モニタ1005に、読影レポート作成画面を表示する。図5に示されるように、読影レポート作成画面は、読影対象の医用画像データを表示するための断層画像表示領域501、ユーザによるレポート(テキストデータ)の入力を受け付けるレポート文入力領域502、読影終了ボタン503を含む。断層画像表示領域501には、たとえば、医用画像データのaxial断層像が表示される。なお、図5に示される2つの画面は、1つのモニタの画面に同時に表示されてもよいし、1つのモニタの画面に切り替えて表示されてもよいし、2つのモニタを用いて別々に表示されてもよい。本実施形態では2つのモニタを用いて別々に表示されるものとし、後述の視線情報の取得は、医用画像データを表示したモニタに対して行われるものとする。
次に、ステップS301において、領域情報取得部102は、症例情報端末300から送信された医用画像データ、すなわち読影対象の医用画像データの座標位置と被写体の解剖学的構造との対応付け情報(領域情報)を取得する。この領域情報は、例えば、解剖学的構造ごとに異なるラベルを割り当て、各ボクセルにラベルを紐づけた対応表として取得される。あるいは条件式の形で取得してもよい。夫々の例を図4(a)(b)に示す。図4(a)では、個々のボクセルに解剖学的構造を示すラベルが紐づけられた領域情報が示されている。また、図4(b)では、それぞれの解剖学的構造のラベルにボクセルの座標範囲を規定した領域情報が示されている。もちろん、これ以外の形式で領域情報を構成してもよい。以降では、図4(a)に示したような対応表の形式で領域情報を取得した場合を説明する。
次に、ステップS302において、視線情報取得部104は、ユーザが、医用画像データのどの位置を見ているかという視線情報を取得する。また、レポート文取得部106は、ユーザが医用画像データを読影しその結果をまとめたレポート文を取得する。本実施形態では、レポート作成部101の制御下で、ユーザが図5に示すレポート文入力領域502にキーボード1007を用いてレポート文を入力することができる。
ここで、視線情報取得部104による視線情報の取得について説明する。図5はモニタ1005に読影レポート作成画面と読影対象の医用画像データを表示した例である。この例では、医用画像データから構成したaxial断層像が表示されている。axial断層像は体の上下(頭尾、体軸)に対して垂直な断層画像であり、本実施形態の座標系では、あるZ座標(体軸上のある位置)におけるXY平面の断層像として表される。モニタ1005の下には視線追尾装置1045が備え付けられており、ユーザがモニタ1005のどの位置(表示画素)を見ているかを、MN座標系の座標として検出する。
いま、簡単のために、モニタの表示画素とaxial断層像(XY平面)の画素の大きさが完全に一致する場合を考える。さらに、モニタの表示画素を示す座標(m, n)とaxial断層像の画素を示す座標(x, y)の対応関係が、x=m-a、y=n-bによって表されるものとする。換言すると、医用画像データの一ボクセルの値を、モニタの一画素で表示している場合を考える。この状態でモニタの一点(m, n)に着目すると、医用画像データでのx(= m-a)とy(= n-b)の値が定まる。さらに、表示されるaxial断層像に応じてzの位置が定まるため、モニタ上の座標(m, n)が定まると、医用画像データ上の座標(x, y, z)が一意に定まる。このことを利用して、視線追尾装置1045が検出したモニタ1005上の視線の座標から医用画像データ上で視線が向いた位置の座標(すなわち視線情報)を得ることができる。
なお、モニタの表示画素とaxial断層像(XY平面)の画素の大きさが一致していない場合は、画素の大きさの比率を用いて医用画像データ上の位置の座標を計算することができる。また、視野を考慮し、モニタ1005の表示画素に対応するaxial断層像の画素の周辺の画素が示す医用画像データ上の座標位置も視線が向いた位置の座標として取得してもよい。すなわち、取得された一つの視線位置について複数の医用画像データ上の座標位置が取得されるようにしてもよい。
ユーザは読影終了ボタン503を押下することにより、レポート文の入力終了を支援装置100に通知する。レポート文の入力終了が通知されると、処理はステップS302からステップS303へ進む。なお、ステップS303で読影終了ボタン503が押下されていないと判定された場合は、処理はステップS302に戻り、視線情報取得およびレポート文の入力の処理を継続する。
ステップS304において、注目領域取得部108は、読影時に検出した視線位置に基づいて注目領域の集合を取得する。すなわち、注目領域取得部108は、ステップS300で取得した領域情報と、ステップS301において取得した視線情報を基に、医用画像データ上の医学的に分割された領域のうちのユーザによって注目された領域である注目領域を取得する。領域Aが注目領域か否かの判定方法としては、たとえば、
(1)読影時に断層画像表示領域501に表示された領域Aにおいて、視線位置が検出された画素(またはボクセル)の数NoAを取得し、
(2)表示された領域Aの全画素数(全ボクセル数)NaAを取得して、領域Aに含まれる画素の全数に対する視線位置が検出された画素の数の割合(NoA/NaA)が所定値を超える領域を注目領域とする、といった方法があげられる。なお、領域内に視線位置が存在した時間が所定時間を超える領域を注目領域とする、といった方法も考えられるが、時間のみで判定すると領域Aの全体を俯瞰していなくても注目した領域として判定されてしまう。したがって、視線位置が存在した時間を用いた判定と上述した割合(NoA/NaA)を用いた判定を組み合わせることが望ましい。たとえば、NoA/NaAが所定値を超え、且つ、領域Aに視線位置が存在した時間の合計が所定時間を超える場合に、領域Aを注目領域と判定するようにするのが好ましい。
(1)読影時に断層画像表示領域501に表示された領域Aにおいて、視線位置が検出された画素(またはボクセル)の数NoAを取得し、
(2)表示された領域Aの全画素数(全ボクセル数)NaAを取得して、領域Aに含まれる画素の全数に対する視線位置が検出された画素の数の割合(NoA/NaA)が所定値を超える領域を注目領域とする、といった方法があげられる。なお、領域内に視線位置が存在した時間が所定時間を超える領域を注目領域とする、といった方法も考えられるが、時間のみで判定すると領域Aの全体を俯瞰していなくても注目した領域として判定されてしまう。したがって、視線位置が存在した時間を用いた判定と上述した割合(NoA/NaA)を用いた判定を組み合わせることが望ましい。たとえば、NoA/NaAが所定値を超え、且つ、領域Aに視線位置が存在した時間の合計が所定時間を超える場合に、領域Aを注目領域と判定するようにするのが好ましい。
本実施形態では、上記(1)、(2)の手順を用いる。より具体的には、一度でも観測されたボクセルを観測された領域とみなし、解剖学的構造が割り当てられたラベルごとに観測されたボクセル数を計数する。そしてラベルごとに観測されたボクセル数とそのラベルを持つボクセルの総数をもとに、そのラベル(すなわち解剖学的構造)が注視されたか判定する。例えば、あるラベルを持つボクセルの総数の一定割合より多いボクセルを観測した場合に、そのラベルに対応する解剖学的構造を注視したものと判定する。したがって、以下では、(1)(2)の手順で判定された注目領域を注視領域とも称する。
図6を用いて説明する。図6において、601は領域情報と視線情報とあるZ位置(Z=6)でのaxial断層像を示したものである。602は、領域情報取得部102がaxial断層像601について取得した領域情報を示す。また、603は、視線情報取得部104が取得した視線情報である。
axial断層像601の各ピクセル(x,y)に書かれた数字は、領域情報602が示す、各ボクセル(x, y, 6)に割り当てられたラベルを示したものである。例えば、ピクセル(3, 7)(すなわち、ボクセル(3, 7, 6))はラベルが「1」なので右上葉であることを示す。また、グレーで塗られたピクセルは、視線情報603により示されるピクセル(すなわち観測されたボクセル)を示す。視線情報603では、時刻Otにおける視線位置(x,y,z)(ボクセルの座標)が時系列に(Ot=O1、O2、O3…の順に)記録されている。この断層像の例では、観測されたボクセルは「0(体表外)」が2個、「1(右上葉)」が14個、「2(右中葉)」が9個、「3(右下葉)」が10個、「4(左上葉)」が6個、「5(左下葉)」が19個、「9(その他)」が23個となる。これを医用画像データ全体に適用することにより、医用画像データ全体での、ラベル毎の観測されたボクセル数を計数することができる。
本実施形態では、ラベルkの観測されたボクセル数をNok、ラベルkに属するボクセル総数をNakとし、Nok/Nak>0.8を満たす場合に、ラベルkの示す解剖学的構造を注視したものとする。なお、以下の説明では、「右上葉」と「右下葉」を注視領域として観測したものとする。
ステップS305において、記述領域取得部110は、ステップS301で取得した領域情報と、ステップS303で取得したレポート文を基にレポート文に記述された領域である記述領域を取得する。本実施形態では、領域情報の各ラベルが示す解剖学的構造名をキーワードとし、レポート文に対してキーワードマッチングを用いて記述領域を取得するものとする。なお、類義語やオントロジーを用いてキーワードを拡張してマッチングを行ってもよい。例えば、図5に示したレポート文の例(レポート文入力領域502に示した例)では、「左上葉」と「右下葉」が記述領域として取得される。
ステップS306において、判定部112は、ステップS303で取得した注目領域(注視領域)と、ステップS305で取得した記述領域を基に、注目領域と記述領域の整合性を判定する。本実施形態では、注目領域(注視領域)に含まれていて記述領域に含まれていない情報があるかどうかを判定する。すなわち、注視したにも関わらずレポート文に記載していない記述漏れがあるかどうかを判定する。上記の例では、注視領域である「右上葉」が記述領域に含まれていないため、記述漏れがあると判定する。
ステップS307において、提示情報作成部114は、ステップS306で判定した結果を基に提示情報を作成する。本実施形態では、提示情報としてメッセージボックスを作成するものとする。前述した例では、「右上葉」が記述領域に含まれていないため、その旨を通知するメッセージボックスを作成する。そして、ステップS308において、提示情報作成部114は、作成したメッセージボックスをモニタ1005に表示する。
図7は、本実施形態においてモニタ1005に表示される提示情報の一例を示す。提示情報はメッセージボックス704の形式で表示される。ここで、メッセージボックス704の「はい」ボタンを押下すると、レポート文の修正(再入力)が可能である。すなわち、ステップS309において修正を行う支持が入力されたと判定され、処理がステップS302へ戻り、レポート作成部101によるレポート文の作成(編集)が可能となる。一方「いいえ」ボタンを押下すると、処理はステップS310へ進み、レポート作成部101はレポート文を磁気ディスク1003等に保存してレポート作成支援処理を終了する。
なお、ステップS306において整合性の判定に合格した場合(記述漏れが無いと判定された場合)は、たとえば、その旨を表示するメッセージボックスを生成して表示し、レポート文の作成を継続するか否かを問い合わせるようにしてもよい。あるいは、記述漏れがなかったと判定された場合には、上述した「いいえ」ボタンを押下した場合と同様に、レポート文を保存して終了するようにしてもよい。
以上のように、本実施形態によれば、読影時に注視していたにも関わらずレポート文に記述されていない領域に関し、医師に記述漏れの注意喚起を行うことができる。そのため、医師は記述漏れのないレポート文を作成することができる。特に、医用画像データを一通り閲覧した後、一括してレポート文を記載する読影スタイルにおいて有効に作用することが期待できる。これにより、医師は適切な読影レポートを作成することができる。
[第2実施形態]
第1実施形態では、注目領域の集合と記述領域の集合の整合性の判定により「記述漏れ」を検出し、注意喚起を行う構成を説明した。第2実施形態に関わる読影レポート作成支援装置は、医師がレポート文に記述していたにも関わらず、読影時に注視していない領域に関し、医師に注意喚起を行う。すなわち、第2実施形態では、確認漏れに対する注意喚起を行う構成を説明する。
第1実施形態では、注目領域の集合と記述領域の集合の整合性の判定により「記述漏れ」を検出し、注意喚起を行う構成を説明した。第2実施形態に関わる読影レポート作成支援装置は、医師がレポート文に記述していたにも関わらず、読影時に注視していない領域に関し、医師に注意喚起を行う。すなわち、第2実施形態では、確認漏れに対する注意喚起を行う構成を説明する。
第2施形態に係る読影レポート作成のための支援装置100の構成は第1実施形態(図1)と同様である。また、ソフトウェアの実行によって支援装置100の読影レポート作成支援処理を実現するコンピュータの基本構成も、第1実施形態(図2)と同様である。また、支援装置100が行う全体の処理を説明するフローチャートは図3と同様である。ただし、処理の一部が第1実施形態とは異なっている。以下、図3のフローチャートを参照して、第2実施形態に係る支援装置100が行う全体の処理について説明する。
ステップS300からステップS305、ステップS307からステップS310の処理は第1実施形態における処理と同様である。ステップS306において、判定部112は、ステップS304で取得した注目領域の集合と、ステップS305で取得した記述領域の集合を基に、注目領域と記述領域の整合性を判定する。
本実施形態では、記述領域に含まれていて注目領域に含まれていない情報があるかどうかを判定する。なお、第1実施例と同様に、注視領域を用いるものとする。すなわち、医師が記述したにも関わらず読影時に注視していなかった確認漏れがあるかどうかを判定する。例えば、第1実施形態で説明した例のように、注視領域が「右上葉」「右下葉」で、記述領域が「左上葉」と「右下葉」である場合を考える。この場合は、記述領域である「左上葉」が注視領域に含まれていないため、確認漏れがあると判定する。
なお、本実施形態では、ステップS308で提示される提示情報としてシェーマ画像を含むメッセージボックスを作成するものとする。具体的には、確認漏れの領域に対応する解剖学的構造を強調した画像を含むメッセージボックスを作成するものとする。前述した例では、「左上葉」が注視領域に含まれていないため、「左上葉」を強調したシェーマ画像を含むメッセージボックスを作成する。そして、作成したメッセージボックスをモニタ1005へと表示する。
図8は、本実施形態においてモニタ1005に表示される提示情報の一例を示す。提示情報はメッセージボックス805の形式で表示される。ここで、メッセージボックス805の「はい」ボタンを押下すると、再度読影をすることが可能である(すなわち、ステップS301の処理へと戻る)。一方「いいえ」を押下すると、支援装置100はレポート文を保存して終了する。
なお、ステップS306において確認漏れがなかったと判定された場合には、先ほど説明した「いいえ」を押下した場合と同様に、レポート文を保存して終了する。なお、ステップS306において確認漏れがなかったと判定された場合に、その旨を表示するメッセージボックスを生成して表示し、レポート文の作成を継続するか否かを問い合わせるようにしてもよい。
以上のように、第2実施形態によれば、医師がレポート文に記述したにも関わらず、読影時に注視してなかった領域に関し、医師に確認漏れの注意喚起を行うことができる。そのため、医師が注視していない領域に関して記述することを防ぐことができる。
また、別の効果として、過去の読影レポートが存在するフォローアップ症例の読影において、過去の読影レポートを流用してレポート文を作成した場合に有効に作用することが期待できる。すなわち、過去のレポートを流用して現在の状態にそぐわない記述をそのまま残してしまった場合に、確認漏れの警告がでることで、医師が現在の状態に対するレポートにおいて不要な記述の存在に気づくことが期待できる。以上のような構成により、医師は適切な読影レポートを作成することができる。
(変形例1)
第1および第2実施形態では、ステップS304において、注目領域として、断層画像表示領域501に表示されたaxial断層像が示す領域の中で視線情報が得られた注視領域を用いた例を説明した。しかしながら、領域が注目されたか否かを判定する方法として、必ずしも視線位置が検出されたか否かを用いる必要はない。変形例1では、axial断層像のうちの表示された領域を視線位置が検出された領域と同等に扱って注目領域を決定する。すなわち、第1実施形態で説明した、領域Aのうちの視線位置が検出された画素(ボクセル)の数NoAとして、領域Aのうちのモニタ1005により表示された部分の画素数が用いられる。
第1および第2実施形態では、ステップS304において、注目領域として、断層画像表示領域501に表示されたaxial断層像が示す領域の中で視線情報が得られた注視領域を用いた例を説明した。しかしながら、領域が注目されたか否かを判定する方法として、必ずしも視線位置が検出されたか否かを用いる必要はない。変形例1では、axial断層像のうちの表示された領域を視線位置が検出された領域と同等に扱って注目領域を決定する。すなわち、第1実施形態で説明した、領域Aのうちの視線位置が検出された画素(ボクセル)の数NoAとして、領域Aのうちのモニタ1005により表示された部分の画素数が用いられる。
図9はモニタで表示した領域を注目領域とする例を説明する図である。図9(a)は、一般的な医用画像ビューアの機能でaxial断層像906を平行移動した状態で読影している場合を示した例である。この場合、断層画像表示領域501内で表示されている部分のみを注目領域とする。この例ではaxial断層像906のうち、ハッチングされた部分が医用画像データのうちの読影時に表示された部分となる。したがって、医用画像データ(axial断層像906)のハッチングされた部分に少なくとも一部が属している医学的な領域のそれぞれについて、読影時に表示された画素数とその領域の総画素数との比からその領域が注目領域か否かが判定される。図9(b)は一般的な医用画像ビューアの機能でaxial断層像906を拡大表示した状態で読影している場合を示した例である。この例ではaxial断層像906のうち、ハッチングされた部分が読影時に表示される領域となる。上述したように、医用画像データ(axial断層像906)の医学的に分割された領域のうち少なくとも一部がハッチングされた部分に属している領域が、注目領域か否かを判定する対象となる。なお、axial断層像906を縮小表示した状態(すなわち、断層画像表示領域501にaxial断層像906の全体が収まっている場合)は、当然、axial断層像906が示す領域全てが注目領域となる。
(変形例2)
第1および第2実施形態では、ステップS304において、具体的な解剖学的構造として注目領域を取得し、ステップS305において取得した解剖学的構造を示す記述領域を基に、ステップS306において整合性を判定していた。しかし、整合性の判定はこの方法に限定されない。
第1および第2実施形態では、ステップS304において、具体的な解剖学的構造として注目領域を取得し、ステップS305において取得した解剖学的構造を示す記述領域を基に、ステップS306において整合性を判定していた。しかし、整合性の判定はこの方法に限定されない。
例えば、ステップS304では、注目領域取得部108が観測されたボクセル(視線が存在したボクセル)の全てを注目領域として取得し、ステップS301で取得した領域情報を用いて解剖学的構造ごとのボクセル群へと変換する。そして、ステップS306において、判定部112が、記述領域が示す解剖学的構造ごとのボクセル群に、注目領域として取得されたボクセルがどれくらい含まれているかにより整合性を判定するようにしてもよい。
(変形例3)
第1および第2実施形態では、第1実施形態の方法により記述漏れの判定を、第2実施形態の方法により確認漏れの判定を別々に行っていた。しかし、必ずしも別々に行う必要はなく、記述漏れの判定と確認漏れの判定を同時に行ってもよい。すなわち、整合性の判定において、第1実施形態で説明した記述漏れ、第2実施形態で説明した確認漏れの両方を判定するようにしてもよい。また、その場合に、注目領域の集合の取得の仕方を、記述漏れの検出と確認漏れの検出とで異ならせてもよい。たとえば、記述漏れを検出するための注目領域の集合は視線が一度でも存在した領域の集合とし、確認漏れを検出するための注目領域の集合は注視領域の集合とするようにしてもよい。
第1および第2実施形態では、第1実施形態の方法により記述漏れの判定を、第2実施形態の方法により確認漏れの判定を別々に行っていた。しかし、必ずしも別々に行う必要はなく、記述漏れの判定と確認漏れの判定を同時に行ってもよい。すなわち、整合性の判定において、第1実施形態で説明した記述漏れ、第2実施形態で説明した確認漏れの両方を判定するようにしてもよい。また、その場合に、注目領域の集合の取得の仕方を、記述漏れの検出と確認漏れの検出とで異ならせてもよい。たとえば、記述漏れを検出するための注目領域の集合は視線が一度でも存在した領域の集合とし、確認漏れを検出するための注目領域の集合は注視領域の集合とするようにしてもよい。
また、第1および第2実施形態では、注目領域の同定に読影レポート作成画面に表示されたこと、視線位置が存在したことを用いたが、これらに限られるものではない。たとえば、モニタ1005にタッチパネル等のタッチ入力部を設け、読影中にユーザが注目した位置をタッチ入力するようにするようにしてもよい。この場合、注目領域取得部108は、このタッチ入力位置に基づいて注目領域を取得する。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
100:読影レポート作成支援装置、102:領域情報取得部、104:視線情報取得部、106:レポート文取得部、108:注目領域取得部、110:記述領域取得部、112:判定部、114:提示部、200:表示部
Claims (12)
- 読影レポートの作成を支援する支援装置であって、
読影対象の医用画像データを表示する表示手段と、
前記表示手段により表示された前記医用画像データにおいて読影時に注目された領域と判定された注目領域の集合を取得する第1の取得手段と、
前記医用画像データに対応するレポート文に記述されている医学的な領域である記述領域の集合を取得する第2の取得手段と、
前記注目領域の集合と前記記述領域の集合の整合性を判定する判定手段と、
前記判定手段による判定の結果を提示する提示手段と、を備えることを特徴とする支援装置。 - 読影者の視線位置を検出する検出手段をさらに備え、
前記第1の取得手段は、読影時に検出した視線位置に基づいて前記注目領域の集合を取得することを特徴とする請求項1に記載の支援装置。 - 前記第1の取得手段は、前記医用画像データの医学的に分割された領域のうち、領域に含まれる画素の全数に対する視線位置が検出された画素の数の割合が所定値を超える領域を前記注目領域として取得することを特徴とする請求項2に記載の支援装置。
- 前記第1の取得手段は、前記医用画像データの分割された領域のうち、領域内に視線位置が検出された時間が所定時間を超える領域を前記注目領域として取得することを特徴とする請求項2または3に記載の支援装置。
- 前記第1の取得手段は、前記医用画像データの医学的に分割された領域のうち、読影時に少なくとも一部が、前記表示手段に設けられた表示領域に表示された領域であって、領域に含まれる画素の全数に対する表示された画素の数の割合が所定値を超える領域を前記注目領域として取得することを特徴とする請求項1に記載の支援装置。
- 前記表示手段はタッチ入力手段を有し、
前記第1の取得手段は、前記医用画像データを表示する前記表示手段へのタッチ入力位置に基づいて前記注目領域の集合を取得することを特徴とする請求項1に記載の支援装置。 - 前記医用画像データの医学的に分割された領域は、解剖学的構造に基づいて分割された領域であり、
前記第2の取得手段は、前記レポート文に記述されている解剖学的構造名を前記記述領域として取得することを特徴とする請求項1乃至6のいずれか1項に記載の支援装置。 - 前記第2の取得手段は、前記医用画像データを解剖学的構造に基づいて分割して得られたすべての領域の解剖学的構造名をキーワードとして、前記レポート文からキーワードマッチングにより前記記述領域の集合を取得することを特徴とする請求項7に記載の支援装置。
- 前記判定手段は、前記注目領域の集合に存在し前記記述領域の集合に存在しない領域が存在する場合に、前記レポート文に記述漏れがあると判定することを特徴とする請求項1乃至8のいずれか1項に記載の支援装置。
- 前記判定手段は、前記記述領域の集合に存在し前記注目領域の集合に存在しない領域が存在する場合に、前記医用画像データに対する確認漏れがあると判定することを特徴とする請求項1乃至9のいずれか1項に記載の支援装置。
- 読影レポートの作成を支援する支援装置の制御方法であって、
読影対象の医用画像データを表示手段に表示する表示工程と、
前記表示手段に表示された前記医用画像データの医学的に分割された領域のうち、読影時に注目した領域と判定された注目領域の集合を取得する第1の取得工程と、
前記医用画像データに対応するレポート文に記述されている医学的な領域である記述領域の集合を取得する第2の取得工程と、
前記注目領域の集合と前記記述領域の集合の整合性を判定する判定工程と、
前記判定工程による判定の結果を提示する提示工程と、を有することを特徴とする支援装置の制御方法。 - 請求項11に記載された支援装置の制御方法の各工程をコンピュータに実行させるためのプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014181591A JP6397277B2 (ja) | 2014-09-05 | 2014-09-05 | 読影レポート作成のための支援装置およびその制御方法 |
PCT/JP2015/004398 WO2016035312A1 (en) | 2014-09-05 | 2015-08-31 | Assistance apparatus for assisting interpretation report creation and method for controlling the same |
US15/503,804 US11075003B2 (en) | 2014-09-05 | 2015-08-31 | Assistance apparatus for assisting interpretation report creation and method for controlling the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014181591A JP6397277B2 (ja) | 2014-09-05 | 2014-09-05 | 読影レポート作成のための支援装置およびその制御方法 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018164799A Division JP6643433B2 (ja) | 2018-09-03 | 2018-09-03 | 読影レポート作成のための支援装置およびその制御方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016057695A JP2016057695A (ja) | 2016-04-21 |
JP6397277B2 true JP6397277B2 (ja) | 2018-09-26 |
Family
ID=55439395
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014181591A Active JP6397277B2 (ja) | 2014-09-05 | 2014-09-05 | 読影レポート作成のための支援装置およびその制御方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11075003B2 (ja) |
JP (1) | JP6397277B2 (ja) |
WO (1) | WO2016035312A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6532206B2 (ja) | 2014-10-01 | 2019-06-19 | キヤノン株式会社 | 医用画像処理装置、医用画像処理方法 |
WO2017075077A1 (en) * | 2015-10-26 | 2017-05-04 | The Johns Hopkins University | Automated generation of sentence-based descriptors from imaging data |
US11900265B2 (en) * | 2017-11-13 | 2024-02-13 | Merative Us L.P. | Database systems and interactive user interfaces for dynamic conversational interactions |
JP2019170621A (ja) * | 2018-03-28 | 2019-10-10 | 富士フイルム株式会社 | 読影支援装置、読影支援プログラム |
JP7431317B2 (ja) * | 2020-03-17 | 2024-02-14 | 富士フイルム株式会社 | 文書作成支援装置、方法およびプログラム |
Family Cites Families (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004267273A (ja) * | 2003-03-05 | 2004-09-30 | Sangaku Renkei Kiko Kyushu:Kk | 医用システム |
JP4450695B2 (ja) * | 2004-08-19 | 2010-04-14 | 富士通株式会社 | 読影レポート解析プログラム |
US7396129B2 (en) * | 2004-11-22 | 2008-07-08 | Carestream Health, Inc. | Diagnostic system having gaze tracking |
JP2006271528A (ja) | 2005-03-28 | 2006-10-12 | Toshiba Corp | 画像診断支援システム及び画像診断支援プログラム |
US8188971B2 (en) * | 2006-03-15 | 2012-05-29 | Kabushiki Kaisha Toshiva | Medical image interpreting apparatus and cursor-moving method |
JP2007319327A (ja) * | 2006-05-31 | 2007-12-13 | Hitachi Medical Corp | 読影支援システム |
JP5067793B2 (ja) * | 2007-08-15 | 2012-11-07 | 富士フイルム株式会社 | 医用情報処理システム、医用情報処理方法、及びプログラム |
JP2009082182A (ja) * | 2007-09-27 | 2009-04-23 | Fujifilm Corp | 検査作業支援装置及び方法、並びに検査作業支援システム |
JP5100285B2 (ja) * | 2007-09-28 | 2012-12-19 | キヤノン株式会社 | 医用診断支援装置およびその制御方法、プログラム、記憶媒体 |
WO2010051037A1 (en) * | 2008-11-03 | 2010-05-06 | Bruce Reiner | Visually directed human-computer interaction for medical applications |
JP5455470B2 (ja) * | 2009-07-02 | 2014-03-26 | 株式会社東芝 | 医用画像読影システム |
JP5517524B2 (ja) | 2009-08-10 | 2014-06-11 | キヤノン株式会社 | 医療診断支援装置、医療診断支援装置の制御方法およびプログラム |
JP5308973B2 (ja) * | 2009-09-16 | 2013-10-09 | 富士フイルム株式会社 | 医用画像情報表示装置および方法並びにプログラム |
US8311279B2 (en) * | 2010-02-23 | 2012-11-13 | Fuji Xerox Co., Ltd. | System and method for improved image analysis through gaze data feedback |
JP5340204B2 (ja) | 2010-03-01 | 2013-11-13 | キヤノン株式会社 | 推論装置、その制御方法およびプログラム |
JP5728212B2 (ja) | 2010-11-30 | 2015-06-03 | キヤノン株式会社 | 診断支援装置、診断支援装置の制御方法、およびプログラム |
EP2506173B1 (en) | 2011-03-28 | 2020-01-01 | Canon Kabushiki Kaisha | Medical diagnosis support apparatus and medical diagnosis support method |
US10049445B2 (en) | 2011-07-29 | 2018-08-14 | Canon Kabushiki Kaisha | Image processing apparatus and image processing method of a three-dimensional medical image |
JP5967968B2 (ja) | 2012-02-14 | 2016-08-10 | キヤノン株式会社 | 医療診断支援システム、医療診断支援装置、情報処理方法、及びプログラム |
JP5668090B2 (ja) | 2013-01-09 | 2015-02-12 | キヤノン株式会社 | 医療診断支援装置及び医療診断支援方法 |
US20140379364A1 (en) * | 2013-06-20 | 2014-12-25 | Koninklijke Philips N.V. | Intelligent computer-guided structured reporting for efficiency and clinical decision support |
JP2015102944A (ja) * | 2013-11-22 | 2015-06-04 | コニカミノルタ株式会社 | 医用情報処理装置 |
CN105765612A (zh) * | 2013-11-26 | 2016-07-13 | 皇家飞利浦有限公司 | 用于确定放射学报告中缺失的间隔变化信息的系统和方法 |
JP6595193B2 (ja) * | 2014-03-11 | 2019-10-23 | キヤノンメディカルシステムズ株式会社 | 読影レポート作成装置および読影レポート作成システム |
US9396534B2 (en) * | 2014-03-31 | 2016-07-19 | Toshiba Medical Systems Corporation | Medical image processing apparatus and medical image processing system |
JP6532287B2 (ja) | 2015-05-14 | 2019-06-19 | キヤノン株式会社 | 医療診断支援装置、情報処理方法及びプログラム |
JP6074455B2 (ja) | 2015-05-14 | 2017-02-01 | キヤノン株式会社 | 診断支援装置、診断支援装置の制御方法、プログラム、及び診断支援システム |
-
2014
- 2014-09-05 JP JP2014181591A patent/JP6397277B2/ja active Active
-
2015
- 2015-08-31 US US15/503,804 patent/US11075003B2/en active Active
- 2015-08-31 WO PCT/JP2015/004398 patent/WO2016035312A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2016035312A1 (en) | 2016-03-10 |
US11075003B2 (en) | 2021-07-27 |
US20170243348A1 (en) | 2017-08-24 |
JP2016057695A (ja) | 2016-04-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10129553B2 (en) | Dynamic digital image compression based on digital image characteristics | |
US10540763B2 (en) | Systems and methods for matching, naming, and displaying medical images | |
US11594002B2 (en) | Overlay and manipulation of medical images in a virtual environment | |
JP6397277B2 (ja) | 読影レポート作成のための支援装置およびその制御方法 | |
JP5309187B2 (ja) | 医用情報表示装置およびその動作方法、並びに医用情報表示プログラム | |
US20070064984A1 (en) | System and method for dynamic configuration of PACS workstation displays | |
US20130111387A1 (en) | Medical information display apparatus and operation method and program | |
JP6448356B2 (ja) | 画像処理装置、画像処理方法、画像処理システム、及びプログラム | |
US20070197909A1 (en) | System and method for displaying image studies using hanging protocols with perspectives/views | |
JP6899903B2 (ja) | 医療画像処理装置、内視鏡装置、診断支援装置、医療業務支援装置、及び、レポート作成支援装置 | |
JP2006305371A (ja) | コンピュータで実現される医用イメージングプロシージャを実行する方法 | |
WO2018182015A1 (ja) | 医用情報処理装置及び医用情報処理方法 | |
JP2016202721A (ja) | 医用画像表示装置及びプログラム | |
EP1791092A2 (en) | System and method for radiology decision support using picture-in-picture | |
JP6643433B2 (ja) | 読影レポート作成のための支援装置およびその制御方法 | |
WO2007146495A2 (en) | Selection of image filters based on image information | |
JP7346066B2 (ja) | 医用情報処理装置及び医用情報処理方法 | |
US20080117229A1 (en) | Linked Data Series Alignment System and Method | |
Aoki et al. | The use of a computed tomographic application for mobile devices in the diagnosis of oral and maxillofacial surgery | |
US20090128304A1 (en) | Method and apparatus for tactile interface for reviewing radiological images | |
CN112740285B (zh) | 在虚拟环境中对医学图像的叠加和操纵 | |
US20230118522A1 (en) | Maintaining neighboring contextual awareness with zoom | |
JP7428055B2 (ja) | 診断支援システム、診断支援装置及びプログラム | |
JP2019051239A (ja) | 情報処理装置、情報処理方法、情報処理システム及びプログラム | |
JP2013008274A (ja) | 読影レポート作成システム及びその制御プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170829 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180803 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180831 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6397277 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |