JPWO2017033516A1 - 読影支援装置及び方法 - Google Patents

読影支援装置及び方法 Download PDF

Info

Publication number
JPWO2017033516A1
JPWO2017033516A1 JP2017536638A JP2017536638A JPWO2017033516A1 JP WO2017033516 A1 JPWO2017033516 A1 JP WO2017033516A1 JP 2017536638 A JP2017536638 A JP 2017536638A JP 2017536638 A JP2017536638 A JP 2017536638A JP WO2017033516 A1 JPWO2017033516 A1 JP WO2017033516A1
Authority
JP
Japan
Prior art keywords
image
interpretation
unit
gaze
interpreter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017536638A
Other languages
English (en)
Other versions
JP6529144B2 (ja
Inventor
岡部 雄生
雄生 岡部
繭子 生田
繭子 生田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of JPWO2017033516A1 publication Critical patent/JPWO2017033516A1/ja
Application granted granted Critical
Publication of JP6529144B2 publication Critical patent/JP6529144B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/163Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • A61B5/0015Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by features of the telemetry system
    • A61B5/002Monitoring the patient using a local or closed circuit, e.g. in a room or building
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1103Detecting eye twinkling
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7405Details of notification to user or communication with user or patient ; user input means using sound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/743Displaying an image simultaneously with additional graphical information, e.g. symbols, charts, function plots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/746Alarms related to a physiological condition, e.g. details of setting alarm thresholds or avoiding false alarms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/46Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment with special arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H15/00ICT specially adapted for medical reports, e.g. generation or transmission thereof
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Physics & Mathematics (AREA)
  • Pathology (AREA)
  • Surgery (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Physiology (AREA)
  • Human Computer Interaction (AREA)
  • Ophthalmology & Optometry (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • Child & Adolescent Psychology (AREA)
  • Developmental Disabilities (AREA)
  • Educational Technology (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychology (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)

Abstract

本発明は、読影者の読影を妨げることなく読影部の見落としを防ぐ読影支援装置及び方法を提供することを目的とする。読影者の視線を検知する視線検知部(32)と、視線検知部の検知の結果に基づいて、表示部(24)に表示された読影対象の画像のうちの病変候補部位が読影者により注視されたか否かを判別する注視判別部(33)と、表示部に表示された読影対象の画像に対する読影者の読影の終了を検知する終了検知部(35)と、終了検知部により読影の終了が検知され且つ注視判別部で病変候補部位が注視されなかったと判別された場合には、読影対象の画像を表示部に表示し且つ支援情報が非表示である第1の表示状態から、表示部に少なくとも支援情報を表示した第2の表示状態に切り替える表示制御部を備える。

Description

本発明は読影支援装置及び方法に係り、特に読影者の読影を妨げることなく読影者の見落としを防ぐことができる読影支援の技術に関する。
読影医は、一日に大量の医用画像(例えばエックス線画像)を読影することがある。近年、熟練した読影医の不足がおきており、読影医の負担が増える傾向にある。特に、定期検診の医師や遠隔読影専門の医師は、短い時間で読影する必要がある為、病変部位の見落としの危険性が高くなる。そのような病変部位の見落としを防ぐ技術として、画像処理によって読影対象の医用画像中に存在する陰影等の病変候補部位の自動認識を行い、その病変候補部位を示すマーク(支援情報)を医用画像上に表示することによって、読影対象の医用画像中のどの部分を注視すべきかを読影中に読影医に知らせる技術が知られている(特許文献1)。
また、両手がふさがっている医療現場で、音声、視線、あるいはジェスチャにより、何も触れずに指示入力することを可能にした医療機器が提案されている(特許文献2、3)。
特開2015−97127号公報 特開2015−93147号公報 特開2007−195892号公報
しかしながら、読影者の読影を妨げることなく読影者の見落としを防ぐことは困難である。
なぜなら、特許文献1に記載された技術を用いて、病変候補部位を示す支援情報を医用画像の上に表示してしまうと、読影者が無意識のうちの支援情報に頼りすぎて読影者の自律した読影が阻害されるという課題や、支援情報の下に病変部位が隠れて見えなくなり読影者の読影を邪魔してしまうという課題があった。これらの課題を解決するため、病変候補部位に被らないように支援情報を表示する方法や、医師の判断によって支援情報の表示/非表示の切り替え操作を行えるようにする方法が考えられるが、画像の表示領域が狭くなる、切り替え操作の手間が掛かる、といった新たな問題が生じる。そのため、短い時間で確実に読影することが求められるシーンで、読影者の読影を妨げることなく読影者の見落としを防ぐ課題に対して、有効な方法であるとは言い難い。
特許文献2に記載された技術は、音声入力及び視線入力の組み合わせで拡大/縮小等の画像操作を行う構成であって、音声入力が必要なので、他者の声やBGM(Back Ground Music)等の騒音がある環境では確実な操作を行うことができない。また、何も触れずに指示入力できるにしても、指示入力の手間が掛かることに変わりがない。
特許文献3に記載された技術は、表示されたアイコンに視線位置を移動して所定時間注視することによってアイコンに対応したコマンドを実行する構成であって、アイコンに視線位置を移動させる必要があるので読影者の読影を妨げない効果を期待することができない。また、読影者の見落としを防ぐ効果も期待することができない。
本発明はこのような事情に鑑みてなされたもので、読影者の読影を妨げることなく読影者の見落としを防ぐことができる読影支援装置及び方法を提供することを目的とする。
上記目的を達成するために本発明の一の態様に係る読影支援装置は、読影対象の画像を解析して読影対象の画像から病変候補部位を抽出する病変候補部位抽出部と、読影対象の画像と病変候補部位を示す支援情報とを表示可能な表示部と、読影者の視線を検知する視線検知部と、視線検知部の検知の結果に基づいて、表示部に表示された読影対象の画像のうちの病変候補部位が読影者により注視されたか否かを判別する注視判別部と、表示部に表示された読影対象の画像に対する読影者の読影の終了を検知する終了検知部と、終了検知部により読影の終了が検知され且つ注視判別部により病変候補部位が注視されなかったと判別された場合には、読影対象の画像を表示部に表示し且つ支援情報が非表示である第1の表示状態から、表示部に少なくとも支援情報を表示した第2の表示状態に切り替える表示制御部と、を備える読影支援装置である。
表示制御部は、終了検知部により読影の終了が検知され且つ注視判別部により病変候補部位が注視されたと判別された場合には、第1の表示状態を維持するようにしてよい。
表示制御部は、終了検知部により読影の終了が検知され且つ注視判別部により病変候補部位が注視されたと判別された場合、支援情報が非表示であり且つ第1の表示状態とは異なる表示状態に表示部を切替えてもよい。
本態様の「読影の終了が検知され」は、読影者からの読影終了を示す指示入力(例えばマニュアル操作、音声入力、ジェスチャ等)を検知する場合に特に限定されず、読影者からの読影終了を示す明示的な指示入力が無くても、読影者が読影終了を意図していることを検知又は推定する場合(例えば読影者を撮像して得られた読影者画像を画像処理により解析して検知又は推定を行う場合)を含む。
本態様によれば、終了検知部により読影の終了が検知され且つ注視判別部で病変候補部位が注視されたと判別された場合には支援情報の非表示が維持される一方で、終了検知部により読影の終了が検知され且つ注視判別部により病変候補部位が注視されなかったと判別された場合には読影者に対して病変候補部位を示す支援情報が表示されるので、読影者は読影中に支援情報に邪魔されることがなく病変部位の注視に集中力を高めることができ、且つ読影終了時に未注視の病変候補部位がある場合にはそのことを知って読影を再開するようになる。つまり、本態様によれば、読影者の読影を妨げることがなく読影者の見落としを防ぐことができる。
本発明の他の態様に係る読影支援装置では、表示制御部は、読影対象の画像に複数の病変候補部位が存在する場合、第2の表示状態において、複数の病変候補部位のうち読影者により注視済の病変候補部位の支援情報を非表示として、読影者により未注視の病変候補部位の支援情報を表示する。本態様によれば、読影者は複数の病変候補部位のうちの未注視の病変候補部位のみに集中して注視することが可能になるので、読影の効率が向上する。
本発明の他の態様に係る読影支援装置では、表示制御部は、読影対象の画像に複数の病変候補部位が存在する場合、複数の病変候補部位のうち読影者により注視済の病変候補部位の表示態様を変更することで読影者により未注視の病変候補部位と区別して表示する。本態様によれば、読影者は、自身の視線移動に応じて表示態様が変更される注視済の病変候補部位を除いて、表示態様が維持される未注視の病変候補部位のみに集中して注視することが可能になる。つまり、読影者の視線移動に対してインタラクティブに反応する表示制御が行われることにより、読影の効率が向上する。
本発明の他の態様に係る読影支援装置では、読影者の読影による疲労の回復が必要であるか否かを推定する疲労推定部と、疲労推定部により疲労の回復が必要であると推定された場合、警告を出力する警告部と、を備える。本態様によれば、読影者が疲労している場合に読影者の休養が促されることになる。つまり、読影者が集中力を保つことが可能になる。
本発明の他の態様に係る読影支援装置では、疲労推定部は、表示制御部による第1の表示状態から第2の表示状態への切替回数に基づいて、疲労の回復が必要であるか否かを推定する。
本発明の他の態様に係る読影支援装置では、疲労推定部は、読影の時間の累積に基づいて、疲労の回復が必要であるか否かを推定する。
本発明の他の態様に係る読影支援装置では、疲労推定部は、視線検知部により検知された視線の移動速度及び移動量のうちの少なくとも一方に基づいて、疲労の回復が必要であるか否かを推定する。
本発明の他の態様に係る読影支援装置では、読影者の目の瞬きを検知する瞬き検知部を備え、疲労推定部は、目の瞬きの速度に基づいて、疲労の回復が必要であるか否かを推定する。本態様によれば、疲労していないのに個人的な特性に因り疲労していると誤判断する可能性を低減させることになる。つまり、誤判断による警告の出力を低減することができる。
本発明の他の態様に係る読影支援装置では、疲労推定部は、読影者の個人ごとのデータに基づいて、疲労の回復が必要であるか否かを推定する。
本発明の他の態様に係る読影支援装置では、表示制御部は、読影対象の画像のうちの視線が向けられている領域を拡大表示し、視線が外れた場合、又は拡大表示を開始してから一定時間経過後に、拡大表示を止める。
本発明の他の態様に係る読影支援装置では、表示制御部は、読影対象の画像のうちの病変候補部位よりも注視が不要な部分の視認性を低くする。
本発明の他の態様に係る読影支援装置では、視線検知部の視線検知により読影者からの指示入力を受け付ける。
本発明の他の態様に係る読影支援装置では、注視判別部は、表示部に表示された読影対象の画像の病変候補部位に読影者の視線が向けられている場合に、読影者が病変候補部位を注視した注視状態であるか、読影者が病変候補部位に視線を向けているが病変候補部位を注視していない非注視状態であるか、を判別する。
本発明の他の態様に係る読影支援装置では、注視判別部は、病変候補部位への読影者の視線の滞留時間に基づいて、注視状態であるか、非注視状態であるか、を判別する。
本発明の他の態様に係る読影支援装置では、注視判別部は、読影者の瞳の状態に基づいて、注視状態であるか、非注視状態であるか、を判別する。
本発明の他の態様に係る読影支援装置では、読影者の注視の特性を個人ごとに測定する特性測定部と、特性測定部による個人ごとの測定の結果に基づいて、注視状態であるか、非注視状態であるか、の判別の基準を個人ごとに決定する基準決定部と、を備え、注視判別部は、基準決定部により個人ごとに決定された判別の基準に基づいて、読影者が注視状態であるか、非注視状態であるか、を判別する。
本発明の他の態様に係る読影支援装置では、特性測定部は、表示部にテストパターンを表示して画面中で移動させ、テストパターンの移動に対する読影者の視線の追従性を測定し、注視判別部は、特性測定部により測定された読影者の視線の追従性に基づいて、注視状態であるか、非注視状態であるか、の判別の基準を決定する。
本発明の一の態様に係る読影支援装置は、読影対象の画像の拡大操作から読影者の読影が行われたか否かを推定する読影推定部を備え、終了検知部は、読影推定部により読影が行われたと推定された場合のみ読影が終了したことを検知する。
本発明の一の態様に係る読影支援方法は、読影対象の画像を解析して読影対象の画像から病変候補部位を抽出するステップと、読影対象の画像を表示部に表示し且つ病変候補部位を示す支援情報が非表示である第1の表示状態とするステップと、読影者の視線を検知するステップと、視線の検知の結果に基づいて、表示部に表示された読影対象の画像のうちの病変候補部位が読影者により注視されたか否かを判別するステップと、表示部に表示された読影対象の画像に対する読影者の読影の終了を検知するステップと、読影の終了が検知され且つ病変候補部位が注視されなかったと判別された場合には、読影対象の画像を表示部に表示し且つ支援情報が非表示である第1の表示状態から、表示部に少なくとも支援情報を表示した第2の表示状態に切り替えるステップと、を含む。
本発明よれば、読影者の読影を妨げることなく読影者の見落としを防ぐことができる。
本発明に係る読影支援装置を備えた医用システムの一例を示すシステム構成図である。 第1実施形態の読影支援装置の構成例を示すブロック図である。 支援情報の一例の説明に用いる説明図である。 支援情報の他の例の説明に用いる説明図である。 視線検知の一例の説明に用いる説明図である。 第1実施形態の読影支援装置を用いた読影支援方法の一例について処理の流れを示すフローチャートである。 読影対象の医用画像が表示され且つ支援情報が非表示である第1の表示状態から支援情報が表示された第2の表示状態への遷移の説明に用いる説明図である。 注視済の病変候補部位の支援情報を非表示とする場合の説明に用いる説明図である。 注視済の領域の表示態様を変更する場合の説明に用いる説明図である。 第2実施形態の読影支援装置の構成例を示すブロック図である。 第2実施形態の読影支援装置を用いた読影支援方法の一例について処理の流れの一部を示すフローチャートである。 第3実施形態の読影支援装置の構成例を示すブロック図である。 第3実施形態の読影支援装置の他の構成例を示すブロック図である。 第4実施形態の読影支援装置の構成例を示すブロック図である。 本発明に係る読影支援装置を備えた医用システムの他の例を示すシステム構成図である。
以下、添付図面に従って本発明に係る読影支援装置及び読影支援方法の実施の形態について説明する。
<システム構成例>
図1は、本発明に係る読影支援装置を備えた医用システムの一例を示すシステム構成図である。
図1に示す医用システムは、モダリティ10と、読影支援装置12と、データベース16とが、ローカルエリアネットワーク18を介して互いに通信可能な状態で接続されて構成されている。
尚、図1は、説明の便宜上、各装置が1台ずつローカルエリアネットワーク18に接続された構成を示しているが、ローカルエリアネットワーク18には、複数かつ多種類のモダリティが接続される。読影支援装置12についても、読影者の人数に応じて複数台接続される。データベース16についても、複数台接続して分散化してよい。
モダリティ10は、被検体(人、動物など)を撮影することにより医用画像のデータを生成し、出力する医用画像撮影装置である。本例のモダリティ10は、医用画像のデータにDICOM(digital imaging and communication in medicine)規格で規定された付加情報を付加する。モダリティ10の具体例としては、X(エックス)線単純撮影装置、CT(computed tomography)撮影装置、MRI(magnetic resonance imaging)撮影装置、PET(positron emission tomography)撮影装置、超音波撮影装置などが挙げられる。
読影支援装置12は、読影者による医用画像の読影を支援する装置である。例えば、コンピュータ装置により構成される。具体例は後述する。
データベース16は、医用画像のデータ、及び医用画像の読影を支援するためのデータ(後述の支援情報のデータなど)を記憶する。
<第1実施形態>
図2は、本発明に係る第1実施形態の読影支援装置12の構成例を示すブロック図である。
本実施形態の読影支援装置12は、ローカルエリアネットワーク18に接続された各装置(例えばデータベース16)と通信可能である通信部21と、読影者を撮像して読影者の画像(以下「読影者画像」という)を出力するカメラ22と、読影者から指示入力を受け付ける指示入力部23と、読影者に対して表示を行う表示部24と、読影を支援するためのプログラム及びそのプログラムの実行に必要な情報を記憶する記憶部28と、記憶部28に記憶されたプログラムに従って読影支援装置12の各部を制御するCPU(central processing unit)29を備える。
本実施形態のCPU29は、通信部21によりデータベース16から取得された読影対象の医用画像を解析して、その読影対象の医用画像から病変候補部位を抽出する病変候補部位抽出部31と、カメラ22により撮像された読影者画像に基づいて読影者の視線を検知することにより、表示部24に表示された読影対象の医用画像のうちの読影者が視線を向けている位置(以下「視線位置」という)を算出する視線検知部32と、視線検知部32の検知の結果に基づいて、表示部24に表示された読影対象の医用画像のうちの病変候補部位が読影者により注視されたか否かを判別する注視判別部33と、表示部24に表示される読影対象の医用画像に対する読影者の読影の開始を検知する開始検知部34と、表示部24に表示される読影対象の医用画像に対する読影者の読影の終了を検知する終了検知部35と、病変候補部位抽出部31の抽出結果、視線検知部32の検知結果、注視判別部33の判別結果、開始検知部34の検知結果、及び終了検知部35の検知結果に基づいて、表示部24の表示を制御する表示制御部36と、指示入力部23に入力された読影者の読影結果などに基づいて読影レポートを作成する読影レポート作成部37を備える。
表示部24は、表示制御部36の表示制御に従って、読影対象の医用画像と病変候補部位を示す支援画像とを必要に応じて表示可能である。
次に、病変候補部位抽出部31により抽出される支援情報の具体例について説明する。
図3は、表示部24に表示された医用画像50に、病変候補部位を示す目印として、各病変候補部位の全部又は一部を囲む閉曲線からなるマーク52A、52Bを重ねて表示した様子を示す。本例では、閉曲線からなるマーク52A、52Bが支援情報である。閉曲線として、例えば病変候補部位に外接する図形(例えば円あるいは多角形)の枠を用いる。
図4は、表示部24に表示された医用画像50に、病変候補部位を示す目印として、各病変候補部位を指し示す矢印からなるマーク54A、54Bを重ねて表示した様子を示す。本例では、矢印からなるマーク54A、54Bが支援情報である。
尚、図3及び図4では医用画像50の中に病変候補部位が二つ存在する場合を示したが、医用画像50の中の病変候補部位の数は被検体の状態に応じて異なる。つまり、医用画像50に付加される支援情報の一例としてのマークの数は、二つに限定されるわけではなく、一つの場合もあれば、三つ以上の場合もあり、ゼロ個の場合もある。
また、本発明における支援情報は、図3、図4に示したマーク(52A、54Aなど)には特に限定されない。読影者の読影を支援可能な情報であればよい。支援情報は、図形に限定されず、色、模様などで表してもよい。テキストのみで支援情報を表してもよいし、図形及びテキストの組み合わせで支援情報を表してもよい。また、視覚情報だけでなく、聴覚情報(例えば音声データ)あるいは触覚情報(例えば振動)を視覚情報と共に出力してもよい。
病変候補部位抽出部31により医用画像から抽出された支援情報は、本例では、記憶部28に記憶されるだけでなく、通信部21を介してデータベース16に登録される。つまり、データベース16にアクセスすることにより、支援情報を抽出した読影支援装置12に限らず、ローカルエリアネットワーク18に接続された他の読影支援装置12あるいは他の種類の装置からも、支援情報を利用可能である。
次に、視線検知部32の視線検知の具体例について説明する。
本例の視線検知部32は、カメラ22により読影者を撮像して得られた読影者画像から、目の動かない部分と目の動く部分とを抽出し、目の動かない部分の位置を基準として目の動く部分の位置を検出し、その検出された目の動く部分の位置に基づいて医用画像上の視線位置を算出する。視線検知部32により、視線位置の移動の軌跡を検知するようにしてもよい。
図5を用いて、カメラ22として可視光を撮影する撮像装置を用い、目の虹彩の動きを検知することにより視線検知を行う例について説明する。視線検知部32は、基準点として読影者画像60から目頭部分62及び目尻部分64の少なくとも一つを抽出して基準点座標を算出し、かつ動点として読影者画像60から虹彩部分66を抽出して動点座標を算出し、基準点座標に対する動点座標の位置関係から、読影者の視線位置を算出する。
カメラ22として赤外線を発光して撮影する撮像装置を用い、読影者の目の角膜上の反射位置と瞳孔の位置との関係から視線検知を行ってもよい。視線検知部32は、基準点として読影者画像60から角膜反射像を抽出して基準点座標を算出し、かつ動点として読影者画像60から瞳孔部分(図5の68)を抽出して動点座標を算出し、基準点座標に対する動点座標の位置関係から、読影者の視線位置を算出する。この赤外線を用いる視線検知では、赤外線の発光及び撮影が可能なデバイスが必要であるが、一般に視線位置の検知精度を上げやすい。
尚、本発明における視線検知は、図5を用いて説明した場合には特に限定されない。読影者の視線を検知可能な方法であれば、他の公知技術を用いて視線検知を行ってよい。もっとも、医用画像のうちの病変候補部位に視線を向けているか否かを判別可能である程度に、視線位置の精度が保証される視線検知技術を用いる。
次に、注視判別部33の注視判別について詳細に説明する。
本例の注視判別部33は、表示部24に表示された読影対象の医用画像の病変候補部位に読影者の視線が向けられている場合に、読影者が病変候補部位を注視した注視状態であるか、読影者が病変候補部位に視線を向けているが病変候補部位を注視していない非注視状態であるか、を判別する。このような注視状態の判別態様は、各種ある。
一例として、病変候補部位への読影者の視線の滞留時間に基づいて、注視状態であるか非注視状態であるかを判別する態様が挙げられる。注視判別部33は、表示部24に表示された医用画像の病変候補部位の領域内に視線位置がある場合、その視線位置が同一の病変候補部位の領域内に時間的に連続してとどまる時間(滞留時間)を測定し、その滞留時間が閾値(規定時間)を超えると注視状態であると判定する。尚、視線位置が移動しても同一の病変候補部位の領域内にあれば、「連続して滞留する」として滞留時間をカウントするが、視線位置が規定時間内に異なる病変候補部位の領域内へ移動した場合には非注視状態であると判別され滞留時間がリセットされる。
他の例として、読影者の瞳の状態に基づいて、注視状態であるか非注視状態であるかを判別する態様が挙げられる。例えば、注視判別部33は、読影者画像から瞳孔部分を抽出し、瞳孔部分の位置の変化、形状の変化、及びサイズの変化の少なくとも一つを検出して、その変化に基づいて判別を行う。この例の視線検知部32は、視線位置の算出だけでなく、読影者の瞳の状態の検知も併せて行う。
次に、開始検知部34及び終了検知部35の具体例について説明する。
本例の開始検知部34及び終了検知部35は、指示入力部23により読影者から読影開始及び読影終了の操作を受け付け、読影開始及び読影終了を検知する。例えば、キーボード、マウス、タッチセンサ等のマニュアル入力(手入力)のデバイスにより、読影者から読影開始及び読影終了の指示入力を受け付ける。音声入力、ジェスチャ入力等の非マニュアル入力のデバイスにより、読影開始及び読影終了の指示入力を受け付けてもよい。
視線検知部32の視線検知により、読影者からの読影開始及び読影終了の指示入力を受け付けてもよい。読影開始及び読影終了に特に限定されず、他の指示入力も視線検知により行うようにしてよい。
次に、表示制御部36の表示制御について詳細に説明する。
本例の表示制御部36は、開始検知部34で読影者の読影開始を検知した場合、表示部24に第1の表示状態(読影対象の医用画像を表示し且つ支援情報が非表示である状態)を設定する。また、表示制御部36は、終了検知部35で読影者の読影終了が検知され、且つ注視判別部33で読影開始後に病変候補部位が注視されたと判別された場合、表示部24に第1の表示状態を維持させる。その一方で、表示制御部36は、終了検知部35で読影者の読影終了が検知され、且つ注視判別部33で読影開始後に病変候補部位が注視されなかったと判別された場合、第1の表示状態から第2の表示状態(少なくとも支援情報を表示した状態)に表示部24を切り替える。
図6は、第1実施形態の読影支援装置を用いた読影支援方法の一例について処理の流れを示すフローチャートである。本処理は、CPU29により、記憶部28に予め記憶されたプログラムに従って、実行される。
まず、通信部21により、データベース16から読影対象の医用画像を取得する(ステップS2)。
次に、病変候補部位抽出部31により、読影対象の医用画像を解析して読影対象の医用画像から病変候補部位を抽出する(ステップS4)。病変候補部位抽出部31により、病変候補部位を示す支援情報が作成される。例えば、図3に示したマーク52A、52B(支援情報)あるいは図4に示したマーク54A、54B(支援情報)が、医用画像の解析結果に基づいて作成される。尚、「病変候補部位を抽出」は、本例では、医用画像中の病変部位である可能性が有る部分(病変候補部位である)の像を画像処理により認識し、少なくとも、医用画像における病変候補部位の位置を示す情報を、支援情報として作成する。図3に示した閉曲線からなるマーク52A、52Bを支援情報として作成する場合には、病変候補部位の代表位置(例えば中心位置)だけでなく、病変候補部位の領域の輪郭(又は病変候補部位に外接する図形を特定する情報)、あるいは病変候補部位のサイズを画像処理により認識し、支援情報を作成する。
次に、開始検知部34の検知結果に基づいて、読影者が読影対象の医用画像の読影を開始するか否かを判定する(ステップS12)。本例では、指示入力部23により、読影者から開始指示の入力を受け付ける。つまり、読影者が読影開始を意図していることを検知する。
読影を開始すると判定された場合(ステップS12でYESの場合)、表示制御部36により、読影対象の医用画像を表示部24に表示し、且つ支援情報を表示部24に非表示とする(ステップS14)。つまり、表示制御部36により、表示部24に第1の表示状態を設定する。
次に、視線検知部32により、読影者の視線を検知する(ステップS16)。
次に、視線検知部32の検知の結果に基づいて、表示部24に表示された読影対象の医用画像の病変候補部位に読影者の視線が向けられているか否かを判定する(ステップS18)。読影者の視線が病変候補部位に向けられていると判定された場合(ステップS18でYESの場合)、注視判別部33により、読影者が病変候補部位を注視した注視状態であるか、読影者が病変候補部位に視線を向けているが病変候補部位を注視していない非注視状態であるかを判別する(ステップS20)。
次に、終了検知部35の検知結果に基づいて、読影対象の医用画像の読影終了であるか否かを判定する(ステップS22)。本例では、指示入力部23により、読影者から終了指示の入力を受け付ける。つまり、読影者が読影終了を意図していることを検知する。
読影終了でないと判定された場合(ステップS22でNOの場合)、ステップS16〜ステップS22を繰り返す。
読影終了であると判定された場合(ステップS22でYESの場合)、読影開始後に病変候補部位が注視されたか否かを判定する(ステップS24)。
終了検知部35で読影終了が検知され且つ注視判別部33で読影開始後に病変候補部位が注視されたと判別された場合(ステップS24でYESの場合)、表示部24の支援情報の非表示を維持する(ステップS26)。つまり、表示制御部36により、表示部24の第1の表示状態を維持する。表示制御部36は、終了検知部35で読影の終了が検知され且つ注視判別部33で病変候補部位が注視されたと判別された場合(ステップS24でYESの場合)、支援情報が非表示であり且つ第1の表示状態とは異なる表示状態に表示部24を切替えてもよい。
終了検知部35で読影終了が検知され且つ注視判別部33で読影開始後に病変候補部位が注視されなかったと判別された場合(ステップS24でNOの場合)、表示部24に支援情報を表示させる(ステップS28)。つまり、表示制御部36により、表示部24を第1の表示状態から第2の表示状態に切り替える。
例えば、図3に示したマーク52A、52Bが支援情報として作成された場合、図7に示すように、第1の表示状態ではマーク52A、52Bが非表示であるが、第2の表示状態ではマーク52A、52Bが表示される。図7では、マーク52A、52Bと共に、「!見ていません!」というメッセージが表示部24に表示されている。
第2の表示状態を設定後、ステップS16に戻り、読影者に読影を再開させる。尚、本例では第2の表示状態で読影を再開するが、読影者の指示入力、又は一定時間経過により、表示部24を第1の表示状態に戻すようにしてもよい。
終了検知部35で読影終了が検知され且つ注視判別部33で読影開始後に病変候補部位が注視されたと判別された場合(ステップS24でYESの場合)、表示部24の支援情報の非表示が維持されたまま(ステップS26)、指示入力部23により読影者から読影結果の入力を受け付けて、読影レポートを作成する(ステップS30)。作成された読影レポートは、通信部21によりデータベース16に送信され、データベース16に記憶される。
次に、データベース16内の読影対象の医用画像のうちに未読影の医用画像が存在するか否かを判定する(ステップS32)。未読影の医用画像が存在すると判定された場合(ステップS32でYESの場合)、読影者が次の医用画像の読影を行うことが可能となるように、ステップS12に戻る。未読影の医用画像が存在しないと判定された場合(ステップS32でNOの場合)、本処理を終了する。
≪表示制御のバリエーション≫
本発明の理解を容易にするため、図7を用いて、読影者が読影終了を意図した時に未注視の病変候補部位が一つでもある場合(図6のステップS24でNOの場合)、単純に全ての支援情報を表示する例を説明したが、このような場合に本発明は限定されない。
複数の病変候補部位のうち未注視の病変候補のみを読影者が容易に認識し得る表示制御を行うことが、好ましい。図3に示したように、読影対象の医用画像50に複数の病変候補部位が存在し、支援情報として複数のマーク52A、52Bが作成された場合、表示制御部36は、第2の表示状態において、図8に示すように、複数の病変候補部位のうちの読影者が注視済の病変候補部位を示すマーク(例えばマーク52B)を非表示として、読影者が未注視の病変候補部位を示すマーク(例えばマーク52A)のみを表示部24に表示させる。
また、読影者の時系列の視線移動に対してインタラクティブに反応する表示制御を行うことにより、視線移動と注視済の領域と未注視の領域との関係を読影者が直感的に把握できるようにすることが、好ましい。図3に示したように、読影対象の医用画像50に複数の病変候補部位が存在し、支援情報として複数のマーク52A、52Bが作成された場合、表示制御部36は、読影者の時系列の視線移動に応じて、複数の病変候補部位のうち読影者が注視済の病変候補部位の表示態様を変更していく。例えば、表示制御部36は、図9に示すように、読影対象の医用画像のうちの注視済の病変候補部位を含む注視済領域56の色又は模様を、読影者の時系列の視線移動に合わせて時系列に変更する。例えば、注視済領域56を、視線移動に合わせて消しゴムで徐々に消していくようなインタラクションで表示制御を行う。もっとも完全に消していくと却って病変部位の認識が困難になる場合、注視済領域56の表示の明るさを暗くする、ハーフトーンにする等の表示制御を行うことが、好ましい。
つまり、未注視の病変候補部位から注視済の病変候補部位に切り換わるタイミングで、読影者が未注視の病変候補部位と注視済の病変候補部位とを区別して認識できるように、注視済の病変候補部位の表示態様を変更する。尚、「注視済の病変候補部位の表示態様を変更」には、図9を用いて説明したように、読影対象の医用画像のうちの注視済の病変候補部位を含む注視済領域56の表示態様を変更する場合が含まれる。
また、表示制御部36により、読影対象の医用画像のうちの視線が向けられている領域を拡大して表示するようにしてよい。つまり、表示制御部36は、視線検知部32の視線検知の結果に基づいて、読影対象の医用画像のうちの視線位置に対応した領域(例えば視線位置を中心とした一定の半径の円内の領域)のみを拡大表示する。また、表示制御部36は、読影対象の医用画像のうちの視線位置から離れた領域(例えば視線位置を中心とした一定の半径の円外の領域)の拡大表示を止める。拡大表示を開始してから一定時間経過した後に拡大表示を止めてもよい。
また、表示制御部36により、読影対象の医用画像のうち注視が不要な部分の視認性を病変候補部位よりも低くする表示制御を行ってよい。例えば、医用画像のうちの病変候補部位を除いた部分(病変候補以外の部分)は、薄暗くする、あるいはハーフトーンにするという表示制御を表示制御部36により行う。病変候補部位だけでなく、病変候補部位の周辺部分(例えば病変候補部位から一定距離以内の部分)も視認性を高くして、病変候補部位から離れた領域のみ視認性を相対的に低くしてもよい。
<第2実施形態>
図10は、本発明に係る第2実施形態の読影支援装置12の構成例を示すブロック図である。尚、図2に示した第1実施形態の読影支援装置12と同じ構成要素には同じ符号を付してあり、既に説明した内容については以下では説明を省略する。
図10において、疲労推定部41は、読影者の読影による読影者の疲労の回復が必要であるか否かを推定する。警告部42は、疲労推定部により読影者の疲労の回復が必要であると推定された場合、その読影者に対して警告を出力する。
疲労推定部41による疲労推定の態様には各種である。本例の疲労推定部41は、表示制御部36による第1の表示状態(支援情報を非表示の状態である)から第2の表示状態(支援情報を表示した状態である)への切替回数に基づいて、疲労の回復が必要であるか否かを推定する。他の疲労推定の態様については、後述する。
警告部42による警告出力は、表示部24を用いてもよいし、スピーカ25を用いて行ってもよい。スピーカ25による警告の出力は、人の音声の出力でもよいし、警告音の出力でもよい。また、警告の出力は、視覚的出力や聴覚的出力に限定されず、触覚的出力(例えば振動の発生)でもよい。
図11は、第2実施形態の読影支援装置12を用いた読影支援方法の一例について処理の流れを示すフローチャートである。本処理は、CPU29により、記憶部28に予め記憶されたプログラムに従って、実行される。尚、図6に示した第1実施形態での処理と同じステップには同じ符号を付してあり、以下では異なる事項のみ説明する。
本実施形態では、終了検知部35で読影終了が検知され且つ注視判別部33で読影開始後に病変候補部位が注視されなかったと判別された場合(ステップS24でNOの場合)、表示制御部36の制御により第1の表示状態(支援情報を非表示の状態である)から第2の表示状態(支援情報を表示した状態である)へ表示状態の切替を行った後(ステップS28)、その第1の表示状態から第2の表示状態への切替回数と閾値とを比較する(ステップS42)。ここで、「比較」は、読影対象の医用画像の1ページごとの切替回数をカウントして閾値と比較してもよいが、読影者が連続して読影してきた複数ページの医用画像(複数の被検体にそれぞれ対応する複数の医用画像である)にわたる切替回数をカウントして閾値と比較することが好ましい。一定ページ数ごとの切替回数の総和を閾値と比較する構成としてもよいし、不定ページ数にわたる切替回数の総和を閾値と比較する構成としてもよい。
第1の表示状態から第2の表示状態への切替回数が閾値以下である場合(ステップS42でNOの場合)、ステップS16に戻り、読影が再開される。
第1の表示状態から第2の表示状態への切替回数が閾値を超えた場合(ステップS42でYESの場合)、警告部42の制御により、本例では表示部24及びスピーカ25の少なくとも一つを用いて、警告の出力を行う(ステップS44)。
本例では、警告出力を行った場合、本処理を終了し、読影が中断される。警告出力後、読影者の判断により、読影を再開してもよい。つまり、図11においてステップS12に戻る。
≪疲労推定のバリエーション≫
図11を用いて、第1の表示状態から第2の表示状態への切替回数(つまり読影者が読影を終了しようとしたが未注視の病変候補部位が存在すると判別された回数)に基づいて、警告出力を出力するか否かの判定(即ち読影者の疲労の回復が必要であるか否かの推定)を行う態様について説明したが、本発明はこのような場合に限定されない。例えば、次のバリエーション1〜3を行う構成としてもよい。
[疲労推定のバリエーション1] 読影者の読影時間の累積に基づいて疲労推定を行う。例えば、CPU29に内蔵のタイマ(CPU29の周辺デバイスとして設けたタイマでもよい)を用い、疲労推定部41により読影開始から読影終了までの時間の累積を算出し、閾値と比較する。ここで、「時間の累積」は、読影者が連続して読影してきた複数ページの医用画像にわたる読影時間の累積値を用いることが好ましい。例えば、連続して読影された不定ページ数にわたる読影時間の累積値を閾値と比較する。
[疲労推定のバリエーション2] 読影者の視線の移動速度及び移動量のうちの少なくとも一方に基づいて疲労推定を行う。例えば、疲労推定部41により、視線検知部32の視線検知の結果に基づいて、読影者の視線の移動速度及び移動量の少なくとも一つを算出し、閾値と比較する。ここで、「移動速度」及び「移動量」は、現在視線を向けている医用画像における算出値でもよいし、読影者が連続して読影してきた複数ページの医用画像にわたる算出値の平均でもよい。例えば、連続して読影されてきた一定ページ数ごとの視線の移動速度の平均値(移動平均)を閾値と比較する。
[疲労推定のバリエーション3] 読影者の目の瞬きの速度に基づいて疲労推定を行う。例えば、図12に示すように瞬き検知部38を追加し、瞬き検知部38により、カメラ22で撮像された読影者画像に基づいて読影者の目の瞬きを検知する。疲労推定部41は、読影者の目の瞬きの速度(スピード)を算出し、閾値と比較し、目の瞬きの速度が閾値未満である場合に読影者の疲労回復が必要であると推定する。この態様では、疲れると瞬きの速度が非疲労時よりも遅くなるという人の特性を利用している。例えば、一回の瞬きの時間的な長さを視線が医用画像のどこにも当たっていない時間から算出し、閾値と比較することにより疲労推定を行う。この場合、瞬き検知部38は、視線検知部32の出力に基づいて瞬き検知を行う。
尚、本発明における疲労推定のバリエーションは、上述のバリエーション1〜3には特に限定されない。また、各種のバリエーションを組み合わせることにより、疲労推定の精度を向上させてよい。
<第3実施形態>
図13は、本発明に係る第3実施形態の読影支援装置12の構成例を示すブロック図である。尚、図10に示した第2実施形態の読影支援装置12と同じ構成要素には同じ符号を付してあり、既に説明した内容については以下では説明を省略する。
図13において、特性測定部43は、読影者の注視の特性を個人ごとに測定する。基準決定部44は、特性測定部43による個人ごとの測定の結果(読影者の個人ごとのデータである)に基づいて、注視状態であるか非注視状態であるかの判別を行うための基準、及び読影者の疲労回復が必要であるか否かの推定を行うための基準を、個人ごとに決定する。本実施形態の注視判別部33は、基準決定部44により個人ごとに決定された判別の基準に基づいて、読影者が注視状態であるか非注視状態であるかを判別する。また、本実施形態の疲労推定部41は、基準決定部44により個人ごとに決定された基準に基づいて、読影者の疲労の回復が必要であるか否かを推定する。
特性測定部43は、例えば、読影支援のためのプログラムの実行を開始した最初の画面で、表示部24に個人ごとの特性を測定させるためのテストパターンを表示して画面中で移動させ、テストパターンの移動に対する読影者の視線の追従性を測定する。基準決定部44は、特性測定部43により測定された読影者の視線の追従性に基づいて、注視状態であるか非注視状態であるかの判別の基準を決定する。また、基準決定部44は、特性測定部43により測定された読影者の視線の追従性に基づいて、疲労回復が必要であるか否かの推定の基準を決定する。
特性測定部43の特性測定の態様は、上述のテストパターンを用いた場合には特に限定されない。テストパターンの表示は行わず、読影中の読影者の視線移動及び目の状態変化の少なくとも一つに基づいて特性測定を行うようにしてもよい。
基準決定部44の基準決定の対象は、各種ある。基準決定部44の「基準を個人ごとに決定」は、予め決められた基準値を読影者ごとに自動調整する場合を含む。
<第4実施形態>
図14は、本発明に係る第4実施形態の読影支援装置12の構成例を示すブロック図である。尚、図13に示した第3実施形態の読影支援装置12と同じ構成要素には同じ符号を付してあり、既に説明した内容については以下では説明を省略する。
図14において、読影推定部39は、読影対象の医用画像の拡大操作から読影者の読影が行われたか否かを推定する。終了検知部35は、読影推定部39により読影が行われたと推定された場合のみ読影が終了したことを検知する。つまり、読影者が読影終了を意図している場合でも、読影を実際に行っていないと推定される場合を除外することにより、読影終了の検知精度を向上させることが可能となる。
<システム構成のバリエーション>
本発明に係る読影支援装置12を複数の装置により構成し、これらの複数の装置で読影支援に必要な処理を分散して行ってもよいことは、言うまでもない。つまり、図1に示した読影支援装置12を複数の装置により構成してよい。
図15は、図1に示した読影支援装置12を医用画像解析装置13及び読影者端末14で構成したシステム構成例を示す。
図15において、医用画像解析装置13は病変候補部位抽出部31(図2、図10、図12、図13又は図14の31)を含んで構成されている。読影者端末14は、読影者が操作する端末である。読影者端末14は、第1実施形態から第4実施形態で説明した読影支援装置12から病変候補部位抽出部31を省略した構成の装置としてよい。読影者端末14の通信部21は、ローカルエリアネットワーク18を介して、データベース16から、読影対象の医用画像と、その医用画像から抽出された病変候補部位を示す支援情報とを、通信により取得する。
本発明は、上述した実施形態には限定されず、本発明の主旨を逸脱しない範囲で種々の変形が可能であることは言うまでもない。
10…モダリティ、12…読影支援装置、13…医用画像解析装置、14…読影者端末、16…データベース、18…ローカルエリアネットワーク、21…通信部、22…カメラ、23…指示入力部、24…表示部、25…スピーカ、28…記憶部、29…CPU、31…病変候補部位抽出部、32…視線検知部、33…注視判別部、34…開始検知部、35…終了検知部、36…表示制御部、37…読影レポート作成部、38…瞬き検知部、39…読影推定部、41…疲労推定部、42…警告部、43…特性測定部、44…基準決定部

Claims (20)

  1. 読影対象の画像を解析して前記読影対象の画像から病変候補部位を抽出する病変候補部位抽出部と、
    前記読影対象の画像と前記病変候補部位を示す支援情報とを表示可能な表示部と、
    読影者の視線を検知する視線検知部と、
    前記視線検知部の検知の結果に基づいて、前記表示部に表示された前記読影対象の画像のうちの前記病変候補部位が前記読影者により注視されたか否かを判別する注視判別部と、
    前記表示部に表示された前記読影対象の画像に対する前記読影者の読影の終了を検知する終了検知部と、
    前記終了検知部により前記読影の終了が検知され且つ前記注視判別部により前記病変候補部位が注視されなかったと判別された場合には、前記読影対象の画像を前記表示部に表示し且つ前記支援情報が非表示である第1の表示状態から、前記表示部に少なくとも前記支援情報を表示した第2の表示状態に切り替える表示制御部と、
    を備える読影支援装置。
  2. 前記表示制御部は、前記終了検知部により前記読影の終了が検知され且つ前記注視判別部により前記病変候補部位が注視されたと判別された場合には、前記第1の表示状態を維持する、
    請求項1に記載の読影支援装置。
  3. 前記表示制御部は、前記読影対象の画像に複数の病変候補部位が存在する場合、前記第2の表示状態において、前記複数の病変候補部位のうち前記読影者により注視済の病変候補部位の支援情報を非表示として、前記読影者により未注視の病変候補部位の支援情報を表示する、
    請求項1又は2に記載の読影支援装置。
  4. 前記表示制御部は、前記読影対象の画像に複数の病変候補部位が存在する場合、前記複数の病変候補部位のうち前記読影者により注視済の病変候補部位の表示態様を変更することで前記読影者により未注視の病変候補部位と区別して表示する、
    請求項1から3のいずれか一項に記載の読影支援装置。
  5. 前記読影者の前記読影による疲労の回復が必要であるか否かを推定する疲労推定部と、
    前記疲労推定部により前記疲労の回復が必要であると推定された場合、警告を出力する警告部と、
    を備える請求項1から4のいずれか一項に記載の読影支援装置。
  6. 前記疲労推定部は、前記表示制御部による前記第1の表示状態から前記第2の表示状態への切替回数に基づいて、前記疲労の回復が必要であるか否かを推定する請求項5に記載の読影支援装置。
  7. 前記疲労推定部は、前記読影の時間の累積に基づいて、前記疲労の回復が必要であるか否かを推定する請求項5に記載の読影支援装置。
  8. 前記疲労推定部は、前記視線検知部により検知された前記視線の移動速度及び移動量のうちの少なくとも一方に基づいて、前記疲労の回復が必要であるか否かを推定する請求項5に記載の読影支援装置。
  9. 前記読影者の目の瞬きを検知する瞬き検知部を備え、
    前記疲労推定部は、前記目の瞬きの速度に基づいて、前記疲労の回復が必要であるか否かを推定する請求項5に記載の読影支援装置。
  10. 前記疲労推定部は、前記読影者の個人ごとのデータに基づいて、前記疲労の回復が必要であるか否かを推定する請求項5から9のいずれか一項に記載の読影支援装置。
  11. 前記表示制御部は、前記読影対象の画像のうちの前記視線が向けられている領域を拡大表示し、前記視線が外れた場合、又は拡大表示を開始してから一定時間経過後に、拡大表示を止める、
    請求項1から10のいずれか一項に記載の読影支援装置。
  12. 前記表示制御部は、前記読影対象の画像のうちの前記病変候補部位よりも注視が不要な部分の視認性を低くする、
    請求項1から11のいずれか一項に記載の読影支援装置。
  13. 前記視線検知部の視線検知により前記読影者からの指示入力を受け付ける、
    請求項1から12のいずれか一項に記載の読影支援装置。
  14. 前記注視判別部は、前記表示部に表示された前記読影対象の画像の病変候補部位に前記読影者の視線が向けられている場合に、前記読影者が前記病変候補部位を注視した注視状態であるか、前記読影者が前記病変候補部位に視線を向けているが前記病変候補部位を注視していない非注視状態であるか、を判別する、
    請求項1から13のいずれか一項に記載の読影支援装置。
  15. 前記注視判別部は、前記病変候補部位への前記読影者の視線の滞留時間に基づいて、前記注視状態であるか、前記非注視状態であるか、を判別する請求項14に記載の読影支援装置。
  16. 前記注視判別部は、前記読影者の瞳の状態に基づいて、前記注視状態であるか、前記非注視状態であるか、を判別する請求項14に記載の読影支援装置。
  17. 前記読影者の注視の特性を個人ごとに測定する特性測定部と、
    前記特性測定部による個人ごとの測定の結果に基づいて、前記注視状態であるか、前記非注視状態であるか、の判別の基準を個人ごとに決定する基準決定部と、
    を備え、
    前記注視判別部は、前記基準決定部により個人ごとに決定された判別の基準に基づいて、前記読影者が前記注視状態であるか、前記非注視状態であるか、を判別する、
    請求項14から16のいずれか一項に記載の読影支援装置。
  18. 前記特性測定部は、前記表示部にテストパターンを表示して画面中で移動させ、前記テストパターンの移動に対する前記読影者の視線の追従性を測定し、
    前記注視判別部は、前記特性測定部により測定された前記読影者の視線の追従性に基づいて、前記注視状態であるか、前記非注視状態であるか、の判別の基準を決定する、
    請求項17に記載の読影支援装置。
  19. 前記読影対象の画像の拡大操作から前記読影者の読影が行われたか否かを推定する読影推定部を備え、
    前記終了検知部は、前記読影推定部により読影が行われたと推定された場合のみ読影が終了したことを検知する、
    請求項1から18のいずれか一項に記載の読影支援装置。
  20. 読影対象の画像を解析して前記読影対象の画像から病変候補部位を抽出するステップと、
    前記読影対象の画像を表示部に表示し且つ前記病変候補部位を示す支援情報が非表示である第1の表示状態とするステップと、
    読影者の視線を検知するステップと、
    前記視線の検知の結果に基づいて、前記表示部に表示された前記読影対象の画像のうちの前記病変候補部位が前記読影者により注視されたか否かを判別するステップと、
    前記表示部に表示された前記読影対象の画像に対する前記読影者の読影の終了を検知するステップと、
    前記読影の終了が検知され且つ前記病変候補部位が注視されなかったと判別された場合には、前記読影対象の画像を前記表示部に表示し且つ前記支援情報が非表示である第1の表示状態から、前記表示部に少なくとも前記支援情報を表示した第2の表示状態に切り替えるステップと、
    を含む読影支援方法。
JP2017536638A 2015-08-24 2016-05-26 読影支援装置及び方法 Active JP6529144B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015164601 2015-08-24
JP2015164601 2015-08-24
PCT/JP2016/065559 WO2017033516A1 (ja) 2015-08-24 2016-05-26 読影支援装置及び方法

Publications (2)

Publication Number Publication Date
JPWO2017033516A1 true JPWO2017033516A1 (ja) 2018-06-07
JP6529144B2 JP6529144B2 (ja) 2019-06-12

Family

ID=58099846

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017536638A Active JP6529144B2 (ja) 2015-08-24 2016-05-26 読影支援装置及び方法

Country Status (4)

Country Link
US (1) US10456072B2 (ja)
EP (1) EP3342343B1 (ja)
JP (1) JP6529144B2 (ja)
WO (1) WO2017033516A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10769779B2 (en) * 2015-09-24 2020-09-08 Vuno, Inc. Method for increasing reading efficiency in medical image reading process using gaze information of user and apparatus using the same
WO2019044579A1 (ja) * 2017-08-31 2019-03-07 国立大学法人大阪大学 病理診断装置、画像処理方法及びプログラム
EP3493213B1 (en) * 2018-02-13 2020-12-30 Siemens Healthcare GmbH Method, system, computer program product and computer-readable medium for supporting a visual analysis of a medical image data set
JP2019180966A (ja) * 2018-04-13 2019-10-24 学校法人昭和大学 内視鏡観察支援装置、内視鏡観察支援方法、及びプログラム
EP3818430B1 (en) * 2018-07-03 2022-09-07 Telefonaktiebolaget Lm Ericsson (Publ) Portable electronic device for mixed reality headset
JP7121583B2 (ja) * 2018-08-07 2022-08-18 本田技研工業株式会社 表示装置、表示制御方法、およびプログラム
CN113164023B (zh) * 2018-11-28 2024-02-23 奥林巴斯株式会社 内窥镜系统和内窥镜用图像处理方法、以及计算机可读存储介质
JP2021148506A (ja) 2020-03-17 2021-09-27 本田技研工業株式会社 表示制御装置、表示制御方法およびプログラム
WO2022064794A1 (ja) * 2020-09-28 2022-03-31 富士フイルム株式会社 画像表示装置、方法およびプログラム
JPWO2022113587A1 (ja) * 2020-11-27 2022-06-02
US20220265183A1 (en) * 2021-02-19 2022-08-25 Canon Medical Systems Corporation Method and apparatus for displaying medical images
JPWO2022220081A1 (ja) * 2021-04-14 2022-10-20

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0370381A (ja) * 1989-08-10 1991-03-26 Fuji Photo Film Co Ltd 画像表示装置
JP2000342537A (ja) * 1999-06-03 2000-12-12 Nec Corp 眼疲労警告装置および眼疲労警告方法
JP2005348936A (ja) * 2004-06-10 2005-12-22 Konica Minolta Medical & Graphic Inc 医用画像表示システム、プログラム及び医用画像表示方法
JP2007319327A (ja) * 2006-05-31 2007-12-13 Hitachi Medical Corp 読影支援システム
JP2008099929A (ja) * 2006-10-20 2008-05-01 Fujifilm Corp 異常陰影候補表示装置
JP2009125154A (ja) * 2007-11-20 2009-06-11 Hamamatsu Photonics Kk 瞬目計測装置
JP2010035756A (ja) * 2008-08-04 2010-02-18 Fujifilm Corp 診断支援装置及び診断支援方法
JP2011175620A (ja) * 2010-02-23 2011-09-08 Fuji Xerox Co Ltd 画像分析支援方法、画像分析支援システムおよび画像分析支援のためのプログラム
JP2012196279A (ja) * 2011-03-18 2012-10-18 Waseda Univ 注目度検出システム、注目度判定装置、注目度判定装置用のプログラム、及び画像配信システム
JP2014123179A (ja) * 2012-12-20 2014-07-03 Fujitsu Ltd 情報処理装置、情報処理方法、見落し防止プログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8020993B1 (en) * 2006-01-30 2011-09-20 Fram Evan K Viewing verification systems
JP5159041B2 (ja) 2006-01-30 2013-03-06 株式会社東芝 超音波診断装置およびその画像処理プログラム
WO2010051037A1 (en) * 2008-11-03 2010-05-06 Bruce Reiner Visually directed human-computer interaction for medical applications
WO2014039337A1 (en) * 2012-09-07 2014-03-13 Tractus Corporation Methods, apparatus, and systems for viewing multiple-slice medical images
JP6165033B2 (ja) 2013-11-14 2017-07-19 オリンパス株式会社 医療システム
JP5997791B2 (ja) 2015-02-10 2016-09-28 キヤノン株式会社 診断支援装置、診断支援装置の制御方法、プログラム及び記憶媒体

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0370381A (ja) * 1989-08-10 1991-03-26 Fuji Photo Film Co Ltd 画像表示装置
JP2000342537A (ja) * 1999-06-03 2000-12-12 Nec Corp 眼疲労警告装置および眼疲労警告方法
JP2005348936A (ja) * 2004-06-10 2005-12-22 Konica Minolta Medical & Graphic Inc 医用画像表示システム、プログラム及び医用画像表示方法
JP2007319327A (ja) * 2006-05-31 2007-12-13 Hitachi Medical Corp 読影支援システム
JP2008099929A (ja) * 2006-10-20 2008-05-01 Fujifilm Corp 異常陰影候補表示装置
JP2009125154A (ja) * 2007-11-20 2009-06-11 Hamamatsu Photonics Kk 瞬目計測装置
JP2010035756A (ja) * 2008-08-04 2010-02-18 Fujifilm Corp 診断支援装置及び診断支援方法
JP2011175620A (ja) * 2010-02-23 2011-09-08 Fuji Xerox Co Ltd 画像分析支援方法、画像分析支援システムおよび画像分析支援のためのプログラム
JP2012196279A (ja) * 2011-03-18 2012-10-18 Waseda Univ 注目度検出システム、注目度判定装置、注目度判定装置用のプログラム、及び画像配信システム
JP2014123179A (ja) * 2012-12-20 2014-07-03 Fujitsu Ltd 情報処理装置、情報処理方法、見落し防止プログラム

Also Published As

Publication number Publication date
JP6529144B2 (ja) 2019-06-12
WO2017033516A1 (ja) 2017-03-02
US10456072B2 (en) 2019-10-29
EP3342343B1 (en) 2019-11-27
EP3342343A1 (en) 2018-07-04
EP3342343A4 (en) 2018-09-26
US20180177446A1 (en) 2018-06-28

Similar Documents

Publication Publication Date Title
WO2017033516A1 (ja) 読影支援装置及び方法
US20180157323A1 (en) Eye gaze determination
KR101331655B1 (ko) 전자 데이터 입력 방법, 시스템 및 컴퓨터 판독 가능한 매체
US9841811B2 (en) Visually directed human-computer interaction for medical applications
US7396129B2 (en) Diagnostic system having gaze tracking
EP3157432B1 (en) Evaluating clinician attention
US20100231504A1 (en) Hotspots for eye track control of image manipulation
EP3570771B1 (en) Augmented reality for radiation dose monitoring
KR102326489B1 (ko) 디스플레이를 제어하는 전자 장치 및 방법
US20200162664A1 (en) Input control device, input control method, and operation system
CN105473059B (zh) 在成像数据集之间对发现的匹配
JP6123694B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2015152939A (ja) 情報処理装置、情報処理方法、及びプログラム
US20220327704A1 (en) Method for determining location of target of body
CN111656402A (zh) 用于与血管图像交互的设备、系统和方法
CN114740966A (zh) 多模态图像显示控制方法、系统及计算机设备
JP2019028563A (ja) 表示プログラム、情報処理装置、及び表示方法
EP4286991A1 (en) Guidance for medical interventions
KR101643744B1 (ko) 시선고정 눈 반응 감지장치 및 방법
WO2023232612A1 (en) Guidance for medical interventions
JP6575353B2 (ja) 視線検出装置、視線検出方法及び視線検出用コンピュータプログラム
Brandon et al. Virtual Visit: A Web-based Assistive Interface for Touring Cultural Spaces Remotely
JP2024024307A (ja) 画像処理装置、画像処理方法およびプログラム
Kaminaga et al. Study on Operation of Environmental control systems using Head Movement and Eye gazing

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180216

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190508

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190510

R150 Certificate of patent or registration of utility model

Ref document number: 6529144

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250