JP2020027507A - 医用情報処理装置及び医用情報処理方法、プログラム - Google Patents

医用情報処理装置及び医用情報処理方法、プログラム Download PDF

Info

Publication number
JP2020027507A
JP2020027507A JP2018152720A JP2018152720A JP2020027507A JP 2020027507 A JP2020027507 A JP 2020027507A JP 2018152720 A JP2018152720 A JP 2018152720A JP 2018152720 A JP2018152720 A JP 2018152720A JP 2020027507 A JP2020027507 A JP 2020027507A
Authority
JP
Japan
Prior art keywords
learning
evaluation
unit
medical information
result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018152720A
Other languages
English (en)
Other versions
JP7273470B2 (ja
Inventor
佳士 町田
Yoshiji Machida
佳士 町田
好教 平野
Yoshinori Hirano
好教 平野
秀昭 宮本
Hideaki Miyamoto
秀昭 宮本
山田 大輔
Daisuke Yamada
大輔 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018152720A priority Critical patent/JP7273470B2/ja
Priority to PCT/JP2019/026009 priority patent/WO2020036007A1/ja
Publication of JP2020027507A publication Critical patent/JP2020027507A/ja
Priority to US17/163,888 priority patent/US11914918B2/en
Application granted granted Critical
Publication of JP7273470B2 publication Critical patent/JP7273470B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • G06F18/2178Validation; Performance evaluation; Active pattern learning techniques based on feedback of a supervisor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/40Software arrangements specially adapted for pattern recognition, e.g. user interfaces or toolboxes therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/778Active pattern-learning, e.g. online learning of image or video features
    • G06V10/7784Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/945User interactive design; Environments; Toolboxes
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/14Solving problems related to the presentation of information to be displayed
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/16Calculation or use of calculated indices related to luminance levels in display data

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Human Computer Interaction (AREA)
  • Computing Systems (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Pathology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Computer Hardware Design (AREA)
  • Image Analysis (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

【課題】医用情報処理装置において、学習の妥当性の検証結果に基づいてユーザーが学習結果の適用の可否を適切に判断できるようにする。【解決手段】医用情報処理装置であって、医用情報を取得する取得部と、医用情報を用いて医用情報処理装置内の機能に対し学習を行う学習部と、学習部による学習結果を評価するための、機能の実行による正解が既知の評価用データを保持する評価用データ保持部と、評価用データに基づいて、学習により取得された学習結果を評価する評価部と、学習部の学習結果を機能に適用するための指示を受け付ける受け付け部と、を備える。【選択図】図1

Description

本発明は、医用情報処理装置及びその医用情報処理方法、プログラムに関する。
医用情報処理装置において、機械学習を用いてユーザーの傾向や嗜好に沿った情報を提供する機能や、画像解析精度を向上させる機能等が提案されている。特許文献1には機械学習により画像認識精度を向上させ、対象物を検出する方法が記載されている。また、特許文献2にはニューラルネットワークを用いて、放射線画像の分割パターン、照射野、撮影体位、撮影部位を認識する方法が記載されている。
特開2017−185007号公報 特開平04−261649号公報
Conventional Neural Networkを用いた一般物体認識手法の解析 情報処理学会研究報告 Vol.2014-CVIM-192 No.14 (実施形態で参照される)
上記の様な機械学習を用いて性能が変更された場合に、ユーザーの臨床的要求である使用目的の達成に必要な性能を満たすか否かを検証する妥当性検証を行うこと、また、ユーザーがその妥当性について容易に判断するための構成については提案されていない。
本発明は、医用情報処理装置において、学習の妥当性の検証結果に基づいてユーザーが学習結果の適用の可否を適切に判断できるようにすることを目的とする。
本発明の一態様による医用情報処理装置は以下の構成を備える。すなわち、
医用情報処理装置であって、
医用情報を取得する取得手段と、
前記医用情報を用いて医用情報処理装置内の機能に対し学習を行う学習手段と、
前記学習手段による学習結果を評価するための、前記機能の実行による正解が既知の評価用データを保持する評価用データ保持手段と、
前記評価用データに基づいて、学習により取得された学習結果を評価する評価手段と、
前記学習手段の学習結果を前記機能に適用するための指示を受け付ける受け付け手段と、を備える。
本発明によれば、医用情報処理装置における学習の妥当性の検証結果に基づいてユーザーが学習結果の適用の可否を適切に判断できるようになる。
第1実施形態の医用情報処理装置の機能構成例を示す図。 第1実施形態の医用情報処理装置の処理手順を示すフローチャート。 第1実施形態による評価結果の表示例を示す図。 (a)は第1実施形態の評価部の機能構成例を示す図、(b)は第1実施形態の評価部の処理手順を示すフローチャート。 照射野の正解と学習によって得られた結果の差異例を示す図。 (a)は第1実施形態の表示部における表示形態の一例を示す図、(b)は第2実施形態の表示部における表示形態の一例を示す図。 (a)、(b)は、表示形態の変形例を示す図。 (a)、(b)は、表示形態の変形例を示す図。 (a)、(b)は、表示形態の変形例を示す図。 表示形態の変形例を示す図。 第3実施形態の医用情報処理装置の機能構成例を示す図。 第3実施形態の表示部における表示形態の一例を示す図。 実施形態による医用情報システムのハードウエア構成例を示すブロック図。
以下、添付の図面を参照しながら本発明の実施形態を説明する。尚、実施形態では放射線画像に対する医用情報処理装置を説明するが、本発明はCT装置、MRI装置、超音波装置、眼底カメラ、OCT、内視鏡等、他のモダリティを用いた医用情報処理装置にも適用可能である。また、複数種類のモダリティを用いた医用情報処理装置にも適用可能である。なお、以下の実施形態において、放射線という用語は、X線の他、例えば、α線、β線、γ線、粒子線、宇宙線などを含み得る。
<第1実施形態>
図1は、第1実施形態による医用情報処理装置の機能構成例を示すブロック図である。図1に示すように、第1実施形態における、医用情報処理装置100は、医用情報を取得する医用情報取得部110と、取得された医用情報を用いて医用情報処理装置内の機能に対し学習を行う学習部103とを有する。また、医用情報処理装置100は、学習部103による学習結果を評価するための、機能の実行による正解が既知の評価用データを保持する評価用データ保持部105を有する。また、医用情報処理装置は、評価用データに基づいて、学習部103が行った機械学習により取得された学習結果(学習状態)を評価する評価部104を有する。また、医用情報処理装置100は、評価部104による評価の結果を表示器に表示させる表示制御部としての表示部106を有する。
また、医用情報処理装置100は、評価部104による評価に基づいて、医用情報処理装置内の上記機能によって用いられるパラメータを更新するパラメータ更新部107を有する。さらに、医用情報処理装置100は、学習結果の評価に基づいて、医用情報処理装置100内の機能におけるパラメータ(機械学習による学習結果)を更新するか否かを判定する判定部108を有する。後述するように、表示部106は評価結果の表示とともに学習結果を適用するか否かを受け付けるユーザインターフェースを提供し、その操作に基づいて判定部108が学習結果を適用するか否かを判定する。すなわち、表示部106と判定部108は、学習部103の学習結果を機能に適用するための指示を受け付ける受け付け部として機能する。
医用情報取得部110において、撮影部101は、医用情報として用いられる医用画像を取得する。医用画像としては、例えば、放射線画像、CT画像、MRI画像、超音波画像、眼底画像、OCT画像、内視鏡画像などがあげられる。また、医用情報は、医用画像に付帯する情報(管電圧、撮影部位など)を含んでいてもよい。医用情報取得部110は、医用画像とその医用画像に付帯する情報(以下、付帯情報)を含む医用情報を取得し、データ保持部102に保持する。
医用情報処理装置100は、医用画像を用いた画像認識、画像処理、診断支援などのいずれか1つの機能を含む。学習部103により医用情報処理装置100が有する機能の学習が行われると、医用情報処理装置100の機能(機能の質)が変化する。例えば、学習部103によって医用画像を用いた画像認識の学習をすれば画像認識の精度が変化し、学習部103によって画像処理の学習をすれば画像処理の精度が変化し、学習部103によって診断支援の学習をすれば診断支援の精度が変化する。
評価用データ保持部105は、医用情報処理装置100の機能に応じた評価用データを保持する。評価用データは、例えば、対象データとしての医用画像と、それぞれの学習(画像認識、画像処理、診断支援など)に応じた正解データとを含む。すなわち、評価用データは、医用画像と、当該医用画像について既知となっている正解のデータで定義されている。例えば、医用画像を用いた画像認識の学習に関する評価用データは、対象データとしての医用画像と、正解データとしての領域情報(照射野、解剖学的領域、病変領域など)とを含む。また、例えば画像処理の学習に関する評価用データは、対象データとしての医用画像と正解データとしての画像処理条件(階調処理条件、ノイズ処理条件など)とを含む。また、例えば、診断支援の学習に関する評価用データは、対象データとしての医用画像と正解データとしての病変位置情報とを含む。
また、評価用データ保持部105は、撮影部位、撮影手技などの撮影形態に応じて、評価用データを保持してもよい。例えば、処理対象のデータとしての評価用データ保持部105は、胸部、腹部、頭部、四肢などの撮影部位ごとに区別して、評価用データを保持することができる。例えば、評価用データ保持部105は、撮影部位に応じて、評価用データである医用画像と画像処理条件(階調処理条件、ノイズ処理条件など)を保持することができる。また、例えば、評価用データ保持部105は、動画撮影、静止画撮影などの撮影手技ごとに区別して、評価用データを保持することができる。例えば、評価用データ保持部105は、撮影手技に応じて、評価用データである医用画像と画像処理条件(階調処理条件、ノイズ処理条件など)を保持することができる。
評価部104は、学習部103において学習した内容(医用情報処理装置内の機能)を解析し、学習した内容に関連する評価用データを評価用データ保持部105から読み込み、学習結果を評価する。評価部104は、学習部103による学習結果を用いて、システム内の機能により評価用データに含まれている処理対象のデータを処理し、その結果を当該評価用データに含まれている正解データと比較することにより、学習結果を評価する。例えば、医用画像を用いた画像認識の学習について評価する場合、評価部104は、医用画像を用いた画像認識の学習に関連する評価用データを評価用データ保持部105から読み込み、画像認識に関する学習結果を評価する。また、例えば、医用画像を用いた画像処理の学習について評価する場合、評価部104は、医用画像を用いた画像処理の学習に関連する評価用データを評価用データ保持部105から読み込み、画像処理に関する学習結果を評価する。また、例えば、医用画像を用いた診断支援の学習について評価する場合、評価部104は、診断支援の学習に関連する評価用データを評価用データ保持部105から読み込み、診断支援に関する学習結果を評価する。
なお、上記では、機能の種別(画像認識、画像処理、診断支援などの学習の種別)に応じて使用する評価用データを選択したがこれに限られるものではない。例えば、評価部104は、学習部103において学習した医用情報に基づく撮影形態に応じて、医用画像を取得した際の撮影形態に関連する評価用データを読み込み、学習結果を評価してもよい。撮影形態としては、例えば、上述したように胸部、腹部、頭部、四肢などの撮影部位があげられる。より、具体的には、胸部撮影した医用画像を用いた画像認識の学習について評価する場合、評価部104は、胸部撮影した医用画像から評価用データを読み込み、画像認識に関する学習結果を評価する。
表示部106は、学習結果に対する評価結果を表示器(例えば、図13のディスプレイ18)に表示させる表示制御を実行する。表示部106は、医用画像を表示することもできる。表示部106は、機械学習による学習結果(画像認識の精度、画像処理の制度、診断支援の精度など)が向上したのか、低下したのかを表示することができる。すなわち、評価部104による評価の結果を、学習部103の学習によって生じた変化をユーザーが把握できるように、表示器に表示させる。判定部108は、表示部106が評価結果を表示した後のユーザーからの指示に応じて、あるいは、学習結果に基づいて自動的に、医用情報処理装置内の機能におけるパラメータを更新すると判定する。つまり、判定部108は、学習部103における機械学習による学習結果をユーザー指示に応じてあるいは自動的に承認する。パラメータ更新部107は、判定部108によりパラメータを更新すると判定された場合に、医用情報処理装置内の機能によって用いられるパラメータを、学習結果を用いて更新する。こうして、パラメータ更新部107は、学習部103が行った機械学習の学習結果(画像認識の精度、画像処理の制度、診断支援の精度など)が向上した場合に、医用情報処理装置内の機能におけるパラメータを更新する。
ユーザーの指示に応じてパラメータを更新するか否かを判定する判定部108は、パラメータを更新することを承認するユーザー指示を受け付ける承認部と、パラメータを更新することを否認するユーザー指示を受け付ける否認部とから構成され得る。例えば、ユーザーは、表示部106に表示されている機械学習による学習結果と医用画像を見て、判定部108における承認部と否認部を操作することができる。これにより、ユーザーは、医用情報処理装置内の機能におけるパラメータを更新することを承認したり、否認したりすることができる。また、機械学習による学習結果が過去に比べて向上した場合、判定部108を用いて、医用情報処理装置内の機能におけるパラメータを更新すると自動で判定することもできる。判定部108で医用情報処理装置内の機能におけるパラメータを更新する判定された場合、パラメータ更新部107は、医用情報処理装置内の機能におけるパラメータを更新する。
図13は、上述した各機能部を実現する医用情報処理装置100のハードウエア構成例を示すブロック図である。
放射線撮影装置41は、不図示の放射線発生部から照射された放射線を検出し、医用画像としての放射線画像を取得する。処理装置42は、放射線撮影装置41により取得された放射線画像に基づいて、画像認識、画像処理、診断支援などを行う。処理装置42は、上述した医用情報処理装置内の機能を実行する。格納装置43は、放射線撮影装置41が取得した放射線画像とその付帯情報、及び、処理装置42により処理された放射線画像を格納する。処理装置42と格納装置43はネットワーク30に接続されている。なお、処理装置42は独立した装置である必要はなく、例えば、処理装置42は情報処理装置10に含まれてもよいし、放射線撮影装置41に含まれてもよい。
また、ネットワーク30には情報処理装置10が接続されている。情報処理装置10において、CPU11は、ROM12またはRAM13に格納されたプログラムを実行することにより、情報処理装置10を制御する。ROM12は読み取り専用の不揮発性メモリであり、RAM13は随時読み書きが可能な揮発性メモリである。ネットワークI/F14は、情報処理装置10とネットワーク30とを接続する。入出力I/F15は、ディスプレイ18と、キーボード、ポインティングデバイスなどの操作装置19とを情報処理装置10に接続する。二次記憶装置16は、ハードディスクなどで構成され、各種データ、プログラムを記憶する。バス17は、上述した各部を、通信可能に接続する。
以上の構成において、例えば、撮影部101は、放射線撮影装置41と処理装置42により実現され得る。また、学習部103、評価部104、表示部106、パラメータ更新部107は、情報処理装置10においてCPU11がROM12またはRAM13に格納された所定のプログラムを実行することにより実現され得る。また、処理装置42が格納装置43を用いてデータ保持部102を実現してもよいし、情報処理装置10が格納装置43を用いて評価用データ保持部105を実現してもよい。
以下では、以上の様な構成を備える第1実施形態の医用情報処理装置100に、放射線画像における照射野認識の機能の精度向上を行うための機械学習を適用した例を説明する。撮影部101は、被写体を透過した放射線を検出し、放射線画像を生成する機能(放射線撮影装置41)と、撮影した放射線画像から照射野領域を特定する照射野認識の機能(処理装置42)を有している。
医用情報処理装置100による処理について図2を参照して説明する。図2は、第1実施形態による医用情報処理装置100の処理を説明するフローチャートである。ステップS201において、撮影部101は、放射線を用いた撮影により放射線画像を取得し、また、その放射線画像における照射野を示す照射野情報を取得する。照射野情報とは、放射線画像中の放射線が照射された領域に関する情報である。照射野情報は、例えば、放射線画像の各座標に対して、照射野を0、照射野外を1としたデータである。照射野は、放射線が撮影部101に到達した領域であり、照射野外は、放射線が撮影部101に到達しなかった、照射野を除く領域である。図5(a)に照射野情報の例を示す。照射野情報はユーザーが領域を指定する、もしくは医用情報処理装置100の照射野認識機能(処理装置42)で得られた照射野情報をユーザーが確認し、必要に応じて照射野領域を修正することで得られる。照射野認識機能には、機械学習アルゴリズムの学習結果を用いたアルゴリズムが用いられる。
ステップS202において、データ保持部102は、ステップS201で取得された放射線画像および照射野情報を医用情報として保持する。言い換えれば、データ保持部102は、撮影部101で撮影された放射線画像と、当該放射線画像において放射線が照射された領域に関する情報(照射野情報)を保持する。
ステップS203において、学習部103はデータ保持部102内の放射線画像および照射野情報を用いて照射野領域認識機能に関する機械学習を行い、学習結果を得る。本実施形態の機械学習には、例えば非特許文献1に記載されたConvolution Neural Network(以下、CNN)を用いることができる。なお、CNNは一例であり、これに限られるものではない。例えば、学習部103は、Recurrent Neural Network、Long Short-Term Memory等の深層学習、Support vector Machine、AdaBoost等の機械学習を用いることができる。また、本実施形態での学習結果はCNNの各層における重み等のパラメータとするが学習結果はこれに限られるものではない。例えば、レイヤ構成などが学習結果として得られるようにしてもよい。
ステップS204にて、評価部104は評価用データ保持部105に保持されている評価用データを用いて、学習部103により出力された学習結果を評価し、評価結果を取得する。本実施形態においては、評価用データは予め用意された放射線画像とその照射野情報(正解データ)である。なお、評価部104における評価方法の詳細は後述する。ステップS205にて、表示部106は、評価部104により取得された評価結果を表示器に表示する。図3に、表示部106による評価結果の表示例を示す。図3では、照射野領域機能による照射野の認識精度が80%から90%に向上したことを示している。つまり、表示部106は、機械学習による学習結果(照射野領域の認識精度)が向上したのか、低下したのかを表示することができる。
ステップS206にて、判定部108は、ユーザーが評価結果を確認して妥当性があると判断したことを検出した場合、パラメータ更新部107にて撮影部101内の照射野認識機能におけるパラメータ(機械学習による学習結果)を更新すると判定する。その場合、処理はステップS207に移行する。他方、ユーザーが評価結果を確認して妥当性がないと判断したことを検出した場合、判定部108は、パラメータ更新部107にて撮影部101内の照射野認識機能におけるパラメータを更新しないと判定する。その場合、処理はステップS208に移行する。なお、評価部104による評価結果に基づいて判定部108が自動的にパラメータの更新の可否を判定してもよい。例えば、学習により認識精度が向上した場合に、判定部108が自動的に更新を可とするようにしてもよい。また、認識精度が所定の閾値に達しない場合、認識精度の向上率が所定の率に達しない場合、または認識精度が低下した場合などで、判定部108はユーザーの判断を受け付けるようにし、他の場合に自動的にパラメータの更新を許可するようにしてもよい。
ステップS207において、パラメータ更新部107は、医用情報処理装置内の機能(撮影部101内の照射野認識機能)におけるパラメータを更新する。このように、パラメータ更新部107は、機械学習による学習結果(照射野領域の認識精度)が向上した場合、医用情報処理装置内の機能(撮影部101内の照射野認識機能)におけるパラメータが更新されることになる。他方、ステップS208では、パラメータ更新部107は、医用情報処理装置内の機能(撮影部101内の照射野認識機能)におけるパラメータを更新しない。このように、パラメータ更新部107は、機械学習による学習結果(照射野領域の認識精度)が低下した場合、医用情報処理装置内の機能(撮影部101内の照射野認識機能)におけるパラメータが更新されないことになる。
以上のようにステップS201からS208の処理を行うことによって機械学習の妥当性検証と医用情報処理装置内の機能におけるパラメータの更新要否の判定が可能となる。また、機械学習によって医用情報処理装置内の機能が変化し得る状況において、変化後の評価結果をユーザーに提示することにより、妥当性があるか否かをユーザーが判断する際の指標として用いることができる。臨床的要求である使用目的の達成に必要な性能を満たすか否かを検証することが可能となる。
次に、第1実施形態の評価部104における評価処理について図4を用いて詳細に説明する。第1実施形態では、学習結果の妥当性の評価を、複数組の画像データ(放射線画像)とその照射野情報を含む評価用データを用いて行う。
図4(a)は、第1実施形態による評価部104の機能構成例を示すブロック図である。評価部104において、評価用データ入力部401は、評価用データ保持部105から評価用データを入力する。学習結果入力部402は、学習部103から学習結果である学習済みパラメータを入力する。比較部403は、評価用データにおける正解データと、学習済みパラメータを用いて評価用データにおける医用画像を処理した結果を比較する。算出部404は、評価用データにおける正解データと学習結果における学習データの一致率を算出する。出力部405は、算出部404における算出結果を出力する。
次に図4(b)を参照して、上記構成を有する評価部104が実行する処理の流れを詳細に説明する。ステップS421において、評価用データ入力部401は、評価用データ保持部105から評価用データを入力する。上述の通り本実施形態では評価用データは、対象データとしての画像データ(医用画像)および正解データとしての照射野情報(以下、正解照射野)を含む。ステップS422において、学習結果入力部402は学習部103の学習結果である学習済みパラメータを入力する。上述の通り本実施形態ではパラメータはCNNにおける各層の重み係数である。ステップS423において、処理装置42は学習済みパラメータに基づいて、評価用データに含まれる画像データに対して画像認識を行う。本実施形態では処理結果は照射野情報(以下、学習照射野)である。ステップS424において、比較部403は正解照射野と学習照射野を比較し一致率を算出する。
比較部403における照射野の比較例を図5に示す。図5(a)は正解照射野501の例を、図5(b)は学習照射野502の例を、図5(c)は比較照射野503の例をそれぞれ示している。正解照射野501と学習照射野502において"1"となっている画素は照射野外であり、"0"となっている画素は照射野内である。また、比較照射野503において、"0"は正解照射野と学習照射野が一致した画素、"1"は正解照射野と学習照射野が不一致であった画素である。図5の例では全80画素中76画素が一致しており、この場合の一致率は76/80×100=95%となる。
ステップS425において、算出部404は比較した全ての比較結果から結果を算出する。本実施形態では一致率に閾値を設け、一致率が95%以上を正解、95%未満を不正解として全比較結果の認識精度を算出する。例えば、100例中90例が95%以上の一致率であった場合、認識精度は90/100×100=90%となる。ステップS426において、出力部405は、算出部404で算出した結果を表示部106に出力する。以上、ステップS421からS426の処理を行うことによって機械学習によって更新された学習結果の妥当性確認をユーザーが容易に行うことが可能となる。
次に、図6(a)に従い表示部106およびパラメータ更新部107における評価表示方法、妥当性確認方法、パラメータ更新方法の詳細を述べる。表示部106は、評価部104により得られた、学習部103による学習の前後の評価結果を表示することにより、ユーザーに学習結果を反映するか否かの判断を行うための参考を提供する。
図6(a)は表示部106による評価結果の表示例を示した図である。601は機械学習前の評価結果、602は機械学習後の評価結果を示す。603は医用情報処理装置内の機能におけるパラメータ(機械学習の学習結果)を更新することを承認する承認部(承認アイコン)である。604は医用情報処理装置内の機能におけるパラメータを更新することを否認する否認部(否認アイコン)である。表示部106に判定部108における承認部603と否認部604が組み込まれている形態である。承認部603と否認部604は、学習部103の学習結果を医用情報処理装置内の対応する機能に適用するためのユーザー指示を受け付けるための構成の一例である。なお、第1実施形態では評価結果601,602において、正解と判定された評価データの割合を示すようにしたが、不正解と判定された評価データの割合を示してもよい。
表示部106は機械学習前の評価結果601および機械学習後の評価結果602を表示する。本例では機械学習前の結果が80%、機械学習後の結果が90%である。ユーザーは機械学習前後の評価結果を確認し、承認部603もしくは否認部604を押下して、承認もしくは否認を選択する。承認部603が押下された場合、判定部108はユーザーが学習結果を承認したと判断し、パラメータ更新部107に学習結果を撮影部101に反映させる。他方、否認部604が押下された場合、判定部108はユーザーが学習結果を否認したと判断し、パラメータ更新部107による撮影部101への学習結果の反映を実行させない。
上記のように、評価結果を表示し、ユーザーが評価結果を確認して判定を行うことにより、機械学習の性能を保障することが可能となる。
なお、本実施形態では学習後の評価結果が学習後の評価結果よりも高い例を示したが、実際には低くなるケースも考えられる。例えば、施設内で取得されたデータを用いて機械学習を進めた場合は、施設内で最適化された状態となることが想定されるため、予め用意された評価用データでの評価では低くなることが考えられる。一方、過学習や誤った学習データを用いたことによって性能が低下した場合が考えられる。このような場合においても、例えばユーザー側が評価用データの評価はある基準よりも低くなければ妥当性があると判断することが可能である。このように、評価用データを表維持し、それを承認するか否認するかの機能を持たせることによって、ユーザーが妥当性検証を容易に行うことが可能となる。
尚、第1実施形態では照射野認識機能を例として説明したが、本発明は関心領域または撮影部位を認識する機能、腫瘤の位置および/または悪性度等の診断支援情報を提供する機能等、機械学習システムを用いたあらゆる医用情報処理装置に適用可能である。また、本実施形態では、画像データと照射野情報の組み合わせを学習用データ、評価用データとしたがこれに限られるものではない。例えば、画像データ、診断情報、遺伝子情報、複数のモダリティの検査情報、性別、年齢、身長などのいずれかをデータとして用いる、いかなる機械学習システムにも適用可能である。
また、本実施形態では医用情報処理装置で得られたデータを用いて機械学習を行うことを説明したが、本発明は機械学習を行うデータがいかなるシステムで得られたデータであっても適用可能である。例えば、パブリックデータセットと呼ばれるインターネットで公開されている機械学習用データセットを用いた医用情報処理装置にも適用可能である。また、本実施形態では医用情報処理装置100のすべての構成が同一の施設内になくてもよい。例えば、撮影部101および妥当性評価結果を表示する表示部106は病院内、それ以外の構成はクラウド上にあるというような医用情報処理装置であってもよい。
[変形例1−1]
第1実施形態では機械学習による機能として照射野認識機能等の領域判別や診断支援情報の提供等、画像解析に関する機能について説明したが、本変形例では画質の嗜好についての適用例について説明する。
放射線画像等の診断用画像においても読影を行う医師、診療科、施設毎に画質の嗜好が異なり、例えばコントラスト、輝度、鮮鋭度、ノイズ量に対する嗜好は様々である。本変形例では機械学習において、画質向上用のパラメータを自動的に設定する方法を想定している。撮影した画像とユーザーが最適画質に調整した画像を学習用データとして入力することによって学習結果を得て、画質向上用のパラメータを自動設定する。このようにすることで様々な撮影条件、被写体においても、嗜好に応じた画像を作成することを想定する。この場合において、評価は学習データとは別に評価用データとして撮影された画像とそれを最適画質に調整した画像を用いる。
この場合、学習結果で得られた画像調整用パラメータを適用した画像と、評価用データで撮影された画像の比較を行うことによって評価を行う。画像比較は、差の二乗やヒストグラムの最大値/最小値/最頻値の差分、指定領域の標準偏差の差分等を用いることによって比較することが可能である。評価結果601,602には、例えば、上記評価で算出された差分値を表示する。このように変形例1−1によれば、画像解析を用いた機能だけでなく、画質の嗜好に合わせるといった機能においても妥当性検証を行うことが可能となる。
以上のように、第1実施形態とその変形例1−1によれば、対象データと正解データを含む評価データを用いて評価が行われる。すなわち、学習前後の機能による対象データの処理結果と正解データとの比較により正解と判定された評価用データの割合、または不正解と判定された評価用データの割合が、学習前後の評価結果として表示される。ユーザーは、この評価結果を見て、承認部603または否認部604を操作することにより、学習結果の繁栄の可否を指示することができる。
<第2実施形態>
第2実施形態では、ユーザーが妥当性検証を効率的に行うための失敗例の表示について述べる。なお、機能構成、処理フロー、ハードウエア構成は第1実施形態(図1、図2、図13)と同様である。第2実施形態と第1実施形態とでは、主として表示部106による評価結果の表示形態が異なっている。第1実施形態と同様に、評価部104は、評価用データに含まれる対象データを学習後の機能により処理して得られた処理結果と、評価用データに含まれる正解データとの誤差を取得し、該誤差に基づいて処理結果が不正解か否かを判定する。第2実施形態の表示部106は、評価部104により不正解と判定された処理結果を、対応する評価用データの対象データと正解データとともに表示器(ディスプレイ18に表示する。以下、対象データが医用画像、正解データが照射野情報、学習対象の機能が照射野認識である場合の具体例により説明する。
図6(b)は第2実施形態における評価結果の表示例を示した図である。表示部106は、第1実施形態(図6(a))と同様に、機械学習前の評価結果601、機械学習後の評価結果602、承認部603、否認部604を表示する。図示の例では、機械学習前の評価結果601(正解率)が80%、機械学習後の評価結果602(正解率)が90%である。ユーザーは機械学習前後の評価結果を確認し、承認部603もしくは否認部604を押下して、承認もしくは否認を選択する。ここでは、機械学習後における正解率は90%であるため、残りの10%は不正解となっている。
第2実施形態では、表示部106は、さらに評価部104における学習結果の評価において不正解となった対象の医用画像とその原因を表示する。具体的には、表示部106は、不正解となった評価用データの対象データである医用画像605、606と、当該評価用データの正解データ(607)と、学習部103による学習後の機能による処理結果(608)を表示する。また、表示部106は、不正解と判定された処理結果に関する誤差を示す誤差情報609を表示する
ユーザーは、表示部106に表示された誤差情報609を確認することにより、学習部103の学習結果と正解データとの誤差を認識することができる。上述した照射野認識の例では、評価部104は、正解照射野と学習照射野を比較し、一致率を算出する。評価部104は、算出された一致率から誤差(数値)を算出する。例えば、一致率が80%であれば、誤差が20%となり、一致率が70%であれば、誤差が30%となる。表示部106は、当該誤差を示す情報を誤差情報609として表示する。ユーザーは、誤差情報609から学習部103の学習結果と正解データとの誤差を認識することができる。誤差情報609に示される誤差が大きければ、不正解となった医用画像606を確認して、誤差状態を認識することができる。
さらに、医用画像606において、正解照射野の境界607、学習後の機能を用いた処理結果である照射野の境界608を示している。医用画像606に表示されている正解照射野の境界607と処理結果による照射野の境界608から、ユーザーは評価用データの正解データと学習後の機能を用いた処理結果との誤差の状態を認識することができる。つまり、ユーザーは、医用画像606における正解照射野の境界607と学習後の機能を用いた処理結果による照射野の境界608とから、どの境界がどのくらいずれているのかを医用画像606から認識することができる。
なお、ユーザーによる誤差の範囲の設定を受け付ける設定部(不図示)を設けてもよい。設定された誤差は、表示部106に表示される医用画像の表示対象を絞り込むために用いられる。すなわち、表示部106は、評価部104により取得された誤差が、ユーザーにより設定された範囲となる処理結果を表示の対象とする。例えば、医用画像の表示対象を絞り込むための誤差を所定の範囲(例えば、30%〜10%以上)で設定することができる。医用画像の表示対象を絞り込むための誤差の範囲を20%に設定すると、処理結果について算出された誤差が20%以上の医用画像が表示部106に表示される。同様に、医用画像の表示対象を絞り込むための誤差が30%に設定されると、誤差が30%以上の医用画像が表示部106に表示される。図6(b)に示す例では、医用画像の表示対象を絞り込むための誤差を20%以上としており、誤差が20%の医用画像606と誤差が30%の医用画像605が表示部106に表示されている。
また、表示部106は、不正解となった複数の医用画像に対して誤差が大きい順に処理結果を表示するようにしてもよい。図6(b)に示すように、誤差が30%の処理結果(医用画像606)と誤差が20%の処理結果(医用画像605)が左上から順に表示されることになる。このような表示形態によれば、ユーザーは、誤差が大きい医用画像とその原因を早急に認識することができる。また、表示部106は、評価部104により不正解と判定された処理結果の数(不正解数)を表示するようにしてもよい。このような表示形態によれば、不正解となった医用画像の数が多い場合に、ユーザーは表示部106に表示されていない不正解となった医用画像の数を認識することもできる。
また、上述のように、表示部106は、機械学習前の評価結果601、機械学習後の評価結果602とともに、誤差情報609を表示する。よって、誤差情報609に示される誤差がわずかであれば、機械学習後の評価結果602(正解率)が低くても、ユーザーは、学習部103における機械学習による学習結果を承認し、医用情報処理装置内の機能におけるパラメータを更新することができる。
このように、失敗例を表示することにより、ユーザーはどのようなケースで失敗が起きたのかを確認することができ、妥当性検証のための判断材料となる。例えば、学習後の評価結果は基準を超えているが、臨床上許容できない失敗例が存在していた場合に、ユーザーは妥当性がないとして否認することが可能である。一方、学習後の評価結果は基準を超えていないが、臨床上許容できない失敗例は存在していなかった場合は、ユーザーは妥当性があるとして承認することが可能である。このように、臨床上必要な性能のあるなしを評価値のみでは判断できないケースに対しても、失敗例を表示することによってユーザーは妥当性検証が可能となる。
また、本実施形態では失敗例のみを表示することによって、全例を確認しなくても妥当性を確認可能な例を示したが、本発明は失敗例のみではなく、正解例も表示することが可能なシステムにも適用可能である。このように正解例を表示することにより、評価値上正解と判断されたが、臨床上は失敗と判断しなくてはならないケースが存在した場合、ユーザーは妥当性がないとして否認することが可能である。また、評価データが非常に多く、失敗例を全て表示することが困難な場合、表示部106がそれら失敗例のうちの代表例をピックアップして表示するようにしてもよい。代表例のピックアップの方法としては、例えば、誤差の大きい順に所定数の失敗例をピックアップすることがあげられる。
なお、第2実施形態では、評価データの医用画像に、正解データと処理結果を重畳したが、失敗例の表示形態はこれに限られるものではない。例えば、変形例1−1で説明したような画質の嗜好に関する機能について学習を行った場合、正解データは画像処理条件となる。この場合は、学習された画像処理条件により医用画像を処理してえられた画像を処理結果とし、正解データの画像処理条件により医用画像を処理して得られた結果を正解データの画像として表示すればよい。このことは、以下の変形例においても適用される。
[変形例2−1]
第2実施形態では失敗例を表示する例を示したが、変形例2−1では部位毎に失敗例を表示する表示例を示す。すなわち、変形例2−1において、表示部106は、評価部104により不正解と判定された処理結果を部位ごとに表示する。以下、詳細に説明する。変形例1における表示部106の表示例を図7(a)に示す。表示部106は、評価部104における学習結果の評価において不正解となった対象の医用画像とその原因を部位毎に表示する。具体的には、表示部106は、不正解となった医用画像と、評価用データ保持部105に保持された評価用データの正解データと学習部103の学習結果との誤差を示す誤差情報を部位毎に表示する。
表示部106には、部位を選択する部位選択部(部位選択タグ)700が表示されている。本例では、部位選択部700によって、「四肢」、「胸部」、「腹部」、「全て」のいずれかを選択することができる。部位選択部700をユーザーが操作して、部位を指示することによって部位毎の失敗例が表示される。例えば、部位選択部700を用いて、ユーザーが「四肢」を選択した場合、学習結果の評価において不正解となった四肢の医用画像とその原因が表示される。部位選択部700を用いて、ユーザーが「胸部」を選択した場合は、学習結果の評価において不正解となった胸部の医用画像とその原因が表示される。
このように対象部位毎に失敗例を表示することによって、ユーザーが特に重要であると考える部位毎に確認が可能であるため、効率的に妥当性検証が可能である。例えば、撮影する部位が胸部のみであるような施設においては、変形例2−1を用いることにより胸部のみの結果を確認することが可能である。
尚、変形例2−1では、機械学習前の評価結果601、機械学習後の評価結果602、承認部603、否認部604は第2実施形態と同様の動作をするものとしているが、それぞれが部位選択部700と連動しても良い。例えば、部位選択部700を用いて胸部が選択された場合は、胸部の評価データを用いた評価結果が表示され、承認部603が選択された場合には、胸部撮影時における対象機能の学習結果が反映されるようにしても良い。このように連動することによって、例えば胸部撮影に対する性能は向上しユーザーは妥当性があると判断したが、その他の撮影に対しては妥当性が無いと判断した場合等に胸部のみに対して性能を向上させることが可能となる。また、第2実施形態で述べた失敗例のピックアップにおいても、部位毎に失敗例をピックアップすることで、ユーザーは、部位に偏りなく失敗例を確認することが可能となる。
[変形例2−2]
変形例2−2では、表示部106は、評価部104により不正解と判定された処理結果を、学習した機能の種類ごとに表示する。以下、詳細に説明する。
図7(b)に示すように、複数の学習機能に対する評価結果を表示するため、学習機能を選択する機能選択を設けることも可能である。この場合、表示部106は、評価部104における学習結果の評価において不正解となった対象の医用画像とその原因を学習機能毎に表示する。具体的には、表示部106は、不正解となった医用画像と、評価用データ保持部105に保持された評価用データの正解データと学習部103の学習結果との誤差を示す誤差情報と、を学習機能毎に表示する。
評価用データは、照射野認識、部位解析、腫瘤検出などの学習機能ごとに評価用データ保持部105に保持されている。評価部104は、学習部103で学習された学習結果と評価用データ保持部105に保持された評価用データの対応付けを行う。学習結果には、学習部103で学習された学習機能の情報が含まれる。例えば、照射野認識の学習結果の場合、評価用データ保持部105から照射野認識の評価用データが抽出され、照射野認識の学習結果に対応付けられる。部位解析の学習結果の場合、評価用データ保持部105から部位解析の評価用データが抽出され、部位解析の学習結果に対応付けられる。腫瘤抽出の学習結果の場合、評価用データ保持部105から腫瘤抽出の評価用データが抽出され、腫瘤抽出の学習結果に対応付けられる。
評価部104は、学習内容に応じて対応付けられた評価用データを用いて学習結果を評価して、不正解となった対象の医用画像とその原因を抽出する。表示部106は、評価部104における学習結果の評価において不正解となった対象の医用画像とその原因を、照射野認識、部位解析、腫瘤抽出毎に表示することができる。
表示部106には、機能を選択する機能選択部(機能選択タグ)701が表示されている。図示の例では、機能選択部701によって、「照射野認識」、「部位解析」、「腫瘤検出」、「全て」のいずれかを選択することができる。機能選択部701をユーザーが操作して、学習機能を指示することによって学習機能毎の失敗例が表示される。例えば、機能選択部701を用いて、ユーザーが照射野認識を選択した場合、学習結果の評価において不正解となった照射野認識の医用画像とその原因が表示される。このようにすることによって、複数の学習機能に対するそれぞれの評価結果をユーザーが効率よく確認し、妥当性検証を行うことが可能となる。
[変形例2−3]
変形例2−3において、表示部106は、評価部104により不正解と判定された処理結果を、撮影装置の種類(モダリティ)ごとに表示する。
図8(a)は、複数の撮影装置の種類毎(モダリティ毎)に評価結果を表示することが可能な、表示部106の表示例を示す。表示部106は、評価部104における学習結果の評価において不正解となった対象の医用画像とその原因を撮影装置の種類毎に表示する。具体的には、表示部106は、不正解となった医用画像と、評価用データ保持部105に保持された評価用データの正解データと学習部103の学習結果との誤差を示す誤差情報を撮影装置の種類毎に表示する。
表示部106には、撮影装置の種類を選択する撮影装置選択部(撮影装置選択タグ)802が表示されている。ここでは、撮影装置選択部802によって、「DR(X線デジタル撮影)」、「CR(コンピュータX線撮影)」、「CT(コンピュータ断層撮影)」、「MRI(磁気共鳴コンピュータ断層撮影)」を選択することができる。撮影装置選択部802をユーザーが操作して、撮影装置を指示することによって撮影装置毎の失敗例が表示される。例えば、撮影装置選択部802を用いて、ユーザーがDRを選択した場合、学習結果の評価において不正解となったDRの医用画像とその原因が表示される。ここでは、表示部には、放射線画像803、806が表示される。例えば、放射線画像803には、画像認識における誤検知(正常部位を異常と判定したもの)による誤差を示す情報804が表示されている。一方、放射線画像806においては、画像認識における見落とし部分(異常として検知されるべき部位(正解))を示す情報805を表示している。
このように複数の撮影装置の種類に対するそれぞれの評価結果をユーザーが効率よく確認し、妥当性検証を行うことが可能となる。
[変形例2−4]
変形例2−4の表示部106は、評価部104により不正解と判定された処理結果を不正解のカテゴリーごとに表示する。図8(b)は、変形例2−4による表示部106による表示の一例を示す図であり、不正解のカテゴリーごとの照射野解析の評価結果の表示例を示す。
表示部106は、評価部104における学習結果の評価において不正解となった対象の医用画像とその原因をカテゴリー毎に表示する。具体的には、表示部106は、不正解となった医用画像と、評価用データ保持部105に保持された評価用データの正解データと学習部103の学習結果との誤差を示す誤差情報を、失敗のカテゴリー毎に表示する。表示部106には、失敗のカテゴリーを選択するカテゴリー選択部(カテゴリー選択タグ)811が表示されている。
本例では、ユーザーは、照射野領域の検出機能の学習結果について、「内側失敗」、「外側失敗」、「両方失敗」、「全て」のうちのいずれかをカテゴリー選択部811によって選択することができる。カテゴリー選択部811をユーザーが操作して、カテゴリーを指示することによってカテゴリー毎の失敗例が表示される。「内側失敗」とは、正解の照射野領域よりも内側に照射野領域の境界を検出してしまった場合である。「外側領域」とは、正解の照射野領域よりも外側に照射野領域の境界を検出してしまった場合である。「両方失敗」とは、正解の照射領域よりも外側に境界を検出した部分と、内側に検出した部分が存在する場合である。「全て」は、内側失敗、外側失敗、両方失敗の全てのケースである。
図8(b)では、ユーザーが、カテゴリー選択部811から「内側失敗」を選択した場合の表示例が示されている。照射野領域の検出に関して、外側に失敗することよりも内側に失敗することの方がより臨床的性能に関わる影響度が高いとユーザーが考えている場合に、内側のみの失敗例を先に確認する等を行って妥当性検証を行うことが可能となる。
また、変形例2−4の表示部106は、評価部104により不正解と判定された処理結果のうち、選択された処理結果の判定を正解に変更する変更部(不図示)を有する。図8(b)では、変更部の例として、失敗画像の下の欄に評価変更設定部812が設けられている。評価変更設定部812は評価結果をユーザーが変更することが可能である。例えば数値上は失敗とみなされたケースにおいても、臨床的な性能には影響がない場合に、ユーザーはその評価を変更することが可能となる。
以上のように、失敗カテゴリー毎に失敗例を表示することによって、効率的に妥当性検証を行うことが可能となる。また、第2実施形態で述べた失敗例のピックアップにおいても、本失敗カテゴリー毎にピックアップすることで失敗カテゴリーに偏りなく確認することが可能となる。
なお、変形例2−4では照射野認識についての評価結果表示例について述べたが、他の機能の評価結果表示にも適用可能であることは言うまでもない。例えば、腫瘤の検出においては偽陽性であるのか、偽陰性であるのか等のカテゴリー分類が考えられる。また、画質嗜好に対する機能であれば、コントラストの差が大きいのか、ノイズの差が大きいのか等のカテゴリー分類が考えられる。
[変形例2−5]
変形例2−5において、評価部104は、評価用データに含まれる対象データを学習後の機能により処理して得られた処理結果と、評価用データに含まれる正解データとの誤差を取得し、該誤差に基づいて処理結果が正解か不正解かを判定する。表示部106は、評価部104による、学習前後における評価(判定)の変化の態様ごとに処理結果を対応する評価用データの正解データとともに表示器に表示する。
図9(a)に示すように、学習前と学習後で変化のあったケースを表示することが可能である。表示部106は、学習前と学習後で変化があったケースを医用画像とともに表示する。具体的には、表示部106は、学習後が悪化したケース、学習後が良化したケース、学習前と学習後が両方失敗したケース、他の変化例を医用画像とともに表示する。表示部106には、学習前と学習後で変化があったケースを選択する変化形態選択部(変化形態選択タグ)900が表示されている。変化形態選択部900により、「悪化例」、「良化例」、「両方失敗例」、「変化例」のいずれかをユーザーは選択することができる。「悪化例」は、学習前では正解となっていたものが学習後に不正解になったケースである。「良化例」は、学習前では不正解となっていたものが学習後に正解になったケースである。「両方失敗例」は、学習前で不正解となっていたものが学習後も不正解になったケースである。「悪化/良化例」は、悪化例と良化例を合わせたもの(学習により正解から不正解に変化したものと不正解から正解に変化したもの)である。
図9(a)では、悪化例が選択されている様子を示している。表示部106は、学習前の医用画像901と誤差情報902を表示する。誤差情報902は、評価用データ保持部105に保持された評価用データの正解データと学習部103で学習する前の学習結果との誤差である。また、表示部106は、学習後の医用画像905と誤差情報906を表示する。誤差情報906は、評価用データ保持部105に保持された評価用データの正解データと学習部103で学習した後の学習結果との誤差である。このように、ユーザーは、表示部106に表示されている誤差の変化から、学習前の誤差情報902よりも学習後の誤差情報906の方が悪くなっていることを認識することができる。
このように、変形例2−5によれば、学習による性能の変化が数値だけでなく個別のケースごとに確認可能であるため、ユーザーが容易に妥当性検証を行うことが可能となる。
[変形例2−6]
変形例2−6では、評価部104により不正解と判定された処理結果を学習データが異なる学習の種類ごとに表示する表示部106について説明する。
図9(b)に示すように、表示部106は、同一機能に対して異なる学習データを用いて複数の学習結果を表示することが可能である。図9(b)の例では、学習結果選択部921により、ユーザーは、「学習結果A」、「学習結果B」、「両方失敗例」、「変化例」のいずれかを選択することが可能である。「学習結果A」、「学習結果B」のいずれかの選択に応じて、2つの学習結果A、学習結果Bのそれぞれの失敗例が表示される。「両方失敗」の選択に応じて、学習結果A,Bの両方とも失敗した例が示される。また、「変化例」の選択に応じて、学習結果Aと学習結果Bがそれぞれ異なる結果を示した例(一方の学習で処理結果が正解になり、他方の学習で処理結果が不正解となったデータ)が表示される。
以上のように、変形例2−6では、2つの学習結果があった場合に、ユーザーはそれぞれの評価結果と失敗画像例を確認して、妥当性検証を行いどちらの学習結果を承認するかを選択することが可能である。本変形例を用いることによって、ユーザーは臨床で求められる性能がより高い方を効率的に選択することが可能となる。
[変形例2−7]
第2実施形態および上記変形例では学習前と学習後の結果を表示するのに対し、変形例2−7の表示部106は、図10に示すように評価結果(正解率)の時間的な推移を表示する。このように、変形例2−7の表示部106は、評価部104で評価された機械学習の評価結果の推移を時間情報とともに表示す。例えば、表示部106は、評価結果の推移を、評価結果の値を第1の軸とし、時間を第2の軸とするグラフにより表示する。
図10の表示例では、表示部106は、評価部104で評価された機械学習の評価結果の推移1002を時間情報(日時)とともに表示する。図10に示す例では、ユーザーは、機械学習の評価結果の推移1002を参照すると、過去に比べて機械学習の評価が高くなっていることを認識することができる。ユーザーは、機械学習の評価結果を確認し、承認部603もしくは否認部604を押下して、承認もしくは否認を選択する。
最新の学習結果が最も評価が良いとは限らない。そのため、ユーザーは、所望の時間(日時)に対応する機械学習の評価結果を確認して、学習結果を承認する。具体的には、ユーザーは、機械学習の評価結果の推移1002に時間指定カーソル1001を設定することができる。表示部106は、時間指定カーソル1001において指定された時間(日時)に対応する機械学習の評価結果1000を表示することができる。ユーザーは、時間指定カーソル1001において指定された時間(日時)に対応する機械学習の評価結果1000を確認し、承認部603もしくは否認部604を押下して、承認もしくは否認を選択することができる。ユーザーは、機械学習の評価結果の推移1002を参照して、評価が最も高い時間(日時)に時間指定カーソル1001を指定することにより、最も高い評価結果の機械学習の学習状態にすることができる。
また、解析部(図示しない。)は、機械学習の評価結果の推移1002を解析し、評価が最も高い時間(日時)を検出し、その時間(日時)を指定することにより、最も高い評価結果の機械学習の学習状態にすることもできる。
表示部106は、学習結果を承認する際の目安となる評価指標値(評価閾値)1003を表示することもできる。時間指定カーソル1001において指定された時間(日時)に対応する機械学習の評価結果1000が評価指標値(評価閾値)1003を超えている場合、ユーザーは、承認部603で学習結果を承認することができる。時間指定カーソル1001において指定された時間(日時)に対応する機械学習の評価結果1000が評価指標値(評価閾値)1003を超えていない場合、否認部604しか押下できないようになっていてもよい。この場合、承認部603で学習結果を承認することができないように制限をかけることができる。
以上のように、評価結果の推移を表示することによって、ユーザーは学習によって得られた性能向上の速度や性能向上の限界を確認することができるため、妥当性検証を行うための指標となる。
<第3実施形態>
第3実施形態では、評価部104による評価の開始タイミングを指示する指示部を備える医用情報処理装置について説明する。図11は、第3実施形態による医用情報処理装置の機能構成例を示すブロック図である。第1実施形態(図1)と同様の機能部には同一の参照符号を付してある。第3実施形態では、評価タイミング指示部120が設けられている。評価タイミング指示部120は、性能評価(図2のS204)の実行タイミングを指示する。
次に評価タイミング指示部120による指示方法について説明する。第3実施形態では、評価タイミング指示部120は複数の異なる評価タイミングを指示することが可能である。図12に評価タイミング指示部120の例を示す。図12の例ではユーザーが評価タイミング指示部120を操作して評価タイミングを指示することが可能である。図12の曜日選択ボタン1201のいずれかをユーザーが選択した場合、選択した曜日に評価を実施することが指示される。曜日選択を行うことで、例えば診療が無く、撮影システムを使用しないタイミングで評価を実施することが可能となる。また、日時指定ボタン1202をユーザーが選択した場合、任意の評価タイミングを指示することが可能である。日時指定を行うことで、ユーザーは状況に合わせて評価を実施することが可能となる。
また、シャットダウン時選択ボタン1203をユーザーが選択した場合、撮影システムのシャットダウン時に評価を行うことが可能となる。シャットダウン後にしばらくの間撮影システムを使わないことが分かっている場合等に評価を実施することが可能となる。また、現在選択ボタン1204をユーザーが選択した場合、即時に評価が実施される。妥当性評価を今すぐに行いたい場合に、評価をすぐに実施することが可能となる。また、1時間後選択ボタン1205をユーザーが選択した場合、選択後1時間後に評価が実施される。撮影システムによる撮影が1時間後に終了することがあらかじめ分かっている場合等に評価をそのタイミングで行うことが可能となる。
また、評価用データ更新時選択ボタン1206をユーザーが選択した場合、評価用データが更新されたタイミングで評価が実施される。例えば、評価用データを本医療情報システム内の撮影システムで取得したデータに更新する場合や、評価用データを新しいものに更新した場合等に新しいデータにて迅速に評価を行うことが可能である。また、学習後選択ボタン1207をユーザーが選択した場合、機械学習後のタイミングで評価が実施される。このようにすることで、ユーザーは機械学習後速やかに妥当性検証を行うことが可能となる。
尚、第3実施形態では各種選択を単一で使用する場合を説明したが、各タイミングを君併せて用いることも可能である。例えば、曜日選択ボタン1201と学習後選択ボタン1207を組み合わせることによって、学習後の最初の選択された曜日に評価が実施されるようにすることが可能である。これは、評価の開始条件のANDである。また、本組み合わせとして、学習後迅速に行うことと毎週指定曜日に行うことの両方が有効になっている場合にも用いられる。これは、評価の開始条件のORである。このように各タイミングを組み合わせることによって、より適切に医用情報システムの運用に合わせた妥当性検証のスケジューリングが可能となる。
また、図12の中止ボタン1208をユーザーが選択した場合、現在行われている評価を中止することが可能となる。評価を行っている最中に医用情報システムを使用したい場合等に中止をすることによって、医用情報システムへの負荷を軽減することが可能となる。
以上のように、第3実施形態によれば、評価タイミング指示部120を設けた医療情報システムを用いることによって、評価のための負荷調整が行えると共に、妥当性検証を行うための適切なタイミングにて評価を行うことが可能となる。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
101:撮影部、102:データ保持部、103:学習部、104:評価部、105:評価用データ保持部、106:表示部、107:パラメータ更新部、108:判定部、110:データ取得部

Claims (25)

  1. 医用情報処理装置であって、
    医用情報を取得する取得手段と、
    前記医用情報を用いて医用情報処理装置内の機能に対し学習を行う学習手段と、
    前記学習手段による学習結果を評価するための、前記機能の実行による正解が既知の評価用データを保持する評価用データ保持手段と、
    前記評価用データに基づいて、学習により取得された学習結果を評価する評価手段と、
    前記学習手段の学習結果を前記機能に適用するための指示を受け付ける受け付け手段と、を備えることを特徴とする医用情報処理装置。
  2. 医用情報処理装置であって、
    医用情報を取得する取得手段と、
    前記医用情報を用いて医用情報処理装置内の機能に対し学習を行う学習手段と、
    前記学習手段による学習結果を評価するための、前記機能の実行による正解が既知の評価用データを保持する評価用データ保持手段と、
    前記評価用データに基づいて、学習により取得された学習結果を評価する評価手段と、
    前記評価手段による評価の結果を、前記学習手段の学習による前記機能の変化とともに表示器に表示させる表示制御手段と、を備えることを特徴とする医用情報処理装置。
  3. 前記学習手段の学習結果を前記機能に適用するためのユーザー指示を受け付ける受け付け手段をさらに備えることを特徴とする請求項2に記載の医用情報処理装置。
  4. 前記表示制御手段は、前記評価手段により得られた、前記学習手段による学習の前後の評価結果を表示することを特徴とする請求項2または3に記載の医用情報処理装置。
  5. 前記評価用データは、対象データと正解データとを含み、
    前記評価結果は、前記機能による前記対象データの処理結果と前記正解データとの比較により正解と判定された評価用データの割合、または不正解と判定された評価用データの割合であることを特徴とする請求項4に記載の医用情報処理装置。
  6. 前記評価手段は、前記評価用データに含まれる対象データを学習後の前記機能により処理して得られた処理結果と、前記評価用データに含まれる正解データとの誤差を取得し、該誤差に基づいて前記処理結果が不正解か否かを判定し、
    前記表示制御手段は、前記評価手段により不正解と判定された処理結果と、対応する評価用データの正解データとを前記表示器に表示することを特徴とする請求項2または3に記載の医用情報処理装置。
  7. 評価用データの対象データは医用画像であり、
    前記表示制御手段は、評価用データの正解データと処理結果とを、当該評価用データの対象データである医用画像に重畳して表示することを特徴とする請求項6に記載の医用情報処理装置。
  8. 前記表示制御手段は、不正解と判定された処理結果に関する前記誤差を示す誤差情報を表示することを特徴とする請求項6または7に記載の医用情報処理装置。
  9. 誤差の範囲を設定する設定手段をさらに備え、
    前記表示制御手段は、前記評価手段により取得された誤差が前記範囲となる処理結果を表示の対象とすることを特徴とする請求項6乃至8のいずれか1項に記載の医用情報処理装置。
  10. 前記表示制御手段は、誤差が大きい順に処理結果を表示することを特徴とする請求項6乃至9のいずれか1項に記載の医用情報処理装置。
  11. 前記表示制御手段は、前記評価手段により不正解と判定された処理結果の数を表示することを特徴とする請求項6乃至10のいずれか1項に記載の医用情報処理装置。
  12. 前記表示制御手段は、前記評価手段により不正解と判定された処理結果を、部位ごとに表示することを特徴とする請求項6乃至11のいずれか1項に記載の医用情報処理装置。
  13. 前記表示制御手段は、前記評価手段により不正解と判定された処理結果を、学習した機能の種類ごとに表示することを特徴とする請求項6乃至11のいずれか1項に記載の医用情報処理装置。
  14. 前記表示制御手段は、前記評価手段により不正解と判定された処理結果を、撮影装置の種類ごとに表示することを特徴とする請求項6乃至11のいずれか1項に記載の医用情報処理装置。
  15. 前記表示制御手段は、前記評価手段により不正解と判定された処理結果を、誤差の形態ごとに表示することを特徴とする請求項6乃至11のいずれか1項に記載の医用情報処理装置。
  16. 前記表示制御手段は、前記評価手段により不正解と判定された処理結果を、学習データが異なる学習の種類ごとに表示することを特徴とする請求項6乃至11のいずれか1項に記載の医用情報処理装置。
  17. 前記評価手段により不正解と判定された処理結果のうち、選択された処理結果の判定を正解に変更する変更手段をさらに備えることを特徴とする請求項1乃至16のいずれか1項に記載の医用情報処理装置。
  18. 前記評価手段は、前記評価用データに含まれる対象データを学習後の前記機能により処理して得られた処理結果と、前記評価用データに含まれる正解データとの誤差を取得し、該誤差に基づいて前記処理結果が正解か不正解かを判定し、
    前記表示制御手段は、前記評価手段による、学習前後における判定の変化の態様ごとに処理結果と対応する評価用データの正解データとを前記表示器に表示することを特徴とする請求項2乃至4のいずれか1項に記載の医用情報処理装置。
  19. 前記表示制御手段は、前記評価手段で評価された学習の評価結果の時間的な推移を表示することを特徴とする請求項2または3に記載の医用情報処理装置。
  20. 前記表示制御手段は、前記評価結果の推移を、評価結果の値を第1の軸とし、時間を第2の軸とするグラフにより表示することを特徴とする請求項19に記載の医用情報処理装置。
  21. 前記表示制御手段は、学習結果の承認の目安となる評価閾値を前記グラフにさらに表示することを特徴とする請求項20に記載の医用情報処理装置。
  22. 前記評価手段による評価の開始タイミングを指示する指示手段をさらに備えることを特徴とする請求項1乃至21のいずれか1項に記載の医用情報処理装置。
  23. 医用情報を取得する取得工程と、
    前記医用情報を用いて医用情報処理装置内の機能に対し学習を行う学習工程と、
    前記学習工程による学習結果を評価するための、前記機能の実行による正解が既知の評価用データを記憶手段に保持する評価用データ保持工程と、
    前記評価用データに基づいて、学習により取得された学習結果を評価する評価工程と、
    前記学習工程の学習結果を前記機能に適用するための指示を受け付ける受け付け工程と、を備えることを特徴とする医用情報処理方法。
  24. 医用情報を取得する取得工程と、
    前記医用情報を用いて医用情報処理装置内の機能に対し学習を行う学習工程と、
    前記学習工程による学習結果を評価するための、前記機能の実行による正解が既知の評価用データを記憶手段に保持する評価用データ保持工程と、
    前記評価用データに基づいて、学習により取得された学習結果を評価する評価工程と、
    前記評価工程による評価の結果を、前記学習工程の学習によって生じた変化をユーザーが把握できるように、表示器に表示させる表示制御工程と、を備えることを特徴とする医用情報処理方法。
  25. コンピュータを、請求項1乃至22のいずれか1項に記載された医用情報処理装置の各手段として機能させるためのプログラム。
JP2018152720A 2018-08-14 2018-08-14 医用情報処理装置及び医用情報処理方法、プログラム Active JP7273470B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018152720A JP7273470B2 (ja) 2018-08-14 2018-08-14 医用情報処理装置及び医用情報処理方法、プログラム
PCT/JP2019/026009 WO2020036007A1 (ja) 2018-08-14 2019-07-01 医用情報処理装置及び医用情報処理方法、プログラム
US17/163,888 US11914918B2 (en) 2018-08-14 2021-02-01 Medical information processing apparatus, medical information processing method, and non-transitory computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018152720A JP7273470B2 (ja) 2018-08-14 2018-08-14 医用情報処理装置及び医用情報処理方法、プログラム

Publications (2)

Publication Number Publication Date
JP2020027507A true JP2020027507A (ja) 2020-02-20
JP7273470B2 JP7273470B2 (ja) 2023-05-15

Family

ID=69525437

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018152720A Active JP7273470B2 (ja) 2018-08-14 2018-08-14 医用情報処理装置及び医用情報処理方法、プログラム

Country Status (3)

Country Link
US (1) US11914918B2 (ja)
JP (1) JP7273470B2 (ja)
WO (1) WO2020036007A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022024559A1 (ja) 2020-07-31 2022-02-03 ソニーグループ株式会社 医療支援システム及び医療支援方法、並びにコンピュータプログラム
KR102506015B1 (ko) * 2021-11-26 2023-03-06 김성일 인터페이스를 이용한 병원 내 검사 데이터의 자동화된 정도관리 방법

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7370694B2 (ja) * 2018-08-14 2023-10-30 キヤノン株式会社 医用情報処理装置及び医用情報処理方法、プログラム
WO2022073244A1 (en) * 2020-10-10 2022-04-14 Roche Diagnostics Gmbh Method and system for diagnostic analyzing

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007125370A (ja) * 2005-09-29 2007-05-24 General Electric Co <Ge> カテゴリー型インデクスからの画像のデータベースの作成のためのシステム、方法及び装置
WO2014155690A1 (ja) * 2013-03-29 2014-10-02 富士通株式会社 モデル更新方法、装置、およびプログラム
WO2017017722A1 (ja) * 2015-07-24 2017-02-02 オリンパス株式会社 処理装置、処理方法及びプログラム
JP2017215828A (ja) * 2016-06-01 2017-12-07 富士通株式会社 学習モデル差分提供プログラム、学習モデル差分提供方法、および学習モデル差分提供システム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04261649A (ja) 1990-08-20 1992-09-17 Fuji Photo Film Co Ltd 放射線画像解析方法および装置
JP5333080B2 (ja) 2009-09-07 2013-11-06 株式会社日本自動車部品総合研究所 画像認識システム
JP5320335B2 (ja) 2010-03-31 2013-10-23 富士フイルム株式会社 診断支援システム、診断支援装置、診断支援方法および診断支援プログラム
JP5640774B2 (ja) 2011-01-28 2014-12-17 富士通株式会社 情報照合装置、情報照合方法および情報照合プログラム
JP6383321B2 (ja) * 2015-04-08 2018-08-29 株式会社エクスメディオ 診断支援システム
JP2017185007A (ja) 2016-04-05 2017-10-12 株式会社島津製作所 放射線撮影装置、放射線画像の対象物検出プログラムおよび放射線画像における対象物検出方法
JP2018061771A (ja) 2016-10-14 2018-04-19 株式会社日立製作所 画像処理装置、及び画像処理方法
CN106682427A (zh) * 2016-12-29 2017-05-17 平安科技(深圳)有限公司 基于位置服务的个人健康状态评估方法及装置
JP7022543B2 (ja) 2017-09-11 2022-02-18 キヤノン株式会社 乳房撮影装置、乳房撮影装置の制御方法及びプログラム
JP2019084158A (ja) 2017-11-08 2019-06-06 キヤノン株式会社 画像処理装置、画像処理方法、放射線撮影装置、放射線撮影装置の制御方法、およびプログラム
JP6976360B2 (ja) * 2018-01-30 2021-12-08 富士フイルム株式会社 データ処理装置及び方法、認識装置、学習データ保存装置、機械学習装置並びにプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007125370A (ja) * 2005-09-29 2007-05-24 General Electric Co <Ge> カテゴリー型インデクスからの画像のデータベースの作成のためのシステム、方法及び装置
WO2014155690A1 (ja) * 2013-03-29 2014-10-02 富士通株式会社 モデル更新方法、装置、およびプログラム
WO2017017722A1 (ja) * 2015-07-24 2017-02-02 オリンパス株式会社 処理装置、処理方法及びプログラム
JP2017215828A (ja) * 2016-06-01 2017-12-07 富士通株式会社 学習モデル差分提供プログラム、学習モデル差分提供方法、および学習モデル差分提供システム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022024559A1 (ja) 2020-07-31 2022-02-03 ソニーグループ株式会社 医療支援システム及び医療支援方法、並びにコンピュータプログラム
KR102506015B1 (ko) * 2021-11-26 2023-03-06 김성일 인터페이스를 이용한 병원 내 검사 데이터의 자동화된 정도관리 방법

Also Published As

Publication number Publication date
WO2020036007A1 (ja) 2020-02-20
US20210158105A1 (en) 2021-05-27
JP7273470B2 (ja) 2023-05-15
US11914918B2 (en) 2024-02-27

Similar Documents

Publication Publication Date Title
WO2020036007A1 (ja) 医用情報処理装置及び医用情報処理方法、プログラム
US10339655B2 (en) Automated image evaluation in x-ray imaging
KR101742531B1 (ko) 진단 지원 장치 및 그 제어 방법
US10692198B2 (en) Image processing apparatus, image processing method, image processing system, and non-transitory computer-readable storage medium for presenting three-dimensional images
US20170365047A1 (en) Artifact management in imaging
JP6930411B2 (ja) 情報処理装置及び情報処理方法
US10572994B2 (en) Radiation imaging apparatus, radiation imaging system, radiation imaging method, and computer-readable medium
JPWO2010050333A1 (ja) 情報処理装置
US11610329B2 (en) Visualization system for visualizing an alignment accuracy
US20210183055A1 (en) Methods and systems for analyzing diagnostic images
CN106333698A (zh) 运行用于检查对象的x射线系统
US10083503B2 (en) Image area specification device and method, and X-ray image processing device and method
US20240062367A1 (en) Detecting abnormalities in an x-ray image
KR20200139491A (ko) 의료영상 처리 방법
US20210158218A1 (en) Medical information processing apparatus, medical information processing method, and non-transitory computer-readable storage medium
US11803970B2 (en) Image judgment device, image judgment method, and storage medium
JP6326812B2 (ja) 画像処理装置及び照射野認識方法
JP4916519B2 (ja) 電子機器植え込み検出装置、及び、警告システム、及び、プログラム
CN111261303A (zh) 用于指导患者的方法和装置
US10475180B2 (en) Radiation-image processing device and method
US12001531B2 (en) Patient authentication system and patient authentication method
US20230107439A1 (en) Medical image processing apparatus, medical image processing method, and storage medium
CN116999080A (zh) 用于创建定量的正电子发射断层扫描图像的方法和系统
KR20220136225A (ko) 인공지능 모델의 결과에 대한 신뢰 정보 제공 방법 및 장치
JP6071226B2 (ja) 照射野認識装置、照射野認識方法、プログラムおよびコンピュータ読み取り可能な記憶媒体

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210726

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220930

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230331

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230428

R151 Written notification of patent or utility model registration

Ref document number: 7273470

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151