JP2021128648A - 情報処理装置、情報処理方法及びプログラム - Google Patents
情報処理装置、情報処理方法及びプログラム Download PDFInfo
- Publication number
- JP2021128648A JP2021128648A JP2020023909A JP2020023909A JP2021128648A JP 2021128648 A JP2021128648 A JP 2021128648A JP 2020023909 A JP2020023909 A JP 2020023909A JP 2020023909 A JP2020023909 A JP 2020023909A JP 2021128648 A JP2021128648 A JP 2021128648A
- Authority
- JP
- Japan
- Prior art keywords
- classifier
- data
- image
- evaluation
- facility
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 60
- 238000003672 processing method Methods 0.000 title claims abstract description 9
- 238000011156 evaluation Methods 0.000 claims abstract description 119
- 238000001514 detection method Methods 0.000 claims description 68
- 230000035945 sensitivity Effects 0.000 claims description 35
- 238000000034 method Methods 0.000 claims description 31
- 230000006870 function Effects 0.000 claims description 17
- 230000008569 process Effects 0.000 claims description 7
- 239000000284 extract Substances 0.000 claims description 4
- 238000012854 evaluation process Methods 0.000 claims description 3
- 238000011282 treatment Methods 0.000 abstract description 4
- 230000002159 abnormal effect Effects 0.000 description 126
- 230000005856 abnormality Effects 0.000 description 42
- 230000003902 lesion Effects 0.000 description 38
- 238000012545 processing Methods 0.000 description 16
- 238000013135 deep learning Methods 0.000 description 13
- 201000003144 pneumothorax Diseases 0.000 description 11
- 238000003745 diagnosis Methods 0.000 description 10
- 238000012360 testing method Methods 0.000 description 10
- 238000004364 calculation method Methods 0.000 description 9
- 238000010801 machine learning Methods 0.000 description 9
- 238000012549 training Methods 0.000 description 9
- 201000008827 tuberculosis Diseases 0.000 description 9
- 206010054107 Nodule Diseases 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 5
- 230000004913 activation Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 238000002591 computed tomography Methods 0.000 description 4
- 238000012935 Averaging Methods 0.000 description 3
- 238000002555 auscultation Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000002059 diagnostic imaging Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 206010028980 Neoplasm Diseases 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 230000002547 anomalous effect Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000036760 body temperature Effects 0.000 description 2
- 201000011510 cancer Diseases 0.000 description 2
- 238000002595 magnetic resonance imaging Methods 0.000 description 2
- 238000002601 radiography Methods 0.000 description 2
- 208000035211 Heart Murmurs Diseases 0.000 description 1
- 208000037656 Respiratory Sounds Diseases 0.000 description 1
- VYPSYNLAJGMNEJ-UHFFFAOYSA-N Silicium dioxide Chemical compound O=[Si]=O VYPSYNLAJGMNEJ-UHFFFAOYSA-N 0.000 description 1
- 230000003187 abdominal effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013398 bayesian method Methods 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 210000004072 lung Anatomy 0.000 description 1
- 238000009607 mammography Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 210000001835 viscera Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
- G16H40/60—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
- G16H40/67—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/254—Fusion techniques of classification results, e.g. of results related to same input data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/809—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H10/00—ICT specially adapted for the handling or processing of patient-related medical or healthcare data
- G16H10/60—ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/20—ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/70—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
- G06V2201/032—Recognition of patterns in medical or anatomical images of protuberances, polyps nodules, etc.
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Epidemiology (AREA)
- Primary Health Care (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- Databases & Information Systems (AREA)
- Multimedia (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Evolutionary Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Pathology (AREA)
- Business, Economics & Management (AREA)
- General Business, Economics & Management (AREA)
- Image Analysis (AREA)
- Medical Treatment And Welfare Office Work (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
Abstract
【解決手段】診療用のデータについて適用される識別器23と、識別器23の特性を設定する特性設定部11と、識別器23について評価データを用いて特性の充足度を評価する評価部13と、評価部13による評価結果を参照して一の識別器23を施設Hで使用する識別器23として選択・設定する識別器設定部14とを備える。
【選択図】図1
Description
例えば、診療データが医用画像である場合には、CR(Computed Radiography)装置、FPD(Flat Panel Detector)装置、CT(Computed Tomography)装置、MRI(Magnetic Resonance Imaging)装置等のモダリティーにおいて生成された医用画像を表示部(モニター)に表示させて、医師が病変部分の状態や経時変化等を観察する読影診断が行われる。
例えば、特許文献1には、医師の診断を支援する手法として、学習データを用いた学習により識別器を構成し、この識別器によって診療データを自動的にチェックする情報処理装置が提案されている。
そして特許文献1には、複数の識別器がある場合に、評価データを用いてそれぞれの判別精度を算出し、最も判別精度に優れた最適な識別器を適用することが開示されている。
このように、判別精度に優れた識別器を適用して医師の診断を支援するための情報処理装置を構成することにより、装置において自動的に行われる診療データのチェック結果を信頼性の高いものとすることが期待できる。
さらに、検出性能は、異常を含むデータを異常と識別する確率である感度と正常であるデータを正常であると識別する確率である特異度とを含むものであるところ、それぞれについてどの程度の精度を要求するかについても各医療機関によって異なる。
このため、どのような特性が要求されるのかを考慮せずに識別器が選択・設定されると、一般的には高い精度とされる識別器であっても、当該医療機関においては必ずしも適していない識別器が設定されてしまうおそれがある。
診療用のデータについて適用される識別器と、
前記識別器の特性を設定する特性設定手段と、
前記識別器について評価データを用いて前記特性の充足度を評価する評価手段と、
前記評価手段による評価結果を参照して一の識別器を施設で使用する識別器として選択・設定する識別器設定手段と、
を備えることを特徴とする。
診療用のデータについて適用される識別器の特性を設定する特性設定工程と、
複数の識別器について評価データを用いて前記特性の充足度をそれぞれ評価する評価工程と、
前記評価工程における評価結果を参照して前記複数の識別器の中から一の識別器を施設で使用する識別器として選択・設定する識別器設定工程と、
を含むことを特徴とする。
情報処理装置のコンピューターに、
診療用のデータについて適用される識別器の特性を設定する特性設定機能と、
前記識別器について評価データを用いて前記特性の充足度を評価する評価機能と、
前記評価機能による評価結果を参照して一の識別器を施設で使用する識別器として選択・設定する識別器設定機能と、
を実現させることを特徴とする。
ただし、以下に述べる実施形態には、本発明を実施するために技術的に好ましい種々の限定が付されているが、本発明の技術的範囲を以下の実施形態および図示例に限定するものではない。
図1は、本実施形態における情報処理装置を備える医用画像システムのシステム構成を示す要部構成図である。
図1に示すように、医用画像システム100は、医療機関である施設H(図1では「A施設」)内に設けられるものであり、患者の検査撮影を行って診療データとしての医用画像データ等を生成、管理する。
本実施形態では、医療機関である施設Hとして、総合病院や開業医が個人で開業している医院、クリニックのように比較的小規模の医療施設、診療所等を想定している。
なお、医療機関である施設Hは、医療用情報としての医用画像等を扱う施設であればよく、ここに例示したものに限定されない。
ネットワークNT1を介して接続され医用画像システム100を構成する各装置は、例えば一般に医療関連のデータを扱う通信規格であるDICOM(Digital Image and Communications in Medicine)規格に準じており、各装置間の通信は、DICOMに則って行われる。なお、各装置の台数は、特に限定されない。
また、医用画像システム100を構成する要素はここに例示したものに限られず、その他の記憶部やサーバー等が含まれていてもよい。
また、医用画像システム100が画像管理サーバー7、電子カルテ入力装置8を備えることは必須ではない。例えば画像管理サーバー7等は、医用画像システム100の外に設けられ、図示しない外部ネットワークを介してデータ送受信可能に構成されていてもよい。
モダリティー5としては、例えばCR(Computed Radiography、X線単純撮影)装置、FPD(Flat Panel Detector)装置、マンモグラフィ装置、CT(Computed Tomography;コンピューター断層撮影)装置、超音波診断装置、内視鏡装置等が想定されているが、これらに限定されない。
なお、図1ではモダリティー5及び撮影用コンソール6を1組だけ図示しているが、モダリティー5等は医用画像システム100内に複数設けられていてもよい。この場合、同じ種類のモダリティー5が複数設けられていてもよいし、異なる種類のモダリティー5が複数種類設けられていてもよい。
ここで、患者情報は、患者を識別するための患者識別情報(例えば、患者ID)、患者の名前、性別、生年月日等の医用画像の患者に関する各種情報が含まれる。
また、検査情報は、検査を識別するための検査識別情報(例えば、検査ID)、検査日付、モダリティーの種類、検査部位、担当医師等の検査に関する各種情報等が含まれる。
画像詳細情報は、画像ID、画像生成時刻、医用画像の格納場所を示すファイルパス名等の医用画像に関する各種情報が含まれる。
モダリティー5により取得された医用画像データは、撮影用コンソール6を介してネットワークNT1に接続されている画像管理サーバー7に送信され、その付帯情報とともに医用画像DB71等に格納される。
なお、医用画像がDICOMに準拠しない形式である場合には、その形式をDICOMに準拠する形式に変換したり、医用画像を個々に特定するためのUID(ユニークID)を医用画像に付加した上で、医用画像DB等に格納されることが好ましい。
具体的に、画像管理サーバー7は、ハードディスク等により構成される医用画像DB71を有している。
前記のように、医用画像DB71において記憶される医用画像データは、DICOM規格に則ったDICOMファイル形式で保存されている。
DICOMファイルは、画像部とヘッダ部とから構成されており、医用画像DB71は、医用画像の付帯情報を格納する医用画像管理テーブルを有し、医用画像を検索可能に格納している。
画像管理サーバー7は、モダリティー5から医用画像を受信すると、受信された医用画像を医用画像DB71に格納し、その付帯情報を医用画像管理テーブルに登録する。
画像管理サーバー7の電子カルテ情報DBには、患者ID、氏名、性別、年齢、体重、身長、体温、問診結果、記入日付等の各項目の患者情報が格納されている。
電子カルテ入力装置8から入力された情報(電子カルテ情報)も医用画像データと関連付けられて医用画像DB71等に記憶される。
なお、電子カルテ情報としては、例えば、患者ID、氏名、性別、年齢、体重、身長、体温、問診結果、記入日付等の各項目の患者情報が挙げられるが、これに限定されない。
情報処理装置3は、医療用情報である医用画像データを含む診療データについて異常データである異常陰影が含まれるか否か等を検出して医師等の診断を支援するものである。
本実施形態において、情報処理装置3は、制御装置30と、操作部33、表示部34、通信部35等を備えており、これら各部はバス36により接続されている。
また、表示部34には、タッチパネルが一体に構成されていてもよく、この場合には、タッチパネル上のタッチされた位置を示す信号が制御部31に送られ、タッチパネルが操作部33として機能する。
制御装置30は、制御部31が記憶部32のROMに記憶されている各種プログラムを読み出してRAMの作業領域に展開し、プログラムと協働して各種機能を実現するコンピューターである。
本実施形態において、制御部31を機能的にみた場合、特性設定部11、識別器生成部12、評価部13、識別器設定部14、画像判定部15、表示制御部16等を有している。
ここで「特性」とは、識別器23を適用することによって検出したい「検出対象」や当該検出対象についての「検出性能」である。「特性」は、これらのうちの少なくともいずれかを含んでいればよい。本実施形態では、「検出対象」と当該検出対象についての「検出性能」の両方を含む場合について説明する。
また、検出性能とは、異常を含むデータを異常と識別する確率である「感度」や正常であるデータを正常であると識別する確率である「特異度」である。「検出性能」は、これらのうちの少なくともいずれかを含んでいればよい。本実施形態では、「感度」と「特異度」の両方を含む場合について説明する。
なお、特性設定部11が識別器23の特性を設定手法の詳細については後述する。
識別器23は、医療用情報である診療データ(診療用のデータ)について適用されるものであり、本実施形態では画像診断等に用いられる医用画像のデータに識別器23に適用することで、当該データが病変箇所を示す異常陰影を含む「異常あり画像」であるか異常陰影を含まない「正常画像」であるかの判別結果が出力される。
本実施形態において識別器23は、このように医用画像のデータが異常陰影を含む「異常あり画像」であるか異常陰影を含まない「正常画像」であるかを自動的に判別することで、医師による診断を補助する。
なお、情報処理装置3の初期状態において、汎用の識別器23に代えて、既に別の施設H(例えば自施設であるA施設とは別のB施設)の情報処理装置3等において使用実績のある識別器23を搭載してもよい。この場合、情報処理装置3を新たに導入する施設H(例えばA施設)の性質と近い性質を有する施設H(例えばA施設Hの利用が予想される患者の年齢層に近い患者を多く診療している施設H等)で使用されてきた識別器23を導入することにより、初期段階からある程度当該施設Hの性質に合った判別精度を期待することができるため好ましい。
このような機械学習の手法としては、例えばCNN(Convolutional Neural Network、畳み込みニューラルネットワーク)等の深層学習(Deep Learning)を用いた領域認識手法が用いられる。
なお、学習手法は医療用情報である診療データについて適切に分類できるような識別器23を生成できるものであればよく、特に限定されない。すなわち、識別器23の学習(機械学習)の手法は深層学習に限定されず、例えばAdaBoost(又はその多値化であるAdaBoostMlt)、人工ニューラルネットワーク、サポートベクトルマシンの他、混合分布によるクラスタリングを利用した方法としてEM(Expectation-Maximization)アルゴリズム、ベイズ学習(例えば、変分ベイズ法)等でもよく、これらの手法と深層学習とを組み合わせたものであってもよい。
本実施形態では、識別器生成部12が学習条件設定部121を含んでいる。学習条件設定部121は、識別器23の学習条件を設定する学習条件設定手段である。
本実施形態において学習条件設定部121による学習条件の設定は、特性設定部11によって設定された識別器23の特性に基づいて行われる。
識別器23の学習に使用される学習データは、識別器23の特性に基づいて分別されており、学習条件設定部121は、特性設定部11によって設定された識別器23の特性に応じて学習データを抽出する。
なお、学習条件設定部121による学習条件の設定の詳細については、後述する。
学習データを用いた識別器23の学習や、評価データを用いた識別器23の判別精度の算出は、学習データや評価データに紐付けられているこの各種の異常の有無の情報に基づいて行われる。
すなわち、各データに紐付けられている異常の有無の情報は、各学習データや評価データが異常データを含むか否か、含んでいる場合にはどのような異常データを含んでいるのかの正解情報であり、識別器23の学習や、識別器23の判別精度の算出の際には、識別器23がこうした情報を正しく判別することができたか否かが評価される。
なお、異常陰影等の有無等に関する情報は、例えば医師による画像読影の結果や、他の検査等によって確定診断が得られた際に当該確定診断の結果に基づいて対応する学習データや評価データに紐付けられる。
本実施形態では、評価部13は、各識別器23について、評価データを用いて、異常陰影を判別することができる割合と、正常画像を異常陰影を含むものと誤認識する割合という2つの視点で評価を行い、それぞれの判別精度を算出する。
具体的には、例えば評価部13による算出結果を踏まえて、ユーザーが操作部33等を操作することで施設Hにおいて使用したい識別器23を選択・入力し、この選択・入力結果が制御装置30に出力されると、識別器設定部14は当該選択結果を受けてユーザーの選択した識別器23を当該施設Hにおける異常データ(異常陰影)の有無等の判別に使用するものとして設定する。すなわち、現在施設Hで使用されている識別器23(例えば識別器A)以外のもの(例えば識別器B,C,Dのいずれか)が選択された場合には、識別器23を選択されたものに切り替える。
すなわち、モダリティー5により取得され画像管理サーバー7に格納された医用画像データ等を識別器23(学習済みの識別器23)に入力して、当該データについての判定結果を出力する。
本実施形態では特に、表示制御部16は、評価部13により識別器23に対して算出された判別精度の情報を表示部34に表示させる。
具体的には、表示部34には識別器23の特性と各識別器23についての評価部13による評価結果とが表示されるようになっている。
表示制御部16は、評価結果が特性設定部11により設定された識別器23の特性を満たす場合と満たさない場合とで表示手法を異にするように表示部34の表示を制御することが好ましい。
具体的な表示例(図8参照)については後述する。
なお、記憶部32には図1に例示した以外の記憶領域が設けられていてもよいし、図1に例示した記憶領域の全部又は一部が記憶部32の外に設けられていてもよい。
なお、情報処理装置3が各種処理を行うために必要なデータやプログラム、識別器23等を記憶する記憶部は図1に示すような情報処理装置3内に設けられているものに限定されない。例えば「クラウドコンピューティングサービス」をユーザーに提供するクラウドサーバー等、外部のサーバー装置を記憶部として用いてもよい。
識別器記憶領域22は、情報処理装置3の初期状態において設定されている汎用の識別器23や、その後の学習(機械学習)によって新たに生成された識別器23等、複数の識別器23を格納している。
また、評価結果記憶領域24は、評価部13による各識別器23の判別精度の評価結果を記憶する領域である。評価結果は各識別器23と対応付け(紐付け)られた状態で記憶されている。
次に、図2等を参照しつつ、本実施形態における情報処理装置3によって実行される処理を説明する。
識別器23の特性としては前述のように「検出対象」と「検出性能」とがあり、「検出性能」にはさらに異常を含むデータを異常と識別する確率である「感度」と正常であるデータを正常であると識別する確率である「特異度」とがある。
特性の設定の仕方は特に限定されないが、例えば、初期状態では識別器23に求められる特性についてデフォルト値として平均的な値が設定されており、ユーザーが特に精度良く検出できることを望む項目を指定すると、指定にしたがった特性が特性設定部11により設定されるようにする。
具体的には、例えば表示部34に図示しない設定画面等を表示させ、ユーザーが画面をタッチするタッチ操作を行ったり、操作部33から入力操作を行うことで、ユーザーが特に高い精度での判別を希望する「検出対象」を指定すると指示信号が制御部31に出力され、指示信号にしたがった設定が行われるようにする。
また、「検出性能」として「感度」や「特異度」をどの程度求めるかについても、同様に表示部34に構成されたタッチパネルや操作部33等によってユーザーが指定できるようにし、ユーザーの操作に応じた指示信号が制御部31に出力されると、当該指示信号にしたがった設定が行われるようにする。
これにより、例えば、検出対象がノジュールである場合の感度90%以上、気胸である場合の感度60%以上、結核である場合の感度80%以上、特異度は70%以上といった項目をユーザーが入力するだけで、特性設定部11により識別器23の特性(検出対象及び検出性能)がユーザーの要望に沿った値に設定される。
なお、特にユーザーによる指示がない項目については、デフォルト値のまま、または現状のままと設定される。なお、ユーザーによって特に指定されなかった項目については、予め設定された値や現状の値を最低値とし、これを下回らないように識別器23の特性が設定されることが好ましい。これにより、異常陰影を識別する感度や正常画像を正常と識別する特異度のそれぞれについて、ユーザーが個別に設定する手間を減らすことができ、ユーザーの負担を軽減しつつユーザーの要望に沿った特性を設定することができる。
処理速度は、例えば、1画像当たりの処理速度が0.5秒未満等のように設定される。これにより、ユーザーが望む処理速度の識別器23を得ることができる。また、処理速度の最低値(許容できる最も遅い値)を設定することにより、極端に処理速度が遅い識別器23が設定されないようにしてもよい。
なお、処理速度は、検出対象ごとに設定できてもよい。検出対象によっては異常を発見次第すぐに医師による診断や各種の処置を行う等の対応をすべき急を要する病変も存在する。このため、そのような急を要する検出対象(病変(異常陰影))については、処理速度を特に速く設定する等、個別の設定を可能とすることで、よりユーザーの要望に沿った特性の識別器23とすることができる。
例えば、ユーザーが特に入力を行わなくても、自施設(例えばA施設)でこれまで取り扱った事案を分析し、取り扱い実績が上位の検出対象については自動的に検出性能(感度や特異度)の値を高く設定するようにしてもよい。
また、検出対象はノジュール、気胸、結核等のような個別の病変に限定されず、例えば肺に関する病変、内臓に関する病変、循環器系に関する病変等、ある程度グループ分けされた項目として選択・設定できるようにしてもよい。これにより特性設定の際のユーザーの負担をより軽減することができる。
さらに、ユーザーによる検出性能(感度や特異度)の値の指定は、何%という入力の仕方に限定されない。例えば、高・中・低といった大まかな指定を可能としてもよい。この場合、特性設定部11では、例えば「高」であれば90%以上、「中」であれば80%以上、「低」であれば80%未満というようにユーザーによる入力と具体的な数値とを対応付けて認識し、具体的な特性の数値を設定する。
また、例えば検出性能(特異度)について、1画像あたりの誤検出の個数(FPPI)の平均が0.1以下等の設定をすることができてもよい。この場合、正常であるデータ(「正常画像」)を誤って異常を含むデータ(「異常あり画像」)と検出してしまう頻度をユーザーが望む値に設定することができる。
また、複数選択された検出対象(病変(異常陰影))のうち、感度が最も低いものでもその最低値が所定値(例えば80%)以上であること等を設定できてもよい。この場合、複数の検出対象(病変(異常陰影))の検出性能(感度)をすべてユーザーが入力しなかった場合でも、識別器23の特性をユーザーが望む値に設定することができる。
具体的には、識別器23が設定された特性を備えるものとなるように、識別器生成部12において識別器23の学習を行い、学習済みの識別器23を生成する。生成された識別器23は記憶部32の識別器記憶領域22等に記憶される。
図3は、ネットワーク構成の一例を示すものである。
図3では、複数の畳み込み層を備え、入力画像が入力(input)されると、畳み込み層においてカーネル(フィルター)を掛けて畳み込み操作を行うことで画像から特徴量を抽出し、各ピクセルが異常陰影に該当する確信度を表す確信度画像が出力画像として出力される、画像の領域認識に特化したネットワークの構成例を示している。本実施形態に示す例では、出力される確信度画像(出力画像)の最大値が閾値を超えた場合に入力画像が異常陰影を含む「異常あり画像」であると判定する。
「DenseBlock(Densenet)」は、複数の処理ブロックからなり、これより前の「Encoder」の出力すべてを連結した特徴マップをこれより後のレイヤへの入力とする全結合層として機能する。
「DenseBlock」から「Decoder」に入力された値は、活性化関数を経由することで異常陰影に該当するか否かの確信度を示す出力値が決定される。なお、図3では活性化関数として「sig(シグモイド関数)」を例示しているが、活性化関数はこれに限定されない。
さらに、本実施形態では図3に示すように、活性化関数を経由することで決定された出力値に、平均化フィルター(AVE層、図3において「AVE」とする。)を適用する。本実施形態のネットワークでは、前述のように各ピクセルについて異常陰影に該当する確信度(確信度画像)を出力するが、異常陰影(病変箇所)の検出において細かい解像度は不要であるため平均化しても問題がない。さらに、確信度画像(出力画像)に平均化フィルターを適用したのちに確信度画像の最大値で異常陰影(病変箇所)を含む「異常あり画像」か否かの判定を行うことで正常な領域(正常画像)について誤って異常陰影に該当する確信度が高くなる誤検出を減らすことができる効果がある。このため本実施形態では、平均化フィルターを適用して最終的な出力を行うようになっている。
例えばU-Net等の各種畳み込みニューラルネットワークを適用してもよい。
また、入力画像が異常陰影を含む「異常あり画像」であるか否かの判定ができれば足りる場合には、例えばVGGのように「Decoder」を備えない構成のネットワークを採用することも可能である。
なお、本実施形態では、後述のように損失(Loss)を算出して識別器23の評価を行うものとしている。このように損失(Loss)を算出する場合には、最終的な出力として確信度画像を出力させることのできる構成のネットワークを適用する。
なお、学習データは自施設Hにおいて得られたデータに限定されない。例えば識別器23を使用する自施設Hとは別の他施設Hで収集されたデータを使用して学習を行ってもよい。自施設Hにおいて得られるデータが少なく識別器23の学習に使用される学習データを十分に確保できない場合には、他施設Hにおいて得られたデータによって学習を行ってもよい。この場合、患者の年齢層や患者の病変の種類の傾向ができるだけ自施設Hと近い条件・環境の施設のデータを用いることが好ましい。
また、学習データは実データに基づくものに限定されない。実データだけでは学習を行うのに十分なデータ数が確保できないような場合には、自施設H(足りない場合には他施設H)で収集されたデータを元データとして、ディープラーニングにより疑似データを生成してもよい。疑似データを生成する手法は特に限定されない。例えばGAN(DCGAN;Deep Convolutional Generative Adversarial Networks)等の画像データ生成手段により元データに基づいて元データと特徴が共通する別個のデータを疑似データとして生成する。
識別器23が所望の特性を持つものとなるように学習させるためには、学習条件を適切に設定する必要がある。しかし、何をどのように調整すれば所望の特性を満たす識別器23を得ることができるかをユーザーが判断して設定することは困難であり、手間がかかる。
この点、本実施形態では、ユーザーが要望する識別器23の特性を指定することで識別器23の特性が設定されると、当該設定された特性を持つ識別器23を得ることができるように学習条件が自動的に設定されるようになっている。
例えば、入力(input)される入力画像には、異常陰影を含む「異常あり画像」と異常陰影を含まない「正常画像」とがあるが、入力画像が「正常画像」を多く含む場合、ほとんどの場合に異常なしと判断すれば正解となってしまう。このため、「正常画像」を多く含む学習データを用いて識別器23の学習を行うと、正常であるデータを正常であると識別する確率である「特異度」は高くなる半面、異常を含むデータを異常と識別する確率である「感度」の低い学習結果となってしまう。そこで、特性として「感度」の高い識別器23をユーザーが要望する場合には、「異常あり画像」を多く含む学習データを用いて識別器23の学習を行う必要がある。
このため、複数の学習データ(学習データ群)を構成する「正常画像」と「異常あり画像」とのもともとの比率に関わらず「正常画像」及び「異常あり画像」の割合を調整して学習データの構成を適正化する必要があり、本実施形態では、学習条件設定部121による学習条件の設定として、学習に用いる学習データを所望の特性に応じて調整するようになっている。
なお、図4では複数の学習データのデータベース(学習データ群のDB)が「異常あり画像」のデータベース(DB)と「正常画像」のデータベース(DB)とで構成されている場合を例示しているが、学習データのデータ構成はこれに限定されず、各学習データについて、それが「異常あり画像」であるか「正常画像」であるかがタグ付けされて1つのデータベース(DB)に記憶されていてもよい。また、図示は省略しているが、「異常あり画像」の学習データは、各検出対象(例えばノジュール、気胸等)に応じて分別されている。「異常あり画像」は各検出対象ごとにデータベース(DB)化されていてもよいし、データベースは分けずに各画像がどの検出対象に関わるものであるかを示すタグ付けがされた状態で記憶されていてもよい。
識別器23の学習を行う際は、複数の学習データ(図4において「学習データ群」)から一部のデータを抽出して、学習用入力画像データとしてバッチを構成し、識別器23に入力する。
例えば「学習データ群」に1万枚の画像データ(正解情報と対になった画像データ)が記憶されている場合に、通常はこの中からランダムに16画像を抽出してバッチを構成し、識別器23の学習を行う。
しかし、「学習データ群」における「正常画像」と「異常あり画像」とのもともとの比率のままランダムに画像を抽出すると、例えば1つのバッチを構成する入力画像は、「正常画像」12画像に対して「異常あり画像」4画像等となり、学習結果として「感度」の低い識別器23しか得られない可能性が高い。
例えば図4に示す例では、「学習データ群」を構成する画像データとしては「正常画像」が「異常あり画像」の倍以上の枚数あるような場合に、1バッチを構成する学習用入力画像データとして「正常画像」5画像、「異常あり画像」11画像を学習条件設定部121がそれぞれ抽出する場合を示している。なお、1つのバッチを構成する画像の数や、「正常画像」と「異常あり画像」との割合は、適宜設定可能な事項である。
これにより、バランスよく識別器23の学習を行うことができ、学習結果として「感度」の高い識別器23を得ることができる。
なお、後述のように学習結果を評価した場合に、識別器23の特性が特性設定部11によって設定された所望のレベルに達していなかった場合には、学習条件設定部121は1バッチを構成する学習用入力画像データにおける「正常画像」と「異常あり画像」との割合を変更する(例えば先の例では、16画像中「正常画像」を1画像、「異常あり画像」を15画像とする)等、学習条件を変えて再度識別器23の学習を行い、所望の特性を有する識別器23を得られるように調整する。
例えば学習条件設定部121が学習条件を設定する際のアプローチの仕方として、損失(Loss、実値と算出値とのズレ)が小さくなるようにパラメータを学習するように学習条件を設定してもよい。
また、例えば、高精度を求める検出対象としてユーザーに選択され特性設定部11によって設定された特性(病変、例えばノジュールや気胸等の検出対象)については、損失(Loss、実値と算出値とのズレ)に対する重み付けを設定することで、特性設定部11によって設定された特性に応じた学習条件の設定を行ってもよい。
さらに、損失(Loss、実値すなわち正解データと算出値とのズレ)が出る場合に、「正常画像」と「異常あり画像」とで重み付けを変えてもよい。例えば、同程度の範囲や個数の誤検出があった場合でも、「正常画像」を「異常あり画像」と誤って判断したときにはそれほど大きな損失とはしないが、異常陰影がある場合に「正常画像」であると誤って判断したときには大きな損失とする、というように誤検出の取り扱いにおいて重み付けをする。このようにすることで、異常を含むデータを異常と識別する確率である「感度」の高い識別器23となるように学習させることができる。
なお、評価結果が特性設定部11によって設定された特性条件を満たさない識別器23については学習条件を変更して再度学習を行うことが好ましい。これにより、特性条件を満たし、評価対象、ひいては新たな識別器23として設定することのできる候補を増やすことができ、より多くの候補の中から適切な識別器23を設定することが可能となる。
自施設Hで用いる識別器23は自施設Hで学習されたものに限定されず、他施設で既に使用され学習結果が蓄積されている識別器23、使用実績のある識別器23やパラメータを適用することも考えられる。
例えばメーカー等が各種の識別器23とそれぞれの識別器23の特性の評価結果とを対応付けたものをデータベース(DB)化して予め用意しているような場合には、自施設Hにおいてユーザーが求めるものとして設定されている識別器23の特性に応じて、自施設H以外の外部から特性条件を満たすような識別器23等を候補識別器として抽出し評価対象としてもよい。
図6及び図7に示すように、評価データとして入力画像が入力され、深層学習(ディープラーニング、図6及び図7において「DL」)の結果、出力画像が出力されると、この出力画像にマスクデータを適用することによって学習時の損失(Loss)を算出する。
識別器23を適用して入力画像を判定する際には、出力画像(本実施形態では前述のように「確信度画像」)の「最大値」を取得し、これが閾値を超えているか否かによって入力画像が「異常あり画像」であるか否かの最終的な判定を行う。「最大値」を使用することで、判定精度を上げることができる。また、出力画像から判定を行っているため、「異常あり画像」と判定した根拠となった領域を出力画像において確認することができる。
ただ、「最大値」のみの評価では、大きな異常陰影(病変箇所)を小さな領域として検出したような場合にも正しい評価値となってしまい、異常陰影(病変箇所)の大きさについて学習することができない。この点、「面積比率」の評価値を合わせて用いることによって、大きな異常陰影(病変箇所)は大きく、小さな異常陰影(病変箇所)は小さく検出した場合に正解となり、異常陰影(病変箇所)の大きさについても正しく学習することができるようになる。
なお、異常陰影(病変箇所)の境界についても評価するとした場合には、異常陰影(病変箇所)の境界認識の評価値をも用いることで、単なる異常陰影(病変箇所)の有無だけでなく、異常陰影(病変箇所)の境界(異常陰影(病変箇所)の場所、大きさ等)についても併せて学習させることが可能となる。
そしてマスクデータの乗算後の結果の最大値を算出する。異常あり画像の場合、図6に示すように、異常陰影の部分(異常領域ラベルが設定されている領域)のいずれか1点でも高い異常値を示せば正解とする。
なお、マスクデータにおいて異常ありを示す「1」が設定されていない部分(異常領域ラベルが設定されていない領域)は正常とも異常とも判断されない領域(学習に使わない領域)である。
入力画像が異常陰影を含む「異常あり画像」である場合には、異常領域ラベルが設定されている領域(マスク領域)全体を異常陰影の部分として検出できるようにする。このために、「異常あり画像3」のように異常陰影の部分として検出された領域がマスク領域全体を包含していれば、マスク領域の境界を正確に定義できなくても(すなわち、マスク乗算後(マスク処理後)の出力画像がマスク領域より広範囲であっても)、損失(Loss)としない。
これに対して、「異常あり画像1」のように、異常陰影の部分として検出された領域がマスク領域を含まない場合や、「異常あり画像2」のように、異常陰影の部分として検出された領域がマスク領域よりも小さい場合には、そのズレ量が損失(Loss)となる。
「正常画像」の場合には、図7に示すように、深層学習(DL)の出力画像の各ピクセルに対応するマスクデータを掛け合わせると、異常陰影の部分と判断(誤判断)された領域が「1」となっている出力画像(マスク処理後の出力画像)が取得される。
そしてマスクデータの乗算後の結果の最大値を算出する。「正常画像」の場合、異常陰影であるとの出力確信度の高さが損失(Loss)となる。
この点、図7に示す「正常画像1」では、実際には「正常画像」であるのに異常陰影であることを強く示す出力画像が出力されているため、損失(Loss)が大きい。これに対して「正常画像2」では、広い範囲で異常陰影であると判断されているが出力確信度が弱いため、「正常画像1」よりも最大値としては低い「0.3」となり、損失(Loss)は小さい。また、「正常画像3」の場合には、出力画像が異常陰影を示していないため、正解となり、損失(Loss)はない。
図7に示す例では、「正常画像1」と「正常画像2」で異常陰影が誤検出されている。「正常画像2」の方が「正常画像1」よりも検出された異常陰影の大きさ(範囲)が大きいが、「正常画像」の場合には、異常陰影の部分として出力される出力画像の大きさ(範囲)は損失(Loss)に影響しない。このため、「正常画像1」「正常画像2」はともに同じ「0.01」の損失(Loss)となる。
そして、識別器23について上記のような学習及び評価が行われると、情報処理装置3では、表示制御部16が表示部34を制御して評価結果を表示部34に表示させる(ステップS3)。
図8に示す評価結果一覧画面34aでは、現在施設で使用されている識別器23(図8において「識別器A」)、新しい識別器23の候補として自施設H(A施設)において学習済みの識別器23が2種類(図8において「識別器B」「識別器C」)と、他施設Hにおいて学習済みの識別器23が1種類(図8において「識別器D」)があげられており、各識別器23についての評価部13による評価結果がそれぞれ対応付けられて一覧表示されている。
なお、評価結果一覧画面34aの表示の仕方、表示項目、各項目の配置等は図示例に限定されない。また、ここで「一覧」表示という場合に、必ずしも1画面にすべてが表示される場合には限定されない。例えば、縦方向・横方向にスクロールさせることで表示される項目がある場合でも「一覧」表示であり、図8に示すような一覧表がページを跨ぐような場合にも「一覧」表示に含まれるものとする。
さらに、現状検出対象として重視しないとユーザーが判断した検出対象に関する表示欄(例えば図8では「結核」に関する項目)については濃い網掛けで塗り潰して目立たないようにしてもよい。
また、必須特性条件を満たさなかった識別器23の各項目(例えば新しい識別器Cの各項目参照)については濃い網掛けで塗り潰して目立たないようにしてもよい。
識別器23が設定された特性の条件を満たさない場合、満たさないレベルによって色や表示のさせ方を変えてもよい。例えば、特性の条件に2%足りない場合(例えば「感度」95%以上が要求されている項目について93%である場合)には黄色、10%以上足りない場合(例えば「感度」95%以上が要求されている項目について84%である場合)には赤色の文字や網掛けで表示させる。これにより、ユーザーにとって見やすく、分かりやすくなり、効果的に注意喚起することができる。
また、例えば識別器23が設定された特性条件を満たさないときには文字や音声出力により警告を出したり、特性を満たしていない項目のみを画面上で点滅表示させたりしてもよい。
例えば「望ましい特性条件」とされている項目において5%足りない項目があるが、「必須特性条件」とされている項目の特性が他の識別器23と比較して優れている場合や、「必須特性条件」とされている項目において1%足りない項目があるが、他の項目で全体的に高い性能を示している場合等、この程度であれば施設Hで使用するのに問題がない、とユーザーが判断する識別器23がある場合には、当該識別器23を施設Hで使用する新しい識別器23として設定することができる。
表示部34における表示の仕方を工夫して評価結果を一覧表示させることで、ユーザーがこうした比較検討をしやすく、適切な識別器23を選択しやすくなる。
具体的には、例えば、評価結果を表示部34に表示させたのち、表示制御部16はさらに識別器23の切替・選択画面を表示部34に表示させ、ユーザーに識別器23の選択を促す。
例えば識別器23の切替・選択画面34bには、図9に示すように、「必須特性条件」の表示欄b1が設けられ、「ノジュールについての感度が90%であること」等が表示される。
そして、「必須特性条件」に関する各識別器23の特性が特性表示欄b2に表示される。図9に示す例では、必須の条件として要求されている項目が「ノジュールについての感度」である場合にこの項目についての各識別器23の特性が特性表示欄b2に表示されている。図9では、現在識別器Aが使用されており、新しい識別器23の候補が識別器B,C,Dである場合に、それぞれの特性が、80%、92%、85%、90%となっている。
各識別器23にはチェックボックスb3が設けられており、使用中の識別器Aに使用中である旨を示すチェック(図9では塗潰し)が表示されている。他の識別器23(新しい識別器23の候補である識別器B,C,D)のいずれかを選択(図9ではチェックマークの入力)した上で切替ボタンb4を操作すると、当該選択された識別器23の情報が指示信号として制御部31に送られる。
切替・選択画面34bには、コメント欄b5が設けられており、例えば図9に示すように、現在使用中の識別器23や、推奨する識別器23、識別器23を切り替えたい場合の手順等が表示される。
なお、切替・選択画面34bの表示の仕方、表示項目、各項目の配置等は図示例に限定されない。
例えば列挙されている識別器23の中に「必須特性条件」を満たしていないものがある場合には、赤字等、他とは違う色で表示させる等により区別してもよい。
選択された識別器23の評価結果が設定された特性の条件を満たす場合には、施設Hにおいて使用される識別器23が当該選択された識別器23に識別器設定部14によって設定(更新)される。
なお、ユーザーが選択した所望の識別器23(例えば識別器B)の評価結果が設定された特性の条件を満たさない場合には、表示部34に警告メッセージを表示させたり、音声等で報知することで、ユーザーにその旨を警告してもよい。なお、前述のように特性条件を満たさない識別器23であってもユーザーが希望するものであれば、警告を行った上で新しい識別器23として設定、更新してもよい。
なお、ユーザーが何ら切替ボタンb4の操作を行わない場合には、現在使用中の識別器23(例えば識別器A)がそのまま当該施設Hで使用される識別器23として適用される。
また、自施設で学習された識別器23と他施設で学習された識別器23がある場合には自施設のものを優先的に設定する等、各種のルールがあらかじめ定められていてもよい。こうしたルールは、デフォルトで設定されていてもよいし、ユーザーが適宜ルール設定を行ってもよい。
なお、新しい識別器23が評価部13による評価結果に応じて識別器設定部14により自動的に設定されるとした場合には、図2においてステップS3で示した評価結果の表示を行わないとしてもよい。この場合には、ユーザーが何ら判断や検討を行わなくても、適切な識別器23が自動で設定される。
なお、施設Hにおいて使用する識別器23は、適宜見直して新しい識別器23に更新されるようにしてもよい。
以上のように、本実施形態によれば、診療用のデータ(本実施形態では医用画像データ)について適用される識別器23を備える情報処理装置3が、識別器23の特性を設定する特性設定部11と、識別器23について評価データを用いて特性の充足度を評価する評価部13と、評価部13による評価結果を参照して一の識別器23を施設で使用する識別器23として選択・設定する識別器設定部14とを備えている。
これにより、識別器23を使用する施設Hで要望される特性(例えば精度よく検出したい検出対象や所望の検出性能)を設定することで、当該特性を充足する識別器23を施設で用いる識別器23として選択・設定することができる。
このため、施設Hごとの使用態様、使用状況を考慮した場合に、所望の判別精度に優れた、最も医師等の支援に役立つ最適な識別器23を施設Hで用いる識別器23として設定することが可能となる。
これにより、識別器23を用いる施設Hにおいて特に精度よく判別したい異常陰影(病変)について所望の検出精度を備える識別器23を施設Hで用いる識別器23として設定することができる。
これにより、検出性能として「感度」を重視するのか「特異度」を重視するのか、その両方について高精度のものを求めるのか、各施設Hにおける使用態様、使用状況に応じた最適な特性を備える識別器23を施設Hで用いる識別器23として設定することができる。
これにより、当該施設Hにおける使用態様、使用状況に応じた学習(機械学習)を行うことができ、当該施設Hにとって最適な特性を備える識別器23を施設Hで用いる識別器23として設定することができる。
これにより、自施設のみでは十分な数の学習データを確保することができない場合でも学習(機械学習)を高精度に行うために必要な大量のデータを得ることが可能となり、大量の学習データによる十分な学習を行うことで、優れた特性を備える識別器23を施設Hで用いる識別器23として設定することができる。
これにより、適切な学習条件で学習させた識別器23を得ることができる。
識別器23の特性は学習時の学習条件によって変わり、高精度の識別器23を得るためには適切な条件で学習させることが必要である。しかし、所望の特性を得るためにどのような学習条件とすればいいかをユーザーが判断し設定することは難しく試行錯誤することは手間であり負担となる。この点、本実施形態のように特性設定部11によって設定された識別器23の特性に基づいて学習条件を設定することで、所望の特性を備える識別器23を得るための学習条件をユーザーの手を煩わせず、自動的に行うことが可能となる。
これにより、所望の特性を備える識別器23を得る上で重要な学習条件の1つは識別器23の学習に使用される学習データの構成であるところ、学習データの構成をユーザーが判断し設定することは難しく試行錯誤することは手間であり負担となる。この点、本実施形態のように特性設定部11によって設定された識別器23の特性に基づいて学習条件設定部121が自動的に学習データを抽出し、当該学習データによって識別器23の学習を行うことで、ユーザーの手を煩わせず、自動的に所望の特性を備える識別器23を得ることが可能となる。
これにより、ユーザーが各識別器23の特性を比較検討しやすく、容易に適切な識別器23を選択することができる。
これにより、ユーザーは各識別器23の特性の評価結果を、表示部34の表示を見るだけで直感的に把握することができ、ユーザーが各識別器23の特性を比較検討しやすく、容易に適切な識別器23を選択することができる。
例えば、診療データは、聴診等によって得られる各種音のデータ(例えば、胸部聴診で得られる心音や心雑音、頸動脈雑音、呼吸音等や、腹部聴診で得られる腹部血管雑音、グル音等)であってもよいし、各種波形データ(例えば、心電図等の波形の時系列的な情報等)であってもよい。さらに診療データは、電子カルテ情報や医師等によって入力された診察情報等の文字データであってもよい。
診療データが音データである場合には、異常データは例えば音データに含まれる異常音であり、診療データが波形データである場合には、異常データは例えば波形データに含まれる異常波形であり、診療データが文字データである場合には、異常データは例えば異常状況を表す特定の文字列等(例えば病名等)である。
また、このように診療データが医用画像のデータ以外のデータである場合、学習データ等が足りずに疑似データを生成する必要がある場合には、GAN等の画像データを生成する手段ではなく、音データや波形データ、文字データ等、診療データに対応するデータを自動的に生成する手段が適用される。
また、診療データは、医用画像撮影装置により撮影された医用画像に限られない。画像一般について識別器による判別を行う場合にも本発明を適用することができる。
格納されるデータ量の多い医用画像DB71やこれを備える画像管理サーバー7等を施設H内の医用画像システム100とは別に設けることで、医用画像システム100の負担を少なくすることができる。
5 モダリティー
7 画像管理サーバー
12 識別器生成部
13 評価部
14 識別器設定部
16 表示制御部
23 識別器
30 制御装置
31 制御部
32 記憶部
34 表示部
100 医用画像システム
H 施設
Claims (12)
- 診療用のデータについて適用される識別器と、
前記識別器の特性を設定する特性設定手段と、
前記識別器について評価データを用いて前記特性の充足度を評価する評価手段と、
前記評価手段による評価結果を参照して一の識別器を施設で使用する識別器として選択・設定する識別器設定手段と、
を備えることを特徴とする情報処理装置。 - 前記特性とは、検出したい検出対象及び当該検出対象についての検出性能の少なくともいずれかを含んでいることを特徴とする請求項1に記載の情報処理装置。
- 前記検出性能は、異常を含むデータを異常と識別する確率である感度及び正常であるデータを正常であると識別する確率である特異度の少なくともいずれかを含んでいることを特徴とする請求項2に記載の情報処理装置。
- 前記評価手段の評価対象となる識別器は、識別器を使用する施設である自施設において収集されたデータを使用して学習した学習済みの識別器であることを特徴とする請求項1から請求項3のいずれか一項に記載の情報処理装置。
- 前記評価手段の評価対象となる識別器は、識別器を使用する施設とは別の他施設で収集されたデータを使用して学習した学習済みの識別器であること特徴とする請求項1から請求項3のいずれか一項に記載の情報処理装置。
- 前記識別器の学習条件を設定する学習条件設定手段を持つことを特徴とする請求項1から請求項5のいずれか一項に記載の情報処理装置。
- 前記学習条件設定手段による前記学習条件の設定は、前記特性設定手段によって設定された前記識別器の特性に基づいて行われることを特徴とする請求項6に記載の情報処理装置。
- 前記識別器の学習に使用される学習データは、前記識別器の特性に基づいて分別されており、
前記学習条件設定手段は、前記特性設定手段によって設定された前記識別器の特性に応じて前記学習データを抽出することを特徴とする請求項7に記載の情報処理装置。 - 前記識別器の特性と前記識別器についての前記評価手段による前記評価結果とを表示する表示手段をさらに備えることを特徴とする請求項1から請求項8のいずれか一項に記載の情報処理装置。
- 前記表示手段は、前記評価結果が前記特性設定手段により設定された前記識別器の特性を満たす場合と満たさない場合とで表示手法を異にすることを特徴とする請求項9に記載の情報処理装置。
- 診療用のデータについて適用される識別器の特性を設定する特性設定工程と、
前記識別器について評価データを用いて前記特性の充足度を評価する評価工程と、
前記評価工程における評価結果を参照して一の識別器を施設で使用する識別器として選択・設定する識別器設定工程と、
を含むことを特徴とする情報処理方法。 - 情報処理装置のコンピューターに、
診療用のデータについて適用される識別器の特性を設定する特性設定機能と、
前記識別器について評価データを用いて前記特性の充足度を評価する評価機能と、
前記評価機能による評価結果を参照して一の識別器を施設で使用する識別器として選択・設定する識別器設定機能と、
を実現させることを特徴とするプログラム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020023909A JP7452068B2 (ja) | 2020-02-17 | 2020-02-17 | 情報処理装置、情報処理方法及びプログラム |
US17/173,560 US11967424B2 (en) | 2020-02-17 | 2021-02-11 | Information processing apparatus, information processing method, and recording medium |
JP2024032606A JP2024061756A (ja) | 2020-02-17 | 2024-03-05 | 情報処理装置、情報処理方法及びプログラム |
US18/609,397 US20240221934A1 (en) | 2020-02-17 | 2024-03-19 | Information processing apparatus, information processing method, and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020023909A JP7452068B2 (ja) | 2020-02-17 | 2020-02-17 | 情報処理装置、情報処理方法及びプログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2024032606A Division JP2024061756A (ja) | 2020-02-17 | 2024-03-05 | 情報処理装置、情報処理方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021128648A true JP2021128648A (ja) | 2021-09-02 |
JP7452068B2 JP7452068B2 (ja) | 2024-03-19 |
Family
ID=77273504
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020023909A Active JP7452068B2 (ja) | 2020-02-17 | 2020-02-17 | 情報処理装置、情報処理方法及びプログラム |
JP2024032606A Pending JP2024061756A (ja) | 2020-02-17 | 2024-03-05 | 情報処理装置、情報処理方法及びプログラム |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2024032606A Pending JP2024061756A (ja) | 2020-02-17 | 2024-03-05 | 情報処理装置、情報処理方法及びプログラム |
Country Status (2)
Country | Link |
---|---|
US (2) | US11967424B2 (ja) |
JP (2) | JP7452068B2 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7375934B2 (ja) * | 2020-06-24 | 2023-11-08 | 日本電気株式会社 | 学習装置、推定装置、学習方法及びプログラム |
JP7092218B1 (ja) * | 2021-01-18 | 2022-06-28 | コニカミノルタ株式会社 | 医療情報管理装置及び医療情報管理プログラム |
US20220293266A1 (en) * | 2021-03-09 | 2022-09-15 | The Hong Kong Polytechnic University | System and method for detection of impairment in cognitive function |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019087229A (ja) * | 2017-11-02 | 2019-06-06 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法及びプログラム |
JP2019109553A (ja) * | 2017-12-15 | 2019-07-04 | コニカミノルタ株式会社 | 情報処理装置及び情報処理方法 |
WO2019234810A1 (ja) * | 2018-06-05 | 2019-12-12 | 三菱電機株式会社 | 学習装置、推論装置、方法、及びプログラム |
JP2021081793A (ja) * | 2019-11-14 | 2021-05-27 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法およびプログラム |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080292194A1 (en) * | 2005-04-27 | 2008-11-27 | Mark Schmidt | Method and System for Automatic Detection and Segmentation of Tumors and Associated Edema (Swelling) in Magnetic Resonance (Mri) Images |
WO2010050334A1 (ja) | 2008-10-30 | 2010-05-06 | コニカミノルタエムジー株式会社 | 情報処理装置 |
US10446272B2 (en) * | 2009-12-09 | 2019-10-15 | Veracyte, Inc. | Methods and compositions for classification of samples |
US20130044927A1 (en) * | 2011-08-15 | 2013-02-21 | Ian Poole | Image processing method and system |
JP6422142B1 (ja) | 2017-11-29 | 2018-11-14 | 康成 宮木 | 受精卵の画像診断システム、受精卵の画像診断プログラム及び受精卵の画像診断方法。 |
JP6468576B1 (ja) | 2018-10-22 | 2019-02-13 | 康成 宮木 | 受精卵の画像診断システム、受精卵の画像診断プログラム及び受精卵の画像診断用識別器の作成方法。 |
-
2020
- 2020-02-17 JP JP2020023909A patent/JP7452068B2/ja active Active
-
2021
- 2021-02-11 US US17/173,560 patent/US11967424B2/en active Active
-
2024
- 2024-03-05 JP JP2024032606A patent/JP2024061756A/ja active Pending
- 2024-03-19 US US18/609,397 patent/US20240221934A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019087229A (ja) * | 2017-11-02 | 2019-06-06 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法及びプログラム |
JP2019109553A (ja) * | 2017-12-15 | 2019-07-04 | コニカミノルタ株式会社 | 情報処理装置及び情報処理方法 |
WO2019234810A1 (ja) * | 2018-06-05 | 2019-12-12 | 三菱電機株式会社 | 学習装置、推論装置、方法、及びプログラム |
JP2021081793A (ja) * | 2019-11-14 | 2021-05-27 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
US20240221934A1 (en) | 2024-07-04 |
JP7452068B2 (ja) | 2024-03-19 |
JP2024061756A (ja) | 2024-05-08 |
US11967424B2 (en) | 2024-04-23 |
US20210256295A1 (en) | 2021-08-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11341646B2 (en) | Systems and methods to deliver point of care alerts for radiological findings | |
US10460838B2 (en) | Automated anatomically-based reporting of medical images via image annotation | |
EP3489964A1 (en) | System and methods to deliver point of care alerts for radiological findings | |
JP6930411B2 (ja) | 情報処理装置及び情報処理方法 | |
US20190156484A1 (en) | Systems and methods to deliver point of care alerts for radiological findings | |
JP5100285B2 (ja) | 医用診断支援装置およびその制御方法、プログラム、記憶媒体 | |
JP5728212B2 (ja) | 診断支援装置、診断支援装置の制御方法、およびプログラム | |
JP5875285B2 (ja) | 医療診断支援装置、情報処理方法及びプログラム | |
JP6818424B2 (ja) | 診断支援装置、情報処理方法、診断支援システム及びプログラム | |
US20180060535A1 (en) | Updating probabilities of conditions based on annotations on medical images | |
JP6016406B2 (ja) | 医療診断支援装置及び医療診断支援方法及び入力支援システム | |
US11967424B2 (en) | Information processing apparatus, information processing method, and recording medium | |
JP6815711B1 (ja) | 診断支援プログラム、装置、及び方法 | |
JP6362061B2 (ja) | 診断支援システム、その作動方法、およびプログラム | |
US20180060488A1 (en) | Customizing annotations on medical images | |
JP5995415B2 (ja) | 医療診断支援装置、情報処理方法及びプログラム | |
JP6448588B2 (ja) | 医療診断支援装置、医療診断支援システム、情報処理方法及びプログラム | |
US20200111558A1 (en) | Information processing apparatus, medical image display apparatus, and storage medium | |
EP3362925B1 (en) | Systems and methods for generating correct radiological recommendations | |
JP2012143368A (ja) | 医用画像表示装置及びプログラム | |
JP6316325B2 (ja) | 情報処理装置、情報処理装置の作動方法及び情報処理システム | |
JP6625155B2 (ja) | 情報処理装置、情報処理装置の作動方法及びプログラム | |
JP5573106B2 (ja) | 医用画像表示システム及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221223 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231003 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231129 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240206 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240219 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7452068 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |