JP2021047911A - 高度な病理診断 - Google Patents

高度な病理診断 Download PDF

Info

Publication number
JP2021047911A
JP2021047911A JP2020213040A JP2020213040A JP2021047911A JP 2021047911 A JP2021047911 A JP 2021047911A JP 2020213040 A JP2020213040 A JP 2020213040A JP 2020213040 A JP2020213040 A JP 2020213040A JP 2021047911 A JP2021047911 A JP 2021047911A
Authority
JP
Japan
Prior art keywords
pathology
image
user
pathological
magnified
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020213040A
Other languages
English (en)
Other versions
JP7145195B2 (ja
Inventor
ケー. バラール,ジョエル
K Barral Joelle
ケー. バラール,ジョエル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Verily Life Sciences LLC
Original Assignee
Verily Life Sciences LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Verily Life Sciences LLC filed Critical Verily Life Sciences LLC
Publication of JP2021047911A publication Critical patent/JP2021047911A/ja
Application granted granted Critical
Publication of JP7145195B2 publication Critical patent/JP7145195B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/28Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/698Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/40ICT specially adapted for the handling or processing of patient-related medical or healthcare data for data related to laboratory analysis, e.g. patient specimen analysis
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16ZINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS, NOT OTHERWISE PROVIDED FOR
    • G16Z99/00Subject matter not provided for in other main groups of this subclass
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30024Cell structures in vitro; Tissue sections in vitro
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/10Recognition assisted with metadata

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Theoretical Computer Science (AREA)
  • Public Health (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Biomedical Technology (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Pathology (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Library & Information Science (AREA)
  • Ophthalmology & Optometry (AREA)
  • Human Computer Interaction (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)
  • Psychiatry (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Physiology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Fuzzy Systems (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)

Abstract

【課題】 病気の診断において病理医を支援することである。【解決手段】 本発明の方法は、拡大病理画像を形成するために顕微鏡を使用して病理試料を拡大すること、および、顕微鏡に光学的に結合されたデジタルカメラを使用して前記拡大病理画像を記録することを含む。該方法はさらに、拡大病理画像内の1つまたは複数の対象領域を特定するために、拡大病理画像を病理データベース内に含まれる参照病理画像と比較することをさらに含む。顕微鏡のユーザは、拡大病理画像内の1つまたは複数の対象領域に注意するように警告される。【選択図】図4

Description

[0001] 本開示は、全般的に、病理学を支援するシステム/方法に関する。
[0002] 病理学は、病気の研究および診断に関連する医学分野である。病理学は、体液、組織、および細胞の試料の分析および検査を伴うことが最も多い。一般的な研究調査の分野として、病理学は、(1)病因、(2)発病、(3)形態学的変化、および(4)形態学的変化の結果の病気の4つの態様に関係する。
[0003] 病理学の分野は、古代まで遡る。多くの昔の社会は、解剖/検査の結果として生物学的状態の基本的な知識を持っていた。古代ギリシャのヘレニズム期までには、病気の因果関係の研究が人類文化に出現した。病理学を通した病気に対する人間の理解は、時代が進むにつれて少しずつ向上し続けた。例えば、病理学の多くの進歩はイスラムの中世時代の功績に起因する。
[0004] しかしながら、現代の病理学だけは、微生物学の出現によって、1800年代後半に異なる分野の研究として生まれた。今日では、病理学は、多くの下位分野に分類される主な医療業務である。これらの全ての下位分野において、病理医の検査結果をチェックするためのセカンドオピニオンを受けることは、誤診をなくすのに有効である。病理学の診断ミスをなくすことは、結果として、より健康な人の集団を生じさせ、病理医の責任負担を低減し得る。
[0005] 以下の図面を参照しながら、本発明の非限定的かつ非包括的な実施形態を説明する。図面では、別段の定めのない限り、さまざまな図面全体を通して、同様の参照番号は同様の部品を指すものとする。図面は、必ずしも正確な縮尺で示されておらず、記載されている原理を示すことに重点が置かれている。
[0006]本開示の一実施形態に係る、病理診断用のシステムを示す図である。 [0007]本開示の一実施形態に係る、機械学習アルゴリズムを訓練するための病理データベースを示す図である。 [0008]本開示の一実施形態に係る、図1のシステムを使用して病理医が経験し得る内容を示す図である。 [0009]本開示のいくつかの実施形態に係る、病理診断の方法を示すフローチャートである。
[0010] 本明細書において、高度な病理診断のための装置および方法の実施形態を示す。以下の説明において、実施形態を十分に理解することができるように、多くの具体的詳細を説明する。しかしながら、当業者は、本明細書に記載されている技術は、1つまたは複数の具体的詳細なしに、または他の方法、構成要素、材料などを用いて実施可能であることを理解するであろう。他の例において、特定の態様を曖昧にするのを避けるために、既知の構造、材料、または動作は示されていない、または詳細に記載されていない。
[0011] 本明細書全体を通して、「1つの実施形態」または「一実施形態」という表現は、その実施形態に関連して示されている特定の特徴、構造、または特性が本発明の少なくとも1つの実施形態に含まれるという意味である。したがって、本明細書全体を通して、さまざまな場所における「1つの実施形態において」または「一実施形態において」という表現は、必ずしも全てが同じ実施形態を指すとは限らない。さらに、特定の特徴、構造、または特性は、1つまたは複数の実施形態において、任意の適切な方法で組み合わせられ得る。
[0012] 本開示は、病理診断を向上させるためのシステムおよび方法を提供する。より詳細には、これらのシステムおよび方法は、病気の診断において病理医を支援するのに使用され得る。機械学習アルゴリズムは、機械学習アルゴリズムが病理試料内の対象領域(例えば、病変組織、異型細胞、異常成長など)を認識した場合に、病理医に試料内のこれらの領域に注意するように警告するように訓練され得る。病理医にセカンドオピニオンを提供することは、(病理医が個々のスライドに費やす時間を減らすことができることにより)病理医の効率を上げ、(病理医に試料内の対象領域に注意するように警告することにより)不正確な診断の確率を減らし得る。
[0013] 図1は、本開示の一実施形態に係る、病理診断用のシステム100を示す。システム100は、顕微鏡101と、デジタルカメラ103と、マイクロホン105と、スクリーン107と、処理装置109と、ネットワーク111と、記憶装置123と、スピーカ125と、第1の機械−電気変換器113と、第2の機械−電気変換器115とを含む。
[0014] 図示されている実施形態では、ユーザ(例えば、病理医)は、顕微鏡101を使用して拡大病理試料を見ている。顕微鏡101は、拡大病理画像を形成するために病理試料を拡大している。拡大病理画像は、顕微鏡101に光学的に結合されたデジタルカメラ103を使用して記録される。デジタルカメラ103は、処理装置109(例えば、デスクトップコンピュータ、サーバなど)に電気的に結合されて、拡大病理画像(静止画像または動画)を処理装置109に送信する。処理装置109は、拡大病理画像内の1つまたは複数の対象領域(例えば、スクリーン107上の枠線で囲まれた部分131)を特定するために、拡大病理画像を(リモートまたはローカル記憶装置123上に含まれている)病理データベース内に含まれる参照病理画像と比較する。拡大病理画像内に対象領域がある場合、システム100は、顕微鏡101のユーザに1つまたは複数の対象領域に注意するように警告し得る。この警告は、1つまたは複数の対象領域の特定に応答して、音声警告(例えば、「癌があるかもしれない画像の左下隅を見なさい」とのスピーカ125からの音声)、視覚的警告(例えば、スクリーン107上の対象領域131を強調表示する)、または触覚的警告(例えば、顕微鏡101の載物台を振動させる)であり得る。
[0015] 1つの実施形態では、機械学習アルゴリズム (以下の図2を参照)は、1つまたは複数の対象領域を特定するのに使用され、病理データベース内の参照病理画像を使用して1つまたは複数の対象領域を特定するように訓練される。病理データベースは、参照病理画像、病理医からの注釈、および病理医からのグレーディング/診断の多くの組み合わせを含み得る。処理装置109において、画像処理および機械学習アルゴリズムは、デジタルカメラ103からの画像データがリアルタイムで判断されるように動作し得、モニタ上で視覚的に、または音声フィードバック(例えば、「前立腺腺癌のグリソンスコア6」、「スライドに皺がある」、「画像の焦点がずれている」など)によって、ユーザ(病理医)に指示が出され得る。便宜上、システム100にヘッドホンが追加されて、会話が記録され、デジタルカメラ103によって取り込まれた動画/画像に関してアーカイブされ得る。
[0016] 病理データベース内の参照画像は、機械学習アルゴリズムが病変組織または健康な組織として認識するように訓練された数十万枚あるいは数百万枚もの病理試料の画像を含み得る。さらに、病理データベースは、病理データベース内の参照病理画像に対応する熟練の病理医からの注釈も含み得る(以下の図2を参照)。機械学習アルゴリズムは、参照病理画像と共に病理医からの注釈を使用して、拡大病理画像内の1つまたは複数の対象領域を特定するように自身を訓練し得る。病理データベースは、参照病理画像が記録されたときに病理医が話した内容の音声転写テキストを含み得る。例えば、データベース内に画像を記録する病理医が、「試料のこの部分は正常に見える」と話したかもしれない。機械学習アルゴリズムは、データベースからこの発言を自然言語または音声転写テキストとして受け取り、病理医が指している試料のその部分には注意する所見がないことを認識し得る。機械学習アルゴリズムは、「正常」と判断された試料の特性に注目して、今後の画像におけるこれらの特性を認識し得る。あるいは、病理医は試料が悪性であると発言したかもしれない。機械学習アルゴリズムは、悪性試料の特性に注目して、この悪性試料の知識を今後の拡大病理画像に適用し得る。
[0017] 1つの実施形態では、病理データベースはさらに、病理データベース内の参照病理画像に関するスライド位置情報および倍率情報を含む。例えば、参照試料が静止画像か動画のいずれかとしてデータベース内に含まれている場合、顕微鏡が焦点合わせしていた位置(スライド位置情報)が記録されている場合があり、この位置は、試料上の相対座標、顕微鏡載物台の位置などを含み得る。同様に、参照病理画像内の特徴を見るために使用される倍率レベルも記録され得る。例えば、「良性」か「悪性」かの判断を行うときに、機械学習アルゴリズムがどんな倍率が使用されたかを知ることは有益であり得る。それは、特定の特徴は、特定の倍率でしか目に見えないからである。機械学習アルゴリズムは、スライド位置情報および倍率情報を使用して、拡大病理画像内の1つまたは複数の対象領域を特定し得る。
[0018] 図示されている実施形態では、システム100は、ユーザの確認が不十分であると考えられる病理試料の部位を特定し、ユーザの確認が不十分であると考えられた部位内に、注意対象である可能性がある1つまたは複数の領域(例えば、病変、癌性、またはそれ以外の対象の組織/体液/などを含むものとしてシステム100に現れ得る試料の領域)をユーザに報告し得る。例えば、システム100のユーザが、病理試料を検査しており、システム100が重要である可能性があると認識している領域をうっかり見過ごしてしまった場合に、システム100は、注意対象である可能性がある1つまたは複数の領域の存在をユーザに警告し得る。ユーザへの警告は、上述した方法(例えば、音声による、視覚による、触覚による、または他の方法で)で実現され得る。1つの実施形態では、機械学習アルゴリズムは、ユーザの確認が不十分であると考えられる病理試料の部位について、ユーザが閾値時間の間その部位を見ていることに基づいて特定するように訓練され得る。1つの実施例では、これは、閾値時間の間、試料がユーザの視野内にあったかどうかを機械学習アルゴリズムが追跡することを伴い得る。例えば、システム100のユーザが病理試料内のある部位を見るのにかける時間が1秒未満である場合、システム100は試料のこの部位が見過ごされたと推測し得る。
[0019] しかしながら、システム100は、さらに精密であり、試料の一部の確認が不十分であるかどうかの唯一のメトリックとして単に時間を使用するだけではない場合がある。これは、熟練の病理医は病理試料の1つの部位を一見しただけで、注意対象でないことをすぐに認識することができるためである。したがって、システム100は、凝視検出(図1の顕微鏡101の接眼レンズからの破線で示されている)、病理試料の位置(例えば、載物台位置または試料上の相対位置)、または顕微鏡101の倍率レベルの少なくとも1つを採用することによって、ユーザが特定の領域を見た/見なかったことを判断し得る 。したがって、熟練の病理医が病理試料内のある部位を全く見ることなく見逃した場合、システム100は、凝視検出(例えば、蛹の拡張)を使用して、病理医に試料のこの部分を見過ごしたことを警告し得る。
[0020] 図示されている実施形態では、処理装置109は、ネットワーク111および/または記憶装置123に(有線または無線)接続される。ネットワーク111および記憶装置123は、ローカルまたはリモートであり得、分散されている、または分散されていないことがあり得る。記憶装置123は、RAM、ROM、ハードディスク、フラッシュメモリ、または任意の他の適切なメモリシステムを含み得る。ネットワーク111は、インターネットまたはローカルエリア・ネットワークを含み得る。1つの実施形態では、処理装置109は、ネットワーク111上の分散システムであり得る。当業者は、本開示の教示に従ってデータを処理/記憶するのにあらゆる方法があることを理解するであろう。
[0021] 図示されている実施形態では、マイクロホン105は、病理医が話す内容を記録するために、処理装置109に(有線または無線で)電気的に結合されている。この情報は、病理データベースを更新し、さらに機械学習アルゴリズムに学習させるのに使用され得る。さらに、(機械−電気変換器113によって提供された)顕微鏡載物台位置および(機械−電気変換器115によって提供された)倍率レベルと共に、デジタルカメラ103によって取り込まれた画像も病理データベースを更新するのに使用され得る。
[0022] いくつかの実施形態では、システム100は、病理医が完全デジタル顕微鏡環境へと移行するのを助けるのに使用され得、マウスが処理装置109および/または顕微鏡101に結合される。マウスは、顕微鏡101上のモータ駆動載物台を制御し得る。病理医は、(顕微鏡のノブを回すことによって)スライドを物理的に移動させることを選択することができ、または、病理医は、マウスを動かすことができ、モータ駆動載物台がスライドを対応する位置まで移動させる。1つの実施形態では、機械学習アルゴリズムにさらに情報を提供するために(例えば、スライドのどの部分が無視されたか/見過ごされたかを見つけ出すために)、載物台の動きが取り込まれ得る。
[0023] 図2は、本開示の一実施形態に係る、機械学習アルゴリズム203を訓練するための病理データベース201を示す。病理データベース201は、 図1のシステム100と同様のシステムを使用して作成され得、記憶装置123に記憶され得る。図示されている実施形態に示されているように、病理データベース201は、デジタルカメラ(例えば、デジタルカメラ103)によって取り込まれた病理画像(例えば、動画または静止画像)を含む。病理画像は、そのフレーム番号、記録時間、病理医の音声注釈(音声転写された)、顕微鏡載物台の位置、収集された際の倍率、病理医の凝視場所に対して、インデックス化される。当業者は、 図1に示されているシステム100は任意の数の寸法および入力を有するデータベースを作成するのに使用され得、本明細書に示されている寸法/入力に限定されないことを理解するであろう。
[0024] 図示されているように、顕微鏡(例えば、顕微鏡101)に光学的に結合されたデジタルカメラ(例えば、デジタルカメラ103)は、病理試料の画像をデジタル動画または静止画像として記録を開始し得る。動画の各フレームは、その捕捉時間に対してインデックス化される。例えば、図示されている実施形態では、フレーム1は最初の3マイクロ秒間の記録の間に取り込まれたもの、フレーム2はその次の4マイクロ秒〜7マイクロ秒の間の記録の間に取り込まれたもの、などとなる。さらに、マイクロホン(例えば、マイクロホン105)が、顕微鏡のユーザの音声注釈を記録し得る。音声注釈は、テキストに変換され、および/または個々の記録時間および動画フレームに対してインデックス化され得る。図示されている実施形態では、病理医は、フレーム1が(最初の3マイクロ秒の記録の間に)取り込まれている間に、「this」という言葉を発し、次のフレームで病理医は、「looks like lymphatic tissue and may be benign」と話している。
[0025] システムはさらに、顕微鏡載物台の位置を記録して、その位置を記録時間および拡大病理画像に対してインデックス化し得る。図示されている実施形態では、載物台の位置は、載物台の左下位置である(0,0)点からのX、Y座標で測定され、載物台の動きは、ミクロンで測定される。しかしながら、他の実施形態では、載物台の軸は異なるように配向され得(例えば、(0,0)点は載物台の右下位置に位置する)、測定の単位は異なることがあり得(例えば、mm、cmなど)、載物台のZ位置も記録され得る。また、「載物台位置」は、試料上の特定の位置を特定するのに使用されるので、広く解釈されるべきであり、当業者は、それがあらゆる方法で実現可能であることを理解するであろう。1つの実施形態では、載物台位置は、撮影されるスライドの寸法に対して光学的に決定され、顕微鏡のハードウェアに対して決定されない。図示されているように、記録時間、音声転写テキスト、載物台位置、および凝視象限に対して、特定のフレームを見た倍率も記録される。
[0026] 図示され説明されている他の寸法/入力に対して、ユーザの凝視もインデックス化され得る。図示されている実施形態では、ユーザ/病理医の凝視は象限内で測定される、すなわち、ユーザが見る画像は4つの部分画像に分割され、システムは記録時間の間にユーザが見ていた部分画像を記録する。このことは、顕微鏡または他の外部システムにインストールされたハードウェア/ソフトウェアによって実現され得るが、当業者は凝視を検出するための多くの異なる方法があることを理解するであろう。また、本明細書に示されている実施形態は、病理医/顕微鏡のユーザが見ていた場所を非常に大まかに示したものに過ぎないが、他の実施形態では、ユーザが見ていた正確な座標が記録される。
[0027] 1つの実施形態では、拡大病理画像および音声注釈のインデックス化は、拡大病理画像内の対象領域に対するユーザの音声注釈のタグ付けを含み得る。例えば、上述した実施形態では、病理医の「良性」との診断は、40x倍率での載物台位置座標(136,47)および病理医が象限3,4で見ていたことに関連付けられる。このことにより、機械学習アルゴリズム203は、「良性」との判断がなされたときに病理医が見ていた場所を正確に認識することができる。さらに、機械学習アルゴリズム203は、検査の履歴(その時点までにどのくらいスライドを検査したか)を認識する。図示されている実施形態では、処理装置はさらに、処理装置によって実行されたときに、処理装置に病理医の音声注釈をテキストに変換させる論理回路を含み、テキストは、上述した他の寸法/入力のうち、記録時間および拡大病理画像に対してインデックス化される。別の実施形態または同じ実施形態では、病理医は、収集された病理画像を確認して、画像に直接注釈を付けて対象領域を示す(例えば、デジタル画像上の癌細胞を丸で囲む、不明の細胞情報の隣に星印を付けるなど)ことによって、より簡単に機械学習アルゴリズム203に学習させることができ得る。
[0028] 2人以上の病理医が病理試料を見て注釈を付け得ることは、注目すべき点である。両方の病理医からの情報が取り込まれるように、さらなるデータベースの行および/列が追加され得る。次に、試料/スライドについて分かっていることに関してグラウンドトゥルース/論拠を作成するために、両方の病理医の入力が比較され得る。病理試料に関する情報の冗長性は、病理データベース201内の診断をより確かなものとし、機械学習アルゴリズム203を訓練するためにより大きなサンプルサイズを提供し得る。
[0029] 上述した入力の全ては、病理試料内の対象領域を認識するように機械学習アルゴリズム203を訓練するために、機械学習アルゴリズム203に供給され得る。機械学習アルゴリズム203は、相関ルール学習、深層学習、帰納的論理プログラミング、決定木の学習、サポートベクターマシン、ベイジアン・ネットワーク、強化学習、クラスタリング、表現学習、類似度および距離学習、スパース辞書学習、遺伝的アルゴリズムなどのようなニューラルネットワークタイプのアプローチまたは他の方法に基づき得る。さらに、機械学習アルゴリズム203は、並行して、または離散間隔で動作する多くの異なるアルゴリズムを含み得る。
[0030] 図3は、 本開示の一実施形態に係る、図1のシステム100を使用して病理医が経験し得る内容を示す。画像301は、ユーザ/病理医が顕微鏡101を通して見たときに見え得る画像である。1つの実施形態では、画像301は、スクリーン107上に投影される。数分間病理試料を検査した後、スピーカ(例えば、図1のスピーカ125)は、発言303(注意対象の可能性がある領域を有するスライド上のスポットを見過ごしたことをユーザ/病理医に認識させる)および発言305(1つまたは複数の対象領域内の構造の診断をユーザに伝え、診断の信頼区間を出力する)のような複数の発言を出力し得る。図示されているように、対象領域および注意対象の可能性がある領域は、画像301内で強調表示され(例えば、枠線で囲まれ)得る。枠線は、スクリーン上または顕微鏡の接眼レンズ内に現れ得る。1つの実施形態では、強調表示は、試料上に直接レーザ光を照射すること、または試料を検査している病理医に警告するための任意の他の方法を含み得る。
[0031] 病理医は、機械学習アルゴリズムからの指示を受けることに加えて、GUIと対話することによって、または助け(「顕微鏡、確認。乳房病理医を呼び出してください」)を求めることによって、動画チャットアプリケーションを開始することができる。顕微鏡から供給された動画は、その後、遠隔のプロクターに見てもらうために送信され得る。遠隔のプロクターは、ローカルの病理医およびシステム100と直接通信することができる。必要に応じて、より多くのプロクター/専門医が追加され得る。この監督機能は、学生評価にも使用され得る。
[0032] 監督機能は、機械学習アルゴリズムと組み合わされ得る。例えば、システムが稀な診断を検出した場合に、専門家を呼び出すことを提案する、または自動的に呼び出すことができる。さらに、この機能は、コンセンサスが取れた病理学を可能にするために拡張され得、個々のスライドが常に多数の病理医によって同時に確認され、コンセンサスが実現されたとき(例えば、最初は3人の病理医が接続され、彼らの意見が異なる場合に4人目の病理医が追加されるなど、所望のレベルの合意に達するまで追加される)のみ診断が行われる。
[0033] 図4は、本開示のいくつかの実施形態に係る、病理診断の方法400を示すフローチャートである。プロセスブロック401〜407のいくつかまたは全てが方法400内で発生する順序は、限定的であると見なすべきではない。むしろ、本開示の利益を享受する当業者は、方法400のいくつかは、図示されていないさまざまな順序で、または並行して実行され得ることを理解するであろう。
[0034] ブロック401は、拡大病理画像を形成するために顕微鏡を用いて病理試料を拡大することを示す。これは、顕微鏡のノブを調節することによって手動で行われ得る、または顕微鏡を制御するためのコンピュータシステムを使用してデジタル処理で実行され得る。1つの実施形態では、顕微鏡はさらに、(診断を行うための)スライドの最も適切な部分が最初に病理医に示されるように、自動的に拡大表示する/スライドを移動させることができる。この特徴は、病理医のワークフローを大幅に迅速化させるために、スライド供給装置と組み合わされ得る。
[0035] ブロック403は、顕微鏡に光学的に結合されたデジタルカメラを使用して拡大病理画像を記録することを示す。処理装置は、無線または有線伝送によって、デジタルカメラから拡大病理画像を受信し得る。
[0036] ブロック405は、拡大病理画像内の1つまたは複数の対象領域を特定するために、拡大病理画像を病理データベース内に含まれる参照病理画像と比較することを示す。1つの実施形態では、1つまたは複数の対象領域は、病理試料の病変部分または病理試料内の異型細胞の少なくとも1つを含む。処理装置は、1つまたは複数の対象領域を特定するために機械学習アルゴリズムを実行し得、機械学習アルゴリズムは、病理データベース(上の図2を参照)を使用して対象領域を特定するように訓練され得る。 上述したように、病理データベースは、病理データベース内の参照病理画像に対応する病理医からの注釈を含み得る。機械学習アルゴリズムは、参照病理画像と共に病理医からの注釈を使用して、拡大病理画像内の1つまたは複数の対象領域を特定し得る。
[0037] 1つの実施形態では、病理データベースはさらに、倍率情報および参照病理画像上の位置を特定するための位置情報を含む。機械学習アルゴリズムは、参照病理画像によって訓練され、並びに、参照病理画像に関する位置情報および倍率情報を使用して、拡大病理画像内の1つまたは複数の対象領域を特定し得る。1つの実施形態では、病理データベースはさらに、機械学習アルゴリズムを訓練するために同じ病気の複数の参照病理画像を含む(例えば、データベースは、黒色腫の多くの画像を有し得る)。
[0038] ブロック407は、顕微鏡のユーザに拡大病理画像内の1つまたは複数の対象領域に注意するように警告することを示す。これは、処理装置が音声を出力するようにとの命令をマイクロホンに出力すること、スクリーンの一部を強調表示すること、または器具を動かす(例えば、振動させる)ことを伴い得る。1つの実施形態では、機械学習アルゴリズムは、1つまたは複数の対象領域内の構造の診断を出力する。別の実施形態または同じ実施形態において、機械学習アルゴリズムは、病理データベース内の参照病理画像に基づいて、診断の信頼区間を出力し得る。
[0039] 上述したプロセスは、コンピュータソフトウェアおよびハードウェアの観点から説明されている。記載されている技術は、有形または一時的でない機械(例えば、コンピュータ)可読記憶媒体内で具現化される機械実行可能命令であって、機械によって実行されたときに、記載されている動作を機械に実行させる命令を構成し得る。さらに、プロセスは、例えば、特定用途向け集積回路(「ASIC」)またはそれ以外のハードウェア内で具現化され得る。
[0040] 有形の一時的でない機械可読記憶媒体は、機械(例えば、コンピュータ、ネットワーク装置、携帯情報端末、製造設備、1つまたは複数のプロセッサのセットを有する任意の装置など)によってアクセス可能な形態で情報を備える(すなわち、記憶する)任意な機構を含む。例えば、機械可読記憶媒体は、記録可能/記録不可能な媒体(例えば、読み取り専用メモリ(ROM)、ランダム・アクセス・メモリ(RAM)、磁気ディスク記憶媒体、光学記憶媒体、フラッシュメモリデバイスなど)を含む。
[0041] 要約書内に記載されているものを含む本発明の図示されている実施形態についての上記説明は、包括的であることを意図するものではない、または本発明を記載されている厳密な形態に限定することを意図するものではない。本明細書では本発明の特定の実施形態および実施例が例示を目的として示されているが、当業者が理解するように、本発明の範囲内でさまざまな修正が可能である。
[0042] これらの修正は、上記の詳細な説明に照らして本発明に対して行われ得る。以下の特許請求の範囲で使用される用語は、本発明を本明細書内で開示されている特定の実施形態に限定するものと解釈されるべきではない。むしろ、本発明の範囲は、以下の特許請求の範囲によって完全に決定されるべきであり、特許請求の範囲は、クレーム解釈の確立された原則に従って解釈されるべきである。

Claims (20)

  1. 拡大病理画像を形成するために顕微鏡を用いて病理試料を拡大すること、
    前記顕微鏡に光学的に結合されたデジタルカメラを使用して前記拡大病理画像を記録すること、
    前記拡大病理画像内の1つまたは複数の対象領域を特定するために、前記拡大病理画像を病理データベース内に含まれる参照病理画像と比較すること、および
    前記顕微鏡のユーザに前記拡大病理画像内の前記1つまたは複数の対象領域に注意するように警告すること
    を含む方法。
  2. 前記1つまたは複数の対象領域を特定するのに機械学習アルゴリズムが使用され、前記機械学習アルゴリズムは、前記病理データベース内の前記参照病理画像を使用して前記1つまたは複数の対象領域を特定するように訓練される、請求項1に記載の方法。
  3. 前記病理データベースはさらに、前記病理データベース内の前記参照病理画像に対応する病理医からの注釈を含み、前記機械学習アルゴリズムは、前記参照病理画像と共に前記病理医からの前記注釈を使用して前記拡大病理画像内の前記1つまたは複数の対象領域を特定する、請求項2に記載の方法。
  4. 前記病理データベースはさらに、前記病理データベース内の前記参照病理画像に関するスライド位置情報および倍率情報を含み、前記機械学習アルゴリズムは、前記スライド位置情報および前記倍率情報を使用して前記拡大病理画像内の前記1つまたは複数の対象領域を特定する、請求項3に記載の方法。
  5. 前記ユーザの確認が不十分であると考えられる前記病理試料の部位を特定すること、および、
    前記ユーザの確認が不十分であると考えられる前記部位内の注意対象である可能性がある1つまたは複数の領域を前記ユーザに報告すること
    をさらに含む、請求項2に記載の方法。
  6. 前記機械学習アルゴリズムは、前記ユーザの確認が不十分であると考えられる前記病理試料の前記部位について、前記ユーザが閾値時間の間、前記部位を見ていることに基づいて特定するように訓練される、請求項5に記載の方法。
  7. 確認が不十分であると考えられる前記部位はさらに、凝視検出、前記病理試料上の位置、または前記顕微鏡の倍率レベルの少なくとも1つによって決定される、請求項6に記載の方法。
  8. 前記ユーザに警告することは、前記1つまたは複数の対象領域の特定に応答して、音声、視覚的、または触覚的通知を出力することを含む、請求項1に記載の方法。
  9. 前記ユーザに警告することは、前記1つまたは複数の対象領域内の構造の診断を前記ユーザに伝えることを含む、請求項8に記載の方法。
  10. 前記診断の信頼区間を出力することをさらに含む、請求項9に記載の方法。
  11. 少なくとも1つの機械アクセス可能記憶媒体であって、処理装置によって実行されたときに、
    顕微鏡に光学的に結合されたデジタルカメラから病理試料の拡大病理画像を受信する動作、
    前記拡大病理画像内の1つまたは複数の対象領域を特定するために、前記拡大病理画像を病理データベース内に含まれる参照病理画像と比較する動作、そして
    前記顕微鏡のユーザに前記拡大病理画像内の1つまたは複数の対象領域に注意するように警告する動作
    を含む動作を前記処理装置に実行させる命令を備える少なくとも1つの機械アクセス可能記憶媒体。
  12. 前記拡大病理画像を前記参照病理画像と比較する動作は、機械学習アルゴリズムを使用して前記1つまたは複数の対象領域を特定する動作を含み、前記機械学習アルゴリズムは、前記病理データベースを使用して対象領域を特定するように訓練される、請求項11に記載の少なくとも1つの機械アクセス可能記憶媒体。
  13. 前記病理データベースはさらに、前記病理データベース内の前記参照病理画像に対応する病理医からの注釈を含み、前記機械学習アルゴリズムは、前記参照病理画像と共に前記病理医からの前記注釈を使用して前記拡大病理画像内の前記1つまたは複数の対象領域を特定する、請求項12に記載の少なくとも1つの機械アクセス可能記憶媒体。
  14. 前記1つまたは複数の対象領域内の構造の診断を出力する動作
    を含む動作を前記処理装置に実行させる命令をさらに含む、請求項12に記載の少なくとも1つの機械アクセス可能記憶媒体。
  15. 前記機械学習アルゴリズムを使用して、前記病理データベース内の前記参照病理画像に基づいて前記診断の信頼区間を出力する動作
    を含む動作を前記処理装置に実行させる命令をさらに含む、請求項14に記載の少なくとも1つの機械アクセス可能記憶媒体。
  16. 前記病理データベースはさらに、倍率情報および前記参照病理画像上の位置を特定するための位置情報を含み、前記機械学習アルゴリズムは、前記参照病理画像に関する前記位置情報および前記倍率情報を使用して前記拡大病理画像内の前記1つまたは複数の対象領域を特定する、請求項12に記載の少なくとも1つの機械アクセス可能記憶媒体。
  17. 前記病理データベースはさらに、前記機械学習アルゴリズムを訓練するために同じ病気の複数の参照病理画像を含む、請求項12に記載の少なくとも1つの機械アクセス可能記憶媒体。
  18. 前記ユーザの確認が不十分であると考えられる前記病理試料の部位を特定する動作、および
    確認が不十分であると考えられる前記部位内の注意対象である可能性がある1つまたは複数の領域を前記ユーザに報告する動作
    を含む動作を前記処理装置に実行させる命令をさらに含む、請求項12に記載の少なくとも1つの機械アクセス可能記憶媒体。
  19. 前記ユーザに警告する動作は、スクリーン上の前記1つまたは複数の対象領域を強調表示する動作、またはスピーカから音を出力する動作、または器具を動かす動作の少なくとも1つを含む、請求項11に記載の少なくとも1つの機械アクセス可能記憶媒体。
  20. 前記1つまたは複数の対象領域は、前記病理試料の病変部分または病理試料内の異型細胞の少なくとも1つを含む、請求項11に記載の少なくとも1つの機械アクセス可能記憶媒体。
JP2020213040A 2016-08-12 2020-12-23 高度な病理診断 Active JP7145195B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/235,541 2016-08-12
US15/235,541 US10025902B2 (en) 2016-08-12 2016-08-12 Enhanced pathology diagnosis

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019505009A Division JP6816255B2 (ja) 2016-08-12 2017-08-09 高度な病理診断

Publications (2)

Publication Number Publication Date
JP2021047911A true JP2021047911A (ja) 2021-03-25
JP7145195B2 JP7145195B2 (ja) 2022-09-30

Family

ID=59700191

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019505009A Active JP6816255B2 (ja) 2016-08-12 2017-08-09 高度な病理診断
JP2020213040A Active JP7145195B2 (ja) 2016-08-12 2020-12-23 高度な病理診断

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2019505009A Active JP6816255B2 (ja) 2016-08-12 2017-08-09 高度な病理診断

Country Status (5)

Country Link
US (3) US10025902B2 (ja)
EP (1) EP3497620A1 (ja)
JP (2) JP6816255B2 (ja)
CN (1) CN109564622B (ja)
WO (1) WO2018031674A1 (ja)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6333871B2 (ja) * 2016-02-25 2018-05-30 ファナック株式会社 入力画像から検出した対象物を表示する画像処理装置
US10025902B2 (en) * 2016-08-12 2018-07-17 Verily Life Sciences Llc Enhanced pathology diagnosis
JP6947841B2 (ja) 2017-06-13 2021-10-13 グーグル エルエルシーGoogle LLC 病理学用の拡張現実顕微鏡
ES2905660T3 (es) 2017-06-19 2022-04-11 Viz Ai Inc Procedimiento y sistema para el triaje asistido por ordenador
US10733730B2 (en) 2017-06-19 2020-08-04 Viz.ai Inc. Method and system for computer-aided triage
EP3776458B1 (en) * 2018-04-12 2022-05-04 Google LLC Augmented reality microscope for pathology with overlay of quantitative biomarker data
US10706328B2 (en) * 2018-05-07 2020-07-07 Google Llc Focus-weighted, machine learning disease classifier error prediction for microscope slide images
JP7150866B2 (ja) * 2018-09-28 2022-10-11 株式会社エビデント 顕微鏡システム、投影ユニット、及び、画像投影方法
EP3706128A4 (en) * 2018-11-09 2021-05-12 Lunit Inc. ANNOTATION WORK MANAGEMENT PROCESS AND APPARATUS AND SYSTEM SUPPORTING IT
US10936160B2 (en) * 2019-01-11 2021-03-02 Google Llc System, user interface and method for interactive negative explanation of machine-learning localization models in health care applications
EP3953757A1 (en) 2019-04-08 2022-02-16 Leica Instruments (Singapore) Pte. Ltd. Self-teaching microscope
JP2021124861A (ja) * 2020-02-04 2021-08-30 ソニーグループ株式会社 解析装置、解析方法、解析プログラム及び診断支援システム
WO2021183955A1 (en) 2020-03-13 2021-09-16 PAIGE.AI, Inc. Systems and methods of automatically processing electronic images across regions
US20230122392A1 (en) * 2020-03-30 2023-04-20 Verily Life Sciences Llc Artificial Intelligence-Based Assistant For Concurrent Review Of Needle Core Prostate Biopsies
CN115552309A (zh) * 2020-03-31 2022-12-30 仪景通株式会社 显微镜系统、投影单元以及检卵辅助方法
EP4152250A4 (en) * 2020-05-15 2023-11-15 Sony Group Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD, AND INFORMATION PROCESSING SYSTEM
WO2022044095A1 (ja) * 2020-08-24 2022-03-03 オリンパス株式会社 情報処理装置、学習装置、及び学習済みモデル
JP6908806B1 (ja) * 2020-09-16 2021-07-28 BonBon株式会社 プログラム、情報処理装置、方法
WO2022158908A1 (ko) * 2021-01-22 2022-07-28 주식회사 루닛 병리 이미지 분석 방법 및 시스템
US11694807B2 (en) * 2021-06-17 2023-07-04 Viz.ai Inc. Method and system for computer-aided decision guidance
CN113241184B (zh) * 2021-06-24 2022-07-29 华侨大学 一种儿童肺炎辅助诊断模型及其训练方法
US20230061428A1 (en) * 2021-08-18 2023-03-02 PAIGE.AI, Inc. Systems and methods for processing electronic images with metadata integration
DE102022116407A1 (de) * 2022-06-30 2024-01-04 Ali Eissing-Al-Mukahal System zur Unterstützung eines Nutzers bei der bildbasierten Erkennung einer Gewebeentartung

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05205018A (ja) * 1992-01-29 1993-08-13 Toshiba Corp 画像保管通信システム
JP2005182670A (ja) * 2003-12-24 2005-07-07 Icc Computer System:Kk 遠隔画像閲覧システムおよび遠隔画像閲覧用表示方法
JP2007528746A (ja) * 2003-06-27 2007-10-18 シーメンス メディカル ソリューションズ ユーエスエー インコーポレイテッド Cad(コンピュータ援用決定)プロセスを日常的なcadシステム利用から得られた知識に適合させるために機械学習を利用する医用画像診断用のcad支援
JP2012155455A (ja) * 2011-01-25 2012-08-16 Sony Corp 画像処理装置および方法、並びにプログラム
JP2012523877A (ja) * 2009-04-15 2012-10-11 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 臨床決定支援システム及び方法
JP2016085715A (ja) * 2014-10-29 2016-05-19 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー 医用システム及び医用装置並びにプログラム

Family Cites Families (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2697372B2 (ja) 1991-06-25 1998-01-14 日本電気株式会社 高電力半導体集積回路冷却試験治具
US6005964A (en) 1996-01-24 1999-12-21 The Board Of Trustees Of The University Of Illinois Automatic machine vision microscope slide inspection system and method
US6396941B1 (en) * 1996-08-23 2002-05-28 Bacus Research Laboratories, Inc. Method and apparatus for internet, intranet, and local viewing of virtual microscope slides
US6441958B1 (en) 2001-03-29 2002-08-27 Chak Sing Richard Yeung Digital imaging microscope
JP2003093380A (ja) * 2001-09-25 2003-04-02 Hitachi Medical Corp 読影支援装置
JP2004135868A (ja) * 2002-10-17 2004-05-13 Fuji Photo Film Co Ltd 異常陰影候補検出処理システム
US20040122705A1 (en) * 2002-12-18 2004-06-24 Sabol John M. Multilevel integrated medical knowledge base system and method
US7187790B2 (en) * 2002-12-18 2007-03-06 Ge Medical Systems Global Technology Company, Llc Data processing and feedback method and system
US7116440B2 (en) 2003-02-28 2006-10-03 Aperio Technologies, Inc. Image processing and analysis framework
WO2005121863A1 (en) 2004-06-11 2005-12-22 Nicholas Etienne Ross Automated diagnosis of malaria and other infections
US7958063B2 (en) * 2004-11-11 2011-06-07 Trustees Of Columbia University In The City Of New York Methods and systems for identifying and localizing objects based on features of the objects that are mapped to a vector
US7573439B2 (en) * 2004-11-24 2009-08-11 General Electric Company System and method for significant image selection using visual tracking
EP1839264A2 (en) * 2005-01-18 2007-10-03 Trestle Corporation System and method for creating variable quality images of a slide
JP4624841B2 (ja) * 2005-04-13 2011-02-02 オリンパスメディカルシステムズ株式会社 画像処理装置および当該画像処理装置における画像処理方法
CN1891155A (zh) * 2006-05-26 2007-01-10 北京思创贯宇科技开发有限公司 一种基于ct图像的组织成分分析方法
US8189855B2 (en) * 2007-08-31 2012-05-29 Accenture Global Services Limited Planogram extraction based on image processing
JP4558047B2 (ja) 2008-01-23 2010-10-06 オリンパス株式会社 顕微鏡システム、画像生成方法、及びプログラム
JP2010035756A (ja) * 2008-08-04 2010-02-18 Fujifilm Corp 診断支援装置及び診断支援方法
JP5321145B2 (ja) 2009-03-04 2013-10-23 日本電気株式会社 画像診断支援装置、画像診断支援方法、画像診断支援プログラム、及びその記憶媒体
JP4676021B2 (ja) * 2009-04-16 2011-04-27 富士フイルム株式会社 診断支援装置、診断支援プログラムおよび診断支援方法
RU2553078C2 (ru) * 2009-04-28 2015-06-10 Конинклейке Филипс Электроникс Н.В. Способ микродиссекции и система обработки информации
CN102656586B (zh) * 2009-12-18 2016-08-17 皇家飞利浦电子股份有限公司 将采集的图像与对象相关联的方法和系统
DE102010008243B4 (de) * 2010-02-17 2021-02-11 Siemens Healthcare Gmbh Verfahren und Vorrichtung zur Ermittlung der Vaskularität eines sich in einem Körper befindlichen Objektes
US8311279B2 (en) 2010-02-23 2012-11-13 Fuji Xerox Co., Ltd. System and method for improved image analysis through gaze data feedback
CN102253922B (zh) * 2010-05-18 2013-07-03 北京普利生仪器有限公司 远程分析病理切片的方法
US8600143B1 (en) 2010-05-20 2013-12-03 Kla-Tencor Corporation Method and system for hierarchical tissue analysis and classification
US8315812B2 (en) * 2010-08-12 2012-11-20 Heartflow, Inc. Method and system for patient-specific modeling of blood flow
JP5556674B2 (ja) * 2011-01-12 2014-07-23 コニカミノルタ株式会社 医用画像表示装置及びプログラム
WO2013008121A1 (en) 2011-07-13 2013-01-17 Koninklijke Philips Electronics N.V. Method for automatically adjusting a focal plane of a digital pathology image
ES2953897T3 (es) 2012-05-02 2023-11-16 Leica Biosystems Imaging Inc Enfoque en tiempo real en imagenología de exploración lineal
WO2013175683A1 (ja) * 2012-05-24 2013-11-28 日本電気株式会社 病理診断結果判定システム、病理診断結果判定方法および病理診断結果判定装置
US9575304B2 (en) 2012-06-25 2017-02-21 Huron Technologies International Inc. Pathology slide scanners for fluorescence and brightfield imaging and method of operation
US10354049B2 (en) * 2012-08-22 2019-07-16 Koninklijke Philips N.V. Automatic detection and retrieval of prior annotations relevant for an imaging study for efficient viewing and reporting
US9710695B2 (en) 2013-03-15 2017-07-18 Sony Corporation Characterizing pathology images with statistical analysis of local neural network responses
FR3024540B1 (fr) * 2014-07-29 2018-02-16 L'air Liquide, Societe Anonyme Pour L'etude Et L'exploitation Des Procedes Georges Claude Debitmetre utilise pour le dosage de l'energie apportee a un procede utilisant un fluide cryogenique
AU2015331579A1 (en) * 2014-10-17 2017-05-25 Cireca Theranostics, Llc Methods and systems for classifying biological samples, including optimization of analyses and use of correlation
CN105550651B (zh) * 2015-12-14 2019-12-24 中国科学院深圳先进技术研究院 一种数字病理切片全景图像自动分析方法及系统
US10025902B2 (en) * 2016-08-12 2018-07-17 Verily Life Sciences Llc Enhanced pathology diagnosis

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05205018A (ja) * 1992-01-29 1993-08-13 Toshiba Corp 画像保管通信システム
JP2007528746A (ja) * 2003-06-27 2007-10-18 シーメンス メディカル ソリューションズ ユーエスエー インコーポレイテッド Cad(コンピュータ援用決定)プロセスを日常的なcadシステム利用から得られた知識に適合させるために機械学習を利用する医用画像診断用のcad支援
JP2005182670A (ja) * 2003-12-24 2005-07-07 Icc Computer System:Kk 遠隔画像閲覧システムおよび遠隔画像閲覧用表示方法
JP2012523877A (ja) * 2009-04-15 2012-10-11 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 臨床決定支援システム及び方法
JP2012155455A (ja) * 2011-01-25 2012-08-16 Sony Corp 画像処理装置および方法、並びにプログラム
JP2016085715A (ja) * 2014-10-29 2016-05-19 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー 医用システム及び医用装置並びにプログラム

Also Published As

Publication number Publication date
US10262757B2 (en) 2019-04-16
CN109564622A (zh) 2019-04-02
WO2018031674A1 (en) 2018-02-15
CN109564622B (zh) 2023-09-01
US20180046759A1 (en) 2018-02-15
EP3497620A1 (en) 2019-06-19
US20190198160A1 (en) 2019-06-27
JP7145195B2 (ja) 2022-09-30
US11501871B2 (en) 2022-11-15
US10025902B2 (en) 2018-07-17
JP2019533847A (ja) 2019-11-21
JP6816255B2 (ja) 2021-01-20
US20180301217A1 (en) 2018-10-18

Similar Documents

Publication Publication Date Title
JP6816255B2 (ja) 高度な病理診断
US10545327B2 (en) Pathology data capture
CN111936989A (zh) 相似医学图像搜索
Drukker et al. Transforming obstetric ultrasound into data science using eye tracking, voice recording, transducer motion and ultrasound video
US11527321B2 (en) Augmented reality for predictive workflow in an operating room
WO2020121308A9 (en) Systems and methods for diagnosing a stroke condition
JP2008079770A (ja) 読影支援装置、読影支援方法及びプログラム
JP7313942B2 (ja) 評価支援方法、評価支援システム、プログラム
JP2021026447A (ja) 医用情報処理装置、医用情報処理方法および電子カルテシステム
CN116187448A (zh) 一种信息展示的方法、装置、存储介质及电子设备
US11868504B2 (en) Ownership determination in privacy firewalls
CN108765413B (zh) 用于图像分类的方法、装置及计算机可读介质
US20230266819A1 (en) Annotation data collection using gaze-based tracking
Liu et al. Computer-aided detection and quantification of endolymphatic hydrops within the mouse cochlea in vivo using optical coherence tomography
Taksoee-Vester et al. AI supported fetal echocardiography with quality assessment
US20230099284A1 (en) System and method for prognosis management based on medical information of patient
Yamaguchi et al. Clinical study of skill assessment based on time sequential measurement changes
Wijesiriwardana Machine learning and clinical medicine
Matsumoto et al. Laparoscopic distal gastrectomy skill evaluation from video: a new artificial intelligence-based instrument identification system
Mancini et al. Promoting Fairness and Diversity in Speech Datasets for Mental Health and Neurological Disorders Research
Mishra et al. Application and fallibility of Artificial Intelligence and machine learning in Diagnostic Pathology.
KR20240004642A (ko) 전자 이미지를 프로세싱하여 속성을 식별하는 시스템 및 방법
CN114305503A (zh) 乳腺疾病随访系统、介质及电子设备
Evered et al. Attentional and perceptual processes in a medical image interpretation task
Kuru et al. Machine Learning Based Genetic Decision Making Methodology Using Genotype-Phenotype Mapping

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201228

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220513

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220901

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220916

R150 Certificate of patent or registration of utility model

Ref document number: 7145195

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150