JP7413216B2 - 学習装置、方法およびプログラム、学習済みモデル、並びに放射線画像処理装置、方法およびプログラム - Google Patents

学習装置、方法およびプログラム、学習済みモデル、並びに放射線画像処理装置、方法およびプログラム Download PDF

Info

Publication number
JP7413216B2
JP7413216B2 JP2020154638A JP2020154638A JP7413216B2 JP 7413216 B2 JP7413216 B2 JP 7413216B2 JP 2020154638 A JP2020154638 A JP 2020154638A JP 2020154638 A JP2020154638 A JP 2020154638A JP 7413216 B2 JP7413216 B2 JP 7413216B2
Authority
JP
Japan
Prior art keywords
surgical tool
image
learning
radiation
learning device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020154638A
Other languages
English (en)
Other versions
JP2022048676A (ja
Inventor
紳 浜渦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2020154638A priority Critical patent/JP7413216B2/ja
Priority to US17/469,618 priority patent/US12039005B2/en
Publication of JP2022048676A publication Critical patent/JP2022048676A/ja
Application granted granted Critical
Publication of JP7413216B2 publication Critical patent/JP7413216B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/12Arrangements for detecting or locating foreign bodies
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/40ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • G06V2201/034Recognition of patterns in medical or anatomical images of medical instruments

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Theoretical Computer Science (AREA)
  • Radiology & Medical Imaging (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Pathology (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Quality & Reliability (AREA)
  • Human Computer Interaction (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Urology & Nephrology (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Description

本開示は、学習装置、方法およびプログラム、学習済みモデル、並びに放射線画像処理装置、方法およびプログラムに関するものである。
患者の外科的手術を行う際には、出血を抑えるためのガーゼ、傷口または切開部分を縫うための糸と縫合針、切開のためのメスおよび鋏、血液を排出するためのドレイン、並びに切開部分を開くための鉗子等の様々な手術用具が使用される。このような手術用具は、手術後に患者の体内に残存していると、重篤な合併症を発生する恐れがある。したがって、手術後は患者の体内に手術用具が残存していないことを確認する必要がある。
このため、ガーゼの画像の特徴を機械学習した学習済みモデルを判別器として用意し、手術野をカメラにより撮影することにより取得した画像を判別器に入力して、ガーゼの有無を判別する手法が提案されている(特許文献1参照)。
また、放射線画像からステント等の対象物を含む周辺領域を切り出して得られた画像部分を対象物の正解画像とし、正解画像と対象物以外の不正解画像とを教師データとして学習した判別器を用いて、放射線画像から画像認識により対象物を検出する手法も提案されている(特許文献2参照)。
特開2018-068863号公報 特開2017-185007号公報
しかしながら、ガーゼは血に染まるため、カメラにより取得した画像ではガーゼを発見することは判別器を用いたとしても困難である。また、縫合針のように小さな手術用具は、内臓の間に入り込んでしまう可能性があるため、カメラにより取得した画像では、判別器を用いたとしても発見することは困難である。一方、特許文献2に記載された手法において、ガーゼ等の手術用具を対象物として使用することによって学習された判別器を用いることにより、放射線画像から対象物を検出することができる。しかしながら、判別器の学習のために必要な、対象物が残存した放射線画像は極めて稀であるため、判別器の学習のために大量に収集することは困難である。その結果、判別器となる学習モデルを十分に学習することができない。
本開示は上記事情に鑑みなされたものであり、十分に学習された学習済みモデルを構築できるようにすることを目的とする。
本開示による学習装置は、少なくとも1つのプロセッサを備え、
プロセッサは、手術用具を含まない複数の放射線画像、および手術用具を含む複数の手術用具画像のそれぞれを、単独で教師データとして用いた機械学習を行うことにより、入力された放射線画像から手術用具の領域を検出するための学習済みモデルを構築する。
なお、本開示による学習装置においては、手術用具画像は、手術用具のみを放射線撮影することにより取得した放射線画像であってもよい。
また、本開示による学習装置においては、手術用具画像は、放射線撮影以外の手法により取得されてなり、放射線撮影された画像に相当する画質を有するものであってもよい。
また、本開示による学習装置においては、プロセッサは、手術用具の3次元モデルを予め定められたパラメータにしたがって2次元に投影することにより、手術用具画像を導出するものであってもよい。
また、本開示による学習装置においては、プロセッサは、手術用具画像における手術用具のコントラスト、手術用具画像における手術用具の濃度、および手術用具画像に含まれるノイズの少なくとも1つに応じて、パラメータを設定するものであってもよい。
また、本開示による学習装置においては、手術用具は、ガーゼ、メス、鋏、ドレイン、縫合針、糸および鉗子の少なくとも1つを含むものであってもよい。
この場合、ガーゼは、放射線吸収糸を少なくとも一部に含むものであってもよい。
本開示による学習済みモデルは、本開示による学習装置により構築されてなる。
本開示による放射線画像処理装置は、少なくとも1つのプロセッサを備え、
プロセッサは、放射線画像を取得し、
本開示による学習装置により構築された学習済みモデルを用いて放射線画像から手術用具の領域を検出する。
本開示による学習方法は、手術用具を含まない複数の放射線画像、および手術用具を含む複数の手術用具画像のそれぞれを、単独で教師データとして用いた機械学習を行うことにより、入力された放射線画像から手術用具の領域を検出するための学習済みモデルを構築する。
本開示による放射線画像処理方法は、放射線画像を取得し、
本開示による学習装置により構築された学習済みモデルを用いて放射線画像から手術用具の領域を検出する。
なお、本開示による学習方法および放射線画像処理方法をコンピュータに実行させるためのプログラムとして提供してもよい。
本開示によれば、十分に学習された学習済みモデルを構築できる。
本開示の実施形態による学習装置および放射線画像処理装置を適用した放射線画像撮影システムの構成を示す概略ブロック図 本実施形態による放射線画像処理装置の概略構成を示す図 本実施形態による放射線画像処理装置の機能的な構成を示す図 教師データとして用いる放射線画像を示す図 手術用具としてのガーゼの画像を示す図 教師データとして用いる手術用具画像を示す図 手術用具画像の導出を説明するための図 手術用具画像における正解データを説明するための図 学習モデルの機械学習を概念的に示す図 手術用具が検出された場合の対象放射線画像の表示画面を示す図 手術用具が検出されなかった場合の対象放射線画像の表示画面を示す図 本実施形態における学習処理のフローチャート 本実施形態における検出処理のフローチャート
以下、図面を参照して本開示の実施形態について説明する。図1は、本開示の実施形態による学習装置および放射線画像処理装置を適用した放射線画像撮影システムの構成を示す概略ブロック図である。図1に示すように、本実施形態による放射線画像撮影システム100は、外科的手術を行った後の、患者である被写体の放射線画像を取得して、放射線画像に含まれる手術用具を検出するためのものである。本実施形態による放射線画像撮影システム100は、撮影装置1、コンソール2、画像保存システム6および放射線画像処理装置7を備える。
撮影装置1は、X線源等の放射線源4から発せられ、被写体Hを透過した放射線を放射線検出器5に照射することにより、手術台3に仰臥した被写体Hの放射線画像を取得するための撮影装置である。放射線画像はコンソール2に入力される。
また、放射線検出器5は、可搬型の放射線検出器であり、手術台3に設けられた取付部3Aにより手術台3に取り付けられている。なお、放射線検出器5は、手術台3に固定されたものであってもよい。
コンソール2は、無線通信LAN(Local Area Network)等のネットワークを介して、不図示のRIS(Radiology Information System)等から取得した撮影オーダおよび各種情報と、技師等により直接行われた指示等とを用いて、撮影装置1の制御を行う機能を有している。一例として、本実施形態では、サーバコンピュータをコンソール2として用いている。
画像保存システム6は、撮影装置1により撮影された放射線画像の画像データを保存するシステムである。画像保存システム6は、保存している放射線画像から、コンソール2および放射線画像処理装置7等からの要求に応じた画像を取り出して、要求元の装置に送信する。画像保存システム6の具体例としては、PACS(Picture Archiving and Communication Systems)が挙げられる。
次に、本実施形態に係る放射線画像処理装置について説明する。なお、本実施形態による放射線画像処理装置7は、本実施形態による学習装置を内包するものであるが、以降の説明においては、放射線画像処理装置にて代表させるものとする。
まず、図2を参照して、本実施形態による放射線画像処理装置のハードウェア構成を説明する。図2に示すように、放射線画像処理装置7は、ワークステーション、サーバコンピュータおよびパーソナルコンピュータ等のコンピュータであり、CPU(Central Processing Unit)11、不揮発性のストレージ13、および一時記憶領域としてのメモリ16を備える。また、放射線画像処理装置7は、液晶ディスプレイ等のディスプレイ14、キーボードおよびマウス等の入力デバイス15、並びにネットワークに接続されるネットワークI/F(InterFace)17を備える。CPU11、ストレージ13、ディスプレイ14、入力デバイス15、メモリ16およびネットワークI/F17は、バス18に接続される。なお、CPU11は、本開示におけるプロセッサの一例である。
ストレージ13は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、およびフラッシュメモリ等によって実現される。記憶媒体としてのストレージ13には、放射線画像処理装置7にインストールされた学習プログラム21および放射線画像処理プログラム22が記憶される。CPU11は、ストレージ13から学習プログラム21および放射線画像処理プログラム22を読み出してからメモリ16に展開し、展開した学習プログラム21および放射線画像処理プログラム22を実行する。
なお、学習プログラム21および放射線画像処理プログラム22は、ネットワークに接続されたサーバコンピュータの記憶装置、あるいはネットワークストレージに、外部からアクセス可能な状態で記憶され、要求に応じて放射線画像処理装置7を構成するコンピュータにダウンロードされ、インストールされる。または、DVD(Digital Versatile Disc)、CD-ROM(Compact Disc Read Only Memory)等の記録媒体に記録されて配布され、その記録媒体から放射線画像処理装置7を構成するコンピュータにインストールされる。
次いで、本実施形態による放射線画像処理装置の機能的な構成を説明する。図3は、本実施形態による放射線画像処理装置の機能的な構成を示す図である。図3に示すように,放射線画像処理装置(学習装置)7は、画像取得部31、導出部32、学習部33、検出部34および表示制御部35を備える。そして、CPU11が、学習プログラム21および放射線画像処理プログラム22を実行することにより、画像取得部31、導出部32、学習部33、検出部34および表示制御部35として機能する。
なお、画像取得部31、導出部32および学習部33が、本実施形態による学習装置の一例である。画像取得部31、検出部34および表示制御部35が、本実施形態による放射線画像処理装置7の一例である。
画像取得部31は、画像保存システム6からネットワークI/F17を介して、手術用具を含まない複数の放射線画像G0を、後述する学習モデルM0を学習するための教師データとして取得する。図4は放射線画像G0を示す図である。なお、図4は人体の胸部を対象部位とした放射線画像G0を示すが、放射線画像G0に含まれる対象部位はこれに限定されるものではない。また、画像取得部31は、放射線源4を駆動して手術後の被写体Hに放射線を照射し、被写体Hを透過した放射線を放射線検出器5により検出することにより、手術用具の検出処理の対象となる対象放射線画像T0も取得する。
また、画像取得部31は、学習モデルM0を学習するための教師データとして、手術用具を表す複数の手術用具画像E0も画像保存システム6から取得する。手術用具画像E0は、手術用具を放射線撮影することにより取得された画像であってもよく、放射線撮影以外の手法により取得された画像であってもよい。手術用具画像E0が放射線撮影以外の手法により取得されたものである場合、放射線撮影された画像に相当する画質を有するものであることが好ましい。
放射線撮影以外の手法により取得された手術用具画像E0は、コンピュータグラフィックス等により作成された手術用具を表す3次元モデルを、予め定められたパラメータにより2次元に投影した画像である。手術用具画像E0は、画像保存システム6に保存されたものを取得するようにしてもよいが、本実施形態においては、手術用具を表す3次元モデルを画像保存システム6から取得し、後述する導出部32において3次元モデルから手術用具画像E0を導出するようにしてもよい。
ここで、本実施形態においては、手術用具として、ガーゼを用いるものとする。図5はガーゼを示す図である。図5に示すように、ガーゼ40は綿糸が平織りされてなる生地であり、その一部に放射線吸収糸41が織り込まれている。綿糸は放射線を透過するが、放射線吸収糸41は放射線を吸収する。このため、ガーゼ40を放射線撮影することにより取得される放射線画像には、線状の放射線吸収糸41のみが含まれる。ここで、手術の際には、出血を吸収するために、ガーゼ40は丸められて人体内に挿入される。このため、手術用具画像E0を放射線撮影以外の手法により取得する場合、ガーゼが適宜丸められた状態の3次元モデルを2次元に投影することにより手術用具画像E0を取得する。なお、手術用具画像E0を放射線撮影により取得する場合、実際にガーゼ40を使用する際の態様と一致させるために、ガーゼを適宜丸めて撮影することにより、手術用具画像E0を取得すればよい。
図6は手術用具画像E0を示す図である。手術用具画像E0における放射線吸収糸41の領域は、放射線吸収糸41による放射線の減弱量に相当する。このため、手術用具画像E0においては、ガーゼ40に含まれる放射線吸収糸41は高輝度(低濃度)となる。
導出部32は、手術用具の3次元モデル(本実施形態においては丸めたガーゼ40の3次元モデル)を、予め定められたパラメータにしたがって2次元に投影することにより、手術用具画像E0を導出する。図7は手術用具画像E0の導出を説明するための図である。図7に示すように、導出部32は、ガーゼの3次元モデル44を任意の視線方向45にある2次元平面46に投影することにより、手術用具画像E0を導出する。なお、手術用具画像E0の背景は、予め定められた濃度とすればよい。例えば、放射線画像が取り得る濃度の中間値、あるいは複数の放射線画像の平均濃度等とすればよい。
なお、導出部32は、導出される手術用具画像E0における手術用具のコントラスト、手術用具画像E0における手術用具の濃度、および手術用具画像E0に含まれるノイズの少なくとも1つに応じて、パラメータを設定する。
ここで、手術用具の放射線吸収率が高ければ、手術用具を放射線撮影することにより取得される放射線画像(以下、手術用具放射線画像とする)において、手術用具のコントラストが高くなる。例えば、手術用具が縫合針、鋏およびメスのような金属の場合、放射線吸収糸41よりも手術用具放射線画像におけるコントラストが高くなる。すなわち、手術用具放射線画像において、背景と手術用具との濃度差が大きくなる。このため、導出部32は、放射線吸収率に応じたコントラストを有する手術用具画像E0が導出されるように、背景と手術用具との濃度差をパラメータとして設定する。そして、導出部32には設定したパラメータにしたがって、手術用具の3次元モデルを2次元に投影して手術用具画像E0を導出する。これにより、設定されたパラメータにしたがったコントラストを有する手術用具画像E0が導出される。
また、放射線画像は、被写体による放射線散乱によりコントラストが低下する。放射線の散乱は、被写体の体厚が大きいほどその影響が大きくなる。また、被写体の体厚が大きいほど放射線画像に含まれる被写体領域の濃度は小さくなる。このため、放射線画像は被写体の体厚に応じた濃度を有するものとなる。
また、放射線源4に印加される管電圧が高く、放射線が高エネルギーであるほど、放射線が被写体Hを透過する過程において、放射線の低エネルギー成分が被写体Hに吸収され、放射線が高エネルギー化するビームハードニングが生じる。ビームハードニングが生じると、放射線画像におけるコントラストが低下する。また、ビームハードニングによる放射線の高エネルギー化は、被写体Hの体厚が大きいほど大きくなる。また、被写体Hの体厚が大きいほど放射線画像に含まれる被写体領域の濃度は小さくなる。
したがって、導出部32は、手術用具画像E0に含まれる手術用具が様々な濃度を有するものとなるように、手術用具画像E0に含まれる手術用具の濃度をパラメータとして設定する。そして、導出部32には設定したパラメータにしたがって、手術用具の3次元モデルを2次元に投影して手術用具画像E0を導出する。これにより、設定されたパラメータにしたがった濃度を有する手術用具画像E0が導出される。
また、被写体Hを撮影する際の撮影条件における放射線量が小さいと、放射線画像に含まれるノイズが多くなる。このため、導出部32は、3次元モデルを2次元に投影する際にノイズを加算することにより手術用具画像E0を導出する。この場合、導出部32は、加算されるノイズ量をパラメータとして設定する。そして、導出部32には設定したパラメータにしたがって、手術用具の3次元モデルを2次元に投影して手術用具画像E0を導出する。これにより、設定されたパラメータにしたがったノイズを有する手術用具画像E0が導出される。
なお、本実施形態においては、各種パラメータを予め用意してストレージ13に保存しておき、導出部32が保存された各種パラメータをストレージ13から読み出して、手術用具画像E0の導出に用いるようにすればよい。なお、パラメータの設定は、ユーザが入力デバイス15から入力することにより行うようにしてもよい。
本実施形態においては、導出部32は、後述する学習モデルの学習のために、丸め方が異なるガーゼ40の3次元モデルを様々な方向から2次元に投影したり、パラメータを変更したりして、複数の手術用具画像E0を導出する。なお、手術用具の3次元モデルであるガーゼ40の丸め方の変更は、ガーゼの3次元モデルをディスプレイ14に表示し,入力デバイス15からの指示により行うようにすればよい。
学習部33は、放射線画像G0および手術用具画像E0のそれぞれを、単独で教師データとして用いて学習モデルM0を学習する。ここで、手術用具画像E0においては、図6に示すように、画像全体に亘って手術用具が含まれるものではない。このため、本実施形態においては、手術用具画像E0を教師データとして使用する際に、図8に示すように、手術用具画像E0内における手術用具を囲む領域47の左上隅の座標P1(x1,y1)および右下隅の座標P2(x2,y2)を正解データとして使用する。なお、正解データは、手術用具画像E0内における手術用具を囲む領域47の左下隅および右上隅の座標であってもよい。
学習モデルM0としては、機械学習モデルを用いることができる。機械学習モデルの一例として、ニューラルネットワークモデルが挙げられる。ニューラルネットワークモデルとしては、単純パーセプトロン、多層パーセプトロン、ディープニューラルネットワーク、畳み込みニューラルネットワーク、ディープビリーフネットワーク、リカレントニューラルネットワーク、および確率的ニューラルネットワーク等が挙げられる。本実施形態においては、学習モデルM0として畳み込みニューラルネットワークを用いるものとする。
図9は学習部33が行う学習モデルM0の機械学習を概念的に示す図である。本実施形態においては、複数の放射線画像G0(G1,G2,G3…)および複数の手術用具画像E0(E1,E2,E3…)のそれぞれが単独で教師データとして使用される。すなわち、機械学習に際して、放射線画像G0および手術用具画像E0のそれぞれが単独で学習モデルM0に入力される。なお、手術用具画像E0に対しては、画像内の手術用具の領域の左上隅および右下隅を規定する正解データ((x1,y1)、(x2,y2))が教師データに含まれる。
学習モデルM0は、画像が入力されると、画像の各画素が手術用具の領域であることの確率を出力するように学習がなされる。確率は0以上1以下の値となる。学習モデルM0が出力した、確率が予め定められたしきい値以上となる画素からなる領域が手術用具の領域となる。学習部33は、教師データを学習モデルM0に入力し、手術用具の領域となる確率を出力させる。そして、学習モデルM0が出力した予め定められたしきい値以上となる確率となる画素からなる領域と、教師データに含まれる正解データにより表される領域との相違を損失として導出する。
ここで、学習モデルM0に放射線画像G0が教師データとして入力された場合、放射線画像G0には手術用具は含まれない。このため、手術用具の領域となる確率は0となるべきである。しかしながら、学習が完了していない学習モデルM0からは、手術用具の領域となる確率が0より大きい値を持って出力される。このため、放射線画像G0が教師データとして入力された場合、各画素について出力される確率と0との差が損失となる。
一方、学習モデルM0に手術用具画像E0が教師データとして入力された場合、手術用具画像E0には手術用具が含まれる。このため、手術用具画像E0において正解データにより規定される領域内の画素についての手術用具の領域となる確率は1となるべきである。しかしながら、学習が完了していない学習モデルM0からは、手術用具の領域となる確率が1より小さい値を持って出力される。このため、手術用具画像E0が教師データとして入力された場合、各画素について出力される確率と1との差が損失となる。
学習部33は、損失に基づいて学習モデルM0を学習する。具体的には、損失を小さくするように、畳み込みニューラルネットワークにおけるカーネルの係数およびニューラルネットワークの結合の重み等を導出する。学習部33は、損失が予め定められたしきい値以下となるまで学習を繰り返す。これによって、放射線画像G0が入力された場合は画像全体に亘って手術用具の領域であることの確率が0に近づくように、学習済みモデルM1が構築される。また、手術用具画像E0が入力された場合は、正解データにより規定される領域において手術用具の領域であることの確率が1に近づくように、学習済みモデルM1が構築される。構築された学習済みモデルM1は、メモリ16に記憶される。
このようにして構築された学習済みモデルM1に、手術用具を含む放射線画像が入力されると、学習済みモデルM1は、放射線画像内の手術用具の領域内の画素については1に近い確率を出力し、それ以外の領域の画素については0に近い確率を出力するようになる。
検出部34は、学習済みモデルM1を用いて、手術用具の検出処理の対象となる対象放射線画像T0から手術用具の領域を検出する。具体的には、対象放射線画像T0の各画素について、学習済みモデルM1から出力された確率が予め定められたしきい値Th1以上となる画素からなる領域を手術用具の領域として検出する。なお、対象放射線画像T0のすべての画素について、学習済みモデルM1から出力された確率がしきい値Th1未満である場合には、検出部34は、対象放射線画像T0には手術用具が含まれない旨の検出結果を出力する。
表示制御部35は、検出部34が対象放射線画像T0から検出した手術用具の領域を強調して、対象放射線画像T0をディスプレイ14に表示する。図10は放射線画像の表示画面を示す図である。図10に示すように、表示画面50には対象放射線画像T0が表示されており、対象放射線画像T0に含まれる手術用具の領域51を矩形領域52で囲むことにより、手術用具の領域51が強調されている。なお、図10においては矩形領域52を白抜きにて示しているが、色を付与してもよい。なお、矩形領域52の付与に代えて、手術用具の領域付近に矢印および星印等のマークを付与することにより、手術用具の領域を強調してもよい。また、手術用具の領域をマスクすることにより、手術用具の領域51を強調してもよい。なお、マスクには色を付与するようにしてもよい。
なお、手術用具の領域を強調した対象放射線画像T0を表示する際には、対象放射線画像T0を観察しやすくするために、階調変換処理および濃度変換処理等の表示用の画像処理を対象放射線画像T0に対して施すようにしてもよい。表示用の画像処理は、表示制御部35が行ってもよく、表示用の画像処理を行うための画像処理部を別途設けるようにしてもよい。
なお、検出部34が対象放射線画像T0から手術用具の領域を検出しなかった場合、表示制御部35は、その旨を通知する。図11は、手術用具が検出されなかった場合の対象放射線画像T0の表示画面を示す図である。図11に示すように、表示画面60には、対象放射線画像T0に重畳して、「手術用具は検出されませんでした。」の通知61が表示される。なお、通知61に代えて、手術用具が検出されなかったことを表すアイコンおよびマーク等を表示してもよい。また、入力デバイス15からの指示により、通知61の表示のオンおよびオフを切り替え可能としてもよい。
次いで、本実施形態において行われる処理について説明する。図12は本実施形態において行われる学習処理のフローチャートである。学習部33が、放射線画像G0および手術用具画像E0並びに手術用具画像E0における手術用具の領域を規定する正解データを教師データとして取得する(ステップST11)。そして、学習部33は、放射線画像G0および手術用具画像E0のそれぞれを単独で教師データとして用いて学習モデルM0を学習し(ステップST12)、ステップST11にリターンする。そして、学習部33は、損失が予め定められたしきい値となるまで、ステップST11,ST12の処理を繰り返し、学習を終了する。なお、学習部33は、予め定められた回数学習を繰り返すことにより、学習を終了するものであってもよい。これにより、学習部33は、学習済みモデルM1を構築する。
次いで、本実施形態における手術用具の領域の検出処理について説明する。図13は本実施形態において行われる検出処理のフローチャートである。画像取得部31が、検出対象となる対象放射線画像T0を取得し(ステップST21)、検出部34が、学習済みモデルM1を用いて対象放射線画像T0から手術用具の領域を検出する(ステップST22)。対象放射線画像T0から手術用具の領域が検出されると(ステップST23:YES)、表示制御部35が、手術用具の領域を強調した対象放射線画像T0をディスプレイ14に表示し(ステップST24)、処理を終了する。一方、ステップST23が否定されると、表示制御部35は、手術用具の領域が検出されなかった旨の通知を行い(ステップST25)、処理を終了する。
ここで、学習モデルM0の学習に必要な、手術用具が残存した放射線画像は極めて稀であるため、学習モデルM0の学習のために大量に収集することは困難である。本実施形態においては、手術用具を含まない複数の放射線画像G0、および手術用具を含み放射線撮影された画像に相当する画質を有する複数の手術用具画像E0のそれぞれを、単独で教師データとして用いた機械学習を行うことにより、学習済みモデルM1を構築するようにした。このため、十分な数の教師データを用意することができることから、学習済みモデルM1を十分に学習することができ、その結果、手術用具の検出精度が高い学習済みモデルM1を構築することができる。
また、放射線画像G0を単独で教師データとして用いているため、手術用具を含む放射線画像を教師データとして用いる場合と比較して、放射線画像G0に含まれる被写体Hの構造が手術用具に邪魔されることなく、学習モデルM0の学習を行うことができる。また、手術用具画像E0を単独で教師データとして用いているため、手術用具を含む放射線画像を教師データとして用いる場合と比較して、手術用具の形状が放射線画像に含まれる被写体の構造に邪魔されることなく、学習モデルM0の学習を行うことができる。このため、手術用具の検出精度がより高い学習済みモデルM1を構築することができる。
また、本実施形態においては、手術用具を含まない複数の放射線画像G0および複数の手術用具画像E0のそれぞれを、単独で教師データとして用いた機械学習を行うことにより構築された、学習済みモデルM1を用いて、対象放射線画像T0から手術用具の領域を検出するようにした。このため、対象放射線画像T0から手術用具の領域を精度よく検出することができる。また、検出結果を参照することにより、患者の体内に手術用具が残存していないかを確実に確認することができる。したがって、本実施形態によれば、手術後における手術用具の患者体内の残存を確実に防止できる。
また、手術用具画像における手術用具のコントラスト、手術用具画像における手術用具の濃度、および手術用具画像に含まれるノイズの少なくとも1つに応じて、手術用具の3次元モデルを2次元に投影する際のパラメータを設定するようにした。このため、放射線撮影以外の手法により取得された手術用具画像E0を、放射線撮影したかのような様々な画質を有するものとすることができる。
なお、上記実施形態においては、手術用具としてガーゼを検出の対象としているが、これに限定されるものではない。メス、鋏、ドレイン、縫合針、糸および鉗子等の手術の際に使用する任意の手術用具を検出の対象とすることができる。この場合、手術用具を含む手術用具画像E0は、手術用具の3次元モデルを予め定められたパラメータにしたがって2次元に投影することにより導出すればよい。また、手術用具画像E0は、対象となる手術用具を放射線撮影することにより取得してもよい。また、学習部33は、対象となる手術用具を検出するように学習モデルM0の機械学習を行えばよい。なお、学習モデルM0を複数チャンネルの検出を行うように学習することにより、1種類の手術用具のみならず、複数種類の手術用具を判別するように、学習済みモデルM1を構築することも可能である。
また、上記実施形態においては、放射線は、とくに限定されるものではなく、X線の他、α線またはγ線等を適用することができる。
また、上記実施形態において、例えば、画像取得部31、導出部32、学習部33、検出部34および表示制御部35といった各種の処理を実行する処理部(Processing Unit)のハードウェア的な構造としては、次に示す各種のプロセッサ(Processor)を用いることができる。上記各種のプロセッサには、上述したように、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPUに加えて、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device :PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
1つの処理部は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせまたはCPUとFPGAとの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。
複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントおよびサーバ等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアとの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサの1つ以上を用いて構成される。
さらに、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子等の回路素子を組み合わせた電気回路(Circuitry)を用いることができる。
1 撮影装置
2 コンソール
3 手術台
3A 取付部
4 放射線源
5 放射線検出器
6 画像保存システム
7 放射線画像処理装置
11 CPU
13 ストレージ
14 ディスプレイ
15 入力デバイス
16 メモリ
17 ネットワークI/F
18 バス
21 学習プログラム
22 放射線画像処理プログラム
31 画像取得部
32 導出部
33 学習部
34 検出部
35 表示制御部
40 ガーゼ
41 放射線吸収糸
44 ガーゼの3次元モデル
45 視線方向
46 2次元平面
47 領域
50 表示画面
51 手術用具の領域
52 矩形領域
60 表示画面
61 通知
100 放射線画像撮影システム
C0 正解データ
E0、E1、E2、E3 手術用具画像
G0、G1、G2、G3 放射線画像
H 被写体
M0 学習モデル
M1 学習済みモデル
T0 対象放射線画像

Claims (14)

  1. 少なくとも1つのプロセッサを備え、
    前記プロセッサは、
    手術用具を含まない複数の放射線画像、および前記手術用具のみを含む複数の手術用具画像のそれぞれを、師データとして用いた機械学習を行うことにより、入力された放射線画像から前記手術用具の領域を検出するための学習済みモデルを構築する学習装置。
  2. 前記手術用具画像は、前記手術用具のみを放射線撮影することにより取得した放射線画像である請求項1に記載の学習装置。
  3. 前記手術用具画像は、放射線撮影以外の手法により取得されてなり、前記放射線撮影された画像に相当する画質を有する請求項1に記載の学習装置。
  4. 前記プロセッサは、前記手術用具の3次元モデルを予め定められたパラメータにしたがって2次元に投影することにより、前記手術用具画像を導出する請求項3に記載の学習装置。
  5. 前記プロセッサは、前記手術用具画像における前記手術用具のコントラスト、前記手術用具画像における前記手術用具の濃度、および前記手術用具画像に含まれるノイズの少なくとも1つに応じて、前記パラメータを設定する請求項4に記載の学習装置。
  6. 前記プロセッサは、ニューラルネットワークの機械学習であって、前記手術用具を含まない放射線画像が前記教師データとして前記ニューラルネットワークに入力された場合には、入力された前記手術用具を含まない放射線画像の全体に亘って、前記ニューラルネットワークから出力される前記手術用具の領域であることの確率が0となり、前記手術用具画像が前記教師データとして前記ニューラルネットワークに入力された場合には、入力された前記手術用具画像における前記手術用具の領域において、前記ニューラルネットワークから出力される前記手術用具の領域であることの確率が1となるような機械学習を行う請求項1から5のいずれか1項に記載の学習装置。
  7. 前記プロセッサは、前記手術用具画像を前記教師データとして使用する際に、前記手術用具画像における前記手術用具を囲む矩形の領域の左上隅および右下隅の座標、または前記矩形の領域の左下隅および右上隅の座標を正解データとして使用する請求項1から6のいずれか1項に記載の学習装置。
  8. 前記手術用具は、ガーゼ、メス、鋏、ドレイン、縫合針、糸および鉗子の少なくとも1つを含む請求項1からのいずれか1項に記載の学習装置。
  9. 前記手術用具が前記ガーゼを含む場合、前記ガーゼは、放射線吸収糸を少なくとも一部に含む請求項に記載の学習装置。
  10. 少なくとも1つのプロセッサを備え、
    前記プロセッサは、
    放射線画像を取得し、
    請求項1からのいずれか1項に記載の学習装置により構築された学習済みモデルを用いて前記放射線画像から手術用具の領域を検出する放射線画像処理装置。
  11. 手術用具を含まない複数の放射線画像、および前記手術用具のみを含む複数の手術用具画像のそれぞれを、師データとして用いた機械学習を行うことにより、入力された放射線画像から前記手術用具の領域を検出するための学習済みモデルを構築する学習方法。
  12. 放射線画像を取得し、
    請求項1からのいずれか1項に記載の学習装置により構築された学習済みモデルを用いて前記放射線画像から手術用具の領域を検出する放射線画像処理方法。
  13. 手術用具を含まない複数の放射線画像、および前記手術用具のみを含む複数の手術用具画像のそれぞれを、師データとして用いた機械学習を行うことにより、入力された放射線画像から前記手術用具の領域を検出するための学習済みモデルを構築する手順をコンピュータに実行させる学習プログラム。
  14. 放射線画像を取得する手順と、
    請求項1からのいずれか1項に記載の学習装置により構築された学習済みモデルを用いて前記放射線画像から手術用具の領域を検出する手順とをコンピュータに実行させる放射線画像処理プログラム。
JP2020154638A 2020-09-15 2020-09-15 学習装置、方法およびプログラム、学習済みモデル、並びに放射線画像処理装置、方法およびプログラム Active JP7413216B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020154638A JP7413216B2 (ja) 2020-09-15 2020-09-15 学習装置、方法およびプログラム、学習済みモデル、並びに放射線画像処理装置、方法およびプログラム
US17/469,618 US12039005B2 (en) 2020-09-15 2021-09-08 Learning device, learning method, learning program, trained model, radiographic image processing device, radiographic image processing method, and radiographic image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020154638A JP7413216B2 (ja) 2020-09-15 2020-09-15 学習装置、方法およびプログラム、学習済みモデル、並びに放射線画像処理装置、方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2022048676A JP2022048676A (ja) 2022-03-28
JP7413216B2 true JP7413216B2 (ja) 2024-01-15

Family

ID=80627745

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020154638A Active JP7413216B2 (ja) 2020-09-15 2020-09-15 学習装置、方法およびプログラム、学習済みモデル、並びに放射線画像処理装置、方法およびプログラム

Country Status (2)

Country Link
US (1) US12039005B2 (ja)
JP (1) JP7413216B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7413216B2 (ja) * 2020-09-15 2024-01-15 富士フイルム株式会社 学習装置、方法およびプログラム、学習済みモデル、並びに放射線画像処理装置、方法およびプログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010131371A (ja) 2008-10-27 2010-06-17 Toshiba Corp X線診断装置および画像処理装置
JP2011218089A (ja) 2010-04-14 2011-11-04 Suzuran Kk 医療用ガーゼ
US20130136323A1 (en) 2010-02-22 2013-05-30 The Johns Hopkins University Method of detecting foreign bodies
US20160071264A1 (en) 2014-09-06 2016-03-10 RaPID Medical Technologies, LLC Medical image dectection system and method
JP2017185007A (ja) 2016-04-05 2017-10-12 株式会社島津製作所 放射線撮影装置、放射線画像の対象物検出プログラムおよび放射線画像における対象物検出方法
WO2019159440A1 (ja) 2018-02-14 2019-08-22 株式会社イシダ 検査装置

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9317920B2 (en) * 2011-11-30 2016-04-19 Rush University Medical Center System and methods for identification of implanted medical devices and/or detection of retained surgical foreign objects from medical images
US9165362B2 (en) * 2013-05-07 2015-10-20 The Johns Hopkins University 3D-2D image registration for medical imaging
US20160066787A1 (en) * 2014-09-06 2016-03-10 RaPID Medical Technologies, LLC Foreign object detection protocol system and method
US9767554B2 (en) * 2015-02-19 2017-09-19 Sony Corporation Method and system for detection of surgical gauze during anatomical surgery
US9792682B2 (en) * 2015-09-07 2017-10-17 Rapid Platforms Llc Training system for detection and classification of artificial objects in X-ray images
US20170143284A1 (en) * 2015-11-25 2017-05-25 Carestream Health, Inc. Method to detect a retained surgical object
JP6809869B2 (ja) 2016-11-02 2021-01-06 Eizo株式会社 ガーゼ検出システム
US11089975B2 (en) * 2017-03-31 2021-08-17 DePuy Synthes Products, Inc. Systems, devices and methods for enhancing operative accuracy using inertial measurement units
JP7164964B2 (ja) * 2018-04-04 2022-11-02 キヤノン株式会社 情報処理装置、放射線撮影装置、放射線撮影システム、情報処理方法及びプログラム
US11488304B2 (en) * 2018-05-01 2022-11-01 Eizo Corporation Gauze detection system and gauze detection method
US10839955B2 (en) * 2019-04-16 2020-11-17 International Medical Solutions, Inc. Methods and systems for electronically receiving, modifying and distributing three-dimensional medical images
JP7209595B2 (ja) * 2019-07-16 2023-01-20 富士フイルム株式会社 放射線画像処理装置、方法およびプログラム
JP7152375B2 (ja) * 2019-09-25 2022-10-12 富士フイルム株式会社 放射線画像処理装置、方法およびプログラム
JP7152377B2 (ja) * 2019-09-27 2022-10-12 富士フイルム株式会社 放射線画像処理装置、方法およびプログラム
US11587229B2 (en) * 2019-10-07 2023-02-21 Institute For Cancer Research Retained surgical items
WO2021152784A1 (ja) * 2020-01-30 2021-08-05 株式会社インキュビット 手術支援システム
JP7394645B2 (ja) * 2020-02-05 2023-12-08 富士フイルム株式会社 教師画像生成装置、方法およびプログラム、学習装置、方法およびプログラム、判別器、並びに放射線画像処理装置、方法およびプログラム
JP7266543B2 (ja) * 2020-02-07 2023-04-28 富士フイルム株式会社 放射線画像処理装置、方法およびプログラム
US11972559B2 (en) * 2020-02-13 2024-04-30 Fujifilm Corporation Radiographic image processing device, radiographic image processing method, and radiographic image processing program
WO2021171394A1 (ja) * 2020-02-26 2021-09-02 株式会社島津製作所 学習済みモデルの作成方法、画像生成方法および画像処理装置
WO2021182229A1 (ja) * 2020-03-13 2021-09-16 富士フイルム株式会社 画像生成装置およびプログラム、学習装置およびプログラム、並びに画像処理装置およびプログラム
JP7413216B2 (ja) * 2020-09-15 2024-01-15 富士フイルム株式会社 学習装置、方法およびプログラム、学習済みモデル、並びに放射線画像処理装置、方法およびプログラム
JP7366870B2 (ja) * 2020-09-15 2023-10-23 富士フイルム株式会社 学習装置、方法およびプログラム、学習済みモデル、並びに放射線画像処理装置、方法およびプログラム
JP2022064763A (ja) * 2020-10-14 2022-04-26 株式会社島津製作所 X線撮影装置、画像処理方法、および、学習済みモデルの生成方法
JP7463938B2 (ja) * 2020-10-14 2024-04-09 株式会社島津製作所 X線撮影システムおよび異物確認方法
JP2022155027A (ja) * 2021-03-30 2022-10-13 富士フイルム株式会社 画像処理装置、学習装置、放射線画像撮影システム、画像処理方法、学習方法、画像処理プログラム、及び学習プログラム
JP2023047911A (ja) * 2021-09-27 2023-04-06 富士フイルム株式会社 画像処理装置、方法およびプログラム
JP2023051400A (ja) * 2021-09-30 2023-04-11 富士フイルム株式会社 学習装置、画像生成装置、学習方法、画像生成方法、学習プログラム、及び画像生成プログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010131371A (ja) 2008-10-27 2010-06-17 Toshiba Corp X線診断装置および画像処理装置
US20130136323A1 (en) 2010-02-22 2013-05-30 The Johns Hopkins University Method of detecting foreign bodies
JP2011218089A (ja) 2010-04-14 2011-11-04 Suzuran Kk 医療用ガーゼ
US20160071264A1 (en) 2014-09-06 2016-03-10 RaPID Medical Technologies, LLC Medical image dectection system and method
JP2017185007A (ja) 2016-04-05 2017-10-12 株式会社島津製作所 放射線撮影装置、放射線画像の対象物検出プログラムおよび放射線画像における対象物検出方法
WO2019159440A1 (ja) 2018-02-14 2019-08-22 株式会社イシダ 検査装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
富士フイルム,超軽量移動型デジタルX線撮影装置の新機能,AI技術を活用した「手術用ガーゼの認識機能」新発売-術後の体内遺残物の確認作業をサポートし,見落とし防止に貢献-,innnavi net,2020年04月02日,インターネット<URL: https://www.innervision.co.jp/sp/products/release/20200521>

Also Published As

Publication number Publication date
US12039005B2 (en) 2024-07-16
US20220083812A1 (en) 2022-03-17
JP2022048676A (ja) 2022-03-28

Similar Documents

Publication Publication Date Title
JP7209595B2 (ja) 放射線画像処理装置、方法およびプログラム
CN110881992B (zh) 使用双能量计算机断层扫描的针对外伤性出血的检测和量化
US12042314B2 (en) Radiographic image processing device, radiographic image processing method, and radiographic image processing program
US12026927B2 (en) Learning device, learning method, learning program, trained model, radiographic image processing device, radiographic image processing method, and radiographic image processing program
KR20240013724A (ko) 다중 펄스 x-선 소스 이동 단층합성 영상화 시스템을 사용한 인공 지능 훈련
US10043268B2 (en) Medical image processing apparatus and method to generate and display third parameters based on first and second images
JP2019058607A (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
US20210251583A1 (en) Radiographic image processing device, radiographic image processing method, and radiographic image processing program
JP7413216B2 (ja) 学習装置、方法およびプログラム、学習済みモデル、並びに放射線画像処理装置、方法およびプログラム
EP3665643B1 (en) X-ray image processing method and system and computer storage medium
US20220414832A1 (en) X-ray imaging restoration using deep learning algorithms
JP7152377B2 (ja) 放射線画像処理装置、方法およびプログラム
US11978549B2 (en) Training image generation device, training image generation method, training image generation program, learning device, learning method, learning program, discriminator, radiographic image processing device, radiographic image processing method, and radiographic image processing program
JP6071805B2 (ja) 画像領域指定装置および方法、並びに放射線画像処理装置および方法
JP7152375B2 (ja) 放射線画像処理装置、方法およびプログラム
JP2009160313A (ja) 画像処理装置、画像処理方法、及びコンピュータプログラム
JP2021126501A (ja) 放射線画像処理装置、方法およびプログラム
JP7346668B2 (ja) 放射線画像処理装置及びプログラム
JP2020127600A (ja) 医用画像処理装置、x線診断装置及び医用情報処理システム
US20230245308A1 (en) Medical image processing apparatus, medical image processing method and non-transitory computer-readable storage medium
WO2024128213A1 (ja) 情報処理装置、情報処理方法及びプログラム
JP2005109908A (ja) 画像処理装置および画像処理プログラム
US20240013894A1 (en) Machine learning model creation support apparatus, method of operating machine learning model creation support apparatus, and program for operating machine learning model creation support apparatus
JP2023077230A (ja) X線診断装置、医用画像処理装置、およびプログラム
JP2020099583A (ja) 医用情報処理装置及びx線診断装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220803

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230512

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230829

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231227

R150 Certificate of patent or registration of utility model

Ref document number: 7413216

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150