JP2021122487A - 教師画像生成装置、方法およびプログラム、学習装置、方法およびプログラム、判別器、並びに放射線画像処理装置、方法およびプログラム - Google Patents

教師画像生成装置、方法およびプログラム、学習装置、方法およびプログラム、判別器、並びに放射線画像処理装置、方法およびプログラム Download PDF

Info

Publication number
JP2021122487A
JP2021122487A JP2020017709A JP2020017709A JP2021122487A JP 2021122487 A JP2021122487 A JP 2021122487A JP 2020017709 A JP2020017709 A JP 2020017709A JP 2020017709 A JP2020017709 A JP 2020017709A JP 2021122487 A JP2021122487 A JP 2021122487A
Authority
JP
Japan
Prior art keywords
image
surgical tool
teacher
discriminator
radiation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020017709A
Other languages
English (en)
Other versions
JP7394645B2 (ja
Inventor
紳 浜渦
Shin Hamauzu
紳 浜渦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2020017709A priority Critical patent/JP7394645B2/ja
Priority to US17/160,910 priority patent/US11978549B2/en
Publication of JP2021122487A publication Critical patent/JP2021122487A/ja
Application granted granted Critical
Publication of JP7394645B2 publication Critical patent/JP7394645B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/12Arrangements for detecting or locating foreign bodies
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5247Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from an ionising-radiation diagnostic technique and a non-ionising radiation diagnostic technique, e.g. X-ray and ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5258Devices using data or image processing specially adapted for radiation diagnosis involving detection or reduction of artifacts or noise
    • A61B6/5282Devices using data or image processing specially adapted for radiation diagnosis involving detection or reduction of artifacts or noise due to scatter
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F13/00Bandages or dressings; Absorbent pads
    • A61F13/15Absorbent pads, e.g. sanitary towels, swabs or tampons for external or internal application to the body; Supporting or fastening means therefor; Tampon applicators
    • A61F13/44Absorbent pads, e.g. sanitary towels, swabs or tampons for external or internal application to the body; Supporting or fastening means therefor; Tampon applicators with radio-opaque material or signalling means for residual material
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/251Fusion techniques of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/77Retouching; Inpainting; Scratch removal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/40ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • G06V2201/034Recognition of patterns in medical or anatomical images of medical instruments

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • Artificial Intelligence (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Surgery (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • Epidemiology (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Pathology (AREA)
  • Primary Health Care (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Urology & Nephrology (AREA)
  • Vascular Medicine (AREA)
  • Robotics (AREA)

Abstract

【課題】教師画像生成装置、方法およびプログラム、学習装置、方法およびプログラム、判別器、並びに放射線画像処理装置、方法およびプログラムにおいて、手術後における手術用具の患者体内の残存を確実に防止できるようにする。
【解決手段】プロセッサは、人体を含む放射線画像、および放射線撮影以外の手法により取得された、手術用具を表す手術用具画像を取得する。プロセッサは、放射線画像に手術用具画像を合成することにより、対象画像が入力されると対象画像における手術用具の領域を判別する判別器を学習するための教師画像を生成する。
【選択図】図2

Description

本開示は、教師画像生成装置、方法およびプログラム、学習装置、方法およびプログラム、判別器、並びに放射線画像処理装置、方法およびプログラムに関するものである。
患者の外科的手術を行う際には、出血を抑えるためのガーゼ、傷口または切開部分を縫うための糸と縫合針、切開のためのメスおよび鋏、血液を排出するためのドレイン、並びに切開部分を開くための鉗子等の様々な手術用具が使用される。このような手術用具は、手術後に患者の体内に残存していると、重篤な合併症を発生する恐れがある。このため、手術後は患者の体内に手術用具が残存していないことを確認する必要がある。
このため、ガーゼ画像の特徴を学習した判別器を用意し、手術野をカメラにより撮影することにより取得した画像を判別器に入力して、ガーゼの有無を判別する手法が提案されている(特許文献1参照)。
特開2018−068863号公報
しかしながら、ガーゼは血に染まるため、カメラにより取得した画像ではガーゼを発見することは判別器を用いたとしても困難である。また、縫合針のように小さな手術用具は、内臓の間に入り込んでしまう可能性があるため、カメラにより取得した画像では、判別器を用いたとしても発見することは困難である。一方、術後に患者の放射線画像を取得し、放射線画像を観察することにより、患者の体内に手術用具が残存しているか否かを確認することが考えられる。しかしながら、長時間の手術の後では、術者も看護師も疲労しているため、手術用具の残存を見逃してしまう可能性がある。また、判別器の学習に必要なガーゼ等の手術器具が残存した放射線画像は極めて稀であるため、判別器の学習のために大量に収集することは困難である。
本開示は上記事情に鑑みなされたものであり、手術後における手術用具の患者体内の残存を確実に防止できるようにすることを目的とする。
本開示による教師画像生成装置は、少なくとも1つのプロセッサを備え、
プロセッサは、
人体を含む放射線画像、および放射線撮影以外の手法により取得された、手術用具を表す手術用具画像を取得し、
放射線画像に手術用具画像を合成することにより、対象画像が入力されると対象画像における手術用具の領域を判別する判別器を学習するための教師画像を生成するように構成される。
「放射線撮影以外の手法」とは、手術用具に放射線を照射し、手術用具を透過した放射線を検出することにより画像を取得する以外の手法を意味する。具体的には、コンピュータグラフィックスによる生成、および写真撮影の手法等が挙げられる。
なお、本開示による教師画像生成装置においては、プロセッサは、手術用具の特性に応じた合成パラメータによって放射線画像および手術用具画像を合成することにより、教師画像を生成するように構成されるものであってもよい。
また、本開示による教師画像生成装置においては、プロセッサは、手術用具の放射線吸収率、放射線画像における放射線散乱の程度、放射線画像におけるビームハードニング、および放射線画像の撮影条件に応じたノイズの少なくとも1つに応じて合成パラメータを設定するように構成されるものであってもよい。
また、本開示による教師画像生成装置においては、手術用具は、ガーゼ、メス、鋏、ドレイン、縫合針、糸、鉗子およびステントグラフトの少なくとも1つを含むものであってもよい。
この場合、ガーゼは、放射線吸収糸を少なくとも一部に含むものであってもよい。
本開示による学習装置は、少なくとも1つのプロセッサを備え、
プロセッサは、
本開示による教師画像生成装置により生成された教師画像と、教師画像における手術用具の領域を表す正解データとからなる多数の教師データにより、入力された放射線画像における手術用具の領域を判別する判別器を学習するように構成される。
本開示による判別器は、本開示による学習装置により学習がなされてなる。
本開示による放射線画像処理装置は、少なくとも1つのプロセッサを備え、
プロセッサは、
本開示による判別器により、入力された放射線画像における手術用具の領域を判別することにより、手術用具の領域を検出するように構成される。
なお、本開示による放射線画像処理装置においては、プロセッサは、手術用具の領域の検出結果を表示画面に表示するように構成されるものであってもよい。
本開示による教師データは、本開示による教師画像生成装置により生成された教師画像と、教師画像における手術用具の領域を表す正解データとからなり、入力された放射線画像における手術用具の領域を判別する判別器を学習するためのものである。
本開示による教師画像生成方法は、人体を含む放射線画像、および放射線撮影以外の手法により取得された、手術用具を表す手術用具画像を取得し、
放射線画像に手術用具画像を合成することにより、対象画像が入力されると対象画像における手術用具の領域を判別する判別器を学習するための教師画像を生成する。
本開示による学習方法は、本開示による教師画像生成装置により生成された教師画像と、教師画像における手術用具の領域を表す正解データとからなる多数の教師データにより、入力された放射線画像における手術用具の領域を判別する判別器を学習する。
本開示による放射線画像処理方法は、本開示による判別器により、入力された放射線画像における手術用具の領域を判別することにより、手術用具の領域を検出する。
なお、本開示による教師画像生成方法、学習方法および放射線画像処理方法をコンピュータに実行させるためのプログラムとして提供してもよい。
本開示によれば、手術後における手術用具の患者体内の残存を確実に防止できる。
本開示の実施形態による放射線画像処理装置を適用した放射線画像撮影システムの構成を示す概略ブロック図 本実施形態による放射線画像処理装置の概略構成を示す図 本実施形態による放射線画像処理装置の機能的な構成を示す図 教師画像を生成するための放射線画像を示す図 手術用具としての縫合針の画像を示す図 教師画像を示す図 教師データを模式的に示す図 放射線画像の表示画面を示す図 本実施形態における教師画像生成処理のフローチャート 本実施形態における学習処理のフローチャート 本実施形態における検出処理のフローチャート ガーゼを示す図 手術用具としてのガーゼの画像を示す図
以下、図面を参照して本開示の実施形態について説明する。図1は、本開示の実施形態による放射線画像処理装置を適用した放射線画像撮影システムの構成を示す概略ブロック図である。図1に示すように、本実施形態による放射線画像撮影システム100は、外科的手術を行った後の、患者である被写体の放射線画像を取得して、放射線画像に含まれる手術用具を検出するためのものである。本実施形態による放射線画像撮影システム100は、撮影装置1、コンソール2、画像保存システム6および放射線画像処理装置7を備える。
撮影装置1は、X線源等の放射線源4から発せられ、被写体Hを透過した放射線を放射線検出器5に照射することにより、手術台3に仰臥した被写体Hの放射線画像G0を取得するための撮影装置である。放射線画像G0はコンソール2に入力される。
また、放射線検出器5は、可搬型の放射線検出器であり、手術台3に設けられた取付部3Aにより手術台3に取り付けられている。なお、放射線検出器5は、手術台3に固定されたものであってもよい。
コンソール2は、無線通信LAN(Local Area Network)等のネットワークを介して、不図示のRIS(Radiology Information System)等から取得した撮影オーダおよび各種情報と、技師等により直接行われた指示等とを用いて、撮影装置1の制御を行う機能を有している。一例として、本実施形態では、サーバコンピュータをコンソール2として用いている。
画像保存システム6は、撮影装置1により撮影された放射線画像の画像データを保存するシステムである。画像保存システム6は、保存している放射線画像から、コンソール2および放射線画像処理装置7等からの要求に応じた画像を取り出して、要求元の装置に送信する。画像保存システム6の具体例としては、PACS(Picture Archiving and Communication Systems)が挙げられる。
次に、本実施形態に係る放射線画像処理装置について説明する。なお、本実施形態に係る放射線画像処理装置7は、本開示による教師データ生成装置、学習装置を内包するものであるが、以降の説明においては、放射線画像処理装置にて代表させるものとする。
まず、図2を参照して、本実施形態に係る放射線画像処理装置のハードウェア構成を説明する。図2に示すように、放射線画像処理装置7は、ワークステーション、サーバコンピュータおよびパーソナルコンピュータ等のコンピュータであり、CPU(Central Processing Unit)11、不揮発性のストレージ13、および一時記憶領域としてのメモリ16を備える。また、放射線画像処理装置7は、液晶ディスプレイ等のディスプレイ14、キーボードおよびマウス等の入力デバイス15、並びにネットワーク10に接続されるネットワークI/F(InterFace)17を備える。CPU11、ストレージ13、ディスプレイ14、入力デバイス15、メモリ16およびネットワークI/F17は、バス18に接続される。なお、CPU11は、本開示におけるプロセッサの一例である。
ストレージ13は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、およびフラッシュメモリ等によって実現される。記憶媒体としてのストレージ13には、放射線画像処理装置7にインストールされた教師画像生成プログラム21、学習プログラム22および放射線画像処理プログラム23が記憶される。CPU11は、ストレージ13から教師画像生成プログラム21、学習プログラム22および放射線画像処理プログラム23を読み出してからメモリ16に展開し、展開した教師画像生成プログラム21、学習プログラム22および放射線画像処理プログラム23を実行する。
なお、教師画像生成プログラム21、学習プログラム22および放射線画像処理プログラム23は、ネットワークに接続されたサーバコンピュータの記憶装置、あるいはネットワークストレージに、外部からアクセス可能な状態で記憶され、要求に応じて放射線画像処理装置7を構成するコンピュータにダウンロードされ、インストールされる。または、DVD(Digital Versatile Disc)、CD−ROM(Compact Disc Read Only Memory)等の記録媒体に記録されて配布され、その記録媒体から放射線画像処理装置7を構成するコンピュータにインストールされる。
次いで、本実施形態による放射線画像処理装置の機能的な構成を説明する。図3は、本実施形態による放射線画像処理装置の機能的な構成を示す図である。図3に示すように,放射線画像処理装置(教師画像生成装置および学習装置)7は、画像取得部31、合成部32、学習部33、検出部34および表示制御部35を備える。そして、CPU11が、教師画像生成プログラム21、学習プログラム22および放射線画像処理プログラム23を実行することにより、画像取得部31、合成部32、学習部33、検出部34および表示制御部35として機能する。
なお、画像取得部31および合成部32が,本実施形態による教師画像生成装置を構成する。画像取得部31および学習部33が、本実施形態による学習装置を構成する。画像取得部31、検出部34および表示制御部35が、本実施形態による放射線画像処理装置7を構成する。
画像取得部31は、後述する教師画像T0を生成するために、画像保存システム6からネットワークI/F17を介して任意の被写体Hを含む放射線画像G0を取得する。図4は放射線画像G0を示す図である。なお、図4は人体の胸部の放射線画像を示すが、放射線画像G0に含まれる被写体はこれに限定されるものではない。
また、画像取得部31は、教師画像T0を生成するために、手術用具を表す手術用具画像M0も画像保存システム6から取得する。手術用具画像M0は、放射線撮影以外の手法により取得された画像である。例えば手術用具画像M0は、コンピュータグラフィックス等により作成された手術用具を表す3次元的な画像である。なお、本実施形態においては、手術用具として、傷口または切開部分を縫うための縫合針を用いるものとする。図5は手術用具としての縫合針の画像を示す図である。なお、図5においては、縫合針の手術用具画像M0を2次元で示しているが、3次元的に回転させたり、移動させたりすることが可能であるものとする。なお、手術用具画像M0は手術用具の写真画像であってもよい。
また、画像取得部31は、放射線源4を駆動して手術後の被写体Hに放射線を照射し、被写体Hを透過した放射線を放射線検出器5により検出して、手術用具の検出対象となる放射線画像G1を取得する。この際、画像取得部31は、放射線源4において使用するターゲットおよびフィルタの種類、撮影線量、管電圧およびSID等の撮影条件を設定する。
合成部32は、放射線画像G0に手術用具画像M0を合成することにより、対象となる放射線画像G1が入力されると放射線画像G1における手術用具の領域を判別する判別器を学習するための教師画像T0を生成する。合成部32は、手術用具(本実施形態においては縫合針)の特性に応じた合成パラメータによって放射線画像G0および手術用具画像M0を合成して教師画像T0を生成する。合成部32は、手術用具(本実施形態においては縫合針)の放射線吸収率、手術用具による放射線散乱の程度、放射線画像G0におけるビームハードニング、および放射線画像G0の撮影条件に応じたノイズの少なくとも1つにより、合成パラメータを設定する。
なお、放射線画像G0における手術用具画像M0の位置および手術用具画像M0の向きは、放射線画像G0をディスプレイ14に表示し、操作者による入力デバイス15からの指示により指定すればよい。
本実施形態においては、例えば、下記の式(1)により教師画像T0を生成するものとする。すなわち、放射線画像G0における手術用具画像M0を合成する領域の画素(x,y)において、放射線画像G0の画素値G0(x,y)から、重み係数w1により重み付けた手術用具画像M0の画素値M0(x,y)を減算することにより、教師画像T0の画素値T0(x,y)を導出する。なお、重み係数w1は0以上1以下の値をとる。重み係数w1は本実施形態の合成パラメータに含まれる。図6は教師画像を示す図である。図6に示すように、教師画像T0においては、被写体の右肺に縫合針40が含まれたものとなる。
T0(x,y)=G0(x,y)−w1・M0(x,y) (1)
ここで、手術用具の放射線吸収率が高ければ、手術用具を放射線撮影することにより取得される放射線画像においては、手術用具のコントラストが高くなる。例えば、手術用具が縫合針、鋏およびメスのような金属の場合、手術用具の放射線画像はコントラストが高くなる。このため、教師画像T0においては手術用具のコントラストが高くなりすぎないように、放射線画像G0と手術用具画像M0との重み付け減算を行う際に、手術用具画像M0の重み係数w1を大きくする。
また、放射線の散乱により、放射線画像におけるコントラストが低下する。放射線の散乱は、被写体Hの体厚が大きいほどその影響が大きくなる。また、被写体Hの体厚が大きいほど放射線画像G0に含まれる被写体領域の濃度は小さくなる。このため、合成部32は、放射線画像G0に含まれる被写体領域の濃度の平均値を導出し、平均値が小さいほど、すなわち被写体Hの体厚が大きいほど、放射線画像G0と手術用具画像M0との濃度差が小さくなるように、重み係数w1を小さくして教師画像T0を生成する。
ここで、放射線源4に印加される管電圧が高く、放射線が高エネルギーであるほど、放射線が被写体Hを透過する過程において、放射線の低エネルギー成分が被写体Hに吸収され、放射線が高エネルギー化するビームハードニングが生じる。ビームハードニングが生じると、放射線画像におけるコントラストが低下する。また、ビームハードニングによる放射線の高エネルギー化は、被写体Hの体厚が大きいほど大きくなる。また、被写体Hの体厚が大きいほど放射線画像G0に含まれる被写体領域の濃度は小さくなる。このため、合成部32は、放射線画像G0に含まれる被写体領域の濃度の平均値を導出し、平均値が小さいほど、すなわち被写体Hの体厚が大きいほど、放射線画像G0と手術用具画像M0との濃度差が小さくなるように、重み係数w1を小さくして教師画像T0を生成する。
また、撮影条件における放射線量が小さいと、放射線画像G0に含まれるノイズが多くなる。このため、合成部32は、放射線量が小さい場合、下記の式(2)に示すように、式(1)に対して放射線量に応じたノイズN(x,y)を加算することにより教師画像T0を生成する。この場合、重み係数w1は予め定められた値としてもよく、上記の手術用号の放射線吸収率、放射線散乱の程度およびビームハードニングの少なくとも1つに応じて設定してもよい。また、ノイズN(x,y)は予め定められたシミュレーションにより導出して、ストレージ13に記憶しておけばよい。なお、ノイズN(x,y)も合成パラメータに含まれる。
T0(x,y)=G0(x,y)−w1・M0(x,y)+N(x,y) (2)
本実施形態においては、合成部32は、後述する判別器の学習のために、放射線画像G0における手術用具画像M0の合成位置を変更したり、合成パラメータを変更したりして、複数の教師画像T0を生成する。これにより、手術用具画像M0が放射線撮影されたような態様にて放射線画像G0に合成された教師画像T0が生成されることとなる。なお、被写体Hが異なる複数の放射線画像G0を用いて教師画像T0を生成してもよい。
学習部33は、教師画像T0および教師画像T0における手術用具の領域が特定された正解データを含む教師データ、並びに手術用具を含まない放射線画像からなる教師データを用いて、入力された放射線画像における手術用具の領域を判別するように検出部34が有する判別器34Aを学習する。教師データは複数用意される。なお、正解データは、教師画像T0を生成した際の手術用具画像M0の領域をマスクしたマスク画像を用いればよい。
判別器34Aとしては、機械学習モデルを用いることができる。機械学習モデルの一例として、ニューラルネットワークモデルが挙げられる。ニューラルネットワークモデルとしては、単純パーセプトロン、多層パーセプトロン、ディープニューラルネットワーク、畳み込みニューラルネットワーク、ディープビリーフネットワーク、リカレントニューラルネットワーク、および確率的ニューラルネットワーク等が挙げられる。本実施形態においては、判別器34Aとして畳み込みニューラルネットワークを用いるものとする。
図7は、教師画像T0および教師画像T0における手術用具の領域が特定された正解データを含む教師データを模式的に示す図である。図7に示すように、教師データ45は、手術用具を含む教師画像T0および手術用具の領域が特定された正解データC0を含む。
判別器34Aは、教師データに含まれる教師画像T0が入力されると、教師画像T0の各画素が手術用具の領域であることの確率を出力するように学習がなされる。判別器34Aが出力した、確率が予め定められたしきい値以上となる画素からなる領域が手術用具の領域となる。学習部33は、教師画像T0を判別器34Aに入力し、手術用具の領域となる確率を出力させる。そして、判別器34Aが出力した予め定められたしきい値以上となる確率となる画素からなる領域と、教師データに含まれる正解データにより表される領域との相違を損失として導出する。そして、損失に基づいて判別器34Aを学習する。具体的には、損失を小さくするように、畳み込みニューラルネットワークにおけるカーネルの係数およびニューラルネットワークの結合の重み等を導出する。学習部33は、損失が予め定められたしきい値以下となるまで学習を繰り返す。これによって、入力された放射線画像に含まれる手術用具の領域について、予め定められたしきい値以上の高い確率を出力することにより、入力された放射線画像に含まれる手術用具の領域を抽出するように、判別器34Aの学習がなされる。
検出部34は、学習済みの判別器34Aが適用されてなる。検出部34に対象の放射線画像G1が入力されると、検出部34は、検出対象となる放射線画像G1に含まれる手術用具の領域を判別器34Aに抽出させることにより、手術用具の領域を検出する。
表示制御部35は、検出部34が検出対象となる放射線画像G1から検出した手術用具の領域を強調して、放射線画像G1をディスプレイ14に表示する。図8は放射線画像の表示画面を示す図である。図8に示すように、表示画面50には放射線画像G1が表示されており、放射線画像G1に含まれる手術用具の領域51を矩形領域52で囲むことにより、手術用具の領域51が強調されている。なお、図8においては矩形領域52は白抜きにて示しているが、色を付与してもよい。なお、矩形領域52の付与に代えて、手術用具の領域付近に矢印および星印等のマークを付与することにより、手術用具の領域を強調してもよい。
次いで、本実施形態において行われる処理について説明する。図9は本実施形態において行われる教師画像生成処理のフローチャートである。まず、画像取得部31が、教師画像T0を生成するための放射線画像G0および手術用具画像M0を取得する(ステップST1)。次いで、合成部32が放射線画像G0と手術用具画像M0との合成パラメータを設定し(ステップST2)、合成パラメータに応じて放射線画像G0と手術用具画像M0とを合成して教師画像T0を生成し(ステップST3)、処理を終了する。
次いで、本実施形態における学習処理について説明する。図10は本実施形態において行われる学習処理のフローチャートである。学習部33が、教師画像T0および正解データからなる教師データおよび手術用具を含まない放射線画像からなる教師データを取得し(ステップST11)、判別器34Aに教師データを入力して手術用具の領域の抽出結果を取得し、正解データとの相違に基づく損失を用いて判別器34Aを学習し(ステップST12)、ステップST11にリターンする。そして、学習部33は、損失が予め定められたしきい値となるまで、ステップST11,ST12の処理を繰り返し、学習を終了する。なお、学習部33は、予め定められた回数学習を繰り返すことにより、学習を終了するものであってもよい。
次いで、本実施形態における手術用具の領域の検出処理について説明する。図11は本実施形態において行われる検出処理のフローチャートである。画像取得部31が、検出対象となる放射線画像G1を取得し(ステップST21)、検出部34が、放射線画像G1から手術用具の領域を検出する(ステップST22)。そして、表示制御部35が、手術用具の領域を強調した放射線画像G1をディスプレイ14に表示し(ステップST23)、処理を終了する。
このように、本実施形態においては、放射線画像G0および手術用具を表す手術用具画像M0を合成することにより生成した教師画像T0、およびこの教師画像T0における手術用具の領域を表す正解データからなる教師データにより、入力された放射線画像から手術用具の領域を判別するように学習がなされた判別器34Aを検出部34が備えるものとした。そして、判別器34Aによって、入力された放射線画像G0における手術用具の領域を判別することにより、手術用具の領域を検出するようにした。このため、本実施形態によれば、検出結果を参照することにより、患者の体内に手術用具が残存していないかを確実に確認することができる。したがって、本実施形態によれば、手術後における手術用具の患者体内の残存を確実に防止できる。
一方、判別器34Aの学習に必要な、手術器具が残存した放射線画像は極めて稀であるため、判別器34Aの学習のために大量に収集することは困難であった。本実施形態においては、放射線画像G0および放射線撮影以外の手法により取得された手術用具を表す手術用具画像M0を合成することにより生成した教師画像T0を用いて、判別器34Aを学習している。このため、十分な数の教師画像T0を用意することができ、その結果、手術器具の検出精度が高い判別器34Aを構築することができる。
また、合成パラメータによって放射線画像G0および手術用具画像M0を合成することにより教師画像T0を生成しているため、放射線撮影以外の手法により取得された手術用具画像M0を、放射線撮影したかのような態様で放射線画像G0と合成された教師画像T0を生成することができる。このため、手術用具画像M0を用意するために、手術用具を放射線撮影する必要がなくなる。
なお、上記実施形態においては、手術用具として縫合針を検出の対象としているが、これに限定されるものではない。ガーゼ、メス、鋏、ドレイン、糸、鉗子およびステントグラフト等の手術の際に使用する任意の手術用具を検出の対象とすることができる。この場合、教師画像T0を生成するための、手術用具を含む手術用具画像M0は、対象となる手術用具を撮影することにより取得すればよい。また、判別器34Aは対象となる手術用具を判別するように学習すればよい。なお、判別器34Aを複数チャンネルの検出を行うように学習することにより、1種類の手術用具のみならず、複数種類の手術用具を判別するように、判別器34Aを構築することも可能である。
ここで、手術用具として使用するガーゼについて説明する。図12はガーゼを示す図である。図12に示すように、ガーゼ60は綿糸が平織りされてなる生地であり、その一部に放射線吸収糸61が織り込まれている。綿糸は放射線を透過するが、放射線吸収糸61は放射線を吸収する。このため、ガーゼ60の放射線画像には、線状の放射線吸収糸61のみが含まれる。ここで、手術の際には、出血を吸収するために、ガーゼ60は丸められて人体内に挿入される。このため、教師画像T0を生成するために放射線画像G0と合成する手術用具画像M0としては、図13に示すように、放射線吸収糸61が丸まった状態を表すものを使用する。
また、上記実施形態においては、放射線は、とくに限定されるものではなく、X線の他、α線またはγ線等を適用することができる。
また、上記実施形態において、例えば、画像取得部31、合成部32、学習部33、検出部34および表示制御部35といった各種の処理を実行する処理部(Processing Unit)のハードウェア的な構造としては、次に示す各種のプロセッサ(Processor)を用いることができる。上記各種のプロセッサには、上述したように、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPUに加えて、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device :PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
1つの処理部は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせまたはCPUとFPGAとの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。
複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントおよびサーバ等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアとの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサの1つ以上を用いて構成される。
さらに、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子等の回路素子を組み合わせた電気回路(Circuitry)を用いることができる。
1 撮影装置
2 コンソール
3 手術台
3A 取付部
4 放射線源
5 放射線検出器
6 画像保存システム
7 放射線画像処理装置
11 CPU
13 ストレージ
14 ディスプレイ
15 入力デバイス
16 メモリ
17 ネットワークI/F
18 バス
21 教師画像生成プログラム
22 学習プログラム
23 放射線画像処理プログラム
31 画像取得部
32 合成部
33 学習部
34 検出部
34A 判別器
35 表示制御部
40 縫合針
45 教師データ
50 表示画面
51 手術用具の領域
52 矩形領域
60 ガーゼ
61 放射線吸収糸
100 放射線画像撮影システム
C0 正解データ
G0、G1 放射線画像
H 被写体
M0 手術用具画像

Claims (16)

  1. 少なくとも1つのプロセッサを備え、
    前記プロセッサは、
    人体を含む放射線画像、および放射線撮影以外の手法により取得された、手術用具を表す手術用具画像を取得し、
    前記放射線画像に前記手術用具画像を合成することにより、対象画像が入力されると該対象画像における前記手術用具の領域を判別する判別器を学習するための教師画像を生成するように構成される教師画像生成装置。
  2. 前記プロセッサは、前記手術用具の特性に応じた合成パラメータによって前記放射線画像および前記手術用具画像を合成することにより、前記教師画像を生成するように構成される請求項1に記載の教師画像生成装置。
  3. 前記プロセッサは、前記手術用具の放射線吸収率、前記放射線画像における放射線散乱の程度、前記放射線画像におけるビームハードニング、および前記放射線画像の撮影条件に応じたノイズの少なくとも1つに応じて前記合成パラメータを設定するように構成される請求項2に記載の教師画像生成装置。
  4. 前記手術用具は、ガーゼ、メス、鋏、ドレイン、縫合針、糸、鉗子およびステントグラフトの少なくとも1つを含む請求項1から3のいずれか1項に記載の教師画像生成装置。
  5. 前記ガーゼは、放射線吸収糸を少なくとも一部に含む請求項4に記載の教師画像生成装置。
  6. 少なくとも1つのプロセッサを備え、
    前記プロセッサは、
    請求項1から5のいずれか1項に記載の教師画像生成装置により生成された教師画像と、前記教師画像における前記手術用具の領域を表す正解データとからなる多数の教師データにより、入力された放射線画像における手術用具の領域を判別する判別器を学習するように構成される学習装置。
  7. 請求項6に記載の学習装置により学習がなされた判別器。
  8. 少なくとも1つのプロセッサを備え、
    前記プロセッサは、
    請求項7に記載の判別器により、前記入力された放射線画像における前記手術用具の領域を判別することにより、前記手術用具の領域を検出するように構成される放射線画像処理装置。
  9. 前記プロセッサは、前記手術用具の領域の検出結果を表示画面に表示するように構成される請求項8に記載の放射線画像処理装置。
  10. 請求項1から5のいずれか1項に記載の教師画像生成装置により生成された教師画像と、前記教師画像における前記手術用具の領域を表す正解データとからなり、入力された放射線画像における前記手術用具の領域を判別する判別器を学習するための教師データ。
  11. 人体を含む放射線画像、および放射線撮影以外の手法により取得された、手術用具を表す手術用具画像を取得し、
    前記放射線画像に前記手術用具画像を合成することにより、対象画像が入力されると該対象画像における前記手術用具の領域を判別する判別器を学習するための教師画像を生成する教師画像生成方法。
  12. 請求項1から5のいずれか1項に記載の教師画像生成装置により生成された教師画像と、前記教師画像における前記手術用具の領域を表す正解データとからなる多数の教師データにより、入力された放射線画像における手術用具の領域を判別する判別器を学習する学習方法。
  13. 請求項7に記載の判別器により、前記入力された放射線画像における前記手術用具の領域を判別することにより、該手術用具の領域を検出する放射線画像処理方法。
  14. 人体を含む放射線画像、および放射線撮影以外の手法により取得された、手術用具を表す手術用具画像を取得する手順と、
    前記放射線画像に前記手術用具画像を合成することにより、対象画像が入力されると該対象画像における前記手術用具の領域を判別する判別器を学習するための教師画像を生成する手順とをコンピュータに実行させる教師画像生成プログラム。
  15. 請求項1から5のいずれか1項に記載の教師画像生成装置により生成された教師画像と、前記教師画像における前記手術用具の領域を表す正解データとからなる多数の教師データにより、入力された放射線画像における手術用具の領域を判別する判別器を学習する手順をコンピュータに実行させる学習プログラム。
  16. 請求項7に記載の判別器により、前記入力された放射線画像における前記手術用具の領域を判別することにより、該手術用具の領域を検出する手順をコンピュータに実行させる放射線画像処理プログラム。
JP2020017709A 2020-02-05 2020-02-05 教師画像生成装置、方法およびプログラム、学習装置、方法およびプログラム、判別器、並びに放射線画像処理装置、方法およびプログラム Active JP7394645B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020017709A JP7394645B2 (ja) 2020-02-05 2020-02-05 教師画像生成装置、方法およびプログラム、学習装置、方法およびプログラム、判別器、並びに放射線画像処理装置、方法およびプログラム
US17/160,910 US11978549B2 (en) 2020-02-05 2021-01-28 Training image generation device, training image generation method, training image generation program, learning device, learning method, learning program, discriminator, radiographic image processing device, radiographic image processing method, and radiographic image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020017709A JP7394645B2 (ja) 2020-02-05 2020-02-05 教師画像生成装置、方法およびプログラム、学習装置、方法およびプログラム、判別器、並びに放射線画像処理装置、方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2021122487A true JP2021122487A (ja) 2021-08-30
JP7394645B2 JP7394645B2 (ja) 2023-12-08

Family

ID=77410805

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020017709A Active JP7394645B2 (ja) 2020-02-05 2020-02-05 教師画像生成装置、方法およびプログラム、学習装置、方法およびプログラム、判別器、並びに放射線画像処理装置、方法およびプログラム

Country Status (2)

Country Link
US (1) US11978549B2 (ja)
JP (1) JP7394645B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7413216B2 (ja) * 2020-09-15 2024-01-15 富士フイルム株式会社 学習装置、方法およびプログラム、学習済みモデル、並びに放射線画像処理装置、方法およびプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006506117A (ja) * 2002-11-13 2006-02-23 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 境界構造を検出するための医用ビューイングシステム及び方法
JP2017185007A (ja) * 2016-04-05 2017-10-12 株式会社島津製作所 放射線撮影装置、放射線画像の対象物検出プログラムおよび放射線画像における対象物検出方法
JP2018502646A (ja) * 2015-01-22 2018-02-01 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 光学形状検出によるエンドグラフトの視覚化
WO2018159775A1 (ja) * 2017-03-03 2018-09-07 国立大学法人筑波大学 対象追跡装置
WO2019138438A1 (ja) * 2018-01-09 2019-07-18 株式会社島津製作所 画像作成装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070219516A1 (en) * 2006-03-14 2007-09-20 Tyco Healthcare Group Lp X-ray detectable element for association with surgical absorbent substrates and method of making
CN105792729B (zh) * 2013-05-03 2018-04-27 眼泪科学公司 用于对睑板腺进行成像以供睑板腺分析的眼睑照明系统和方法
JP6118465B2 (ja) * 2013-12-19 2017-04-19 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 対象物トラッキング装置
US9947090B2 (en) * 2014-09-06 2018-04-17 RaPID Medical Technologies, LLC Medical image dectection system and method
GB201504360D0 (en) * 2015-03-16 2015-04-29 Univ Leuven Kath Automated quality control and selection system
US9792682B2 (en) * 2015-09-07 2017-10-17 Rapid Platforms Llc Training system for detection and classification of artificial objects in X-ray images
JP6809869B2 (ja) 2016-11-02 2021-01-06 Eizo株式会社 ガーゼ検出システム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006506117A (ja) * 2002-11-13 2006-02-23 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 境界構造を検出するための医用ビューイングシステム及び方法
JP2018502646A (ja) * 2015-01-22 2018-02-01 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 光学形状検出によるエンドグラフトの視覚化
JP2017185007A (ja) * 2016-04-05 2017-10-12 株式会社島津製作所 放射線撮影装置、放射線画像の対象物検出プログラムおよび放射線画像における対象物検出方法
WO2018159775A1 (ja) * 2017-03-03 2018-09-07 国立大学法人筑波大学 対象追跡装置
WO2019138438A1 (ja) * 2018-01-09 2019-07-18 株式会社島津製作所 画像作成装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
I. KOMPATSIARIS ET AL.: ""Deformable boundary detection of stents in angiographic images"", IEEE TRANSACTIONS ON MEDICAL IMAGING, vol. 19, no. 6, JPN6023003793, June 2000 (2000-06-01), pages 652 - 662, XP001148120, ISSN: 0005098299, DOI: 10.1109/42.870673 *

Also Published As

Publication number Publication date
JP7394645B2 (ja) 2023-12-08
US20210241039A1 (en) 2021-08-05
US11978549B2 (en) 2024-05-07

Similar Documents

Publication Publication Date Title
JP7209595B2 (ja) 放射線画像処理装置、方法およびプログラム
US9070181B2 (en) System and method for extracting features of interest from an image
JP5269298B2 (ja) X線診断装置
CN103156629A (zh) 图像处理设备和图像处理方法
JP2018532454A (ja) 再置換術計画に用いる医療移植片を有する患者の医療画像のためのシステムと方法
US20130342577A1 (en) Image synthesis for diagnostic review
US12026927B2 (en) Learning device, learning method, learning program, trained model, radiographic image processing device, radiographic image processing method, and radiographic image processing program
JP7266543B2 (ja) 放射線画像処理装置、方法およびプログラム
US11972559B2 (en) Radiographic image processing device, radiographic image processing method, and radiographic image processing program
US20110002444A1 (en) Model based self-positioning patient table for x-ray systems
JP2021142146A (ja) 医用画像処理装置、医用装置、治療システム、医用画像処理方法、およびプログラム
JP7394645B2 (ja) 教師画像生成装置、方法およびプログラム、学習装置、方法およびプログラム、判別器、並びに放射線画像処理装置、方法およびプログラム
WO2021182229A1 (ja) 画像生成装置およびプログラム、学習装置およびプログラム、並びに画像処理装置およびプログラム
JP7152375B2 (ja) 放射線画像処理装置、方法およびプログラム
JP7413216B2 (ja) 学習装置、方法およびプログラム、学習済みモデル、並びに放射線画像処理装置、方法およびプログラム
JP6071805B2 (ja) 画像領域指定装置および方法、並びに放射線画像処理装置および方法
JP2007244737A (ja) 医用画像システム
JP2021052957A (ja) 放射線画像処理装置、方法およびプログラム
JP6956514B2 (ja) X線ct装置及び医用情報管理装置
JP2021126501A (ja) 放射線画像処理装置、方法およびプログラム
CN115474952A (zh) 动态品质管理装置、计算机可读取的存储介质以及动态品质管理方法
JP2015019996A (ja) 放射線画像処理装置および方法
Boswell et al. Dual-energy, dual-exposure PA and lateral chest radiograph: not your father’s chest X-ray
EP4119055B1 (en) Image generation device and program, learning device and program, and image processing device and program
ROMMAN Computer, Physics, and Clinical Applications of Spectral Computed Tomography

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220124

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230330

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230920

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20231002

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231128

R150 Certificate of patent or registration of utility model

Ref document number: 7394645

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150