JP7321671B2 - 情報処理装置、情報処理方法、情報処理システムおよびプログラム - Google Patents

情報処理装置、情報処理方法、情報処理システムおよびプログラム Download PDF

Info

Publication number
JP7321671B2
JP7321671B2 JP2018081763A JP2018081763A JP7321671B2 JP 7321671 B2 JP7321671 B2 JP 7321671B2 JP 2018081763 A JP2018081763 A JP 2018081763A JP 2018081763 A JP2018081763 A JP 2018081763A JP 7321671 B2 JP7321671 B2 JP 7321671B2
Authority
JP
Japan
Prior art keywords
region
image
finding
image feature
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018081763A
Other languages
English (en)
Other versions
JP2019191772A (ja
Inventor
将実 川岸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018081763A priority Critical patent/JP7321671B2/ja
Priority to PCT/JP2019/015662 priority patent/WO2019203092A1/ja
Publication of JP2019191772A publication Critical patent/JP2019191772A/ja
Priority to US17/069,708 priority patent/US11823377B2/en
Application granted granted Critical
Publication of JP7321671B2 publication Critical patent/JP7321671B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/467Arrangements for interfacing with the operator or the patient characterised by special input means
    • A61B6/469Arrangements for interfacing with the operator or the patient characterised by special input means for selecting a region of interest [ROI]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/505Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of bone
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/12Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0093Detecting, measuring or recording by applying one single type of energy and measuring its conversion into another type of energy
    • A61B5/0095Detecting, measuring or recording by applying one single type of energy and measuring its conversion into another type of energy by applying light and detecting acoustic waves, i.e. photoacoustic measurements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/037Emission tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5223Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for extracting a diagnostic or physiological parameter from medical diagnostic data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing
    • G06T2207/20012Locally adaptive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30061Lung
    • G06T2207/30064Lung nodule
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • G06V2201/032Recognition of patterns in medical or anatomical images of protuberances, polyps nodules, etc.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Public Health (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Pathology (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Optics & Photonics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Quality & Reliability (AREA)
  • Physiology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Pulmonology (AREA)
  • Dentistry (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Description

本明細書の開示は、情報処理装置、情報処理方法、情報処理システムおよびプログラムに関する。
非特許文献1には、医用画像(胸部CT画像)に対して設定された関心領域内の異常陰影(肺結節)から特徴量を算出し、その特徴量を用いて肺結節に関する複数の画像所見を導出する技術が記載されている。
陳斌,外15名,"機械学習に基づく胸部CT画像からの肺結節画像所見自動導出に関する検討" 日本医用画像工学会大会予稿集(CD-ROM) 35th ROMBUNNO.PP‐34, 2016. Nakagomi K et al.,「Multi-shape graph cuts with neighbor prior constraints and its application to lung segmentation from a chest CT volume」,Med Image Anal,17(1),pp.62-77,2013.
しかしながら、導出する画像所見の種別が異なるものであっても一律に同じ特徴量を用いて画像所見を導出しているため、導出する画像所見によっては不要な処理が生じていた。
本明細書の開示は、画像所見を導出するための処理の効率を向上することを目的の一つとする。
なお、前記目的に限らず、後述する発明を実施するための形態に示す各構成により導かれる作用効果であって、従来の技術によっては得られない作用効果を奏することも本明細書の開示の他の目的の一つとして位置付けることができる。
本発明の実施形態に係る情報処理装置は、医用画像から第1の画像特徴量と第2の画像特徴量とを取得する画像特徴量取得手段と、前記第1の画像特徴量に基づいて第1の所見種別に属する複数の項目の画像所見を導出し、前記第1の画像特徴量とは少なくとも一部が異なる前記第2の画像特徴量に基づいて導出される前記第1の所見種別とは異なる第2の所見種別に属する複数の項目の画像所見とを導出する導出手段と、を有することを特徴とする。
本明細書の開示によれば、画像所見を導出するための処理の効率を向上することができる。
情報処理装置の機能構成の一例を示す図である。 情報処理装置のハードウェア構成の一例を示す図である。 情報処理装置の処理の一例を示すフローチャートである。 処理対象領域の一例を示す図である。 画像解析の一例を示す図である。
以下、本発明を実施するための形態について図面を用いて説明する。
<実施形態1>
実施形態1における情報処理装置は、医用画像に描出された異常陰影に対して、画像所見の種別(以下、「所見種別」と呼ぶ。)に応じて夫々画像解析の対象となる領域を設定し、夫々の領域において画像解析を行って所見種別に応じた特徴量を取得する。そして、所見種別に応じた特徴量を用いて、その所見種別に属する複数の項目の画像所見を導出する。以下では、医用画像は胸部X線CT画像とし、肺野内の塊状の異常陰影(肺結節)に係る複数の所見種別の夫々に属する複数の項目の画像所見を取得するものとする。
具体的には、第1の所見種別が異常陰影の周囲の情報(他の組織との関係)を示すものであり、第2の所見種別が異常陰影の形状を示すものであり、第3の所見種別が異常陰影の性状を示すものであるとして説明する。第1の所見種別には、例えば、胸膜の引き込み、動静脈の引き込みなどの項目の画像所見が属する。また、第2の所見種別には、例えば、鋸歯状辺縁、棘状突起などの項目の画像所見が属する。そして、第3の所見種別には、例えば、石灰化濃度比率、空洞などの項目の画像所見が属する。
画像所見は、項目によって導出結果の表し方が異なる。例えば項目が「胸膜の引き込み」であった場合には、「ある、なし」といった文字で表されるが、項目が「石灰化濃度比率」であった場合には、「0%」などの数値として表される。すなわち、導出された画像所見は文字で表されていてもよいし、数値で表されていてもよい。また、導出結果は、「ある、なし」のような2値で表されてもよいし、「0%、1~33%、34~66%、67~99%、100%」のように多値で表されてもよい。
図1は、実施形態1における情報処理装置100の機能構成の一例を示す図である。情報処理装置100は本実施形態に係る情報処理方法を実行する装置の一例に相当する。本実施形態における情報処理装置100は、入力部200に接続している。入力部200は情報処理装置100からの要求に従い、PACSやモダリティなどから医用画像を取得し、取得された医用画像を情報処理装置100へと入力する。あるいは、入力部200はPACSやモダリティでもよく、情報処理装置100からの要求に従い必要となる医用画像を情報処理装置100へと入力する。
情報処理装置100は、抽出部102、関心領域取得部104、設定部106、画像特徴量取得部108及び導出部110を含む。抽出部102は、情報処理装置100に入力された医用画像から異常陰影候補を抽出する。関心領域取得部104は、各異常陰影候補を囲む関心領域を取得する。設定部106は、関心領域に基づいて画像解析の領域を医用画像上に設定する。画像特徴量取得部108は、夫々の領域に対して画像解析を行い、画像特徴量を夫々取得する。導出部110は、夫々の特徴量を用いて、各所見種別に属する複数の項目の画像所見を導出する。
本実施形態では、設定部106は、第1の所見種別に対する処理を行う第1の領域と、第2の所見種別に対する処理を行う第2の領域と、第3の所見種別に対する処理を行う第3の領域とを設定するものとする。また、画像特徴量取得部108は、第1乃至第3の領域の夫々に画像解析を行い、第1の画像特徴量と、第2の画像特徴量と、第3の画像特徴量とを取得するものとする。そして、導出部110は、第1の画像特徴量を用いて第1の所見種別に属する複数の項目の画像所見を導出する。また、第2の画像特徴量を用いて第2の所見種別に属する複数の項目の画像所見を導出する。さらに、第3の画像特徴量を用いて第3の所見種別に属する複数の項目の画像所見を導出する。なお、本実施形態では設定部は3つの領域を設定したが、設定する領域の数はこれに限定されない。
なお、図1に示した情報処理装置100の各部の少なくとも一部は独立した装置として実現してもよい。また、夫々の機能を実現するソフトウェアとして実現してもよい。本実施形態では、各部はそれぞれソフトウェアにより実現されているものとする。
図2は、情報処理装置100のハードウェア構成の一例を示す図である。CPU(Central Processing Unit)1001は、主として各構成要素の動作を制御する。主メモリ1002は、CPU1001が実行する制御プログラムを格納したり、CPU1001によるプログラム実行時の作業領域を提供したりする。磁気ディスク1003は、オペレーティングシステム(OS)、周辺機器のデバイスドライバ、後述する処理等を行うためのプログラムを含む各種アプリケーションソフトを実現するためのプログラムを格納する。CPU1001が主メモリ1002、磁気ディスク1003等に格納されているプログラムを実行することにより、図1に示した情報処理装置100の機能(ソフトウェア)及び後述するフローチャートにおける処理が実現される。
表示メモリ1004は、表示用データを一時記憶する。モニタ1005は、例えばCRTモニタや液晶モニタ等であり、表示メモリ1004からのデータに基づいて画像やテキスト等の表示を行う。マウス1006及びキーボード1007は、ユーザによるポインティング入力及び文字等の入力を夫々行う。上記各構成要素は、共通バス1008により互いに通信可能に接続されている。
CPU1001はプロセッサの一例に相当する。情報処理装置100は、CPU1001に加えて、GPU(Graphics Processing Unit)やFPGA(Field-Programmable Gate Array)の少なくともいずれかを有していてもよい。また、CPU1001に代えて、GPUやFPGAの少なくともいずれかを有していてもよい。主メモリ1002、磁気ディスク1003はメモリの一例に相当する。情報処理装置100は、メモリとしてSSD(Solid State Drive)を有していてもよい。
次に、図3のフローチャートを用いて、情報処理装置100が行う全体の処理を説明する。図3は、情報処理装置100が行う処理の一例を示すフローチャートである。本実施形態では、CPU1001が主メモリ1002に格納されている各部の機能を実現するプログラムを実行することにより、図3に示す処理が実現される。
(ステップS310)
ステップS310において、抽出部102は、入力部200に要求を行い、情報処理装置100に入力された医用画像から異常陰影を抽出する。本実施形態では、異常陰影の抽出には公知のコンピュータ検出支援(Computer Aided Detection:CADe)技術を用いる。そして、例えば異常陰影は肺結節であって、肺結節の中心位置と肺結節領域の抽出結果を取得するものとする。
(ステップS320)
ステップS320において、関心領域取得部104は、ステップS310で抽出部102が取得した異常陰影に対する関心領域を取得する。関心領域は装置が自動で取得してもよいし、ユーザによる領域指定の指示に応じて取得してもよい。本実施形態では、関心領域取得部104は、ステップS310で取得した異常陰影に外接する領域(矩型)を関心領域として取得する。なお、本実施形態では異常陰影に外接する矩型領域を関心領域として取得したが、関心領域の取得方法はこれに限られない。以下、異常陰影に外接する矩型領域をVOI(Volume Of Interest)と称する。例えば、アキシャル断面、コロナル断面、サジタル断面上の夫々で座標が連動する矩型領域を設定することでVOIを指定する。なお、以下では簡単のためにVOIの各辺のサイズが同一であるものとし、lで表す。もちろんこれは一例であり、幅、長さ、奥行きが夫々違うサイズであってもよい。また、VOIの形状は矩型に限定されず、球形や楕円体であってもよい。なお、関心領域は異常陰影に必ずしも外接している必要はなく、異常陰影を囲み、異常陰影の辺縁から所定の距離以内に端部を有する領域であればよい。すなわち、関心領域取得部104は、医用画像に含まれる異常陰影を囲む領域を関心領域として取得する関心領域取得手段の一例に相当する。
(ステップS330)
ステップS330において、設定部106は、ステップS320で関心領域取得部104が取得した関心領域に基づいて、各所見種別に対応する領域の大きさや位置を設定する。
本実施形態では、第1の所見種別は異常陰影の周囲の情報(他の組織との関係)を示すものであるので、異常陰影の周囲を画像解析の対象領域とすることが望ましい。したがって、第1の領域として、ステップS320で関心領域取得部104が取得したVOIと中心位置を同一とし、一辺のサイズを例えば4/3・lとした矩形領域を設定する。すなわち、第1の領域は異常陰影に外接する領域より広い領域の一例に相当する。さらに、4/3・lは、関心領域の一辺のサイズlに4/3(>1)を乗算したものであるため、第1の領域は関心領域に1より大きい所定の係数を乗算した領域の一例に相当する。また、第2の所見種別は異常陰影の形状を示すものであるので、異常陰影の輪郭線を画像解析の対象領域とすることが望ましい。したがって、第2の領域として、ステップS320で関心領域取得部104が取得した異常陰影領域に外接する矩型領域であるVOIをサイズ変更せずに設定する。すなわち、第2の領域は異常陰影に外接する領域の一例に相当する。そして、第3の所見種別は異常陰影の性状を示すものであるので、異常陰影の内部を画像解析の対象領域とすることが望ましい。したがって、第3の領域として、ステップS320で関心領域取得部104が取得したVOIと中心位置を同一とし、一辺のサイズを例えば3/4・lとした矩型領域を設定する。すなわち、第3の領域は異常陰影に外接する領域より狭い領域の一例に相当する。すなわち、第1の領域は第2の領域を包含し、第2の領域は第3の領域を包含する関係にあるものとする。もちろんこれらのサイズや領域の包含関係は一例であり、他のサイズや包含関係であってもよい。例えば、完全な包含関係ではなく、一部を包含(すなわち、略包含)する関係であってもよい。
具体的には、第1の領域は、第2の領域の少なくとも一部を包含していればよいし、第2の領域は、第3の領域の少なくとも一部を包含していればよい。また、本実施形態では、異なる3つの領域を中心が同一になるように設定したが、領域の設定位置はこれに限定されない。例えば、第1の領域と第2の領域と第3の領域とを、関心領域取得部104で取得したVOIと中心位置が数ボクセル異なるように夫々設定してもよい。さらに、関心領域に乗算される係数はこれらに限定されない。
図4は、第1の領域、第2の領域、および第3の領域を示した模式図である。ステップS320で関心領域取得部104が取得した一辺のサイズがlのVOIが第2の領域420となる。そして、中心位置を変更せずにVOIの一辺のサイズlを4/3倍した領域を第1の領域410とし、中心位置を変更せずにVOIの一辺のサイズlを3/4倍した領域を第3の領域430とする。こうすることで、第1の領域には異常陰影の周囲の情報(他の組織との関係)が含まれ、第3の領域からは異常陰影の性状を得るのに不必要な輪郭線の情報が省かれるため、適切な画像解析を行うことができる。さらに、不必要な情報が省かれることにより計算効率も向上する。
(ステップS340)
ステップS340において、画像特徴量取得部108は、ステップS330で設定部106が設定した第1乃至第3の領域の夫々に対して画像解析を行い、該領域に対応する第1乃至第3の画像特徴量を夫々取得する。例えば、画像特徴量取得部108は、第1の領域に対して画像解析を行い第1の画像特徴量を、第2の領域に対して画像解析を行い第2の画像特徴量を、第3の領域に対して画像解析を行い第3の画像特徴量を取得する。すなわち、第1の画像特徴量は医用画像における第1の領域を解析することにより取得され、第2の画像特徴量または第3の特徴量は医用画像における第1の領域とは異なる第2の領域または第3の領域を解析することにより取得される。ここで、画像特徴量取得部108は、医用画像から第1の画像特徴量と第2の画像特徴量とを取得する画像特徴量取得手段の一例に相当する。
なお、第1乃至第3の領域と各領域から算出すべき特徴量は予め対応付けられている。領域と算出すべき特徴量との対応を示す情報は例えば主メモリ1002に記憶されており、画像特徴量取得部108は主メモリ1002に記憶された当該情報に基づいて第1乃至第3の領域から対応する特徴量を取得する。
本実施形態では、画像特徴量取得部108は、各領域を例えば64×64×64のサイズに正規化して解析を行う。なお、画像サイズは例示であり任意の値とすることが可能である。また、正規化は必須の処理ではない。また、画像特徴量取得部108は、第1の領域については、第2の領域との重複部分をマスキングして、第1の画像解析の対象から除外するようにする。同様に、第2の領域については、第3の領域との重複部分をマスキングして、第2の画像解析の対象から除外するようにする。本実施形態では、重複部分のボクセル値を、空気と同一のCT値(-1000HU)に置換することで、重複部分に意味のある情報を持たせないようにする。また、CT値の置換は重複部分が画像解析に与える影響を低減するような値であればよいので、-1000HUに限られず、-999HUなどでもよい。また、例えば-1350HUから150HUまでの範囲のCT値を0から255までの256階調の画素値に変換して扱う場合には、-1000HUに相当する画素値が約60となるので、重複部分のボクセル値を60に近い画素値に置換すればよい。すなわち、画像特徴量取得部108は、第1の画像特徴量に対する医用画像における第2の領域の影響を低減するように第1の領域のうち第2の領域と重複する部分の画素値が変更された医用画像における第1の領域を解析する。こうすることで、所望の画像解析と無関係な領域を画像解析の対象から外すことができるため、より正確かつ効率的に画像解析を行うことができる。
図5は、本実施形態における画像解析を行って第2の画像特徴量を取得して、第2の所見種別に属する複数の項目の画像所見を導出する例を示したものである。ここでは、第2の領域420の内部の第3の領域430を-1000HUでマスキングしたマスキング画像540を示している。画像解析は第2の特徴量を取得する画像特徴量取得部560と、第2の所見種別に属する複数の画像所見を導出する第2の導出部570からなるDCNN(Deep Convolutional Neural Network:深層畳み込みニューラルネットワーク)550を用いる。DCNNは一般に入力層と複数の畳み込み層と全結合層、出力層からなるニューラルネットワークである。DCNN550は、第2の所見種別に属する鋸歯状辺縁572や棘状突起574を出力する。このように、所見種別毎に処理対象領域と画像解析手法を共通化することにより、処理の効率化を行うことができる。
また、マスキングは重複部分全てでなくてもよく、重複部分の一部のみをマスキングして解析の対象から除外するようにしてもよい。
なお、上述のマスキングは必須の処理ではない。例えば、画像特徴量取得部108はマスキングを行うことなく重複部分をトリミングして除外することにより画像解析の対象から外すようにしてもよい。また、画像特徴量取得部108による解析領域を領域間で重複しない部分に限定することとしてもよい。例えば画像特徴量取得部108は第2の領域のうち第3の領域と重複しない領域に限定して解析を行うことで第2の特徴量を取得することとしてもよい。また、画像特徴量取得部108は、第1の領域のうち第2の領域と重複しない領域に限定して解析を行うことで第1の特徴量を取得することとしてもよい。
(ステップS350)
ステップS350において、導出部110は、ステップS340において、画像特徴量取得部108が取得した夫々の画像特徴量を用いて各所見種別に属する複数の項目の画像所見を導出する。例えば、画像特徴量が抽出された医用画像における領域と複数の項目(画像所見の項目)を含む所見種別とが対応付けられた情報が主メモリ1002に記憶されている。導出部110は、例えば、当該情報に基づいて所定の所見種別に対応する医用画像における領域を特定する。そして導出部101は画像特徴量取得部108から出力された特定した領域における画像特徴量を取得し、所見種別に属する複数項目の画像所見を導出する。
具体的には、第1の画像特徴量を用いて第1の所見種別に属する項目の画像所見を導出し、第2の画像特徴量を用いて第2の所見種別に属する項目の画像所見を導出し、第3の画像特徴量を用いて第3の所見種別に属する項目の画像所見を導出する。すなわち、第1の領域のうち第2の領域と重複する部分を除外した領域のみを解析することにより取得された第1の画像特徴量のみに基づいて第1の所見種別に属する複数の項目の画像所見を導出し、第1の領域に少なくとも一部を包含された第2の領域のみを解析することにより取得された第2の共通画像特徴量のみに基づいて第2の所見種別に属する複数の項目の画像所見を導出することの一例に相当する。また、医用画像から得られた複数の画像特徴量を取得する取得手段の一例に相当する。
なお、各所見種別に属する複数の項目の画像所見は、対応する領域に対して画像解析を行い取得された画像特徴量のみを用いて導出してもよい。また、対応する領域に対して画像解析を行い取得された画像特徴量に加え他の領域に対して画像解析を行い取得された画像特徴量の一部も用いて導出してもよい。例えば、第1の所見種別に属する項目の画像所見を導出する場合に、対応する領域である第1の領域を画像解析し得られた第1の画像特徴量のみから第1の所見種別に属する項目の画像所見を導出することに限定されない。第1の画像特徴量に加え、第2の領域に対して画像解析を行い取得された第2の画像特徴量の一部も用いて第1の所見種別に属する項目の画像所見を導出してもよい。すなわち、導出部110は第1の画像特徴量に基づいて導出される第1の所見種別に属する複数の項目の画像所見と、第1の画像特徴量とは少なくとも一部が異なる第2の画像特徴量に基づいて導出される第1の所見種別とは異なる第2の所見種別に属する複数の項目の画像所見とを導出する導出手段の一例に相当する。
さらに、導出部110は、第1乃至第3の領域の夫々に対して画像解析を行い得られた第1乃至第3の画像特徴量の中から、所見種別毎に複数の画像特徴量を選択し、その選択した画像特徴量を用いて夫々の所見種別の項目の画像所見を導出してもよい。また、導出部110は、全体に対して画像解析を行い得られた特徴量の中から主メモリ1002に記憶された所見種別と画像特徴量との対応を示す情報に基づいて所見種別毎に複数の画像特徴量を選択する。そして、その選択した画像特徴量を用いて夫々の所見種別の項目の画像所見を導出してもよい。なお、画像特徴量の選択は、所見種別間で一部が異なるように選択してもよいし、所見種別間で画像特徴量が重複しないように画像特徴量を選択してもよい。すなわち、複数の所見種別のうち各所見種別に属する複数の項目の画像所見を導出するための画像特徴量を、複数の画像特徴量から複数の所見種別間で少なくとも一部が異なるように選択する選択手段と、選択手段により選択された画像特徴量を用いて所見種別毎に複数の項目の画像所見を導出する導出手段の一例である。さらに、所見種別間で画像特徴量が重複しないように画像特徴量を選択する選択手段の一例に相当する。
また、導出部110は、第1乃至3の所見種別に属する複数の項目の画像所見のうちいずれかひとつの所見種別に属する複数の項目の画像所見のみを導出してもよい。
本実施形態では、ステップS340の処理とステップS350の処理を、DCNNを用いて行う。本実施形態では、夫々の所見種別に対してDCNNを構成する(図5)。具体的には、DCNN550は第2の所見種別に対応する領域に対して構成されているが、第1の所見種別に対応する領域や第3の所見種別に対応する領域を解析し画像所見を導出する場合には、DCNN550とは異なるDCNN(不図示)が領域毎に構成される。そして、DCNNのN層のうち、N-1層目まで(図5、560)が画像特徴量取得部108にあたり、N層(図5、570)が導出部110にあたる。この例では、画像特徴量取得部108と導出部110が一体の構成になっているが、もちろん分離した構成であってもよい。具体例については変形例3で後述する。
本実施形態では、導出する画像所見が異なる場合には画像全体から導出される特徴量を一律に用いるのではなく、各領域に対応づいた画像特徴量を用いて所見を導出するため、画像所見を導出するための処理の効率を向上することができる。
また、本実施形態では、異常陰影を囲む領域を関心領域として取得し、画像所見の種別(所見種別)に応じた領域を設定する。そして、夫々の領域に対して画像解析を行い、その所見種別に含まれる一つ以上の画像所見を取得する。このように、所見種別に応じて領域を設定することで、所見種別が同一である場合には共通の画像解析を行うことができるため、画像所見を導出するための処理の効率を向上することができる。また、画像所見の導出に不要な特徴量を用いることを抑制できるため導出精度を向上させることができる。
(実施形態1の変形例1)
実施形態1では、ステップS320において関心領域取得部104が関心領域を取得していた。しかし、必ずしも関心領域を取得しなくてもよい。この場合、ステップS330における処理対象の領域は、関心領域に基づかずに設定する。例えば、ステップS310で抽出部102が取得した肺結節領域を第2の領域としてもよい。また、肺結節領域が属する肺野領域や肺結節領域の境界線から外側に数ボクセル拡大させた領域を第1の領域としてもよい。さらに、肺結節領域の境界線から内側に数ボクセル収縮させた領域を第3の領域とするようにしてもよい。なお、肺野領域は、例えば非特許文献2の手法により算出することができる。
本変形例では、関心領域の取得を行わないため、さらに処理時間を短縮することが可能である。
(実施形態1の変形例2)
実施形態1では、ステップS340において、画像特徴量取得部108が画像所見の種別(所見種別)に応じて共通の画像解析を行っていた。しかし、同一の所見種別に対して異なる画像解析を行ってもよい。例えば、DCNNの重みを共通化せず、画像所見毎に異なるDCNNで画像解析を行う構成であってもよい。さらに、一部の所見種別では共通した画像解析を行い、それ以外の所見種別では画像所見毎に異なる画像解析を行うようにしてもよい。
本変形例では、画像所見の種別(所見種別)や画像所見の内容に応じて画像解析手法を選択することができるため、より適切な画像所見を取得することができる。
(実施形態1の変形例3)
実施形態1では、画像特徴量取得部108と導出部110が一体の構成となっていた。しかし、分離した構成であってもよい。例えば、画像特徴量取得部108では所定の領域において公知の画像処理方法を用いて画像解析を行い、導出部110では公知の推論手法を用いて画像所見を導出するようにしてもよい。
例えば、第1の領域においては、第2の領域との重複領域をマスキングして、輝度値(CT値)によるヒストグラムを作成し、第1の特徴量とする。また、第2の領域においては、第3の領域との重複領域をマスキングせず、エッジ強調フィルタをかけた後にエッジ部分の円形度や長さを算出して第2の特徴量とする。すなわち、第2の画像特徴量は、第2の領域のうち第3の領域と重複しない部分にエッジ強調フィルタをかけて解析することにより取得されることの一例に相当する。そして、第3の領域においては、Haralick特徴量を算出して第3の特徴量とする。もちろんここで挙げた画像処理方法は一例であり、他の手法を用いてもよい。
あるいは、主成分分析や自己組織化マップのような教師なし学習の手法を用いて、関心領域の画素値を入力とし、出力結果を画像特徴量として用いるようにしてもよい。
そして、第1の所見種別の画像所見はランダムフォレスト分類器を用いて導出し、第2の所見種別の画像所見はベイジアンネットワークを用いて導出し、第3の所見種別の画像所見はサポートベクターマシンを用いて導出する。なお、第1乃至第3の所見種別の画像所見を夫々異なる手法で導出する例を示したが、もちろん同じ手法で導出してもよい。
本変形例では、画像所見の種別(所見種別)に応じて異なる画像処理方法や導出手法を選択することができるため、夫々の所見種別に対して適切な画像所見を取得することができる。
(その他の実施形態)
上述の実施形態では、胸部X線CT画像における肺結節に関する画像所見を画像解析によって取得する例により説明したが、本発明はこれに限らない。対象とする医用画像は、CT装置、デジタルラジオグラフィ、MRI(Magnetic Resonance Imaging)装置、SPECT(Single Photon Emission CT)装置、PET(Positron Emission Tomography)装置、超音波診断装置、眼底カメラ、光音響装置といった撮影装置の少なくともいずれかを用いて取得された医用画像でもよい。また、対象とする病変は肺結節影に限らず、被検体のいかなる部位の病変であってよい。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路、例えばASIC(Application Specific Integrated Circuit)によっても実現可能である。
上述の各実施形態における情報処理装置は、単体の装置として実現してもよいし、複数の装置を互いに通信可能に組合せて上述の処理を実行する形態としてもよく、いずれも本発明の実施形態に含まれる。共通のサーバ装置あるいはサーバ群で、上述の処理を実行することとしてもよい。情報処理装置および情報処理システムを構成する複数の装置は所定の通信レートで通信可能であればよく、また同一の施設内あるいは同一の国に存在することを要しない。
本発明の実施形態には、前述した実施形態の機能を実現するソフトウェアのプログラムを、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータが該供給されたプログラムのコードを読みだして実行するという形態を含む。
したがって、実施形態に係る処理をコンピュータで実現するために、該コンピュータにインストールされるプログラムコード自体も本発明の実施形態の一つである。また、コンピュータが読みだしたプログラムに含まれる指示に基づき、コンピュータで稼働しているOSなどが、実際の処理の一部又は全部を行い、その処理によっても前述した実施形態の機能が実現され得る。
100 情報処理装置
102 抽出部
104 関心領域取得部
106 設定部
108 画像特徴量取得部
110 導出部

Claims (17)

  1. 医用画像に含まれる異常陰影を囲む領域である関心領域に基づく領域であり、前記医用画像の部分領域である第1の領域を解析することにより第1の画像特徴量を取得し、
    前記関心領域に基づく領域であって該第1の領域とは異なる領域であり、前記医用画像の部分領域である第2の領域を解析することにより第2の画像特徴量を取得する画像特徴量取得手段と、
    前記第1の画像特徴量に基づいて第1の所見種別に属する複数の画像所見項目のそれぞれに対応する画像所見を導出し、前記第1の画像特徴量とは少なくとも一部が異なる前記第2の画像特徴量に基づいて前記第1の所見種別とは異なる第2の所見種別に属する複数の画像所見の項目のそれぞれに対応する画像所見とを導出する導出手段と、
    を備え
    前記第1の領域は前記異常陰影の辺縁から所定の距離以内に端部を有する領域より広い領域であり、前記第2の領域は、前記異常陰影の辺縁から所定の距離以内に端部を有する領域であることを特徴とする情報処理装置。
  2. 前記関心領域を取得する関心領域取得手段をさらに備え、
    前記第1の領域と前記第2の領域とは、前記関心領域に基づいた領域であることを特徴とする請求項1に記載の情報処理装置。
  3. 前記異常陰影を囲む領域は、前記異常陰影に外接する領域であることを特徴とする請求項1または2に記載の情報処理装置。
  4. 前記第1の領域は、前記第2の領域の少なくとも一部を包含することを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。
  5. 前記第1の領域のサイズは前記関心領域のサイズに1より大きい所定の係数を乗算したサイズであり、前記第2の領域のサイズは前記関心領域と同じサイズであることを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。
  6. 前記第1の領域は前記医用画像に含まれる異常陰影に外接する領域より広い領域であり、前記第2の領域は前記異常陰影に外接する領域であることを特徴とする請求項4に記載の情報処理装置。
  7. 前記第1の領域は、前記第2の領域より大きい領域であることを特徴とする請求項1乃至6のいずれか一項に記載の情報処理装置。
  8. 前記第1の領域は、前記関心領域のサイズに1より大きい所定の係数を乗算した領域であることを特徴とする請求項7に記載の情報処理装置。
  9. 前記第1の画像特徴量は、前記第1の領域のうち前記第2の領域と重複しない領域を解析することにより取得されることを特徴とする請求項1乃至6のいずれか1項に記載の情報処理装置。
  10. 前記画像特徴量取得手段は、前記第1の画像特徴量に対する前記第2の領域の影響を低減するように前記第1の領域のうち前記第2の領域と重複する部分の画素値が変更された前記医用画像における前記第1の領域を解析することで前記第1の画像特徴量を取得することを特徴とする請求項1乃至9のいずれか1項に記載の情報処理装置。
  11. 前記第1の画像特徴量は、前記第1の領域のうち前記第2の領域と重複しない部分にエッジ強調フィルタをかけて解析することにより取得されることを特徴とする請求項1乃至10のいずれか1項に記載の情報処理装置。
  12. 前記導出手段は、前記第1の領域のうち前記第2の領域と重複する部分を除外した領域のみを解析することにより取得された前記第1の画像特徴量のみに基づいて前記第1の所見種別に属する複数の画像所見項目のそれぞれに対応する画像所見を導出し、前記第1の領域に少なくとも一部が包含された前記第2の領域のみを解析することにより取得された前記第2の画像特徴量のみに基づいて前記第2の所見種別に属する複数の項目の画像所見を導出することを特徴とする請求項1乃至8のいずれか1項に記載の情報処理装置。
  13. 医用画像に含まれる異常陰影を囲む領域である関心領域に基づく複数の領域のそれぞれの領域を解析することにより複数の画像特徴量を取得する取得手段と、
    複数の所見種別のうち各所見種別に属する複数の画像所見項目のそれぞれに対応する画像所見を導出するための画像特徴量を、前記複数の画像特徴量から前記複数の所見種別間で画像特徴量が重複しないように選択する選択手段と、
    前記選択手段により選択された画像特徴量を用いて前記所見種別毎に複数の画像所見項目のそれぞれに対応する画像所見を導出する導出手段と、
    を備えることを特徴とする情報処理装置。
  14. 前記第1の所見種別および前記第2の所見種別の少なくとも一方の所見種別は、異常陰影と他の組織との関係を示す画像所見、異常陰影の形状を示す画像所見、異常陰影の性状を示す画像所見、の何れかを含むことを特徴とする請求項1乃至12のいずれか1項に記載の情報処理装置。
  15. 前記画像特徴量取得手段は、ニューラルネットワークを用いて前記第1の画像特徴量および前記第2の画像特徴量のうち、少なくとも一方の画像特徴量を取得することを特徴とする請求項1乃至12のいずれか1項に記載の情報処理装置。
  16. 医用画像に含まれる異常陰影を囲む領域である関心領域に基づく領域であり、前記医用画像の部分領域である第1の領域を解析することにより第1の画像特徴量を取得し、
    前記関心領域に基づく領域であって該第1の領域とは異なる領域であり、前記医用画像の部分領域である第2の領域を解析することにより第2の画像特徴量を取得する画像特徴量取得工程と、
    前記第1の画像特徴量に基づいて導出される第1の所見種別に属する複数の画像所見項目のそれぞれに対応する画像所見と、前記第1の画像特徴量とは少なくとも一部が異なる前記第2の画像特徴量に基づいて導出される前記第1の所見種別とは異なる第2の所見種別に属する複数の画像所見項目のそれぞれに対応する画像所見とを導出する導出工程と、
    を備えることを特徴とする情報処理方法。
  17. 請求項1乃至1のいずれか1項に記載の情報処理装置の各手段をコンピュータに実行させることを特徴とするプログラム。
JP2018081763A 2018-04-20 2018-04-20 情報処理装置、情報処理方法、情報処理システムおよびプログラム Active JP7321671B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018081763A JP7321671B2 (ja) 2018-04-20 2018-04-20 情報処理装置、情報処理方法、情報処理システムおよびプログラム
PCT/JP2019/015662 WO2019203092A1 (ja) 2018-04-20 2019-04-10 情報処理装置、情報処理方法、情報処理システムおよびプログラム
US17/069,708 US11823377B2 (en) 2018-04-20 2020-10-13 Information processing apparatus, information processing method, and non-transitory computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018081763A JP7321671B2 (ja) 2018-04-20 2018-04-20 情報処理装置、情報処理方法、情報処理システムおよびプログラム

Publications (2)

Publication Number Publication Date
JP2019191772A JP2019191772A (ja) 2019-10-31
JP7321671B2 true JP7321671B2 (ja) 2023-08-07

Family

ID=68238943

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018081763A Active JP7321671B2 (ja) 2018-04-20 2018-04-20 情報処理装置、情報処理方法、情報処理システムおよびプログラム

Country Status (3)

Country Link
US (1) US11823377B2 (ja)
JP (1) JP7321671B2 (ja)
WO (1) WO2019203092A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6818424B2 (ja) * 2016-04-13 2021-01-20 キヤノン株式会社 診断支援装置、情報処理方法、診断支援システム及びプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016214323A (ja) 2015-05-14 2016-12-22 キヤノン株式会社 医療診断支援装置、情報処理方法及びプログラム
JP2018061771A (ja) 2016-10-14 2018-04-19 株式会社日立製作所 画像処理装置、及び画像処理方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7499578B2 (en) * 2002-10-18 2009-03-03 Cornell Research Foundation, Inc. System, method and apparatus for small pulmonary nodule computer aided diagnosis from computed tomography scans
JP5421756B2 (ja) * 2009-12-11 2014-02-19 富士フイルム株式会社 画像表示装置および方法並びにプログラム
US10049445B2 (en) * 2011-07-29 2018-08-14 Canon Kabushiki Kaisha Image processing apparatus and image processing method of a three-dimensional medical image
EP3893198A1 (en) * 2020-04-08 2021-10-13 Siemens Healthcare GmbH Method and system for computer aided detection of abnormalities in image data

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016214323A (ja) 2015-05-14 2016-12-22 キヤノン株式会社 医療診断支援装置、情報処理方法及びプログラム
JP2018061771A (ja) 2016-10-14 2018-04-19 株式会社日立製作所 画像処理装置、及び画像処理方法

Also Published As

Publication number Publication date
JP2019191772A (ja) 2019-10-31
US20210027465A1 (en) 2021-01-28
US11823377B2 (en) 2023-11-21
WO2019203092A1 (ja) 2019-10-24

Similar Documents

Publication Publication Date Title
Park et al. Fully automated lung lobe segmentation in volumetric chest CT with 3D U-Net: validation with intra-and extra-datasets
US10453200B2 (en) Automated segmentation using deep learned priors
EP3035287B1 (en) Image processing apparatus, and image processing method
JP7005191B2 (ja) 画像処理装置、医用画像診断装置、及びプログラム
JP6792364B2 (ja) 画像処理装置、画像処理システム、画像処理方法、およびプログラム
US10748282B2 (en) Image processing system, apparatus, method and storage medium
JP6353463B2 (ja) 定量イメージング
Zhang et al. A segmentation method for lung nodule image sequences based on superpixels and density-based spatial clustering of applications with noise
Tan et al. An approach for pulmonary vascular extraction from chest CT images
Maity et al. Automatic lung parenchyma segmentation using a deep convolutional neural network from chest X-rays
JP2020018705A (ja) 医用画像処理装置、画像生成方法、及び画像生成プログラム
US9965853B2 (en) Image processing apparatus, image processing system, image processing method, and storage medium
US10902603B2 (en) Method of segmenting a 3D object in a medical radiation image
US7835555B2 (en) System and method for airway detection
WO2018088055A1 (ja) 画像処理装置、画像処理方法、画像処理システム及びプログラム
JP6257949B2 (ja) 画像処理装置および医用画像診断装置
Mehta et al. Segmenting the kidney on ct scans via crowdsourcing
Kaluva et al. An automated workflow for lung nodule follow-up recommendation using deep learning
JP6827707B2 (ja) 情報処理装置および情報処理システム
JP7321671B2 (ja) 情報処理装置、情報処理方法、情報処理システムおよびプログラム
Mortaheb et al. Metal artifact reduction and segmentation of dental computerized tomography images using least square support vector machine and mean shift algorithm
von Querfurth et al. Lung, nodule, and airway segmentation using partially annotated data
Les et al. Localization of spleen and kidney organs from CT scans based on classification of slices in rotational views
Wahengbam et al. Deep Learning-based Early Lung Cancer Detection using Multi-Model Image Fusion Technique
JP2022107639A (ja) 画像処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210329

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220419

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220616

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230418

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230614

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230627

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230726

R151 Written notification of patent or utility model registration

Ref document number: 7321671

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151