JP2020068881A - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
JP2020068881A
JP2020068881A JP2018202950A JP2018202950A JP2020068881A JP 2020068881 A JP2020068881 A JP 2020068881A JP 2018202950 A JP2018202950 A JP 2018202950A JP 2018202950 A JP2018202950 A JP 2018202950A JP 2020068881 A JP2020068881 A JP 2020068881A
Authority
JP
Japan
Prior art keywords
subject
medical image
group
unit
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018202950A
Other languages
English (en)
Other versions
JP7086818B2 (ja
Inventor
健太 山田
Kenta Yamada
健太 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2018202950A priority Critical patent/JP7086818B2/ja
Priority to US16/660,749 priority patent/US11334990B2/en
Publication of JP2020068881A publication Critical patent/JP2020068881A/ja
Application granted granted Critical
Publication of JP7086818B2 publication Critical patent/JP7086818B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30008Bone
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30061Lung

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Quality & Reliability (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

【課題】医用画像から対象とする領域を精度良く抽出することができる情報処理装置、情報処理方法、及びプログラムを得る。【解決手段】情報処理装置14は、被検体を撮影して得られた画像から被検体の体格を表す情報を抽出する抽出部46と、抽出部46により抽出された被検体の体格を表す情報を用いて、被検体が分類されるグループを特定する特定部48と、グループ毎の被検体を撮影して得られた医用画像を表す画像データ及び医用画像から抽出された領域を表す情報を学習用データとして用いた機械学習によって、学習済みモデルをグループ毎に生成する生成部52と、を備える。【選択図】図4

Description

本開示は、情報処理装置、情報処理方法、及びプログラムに関する。
従来、入力画像に含まれる顔を、検出すべき顔の傾きを変えながら検出する顔検出方法が開示されている(特許文献1参照)。この顔検出方法では、検出すべき顔の傾きに応じて、第1の検出処理及び第2の検出処理の何れかの検出処理によって顔検出を行う。
また、入力画像の種類に応じた顔検出手法を用いて、入力画像から顔を検出する画像処理装置が開示されている(特許文献2参照)。
特開2007−128127号公報 特開2009−70099号公報
ところで、医用画像から対象とする領域を精度良く抽出することができると、医師が診断を行ううえで好ましい。しかしながら、特許文献1及び特許文献2に記載の技術では、医用画像から対象とする領域を精度良く抽出することはできない。
本開示は、以上の事情を鑑みて成されたものであり、医用画像から対象とする領域を精度良く抽出することができる情報処理装置、情報処理方法、及びプログラムを提供することを目的とする。
上記目的を達成するために、本開示の情報処理装置は、被検体を撮影して得られた画像から被検体の体格を表す情報を抽出する抽出部と、抽出部により抽出された被検体の体格を表す情報を用いて、被検体が分類されるグループを特定する特定部と、グループ毎の被検体を撮影して得られた医用画像を表す画像データ及び医用画像から抽出された領域を表す情報を学習用データとして用いた機械学習によって、医用画像を表す画像データを入力とし、領域を表す情報を出力とした学習済みモデルをグループ毎に生成する生成部と、を備える。
なお、本開示の情報処理装置は、医用画像を表す画像データ及び領域を表す情報を学習用データとして用いた機械学習によって予め得られた1つの学習済みモデルに対して医用画像を表す画像データを入力する入力部と、入力部による入力により1つの学習済みモデルから出力された領域を表す情報を取得する取得部と、を更に備え、生成部が、入力部により入力された医用画像データ及び取得部により取得された領域を表す情報を学習用データとして、特定部により特定されたグループ毎に1つの学習済みモデルを再学習させることによって学習済みモデルをグループ毎に生成してもよい。
また、本開示の情報処理装置は、被検体の体格を表す情報が、被検体の骨格であってもよい。
また、本開示の情報処理装置は、被検体の体格を表す情報が、被検体の体表であってもよい。
また、本開示の情報処理装置は、被検体の体格を表す情報の抽出に用いられる画像が、医用画像であってもよい。
また、本開示の情報処理装置は、グループが、被検体の年齢、性別、人種、又は種族によって被検体が分類されるグループであってもよい。
一方、上記目的を達成するために、本開示の情報処理方法は、被検体を撮影して得られた画像から被検体の体格を表す情報を抽出し、抽出した被検体の体格を表す情報を用いて、被検体が分類されるグループを特定し、グループ毎の被検体を撮影して得られた医用画像を表す画像データ及び医用画像から抽出された領域を表す情報を学習用データとして用いた機械学習によって、医用画像を表す画像データを入力とし、領域を表す情報を出力とした学習済みモデルをグループ毎に生成する処理をコンピュータが実行するものである。
また、上記目的を達成するために、本開示のプログラムは、被検体を撮影して得られた画像から被検体の体格を表す情報を抽出し、抽出した被検体の体格を表す情報を用いて、被検体が分類されるグループを特定し、グループ毎の被検体を撮影して得られた医用画像を表す画像データ及び医用画像から抽出された領域を表す情報を学習用データとして用いた機械学習によって、医用画像を表す画像データを入力とし、領域を表す情報を出力とした学習済みモデルをグループ毎に生成する処理をコンピュータに実行させるためのものである。
また、本開示の情報処理装置は、コンピュータに実行させるための命令を記憶するメモリと、記憶された命令を実行するよう構成されたプロセッサと、を備え、プロセッサは、被検体を撮影して得られた画像から被検体の体格を表す情報を抽出し、抽出した被検体の体格を表す情報を用いて、被検体が分類されるグループを特定し、グループ毎の被検体を撮影して得られた医用画像を表す画像データ及び医用画像から抽出された領域を表す情報を学習用データとして用いた機械学習によって、医用画像を表す画像データを入力とし、領域を表す情報を出力とした学習済みモデルをグループ毎に生成する。
本開示によれば、医用画像から対象とする領域を精度良く抽出することができる。
実施形態に係る診断支援システムの構成の一例を示すブロック図である。 実施形態に係る情報処理装置のハードウェア構成の一例を示すブロック図である。 実施形態に係る学習済みモデルの一例を示す図である。 実施形態に係る情報処理装置の機能的な構成の一例を示すブロック図である。 実施形態に係る診断支援処理の一例を示すフローチャートである。 実施形態に係る再学習処理の一例を示すフローチャートである。
以下、図面を参照して、本開示の技術を実施するための形態例を詳細に説明する。
まず、図1を参照して、本実施形態に係る診断支援システム10の構成を説明する。図1に示すように、診断支援システム10は、画像管理装置12及び情報処理装置14を含む。画像管理装置12及び情報処理装置14は、各々ネットワークNに接続され、ネットワークNを介した通信が可能とされる。画像管理装置12は、CT(Computed Tomography)及びMRI(Magnetic Resonance Imaging)等の医用画像を撮影する撮影装置により被検体を撮影して得られた医用画像を表す画像データ(以下、「医用画像データ」という)を記憶する。画像管理装置12の例としては、PACS(Picture Archiving and Communication System)等が挙げられる。情報処理装置14は、画像管理装置12に記憶された医用画像データを用いて診断の支援を行う。情報処理装置14の例としては、パーソナルコンピュータ及びサーバコンピュータ等の情報処理装置が挙げられる。
次に、図2を参照して、本実施形態に係る情報処理装置14のハードウェア構成を説明する。図2に示すように、情報処理装置14は、CPU(Central Processing Unit)20、一時記憶領域としてのメモリ21、及び不揮発性の記憶部22を含む。また、情報処理装置14は、液晶ディスプレイ等の表示部23、キーボードとマウス等の入力部24、及びネットワークNに接続されるネットワークI/F(InterFace)25を含む。CPU20、メモリ21、記憶部22、表示部23、入力部24、及びネットワークI/F25は、バス26に接続される。
記憶部22は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、及びフラッシュメモリ等によって実現される。記憶媒体としての記憶部22には、情報処理プログラム30が記憶される。CPU20は、記憶部22から情報処理プログラム30を読み出してからメモリ21に展開し、展開した情報処理プログラム30を実行する。
また、記憶部22には、1つの学習済みモデル32、及び複数(本実施形態では、2つ)の学習済みモデル34が記憶される。図3を参照して、学習済みモデル32について説明する。図3に示すように、本実施形態では、学習済みモデル32の一例として入力層、複数の中間層、及び出力層を含むニューラルネットワークを適用した形態例を説明する。
学習済みモデル32には、入力データの一例として、CTにより被検体を撮影して得られた医用画像データが入力される。また、学習済みモデル32からは、出力データの一例として、入力の医用画像データが示す医用画像から抽出された領域を表す情報が出力される。本実施形態では、学習済みモデル32は、入力の医用画像データが示す医用画像における肺領域を抽出し、抽出した肺領域を予め定められた色(例えば、赤色)で塗りつぶした画像を表す画像データを出力する。図3では、抽出された肺領域を斜線の領域で示している。
学習済みモデル32は、複数組の医用画像データ及び医用画像データにおける肺領域を表す情報を学習用データ(教師データとも称される)として用いた機械学習によって予め得られたモデルである。なお、この際の機械学習に用いられる手法の例としては、誤差逆伝播法等が挙げられる。
また、本実施形態に係る学習済みモデル32は、後述する被検体が分類されるグループの区別はなく、汎用のモデルとして予め得られている。
なお、本実施形態では、学習済みモデル32が左右両方の肺領域を抽出する場合について説明するが、これに限定されない。学習済みモデル32が左右の何れか一方の肺領域を抽出してもよいし、肺以外の領域を抽出してもよいし、複数種類の領域を抽出してもよい。学習済みモデル32が抽出する領域の例としては、臓器領域、骨の領域、血管の領域、及び皮下脂肪の領域等が挙げられる。
学習済みモデル32と同様に、学習済みモデル34にも入力層、複数の中間層、及び出力層を含むニューラルネットワークが適用される。また、学習済みモデル32と同様に、学習済みモデル34にもCTにより被検体を撮影して得られた医用画像データが入力され、学習済みモデル34からも入力の医用画像データが示す医用画像から抽出された領域を表す情報が出力される。学習済みモデル34は、後述する生成部52により被検体が分類されるグループ毎に生成される。
次に、図4を参照して、本実施形態に係る情報処理装置14の機能的な構成について説明する。図4に示すように、情報処理装置14は、入力部40、取得部42、出力部44、抽出部46、特定部48、記憶制御部50、及び生成部52を含む。CPU20が情報処理プログラム30を実行することで、入力部40、取得部42、出力部44、抽出部46、特定部48、記憶制御部50、及び生成部52として機能する。
入力部40は、画像管理装置12から医用画像データを取得し、取得した医用画像データを学習済みモデル32に入力する。取得部42は、入力部40による入力に対応して学習済みモデル32から出力された医用画像から抽出された領域を表す情報を取得する。
出力部44は、取得部42により取得された医用画像から抽出された領域を表す情報を表示部23に出力する。この出力により、表示部23には、例えば、肺領域が予め定められた色で塗りつぶされた画像が表示される。ユーザは、表示部23に表示された画像を用いて、被検体の診断を行う。なお、出力部44は、取得部42により取得された医用画像から抽出された領域を表す情報を記憶部22に出力(記憶)してもよいし、画像管理装置12に出力(送信)してもよい。
抽出部46は、入力部40により画像管理装置12から取得された医用画像データが示す医用画像から、被検体の体格を表す情報を抽出する。本実施形態では、抽出部46は、医用画像に対して画像解析処理を行うことによって、被検体の体格を表す情報として被検体の骨格を抽出する。具体的には、例えば、骨の領域は他の領域に比べてCT画像の信号値が高いため、抽出部46は、医用画像から信号値が閾値以上の領域を抽出することによって、被検体の骨格を抽出する。この際、抽出部46は、抽出した骨格における椎骨及び骨盤の特徴を識別し、かつ頭部、胸部、腹部、及び下肢等の部位を識別する。なお、この場合の閾値は、例えば、医用画像における骨の領域と他の領域とを区別可能な値の下限値として予め定められている。
特定部48は、抽出部46により抽出された被検体の体格を表す情報を用いて、被検体が分類されるグループを特定する。本実施形態では、特定部48は、抽出部46により抽出された被検体の骨格を用いて、その被検体が分類されるグループが小児であるか、又は成人であるかを特定する。具体的には、例えば、特定部48は、被検体の骨格について、全身における頭部の割合から、その被検体が分類されるグループが小児であるか、又は成人であるかを特定する。なお、全身における頭部の割合は、幼児から小学生までは15%以上25%以下程度であり、高校生以上では15%未満となる場合が多い。そこで、例えば、15%を閾値とすることで、被検体が分類されるグループを特定することができる。
なお、ここでいう小児とは、予め定められた年齢未満の子供を意味し、成人とは、予め定められた年齢以上の人を意味する。また、小児と成人との境界の年齢は、特に限定されず、例えば、15歳としてもよいし、18歳としてもよい。また、被検体を分類するグループの数は2つに限定されず、3つ以上としてもよい。
記憶制御部50は、入力部40により画像管理装置12から取得された医用画像データ、及びその医用画像データについて取得部42により取得された医用画像から抽出された領域を表す情報を、特定部48により特定されたグループに対応付けて記憶部22に記憶する制御を行う。
生成部52は、記憶部22に記憶されたグループ毎の複数組の医用画像データ及び医用画像から抽出された領域を表す情報を学習用データとして用いた機械学習によって、学習済みモデル34をグループ毎に生成する。本実施形態では、生成部52は、記憶部22に記憶されたグループ毎の複数組の医用画像データ及び医用画像から抽出された領域を表す情報を学習用データとして、特定部48により特定されたグループ毎に学習済みモデル32を再学習させる。この再学習によって生成部52は、学習済みモデル34をグループ毎に生成する。
すなわち、本実施形態では、生成部52により、1つの汎用の学習済みモデル32から、小児のグループに対応する学習済みモデル34と、成人のグループに対応する学習済みモデル34とが生成される。
次に、図5及び図6を参照して、本実施形態に係る情報処理装置14の作用を説明する。CPU20が情報処理プログラム30を実行することによって、図5に示す診断支援処理及び図6に示す再学習処理が実行される。図5に示す診断支援処理は、例えば、ユーザにより入力部24を介して、診断支援処理の実行指示が入力された場合に実行される。
図5のステップS10で、入力部40は、画像管理装置12から医用画像データを取得する。ステップS12で、入力部40は、ステップS10で取得した医用画像データを学習済みモデル32に入力する。ステップS14で、取得部42は、ステップS12の処理による入力に対応して学習済みモデル32から出力された医用画像から抽出された領域を表す情報を取得する。
ステップS16で、出力部44は、前述したように、ステップS14の処理により取得された医用画像から抽出された領域を表す情報を表示部23に出力する。ステップS18で、抽出部46は、前述したように、ステップS10の処理により取得された医用画像データが示す医用画像から、被検体の体格を表す情報を抽出する。
ステップS20で、特定部48は、前述したように、ステップS18の処理により抽出された被検体の体格を表す情報を用いて、被検体が分類されるグループを特定する。ステップS22で、ステップS10の処理により取得された医用画像データ及びステップS14の処理により取得された医用画像から抽出された領域を表す情報を、ステップS20の処理により特定されたグループに対応付けて、学習用データとして記憶部22に記憶する制御を行う。ステップS22の処理が終了すると、診断支援処理が終了する。
図5に示す診断支援処理が各被検体を撮影して得られた医用画像データについて実行されることによって、グループ毎に学習用データが記憶部22に蓄積される。各グループについて、図5に示す記憶制御処理により、所定の件数(例えば、100件)以上の学習用データが記憶部22に記憶されると、図6に示す再学習処理が実行される。なお、図6に示す再学習処理は、図5のステップS22の処理により学習用データが記憶部22に記憶されるたびに実行されてもよいし、ユーザにより実行指示が入力された場合に実行されてもよい。
図6のステップS30で、生成部52は、所定の件数以上の学習用データが記憶されたグループに対応する学習用データ(すなわち、医用画像データ及び医用画像から抽出された領域を表す情報)を記憶部22から取得する。ステップS32で、生成部52は、前述したように、ステップS30で取得した学習用データを用いて、学習済みモデル32を再学習させることによって、所定の件数以上の学習用データが記憶されたグループに対応する学習済みモデル34を生成する。ステップS32の処理が終了すると、再学習処理が終了する。各グループについて図6に示す再学習処理が実行されることによって、各グループに対応する学習済みモデル34が生成される。
各グループについて学習済みモデル34が生成された後は、例えば、医用画像データを、その医用画像データに対応する被検体が分類されるグループに対応する学習済みモデル34に入力する。これにより、その医用画像データが示す医用画像から抽出された領域を表す情報を取得することができる。
以上説明したように、本実施形態によれば、被検体の体格を表す情報を用いて被検体が分類されるグループを特定し、特定したグループ毎の医用画像データ及び医用画像から抽出された領域を表す情報を学習用データとして用いた機械学習によって、学習済みモデル34をグループ毎に生成する。
被検体を撮影して得られた医用画像は、小児であるか、又は成人であるかによって、撮影時の放射線量、臓器の大きさ、及び脂肪の量等が異なる。具体的には、小児の方が成人よりも撮影時の放射線量が少ない、臓器が小さい、及び脂肪が小さい等の特徴がある。従って、本実施形態のように、小児に対応する学習済みモデル34と成人に対応する学習済みモデル34とを個別に生成することによって、医用画像から対象とする領域を精度良く抽出することができる。
また、本実施形態によれば、被検体を撮影して得られた医用画像から被検体の体格を表す情報を抽出し、抽出した情報を用いて被検体が分類されるグループを特定している。従って、被検体の体格を抽出するための専用の画像が不要となり、またユーザがグループを設定することなくグループを特定することができる結果、被検体が分類されるグループを効率的に特定することができる。
なお、上記実施形態では、学習済みモデル32を再学習させることによって学習済みモデル34を生成する場合について説明したが、これに限定されない。グループ毎の医用画像データ及び医用画像から抽出された領域を表す情報を学習用データとして用いた機械学習によって、学習済みモデル34をグループ毎にゼロから生成する形態としてもよい。
また、上記実施形態では、被検体の体格を表す情報として、被検体の骨格を適用した場合について説明したが、これに限定されない。例えば、被検体の体格を表す情報として、被検体の体表を適用する形態としてもよい。この場合、特定部48が、抽出された被検体の体表から被検体の腹囲長及び肩幅等を導出し、導出した被検体の腹囲長及び肩幅等の体格から、被検体が分類されるグループを特定する形態が例示される。この場合、例えば、性別の特定のための閾値としてメタボリックシンドロームの判定基準を適用することができる。
また、上記実施形態では、被検体が分類されるグループとして、被検体の年齢によって被検体が分類されるグループ(上記実施形態では、小児及び成人)を適用した場合について説明したが、これに限定されない。例えば、被検体が分類されるグループとして、被検体の性別によって分類されるグループを適用する形態としてもよいし、被検体の人種によって分類されるグループを適用する形態としてもよい。また、例えば、被検体が分類されるグループとして、人、犬、及び猫等の被検体の種族によって分類されるグループを適用する形態としてもよい。また、以上の例の複数の組み合わせによって被検体を分類してもよい。この場合、被検体を「小児・男性」、「小児・女性」、「成人・男性」、及び「成人・女性」のように、被検体の年齢及び性別の組み合わせによって分類されるグループに分類する形態が例示される。
例えば、骨盤の中央の孔の形状は、男性では三角形に近く、女性では円形に近い。従って、骨盤の中央の孔の形状から被検体の性別を特定することができる。また、例えば、骨の総数、尾の骨の有無、及び歯の数等から、被検体が人であるか、又は人以外の動物であるかを特定することができる。
また、上記実施形態では、医用画像から被検体の体格を表す情報を抽出する場合について説明したが、これに限定されない。例えば、医用以外の撮影装置により撮影された画像から被検体の体格を表す情報を抽出する形態としてもよい。この場合、デジタルカメラにより被検体を撮影して得られた画像に対して画像解析処理を行うことによって、画像から被検体の体表を抽出する形態が例示される。
また、上記実施形態において、学習済みモデル34を生成した後、医用画像から被検体が分類されるグループを特定できなかった場合は、学習済みモデル32を用いてもよい。
また、上記実施形態において、例えば、入力部40、取得部42、出力部44、抽出部46、特定部48、記憶制御部50、及び生成部52といった各種の処理を実行する処理部(processing unit)のハードウェア的な構造としては、次に示す各種のプロセッサ(processor)を用いることができる。上記各種のプロセッサには、前述したように、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPUに加えて、FPGA(Field-Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
1つの処理部は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種又は異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせや、CPUとFPGAとの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。
複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアント及びサーバ等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサの1つ以上を用いて構成される。
更に、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)を用いることができる。
また、上記実施形態では、情報処理プログラム30が記憶部22に予め記憶(インストール)されている態様を説明したが、これに限定されない。情報処理プログラム30は、CD−ROM(Compact Disc Read Only Memory)、DVD−ROM(Digital Versatile Disc Read Only Memory)、及びUSB(Universal Serial Bus)メモリ等の記録媒体に記録された形態で提供されてもよい。また、情報処理プログラム30は、ネットワークを介して外部装置からダウンロードされる形態としてもよい。
10 診断支援システム
12 画像管理装置
14 情報処理装置
20 CPU
21 メモリ
22 記憶部
23 表示部
24 入力部
25 ネットワークI/F
26 バス
30 情報処理プログラム
32、34 学習済みモデル
40 入力部
42 取得部
44 出力部
46 抽出部
48 特定部
50 記憶制御部
52 生成部
N ネットワーク

Claims (8)

  1. 被検体を撮影して得られた画像から被検体の体格を表す情報を抽出する抽出部と、
    前記抽出部により抽出された前記被検体の体格を表す情報を用いて、前記被検体が分類されるグループを特定する特定部と、
    前記グループ毎の前記被検体を撮影して得られた医用画像を表す画像データ及び前記医用画像から抽出された領域を表す情報を学習用データとして用いた機械学習によって、前記医用画像を表す画像データを入力とし、前記領域を表す情報を出力とした学習済みモデルを前記グループ毎に生成する生成部と、
    を備えた情報処理装置。
  2. 前記医用画像を表す画像データ及び前記領域を表す情報を学習用データとして用いた機械学習によって予め得られた1つの学習済みモデルに対して前記医用画像を表す画像データを入力する入力部と、
    前記入力部による入力により前記1つの学習済みモデルから出力された前記領域を表す情報を取得する取得部と、
    を更に備え、
    前記生成部は、前記入力部により入力された医用画像データ及び前記取得部により取得された前記領域を表す情報を学習用データとして、前記特定部により特定されたグループ毎に前記1つの学習済みモデルを再学習させることによって学習済みモデルを前記グループ毎に生成する
    請求項1に記載の情報処理装置。
  3. 前記被検体の体格を表す情報は、前記被検体の骨格である
    請求項1又は請求項2に記載の情報処理装置。
  4. 前記被検体の体格を表す情報は、前記被検体の体表である
    請求項1又は請求項2に記載の情報処理装置。
  5. 前記被検体の体格を表す情報の抽出に用いられる前記画像は、前記医用画像である
    請求項1から請求項4の何れか1項に記載の情報処理装置。
  6. 前記グループは、前記被検体の年齢、性別、人種、又は種族によって前記被検体が分類されるグループである
    請求項1から請求項5の何れか1項に記載の情報処理装置。
  7. 被検体を撮影して得られた画像から被検体の体格を表す情報を抽出し、
    抽出した前記被検体の体格を表す情報を用いて、前記被検体が分類されるグループを特定し、
    前記グループ毎の前記被検体を撮影して得られた医用画像を表す画像データ及び前記医用画像から抽出された領域を表す情報を学習用データとして用いた機械学習によって、前記医用画像を表す画像データを入力とし、前記領域を表す情報を出力とした学習済みモデルを前記グループ毎に生成する
    処理をコンピュータが実行する情報処理方法。
  8. 被検体を撮影して得られた画像から被検体の体格を表す情報を抽出し、
    抽出した前記被検体の体格を表す情報を用いて、前記被検体が分類されるグループを特定し、
    前記グループ毎の前記被検体を撮影して得られた医用画像を表す画像データ及び前記医用画像から抽出された領域を表す情報を学習用データとして用いた機械学習によって、前記医用画像を表す画像データを入力とし、前記領域を表す情報を出力とした学習済みモデルを前記グループ毎に生成する
    処理をコンピュータに実行させるためのプログラム。
JP2018202950A 2018-10-29 2018-10-29 情報処理装置、情報処理方法、及びプログラム Active JP7086818B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018202950A JP7086818B2 (ja) 2018-10-29 2018-10-29 情報処理装置、情報処理方法、及びプログラム
US16/660,749 US11334990B2 (en) 2018-10-29 2019-10-22 Information processing apparatus, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018202950A JP7086818B2 (ja) 2018-10-29 2018-10-29 情報処理装置、情報処理方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2020068881A true JP2020068881A (ja) 2020-05-07
JP7086818B2 JP7086818B2 (ja) 2022-06-20

Family

ID=70327499

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018202950A Active JP7086818B2 (ja) 2018-10-29 2018-10-29 情報処理装置、情報処理方法、及びプログラム

Country Status (2)

Country Link
US (1) US11334990B2 (ja)
JP (1) JP7086818B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022061192A (ja) * 2020-10-06 2022-04-18 キヤノン株式会社 情報処理システム、情報処理装置、情報処理方法及びプログラム
JP2023001051A (ja) * 2021-06-17 2023-01-04 ジーイー・プレシジョン・ヘルスケア・エルエルシー 計算機式断層写真法画像再構成のためのシステム及び方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04332548A (ja) * 1990-08-28 1992-11-19 Arch Dev Corp ニューラル・ネットワークを用いた鑑別診断支援方法
JP2012130667A (ja) * 2010-12-22 2012-07-12 Toshiba Corp 医用画像処理装置、医用画像処理方法、医用画像処理プログラム
JP2015198928A (ja) * 2014-03-31 2015-11-12 株式会社東芝 医用画像処理装置、および医用画像処理システム
JP2017534401A (ja) * 2014-11-19 2017-11-24 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. X線露光前制御デバイス

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4930854B2 (ja) * 2005-07-19 2012-05-16 日本電気株式会社 関節物体位置姿勢推定装置及びその方法ならびにプログラム
JP4619927B2 (ja) 2005-11-01 2011-01-26 富士フイルム株式会社 顔検出方法および装置並びにプログラム
JP2009070099A (ja) 2007-09-12 2009-04-02 Ricoh Co Ltd 画像処理装置、画像処理方法、プログラムおよび記録媒体
US20090079743A1 (en) * 2007-09-20 2009-03-26 Flowplay, Inc. Displaying animation of graphic object in environments lacking 3d redndering capability
US9058342B2 (en) * 2010-08-04 2015-06-16 Panasonic Intellectual Property Corporation Of America Image classification device, method, program, recording media with program thereon, and integrated circuit
JP6071144B2 (ja) * 2013-07-31 2017-02-01 富士フイルム株式会社 放射線画像解析装置および方法並びにプログラム
EP3733074A4 (en) * 2017-12-28 2021-08-25 J. Morita Manufacturing Corporation X-RAY CT IMAGING DEVICE
JP7278724B2 (ja) * 2018-07-23 2023-05-22 株式会社東芝 情報処理装置、情報処理方法、および情報処理プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04332548A (ja) * 1990-08-28 1992-11-19 Arch Dev Corp ニューラル・ネットワークを用いた鑑別診断支援方法
JP2012130667A (ja) * 2010-12-22 2012-07-12 Toshiba Corp 医用画像処理装置、医用画像処理方法、医用画像処理プログラム
JP2015198928A (ja) * 2014-03-31 2015-11-12 株式会社東芝 医用画像処理装置、および医用画像処理システム
JP2017534401A (ja) * 2014-11-19 2017-11-24 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. X線露光前制御デバイス

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022061192A (ja) * 2020-10-06 2022-04-18 キヤノン株式会社 情報処理システム、情報処理装置、情報処理方法及びプログラム
JP7387573B2 (ja) 2020-10-06 2023-11-28 キヤノン株式会社 情報処理システム、情報処理装置、情報処理方法及びプログラム
JP2023001051A (ja) * 2021-06-17 2023-01-04 ジーイー・プレシジョン・ヘルスケア・エルエルシー 計算機式断層写真法画像再構成のためのシステム及び方法
JP7403585B2 (ja) 2021-06-17 2023-12-22 ジーイー・プレシジョン・ヘルスケア・エルエルシー 計算機式断層写真法画像再構成のためのシステム及び方法
US11908044B2 (en) 2021-06-17 2024-02-20 GE Precision Healthcare LLC Systems and methods for computed tomography image reconstruction

Also Published As

Publication number Publication date
US20200134819A1 (en) 2020-04-30
JP7086818B2 (ja) 2022-06-20
US11334990B2 (en) 2022-05-17

Similar Documents

Publication Publication Date Title
JP2022025095A (ja) 機械学習を用いた医用イメージングの変換のためのシステムおよび方法
WO2019051356A1 (en) SYSTEM AND METHOD FOR AUTOMATICALLY LABELING AND ANNOUNTING NON-STRUCTURED MEDICAL DATA SETS
US11580642B2 (en) Disease region extraction apparatus, disease region extraction method, and disease region extraction program
JP7129870B2 (ja) 疾患領域を判別する判別器の学習装置、方法及びプログラム、疾患領域を判別する判別器、並びに疾患領域判別装置及びプログラム
US20230298759A1 (en) Information processing apparatus, information processing method, and program
US11334990B2 (en) Information processing apparatus, information processing method, and program
JP6843785B2 (ja) 診断支援システム、診断支援方法、及びプログラム
JP6309417B2 (ja) 検出器生成装置、方法およびプログラム並びに画像検出装置
WO2021187483A1 (ja) 文書作成支援装置、方法およびプログラム
JP6968298B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US11494913B2 (en) Medical care support device, medical care support method, and medical care support program
US11443430B2 (en) Diagnosis support device, diagnosis support method, and diagnosis support program
US11455728B2 (en) Diagnosis support device, diagnosis support method, and diagnosis support program
US11176413B2 (en) Apparatus, method, and program for training discriminator discriminating disease region, discriminator discriminating disease region, disease region discrimination apparatus, and disease region discrimination program
US20240037739A1 (en) Image processing apparatus, image processing method, and image processing program
US11749400B2 (en) Medical care support device, medical care support method, and medical care support program
US20230197253A1 (en) Medical image processing apparatus, method, and program
WO2021124869A1 (ja) 診断支援装置、診断支援方法、及び診断支援プログラム
US20230102745A1 (en) Medical image display apparatus, method, and program
US20230368895A1 (en) Device at the point of imaging for integrating training of ai algorithms into the clinical workflow
EP4343781A1 (en) Information processing apparatus, information processing method, and information processing program
Sun et al. Multi-grained contrastive representation learning for label-efficient lesion segmentation and onset time classification of acute ischemic stroke

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210120

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220517

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220608

R150 Certificate of patent or registration of utility model

Ref document number: 7086818

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150