JP2009095644A - 画像認識結果判定装置、方法、およびプログラム - Google Patents

画像認識結果判定装置、方法、およびプログラム Download PDF

Info

Publication number
JP2009095644A
JP2009095644A JP2008105078A JP2008105078A JP2009095644A JP 2009095644 A JP2009095644 A JP 2009095644A JP 2008105078 A JP2008105078 A JP 2008105078A JP 2008105078 A JP2008105078 A JP 2008105078A JP 2009095644 A JP2009095644 A JP 2009095644A
Authority
JP
Japan
Prior art keywords
recognition result
image
standard
image recognition
rib
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008105078A
Other languages
English (en)
Other versions
JP5186269B2 (ja
Inventor
Yoshiyuki Moriya
禎之 守屋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2008105078A priority Critical patent/JP5186269B2/ja
Publication of JP2009095644A publication Critical patent/JP2009095644A/ja
Application granted granted Critical
Publication of JP5186269B2 publication Critical patent/JP5186269B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • G06V2201/031Recognition of patterns in medical or anatomical images of internal organs

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Analysis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Image Processing (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

【課題】画像認識結果のユーザによるチェックの負担を軽減しつつ、より精度の高い認識結果を得る。
【解決手段】画像認識部11が被検体を表す画像中の所定の構造物を認識した後、認識結果判定部12が、認識された所定の構造物の画像上での計測により、その構造物の解剖学的計測値を取得し、取得された解剖学的計測値が所定の標準的範囲内にあるかどうかを自動的に判定し、その範囲外であれば画像認識結果を誤りと判定する。
【選択図】図2

Description

本発明は、医用画像に対する画像認識処理による認識結果が正しいかどうかを判定する装置、方法、および、この方法をコンピュータに実行させるプログラムに関するものである。
医用画像中の様々な構造物を認識するための様々な技術が提案されている。
例えば、CTやMRI等の撮影モダリティでの被検体の撮影によって得られた断層画像に表された被検体の部位を認識する技術が知られている。具体的には、医用画像の管理情報と画像サイズから入力画像を分類し、その分類ごとに識別すべきカテゴリに関するテンプレート画像を記憶する記憶部から、入力画像の分類結果を用いて識別の候補となる複数のカテゴリのテンプレート画像を選択し、選択されたテンプレート画像と入力画像とを比較し、最もよく一致するテンプレート画像のカテゴリを判定する手法が知られている(例えば、特許文献1)。また、固有画像を用いた顔の認識方法を応用し、複数の画像データを用いて予め作成された、撮影方向や肝臓、胸部、胃等の撮影部位毎の固有画像を用いて撮影方向や撮影部位の認識を行う方法が知られている(例えば、特許文献2)。
さらに、人体の胸部を表す医用画像を入力として、テンプレートマッチングの手法を利用して肺野領域を認識する技術や、入力された医用画像を、多数の教師データを用いた主成分分析によって得られた肋骨のモデルに適応させることによって肋骨を認識する技術も知られている(例えば、特許文献3)。
特開2002−253539号公報 特開2003−10166号公報 特開2006−6359号公報
一般に、画像認識処理による画像認識結果はすべて正しいとは限らず、認識結果の誤りをチェック・修正する必要があり、このチェック・修正作業を手作業で行うことはユーザに負担を強いることになる。特にCTやMRI等で得られた3次元画像の場合にはチェック対象が膨大な量になることがあり、チェック・修正を手作業で行うとなると、その作業負荷は非常に高いものとなる。
しかしながら、上記特許文献1、2に記載の画像識別方法や撮影方向や部位の認識方法は、医用画像毎に行われるものであり、例えば、1つの撮影シリーズで得られた複数の断層画像に含まれる複数の部位を識別・認識する場合における課題(例えば、上記の認識結果のチェック修正の負荷)やそれに対する解決手段は、上記特許文献には何ら示唆されていない。また、上記特許文献3にも上記の課題や解決手段については何らの示唆もなされていない。
本発明は上記事情に鑑みてなされたものであり、画像認識結果のユーザによるチェックの負担を軽減しつつ、より精度の高い認識結果が得られる装置、方法およびプログラムを提供することを目的とするものである。
本発明の画像認識結果判定装置は、被検体を表す画像中の所定の構造物を認識する画像認識手段と、該画像認識手段によって認識された所定の構造物の前記画像上での計測により、該所定の構造物の所定の解剖学的計測値を取得する構造物計測手段と、該解剖学的計測値が所定の標準的範囲内にあるかどうかを判定する認識結果判定手段とを設けたことを特徴とするものである。
本発明の画像認識結果判定方法は、被検体を表す画像中の所定の構造物を認識し、認識された所定の構造物の前記画像上での計測により、該所定の構造物の所定の解剖学的計測値を取得し、該解剖学的計測値が所定の標準的範囲内にあるかどうかを判定することを特徴とするものである。
本発明の画像認識結果判定プログラムは、コンピュータに上記方法を実行させるものである。
以下、本発明の詳細について説明する。
「被検体」の具体例としては、人体が挙げられるが、他の動物等であってもよい。
「所定の構造物」の具体例としては、肋骨・椎体・頭蓋骨等の骨、肺・腎臓等の臓器、血管・気管・気管支等の様々な解剖学的構造物が挙げられる。また、「所定の構造物」は、被検体中の病変等の異常領域ではなく、正常な構造物とすることが「所定の標準的範囲」を規定する上で好ましい。さらに、「所定の構造物」には、画像中の人体領域・輪郭、撮影部位等も含まれる。ここで、「部位」とは、被検体が人体の場合、人体の体部を識別するものであり、具体例としては、頭部、頸部、胸部、腹部、骨盤部、脚部の他、前記各部のうち隣接する2つの部位の両方を含む複合部位、例えば頭頸部や胸腹部等が挙げられる。
「(所定の構造物を)認識」する処理として、AdaBoost、サポートベクターマシン(SVM)、適合ベクターマシン(Relevance Vector Machine; RVM)、人工ニューラルネットワーク(ANN)等を用いた機械学習によって得られる判別手段を用いた方法を用いた場合に、本発明の効果は顕著となる。
「所定の解剖学的計測値」の具体例としては、認識された所定の構造物の長さ、面積、体積、形状、向き、位置関係の少なくとも1つを表すものが挙げられる。なお、解剖学的計測値には、認識された所定の構造物の画像上での計測によって得られた値そのものだけでなく、得られた値を用いた比率等の二次的な計算値も含まれる。
「所定の標準的範囲」は、標準的・平均的な被検体において、その所定の構造物の解剖学的計測値が取りうる範囲とすることが好ましい。
また、解剖学的計測値が所定の確率分布に従うものとし、その確率分布における信頼度を取得し、取得された信頼度に基づいてその確率分布における信頼区間を求め、その信頼区間を標準的範囲として前記判定を行うようにしてもよい。ここで、「所定の確率分布」の具体例としては、正規分布が挙げられる。「信頼度」は、ユーザによる入力を受け付けることによって取得してもよいし、何らかの計算によって取得してもよい。
さらに、被検体の属性を表す属性情報を取得し、取得された属性情報に応じて標準的範囲を決定し、決定された標準的範囲を用いて前記判定を行うようにしてもよい。ここで、「属性情報」の具体例としては、体長(身長)、性別、年齢、居住国および地域、民族グループ、職業、呼吸状態(呼吸相;最大呼気から最大吸気)等が挙げられる。また、この属性情報は処理対象の画像に対する付帯情報から取得してもよいし、ユーザによる入力から取得するようにしてもよいし、処理対象の画像に対する画像解析によって取得してもよい。「属性情報に応じて標準的範囲を決定」する方法の具体例としては、属性情報に基づいて分類されたカテゴリ毎に標準的範囲を予め決めておき、入力された画像の属性情報に応じたカテゴリの標準的範囲を取得する方法や、身長のように定量的な属性情報の場合には、基準となる属性値における標準的範囲だけを予め決めておき、入力された画像の属性値と基準となる属性値の比率等に基づいて、入力された画像における標準的範囲を決定する方法等が挙げられる。
標準的範囲は、標準的範囲を特定する情報を記憶手段から読み込むことによって取得するようにしてもよいし、入力手段でユーザの入力を受け付けることによって取得するようにしてもよい。ここで、標準的範囲を特定する情報は、標準的範囲自体であってもよいし、上記の確率分布を規定する情報、例えば、その解剖学的計測値の平均と標準偏差や、基準となる被検体の属性値とその属性値を有する被検体の解剖学的計測値の平均等の、標準的範囲を間接的に特定する情報であってもよい。
前記認識結果の判定の結果、前記解剖学的計測値が前記標準的範囲外であると判定された場合に、画像認識結果が誤りである旨を出力するようにしてもよい。その際、前記判定がなされた前記解剖学的計測値や前記判定で用いられた前記標準的範囲を出力するようにすることが好ましい。
また、前記認識結果の判定の結果、前記解剖学的計測値が前記標準的範囲外であると判定された場合に、前記認識結果の修正を行うようにしてもよい。具体的には、前記画像認識処理の際の処理条件の少なくとも一部を変更して前記所定の構造物の認識を再度行うようにすることが考えられる。ここで、前記の処理条件の変更は、ユーザの手動による変更であってもよいし、その装置による自動的な変更であってもよい。また、その他の方法によって認識結果を自動的に修正するようにしてもよいし、ユーザによる認識結果の手動修正を受け付けるようにしてもよい。
例えば、本発明における認識対象が被検体の撮影部位である場合、被検体中の複数の部位を表す複数の断層画像の各々の内容的特徴、および、該各断層画像間での前記内容的特徴の関係に基づいて、該各断層画像に表された前記被検体中の部位を、前記被検体中の各部位の解剖学的位置関係に整合するように決定し、該決定された部位の前記断層画像の断層面に垂直な方向における長さを算出し、該算出された長さが所定の標準的長さの範囲内であるかどうかを判定するようにすることが考えられる。
この場合、「断層画像」には、CTやMRIで得られた画像の場合、体軸に垂直な断面(軸位断;axial)を表す軸位断画像が一般的に用いられる。
「各断層画像に表された被検体中の部位を決定する」処理は、複数の断層画像の各々の内容的特徴に基づいて各断層画像に表された部位を仮認識し、各断層画像について仮認識された部位間の位置関係が被検体の解剖学的位置関係に整合するように仮認識された部位を修正することによって、各断層画像に表された部位を決定する処理とすることができる。ここで、「内容的特徴」の具体例としては、断層画像中に設定された小領域の画素値、画素値の平均値等の統計量、体部領域中の空気領域や骨領域の割合、体部領域の形状等が挙げられる。「仮認識」処理の具体例としては、上記の機械学習によって得られる判別器を用いた方法や、上記の特許文献1記載のテンプレートマッチング、上記の特許文献2記載の固有画像との比較処理等が挙げられる。「解剖学的位置関係」とは、例えば人体の場合、体部の上から下に向かって、頭部、頸部、胸部、腹部、骨盤部、脚部となる体部の並び順を意味する。「解剖学的位置関係に整合するように(部位を)決定(修正)する」処理の具体例としては、動的計画法を用いた方法が挙げられる。
「決定された部位の断層画像の断層面に垂直な方向における長さが所定の長さの範囲内であるかどうかを判定する」方法の具体例としては、所定の長さの範囲を部位毎に記憶しておき、そこから、前記の部位認識処理によって決定された部位に対応する部位の前記所定の長さの範囲を取得し、取得された所定の長さの範囲を用いて前記判定を行う方法が挙げられる。
また、判定の際に、上記の部位認識処理によって決定された部位のうちの2つについての長さの比率を用いるようにしてもよい。
本発明によれば、被検体を表す画像中の所定の構造物を認識した後、認識された所定の構造物の前記画像上での計測により、該所定の構造物の解剖学的計測値を取得し、該解剖学的計測値が所定の標準的範囲内にあるかどうかを自動的に判定するようにしたので、その解剖学的計測値の観点において、ユーザが手作業で認識結果の妥当性をチェックする負担が軽減され、より精度の高い認識結果が得られるようになる。
特に、機械学習によって得られた判別手段を用いて画像認識を行う場合、その認識過程がブラックボックス化されているため、各処理対象画像に対する認識精度が予測不可能なものとなるが、本発明のように、画像認識処理後に解剖学的計測値が標準的範囲内にあるかどうかを判定することにより、予測不可能な認識エラーを自動的に検出することが可能になることから、上記の効果は極めて顕著となる。
また、確率分布における信頼度や被検体の属性に応じて判定基準となる所定の標準的範囲を決定する場合には、判定基準をよりきめ細かく設定することが可能になるので、さらに精度の高い認識結果の判定が可能になる。
さらに、前記解剖学的計測値が前記標準的範囲外であると判定された場合に、前記画像認識手段による認識結果が誤りである旨を出力する場合、画像認識結果をユーザが容易に把握できるようになる。特に、判定がなされた解剖学計測値や判定で用いられた標準的範囲を出力するようにすれば、ユーザは、認識結果の誤りをより容易に理解できるようになる。
前記解剖学的計測値が前記標準的範囲外であると判定された場合に、前記画像認識手段による認識結果の修正を行うようにすれば、認識結果の精度向上に資する。
画像認識処理の内容を、複数の部位を表す複数の断層画像の各々の内容的特徴、および、各断層画像間での内容的特徴の関係に基づいて、各断層画像に表された部位を、各部位の解剖学的位置関係に整合するように決定する部位認識処理とした場合、例えば、断層画像に表された被検体が人体の場合、胸部と認識された断層画像より下側に位置する断層画像で頭部と認識されるような解剖学的位置関係の不整合がなくなり、部位認識精度が向上する。
さらに、上記部位認識処理によって決定された部位の長さが所定の長さの範囲内であるかどうかを判定し、その所定の長さの範囲外であると判定された場合に、その旨を出力するので、複数の断層画像にまたがる部位の長さの妥当性の観点から部位認識の誤りを発見することが可能になり、より精度の高い部位認識結果が得られる。
以下、図面を参照しつつ、本発明の実施の形態について、まず、基本的な構成および処理の流れを説明し、次に、具体的な画像認識処理の実装例として、部位認識処理、肋骨認識処理、椎体認識処理を行う場合について説明する。
1.システムの基本的な構成および処理の流れ
図1に、本発明の実施形態となる画像認識結果判定装置が導入された医療情報システムの概略構成を示す。図に示すように、このシステムは、医用画像の撮影装置(モダリティ)1、読影ワークステーション2(2a,2b)、画像情報管理サーバ3、画像情報データベース4、認識結果修正用端末5が、ネットワーク9を介して互いに通信可能な状態で接続されて構成されている。各種データベースを除く各機器は、CD−ROM等の記録媒体からインストールされたプログラムによって制御される。また、プログラムは、インターネット等のネットワーク経由で接続されたサーバからダウンロードされた後にインストールされたものであってもよい。
モダリティ1には、被検体の検査対象部位を撮影することにより、その部位を表した画像の画像データを生成し、その画像データにDICOM規格で規定された付帯情報を付加して、画像情報として出力する装置が含まれる。付帯情報は、そのモダリティ等のメーカー独自の規格のものであってもよい。具体例としては、CT(Computed Tomography)、MRI(Magnetic Resonance Imaging)、PET(Positron Emission Tomography)、超音波撮影装置などが挙げられる。なお、以下では、被写体を表す画像データと画像データの付帯情報の組を「画像情報」と称することとする。すなわち「画像情報」の中には画像に係るテキスト情報も含まれる。
読影ワークステーション2は、画像診断医が画像の読影や読影レポートの作成に利用する装置であり、処理装置と1台または2台の高精細ディスプレイとキーボード・マウスなどの入力機器により構成される。この装置では、画像情報管理サーバ3に対する画像の閲覧要求や、画像情報管理サーバ3から受信した画像に対する各種画像処理、画像の表示、画像中の病変らしき部分の自動検出・強調表示、読影レポートの作成の支援、読影レポートサーバ(図示なし)に対する読影レポートの登録要求や閲覧要求、読影レポートサーバから受信した読影レポートの表示等が行われる。なお、各種画像処理や病変候補の自動検出・強調処理等の画質・視認性改善処理や画像解析処理を読影ワークステーション2で行わず、別途画像処理サーバをネットワーク9に接続しておき、読影ワークステーション2からの当該処理の要求に応じて、画像処理サーバが行うようにしてもよい。
画像情報管理サーバ3は、汎用の比較的処理能力の高いコンピュータにデータベース管理システム(DataBase Management System: DBMS)の機能を提供するソフトウェアプログラムを組み込んだものであり、本実施形態では、さらに、モダリティ1から送信されてきた画像に表された被検体中の所定の構造物を認識する画像認識機能および認識結果を判定する機能(後に詳述)を提供するソフトウェアプログラムも組み込まれている。また、画像情報管理サーバ3は画像情報データベース4が構成される大容量ストレージを備えている。このストレージは、画像情報管理サーバ3とデータバスによって接続された大容量のハードディスク装置であってもよいし、ネットワーク9に接続されているNAS(Network Attached Storage)やSAN(Storage Area Network)に接続されたディスク装置であってもよい。
画像情報管理サーバ3は、モダリティ1からの画像情報の登録要求を受け付けると、その画像情報をデータベース用のフォーマットに整えて画像情報データベース4に登録する。
画像情報データベース4には、被写体画像を表す画像データと付帯情報とが登録される。付帯情報には、例えば、個々の画像を識別するための画像ID、被写体を識別するための患者ID、検査を識別するための検査ID、画像情報ごとに割り振られるユニークなID(UID)、その画像情報が生成された検査日、検査時刻、その画像情報を取得するための検査で使用されたモダリティの種類、患者氏名、年齢、性別、身長などの患者情報、検査部位(撮影部位)、撮影情報(撮影プロトコル、撮影シーケンス、撮像手法、撮影条件、造影剤の使用など)、1回の検査で複数の画像を取得したときのシリーズ番号あるいは採取番号などの情報が含まれうる。画像情報は、例えばXMLやSGMLデータとして管理されうる。
また、画像情報管理サーバ3は、読影ワークステーション2からの閲覧要求をネットワーク9経由で受信すると、上記画像情報データベース4に登録されている画像情報を検索し、抽出された画像情報を要求元の読影ワークステーション2に送信する。
読影ワークステーション2は、画像診断医等のユーザによって読影対象画像の閲覧を要求する操作が行われると、画像情報管理サーバ3に対して閲覧要求を送信し、読影に必要な画像情報を取得する。そして、その画像情報をモニタ画面に表示し、画像診断医からの要求に応じて病変の自動検出処理などを実行する。
認識結果修正用端末5は、CTやMRI等のモダリティ1で得られた被検体を表す画像の画像情報データベース4への登録に先立って、あるいは登録後に、その画像に対する画像認識結果を表示・修正するための装置であり、処理装置と1台または2台の高精細ディスプレイとキーボード・マウスなどの入力機器を備えたパソコンやワークステーション等のコンピュータである。なお、ここでの処理内容の詳細については後述する。
ネットワーク9は病院内の各種装置を接続するローカルエリアネットワークである。但し、読影ワークステーション2が他の病院あるいは診療所にも設置されている場合には、ネットワーク9は、各病院のローカルエリアネットワーク同士をインターネットもしくは専用回線で接続した構成としてもよい。いずれの場合にも、ネットワーク9は光ネットワークなど画像情報の高速転送を実現できるものとすることが望ましい。
図2は、本発明の実施形態となる画像認識結果判定装置によって実現される機能をブロック化して模式的に表すとともに、各機能ブロック間でのデータの流れを模式的に表したものである。図に示したように、この装置は、画像認識部11、認識結果判定部12、標準的範囲テーブル13、誤認識結果表示・修正部14、データベース登録部15から構成されている。なお、これらのうち誤認識結果表示・修正部14のみが認識結果修正用端末5に実装され、他の構成要素は画像情報管理サーバ3に実装されている。
画像認識部11は、被検体を表す画像データImgを入力として、入力された画像データによる画像中の所定の構造物を認識し、認識結果Rstを出力するものである。
認識結果判定部12は、認識結果Rstに基づき、認識された所定の構造物の画像Img上での計測により、その所定の構造物の所定の解剖学的計測値を取得するとともに、標準的範囲テーブル13からその解剖学的計測値のとりうる標準的範囲の情報を取得し、その解剖学的計測値が標準的範囲内にあるかどうかを判定し、標準的範囲内にある場合には認識結果Rstは正しいと判定し、標準的範囲内にない場合には認識結果Rstは誤りであると判定するものである。
標準的範囲テーブル13には、前記の解剖学的計測値のとりうる標準的範囲の情報が格納されている。
誤認識結果表示・修正部14は、処理対象の画像データImgおよび誤認識結果Rstを入力として、これらを画面に表示するとともに、ユーザによる認識結果の修正を受け付けるユーザインターフェースを提供し、修正後の認識結果Rst´を出力するものである。
データベース登録部15は、処理対象の画像データImgの付帯情報に、画像認識部11による認識結果Rst、あるいは、認識結果が修正された場合には修正後の認識結果Rst´を付帯させて画像情報データベース4に登録する処理を行う。
次に、図3のフローチャート、図2のブロック図等を用いて、本発明の画像認識結果の判定および修正処理のワークフローについて説明する。
まず、モダリティ1が設置された撮影室において、撮影オーダーを受信し(#1)、モダリティ1でその撮影オーダーに基づいて被検体の撮影を行い、処理対象の画像Imgを取得し(#2)、その画像データImgを画像情報管理サーバ3に送信する(#3)。
次に、画像情報管理サーバ3は、モダリティ1から送信されてきた画像データImgを受信し(#4)、画像認識部11は、画像データImgによる画像中の所定の構造物を認識し、認識結果Rstを出力する(#5)。認識結果判定部12は、画像データImgと認識結果Rstに基づき、画像中の所定の構造物の所定の解剖学的計測値を取得するとともに、標準的範囲テーブル13からその解剖学的計測値のとりうる標準的範囲を取得し、その解剖学的計測値が標準的範囲内にあるかを基準にして認識結果Rstが正しいかどうか判定する(#6)。判定の結果、画像認識部11による認識結果Rstに誤りがあると判定された場合には(#7; NG)、画像情報管理サーバ3は、認識結果Rstを画像データImgの付帯情報として記録し、それらのデータ(Img,Rst)を認識結果修正用端末5に送信する(#8)。
認識結果修正用端末5は、画像情報管理サーバ3からデータ(Img,Rst)を受信(#9)した後、誤認識結果表示・修正部14が、画像データImgによる画像と誤認識結果Rstとをディスプレイに表示させるとともに、ユーザによる認識結果の修正を受け付け、修正された認識結果Rst´が画像データImgの付帯情報に記録される(#10)。認識結果修正用端末5は、修正後のデータ(Img,Rst´)を画像情報管理サーバ3に送信する(#11)。
画像情報管理サーバ3は、認識結果修正用端末5からデータ(Img,Rst´)を受信し(#12)、データベース登録部32が、画像情報データベース4への登録処理を行う(#13)。また、認識結果判定部22において、画像認識部11による認識結果Rstに誤りがないと判定された場合には(#7; OK)、上記ステップ#8から#12までの処理は行われず、画像情報管理サーバ3が、もとの認識結果Rstを画像データImgの付帯情報として記録し、データベース登録部32が画像情報データベース4への登録処理を行う(#13)。
以上のように、本発明の画像認識結果判定装置が導入されたシステムでは、画像情報管理サーバ3において、画像認識部11が被検体を表す画像Img中の所定の構造物を認識した後、認識結果判定部12が、認識された所定の構造物の画像Img上での計測により、その所定の構造物の解剖学的計測値を取得し、その解剖学的計測値が所定の標準的範囲内にあるかどうかを自動的に判定するようにしたので、その解剖学的計測値の観点において、ユーザが手作業で認識結果の妥当性をチェックする負担が軽減され、より精度の高い認識結果が得られるようになる。
また、認識結果判定部12において、解剖学的計測値が標準的範囲外であると判定された場合に、認識結果修正用端末5において、誤認識結果表示・修正部14がその認識結果が誤りである旨を出力するので、その誤認識結果をユーザが容易に把握できるようになる。さらに、認識結果修正用端末5の誤認識結果表示・修正部14において、認識結果Rstの修正を行うので、認識結果の精度向上に資する。
2.部位認識処理の実装例(第1〜第3の実施形態)
以下、本発明の第1から第3の実施形態として、上記のシステムで部位認識処理を行う場合について説明する。
図4は、本発明の第1の実施形態となる部位認識・修正処理を実現する部位認識結果修正装置の構成とデータの流れを模式的に示したブロック図である。図に示したように、この装置は、部位認識部21(図2の画像認識部11に対応)、認識結果判定部22(図2の認識結果判定部12に対応)、標準部位長テーブル23(図2の標準的範囲テーブル13に対応)、部位修正部24(図2の誤認識結果表示・修正部14に対応)、データベース登録部31(図2のデータベース登録部15に対応)から構成され、部位認識部21が、入力された断層画像SLn(n=1,2,・・・)の各々に表された体部の部位Pnを認識し、認識結果判定部22が、各部位Pnの体軸方向の長さを求め、標準部位長テーブル23を参照して各部位の標準的な長さを取得し、各部位Pnの前記長さが標準的な長さの範囲内にあるかどうかを判定し、範囲外と判定された場合には、部位修正部24において部位の修正を行い、データベース登録部31が、最終的な認識結果(SLn,Pn)(修正なし)または(SLn,Pn´)(修正あり)を画像情報データベース4に登録する。以下、各処理部の詳細について説明する。
部位認識部21は、画像情報管理サーバ3に実装される処理部であり、入力された被検体である人体の体部の複数の部位を表すCTによる複数の断層画像に対して部位認識処理を行い、各断層画像に表された部位を決定し、決定された部位を表す情報(例えば、部位名のテキストまたは各部位を識別するコード)を、対応する断層画像にDICOM規格に基づく付帯情報として付加して出力する。この部位認識処理では、各断層画像を人体の体部の上から下に向かって並べた場合に、頭部、頭頸部、頸部、胸部、胸腹部、腹部、骨盤部、脚部という体部の並び順が保たれるように、各断層画像に表された部位が決定される。
図5は、部位認識部21の処理の詳細を表すブロック図である。図に示すように、入力された断層画像SLn(n=1,2,・・・)の正規化を行う正規化処理部41と、正規化された断層画像SNnから多数の特徴量cnm(m=1,2,・・・)を算出する特徴量算出部42と、正規化断層画像SNn毎に算出された特徴量cnmを、AdaBoost手法によって得られた判別器に入力して、部位らしさを表す部位毎のスコアscnp(p=頭部、頭頸部、頸部、胸部、胸腹部、腹部、骨盤部、脚部)を算出する部位スコア算出部43と、算出された部位スコアscnpを入力として、動的計画法を用いて、上記体部の並び順が保たれるように各入力断層画像SLnに表された部位Pnを決定する部位決定部44とから構成される。
正規化処理部41は、入力画像SLnから人体領域を抽出し、抽出された人体領域の情報からランドマーク(基準点)を算出し、算出されたランドマークを基準としてアフィン変換を行って入力画像を拡大・縮小、平行移動、回転させて正規化画像SNnを生成する処理を行う。この正規化処理の目的は、入力される断層画像SLnにおける、個体差や撮影条件等による画像中の人体領域の大きさや傾きのばらつきを排除し、人体領域中の構造物(例えば骨領域や空気領域)の位置を合わせておくことにより、後続の部位認識処理の効率や精度を上げることにある。
ここで、入力画像SLnから人体領域を抽出する方法は本発明の実施時点における公知の方法でよく、例えば、入力画像SLnに対して2値化処理とノイズ除去処理を行った後、輪郭抽出処理により人体領域候補となる輪郭を抽出し、抽出された各輪郭の内部の面積が所定の閾値未満の輪郭を除去し、残った輪郭の内部を人体領域と判定する方法(特開平9−187444号公報参照)等が挙げられる。
また、ランドマークは、例えば、輪郭線と正中面との交点となる2点とすることができる。具体的には、抽出された人体領域に対するラベリング処理によって得られるラベリング数に応じて、図6のようにランドマークを求めることができる。図6(a)(b)のようにラベリング数が1の場合には、ラベリング領域(人体領域)RLの重心Gを求め、その重心Gを通る長軸ALおよび短軸AS、ならびに、その重心Gを通る、断層画像SLnの上下方向の直線LVを設定し、長軸ALと短軸ASのうち直線LVとなす角が小さい方の軸と人体領域RLの輪郭線との交点をランドマークLM1、LM2とする。図6(a)は、短軸ASと直線LVのなす角の方が長軸ALと直線LVのなす角よりも小さい場合を模式的に表したものであり、胸部、胸腹部、腹部、骨盤部が表された画像に相当する。図6(a)は、長軸ALと直線LVのなす角の方が短軸ASと直線LVのなす角よりも小さい場合を模式的に表したものであり、頭部、頭頸部、頸部が表された画像に相当する。また、図6(c)はラベリング数が2の場合であり、脚部が表された画像に相当する。この場合には、各ラベリング領域RL1、RL2について、重心G1、G2を求め、各重心G1、G2を通る長軸AL1、AL2および短軸AS1、AS2、ならびに、その各重心G1、G2を通る、断層画像SLnの上下方向の直線LV1、LV2を設定し、各ラベリング領域について、長軸AL1、AL2と短軸AS1、AS2のうち直線LV1、LV2となす角が小さい方の軸と人体領域RL1、RL2の輪郭線との交点をIS11、IS12、IS21、IS22とし、互いに交差しない線分IS11 IS21、線分IS12 IS22の中点を各々ランドマークLM1、LM2とする。なお、2つのラベリング領域の面積比が所定の範囲にない場合、すわなち、2つのラベリング領域の面積の差が所定の閾値よりも大きい場合には、面積の小さい方のラベリング領域は医療器具等であると判断し、面積が大きい方のラベリング領域について上記のラベリング数が1の場合と同様の処理を行う。図6(d)はラベリング数が3の場合であり、頸部と両腕が表された画像に相当する。この場合には、各ラベリング領域RL1、RL2、RL3のうち面積が最大の領域(ここではRL2)に対して上記のラベリング数が1の場合と同様にしてランドマーク
LM1、LM2を求める。なお、図6(a)(b)(d)において、ランドマークLM1、LM2の直線LVからの距離が所定の閾値よりも大きい場合、ランドマークLM1、LM2の位置を直線LVに近づくようにラベリング領域RLの輪郭に沿って移動させる補正処理を行うようにしてもよい。同様に、図6(c)において、ランドマークLM1、LM2の、線分LM1LM2の中点G3を通る、断層画像SLnの上下方向の直線LV3からの距離が所定の閾値よりも大きい場合には、ランドマークLM1、LM2の位置を直線LV3に近づくように線分IS11IS21、線分IS12IS22に沿って移動させる補正処理を行うようにしてもよい。移動量の具体例としては、ランドマークLM1、LM2と直線LVまたはLV3との距離が20%短くなるように移動させることが考えられる。
このようにして求めたランドマークLM1、LM2を基準に、2つのランドマークLM1、LM2が断層画像SLnの水平方向における中心に位置し、かつ、2つのランドマーク間の距離が所定の値になるように、アフィン変換等を行って画像を正規化する。
特徴量算出部42は、正規化画像SNnの各々から、多数の種類の特徴量cnmを算出する処理を行う。特徴量cnmの具体例としては、正規化画像SNn中に設定されたブロック(例えば3×3画素等)内の画素値や画素値の平均値、最大値、最小値、中間値、CT値に基づく閾値処理によって抽出された人体領域中の空気領域や骨領域の人体領域に対する割合、その人体領域の周長と同じ周長を有する円の面積に対する人体領域の面積の割合(円形度)等が挙げられる。なお、特徴量cnmは、算出された値そのものであってもよいし、算出された値を多値化したものであってもよい。
部位スコア算出部43は、特徴量cnmを、AdaBoost手法に基づく学習によって得られた部位毎の判別器群に入力して、断層画像SLn毎に、各部位らしさを表す部位スコアscnpを算出する処理を行う。ここで、部位毎の判別器群は、学習用サンプルとなるその部位が表されていることがわかっている複数の画像とその部位が表されていないことがわかっている複数の画像の各々について上記と同様にして算出された多数の種類の特徴量を用いてAdaBoost手法に基づく学習を行うことによって得られたものである。1つの部位を判別する判別器群には1以上の判別器が含まれるが、2以上の判別器が含まれる場合、各判別器は判別能力について相補的な関係を有したものとなっている。また、判別器群は判別すべき部位の種類と同数生成され、判別器群毎に使用される特徴量の種類が決定される。なお、この学習および部位スコア算出方法の詳細については特開2005-108195号公報等に開示されている。部位スコアの算出は、上記の方法の他、人工ニューラルネットワーク(ANN)、サポートベクターマシン(SVM)、適合ベクターマシン(Relevance Vector Machine; RVM)等の他の学習手法によって生成された判別器を用いた方法や、1つの特徴量または複数の特徴量の組合せに対して部位スコアを決定する参照テーブルを用いた方法等であってもよい。また、特徴量算出部42と部位スコア算出部43の処理を、特許文献1記載の部位毎のテンプレートマッチングや特許文献2記載の部位毎の固有画像との比較処理によって得られる類似度を部位スコアとする処理に置換してもよい。
上記の処理により、断層画像SLn毎に、部位毎のスコアscnpが算出される。図7(a)は、断層画像(スライス)SLn毎に算出された部位毎のスコアscnpの一例を示した表であり、部位スコアscnpの値が大きいほどその部位である確率が高いことを表している。この表において、スライスSLn毎に部位スコアscnpが最大となる部位を辿ると、スライス1−頭頸部、スライス2−頭頸部、スライス3−頸部、スライス4−胸部、スライス5−頸部、スライス6−胸部となり、スライス4から6の間で、人体の体部の並び順との不整合がある。そこで、次の部位決定部44の処理でその修正が行われる。
部位決定部44は、予め作成された、人体の体部の配置順、すなわち、頭部、頭頸部、頸部、胸部、胸腹部、腹部、骨盤部、脚部の順で配置された参照部位と、各断層画像SLnにおける部位スコアscnpの最大値との間の不一致が生じないように、各断層画像SLnに表された部位Pnを最終的に決定する処理を行う。ここでは、参照部位と各断層画像SLnにおける部位スコアscnpの最大値との間に不一致がある場合にコストがかかるようにして、コストが最小かつ最短となる経路を求めることによって、部位Pnを最終決定する。具体的には、最適化問題を解くための手法を用いればよく、本実施形態では、その具体例として、動的計画法(DPマッチング;Dynamic Programming)を用いた手法を説明する。
まず、図7(a)の部位スコアscnpについて、各スライスにおける部位スコアscnpの最大値から各スコア値を減算する。これにより、図7(b)に示したように、各部位スコアscnpの大小関係が逆転した、すなわち、各部位スコアscnpが0以上の値に変換され、部位スコアscnpが最も高かった部位のスコア値が0に変換された重みマップが生成される。ここで、重みマップの生成の際には、上記の減算ではなく、参照テーブルを用いた変換を行うようにしてもよい。
次に、図7(b)の重みマップを入力として、DPマッチングによりコストが最小となる経路を算出する。以下、本出願人が特願2006-140041号にて提案している手法についての記載を引用する。まず、図7(b)の重みマップを入力として、図7(c)に示すようなコストマップを生成する。図7(c)において、各セル(n,p)のコストは次のように設定される。ここで、nはスライスの番号を示しており、pは部位を表す番号(1:頭頸部、2:頸部、3:胸部)となっている。
(1,1):重みマップにおける(1,1)の値(図7(b)参照)
(n,1):重みマップにおける(n−1,1)の値+所定の値(ここでは0)
(1,m):重みマップにおける(1,m−1)の値+所定の値(ここでは0)
(n,m):次の(i)〜(iii)の内の最小値
(i)コストマップにおける(n−1,m−1)の値
+重みマップにおける(n,m)の値
(ii)コストマップにおける(n,m−1)の値
+重みマップにおける(n,m)の値+所定の値(ここでは1.0)
(iii)コストマップにおける(n−1,m)の値
+重みマップにおける(n,m)の値+(ここでは1.0)
次に、コストマップを、右側から左側に向かって、周辺の最小値を順次辿って行く。それにより、スライス番号と部位との対応マップが作成される。
これにより、図8に示した、人体の体部の並び順(参照部位)を縦軸とし、各スライスSLnにおける部位スコアscnpの最大値による仮認識結果を横軸とするマッチングカーブに基づいて、仮認識結果を、対応する参照部位に置き換えることにより、各スライスSLnの部位を最終決定する処理が行われたことになる。
認識結果判定部22は、画像情報管理サーバ3に実装される処理部であり、断層画像SLnに表された複数の部位Pnの各々の体軸方向の長さを求め、標準部位長テーブル23を参照して各部位の標準的な長さを取得し、各部位Pnの前記長さが標準的な長さの範囲内にあるかどうかを判定する処理を行う。
図9は、認識結果判定部22の処理の詳細を表すブロック図である。図に示すように、認識結果判定部22は、付帯情報解析部71、部位長算出部72、標準部位長取得部73、判定部74から構成されており、以下のように処理が行われる。
付帯情報解析部71は、入力された断層画像SLnの付帯情報を解析して各断層画像のスライス位置PSnを取得する。
部位長算出部72は、入力された断層画像SLnの各々での部位認識結果Pn、および、付帯情報解析部71で得られた各断層画像のスライス位置PSnに基づき、認識された部位毎に、入力された断層画像SLnに表された部位毎の、断層面に垂直な方向(体軸方向)の長さ(部位長)Xpを算出する。図10の10枚のスライスに対する部位認識結果を例に、部位長を算出する方法の具体例を説明する。図において、胸部と認識された最初のスライス2のスライス位置PS2と、スライス2とともに異なる部位間の境界を形成する頸部と認識された最後のスライス1のスライス位置PS1との中点PN1を求め、さらに、胸部と認識された最後のスライス9のスライス位置PS9と、スライス9とともに異なる部位間の境界を形成する胸腹部と認識された最初のスライス10のスライス位置PS10との中点PN2を求めると、胸部の部位長XcはPN1とPN2の間の長さとなる。スライス間に隙間がない場合には、スライス厚の総和により部位長Xpを求めてもよい。なお、部位長Xpの算出は、断層画像SLn中にその部位全体が含まれるものだけを対象にする。具体的には、最初と最後の断層画像SLnにおいて認識された部位は部位長Xpの算出対象外とする。
標準部位長取得部73は、部位長算出部72で部位長が算出された部位pを検索キーとして、標準部位長テーブル23を参照することによって、検索キーとした部位pの標準的な長さの範囲(標準部位長範囲)XSpを取得する。図11は、標準部位長テーブル23の一例を表したものである。図に示したように、部位毎にその部位の標準的な長さの最小値XSp(min)と最大値XSp(max)が定義されている。なお、標準部位長取得部73は、部位認識結果Pnに含まれる部位を検索キーとして用いてもよい。
判定部74は、部位長算出部72で部位長が算出された部位毎に、算出された部位長Xpが、標準部位長取得部73で取得された、対応する部位の標準部位長範囲XSpに含まれるかどうかを判定する。具体的には、部位長Xpが、XSp(min)≦Xp≦XSp(max)を満たすかどうかが判断され、その結果(OK/NG)が出力される。
部位修正部24は、認識結果修正用端末5に実装される処理部であり、認識結果判定部22による判定の結果、入力された断層画像SLn中の各部位Pnの少なくとも1つがその部位の標準的な部位長の範囲にないと判断された場合に、その断層画像SLnに対する部位認識結果Pnの修正を行うユーザインターフェースを提供する。図12および図13は、そのユーザインターフェースの一例を表したものである。
図12は、修正対象となる断層画像SLnを一覧表示した部位認識エラーリスト画面61の一例である。図に示したように、部位認識エラーリスト画面61には、修正対象となる断層画像SLnを撮影シリーズ毎に一覧表示するリスト領域62と、実際の修正作業を行うための部位認識結果画面(図13参照)を呼び出すための認識結果の修正ボタン63とが含まれている。ユーザは、部位認識エラーリスト画面61のリスト領域62に表示されている修正対象の断層画像SLnから修正作業を行いたいものを選択する操作(認識結果修正用端末5のマウスのクリック等)を行った後、認識結果の修正ボタン63を押下する操作(クリック等)を行う。これにより、選択された修正作業対象の断層画像SLnの部位認識結果画面が表示される。なお、リスト領域62から修正作業対象の断層画像SLnを選択する際に、ダブルクリック操作を行うことにより、その断層画像SLnの部位認識結果画面が表示されるようにしてもよい。
図13は、部位認識結果画面の一例である。図に示したように、部位認識結果画面50には、修正作業対象の各断層画像SLnが表示される領域51、断層画像SLnの表示を切り替えるスライス切替ボタン53(前スライス切替ボタン53a、次スライス切替ボタン53b)、領域51に表示されている断層画像SLnに対する部位の修正を確定する部位修正ボタン54、複数の断層画像SLnをMPRの手法を用いて再構成することによって得られる冠状断による断面画像CPが表示される領域55、断面画像CPの鉛直方向における各位置、すなわち、断層画像SLnの各スライス位置での部位認識結果Pnを色分け表示するカラーバー56、カラーバー56における各領域の部位を説明する凡例57、断層画像SLnのすべてに対する部位認識結果Pn´の確定を指示する認識結果確定ボタン58、領域51に表示されている断層画像SLnの認識結果Pnを表示するとともに、修正候補となる部位名を表示するリストボックス59、部位認識処理におけるエラー内容の詳細が表示される領域60が含まれている。ユーザは、部位認識結果画面50において、まず、領域60に表示されている部位認識処理のエラーの内容の確認を行う。このエラーの内容は、認識結果判定部22から引き渡されるものであり、例えば、認識結果判定部22からはエラーコードが引き渡され、部位修正部24が、エラーコードとその内容を表すテキストを関連づけたテーブル等から、そのエラーコードに対応するテキスト(図13では、「胸部が長すぎます。」)を取得することによって、領域60に表示されたものである。また、認識結果判定部22からは、エラーとなった胸部の部位長Xc、および、胸部における標準部位長範囲XSp(min)とXSp(max)が引き渡され、これらの情報も、部位修正部24が有するエラーテキストのテンプレートに基づいて、「認識された胸部の長さ=320mm」(ここではXc=320mm)、「(標準値=120〜280mm)」(ここではXSp(min)=120mm、XSp(max)=280mm)というように編集されて、領域60にあわせて表示される。ユーザは、所望の断層画像(SLN1とする)(領域51)と、その画像に表された部位の認識結果PN1(リストボックス59のボックス部分59a)を個別的に確認することができるとともに、冠状断による断面画像CP(領域55)とカラーバー56とによって、その複数の断層画像SLnの鉛直方向の各位置における部位の認識結果Pnを全体的に確認することができる。なお、ユーザが、認識結果修正用端末5のマウス等を用いてスライス切替ボタン53を押下する操作(クリック)を行うことによって、各断層画像SLnを切り替えて表示させることができる。表示される断層画像SLnの切替えは、所定の時間間隔で自動的に行うようにすることもできる。また、領域55に表示される再構成画像は、矢状断による断面画像であってもよい。
また、ユーザは、スライス切替ボタン53の押下によって領域51に表示される断層画像SLnを切り替えながら、リストボックス59のボックス部分59aに表示される部位認識結果を確認し、修正対象となる断層画像(SLN2とする)を表示させ、リストボックス59のボックス部59aの矢印を押下する。これにより、リストボックス59のリスト部59bが表示され、ユーザは、リスト部59bに表示されている部位名から、その表示されている断層画像の正しい部位名を選択(クリック)する。さらに、ユーザが部位修正ボタン54を押下すると、その時点で領域51に表示されている断層画像SLN2の認識結果(部位)のリストボックス59で選択された部位への修正が確定される。なお、上記のユーザインターフェースは例示であり、例えば、各部位名を表すボタンを画面に表示させ、ユーザがそのボタンを押下することによって正しい部位名が得られるようにするといった、他のユーザインターフェースであってもよい。ユーザは、修正すべきすべての断層画像の部位の修正が終了したら、認識結果確定ボタン58を押下する操作を行う。これにより、部位修正部24は、修正後の部位認識結果Pn´を断層画像SLnの付帯情報に記録する。
データベース登録部31は、画像情報管理サーバ3に実装される処理部であり、複数の断層画像の各々の付帯情報に、対応する最終的な部位認識結果を付帯させて画像情報データベース4に登録する処理を行う。登録の際、部位毎に断層画像を分割して登録してもよい。
次に、図14のフローチャート、図4のブロック図等を用いて、本発明の部位認識結果修正処理のワークフローについて説明する。
まず、モダリティ1が設置された撮影室において、複数の撮影部位を含む撮影オーダーを受信し(#21)、モダリティ1でその撮影オーダーに基づいて被検体の撮影を行い、複数の断層画像SLn(n=1,2,・・・)を取得し(#22)、複数の断層画像SLnの画像データを画像情報管理サーバ3に送信する(#23)。なお、撮影オーダーは、単一の部位に対する撮影オーダーを統合したものであってもよい。
次に、画像情報管理サーバ3は、モダリティ1から送信されてきた複数の断層画像SLnの画像データを受信し(#24)、部位認識部21は、複数の断層画像SLnの各々に表された部位を認識する前述の処理を行い、部位認識結果Pnを取得する(#25)。認識結果判定部22は、複数の断層画像SLn(付帯情報を含む)とその部位認識結果Pnに基づいて前述の認識結果の判定を行う(#26)。判定の結果、部位認識部21による部位認識結果Pnに誤りがあると判定された場合には(#27; NG)、画像情報管理サーバ3は、認識結果Pnを断層画像SLnの付帯情報として記録し、それらのデータ(SLn,Pn)を認識結果修正用端末5に送信する(#28)。
認識結果修正用端末5は、画像情報管理サーバ3からデータ(SLn,Pn)を受信(#29)した後、受信したデータをエラーリスト(図12参照)に登録し、部位修正部24において、ユーザによる部位認識結果の修正を受け付け、修正された部位認識結果Pn´が断層画像SLnの付帯情報に記録される(#30)。認識結果修正用端末5は、修正後のデータ(SLn,Pn´)を画像情報管理サーバ3に送信する(#31)。
画像情報管理サーバ3は、認識結果修正用端末5からデータ(SLn,Pn´)を受信し(#32)、データベース登録部32が、画像情報データベース4への登録処理を行う(#33)。また、認識結果判定部22において、部位認識部21による部位認識結果Pnに誤りがないと判定された場合には(#27; OK)、上記ステップ#8から#12までの処理は行われず、画像情報管理サーバ3が、もとの認識結果Pnを断層画像SLnの付帯情報として記録し、データベース登録部32が画像情報データベース4への登録処理を行う(#33)。
このように、本発明の第1の実施形態となる部位認識結果修正装置を含む医療情報システムでは、部位認識部21が、複数の部位を表す複数の断層画像SLnの各々の内容的特徴に基づいて該各断層画像に表された前記被検体中の部位を仮認識し(正規化処理部41、特徴量算出部42、部位スコア算出部43)、各断層画像SLnについて仮認識された部位間の位置関係が被検体の解剖学的位置関係に整合するように仮認識された部位を修正することによって(部位決定部44)、各断層画像SLnに表された部位Pnを決定している。これにより、例えば、断層画像に表された被検体が人体の場合、胸部と認識された断層画像より下側に位置する断層画像で頭部と認識されるような解剖学的位置関係の不整合がなくなり、部位認識精度が向上する。
また、認識結果判定部22において、部位認識部21において認識された各部位の長さが標準部位長の範囲外であると判定された場合に、認識結果修正用端末5の部位修正部24が、範囲外となった部位の長さやその部位の標準部位長の範囲を、部位認識部21による認識結果が誤りである旨を表すメッセージとしてディスプレイに表示させるので、部位認識結果の誤りの内容をユーザが容易に把握できるようになる。
さらに、認識結果判定部22は、部位認識部21によって決定された各部位の長さが、標準部位長テーブル23から取得された所定の長さの範囲内であるかどうかを判定し、その所定の長さの範囲外であると判定された場合に、部位修正部24において部位の修正を行うので、複数の断層画像にまたがる部位の長さの妥当性の観点から部位認識の誤りを発見することが可能になり、より精度の高い部位認識結果が得られる。
特に、部位認識部21は機械学習の一手法であるAdaBoostによって得られた判別器を用いて部位認識を行っているため、その認識過程がブラックボックス化されてしまい、各処理対象画像に対する認識精度が予測不可能なものとなるが、認識結果判定部22が、部位認識処理後に各部位の長さが標準部位長の範囲内にあるかどうかを判定することにより、予測不可能な認識エラーを自動的に検出することが可能になることから、ユーザによる手作業での認識結果の妥当性チェックの負担軽減効果は極めて顕著となる。
上記実施形態では、標準部位長テーブル23を、部位毎の標準的な長さの最小値XSp(min)と最大値XSp(max)が登録されたものとしていたが、図15のように、各部位長の身長に対する比率の最小値RSp(min)と最大値RSp(max)を登録するようにしてもよい。この場合、判定部74は、部位長算出部72で算出された複数の部位の部位長の比率が、同じ部位における標準部位長の比率の最小値から最大値までの範囲に含まれるかどうかを判定する。例えば、部位長算出部72によって胸部の部位長XCと胸腹部の部位長XCAが求められた場合、標準部位長取得部73は、胸部の標準部位長範囲XSCと胸腹部の標準部位長範囲XSCAを取得し、判定部74は、胸部の部位長の胸腹部の部位長に対する比率XC/XCAが、XSC(min)/XSCA(max)≦XC/XCA≦XSC(max)/XSCA(min)を満たすかどうかを判断する。
次に、本発明の部位認識結果修正処理の第2、第3の実施形態について第1の実施形態との相違点を中心に説明する。これらの実施形態では、認識結果判定部22の内容が第1の実施形態と異なるが、その他については第1の実施形態と同様である。
本発明の第2の実施形態となる部位認識結果修正装置は、各部位の長さが所定の確率分布に従うものとし、その確率分布における信頼度を取得し、取得された信頼度に基づいてその確率分布における信頼区間を求め、その信頼区間を所定の長さの範囲として部位認識結果の判定を行うものである。
図16は、本実施形態における認識結果判定部22の処理の詳細を表すブロック図である。図に示すように、図9の構成に信頼度取得部75が付加された構成となっている他、標準部位長取得部73の処理内容と標準部位長テーブル23の構成が以下のように異なっている。
信頼度取得部75は、この処理を行うプログラムの起動時に与えられるパラメータとして信頼度ccを取得する。なお、信頼度取得部75は、信頼度ccの入力を受け付けるユーザインターフェースを設け、ユーザによる入力によって信頼度ccを取得するようにしてもよいし、何らかの計算によって取得してもよい。
図17は、本実施形態における標準部位長テーブル23の一例を表したものである。図に示したように、部位長の分布が正規分布に従うことを前提とし、各部位の部位長の平均値μp、標準偏差σpが定義されている。
標準部位長取得部73は、第1の実施形態と同様に、部位長算出部72で部位長が算出された部位pを検索キーとして、標準部位長テーブル23を参照することによって、検索キーとした部位pの部位長の平均値μp、標準偏差σpを取得する。次に、信頼度取得部75によって取得された信頼度ccを参照キーとして正規分布表を表す参照データを参照し、信頼度ccに対応する標準得点zを取得し、この標準得点と、標準部位長テーブル23から取得した部位長の平均値μp、標準偏差σpから、信頼区間、すなわち、その部位pにおける標準部位長の範囲XSpを算出する。標準部位長の範囲XSpの範囲は次式(1)(2)で表される。
XSp(min)=−z・σp+μp (1)
XSp(max)= z・σp+μp (2)
例えば、信頼度ccが95%、部位pが胸腹部の場合、標準部位長の範囲XSCは以下のようになる。
XSC(min)=−1.96×25+70=21 mm
XSC(max)= 1.96×25+70=119 mm
なお、この場合、ある被検体の胸腹部の部位長が21mmから119mmの範囲に含まれる確率が95%であることを意味する。
他の処理部における処理の詳細や、本発明の部位認識結果修正処理のワークフロー自体は、第1の実施形態と同様である。
このように本発明の第2の実施形態となる部位認識結果修正装置を含む医療情報システムでは、各部位の長さが正規分布に従うものとし、認識結果判定部22において、信頼度取得部75が正規分布における信頼度ccを取得し、標準部位長取得部73が、信頼度取得部75によって取得された信頼度ccと標準部位長テーブル23から取得した平均値μp、標準偏差σpとに基づいて正規分布における信頼区間を求め、判定部74その信頼区間を標準部位長の範囲XSpとして部位認識結果の判定を行うので、判定基準を信頼度に応じてきめ細かく設定することが可能になり、さらに精度の高い部位認識結果が得られる。
本発明の第3の実施形態となる部位認識結果修正装置は、被検体の属性を表す属性情報を取得し、取得された属性情報に応じて所定の長さの範囲を決定し、決定された所定の長さの範囲を用いて部位認識結果の判定を行うものである。
図18は、本実施形態における認識結果判定部22の処理の詳細を表すブロック図である。図に示すように、図9の構成における付帯情報解析部71と標準部位長取得部73の処理内容ならびに標準部位長テーブル23の構成が以下のように異なっている。
付帯情報解析部71は、入力された断層画像SLnの付帯情報を解析して各断層画像のスライス位置PSnを取得するとともに、被検体の身長の情報Bhをさらに取得する。
図19は、本実施形態における標準部位長テーブル23の一例を表したものである。図に示したように、標準部位長テーブル23は、身長140cm以上160cm未満の場合の標準部位長の範囲を定義したサブテーブル(図19(a))、身長160cm以上180cm未満の場合の標準部位長の範囲を定義したサブテーブル(図19(b))、身長180cm以上200cm未満の場合の標準部位長の範囲を定義したサブテーブル(図19(c))というように、被検体の身長の範囲毎に標準部位長の範囲が定義されたものとなっている。なお、上記の3テーブルに含まれない身長の範囲についても同様のサブテーブルを作成しておくことができる。
標準部位長取得部73は、付帯情報解析部71で取得された被検体の身長Bhと部位長算出部72で部位長が算出された部位pとを検索キーとして、標準部位長テーブル23を参照する。これにより、図19に例示した複数のサブテーブルのうちの被検体の身長Bhに応じたものから、検索キーの部位pの標準部位長の範囲XSpを取得することができる。
他の処理部における処理の詳細や、本発明の部位認識結果修正処理のワークフロー自体は、第1の実施形態と同様である。
このように本発明の第3の実施形態となる部位認識結果修正装置を含む医療情報システムでは、認識結果判定部22において、付帯情報解析部71が被検体の身長を表す属性情報Bhを取得し、標準部位長取得部73が、被検体の身長の範囲毎、部位毎に定義された標準部位長テーブル23を参照して、被検体の身長Bhに応じた標準部位長の範囲XSpを決定し、判定部74が、その標準部位長の範囲XSpを用いて部位認識結果の判定を行うので、判定基準を被検体の身長に応じてきめ細かく設定することが可能になり、さらに精度の高い部位認識結果が得られる。
上記実施形態では、標準部位長テーブル23を被検体の身長の範囲毎の複数のサブテーブルの集合として構成していたが、身長の範囲を1つのテーブル中の項目(列、カラム)として構成してもよい。また、図20のように、基準身長Bh0(図では170cm)における標準部位長の範囲(XSp0とする)のみを標準部位長テーブル23に定義しておき、標準部位長取得部73が、部位長算出部72で部位長が算出された部位pとを検索キーとして、対応する部位長pの標準部位長の範囲XSp0を標準部位長テーブル23から取得し、付帯情報解析部71で取得された被検体の身長Bhと基準身長Bh0の比率に基づいて標準部位長の範囲を変換することにより、その被検体における標準部位長の範囲XSpを取得するようにしてもよい。具体的には、次式(3)(4)のようにして、標準部位長の最小値XSp(min)と最大値XSp(max)を求める。
XSp(min)=XSp0(min)・(Bh/Bh0) (3)
XSp(max)=XSp0(max)・(Bh/Bh0) (4)
ここで、XSp0(min)、XSp0(max)は、各々、基準身長Bh0における標準部位長の最小値、最大値である。
また、上記実施形態では、被検体の身長に応じて標準部位長の範囲を取得するようにしていたが、被検体の他の属性、例えば、性別、年齢、居住国および地域、民族グループ、職業等を付帯情報解析部71が取得するようにし、これらの属性に応じて標準部位長の範囲を取得するようにしてもよい。また、断層画像SLnに対して公知の画像解析処理を行うことによって、被検体の属性(例えば、最大呼気、最大吸気等の呼吸相(呼吸状態))を取得するようにしてもよいし、被検体の属性をユーザによる入力を受け付けることによって取得するようにしてもよい。さらに、被検体の複数の属性を組み合わせ、組合せの要素毎に部位毎の標準部位長の範囲を定義するようにしてもよい。例えば、標準部位長テーブル23を、性別の2分類、年齢の8分類を組み合わせた16パターンの各々での標準部位長の範囲を定義した16個のサブテーブルから構成するようにしてもよい。
また、標準部位長テーブルの構成と認識結果判定部については、上記実施形態の複数を組み合わせたものにすることができる。具体的には、図17の部位毎の部位長の平均値と分散を定義したテーブルを、図19のように身長の範囲毎のサブテーブルに分割すること等が考えられる。
さらに、標準部位長を、参照テーブルを用いて取得するのではなく、部位名や被検体の身長等を入力すると標準部位長を出力する関数を用いて取得するようにすることも考えられる。
3.肋骨認識処理の実装例(第4〜第6の実施形態)
以下、本発明の第4から第6の実施形態として、上記1.のシステムで肋骨認識処理を行う場合について説明する。
これらの実施形態では、図2の画像認識部11に、CTやMRI等のモダリティ1で取得された3次元画像の画像データImgを入力として、画像中の被検体の肋骨の各々を認識し、認識された肋骨領域の情報を肋骨認識結果Rstとして出力する肋骨認識処理が実装される。また、実施形態によっては、認識された各肋骨の肋骨番号の認識も行う。
以下、本出願人が特願2008-092173号にて提案している手法を引用し、軸位断による複数の断層画像から構成される3次元画像Imgから、胸骨体が撮影された胸骨体領域と肋骨領域とを抽出して、胸骨体領域のうちの胸骨体の下端部に対応する位置と各肋骨領域の位置から肋骨番号を決定する処理について説明する。
図21は、肋骨および肋骨番号の認識を行う画像認識部11の構成を表すブロック図である。図に示したように、3次元画像データImgを入力として胸骨体領域を抽出する胸骨体領域抽出手段51と、肋骨領域を抽出する肋骨領域抽出手段52と、胸骨体領域の位置と各肋骨領域の位置から各肋骨領域の肋骨番号を決定する肋骨番号決定手段53と、椎骨領域を抽出する椎骨領域抽出手段54とを備える。
椎骨領域抽出手段54は、椎体位置決定手段60を備え、椎体位置決定手段60で決定された椎体の端の位置の情報を用いて、セグメンテーションされた椎体の端の位置から脊柱を各椎骨に分離した椎骨領域を抽出する。
椎体位置決定手段60は、たとえばCT装置により取得された断層画像に映し出された椎体の両端の位置を自動的に算出するものであって、図22に示すように、椎骨中心線算出手段61、海綿体領域推定手段62、中心検出手段63、椎体位置決定手段64を備えている。
椎骨中心線算出手段61は、一本の椎骨の横断面を示す複数の断層画像から椎骨の中心線を求めるものである。
まず、3次元画像Imgから脊髄領域を抽出する。脊髄領域は、図23に示すように、断層画像上に典型的なパターンで表れるため、断層画像から脊髄領域を安定的に検出することが可能である。具体的には、例えば、各断層画像中の各画素を中心として所定の大きさの領域を多数設定し、機械学習手法により生成された判別器を用いて各領域が脊髄領域であるか否かを判別しながら脊髄領域を検出する。
次に、検出された複数の脊髄領域内の中心点より脊髄中心線を生成する。中心点は、脊髄領域内の略真中に存在する画素を設定する。必ずしも脊髄領域内の厳密な中心である必要はなく、脊髄領域の周囲または所定の両端から略等距離にあるような点や、重心点でもよい。
さらに、断層画像を脊髄中心線に沿って体軸方向に切り直した縦断面画像を生成する。図24のように、各断層画像から得られた脊髄領域の中心点P5を基準として、Y軸から逆時計周りにα度傾いた点P3,P4を結ぶ直線上の各画素の輝度値を抽出し、各断層画像から抽出された点P3,P4を結ぶ直線(右の図のx軸方向に対応)上の輝度値を断層画像のスライス番号の順(右の図のy軸方向に対応)に積み重ねて縦断面画像Vを生成する。心臓部は血管等が多く存在し、安定的なパターンが得られないため、点P3,P4を結ぶ直線は、中心点と脊椎領域を通るが心臓部は通らないように設定するのがよい。
この縦断面画像Vから椎骨の境界線を検出する。縦断面画像V上に脊髄中心線L3が一本の曲線として現れ、脊椎領域は脊髄中心線の左側に、二本のCT値(画素値)の高い骨梁線とそれに囲まれたCT値(画素値)の低い海綿骨領域が現れる。そこで、図24の縦断面画像Vに対し、X方向の画素値を見て脊椎領域の腹側で大きな正の差分値が表れるエッジを求め、その背側で大きな負な差分値が表れるエッジを求める。脊髄中心線L3を線形変換し、脊椎領域の背側のエッジ線L2にフィッティングさせてエッジ曲線L5を求める。同様に、腹側のエッジ曲線L1についても、同様にエッジ曲線L4を求める。
図25のように算出された曲線L4と曲線L5は、脊椎領域を含む椎骨の左右の境界線となる。そして算出された左右の境界線L4,L5から、椎骨の中心線と椎骨の幅を算出することができる。
海綿体領域推定手段62は、椎骨中心線算出手段61により求められた椎骨中心線の周辺の領域の画素を用いて海綿体領域を推定する。撮影された3次元画像Imgには、椎骨の病変や変形が表れている部分が存在する可能性があるので、3次元画像Img全体を用いるよりも、椎骨中心線の周辺の領域だけを使うことでより安定的に海綿体を検出することができる。また、画像パターンから比較的安定して検出することができる海綿体領域を先に抽出し、それを用いて椎間部を求めた方が、最初に椎間部を抽出してセグメンテーションを行うよりも、確実に椎間部を求めることができる。
図26は、椎骨および椎体等を概念的に示したものである。図26に示される円筒S1は椎体を表し、円筒S1のサーフェースは椎体の側方の皮質部分に相当する。円柱の天板と底板はそれぞれ椎体の上下の終板に相当する。突起S2は骨増殖部分を表している。円筒部分T1は、脊髄の中心付近の領域を表している。そこで、その円筒の部分T1のCT値(画素値)を(横方向)加算した値を求めると、図26の右に示すようなグラフになる。断層画像上の椎間部はパーシャルボリューム効果で消失していることがあるが、図26に示すグラフのように、海綿体領域に対応するCT値(画素値)の低い領域(例えば、K1〜3)が現れる。しかし、突起S2の骨増殖部分の影響で、椎間部の谷が顕著ではなくなる可能性がある。そこで、重度な圧迫骨折の人体を示す3次元画像のように、海綿体領域が潰されて海綿体領域のCT値(画素値)の高くなる可能性がある場合には、CT値(画素値)の加算値から判定を行うのではなく、体軸方向のエッジを検出するようにすれば、圧迫骨折が存在する場合でも海綿体領域を検出することが可能である。
中心検出手段63は、海綿体領域推定手段62により推定された各椎体の海綿体領域内において、海綿体領域の3次元中心を検出する。海綿体領域の3次元中心は、海綿体領域を含む複数のサンプル画像の各画素の特徴量を予め機械学習することにより求めることができる。機械学習した判別器を用いて、椎骨中心線の周辺の領域の画素の特徴量から椎骨中心線の周辺の領域の中に海綿体領域が含まれる程度を示すスコアを算出し、このスコアに基づいて海綿体領域の3次元中心を検出する。
椎体位置決定手段64は、海綿体領域検出手段63により検出された各椎体の海綿体領域の3次元中心に基づいて、各椎体の体軸方向の両端の位置を算出することにより椎体位置を決定する。例えば、隣り合う二つの椎体の海綿体領域の三次元中心間の中間点をその二つの椎体の椎間部とする。その他の手法としては、隣り合う二つの椎体の海綿体領域の三次元中心間のCT値(画素値)の和の極大点(又はエッジ強度)を検出することによって、椎体の皮質部の位置を検出し、椎体の端を決める手法も用いても良い。
肋骨領域抽出手段62は、人体を表す3次元画像Imgから人体の肋骨領域を1本ずつ分離して抽出する。
例えば、米国公開公報2006−0062425号A1(以下、参考文献1という)の手法を用いることができる。参考文献1には、肋骨領域を3次元画像Imgから抽出するための高速トレーシングベースの技術が開示されている。この技術は、肋骨を抽出して、各肋骨の一本一本を表す肋骨領域を得るのに用いることができる。
あるいは、肋骨領域の濃度ヒストグラムを用いて検出することもできる。図27に、椎骨及び肋骨部分の断層画像を示す。まず、椎骨の中心線と椎骨の横幅を求める。そのために、図27中の骨領域のうち、体表横方向の中心線A(すなわち、頭と足を結ぶ体軸の方向に垂直な断面における体の前後方向の中央において体の前後方向に垂直な体の左右方向の線)より下側の領域を縦軸に投影し、濃度ヒストグラムを生成する。
図28に、このようにして生成した骨領域の濃度ヒストグラムを示す。図28に示すヒストグラムでは、中央に大きなピークがあり、左右に小さなピークが形成されている。図27に示す断層画像では、肋骨の部分が小さいピークを形成し、椎骨が一番骨の多く存在するところであり一番大きいピークが形成されると考えられる。そこで、図28のヒストグラムから、中央にある最大のピークを検出し、それに対応する部分として椎骨領域を検出する。
そして、図29に示すように、検出した椎骨領域Bの上部に対して円Sを当てはめて、椎骨の中心C及び幅dを求める。椎骨中心Cと椎骨幅dを用いて椎骨領域、左右肋骨領域及び胸骨領域を認識する。
図30に示すように、上で求めた椎骨中心Cから上方に60°の角度をなす2本の半直線を引くとともに、椎骨中心Cをその中心に含むようにして体表縦方向の中心線Aに直交する2直線を引く。この2直線間の距離は、椎骨領域の幅であり、これは上記幅dの1.5倍となるようにする。このように、2本の半直線と体表縦方向の中心線Aに直交する2直線により、図30の断層画像の骨領域を4つの領域に分割し、それぞれ椎骨領域B、右肋骨領域E1、胸骨領域E2、左肋骨領域E3とする。
このようにして椎骨、右の肋骨、胸骨、左の肋骨のように骨をその部品単位で認識する。3次元画像Imgの全ての断層画像に対して各部品の認識を行って、各断層画像から検出された肋骨の領域をスライス番号の順番に従って積み重ねた領域を肋骨領域として抽出する。
胸骨体領域抽出手段51は、3次元画像Imgより胸骨体領域を抽出する。胸骨体は、図31に示すように、各断面画像上にほぼ同じ太さで内腔(海綿体)のある長方形の領域として表れ(図31のAの部分を参照)、パターン認識をすることにより検出することができる。胸骨体は胸部断面上の椎骨の位置とは反対の人体の前面に近い位置に表れるので、人体の前面に近い辺りから長方形の領域を各断層画像から検出する。各断層画像から検出した長方形の領域を各断層画像のスライス番号の順番に従って積み重ねた領域を、胸骨体領域として抽出する。各断層画像での胸骨体領域の抽出方法の具体例としては、断層画像に胸骨体が含まれうる所定のサイズの小領域を順次設定し、設定された各小領域において、濃度値分布パターンの統計量等の特徴量を算出し、算出された特徴量をAdaBoost手法に基づく学習によって得られた判別器に入力して、各小領域が胸骨体であるかどうかを判別することによって、軸位断画像中の胸骨体の抽出を行う方法が挙げられる。ここで、判別器は、学習用サンプルとなる胸骨体が表されていることがわかっている複数の画像と胸骨体が表されていないことがわかっている複数の画像の各々について上記と同様にして算出された特徴量を用いてAdaBoost手法に基づく学習を行うことによって得られたものである。
肋骨番号決定手段53は、肋骨領域が胸骨体領域とどのように接続しているかに応じて肋骨番号を決定する。図32に示すように、解剖学的には第2肋骨〜第10肋骨は胸骨体に繋がっている。また、第5肋骨までは、肋骨のほぼ全体が胸骨体の下端Lより上にある。したがって、胸骨体領域に接続している肋骨領域の中、ほぼ全体が胸骨体の下端Lより上にあり、かつ、最も下にある肋骨領域の肋骨番号を第5番の肋骨として特定することが出来る。この第5番の肋骨領域を基準に各肋骨領域の肋骨番号を肋骨領域の並びの順番にしたがって決定する。
次に、図33のフローチャートに従って、骨番号決定装置の処理の流れについて説明する。
まず、肋骨領域抽出手段52で、3次元画像Imgに撮影されている全ての肋骨領域を抽出する(ST100)。次に、椎骨領域抽出手段54で、3次元画像Imgから脊髄領域を抽出し、椎体の両端の位置を自動的に算出して各椎骨領域に分離する(ST101)。
抽出された肋骨領域の数をカウントする(ST102)。肋骨領域の数が12本あれば、第12番目の肋骨領域を特定して(ST103)、肋骨番号が12番の肋骨領域を基準に上の肋骨領域へ行くに従って肋骨番号を11番、10番、・・・、1番というように順に割り当てる(ST104)。
肋骨領域の数が12本以下の場合には、3次元画像に腰骨が撮影されているか否かを判定して、腰骨が撮影されていれば(ST105)、肋骨の一番下の肋骨は撮影されているので、肋骨領域の一番下の肋骨番号を12番と特定して(ST103)、肋骨番号が12番の肋骨領域を基準に上の肋骨領域へ行くに従って肋骨番号を11番、10番、・・・というように順に割り当てる(ST104)。肋骨領域の数が12本以下で腰骨も撮影されていないときには、頚骨が撮影されているか否かの判定を行う。頚骨が撮影されているときには肋骨の一番上の肋骨は撮影されているので(ST106)、肋骨領域の一番上の肋骨番号を1番と特定して(ST107)、肋骨番号が1番の肋骨領域を基準に下の肋骨領域へ行くに従って肋骨番号を2番、3番、・・・というように順に割り当てる(ST108)。
肋骨領域の数が12本以下で腰骨も頚骨も撮影されていないときには、胸骨体領域抽出手段51で、3次元画像Imgから胸骨体領域を抽出する(ST109)。肋骨番号決定手段53で肋骨領域が胸骨体領域とどのように接続しているかに応じて肋骨番号を決定する(ST110)。
上述では、肋骨領域が12本全部確認できるときや、第1肋骨や第12肋骨が確認できる時には胸体骨の認識を行わずに肋骨番号を特定する場合について説明したが、胸体骨の認識を必ず行って胸体骨と第5肋骨の位置を特定して、他の肋骨の肋骨番号を特定するようにしてもよい。
なお、後続の認識結果判定処理において、個々の肋骨の肋骨番号に応じて判定を行わない場合には、肋骨番号決定手段53による処理は不要である。
図34は、本発明の第4の実施形態における、図2の認識結果判定部12の処理の詳細を表すブロック図である。図に示すように、本実施形態では、認識結果判定部12は、解剖学的計測値取得部81、標準値取得部82、標準的範囲テーブル83a、判定部84から構成されており、以下のように処理が行われる。
解剖学的計測値取得部81は、画像認識部11による肋骨認識結果Rstに基づき、認識された肋骨の長さMsを画像Img上で計測する。具体的には、画像認識部11によって認識された肋骨の領域の各々に対して細線化処理を行うことによって得られた各肋骨の芯線の長さを計測して、各肋骨の長さMsとする。
標準値取得部82は、標準的範囲テーブル83aから標準的な肋骨の長さのとりうる範囲を表す情報Stdを取得する。図35は、標準的範囲テーブル83aの2つの例を示したものである。図35(a)は、人体の左右12本ずつの肋骨に共通の標準的な長さの範囲が最小値と最大値で定義されており、標準値取得部82は、画像認識部11で認識されたすべての肋骨に対してこの最小値と最大値を肋骨の標準的な長さの範囲Stdとして取得する。この場合、画像認識部11において各肋骨の肋骨番号を認識する必要はない。一方、図35(b)は、12本の肋骨の各々について標準的な長さの範囲が最小値と最大値で定義されており、標準値取得部82は、画像認識部11で認識された肋骨の各々の肋骨番号を検索キーとして標準的範囲テーブル83aを参照し、その肋骨番号に対応する最小値と最大値をその肋骨番号を有する肋骨の標準的な長さの範囲Stdとして取得する。
判定部84は、解剖学的計測値取得部81で取得された肋骨の各々の長さMsが肋骨の標準的な長さの範囲Stdに含まれるかどうかを判定し、その結果(OK/NG)を出力する。ここで、標準的範囲テーブル83aが図35(a)のように定義されている場合には、各々の肋骨の長さMsを各肋骨に共通の標準的な長さの範囲Stdと比較するが、標準的範囲テーブル83aが図35(b)のように定義されている場合には、各々の肋骨の長さMsを、その肋骨と同じ肋骨番号の肋骨についての標準的な長さの範囲Stdと比較する。
誤認識結果表示・修正部14は、認識結果判定部12の判定部84による判定の結果、各肋骨のうちの少なくとも1つの長さが標準的な長さの範囲にない(NG)と判定された場合に、処理対象の画像データImgおよび誤認識結果Rstを入力として、これらを画面に表示するとともに、ユーザによる認識結果の修正を受け付けるユーザインターフェースを提供し、修正後の認識結果Rst´を出力するものである。具体的なユーザインターフェースとしては、処理対象の画像データImgに基づいて、標準的な長さの範囲にないと判断された肋骨を含む画像を再構成し、その肋骨の輪郭を強調するなどしてその肋骨を識別可能な態様で表示するとともに、その肋骨の肋骨番号、計測された長さ、その肋骨の標準的な長さの範囲を、「左第10肋骨の長さが標準値(XX〜YYmm)の範囲にありません。計測された長さ=ZZmm」というように表示し、ユーザがその再構成された画像上でのマウス操作により、その肋骨の輪郭を修正するインターフェースが考えられる。なお、このユーザインターフェースを提供する前に、第1の実施形態の部位認識エラーリスト画面(図12)と同様に、肋骨認識エラーと判定された画像データImgのリストを表示し、ユーザがそのリストの中から所望の画像データをマウス等で選択する操作を受け付けてから、上記のユーザインターフェースを提供するようにしてもよい。
データベース登録部15は、上記1.で説明したとおり、処理対象の画像データImgの付帯情報に、画像認識部11による認識結果Rstまたは修正後の認識結果Rst´を付帯させて画像情報データベース4に登録する処理を行う。
以上のように、本発明の第4の実施形態では、画像認識部11の肋骨認識処理によって認識された各肋骨の長さMsが標準的な長さの範囲Stdにあるかどうかを認識結果判定部12で自動的に判定することが可能になり、また、認識結果Rstに誤りがあると判定された場合には、誤認識結果表示・修正部14において、誤認識と判定された肋骨の番号・その肋骨の計測された長さ・その肋骨番号の肋骨の標準的な長さを表示することにより、ユーザがその誤認識結果の内容を容易に理解できるようになり、さらに、その誤認識と判定された肋骨の認識結果を修正できるようにしたので、最終的な認識結果の精度が向上する。
上記第4の実施形態では、標準的範囲テーブル83aを、肋骨の標準的な長さの最小値と最大値が登録されたものとしていたが、肋骨の長さの身長に対する比率の最小値と最大値を登録するようにしてもよい。この場合、解剖学的計測値取得部81が、画像認識部11による処理が行われた画像データImgの付帯情報を解析して被検体の身長の情報を取得し、画像認識部11で認識された各肋骨の長さの身長に対する比率を算出すればよい。また、この場合において、標準的範囲テーブル83aが図35(b)のように肋骨番号毎に定義されている場合には、判定部84は、解剖学的計測値取得部81で算出された各肋骨のうちの2つについての比が、それらの肋骨における標準的長さの比の最小値から最大値までの範囲に含まれるかどうかを判定する。例えば、解剖学的計測値取得部81によって第1肋骨の長さMs1と第2肋骨の長さMs2が求められた場合、標準値取得部82は、第1肋骨の標準的な長さの範囲Std1(min)とStd1(max)および第2肋骨の標準的な長さの範囲Std2(min)とStd2(max)を取得し、判定部84は、第1肋骨の第2肋骨に対する長さの比率Ms1/Ms2が、Std1(min)/Std2(max)≦Ms1/Ms2≦Std1(max)/Std2(min)を満たすかどうかを判断する。
次に、本発明の第5、第6の実施形態について第4の実施形態や第2、第3の実施形態との相違点を中心に説明する。これらの実施形態では、認識結果判定部12の内容が第4の実施形態と異なるが、その他については第4の実施形態と同様である。
本発明の第5の実施形態は、各肋骨の長さが所定の確率分布に従うものとし、その確率分布における信頼度を取得し、取得された信頼度に基づいてその確率分布における信頼区間を求め、その信頼区間を所定の長さの範囲として肋骨認識結果の判定を行うものである。
図36は、本実施形態における認識結果判定部12の処理の詳細を表すブロック図である。図に示すように、図34の構成に信頼度取得部85が付加された構成となっている他、標準値取得部82の処理内容が異なっている。また、標準的範囲テーブル83aが83bに置換されている。
信頼度取得部85は、第2の実施形態の信頼度取得部75と同様に、この処理を行うプログラムの起動時に与えられるパラメータとして、またはユーザによる入力によって、あるいは何らかの計算によって信頼度ccを取得する。
図37は、本実施形態における標準的範囲テーブル83bの2つの例を表したものである。ここでは、肋骨の長さの分布が正規分布に従うことを前提とし、図37(a)ではすべての肋骨の長さの平均値μ0、標準偏差σ0が定義されており、図37(b)では肋骨毎の長さの平均値μn、標準偏差σnが定義されている(n=1,2,・・・,12)。
標準値取得部82は、第4の実施形態と同様にして標準的範囲テーブル83bから各肋骨の長さの平均値μ0またはμn、標準偏差σpまたはσnを取得した後、第2の実施形態と同様にして、信頼度取得部85によって取得された信頼度ccを参照キーとして正規分布表を表す参照データを参照し、信頼度ccに対応する標準得点zを取得し、この標準得点と、標準的範囲テーブル83bから取得した平均値μ0またはμn、標準偏差σpまたはσnから、上式(1)(2)と同様にして信頼区間、すなわち、その肋骨の標準的長さの範囲Stdを算出する。
他の処理部における処理の詳細は、第4の実施形態と同様である。
このように本発明の第5の実施形態では、各肋骨の長さが正規分布に従うものとし、認識結果判定部12において、信頼度取得部85が正規分布における信頼度ccを取得し、標準値取得部82が、信頼度取得部85によって取得された信頼度ccと標準的範囲テーブル83bから取得した平均値、標準偏差とに基づいて正規分布における信頼区間を各肋骨の標準的長さの範囲として求め、判定部84がその信頼区間を用いて肋骨認識結果の判定を行うので、判定基準を信頼度に応じてきめ細かく設定することが可能になり、さらに精度の高い肋骨識結果が得られる。
本発明の第6の実施形態は、被検体の属性を表す属性情報を取得し、取得された属性情報に応じて各肋骨の標準的長さの範囲を決定し、決定された標準的長さの範囲を用いて肋骨認識結果の判定を行うものである。
図38は、本実施形態における認識結果判定部12の処理の詳細を表すブロック図である。図に示すように、図34の構成に付帯情報解析部86が付加された構成となっている他、標準値取得部82の処理内容が異なっている。また、標準的範囲テーブル83aが83cに置換されている。
付帯情報解析部86は、入力された画像データImgの付帯情報を解析して被検体の属性情報Atrを取得するものである。ここでは、属性情報Atrは被検体の身長を表すものとする。
図39は、本実施形態における標準的範囲テーブル83cの一例を表したものである。図に示したように、標準的範囲テーブル83cは、全肋骨に共通の標準的な長さの範囲を、身長140cm以上160cm未満、身長160cm以上180cm未満、身長180cm以上200cm未満というように、被検体の身長の範囲毎に3つのカテゴリに分類して定義されたものとなっている。なお、上記の3つのカテゴリに含まれない身長の範囲についても同様に定義することができる。また、身長の範囲毎かつ肋骨番号毎にその肋骨の標準的な長さの範囲を定義するようにしてもよい。
標準値取得部82は、付帯情報解析部86で取得された被検体の身長Atrを検索キーとして、標準的範囲テーブル83cを参照し、被検体の身長Atrに応じた肋骨の標準的長さの範囲Stdを取得する。
他の処理部における処理の詳細は、第4の実施形態と同様である。
このように本発明の第6の実施形態では、認識結果判定部12において、付帯情報解析部86が被検体の身長を表す属性情報Atrを取得し、標準値取得部82が、被検体の身長の範囲毎に定義された標準的範囲テーブル83cを参照して、被検体の身長Atrに応じた肋骨の標準的な長さの範囲Stdを決定し、判定部84が、その標準的長さの範囲Stdを用いて肋骨認識結果の判定を行うので、判定基準を被検体の身長に応じてきめ細かく設定することが可能になり、さらに精度の高い肋骨認識結果が得られる。
上記実施形態では、標準的範囲テーブル83cに被検体の身長の範囲毎の肋骨の標準的な長さの範囲を定義していたが、図40のように、基準身長Atr0(図では170cm)における全肋骨に共通の標準的な長さの範囲(Std0とする)のみを標準的範囲テーブル83cに定義しておき、標準値取得部82が、付帯情報解析部86で取得された被検体の身長Atrと基準身長Atr0の比率に基づいて、上式(3)(4)と同様にして、その基準身長Atr0における肋骨の標準的な長さの範囲Std0を変換することにより、その被検体における肋骨の標準的な長さの範囲Stdを取得するようにしてもよい。
また、上記実施形態では被検体の身長に応じて肋骨の標準的な長さの範囲を取得するようにしていたが、上記第3の実施形態の変形例と同様に、被検体の性別等の他の属性毎に標準的な長さの範囲を定義してもよいし、被検体の複数の属性の組合せ毎に肋骨の標準的な長さの範囲を定義するようにしてもよい。
さらに、属性情報は、上記のように付帯情報解析部86が付帯情報から取得するようにしてもよいし、入力画像データImgに対して公知の画像解析処理を行うことによって、被検体の属性(例えば、人体領域の面積)を取得するようにしてもよいし、被検体の属性をユーザによる入力を受け付けることによって取得するようにしてもよい。
標準的範囲テーブルの構成については、上記実施形態の複数を組み合わせたもの、例えば、図37の肋骨の長さの平均値と分散を、図39のように身長の範囲毎に定義したもの等にしてもよい。
また、肋骨の標準的な長さを、参照テーブルを用いて取得するのではなく、被検体の身長等を入力として肋骨の標準的な長さを出力する関数を用いて取得するようにしてもよい。
さらに、画像認識部11による肋骨認識結果の判定の尺度、すなわち、解剖学的計測値取得部81が取得する解剖学的計測値として、肋骨の長さ以外のものを用いてもよい。具体例としては、肋骨の曲がり具合(曲率)や、肋骨が存在する面の法線ベクトルの方向、肋骨間の間隔、肋骨の被検体中の基準位置からの距離等が挙げられる。
4.椎体認識処理の実装例(第7〜第9の実施形態)
以下、本発明の第7から第9の実施形態として、上記のシステムで椎体認識処理を行う場合について説明する。
これらの実施形態では、図2の画像認識部11に、CTやMRI等のモダリティ1で取得された3次元画像の画像データImgを入力として、画像中の被検体の椎体の各々を認識し、認識された椎体領域の情報を椎体認識結果Rstとして出力する椎体認識処理が実装される。また、実施形態によっては、認識された各椎体の椎体番号の認識も行う。
以下、本出願人が特願2008-092173号にて提案している手法を引用し、上記3.の画像認識部11に椎体番号を決定する処理を付加した態様について説明するが、椎体番号毎に認識結果の判定を行わない場合には、上記3.の椎骨領域抽出手段54(椎骨位置決定手段60)の処理のみを行うことにより、椎体領域を認識することができる。
図41は、椎体領域および椎体番号の認識を行う画像認識部11の構成を表すブロック図であり、図21のブロック図に椎骨番号決定手段55を付加した構成となっている。したがって、胸骨体領域抽出手段51、肋骨領域抽出手段52、肋骨番号決定手段53、椎骨領域抽出手段54(椎骨位置決定手段60)の処理内容は、上記3.と同様である。
椎骨番号決定手段55は、肋骨領域の肋骨番号とその肋骨領域が椎骨領域とどのように接続しているかから、各椎骨領域の椎体番号を決定する。
肋骨領域がどの椎骨領域と接続しているかを求める一つの手法としては、図42に示すように、まず椎骨領域の中心線からある幅Wを決め(例えば、Wとして椎骨の幅を用いることができる。)、その範囲内の肋骨番号kの肋骨領域をZ軸上に投影し、Z方向に肋骨領域が表れる範囲を求める。同様に、椎骨領域をZ軸上に投影してZ軸における各椎骨領域の範囲を求める。各椎骨領域の範囲と重なる範囲が最も大きい肋骨番号kの肋骨領域が、その椎骨領域に接続する椎骨であると判定して、その椎骨領域の椎体番号をkとする。
したがって、図33のフローチャートでは、肋骨番号を特定する処理(ST104,108,110)の後、椎骨番号決定手段55で肋骨領域の肋骨番号とその肋骨領域が椎骨領域とどのように接続しているかから、各椎骨領域の椎体番号を決定する。
本発明の第7の実施形態としては、図2の認識結果判定部12を、本発明の第4の実施形態と同様に図34のように構成して、椎体認識結果の判定・修正を実現することが考えられる。ここで、解剖学的計測値取得部81は画像認識部11で認識された各椎体内を通る椎骨の中心線の長さを計測し、椎体の高さとするようにする。標準的範囲テーブル83aは、図35(a)と同様にすべての椎体に共通の標準的な高さの範囲の最小値と最大値で定義し、標準値取得部82は、画像認識部11で認識されたすべての椎体に対してこの最小値と最大値を椎体の標準的な高さの範囲Stdとして取得するようにする。あるいは標準的範囲テーブル83aを、図35(b)と同様に各椎体番号の椎体について標準的な高さの範囲の最小値と最大値で定義し、標準値取得部82は、画像認識部11で認識された椎体の各々の椎体番号を検索キーとして標準的範囲テーブル83aを参照し、その椎体番号に対応する最小値と最大値をその椎体番号を有する椎体の標準的な高さの範囲Stdとして取得するようにしてもよい。判定部84は、第4の実施形態と同様に、解剖学的計測値取得部81で取得された椎体の各々の高さMsが椎体の標準的な高さの範囲Std(全椎体に共通の、または、椎体番号毎の標準的な高さの範囲)に含まれるかどうかを判定し、その結果(OK/NG)を出力し、誤認識結果表示・修正部14も、第4の実施形態と同様に、認識結果判定部12の判定部84による判定の結果、各椎体の少なくとも1つの高さが標準的な高さの範囲にない(NG)と判定された場合に、例えば、処理対象の画像データImgおよび誤認識結果Rstを入力として、例えば、処理対象の画像データImgに基づいて、標準的な高さの範囲にないと判断された椎体を含む画像を再構成し、その椎体を識別可能な態様で表示するとともに、その椎体の椎体番号、計測された高さ、その椎体の標準的な高さの範囲を、「第1胸椎が標準値(XX〜YYmm)の範囲にありません。計測された高さ=ZZmm」というように表示し、ユーザのその再構成された画像上でのマウス操作による、その椎体の輪郭の修正を受け付けるユーザインターフェースを提供し、修正後の認識結果Rst´を出力するようにする。また、このユーザインターフェースを提供する前に、椎体認識エラーと判定された画像データImgのリストを表示し、上記ユーザインターフェースの提供を所望する画像データのユーザによる選択を受け付けるようにしてもよい。データベース登録部15は、前項1.で説明したとおり、処理対象の画像データImgの付帯情報に、画像認識部11による認識結果Rstまたは修正後の認識結果Rst´を付帯させて画像情報データベース4に登録する処理を行う。
以上のように、本発明の第7の実施形態では、画像認識部11の椎体認識処理によって認識された各椎体の高さMsが標準的な高さの範囲Stdにあるかどうかを認識結果判定部12で自動的に判定することが可能になり、また、認識結果Rstに誤りがあると判定された場合には、誤認識結果表示・修正部14において、誤認識と判定された椎体の番号・その椎体の計測された高さ・その椎体番号の椎体の標準的な高さを表示することにより、ユーザがその誤認識結果の内容を容易に理解できるようになり、さらに、その誤認識と判定された椎体の認識結果を修正できるようにしたので、最終的な認識結果の精度が向上する。
上記第7の実施形態では、標準的範囲テーブル83aを、椎体の標準的な高さの最小値と最大値が登録されたものとしていたが、椎体の高さの身長に対する比率の最小値と最大値を登録するようにしてもよい。この場合、解剖学的計測値取得部81が、画像認識部11による処理が行われた画像データImgの付帯情報を解析して被検体の身長の情報を取得し、画像認識部11で認識された各椎体の高さの身長に対する比率を算出すればよい。また、この場合において、標準的範囲テーブル83aが図35(b)のように椎体番号毎に定義されている場合には、判定部84は、解剖学的計測値取得部81で算出された各椎体のうちの2つについての比が、それらの椎体における標準的高さの比の最小値から最大値までの範囲に含まれるかどうかを判定する。例えば、解剖学的計測値取得部81によって第1胸椎の高さMs1と第2胸椎の高さMs2が求められた場合、標準値取得部82は、第1胸椎の標準的な高さの範囲Std1(min)とStd1(max)および第2胸椎の標準的な高さの範囲Std2(min)とStd2(max)を取得し、判定部84は、第1胸椎の第2胸椎に対する高さの比率Ms1/Ms2が、Std1(min)/Std2(max)≦Ms1/Ms2≦Std1(max)/Std2(min)を満たすかどうかを判断する。
次に、本発明の第8、第9の実施形態について第7の実施形態や第5、第6の実施形態との相違点を中心に説明する。これらの実施形態では、認識結果判定部12の内容が第7の実施形態と異なるが、その他については第7の実施形態と同様である。
本発明の第8の実施形態は、図2の認識結果判定部12を、本発明の第5の実施形態と同様に図36のように構成し、各椎体の高さが所定の確率分布(ここでは正規分布)に従うものとし、その確率分布における信頼度を取得し、取得された信頼度に基づいてその確率分布における信頼区間を求め、その信頼区間を所定の高さの範囲として椎体認識結果の判定を行うものである。図36に示したように、信頼度取得部85が、第5の実施形態と同様にして信頼度ccを取得するようにし、標準的範囲テーブル83bに、図37(a)と同様にすべての椎体の高さの平均値μ0、標準偏差σ0を定義するか、図37(b)と同様に椎体番号毎の高さの平均値μm、標準偏差σmを定義し(mは各椎体を識別する添え字)、標準値取得部82が、標準的範囲テーブル83bから各椎体の高さの平均値μ0またはμn、標準偏差σpまたはσnを取得した後、信頼度取得部85によって取得された信頼度ccを参照キーとして正規分布表を表す参照データを参照し、信頼度ccに対応する標準得点zを取得し、この標準得点と、標準的範囲テーブル83bから取得した平均値μ0またはμn、標準偏差σpまたはσnから、上式(1)(2)と同様にして信頼区間、すなわち、その椎体の標準的高さの範囲Stdを算出する。他の処理部における処理の詳細は、第7の実施形態と同様である。
このように本発明の第8の実施形態では、各椎体の高さが正規分布に従うものとし、認識結果判定部12において、信頼度取得部85が正規分布における信頼度ccを取得し、標準値取得部82が、信頼度取得部85によって取得された信頼度ccと標準的範囲テーブル83bから取得した平均値、標準偏差とに基づいて正規分布における信頼区間を各椎体の標準的高さの範囲として求め、判定部84がその信頼区間を用いて椎体認識結果の判定を行うので、判定基準を信頼度に応じてきめ細かく設定することが可能になり、さらに精度の高い椎体認識結果が得られる。
本発明の第9の実施形態は、図2の認識結果判定部12を、本発明の第6の実施形態と同様に図38のように構成し、被検体の属性を表す属性情報を取得し、取得された属性情報に応じて各椎体の標準的高さの範囲を決定し、決定された標準的高さの範囲を用いて椎体認識結果の判定を行うものである。図38に示したように、付帯情報解析部86が、入力された画像データImgの付帯情報を解析して被検体の属性情報(ここでは身長)Atrを取得し、標準的範囲テーブル83cを、図39に例示したように、全椎体に共通の標準的な高さの範囲を、身長140cm以上160cm未満、身長160cm以上180cm未満、身長180cm以上200cm未満というように、被検体の身長の範囲毎のカテゴリに分類して定義し(身長の範囲毎かつ椎体番号毎にその椎体の標準的な高さの範囲を定義してもよい)、標準値取得部82が、付帯情報解析部86で取得された被検体の身長Atrを検索キーとして、標準的範囲テーブル83cを参照し、被検体の身長Atrに応じた椎体の標準的高さの範囲を取得する。他の処理部における処理の詳細は、第7の実施形態と同様である。
このように本発明の第9の実施形態では、認識結果判定部12において、付帯情報解析部86が被検体の身長を表す属性情報Atrを取得し、標準値取得部82が、被検体の身長の範囲毎に定義された標準的範囲テーブル83cを参照して、被検体の身長Atrに応じた椎体の標準的な高さの範囲Stdを決定し、判定部84が、その標準的高さの範囲Stdを用いて椎体認識結果の判定を行うので、判定基準を被検体の身長に応じてきめ細かく設定することが可能になり、さらに精度の高い椎体認識結果が得られる。
上記実施形態では、標準的範囲テーブル83cに被検体の身長の範囲毎の椎体の標準的な高さの範囲を定義していたが、図40のように、基準身長Atr0(図では170cm)における全椎体に共通の標準的な高さの範囲(Std0とする)のみを標準的範囲テーブル83cに定義しておき、標準値取得部82が、付帯情報解析部86で取得された被検体の身長Atrと基準身長Atr0の比率に基づいて、上式(3)(4)と同様にして、その基準身長Atr0における椎体の標準的な高さの範囲Std0を変換することにより、その被検体における椎体の標準的な高さの範囲Stdを取得するようにしてもよい。
また、上記実施形態では被検体の身長に応じて椎体の標準的な高さの範囲を取得するようにしていたが、上記第3の実施形態の変形例と同様に、被検体の性別等の他の属性毎に標準的な高さの範囲を定義してもよいし、被検体の複数の属性の組合せ毎に椎体の標準的な高さの範囲を定義するようにしてもよい。
さらに、属性情報は、上記のように付帯情報解析部86が付帯情報から取得するようにしてもよいし、入力画像データImgに対して公知の画像解析処理を行うことによって、被検体の属性(例えば、人体領域の面積)を取得するようにしてもよいし、被検体の属性をユーザによる入力を受け付けることによって取得するようにしてもよい。
標準的範囲テーブルの構成については、上記実施形態の複数を組み合わせたもの、例えば、図37の椎体の高さの平均値と分散を、図39のように身長の範囲毎に定義したもの等にしてもよい。
また、椎体の標準的な高さを、参照テーブルを用いて取得するのではなく、被検体の身長等を入力として椎体の標準的な高さを出力する関数を用いて取得するようにしてもよい。
さらに、画像認識部11による椎体認識結果の判定の尺度、すなわち、解剖学的計測値取得部81が取得する解剖学的計測値として、椎体の高さ以外のものを用いてもよい。具体例としては、椎体の幅や、椎体間の間隔、椎体の被検体中の基準位置からの距離等が挙げられる。
以上、本発明の実施形態となるシステムの基本的の構成と処理の流れ、および、具体的な画像認識処理の実装例としての9つの実施形態について説明を行ったが、上記の実施形態におけるシステム構成、テーブルのフォーマット、処理フロー、ユーザインターフェース等に対して、本発明の趣旨から逸脱しない範囲で様々な改変を行ったものも、本発明の技術的範囲に含まれる。また、上記の実施形態はあくまでも例示であり、上記のすべての説明が本発明の技術的範囲を限定的に解釈するために利用されるべきものではない。
例えば、システム構成としては、上記の画像認識部11や認識結果判定部12を画像情報管理サーバ3に実装せずに、認識結果修正用端末5に実装してもよいし、認識結果修正用端末5の代わりに、モダリティ1から受信した画像に対する規格化処理(EDR処理)や画像の品質を調整するための処理、および検査技師による画像の品質確認等を行う品質管理ワークステーション(QA−WS)をネットワーク9に接続し、この品質管理ワークステーションに本発明の認識結果判定(修正)装置を実装し、認識結果が確定した後の画像情報を画像情報管理サーバ3に転送し、画像情報管理サーバ3が画像情報データベース4に画像情報を登録するようにしてもよい。また、認識結果修正用端末5で行われる処理を読影ワークステーション2(2a,2b)に実装してもよい。
また、撮影部位や肋骨、椎体以外の構造物を対象とした画像認識処理結果の判定や修正に本発明を用いてもよい。認識対象と判定に用いる解剖学的計測値の例を以下に挙げる。
(a) 臓器認識における、臓器の体積・長径・短径・形状(円形度・球形度・輪郭の曲率平均)・位置関係。位置関係の具体例としては、肺尖の鎖骨上縁からの突出距離を解剖学的計測値とし、標準的な突出距離の範囲を2〜3cmとすることや、腎臓の上下端に対応する椎体番号を解剖学的計測値とし、腎臓の標準的な存在範囲の上端を第12胸椎、下端を第4腰椎とすることが挙げられる。
(b) 管状構造物(血管や気管等)を認識する場合における、その構造物の太さ
(c) 膜状・平板上構造物を認識する場合における、その構造物の厚さ
(d) 気管支を認識する場合における、正中との角度
(e) 頭蓋骨を認識する場合における、頭蓋内の容積
(f) 骨認識における、各関節の可動範囲や可動方向。
また、上記の各実施形態では、ユーザの手作業によって画像認識結果の修正を行うようにしていたが、各実施形態の画像認識処理における処理パラメータを、誤認識結果に応じて変更し、変更後の処理パラメータの下で再度画像認識処理を行うことによって、画像認識結果の修正を行ってもよい。
本発明の実施形態における画像認識結果判定装置が導入された医療情報システムの概略構成図 本発明の実施形態となる画像認識結果判定装置によって実現される機能をブロック化し、各機能ブロック間でのデータの流れを模式的に表した図 本発明の実施形態における画像認識結果の判定・修正処理のワークフローの一例を示したフローチャート 本発明の第1の実施形態における部位認識結果修正装置とその周辺の構成を模式的に示したブロック図 部位認識部の構成を模式的に表したブロック図 断層画像の正規化のためのランドマークの設定方法を模式的に表した図 部位認識処理で用いるスライス毎・部位毎のスコアを表した図((a)部位スコア (b)重みマップ (c)コストマップ) 部位認識処理で用いるマッチングカーブの一例を示した図 本発明の第1の実施形態における認識結果判定部の構成を模式的に表したブロック図 部位長の計算方法の一例を示した図 本発明の第1の実施形態における標準部位長テーブルの一例を示した図 部位認識エラーリスト画面の一例を示した図 本発明の第1の実施形態における部位認識結果画面の一例を示した図 本発明の実施形態における部位認識結果修正処理を含むワークフローの一例を示したフローチャート 本発明の第1の実施形態の変形例における標準部位長テーブルの一例を示した図 本発明の第2の実施形態における認識結果判定部の構成を模式的に表したブロック図 本発明の第2の実施形態における標準部位長テーブルの一例を示した図 本発明の第3の実施形態における認識結果判定部の構成を模式的に表したブロック図 本発明の第3の実施形態における標準部位長テーブルの一例を示した図 本発明の第3の実施形態の変形例における標準部位長テーブルの一例を示した図 肋骨および肋骨番号の認識を行う画像認識部の構成を表すブロック図 椎体位置決定手段の概略構成図 断層画像に撮影された椎骨の一例 脊髄中心線の算出方法を説明するための図 椎骨の左右の境界線の算出方法を説明するための図 椎体位置の決定方法を説明するための図 椎骨及び肋骨部分の断層画像の一例 骨領域の濃度ヒストグラムを表す図 椎骨の中心及び幅を表す図 断面画像を椎骨領域、右肋骨領域、胸骨領域、左肋骨領域に分けた図 断層画像に撮影された胸骨体の一例 胸体骨と肋骨との接続関係を説明するための図 肋骨および肋骨番号を認識する処理の流れを示すフローチャート 本発明の第4、第7の実施形態における認識結果判定部の構成を模式的に表したブロック図 本発明の第4、第7の実施形態における標準的範囲テーブルの一例を示した図 本発明の第5、第8の実施形態における認識結果判定部の構成を模式的に表したブロック図 本発明の第5、第8の実施形態における標準的範囲テーブルの一例を示した図 本発明の第6、第9の実施形態における認識結果判定部の構成を模式的に表したブロック図 本発明の第6、第9の実施形態における標準的範囲テーブルの一例を示した図 本発明の第6、第9の実施形態の変形例における標準的範囲テーブルの一例を示した図 椎骨および椎体番号の認識を行う画像認識部の構成を表すブロック図 椎骨と肋骨との接続関係を説明するための図
符号の説明
1 モダリティ
2,2a,2b 読影ワークステーション
3 画像情報管理サーバ
4 画像情報データベース
5 認識結果修正用端末
9 ネットワーク
11 画像認識部
12,22 認識結果判定部
13,83a,83b,83c 標準的範囲テーブル
14 誤認識結果表示・修正部
15,31 データベース登録部
21 部位認識部
23 標準部位長テーブル
24 部位修正部
41 正規化処理部
42 特徴量算出部
43 部位スコア算出部
44 部位決定部
51 胸骨体領域抽出手段
52 肋骨領域抽出手段
53 肋骨番号決定手段
54 椎骨領域抽出手段
55 椎骨番号決定手段
60 椎体位置決定手段
61 椎骨中心線算出手段
62 海綿体領域推定手段
63 中心検出手段
64 椎体位置決定手段
71,86 付帯情報解析部
72 部位長算出部
73 標準部位長取得部
74,84 判定部
75,85 信頼度取得部
81 解剖学的計測値取得部
82 標準値取得部

Claims (19)

  1. 被検体を表す画像中の所定の構造物を認識する画像認識手段と、
    該画像認識手段によって認識された所定の構造物の前記画像上での計測により、該所定の構造物の所定の解剖学的計測値を取得する構造物計測手段と、
    該解剖学的計測値が所定の標準的範囲内にあるかどうかを判定する認識結果判定手段とを備えたことを特徴とする画像認識結果判定装置。
  2. 前記所定の構造物が前記被検体の正常な構造物であることを特徴とする請求項1記載の画像認識結果判定装置。
  3. 前記画像認識手段が、機械学習によって得られた判別手段を用いて前記認識を行うものであることを特徴とする請求項1または2記載の画像認識結果判定装置。
  4. 前記解剖学的計測値が、前記画像認識手段によって認識された所定の構造物の長さ、面積、体積、形状、向き、位置関係の少なくとも1つを表すものであることを特徴とする請求項1から3のいずれか1項に記載の画像認識結果判定装置。
  5. 前記所定の標準的範囲を特定する情報を記憶する標準的範囲記憶手段をさらに備え、
    前記認識結果判定手段が、前記標準的範囲記憶手段から前記標準的範囲を取得し、取得された前記標準的範囲を用いて前記判定を行うものであることを特徴とする請求項1から4のいずれか1項に記載の画像認識結果判定装置。
  6. 前記解剖学的計測値が所定の確率分布に従うものとし、
    前記確率分布における信頼度を取得する信頼度取得手段をさらに備え、
    前記認識結果判定手段が、取得された前記信頼度に基づいて前記確率分布における信頼区間を求め、該信頼区間を前記標準的範囲として前記判定を行うものであることを特徴とする請求項1から5のいずれか1項に記載の画像認識結果判定装置。
  7. 前記被検体の属性を表す属性情報を取得する属性情報取得手段をさらに備え、
    前記認識結果判定手段が、取得された前記属性情報に応じて前記標準的範囲を決定し、決定された前記標準的範囲を用いて前記判定を行うものであることを特徴とする請求項1から6のいずれか1項に記載の画像認識結果判定装置。
  8. 前記認識結果判定手段による判定の結果、前記解剖学的計測値が前記標準的範囲外であると判定された場合に、前記画像認識手段による認識結果が誤りである旨を出力する誤認識結果出力手段をさらに備えたことを特徴とする請求項1から7のいずれか1項に記載の画像認識結果判定装置。
  9. 前記誤認識結果出力手段が、前記判定がなされた前記解剖学的計測値を出力するものであることを特徴とする請求項8記載の画像認識結果判定装置。
  10. 前記誤認識結果出力手段が、前記判定で用いられた前記標準的範囲を出力するものであることを特徴とする請求項8または9記載の画像認識結果判定装置。
  11. 前記認識結果判定手段による判定の結果、前記解剖学的計測値が前記標準的範囲外であると判定された場合に、前記画像認識手段による認識結果の修正を行う認識結果修正手段をさらに備えたことを特徴とする請求項1から10のいずれか1項に記載の画像認識結果判定装置。
  12. 前記認識結果修正手段が、前記画像認識手段による処理条件の少なくとも一部を変更して前記所定の構造物の認識を再度行うものであることを特徴とする請求項11記載の画像認識結果判定装置。
  13. 前記画像認識手段が、被検体中の複数の部位を表す複数の断層画像の各々の内容的特徴、および、該各断層画像間での前記内容的特徴の関係に基づいて、該各断層画像に表された前記被検体中の部位を、前記被検体中の各部位の解剖学的位置関係に整合するように決定するものであり、
    前記構造物計測手段が、該決定された部位の前記断層画像の断層面に垂直な方向における長さを算出するものであり、
    前記認識結果判定手段が、前記算出された長さが所定の標準的長さの範囲内であるかどうかを判定するものであることを特徴とする請求項1から12のいずれか1項に記載の画像認識結果判定装置。
  14. 前記画像認識手段が、前記複数の断層画像の各々の内容的特徴に基づいて該各断層画像に表された前記被検体中の部位を仮認識する部位仮認識手段と、
    前記各断層画像について仮認識された部位間の位置関係が前記被検体の解剖学的位置関係に整合するように前記仮認識された部位を修正することによって、前記各断層画像に表された部位を決定する部位決定手段とを備えたものであることを特徴とする請求項13記載の画像認識結果判定装置。
  15. 前記被検体が人体であり、
    前記複数の断層画像が軸位断画像であり、かつ、該複数の断層画像には、頭部、頸部、胸部、腹部、骨盤部、脚部、および、該各部のうち隣接する2つの部位の両方を含む複合部位のうちの2以上の部位が含まれるものであることを特徴とする請求項13または14に記載の画像認識結果判定装置。
  16. 前記認識結果判定手段が、前記画像認識手段によって決定された部位のうちの2つについての前記長さの比率を用いて前記判定を行うものであることを特徴とする請求項13から15のいずれか1項に記載の画像認識結果判定装置。
  17. 前記所定の構造物が肋骨または椎体の少なくとも一方であることを特徴とする請求項1から12のいずれか1項に記載の画像認識結果判定装置。
  18. 被検体を表す画像中の所定の構造物を認識し、
    認識された所定の構造物の前記画像上での計測により、該所定の構造物の所定の解剖学的計測値を取得し、
    該解剖学的計測値が所定の標準的範囲内にあるかどうかを判定することを特徴とする画像認識結果判定方法。
  19. コンピュータに、
    被検体を表す画像中の所定の構造物を認識する処理と、
    認識された所定の構造物の前記画像上での計測により、該所定の構造物の所定の解剖学的計測値を取得する処理と、
    該解剖学的計測値が所定の標準的範囲内にあるかどうかを判定する処理とを実行させることを特徴とする画像認識結果判定プログラム。
JP2008105078A 2007-04-12 2008-04-14 画像認識結果判定装置、方法、およびプログラム Expired - Fee Related JP5186269B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008105078A JP5186269B2 (ja) 2007-04-12 2008-04-14 画像認識結果判定装置、方法、およびプログラム

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2007105199 2007-04-12
JP2007105199 2007-04-12
US12/101,605 US8081811B2 (en) 2007-04-12 2008-04-11 Method, apparatus, and program for judging image recognition results, and computer readable medium having the program stored therein
US12/101,605 2008-04-11
JP2008105078A JP5186269B2 (ja) 2007-04-12 2008-04-14 画像認識結果判定装置、方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2009095644A true JP2009095644A (ja) 2009-05-07
JP5186269B2 JP5186269B2 (ja) 2013-04-17

Family

ID=39872228

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008105078A Expired - Fee Related JP5186269B2 (ja) 2007-04-12 2008-04-14 画像認識結果判定装置、方法、およびプログラム

Country Status (2)

Country Link
US (1) US8081811B2 (ja)
JP (1) JP5186269B2 (ja)

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011065414A1 (ja) * 2009-11-30 2011-06-03 株式会社日立メディコ 画像処理方法、画像処理装置及びプログラム
JP2012045313A (ja) * 2010-08-30 2012-03-08 Fujifilm Corp 医用画像位置合わせ装置、方法およびプログラム
JP2013052233A (ja) * 2011-09-01 2013-03-21 General Electric Co <Ge> 被検体の配向を決定する方法及び装置
WO2014188892A1 (ja) * 2013-05-20 2014-11-27 株式会社東芝 磁気共鳴イメージング装置
KR101472452B1 (ko) 2010-11-17 2014-12-17 한국전자통신연구원 멀티미디어 데이터 검색 방법, 장치 및 패턴인식 방법
JP2015000301A (ja) * 2013-06-18 2015-01-05 株式会社東芝 磁気共鳴イメージング装置及び画像処理プログラム
JP2017522912A (ja) * 2014-07-02 2017-08-17 コヴィディエン リミテッド パートナーシップ 気管を検出するためのシステムおよび方法
JP2017158842A (ja) * 2016-03-10 2017-09-14 透 本田 椎体変形診断装置、情報処理方法、及びプログラム
JP2017531526A (ja) * 2014-10-30 2017-10-26 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. ラジオグラム画像の画質を決定する装置及び方法
JP2018030007A (ja) * 2017-10-30 2018-03-01 キヤノンメディカルシステムズ株式会社 磁気共鳴イメージング装置
JP2018089065A (ja) * 2016-12-01 2018-06-14 株式会社島津製作所 X線透視装置
WO2018198206A1 (ja) * 2017-04-25 2018-11-01 株式会社島津製作所 X線撮像装置
KR20180130511A (ko) * 2016-03-09 2018-12-07 에코너스 인코퍼레이티드 인공지능 네트워크를 이용한 초음파 이미지 인식 시스템 및 방법
WO2018225448A1 (ja) * 2017-06-09 2018-12-13 智裕 多田 消化器官の内視鏡画像による疾患の診断支援方法、診断支援システム、診断支援プログラム及びこの診断支援プログラムを記憶したコンピュータ読み取り可能な記録媒体
US10182782B2 (en) 2016-02-25 2019-01-22 Fujifilm Corporation Evaluation apparatus, evaluation method, and evaluation program
KR20200118502A (ko) * 2018-03-01 2020-10-15 후지필름 소노사이트, 인크. 초음파 검사를 주석화하기 위한 방법 및 장치
JP2021013644A (ja) * 2019-07-12 2021-02-12 富士フイルム株式会社 診断支援装置、診断支援方法、及び診断支援プログラム
WO2021095867A1 (ja) * 2019-11-15 2021-05-20 国立大学法人 東京大学 自動手術計画システムおよび手術計画方法並びにプログラム
DE112019005308T5 (de) 2018-10-25 2021-07-22 Fujifilm Corporation Erzeugungsvorrichtung, -verfahren und -programm für gewichtetes bild, bestimmerlernvorrichtung, -verfahren und -programm, bereichsextraktionsvorrichtung, -verfahren und -programm und bestimmer
JP2021137116A (ja) * 2020-03-02 2021-09-16 キヤノン株式会社 画像処理装置、医用画像診断装置、画像処理方法、プログラム、および学習装置
JP2022531989A (ja) * 2019-06-28 2022-07-12 コーニンクレッカ フィリップス エヌ ヴェ 自動冠動脈血管造影分析

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4952627B2 (ja) * 2008-03-21 2012-06-13 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
JP5364290B2 (ja) * 2008-04-17 2013-12-11 富士フイルム株式会社 画像表示装置並びに画像表示制御方法およびプログラム
DE102009011382A1 (de) * 2009-03-05 2010-09-09 Rheinisch-Westfälische Technische Hochschule Aachen Verfahren und Vorrichtung zur Quantifizierung der Bildgüte und zur bewegungssynchronen Erfassung einer tomografischen Schnittaufnahme eines Objektes
CN102164543B (zh) * 2009-03-31 2013-03-20 富士胶片株式会社 图像处理装置和方法、以及程序
US20110054295A1 (en) 2009-08-25 2011-03-03 Fujifilm Corporation Medical image diagnostic apparatus and method using a liver function angiographic image, and computer readable recording medium on which is recorded a program therefor
JP5433377B2 (ja) * 2009-10-29 2014-03-05 楽天株式会社 画像処理装置、画像処理方法、および、画像処理プログラム
WO2011116004A2 (en) * 2010-03-15 2011-09-22 Georgia Tech Research Corporation Cranial suture snake algorithm
US10621307B2 (en) * 2010-04-29 2020-04-14 Definiens Gmbh Image-based patient profiles
US8934685B2 (en) * 2010-09-21 2015-01-13 General Electric Company System and method for analyzing and visualizing local clinical features
US8625889B2 (en) * 2010-12-30 2014-01-07 Samsung Electronics Co., Ltd. System for food recognition method using portable devices having digital cameras
KR101286222B1 (ko) * 2011-09-19 2013-07-15 삼성메디슨 주식회사 영상을 처리하는 방법, 장치, 초음파 진단장치 및 의료영상시스템
EP2624211A1 (en) * 2012-02-06 2013-08-07 Samsung Medison Co., Ltd. Image processing apparatus and method
JP5870840B2 (ja) * 2012-05-14 2016-03-01 ソニー株式会社 情報処理装置、情報処理方法、および情報処理プログラム
US9378549B2 (en) 2013-03-05 2016-06-28 Kabushiki Kaisha Toshiba Estimation of confidence limits for measurements derived from image data
US9152860B2 (en) * 2013-05-10 2015-10-06 Tantrum Street LLC Methods and apparatus for capturing, processing, training, and detecting patterns using pattern recognition classifiers
EA201691432A8 (ru) 2014-02-26 2018-10-31 Бвба Др. Ван Бутселе Мка Способ и система помощи в определении медицинского состояния
US10121274B2 (en) * 2015-04-16 2018-11-06 Canon Kabushiki Kaisha Medical image processing system, medical image processing apparatus, control method thereof, and recording medium
EP3417776A4 (en) * 2016-02-15 2019-07-10 Keio University SPINAL ALIGNMENT APPARATUS, SPINAL ALIGNMENT APPARATUS PROCESS AND SPINAL ALIGNMENT ASSESSMENT PROGRAM
JP6833444B2 (ja) * 2016-10-17 2021-02-24 キヤノン株式会社 放射線撮影装置、放射線撮影システム、放射線撮影方法、及びプログラム
CN108171712B (zh) * 2016-12-07 2022-02-11 富士通株式会社 确定图像相似度的方法和装置
JP6885896B2 (ja) * 2017-04-10 2021-06-16 富士フイルム株式会社 自動レイアウト装置および自動レイアウト方法並びに自動レイアウトプログラム
WO2019041262A1 (en) * 2017-08-31 2019-03-07 Shenzhen United Imaging Healthcare Co., Ltd. SYSTEM AND METHOD FOR IMAGE SEGMENTATION
US11327773B2 (en) * 2017-12-05 2022-05-10 Siemens Healthcare Gmbh Anatomy-aware adaptation of graphical user interface
US10937156B2 (en) * 2019-01-31 2021-03-02 Bay Labs, Inc. Saliency mapping of imagery during artificially intelligent image classification
CN111985512B (zh) * 2019-05-22 2024-02-02 杭州依图医疗技术有限公司 一种建立人体肋骨模型的方法和装置
CN111667457B (zh) * 2020-04-29 2023-07-18 杭州深睿博联科技有限公司 一种基于医学影像的脊椎椎体信息自动识别方法、系统、终端及存储介质
US12051204B2 (en) 2021-11-30 2024-07-30 Shanghai United Imaging Intelligence Co., Ltd. Automatic organ geometry determination

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004141612A (ja) * 2002-08-30 2004-05-20 Hitachi Medical Corp 画像処理方法及び装置
WO2005001742A2 (en) * 2003-06-27 2005-01-06 Siemens Medical Solutions Usa, Inc. Cad (computer-aided decision) support for medical imaging using machine learning to adapt cad process with knowledge collected during routine use of cad system
JP2006042969A (ja) * 2004-08-02 2006-02-16 Hitachi Medical Corp 医用画像表示装置
JP2006149446A (ja) * 2004-11-25 2006-06-15 Hitachi Medical Corp 医用画像表示装置

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59133414A (ja) * 1983-01-21 1984-07-31 Agency Of Ind Science & Technol 楕円形状検出方法とその装置
US4975969A (en) * 1987-10-22 1990-12-04 Peter Tal Method and apparatus for uniquely identifying individuals by particular physical characteristics and security system utilizing the same
US5850465A (en) * 1989-06-26 1998-12-15 Fuji Photo Film Co., Ltd. Abnormnal pattern detecting or judging apparatus, circular pattern judging apparatus, and image finding apparatus
JPH09508815A (ja) * 1993-11-29 1997-09-09 アーチ ディヴェロプメント コーポレイション 乳房x線写真における、改良された、コンピュータによる、腫瘤の発見および分類のための自動的方法およびシステム
US5790690A (en) * 1995-04-25 1998-08-04 Arch Development Corporation Computer-aided method for automated image feature analysis and diagnosis of medical images
JP3599868B2 (ja) 1996-01-05 2004-12-08 ジーイー横河メディカルシステム株式会社 人体部分抽出方法および医用装置
US5768333A (en) * 1996-12-02 1998-06-16 Philips Electronics N.A. Corporation Mass detection in digital radiologic images using a two stage classifier
JP3899367B2 (ja) * 1997-08-29 2007-03-28 富士フイルム株式会社 医用画像用ネットワークシステム
EP1672551A3 (en) * 1998-04-07 2006-08-30 Canon Kabushiki Kaisha Image processing method, apparatus, and storage medium for recognition of irradiation area
US6738499B1 (en) * 1998-11-13 2004-05-18 Arch Development Corporation System for detection of malignancy in pulmonary nodules
JP4545971B2 (ja) 2001-03-05 2010-09-15 日本電信電話株式会社 医用画像識別システム,医用画像識別処理方法,医用画像識別用プログラムおよびその記録媒体
JP3766033B2 (ja) * 2001-04-25 2006-04-12 富士写真フイルム株式会社 画像処理方法および装置並びにプログラム
US7920725B2 (en) * 2003-09-09 2011-04-05 Fujifilm Corporation Apparatus, method, and program for discriminating subjects
JP4510556B2 (ja) 2003-09-09 2010-07-28 富士フイルム株式会社 対象物識別装置および方法並びにプログラム
US7747053B2 (en) * 2004-04-28 2010-06-29 Hitachi Medical Corporation Image diagnosis supporting system and method
JP2006006359A (ja) 2004-06-22 2006-01-12 Fuji Photo Film Co Ltd 画像生成装置、画像生成装置方法、およびそのプログラム
US7397475B2 (en) * 2004-09-02 2008-07-08 Siemens Medical Solutions Usa, Inc. Interactive atlas extracted from volume data
JP4479474B2 (ja) 2004-11-12 2010-06-09 住友電装株式会社 コネクタ
US20090174554A1 (en) * 2005-05-11 2009-07-09 Eric Bergeron Method and system for screening luggage items, cargo containers or persons

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004141612A (ja) * 2002-08-30 2004-05-20 Hitachi Medical Corp 画像処理方法及び装置
WO2005001742A2 (en) * 2003-06-27 2005-01-06 Siemens Medical Solutions Usa, Inc. Cad (computer-aided decision) support for medical imaging using machine learning to adapt cad process with knowledge collected during routine use of cad system
JP2006042969A (ja) * 2004-08-02 2006-02-16 Hitachi Medical Corp 医用画像表示装置
JP2006149446A (ja) * 2004-11-25 2006-06-15 Hitachi Medical Corp 医用画像表示装置

Cited By (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011065414A1 (ja) * 2009-11-30 2011-06-03 株式会社日立メディコ 画像処理方法、画像処理装置及びプログラム
JP2011110357A (ja) * 2009-11-30 2011-06-09 Hitachi Medical Corp 画像処理方法、画像処理装置及びプログラム
US8774483B2 (en) 2009-11-30 2014-07-08 Hitachi Medical Corporation Image processing method, image processing apparatus and program
JP2012045313A (ja) * 2010-08-30 2012-03-08 Fujifilm Corp 医用画像位置合わせ装置、方法およびプログラム
KR101472452B1 (ko) 2010-11-17 2014-12-17 한국전자통신연구원 멀티미디어 데이터 검색 방법, 장치 및 패턴인식 방법
JP2013052233A (ja) * 2011-09-01 2013-03-21 General Electric Co <Ge> 被検体の配向を決定する方法及び装置
WO2014188892A1 (ja) * 2013-05-20 2014-11-27 株式会社東芝 磁気共鳴イメージング装置
JP2014226204A (ja) * 2013-05-20 2014-12-08 株式会社東芝 磁気共鳴イメージング装置
US10395367B2 (en) 2013-05-20 2019-08-27 Toshiba Medical Systems Corporation Magnetic resonance imaging apparatus
JP2015000301A (ja) * 2013-06-18 2015-01-05 株式会社東芝 磁気共鳴イメージング装置及び画像処理プログラム
JP2017522912A (ja) * 2014-07-02 2017-08-17 コヴィディエン リミテッド パートナーシップ 気管を検出するためのシステムおよび方法
JP2017531526A (ja) * 2014-10-30 2017-10-26 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. ラジオグラム画像の画質を決定する装置及び方法
US10182782B2 (en) 2016-02-25 2019-01-22 Fujifilm Corporation Evaluation apparatus, evaluation method, and evaluation program
KR102425141B1 (ko) 2016-03-09 2022-07-26 에코너스 인코퍼레이티드 인공지능 네트워크를 이용한 초음파 이미지 인식 시스템 및 방법
KR20180130511A (ko) * 2016-03-09 2018-12-07 에코너스 인코퍼레이티드 인공지능 네트워크를 이용한 초음파 이미지 인식 시스템 및 방법
JP2017158842A (ja) * 2016-03-10 2017-09-14 透 本田 椎体変形診断装置、情報処理方法、及びプログラム
JP2018089065A (ja) * 2016-12-01 2018-06-14 株式会社島津製作所 X線透視装置
US10702713B2 (en) 2016-12-01 2020-07-07 Shimadzu Corporation X-ray fluoroscopic apparatus
JPWO2018198206A1 (ja) * 2017-04-25 2019-12-19 株式会社島津製作所 X線撮像装置
WO2018198206A1 (ja) * 2017-04-25 2018-11-01 株式会社島津製作所 X線撮像装置
KR20190125437A (ko) * 2017-04-25 2019-11-06 가부시키가이샤 시마쓰세사쿠쇼 X 선 촬상 장치
KR102321820B1 (ko) * 2017-04-25 2021-11-03 가부시키가이샤 시마쓰세사쿠쇼 X 선 촬상 장치
JP2021112593A (ja) * 2017-06-09 2021-08-05 株式会社Aiメディカルサービス 消化器官の内視鏡画像による疾患の診断支援方法、診断支援システム、診断支援プログラム及びこの診断支援プログラムを記憶したコンピュータ読み取り可能な記録媒体
WO2018225448A1 (ja) * 2017-06-09 2018-12-13 智裕 多田 消化器官の内視鏡画像による疾患の診断支援方法、診断支援システム、診断支援プログラム及びこの診断支援プログラムを記憶したコンピュータ読み取り可能な記録媒体
JPWO2018225448A1 (ja) * 2017-06-09 2020-07-30 株式会社Aiメディカルサービス 消化器官の内視鏡画像による疾患の診断支援方法、診断支援システム、診断支援プログラム及びこの診断支援プログラムを記憶したコンピュータ読み取り可能な記録媒体
JP7216376B2 (ja) 2017-06-09 2023-02-01 株式会社Aiメディカルサービス 消化器官の内視鏡画像による疾患の診断支援方法、診断支援システム、診断支援プログラム及びこの診断支援プログラムを記憶したコンピュータ読み取り可能な記録媒体
US11270433B2 (en) 2017-06-09 2022-03-08 Ai Medical Service Inc. Disease diagnosis support method employing endoscopic images of a digestive organ, a diagnosis support system, a diagnosis support program and a computer-readable recording medium having the diagnosis support program stored therein
JP2018030007A (ja) * 2017-10-30 2018-03-01 キヤノンメディカルシステムズ株式会社 磁気共鳴イメージング装置
KR20200118502A (ko) * 2018-03-01 2020-10-15 후지필름 소노사이트, 인크. 초음파 검사를 주석화하기 위한 방법 및 장치
JP2021516090A (ja) * 2018-03-01 2021-07-01 フジフイルム ソノサイト インコーポレイテッド 超音波検査にアノテーションを付けるための方法および装置
JP7373494B2 (ja) 2018-03-01 2023-11-02 フジフイルム ソノサイト インコーポレイテッド 超音波検査にアノテーションを付けるための方法および装置
KR102646194B1 (ko) 2018-03-01 2024-03-08 후지필름 소노사이트, 인크. 초음파 검사를 주석화하기 위한 방법 및 장치
US11715279B2 (en) 2018-10-25 2023-08-01 Fujifilm Corporation Weighted image generation apparatus, method, and program, determiner learning apparatus, method, and program, region extraction apparatus, method, and program, and determiner
DE112019005308T5 (de) 2018-10-25 2021-07-22 Fujifilm Corporation Erzeugungsvorrichtung, -verfahren und -programm für gewichtetes bild, bestimmerlernvorrichtung, -verfahren und -programm, bereichsextraktionsvorrichtung, -verfahren und -programm und bestimmer
JP2022531989A (ja) * 2019-06-28 2022-07-12 コーニンクレッカ フィリップス エヌ ヴェ 自動冠動脈血管造影分析
US11455728B2 (en) 2019-07-12 2022-09-27 Fujifilm Corporation Diagnosis support device, diagnosis support method, and diagnosis support program
JP7144370B2 (ja) 2019-07-12 2022-09-29 富士フイルム株式会社 診断支援装置、診断支援方法、及び診断支援プログラム
JP2021013644A (ja) * 2019-07-12 2021-02-12 富士フイルム株式会社 診断支援装置、診断支援方法、及び診断支援プログラム
WO2021095867A1 (ja) * 2019-11-15 2021-05-20 国立大学法人 東京大学 自動手術計画システムおよび手術計画方法並びにプログラム
JP2021137116A (ja) * 2020-03-02 2021-09-16 キヤノン株式会社 画像処理装置、医用画像診断装置、画像処理方法、プログラム、および学習装置
JP7516072B2 (ja) 2020-03-02 2024-07-16 キヤノン株式会社 画像処理装置、医用画像診断装置、画像処理方法、プログラム、および学習装置

Also Published As

Publication number Publication date
US20080260226A1 (en) 2008-10-23
JP5186269B2 (ja) 2013-04-17
US8081811B2 (en) 2011-12-20

Similar Documents

Publication Publication Date Title
JP5186269B2 (ja) 画像認識結果判定装置、方法、およびプログラム
US20210158531A1 (en) Patient Management Based On Anatomic Measurements
JP5138431B2 (ja) 画像解析装置および方法並びにプログラム
US8194960B2 (en) Method and apparatus for correcting results of region recognition, and recording medium having a program for correcting results of region recognition recorded therein
US7599539B2 (en) Anatomic orientation in medical images
US8334878B2 (en) Medical image processing apparatus and medical image processing program
US8588496B2 (en) Medical image display apparatus, medical image display method and program
US8953856B2 (en) Method and system for registering a medical image
US8369593B2 (en) Systems and methods for robust learning based annotation of medical radiographs
Subburaj et al. Automated identification of anatomical landmarks on 3D bone models reconstructed from CT scan images
JP4545971B2 (ja) 医用画像識別システム,医用画像識別処理方法,医用画像識別用プログラムおよびその記録媒体
US8194959B2 (en) Medical image part recognition apparatus and medical image part recognition program
US8494238B2 (en) Redundant spatial ensemble for computer-aided detection and image understanding
JP2008259622A (ja) レポート作成支援装置およびそのプログラム
US20080058611A1 (en) Medical image processing apparatus
US8384735B2 (en) Image display apparatus, image display control method, and computer readable medium having an image display control program recorded therein
US9336457B2 (en) Adaptive anatomical region prediction
US12106856B2 (en) Image processing apparatus, image processing method, and program for segmentation correction of medical image
JP2017067489A (ja) 診断支援装置、方法及びコンピュータプログラム
US20240013398A1 (en) Processing a medical image
Nafi'iyah et al. Automatic for Generating Landmark Mandibular Panoramic Radiography Image.
CN115249234A (zh) 一种基于深度学习的骨转移瘤辅助定位方法
CN115035136A (zh) 膝关节图像中骨亚区分割方法、系统、装置和存储介质
WO2009009783A1 (en) Cartesian human morpho-informatic system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110124

RD15 Notification of revocation of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7435

Effective date: 20110309

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120926

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121023

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130121

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5186269

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160125

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees