JP2010220902A - 認識結果判定装置および方法並びにプログラム - Google Patents
認識結果判定装置および方法並びにプログラム Download PDFInfo
- Publication number
- JP2010220902A JP2010220902A JP2009073011A JP2009073011A JP2010220902A JP 2010220902 A JP2010220902 A JP 2010220902A JP 2009073011 A JP2009073011 A JP 2009073011A JP 2009073011 A JP2009073011 A JP 2009073011A JP 2010220902 A JP2010220902 A JP 2010220902A
- Authority
- JP
- Japan
- Prior art keywords
- recognition result
- recognition
- image
- index
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims description 49
- 238000012937 correction Methods 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 2
- 238000012545 processing Methods 0.000 abstract description 45
- 210000004185 liver Anatomy 0.000 description 63
- 210000004072 lung Anatomy 0.000 description 52
- 210000000988 bone and bone Anatomy 0.000 description 20
- 238000002591 computed tomography Methods 0.000 description 15
- 230000008569 process Effects 0.000 description 15
- 238000003384 imaging method Methods 0.000 description 11
- 210000001015 abdomen Anatomy 0.000 description 9
- 238000002595 magnetic resonance imaging Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 230000003902 lesion Effects 0.000 description 3
- 238000002600 positron emission tomography Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000002604 ultrasonography Methods 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 230000003187 abdominal effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 239000002872 contrast media Substances 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005315 distribution function Methods 0.000 description 1
- 210000002216 heart Anatomy 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 210000004197 pelvis Anatomy 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000005477 standard model Effects 0.000 description 1
- 210000001519 tissue Anatomy 0.000 description 1
- 210000003437 trachea Anatomy 0.000 description 1
Images
Landscapes
- Apparatus For Radiation Diagnosis (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
Abstract
【課題】画像読影医等のユーザに負担をかけることなく、被検体に含まれる構造物についての認識結果が誤っているか否かを判定する。
【解決手段】認識処理端末5が、被検体の構造物について複数の認識処理を行い、複数の認識結果を認識結果判定端末6に送信する。認識結果判定端末6は、複数の認識結果から、判定のための指標を算出し、指標に基づいて認識結果が誤っているか否かを判定する。認識結果に誤りがあった場合、誤りがあった認識結果を特定し、その情報を認識処理端末5に送信してもよい。
【選択図】図1
【解決手段】認識処理端末5が、被検体の構造物について複数の認識処理を行い、複数の認識結果を認識結果判定端末6に送信する。認識結果判定端末6は、複数の認識結果から、判定のための指標を算出し、指標に基づいて認識結果が誤っているか否かを判定する。認識結果に誤りがあった場合、誤りがあった認識結果を特定し、その情報を認識処理端末5に送信してもよい。
【選択図】図1
Description
本発明は、被検体を表す画像に含まれる構造物についての認識結果の誤りを判定する認識結果判定装置および方法並びに認識結果判定方法をコンピュータに実行させることを特徴とするプログラムに関するものである。
近年、医療画像の分野においては、X線撮影装置の他、X線CT(Computed Tomography)装置、超音波(US)診断装置、MRI(Magnetic Resonance Imaging)装置、およびPET(Positron Emission Tomography)装置等の様々な技術を用いたモダリティが利用されている。このようなモダリティの高速化およびマルチスライス対応といった高性能化に伴い、1つの撮影シリーズにおいて被検者の複数の部位の撮影を行い、数百から数千の高精細な断層画像を取得することが可能になってきている。しかしながら、すべての断層画像を1枚ずつ観察するには時間がかかり、また、断層画像のみから観察対象となる構造物(体表、骨、心臓、肺野および肝臓等の臓器および組織)の3次元形状を理解するには医師の熟練を要する。
このため、注目する構造物を認識し、注目する構造物を含む断層画像から、例えば最大値投影法(MIP法)等の方法を用いて注目する構造物の3次元画像を作成したり、3次元画像のボリュームレンダリング表示を行ったりすることにより、構造物全体、さらには構造物に含まれる病変の視認性を向上させる各種技術が提案されている。
ここで、構造物を認識する手法としては、例えば、画像にしきい値を適用して断層画像における人体部分と非人体部分とを分ける手法(特許文献1参照)、断層画像から骨領域を抽出する手法(特許文献2参照)、断層画像から肝臓領域を抽出する手法(特許文献3参照)、断層画像から肺野領域を抽出する手法(特許文献4参照)、および複数の断層画像の部位を認識し、認識結果の解剖学的な位置関係を判定する手法(特許文献5参照)等が提案されている。
しかしながら、上述した各種手法による認識結果はすべて正しいとは限らない。このため、画像読影医等のユーザは認識結果が誤っているか否かを確認し、誤っている場合には認識結果を修正する必要があるが、このような確認および修正作業を行うことは画像読影医に負担を強いることになる。とくにCTおよびMRI等の画像は、確認する対象が膨大な量になることがあり、確認および修正の作業の負荷は非常に大きなものとなる。また、今後、検査数および認識技術を用いたアプリケーションの数が増えるほど、その負担は増大していくことが予測される。
本発明は上記事情に鑑みてなされたものであり、画像読影医等のユーザに負担をかけることなく、被検体に含まれる構造物についての認識結果が誤っているか否かを判定することを目的とする。
本発明による認識結果判定装置は、被検体を表す画像に含まれる、所定の構造物についての認識結果を複数取得する認識結果取得手段と、
前記取得した複数の認識結果のうち、少なくとも2以上の認識結果から、前記被検体の解剖学的な特徴を表す少なくとも1つの指標を算出する指標算出手段と、
前記指標を用いて、前記認識結果に誤りがあるか否かを判定する判定手段とを備えたことを特徴とするものである。
前記取得した複数の認識結果のうち、少なくとも2以上の認識結果から、前記被検体の解剖学的な特徴を表す少なくとも1つの指標を算出する指標算出手段と、
前記指標を用いて、前記認識結果に誤りがあるか否かを判定する判定手段とを備えたことを特徴とするものである。
「被検体」の具体例としては、人体が挙げられるが、他の動物等であってもよい。
なお、本発明による認識結果判定装置においては、前記判定結果が誤りを含む場合に、誤りのある前記認識結果を特定する特定手段をさらに備えるものとしてもよい。
この場合、前記誤りのある認識結果を修正する修正手段をさらに備えるものとしてもよい。
また、本発明による認識結果判定装置においては、前記指標は、異なる前記所定の構造物についての重畳部分のサイズ、面積比、体積比、位置関係および部位名の少なくとも1つであってもよい。
「部位」とは、被検体が人体の場合、人体の体部を識別するものであり、具体例としては、頭部、頸部、胸部、腹部、骨盤部、脚部の他、前記各部のうち隣接する2つの部位の両方を含む複合部位、例えば頭頸部および胸腹部等が挙げられる。
本発明による認識結果判定方法は、コンピュータが、被検体を表す画像に含まれる、所定の構造物についての認識結果を複数取得し、
前記取得した複数の認識結果のうち、少なくとも2以上の認識結果から、前記被検体の解剖学的な特徴を表す少なくとも1つの指標を算出し、
前記指標を用いて、前記認識結果に誤りがあるか否かを判定することを特徴とするものである。
前記取得した複数の認識結果のうち、少なくとも2以上の認識結果から、前記被検体の解剖学的な特徴を表す少なくとも1つの指標を算出し、
前記指標を用いて、前記認識結果に誤りがあるか否かを判定することを特徴とするものである。
なお、本発明による認識結果判定方法をコンピュータに実行させるためのプログラムとして提供してもよい。
本発明によれば、被検体を表す画像中の所定の構造物についての認識結果が複数取得され、複数の認識結果のうち、少なくとも2以上の認識結果から、被検体の解剖学的な特徴を表す少なくとも1つの指標が算出される。そして、指標を用いて認識結果に誤りがあるか否かが判定される。このように、本発明においては、2以上の複数の認識結果を用いて認識結果に誤りがあるか否かを判定するようにしたため、ユーザが手作業で認識結果の妥当性を確認する負担を軽減することができる。
また、誤りのある認識結果を特定することにより、ユーザはいずれの認識結果が誤っているかを自身で確認する必要がなくなるため、ユーザの負担をより軽減することができる。
また、誤りのある認識結果を修正することにより、ユーザは誤っている認識結果を修正する作業を行う必要がなくなるため、ユーザの負担をより軽減することができる。
以下、図面を参照して本発明の実施形態について説明する。図1は本発明の実施形態による認識結果判定装置を適用した医療情報システムの概略構成を示す図である。図1に示すように本実施形態による医療情報システムは、医用画像の撮影装置(モダリティ)1、読影ワークステーション(WS)2、画像サーバ3、画像データベース4、認識処理端末5および認識結果判定端末6が、ネットワーク10を介して互いに通信可能な状態で接続されて構成されている。また、本実施形態における各機器は、CD−ROM等の記録媒体からインストールされたプログラムによって制御される。また、プログラムは、インターネット等のネットワーク経由で接続されたサーバからダウンロードされた後にインストールされたものであってもよい。
モダリティ1には、被検体の検査対象部位を撮影することにより、その部位を表す画像の画像データを生成し、その画像データに、検査情報および患者情報等の付帯情報を付加して出力する装置が含まれる。付帯情報は、DICOM規格等の標準化された規格およびそのモダリティ等のメーカー独自の規格に準拠したフォーマットのものである。モダリティ1の具体例としては、CT装置、MRI装置、PET装置および超音波撮影装置等が挙げられる。なお、本実施形態では、画像データは、CT装置において取得された被検体の検査対象部位を表す3次元画像の画像データであり、所定のスライス間隔およびスライス厚による軸位断画像(断層画像とする)の画像データの集合体として構成されるものとする。
読影ワークステーション2は、ユーザである画像読影医が、画像の読影および読影レポートの作成に利用する装置であり、処理装置、1台または2台の高精細ディスプレイ、並びにキーボードおよびマウス等の入力機器により構成される。読影ワークステーション2は、画像サーバ3に対する画像の閲覧要求、画像サーバ3から受信した画像に対する各種画像処理、画像の表示、画像中の構造物および病変らしき部分の自動検出および強調表示、読影レポートの作成の支援、読影レポートサーバ(図示なし)に対する読影レポートの登録要求と閲覧要求、並びに読影レポートサーバから受信した読影レポートの表示等を行う。なお、各種画像処理、構造物および病変候補の自動検出・強調処理等の画質・視認性改善処理および画像解析処理を読影ワークステーション2で行わず、別途画像処理サーバをネットワーク10に接続しておき、読影ワークステーション2からの当該処理の要求に応じて、画像処理サーバが行うようにしてもよい。
画像サーバ3は、汎用の比較的処理能力の高いコンピュータにデータベース管理システム(DataBase Management System: DBMS)の機能を提供するソフトウェアプログラムがインストールされたものである。また、画像サーバ3は画像データベース4が構成される大容量ストレージを備えている。このストレージは、画像サーバ3とデータバスによって接続された大容量のハードディスク装置であってもよいし、ネットワーク10に接続されているNAS(Network Attached Storage)およびSAN(Storage Area Network)に接続されたディスク装置であってもよい。画像サーバ3も、モダリティ1および読影ワークステーション2等とネットワーク10を介して通信を行う通信インターフェースを有している。
画像サーバ3は、モダリティ1からの画像の登録要求を受け付けると、その画像をデータベース用のフォーマットに整えて画像データベース4に登録する。また、後述する認識処理端末5の認識結果を画像データベース4に登録する。
画像データベース4には、上述した3次元画像の画像データと付帯情報とが登録される。付帯情報には、例えば、個々の画像を識別するための画像ID、被写体を識別するための患者ID、検査を識別するための検査ID、画像毎に割り振られるユニークなID(UID)、その画像が生成された検査日、検査時刻、その画像を取得するための検査で使用されたモダリティの種類、患者氏名、年齢、性別等の患者情報、検査部位(撮影部位)、撮影情報(撮影プロトコル、撮影シーケンス、撮像手法、撮影条件、造影剤の使用等)、1回の検査で複数の画像を取得したときのシリーズ番号あるいは採取番号等の情報が含まれうる。
また、画像サーバ3は、読影ワークステーション2からの閲覧要求をネットワーク10経由で受信すると、上記画像データベース4に登録されている画像を検索し、抽出された画像を要求元の読影ワークステーション2に送信する。
読影ワークステーション2は、画像読影医等のユーザによって読影対象画像の閲覧を要求する操作が行われると、画像サーバ3に対して閲覧要求を送信し、読影に必要な画像を取得する。そして、その画像をモニタ画面に表示し、画像読影医からの要求に応じて病変の自動検出処理等を実行する。
認識処理端末5は、モダリティ1において取得された複数の断層画像から構成される3次元画像の画像データベース4への登録に先立って、あるいは登録後に、3次元画像に含まれる所定の構造物の認識処理を行う。例えば、3次元画像が被検体の胸部から腹部を撮影することにより取得されたものである場合、骨領域、肺野領域および肝臓領域の認識処理、並びに部位認識処理を行い、3次元画像における骨、肺野および肝臓の領域をそれぞれ認識するとともに、複数の断層画像のそれぞれがいずれの部位の画像を表すものであるかを表す部位認識結果を生成する。なお、以降の説明においては、3次元画像は被検体である人体の胸部から腹部を撮影することにより取得されたものとする。また、認識処理端末5も、モダリティ1および読影ワークステーション2等とネットワーク10を介して通信を行う通信インターフェースを有している。また、認識処理端末5は、3次元画像の画像データベース4への登録が完了した旨の通知を画像サーバ3から受けることにより認識処理を開始する。なお、読影ワークステーション2からの指示により認識処理を開始するものとしてもよい。
以下、認識処理端末5が行う各種処理について説明する。骨領域の認識処理としては、例えば、特許文献2に記載された手法を用いることができるが、これに限定されるものではない。特許文献2に記載された手法は、骨領域に関する標準モデルを用いて、3次元画像を構成する各断層画像から骨領域をモデルフィッティング手法によって抽出する手法である。なお、骨領域は各断層画像における骨領域の2次元的な領域を表す位置およびその位置におけるCT値の情報、並びに3次元画像における骨領域の3次元的な領域を表す位置およびその位置におけるCT値の情報となる。
また、肺野領域の認識処理としては、例えば特許文献4に記載された手法を用いることができるがこれに限定されるものではない。特許文献4に記載された手法は、各断層画像の画像データに対して、CT値を肺野とそれ以外の領域に分離するためのしきい値を用いた二値化処理を行い、二値化データに二次元ラベリング処理を行い、これにより得られたラベル画像データを用いて、最大面積のラベル領域を抽出し、抽出した領域を穴埋めするとともに、気管等の不要領域を除去して肺野領域を抽出する手法である。なお、肺野領域は各断層画像における肺野領域の2次元的な領域を表す位置およびその位置におけるCT値の情報、並びに3次元画像における肺野領域の3次元的な領域を表す位置およびその位置におけるCT値の情報となる。
肝臓領域の認識処理としては、例えば特許文献3に記載された手法を用いることができるがこれに限定されるものではない。特許文献3に記載された手法は、各断層画像から、撮影時相の相異なる第1時相の画像系列と第2時相の画像系列とを用いて、第1時相の画像データのCT値をX軸に、第2時相の画像データのCT値をY軸にとった2次元特徴空間を設定し、この空間において、2つの時相の画像で同一位置にある各画素についての2次元ヒストグラムを求め、これを肝臓領域に対応した画素の標本分布とみなし、さらに標本分布に2変量正規分布関数を適用して、肝臓領域全体に対応した画素の母体分布を推定し、この母体分布に基づいて肝臓領域に対応した画素のCT値範囲を推定する手法である。なお、肝臓領域は各断層画像における肝臓領域の2次元的な領域を表す位置およびその位置におけるCT値の情報、並びに3次元画像における肝臓領域の3次元的な領域を表す位置およびその位置におけるCT値の情報となる。
部位認識処理としては、例えば特許文献5に記載された手法を用いることができるがこれに限定されるものではない。特許文献5に記載された手法は、入力された複数の断層画像を正規化し、正規化された断層画像から多数の特徴量を算出し、正規化した断層画像毎に算出された特徴量を、AdaBoost手法によって得られた判別器に入力して、部位らしさを表す部位毎のスコアを算出し、算出された部位スコアを入力として、動的計画法を用いて、人体の体部の並び順が保たれるように各断層画像に表された部位を決定する手法である。
なお、認識処理端末5は、認識結果を認識結果判定端末6に送信する。なお、認識結果を一旦画像サーバ3に送信して画像データベース4に保管し、読影ワークステーション2からの指示により、認識結果を画像サーバ3から認識結果判定端末6に送信するようにしてもよい。
認識結果判定端末6は、認識処理端末5から受信した4つの認識結果、すなわち、骨領域の情報、肺野領域の情報、肝臓領域の情報および部位認識結果の情報から、被検体の解剖学的な特徴を表す指標を算出する。具体的には、骨領域と肝臓領域との重畳部分のサイズを表す指標P1、肺野領域と肝臓領域との重畳部分のサイズを表す指標P2、肺野領域と肝臓領域との体積比を表す指標P3、肺野領域と肝臓領域との位置関係を表す指標P4、肺野領域が含まれると認識した断層画像に付与された部位名を表す指標P5、肝臓領域が含まれると認識した断層画像に付与された部位名を表す指標P6をそれぞれ算出する。なお、認識結果判定端末6も、モダリティ1および読影ワークステーション2等とネットワーク10を介して通信を行う通信インターフェースを有している。
骨領域と肝臓領域との重畳部分のサイズとしては、被検体の3次元画像における骨領域と肝臓領域とが重なっている部分の画素数を用いる。また、画素数から重畳部分の体積を算出してもよい。本実施形態においては、画素数から算出した体積を用いるものとする。
肺野領域と肝臓領域との重畳部分のサイズとしては、被検体の3次元画像における肺野領域と肝臓領域とが重なっている部分の画素数を用いる。また、画素数から重畳部分の体積を算出してもよい。本実施形態においては、画素数から算出した体積を用いるものとする。
肺野領域と肝臓領域との体積比としては、被検体の3次元画像に含まれる肺野領域の画素数に対する肝臓領域の画素数の比率(すなわち肝臓領域の画素数/肺野領域の画素数)を用いる。
肺野領域と肝臓領域との位置関係としては、被検体の断層画像において、肺野領域と肝臓領域とを同時に含む、被検体の体軸方向の距離、肺野領域内における基準位置、および肝臓領域内における基準位置の情報を用いる。距離は、肺野領域および肝臓領域を同時に含む断層画像の数をカウントし、カウントした断層画像の数から算出する。肺野領域内における基準位置としては、肺野領域の体軸方向における中心位置および最も足側の位置を用いる。肝臓領域内における基準位置としては、肝臓領域の体軸方向における最も頭側の位置および最も足側の位置を用いる。本実施形態においてはこのように、位置関係として距離および上記の4つの位置を使用するため、以降の説明においては、距離を指標P4−1、肺野領域の体軸方向における中心位置および最も足側の位置を指標P4−2,P4−3、肝臓領域の体軸方向における最も頭側の位置および最も足側の位置を指標P4−4,P4−5とする。
そして認識結果判定端末6は、指標P1〜P6を用いて、認識処理端末5の認識結果が誤っているか否かを判定する。まず、指標P1について、骨領域および肝臓領域の認識処理が高精度に実施されていれば、骨領域および肝臓領域の重畳部分のサイズは0となる。このため、認識結果判定端末6は、指標P1をしきい値Th1(例えば3.0mm3)と比較し、指標P1がしきい値Th1を超えていれば、骨領域および肝臓領域の認識結果が誤りであると判定する。
指標P2について、肺野領域および肝臓領域の認識処理が高精度に実施されていれば、肺野領域および肝臓領域の重畳部分のサイズは0となる。このため、認識結果判定端末6は、指標P2をしきい値Th2(例えば1.0mm3)と比較し、指標P2がしきい値Th2を超えていれば、肺野領域および肝臓領域の認識結果が誤りであると判定する。
指標P3については、肺野領域および肝臓領域の認識処理が高精度に実施されていれば、肺野領域と肝臓領域との体積比は、人体の平均的な体積比から大きく逸脱することはない。このため、認識結果判定端末6は、指標P3をしきい値Th3(例えば1.5)と比較し、指標P3がしきい値Th3を超えていれば、肺野領域および肝臓領域の認識結果が誤りであると判定する。
指標P4については、肺野領域および肝臓領域の認識処理が高精度に実施されていれば、肺野領域および肝臓領域の位置関係が人体の平均的な関係(肺野は肝臓の上にある)から逸脱することはない。このため、認識結果判定端末6は、まず距離についての指標P4−1をしきい値Th4(例えば7cm)と比較し、指標P4−1がしきい値Th4を超えていれば、肺野領域および肝臓領域の認識結果が誤りであると判定する。また、肺野領域の体軸方向における中心位置の指標P4−2と、肝臓領域の体軸方向における最も頭側の位置の指標P4−4とを比較し、肺野領域の体軸方向における中心位置が、肝臓領域の体軸方向における最も頭側の位置よりも上側にない場合、肺野領域および肝臓領域の認識結果が誤りであると判定する。また、肺野領域の体軸方向における最も足側の位置の指標P4−3と、肝臓領域の体軸方向における最も足側の位置の指標P4−5とを比較し、肺野領域の体軸方向における最も足側の位置が、肝臓領域の体軸方向における最も足側の位置よりも上側にない場合、肺野領域および肝臓領域の認識結果が誤りであると判定する。
なお、しきい値Th1〜Th4は、画像読影医が所望とするように変更できるようにしてもよい。
また認識結果判定端末6は、指標P1〜P4について、この順序にて判定を行い、すべての判定結果に誤りがあることが確定した時点で、その後の指標を用いた判定を停止してもよい。例えば、指標P1を用いた骨領域および肝臓領域の認識結果が誤りであり、かつ指標P2を用いた肺野領域および肝臓領域の認識結果が誤りであると判定された場合には、指標P3以降の判定を行わないようにしてもよい。
一方、指標P5,P6については、認識対象の構造物(肺野および肝臓)と、認識する部位名とを対応づけた関係を不図示のメモリに記憶する等してあらかじめ保持しておく。例えば、肺野については胸部および胸腹部が対応し、肝臓については胸腹部および腹部が対応する。認識結果判定端末6は、肺野領域が含まれる断層画像について、指標P5に基づいて認識された部位名を比較し、部位名が胸部または胸腹部でない場合、部位認識結果が誤りであると判定する。また、認識結果判定端末6は、肝臓領域が含まれる断層画像について、指標P6に基づいて認識された部位名を比較し、部位名が胸腹部または腹部でない場合、部位認識結果が誤りであると判定する。
また、認識結果判定端末6は、認識結果に誤りがあると判定した場合、誤りがある認識結果を特定する。すなわち、指標P1に基づく認識結果が誤りである場合には、誤りがある認識結果を骨領域および肝臓領域に特定する。指標P2〜P4に基づく認識結果が誤りである場合には、誤りがある認識結果を肺野領域および肝臓領域に特定する。指標P5,P6に基づく認識結果が誤りである場合には、誤りがある認識結果を、部位認識に特定する。
次いで、本実施形態において行われる処理について説明する。図2は本実施形態において行われる処理を示すフローチャートである。なお、ここでは、断層画像および3次元画像の画像データベース4への登録後に、認識結果の判定を行うものとして説明する。画像サーバ3から断層画像および3次元画像の画像データベース4への登録の通知を受けることにより認識処理端末5が処理を開始し、上述した骨領域、肺野領域および肝臓領域の認識処理、並びに部位認識処理を行う(認識処理、ステップST1)。認識結果は認識結果判定端末6に送信される。
次いで、認識結果判定端末6が、認識結果から指標P1〜P6を算出する(ステップST2)。そして、指標P1〜P6に基づいて、認識結果に誤りがあるか否かを判定する(ステップST3)。ステップST3が肯定される、すなわち認識結果に誤りがある場合、誤りがある認識結果を特定する(ステップST4)。そして、誤りがある旨の情報および誤りがある認識結果の情報を含む判定結果を認識処理端末5に送信する(ステップST5)。なお、ステップST3が否定される、すなわち認識結果に誤りがない場合、ステップST5に進み、誤りがない旨の情報を含む判定結果を認識処理端末5に送信する。
認識処理端末5は、認識結果および誤りの有無の情報、並びに誤りがある場合における誤りがあると特定された認識結果の情報を画像サーバ3に送信する(情報送信、ステップST6)。画像サーバ3は、情報を認識に使用した画像に関連づけて保存し(ステップST7)、処理を終了する。
これにより、画像読影医は読影ワークステーション2を用いて画像の読影を行った際に、認識結果の誤りの有無および誤りがある認識結果を確認することができる。そして必要であれば、誤りがある認識結果を修正することができる。
このように、本実施形態においては、複数の認識結果を用いて認識結果に誤りがあるか否かを判定し、誤りのある認識結果を特定するようにしたものである。ここで、大病院の画像読影医は、一日に100件以上の読影を行わなければならない場合があるが、誤りの有無を読影前に知ることができるため、誤りの確認を行うことなく、誤りの修正から作業を行えばよいこととなる。したがって、画像読影医が、手作業で認識結果の妥当性を確認する負担を軽減することができる。
なお、上記実施形態においては、誤りのある認識結果を特定した後に、誤りのある認識結果を、認識結果判定端末6または認識処理端末5が修正するようにしてもよい。修正は、以下のように行えばよい。例えば、骨領域と肝臓領域との重畳部分は肝臓領域とする、肺野領域と肝臓領域との重畳部分は肺野領域とする、というように修正のルールをあらかじめ設定しておき、重畳部分をルールに従った領域に変更するように修正を行う。また、部位の認識結果については、肺野領域が含まれると認識された断層画像について、認識された部位名が胸部または胸腹部でなかった場合には胸部とする、肝臓領域が含まれると認識された断層画像について、認識された部位名が胸腹部または腹部でなかった場合には胸腹部とする、というように修正のルールをあらかじめ設定しておき、誤りのある断層画像の認識結果をルールに従った部位名となるように変更するように修正を行う。なお、体積比および位置関係については、自動で修正することが困難であるため、体積比および位置関係が誤りであると判定された場合には、肺野領域および肝臓領域の認識処理をやり直すことにより、修正を行うようにしてもよい。
また、上記実施形態においては、認識処理端末5において、認識結果に誤りがある場合、モデル、しきい値および関数等、認識の処理に用いるパラメータを変更して認識処理をやり直すようにしてもよい。さらに、認識結果の誤りの判定および再度の認識処理を、認識結果に誤りがなくなるまで繰り返すようにしてもよい。
なお、上記実施形態においては、本発明による認識結果判定装置を認識結果判定端末6に実装しているが、認識処理端末5に実装するようにしてもよい。これにより認識結果判定端末が不要となるため、システムの構成を簡易なものとすることができる。
1 モダリティ
2 読影ワークステーション
3 画像サーバ
4 画像データベース
5 認識処理端末
6 認識結果判定端末
2 読影ワークステーション
3 画像サーバ
4 画像データベース
5 認識処理端末
6 認識結果判定端末
Claims (6)
- 被検体を表す画像に含まれる、所定の構造物についての認識結果を複数取得する認識結果取得手段と、
前記取得した複数の認識結果のうち、少なくとも2以上の認識結果から、前記被検体の解剖学的な特徴を表す少なくとも1つの指標を算出する指標算出手段と、
前記指標を用いて、前記認識結果に誤りがあるか否かを判定する判定手段とを備えたことを特徴とする認識結果判定装置。 - 前記判定結果が誤りを含む場合に、誤りのある前記認識結果を特定する特定手段をさらに備えたことを特徴とする請求項1記載の認識結果判定装置。
- 前記誤りのある認識結果を修正する修正手段をさらに備えたことを特徴とする請求項2記載の認識結果判定装置。
- 前記指標は、異なる前記所定の構造物についての重畳部分のサイズ、面積比、体積比、位置関係および部位名の少なくとも1つであることを特徴とする請求項1から3のいずれか1項記載の認識結果判定装置。
- コンピュータが、被検体を表す画像に含まれる、所定の構造物についての認識結果を複数取得し、
前記取得した複数の認識結果のうち、少なくとも2以上の認識結果から、前記被検体の解剖学的な特徴を表す少なくとも1つの指標を算出し、
前記指標を用いて、前記認識結果に誤りがあるか否かを判定することを特徴とするコンピュータによる認識結果判定方法。 - コンピュータに、被検体を表す画像に含まれる、所定の構造物についての認識結果を複数取得する手順と、
前記取得した複数の認識結果のうち、少なくとも2以上の認識結果から、前記被検体の解剖学的な特徴を表す少なくとも1つの指標を算出する手順と、
前記指標を用いて、前記認識結果に誤りがあるか否かを判定する手順とを実行させることを特徴とする認識結果判定プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009073011A JP2010220902A (ja) | 2009-03-25 | 2009-03-25 | 認識結果判定装置および方法並びにプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009073011A JP2010220902A (ja) | 2009-03-25 | 2009-03-25 | 認識結果判定装置および方法並びにプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010220902A true JP2010220902A (ja) | 2010-10-07 |
Family
ID=43038738
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009073011A Withdrawn JP2010220902A (ja) | 2009-03-25 | 2009-03-25 | 認識結果判定装置および方法並びにプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010220902A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017531526A (ja) * | 2014-10-30 | 2017-10-26 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | ラジオグラム画像の画質を決定する装置及び方法 |
WO2021199967A1 (ja) * | 2020-03-30 | 2021-10-07 | テルモ株式会社 | プログラム、情報処理方法、学習モデルの生成方法、学習モデルの再学習方法、および、情報処理システム |
-
2009
- 2009-03-25 JP JP2009073011A patent/JP2010220902A/ja not_active Withdrawn
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017531526A (ja) * | 2014-10-30 | 2017-10-26 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | ラジオグラム画像の画質を決定する装置及び方法 |
US9918691B2 (en) | 2014-10-30 | 2018-03-20 | Koninklijke Philips N.V. | Device and method for determining image quality of a radiogram image |
WO2021199967A1 (ja) * | 2020-03-30 | 2021-10-07 | テルモ株式会社 | プログラム、情報処理方法、学習モデルの生成方法、学習モデルの再学習方法、および、情報処理システム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210158531A1 (en) | Patient Management Based On Anatomic Measurements | |
US8334878B2 (en) | Medical image processing apparatus and medical image processing program | |
US8064677B2 (en) | Systems and methods for measurement of objects of interest in medical images | |
US9218661B2 (en) | Image analysis for specific objects | |
US8045771B2 (en) | System and method for automated patient anatomy localization | |
US20160321427A1 (en) | Patient-Specific Therapy Planning Support Using Patient Matching | |
JP4855141B2 (ja) | 医用画像部位認識装置、及び、医用画像部位認識プログラム | |
US9336457B2 (en) | Adaptive anatomical region prediction | |
US8384735B2 (en) | Image display apparatus, image display control method, and computer readable medium having an image display control program recorded therein | |
US10916010B2 (en) | Learning data creation support apparatus, learning data creation support method, and learning data creation support program | |
JP2008059071A (ja) | 医用画像処理装置 | |
JP6738305B2 (ja) | 学習データ生成支援装置および学習データ生成支援装置の作動方法並びに学習データ生成支援プログラム | |
US11468659B2 (en) | Learning support device, learning support method, learning support program, region-of-interest discrimination device, region-of-interest discrimination method, region-of-interest discrimination program, and learned model | |
US20100303330A1 (en) | Radiographic image display apparatus, and its method and computer program product | |
JP2013123528A (ja) | 画像診断支援装置、画像診断支援方法 | |
US11205269B2 (en) | Learning data creation support apparatus, learning data creation support method, and learning data creation support program | |
RU2568262C2 (ru) | Соотнесение полученных изображений с объектами | |
JP6734111B2 (ja) | 所見情報作成装置及びシステム | |
CA3034814C (en) | System and method for using imaging quality metric ranking | |
JP2010220902A (ja) | 認識結果判定装置および方法並びにプログラム | |
US10885391B2 (en) | Image analysis apparatus, method, and program | |
JP2010075327A (ja) | 画像診断支援装置、画像診断支援方法及びプログラム | |
JP2018175695A (ja) | 位置合せ装置および位置合せ方法並びに位置合せプログラム | |
JP2010081967A (ja) | 画像診断支援装置、画像診断支援方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20120605 |