JP2004267450A - Image processor - Google Patents

Image processor Download PDF

Info

Publication number
JP2004267450A
JP2004267450A JP2003061862A JP2003061862A JP2004267450A JP 2004267450 A JP2004267450 A JP 2004267450A JP 2003061862 A JP2003061862 A JP 2003061862A JP 2003061862 A JP2003061862 A JP 2003061862A JP 2004267450 A JP2004267450 A JP 2004267450A
Authority
JP
Japan
Prior art keywords
image
medical image
area
reference position
size
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2003061862A
Other languages
Japanese (ja)
Inventor
Makoto Sato
眞 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2003061862A priority Critical patent/JP2004267450A/en
Publication of JP2004267450A publication Critical patent/JP2004267450A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing technique capable of efficiently extracting a desired area from a medical image without being influenced by the fluctuation of the size of an object in the medical image. <P>SOLUTION: An image input part 1 inputs the medical image and auxiliary information relating to the medical image. A geometric parameter extraction part 2 decides the size of an area which can include a specified part existing in the medical image on the basis of the auxiliary information. A reference position detection part 3 decides the reference position of the object in the medical image. A search range decision part 4 decides an analysis area of the medical image on the basis of the reference position and the area size. An analysis part 5 analyzes the analysis area, and decides a specified area in the object. Then, an output part 6 outputs positional information indicating the position of the specified area. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、単純X線画像等の医療画像に対する画像処理に関するものである。
【0002】
【従来の技術】
近年、医用画像診断の分野において、ディジタル画像の利用が進んでいる。例えば、半導体センサを使用してX線画像を撮影する撮影装置は、従来の銀塩写真を用いる放射線写真システムと比較して極めて広い放射線露出域にわたって画像を記録できるという実用的な利点を有している。
【0003】
つまり、このような撮影装置では、非常に広いダイナミックレンジのX線を光電変換手段により読み取って電気信号に変換してディジタル信号化する。そして、このディジタル信号を用いて、写真感光材料等の記録材料、CRT等の表示装置に放射線画像を可視像として出力させることによって、放射線露光量の変動に影響されない放射線画像を得ることができる。
【0004】
このように医用画像をディジタル化することで、従来の銀塩写真では困難であった診断形態の可能性が生まれている。
【0005】
例えば、医用画像をCRT等の表示装置に出力して観察を行う場合に、ディジタル画像化された被写体(対象物)像の必要な部分に対して画像処理を行うことで、当該部分を強調したり、さらに画像解析を行って、病変の疑いのある部分を検出することで診断をより高精度化することが試みられている。
【0006】
そして、このような画像処理を行うにあたっては、ディジタル画像化された被写体像から診断対象となる領域を抽出する必要があることが多い。
【0007】
例えば、胸部X線画像を対象として画像に強調処理を施す際には、肺野領域を抽出して当該領域にのみ処理を行うことが望ましい。また、近年研究開発が行われているCAD(コンピュータ支援診断)においては、解析処理の過程において擬陽性を削減するために、処理範囲を対象臓器の領域に制限することが、病変部分の検出性能の向上において有効である。
【0008】
また、被写体が描出された画像から所望の臓器に相当する領域を抽出する方法としては、画像信号を解析して画像中の特徴点を抽出し、その特徴点を用いて領域を抽出する方法が提案されている(特許文献1)。
【0009】
【特許文献1】
特開平8−335271号公報
【発明が解決しようとする課題】
しかしながら、上記特許文献1において、実際に臨床現場で扱われる画像は、撮影条件等の処理条件が異なると、画像内で被写体が占める領域が大きく異なる場合がある。
【0010】
即ち、実際の医療現場で用いられる撮影装置は全て同一条件であるとは限らないため、撮影に用いられた検出器の画素ピッチが異なったり、X線源と検出器の距離は常に一定である保証はないため、画像内の被写体の大きさが異なることがある。
【0011】
また、画像から所望の領域を抽出する際には、画像内をサーチして特徴点を抽出することが多いが、臨床画像においてサーチの範囲は上述のように変化する可能性があるため、最適な範囲を予め決めることが難しいという問題がある。
【0012】
この問題を解決する方法としては、サーチの範囲を広げることであるが、このようにすると、所望の領域の誤検出発生の確率が高まり、また処理時間の増大を招くことになる。
【0013】
本発明は上記の課題を解決するためになされたものであり、医療画像中の処理対象領域を適切に決定することが可能な画像処理技術を提供することを目的とする。
【0014】
【課題を解決するための手段】
上記の目的を達成するための本発明による画像処理装置は以下の構成を備える。即ち、
医療画像と、該医療画像に関する付帯情報とを入力する入力手段と、
前記付帯情報に基づいて、領域のサイズを決定するサイズ決定手段と、
前記医療画像中の基準位置を決定する基準位置決定手段と、
前記サイズ及び前記基準位置に基づいて、前記医療画像中の処理対象領域を決定する領域決定手段と
を備える。
【0015】
【発明の実施の形態】
以下、本発明の実施の形態について図面を用いて詳細に説明する。
【0016】
<実施形態1>
図1は本発明の実施形態1の画像処理装置の基本構成図であり、図2は本発明の実施形態1の画像処理装置の動作を示す概略フローチャートである。
【0017】
以下に、X線源(放射線源)と検出器(複数の検出素子からなる)を有する撮影装置で撮影した胸部X線画像に対して画像処理を行う例を挙げて、実施形態1の画像処理装置の動作の詳細について、これらの図を用いて説明する。
【0018】
尚、画像処理装置を実現するハードウエアとしては、パーソナルコンピュータやワークステーション等の汎用コンピュータで実現されても良く、この場合の汎用コンピュータは、標準的な構成要素として、例えば、CPU、RAM、ROM、ハードディスク、外部記憶装置、ネットワークインタフェース、ディスプレイ、キーボード、マウス等を有している。
【0019】
[ステップS100]
画像入力部1は、不図示の画像記憶装置或いはネットワーク等の外部インタフェースを経由して解析対象となる医療画像を画像ファイルとして入力する。ここで、画像ファイルには、実際の画像データ及び当該画像が撮影された際の各種パラメータ(付帯情報)が付随しており、これは画像ファイルのヘッダとして画像データとは異なる部分に纏められている。
【0020】
[ステップS200]
次に、画像入力部1は、入力した画像ファイルからヘッダを分離する。これにより、ヘッダが幾何パラメータ抽出部2へ入力され、画像ファイル中の画像データが基準位置検出部3に入力される。
【0021】
[ステップS300]
次に、幾何パラメータ抽出部2は、分離したヘッダから、画像データが撮影された際のパラメータを抽出する。ここで、抽出するパラメータとしては、実施形態1においては、撮影装置の検出器の画素ピッチ(画素感覚)と、X線源と検出器と間の距離(撮影距離)を示す値である。
【0022】
[ステップS400]
幾何パラメータ抽出部2は、抽出した画素ピッチ及び撮影距離に基づいて、画像データをサーチする際のウィンドウ(画像に含まれる特定部位を包含し得る領域)の大きさ(サイズ)を決定する。図3は胸部正面画像を対象としたときのウィンドウの例であり、同図(a)は標準的な状態(以下、標準状態)における胸部X線正面画像に対するウィンドウの設定例を示している。
【0023】
ここで、標準状態とは、撮影装置の検出器の画素ピッチが所定値であり、かつX線源と検出器間の撮影距離が標準値であることを指している。また、W0及びH0は、この標準状態で成人の患者を撮影した場合の肺野を検索する検索範囲(解析領域)を画素単位で表している。これらの標準状態時の値は、幾何パラメータ抽出部2内の不図示のメモリに予め記憶されている。
【0024】
一方、撮影環境(車載型の撮影装置の環境等)により、撮影距離を十分に取ることができなかった場合や、検出器の性能向上に伴って画素ピッチが小さくなったような場合には、図3(b)に示すように、図3(a)に比べて被写体が大きく撮影される。
【0025】
この場合、幾何パラメータ抽出部2は、画像ファイルのヘッダから抽出された画素ピッチ及び撮影距離に基づいて、W0およびH0を補正して、W1及びH1を計算して出力する。
【0026】
W1 = α・β・W0 (1)
H1 = α・β・H0 (2)
ここで、α、βはそれぞれ撮影距離及び画素ピッチ変化に基づく補正係数であり、以下のように計算される。
【0027】
α = γ・L/(L−t0) (3)
β = p0/p (4)
γ = (L0−t0)/L0 (5)
ここで、γは、図4に示すような標準的な撮影距離L0と、標準的な成人の身体寸法に基づく距離t0とから計算される係数である。また、p0は標準の画素ピッチである。また、Lおよびpは、画像ファイルのヘッダから読み出された撮影時の撮影距離及び画素ピッチである。
【0028】
[ステップS500]
基準位置検出部3は、入力した画像データの特徴から画像における対称軸を検出する。この検出は、図5に示すように、まず、仮対称軸Txに対して等距離dに2つのウィンドウrl、rrを設定し、この仮対称軸Txを挟んで対称な位置にある各ウィンドウrl、rr内の画像データ同士を減算し、その二乗和を計算する。そして、この仮対称軸Txを所定範囲で動かして、最も二乗和が小さくなる位置を対称軸Txの水平方向位置(基準位置)として決定する。
【0029】
[ステップS600]
サーチ範囲決定部4は、幾何パラメータ抽出部2の出力(パラメータ)と、基準位置検出部3の出力(基準位置)に基づいて、対象となる画像において胸郭位置をサーチするサーチ範囲(解析領域)を決定する。図6は、決定されたサーチ範囲の例であり、対称軸Sxを挟んで対称的に、サーチ範囲Wsr及びWslが設定されている。
【0030】
[ステップS700]
解析部5は、サーチウィンドウrr及びrl内から胸郭(被写体における関心領域)を検出する。胸郭検出の方法としては、例えば、特開平8−335271号に開示されているように、画像を1次元のデータに積算投影した結果に対して、エッジを抽出し、エッジ間を補間することで検出できる。
【0031】
図6は検出例を図示したものであり、対称軸Sx(基準位置)に対して左右対称な位置に設定されたサーチ領域(解析領域)に対して、肺野Fr及びFl(被写体における関心領域)の検出が行われた結果を示している。
【0032】
[ステップS800]
出力部6は、検出された肺野の位置を示す位置情報を外部(外部機器)に出力する。位置情報は、各肺野の輪郭をあらわす座標点等の情報で表現されており、出力部6は、具体的には、後続の処理に対して位置情報を転送するモジュール、インタフェース等の機器として機能する。
【0033】
ここで、後続の外部装置自体は、本発明の範囲ではないが、例えば、階調処理や病変部分を検出する解析装置等の機器であり、検出された位置情報に基づいて階調処理等の処理が行われる。
【0034】
以上説明したように、実施形態1によれば、被写体の大きさに影響されない画像の基準位置を検出し、さらに画像に付加された、撮影装置または被写体に関する情報を用いて所定の解剖学的な特徴点をサーチするサーチ範囲(解析領域)を決定することにより、高精度の検出を処理時間の増加を抑制しつつ実現することができる。
【0035】
<実施形態2>
実施形態1においては、撮影距離及び画素ピッチを画像ファイルのヘッダから読み出してサーチ範囲を決定したが、さらにヘッダに含まれる被写体(患者等)の情報を反映させてもよい。
【0036】
即ち、図4におけるt0およびh0は成人の標準的な身体寸法の値から予め設定されていたが、ヘッダ中の年齢や性別等、身体寸法に相関のある因子に基づいて、これらの値を補正し、その結果に基づいてサーチ範囲を決定してもよい。
【0037】
例えば、患者の年齢が児童であり、成人に対して身体寸法が小さい場合は、予め該当する年齢の標準的な値に基づいて、補正係数を計算する。この時の計算式は、以下のようになる。
【0038】
α = ε・hc/(L0−tc) (6)
ε = (L0−ta)/ha (7)
ここで、ha、hcおよびta、tcは、図4におけるh0およびt0に対応する、成人および児童の代表値である。
【0039】
以上説明したように、実施形態2によれば、撮影対象となる患者の身体寸法に対応して、サーチ範囲を適正に設定することができるようになる。
【0040】
<実施形態3>
実施形態1においては、基準位置検出部3は、画像の対称軸を検出しているが、他の基準位置を用いてもよい。例えば、入力画像を2値化して重心を求め、重心を基準位置としてサーチ範囲を決定してもよい。
【0041】
<実施形態4>
以上説明した上記各実施形態において、画像処理装置に対する入力は、画像データとパラメータを含むヘッダとから構成される画像ファイルであるが、本発明はこれに限定されるものではない。例えば、ヘッダに相当するデータ(付帯情報)が別ファイルとして画像データとは別に入力されるようになっていてもよい。
【0042】
以上、実施形態例を詳述したが、本発明は、例えば、システム、装置、方法、プログラムもしくは記憶媒体等としての実施態様をとることが可能であり、具体的には、複数の機器から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。
【0043】
以上説明した実施形態1〜3における画像処理装置は、パーソナルコンピュータ等の情報処理装置により実現できる。また、その処理手順は方法の発明として捉えることができる。また、コンピュータにより実現できるわけであるから、本発明はそれぞれの装置で実行されるコンピュータプログラム、更には、そのコンピュータプログラムを格納し、当該プログラムをコンピュータが読み込めるCD−ROM等のコンピュータ可読記憶媒体にも適用できるのは明らかであろう。
【0044】
従って、上記実施形態1〜3に係る実施態様を列挙すると、次の通りである。すなわち、画像処理装置及び方法、プログラムは、次のようになる。
【0045】
[実施態様1] 医療画像と、該医療画像に関する付帯情報とを入力する入力手段と、
前記付帯情報に基づいて、領域のサイズを決定するサイズ決定手段と、
前記医療画像中の基準位置を決定する基準位置決定手段と、
前記サイズ及び前記基準位置に基づいて、前記医療画像中の処理対象領域を決定する領域決定手段と
を備えることを特徴とする画像処理装置。
【0046】
[実施態様2] 前記処理対象領域を解析することにより、前記医療画像中の関心領域を決定する関心領域決定手段を備える
ことを特徴とする実施態様1に記載の画像処理装置。
【0047】
[実施態様3] 前記関心領域の位置を示す位置情報を出力する出力手段を備える
ことを特徴とする実施態様2に記載の画像処理装置。
【0048】
[実施態様4] 前記付帯情報は、前記医療画像を生成した放射線撮影装置における検出器の画素ピッチの情報を含む
ことを特徴とする実施態様1に記載の画像処理装置。
【0049】
[実施態様5] 前記付帯情報は、前記医療画像を生成した放射線撮影における撮影距離の情報を含む
ことを特徴とする実施態様1に記載の画像処理装置。
【0050】
[実施態様6] 前記付帯情報は、前記医療画像中の被写体のサイズに相関のある情報を含む
ことを特徴とする実施態様1に記載の画像処理装置。
【0051】
[実施態様7] 前記基準位置は、前記医療画像中の被写体領域におけるの対称軸の位置である
ことを特徴とする実施態様1に記載の画像処理装置。
【0052】
[実施態様8] 前記基準位置は、前記医療画像中の被写体領域の重心位置である
ことを特徴とする実施態様1に記載の画像処理装置。
【0053】
[実施態様9] 医療画像と、該医療画像に関する付帯情報とを入力する入力工程と、
前記付帯情報に基づいて、領域のサイズを決定するサイズ決定工程と、
前記医療画像中の基準位置を決定する基準位置決定工程と、
前記サイズ及び前記基準位置に基づいて、前記医療画像中の処理対象領域を決定する領域決定工程と
を備えることを特徴とする画像処理方法。
【0054】
[実施態様10] 医療画像と、該医療画像に関する付帯情報とを入力する入力工程のプログラムコードと、
前記付帯情報に基づいて、領域のサイズを決定するサイズ決定工程のプログラムコードと、
前記医療画像中の基準位置を決定する基準位置決定工程のプログラムコードと、
前記サイズ及び前記基準位置に基づいて、前記医療画像中の処理対象領域を決定する領域決定工程のプログラムコードと
を備えることを特徴とする画像処理プログラム。
【0055】
尚、本発明は、前述した実施形態の機能を実現するソフトウェアのプログラム(例えば、図示したフローチャートに対応したプログラム)を、システムあるいは装置に直接あるいは遠隔から供給し、そのシステムあるいは装置のコンピュータが該供給されたプログラムコードを読み出して実行することによっても達成される。
【0056】
従って、本発明の処理をコンピュータで実現するために該コンピュータにインストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明は、本発明の処理を実現するためのコンピュータプログラム自体を含む。
その場合、当該プログラムは、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給されるスクリプトデータ等の形態であっても良い。
【0057】
プログラムを供給するための記録媒体としては、例えば、フロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、MO、CD−ROM、CD−R、CD−RW、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD−ROM,DVD−R)などがある。
【0058】
また、クライアントコンピュータのブラウザを用いてインターネットのホームページに接続し、該ホームページから本発明のコンピュータプログラムそのもの、もしくは圧縮され自動インストール機能を含むファイルをハードディスク等の記録媒体にダウンロードすることによっても、プログラムは供給され得る。また、本発明のプログラムを構成するプログラムコードを複数のファイルに分割し、それぞれのファイルを異なるホームページからダウンロードすることによっても、プログラムは供給され得る。つまり、本発明の機能処理をコンピュータで実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明に含まれるものである。
【0059】
また、本発明のプログラムを暗号化してCD−ROM等の記憶媒体に格納してユーザに配布し、所定の条件をクリアしたユーザに対し、インターネットを介してホームページから暗号化を解く鍵情報をダウンロードさせ、その鍵情報を使用することにより暗号化されたプログラムを実行してコンピュータにインストールさせることによっても、プログラムは供給され得る
【0060】
また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される他、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部または全部を行なうことによっても前述した実施形態の機能が実現され得る。
【0061】
さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行なうことによっても前述した実施形態の機能が実現され得る。
【0062】
【発明の効果】
以上説明したように、本発明によれば、医療画像中の処理対象領域を適切に決定することが可能な画像処理技術を提供できる。
【図面の簡単な説明】
【図1】本発明の実施形態1の画像処理装置の基本構成図である。
【図2】本発明の実施形態1の画像処理装置の動作を示す概略フローチャートである。
【図3】本発明の実施形態1のウィンドウの配置例を示す図である。
【図4】本発明の実施形態1の撮影系の配置概略図である。
【図5】本発明の実施形態1の画像の対称軸及びサーチ範囲例を示す図である。
【図6】本発明の実施形態1の胸郭検出例を示す図である。
【符号の説明】
1 画像入力部
2 幾何パラメータ抽出部
3 基準位置検出部
4 サーチ範囲決定部
5 解析部
6 出力部
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to image processing for medical images such as simple X-ray images.
[0002]
[Prior art]
In recent years, digital images have been increasingly used in the field of medical image diagnosis. For example, an imaging apparatus that captures an X-ray image using a semiconductor sensor has a practical advantage that an image can be recorded over an extremely wide radiation exposure area as compared with a conventional radiographic system using silver halide photography. ing.
[0003]
That is, in such a photographing apparatus, an X-ray having a very wide dynamic range is read by a photoelectric conversion unit, converted into an electric signal, and converted into a digital signal. By using this digital signal to output a radiation image as a visible image on a recording material such as a photographic photosensitive material or a display device such as a CRT, it is possible to obtain a radiation image which is not affected by a change in radiation exposure. .
[0004]
Digitizing the medical image in this way has created a possibility of a diagnostic form that has been difficult with conventional silver halide photography.
[0005]
For example, when a medical image is output to a display device such as a CRT to perform observation, image processing is performed on a necessary portion of a digitalized image of a subject (object) to emphasize that portion. Attempts have been made to further improve the diagnosis by detecting a suspected lesion by performing image analysis and further performing image analysis.
[0006]
In performing such image processing, it is often necessary to extract a region to be diagnosed from a digital image of a subject image.
[0007]
For example, when performing an enhancement process on a chest X-ray image, it is desirable to extract a lung field region and perform processing only on the region. In CAD (computer aided diagnosis), which has been researched and developed in recent years, in order to reduce false positives in the course of analysis processing, it is necessary to limit the processing range to the region of the target organ. It is effective in improvement.
[0008]
As a method of extracting a region corresponding to a desired organ from an image in which a subject is depicted, a method of analyzing an image signal to extract a feature point in the image, and extracting a region using the feature point is known. It has been proposed (Patent Document 1).
[0009]
[Patent Document 1]
Japanese Patent Application Laid-Open No. 8-335271 [Problems to be Solved by the Invention]
However, in Patent Literature 1, an image actually handled at a clinical site may have a significantly different area occupied by a subject in the image if processing conditions such as imaging conditions are different.
[0010]
That is, since the imaging devices used in actual medical sites are not always under the same conditions, the pixel pitch of the detector used for imaging is different or the distance between the X-ray source and the detector is always constant. Since there is no guarantee, the size of the subject in the image may be different.
[0011]
In addition, when extracting a desired region from an image, a feature point is often extracted by searching within the image. However, since the range of the search may change in the clinical image as described above, There is a problem that it is difficult to determine an appropriate range in advance.
[0012]
The solution to this problem is to increase the range of the search. However, in this case, the probability of erroneous detection of the desired area increases, and the processing time increases.
[0013]
SUMMARY An advantage of some aspects of the invention is to provide an image processing technique capable of appropriately determining a processing target area in a medical image.
[0014]
[Means for Solving the Problems]
An image processing apparatus according to the present invention for achieving the above object has the following configuration. That is,
Medical image, input means for inputting incidental information related to the medical image,
Size determining means for determining the size of the area based on the incidental information,
Reference position determination means for determining a reference position in the medical image,
A region determining unit that determines a processing target region in the medical image based on the size and the reference position.
[0015]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
[0016]
<First embodiment>
FIG. 1 is a basic configuration diagram of the image processing apparatus according to the first embodiment of the present invention, and FIG. 2 is a schematic flowchart illustrating an operation of the image processing apparatus according to the first embodiment of the present invention.
[0017]
Hereinafter, an example of performing image processing on a chest X-ray image captured by an imaging apparatus having an X-ray source (radiation source) and a detector (composed of a plurality of detection elements) will be described. Details of the operation of the apparatus will be described with reference to these drawings.
[0018]
The hardware for realizing the image processing apparatus may be realized by a general-purpose computer such as a personal computer or a workstation. In this case, the general-purpose computer includes, as standard components, for example, a CPU, a RAM, a ROM, and the like. , A hard disk, an external storage device, a network interface, a display, a keyboard, a mouse, and the like.
[0019]
[Step S100]
The image input unit 1 inputs a medical image to be analyzed as an image file via an image storage device (not shown) or an external interface such as a network. Here, the image file is accompanied by actual image data and various parameters (supplementary information) at the time of capturing the image, and these are combined into a header different from the image data as a header of the image file. I have.
[0020]
[Step S200]
Next, the image input unit 1 separates the header from the input image file. As a result, the header is input to the geometric parameter extraction unit 2, and the image data in the image file is input to the reference position detection unit 3.
[0021]
[Step S300]
Next, the geometric parameter extraction unit 2 extracts parameters at the time of capturing the image data from the separated header. Here, in the first embodiment, the parameters to be extracted are values indicating the pixel pitch (pixel sense) of the detector of the imaging device and the distance (imaging distance) between the X-ray source and the detector.
[0022]
[Step S400]
The geometric parameter extraction unit 2 determines the size (size) of a window (a region that can include a specific part included in the image) when searching for image data based on the extracted pixel pitch and shooting distance. FIG. 3 shows an example of a window for a chest front image, and FIG. 3A shows an example of setting a window for a chest X-ray front image in a standard state (hereinafter, a standard state).
[0023]
Here, the standard state indicates that the pixel pitch of the detector of the imaging apparatus is a predetermined value, and the imaging distance between the X-ray source and the detector is a standard value. Further, W0 and H0 represent a search range (analysis area) for searching for a lung field when an adult patient is imaged in this standard state in pixel units. These values in the standard state are stored in a memory (not shown) in the geometric parameter extraction unit 2 in advance.
[0024]
On the other hand, if the photographing environment (such as the environment of a car-mounted photographing device) does not allow a sufficient photographing distance, or if the pixel pitch becomes smaller due to improved detector performance, As shown in FIG. 3B, the subject is photographed larger than in FIG.
[0025]
In this case, the geometric parameter extraction unit 2 corrects W0 and H0 based on the pixel pitch and the photographing distance extracted from the header of the image file, and calculates and outputs W1 and H1.
[0026]
W1 = α ・ β ・ W0 (1)
H1 = α · β · H0 (2)
Here, α and β are correction coefficients based on the photographing distance and the pixel pitch change, respectively, and are calculated as follows.
[0027]
α = γ · L / (L−t0) (3)
β = p0 / p (4)
γ = (L0−t0) / L0 (5)
Here, γ is a coefficient calculated from a standard photographing distance L0 as shown in FIG. 4 and a distance t0 based on a standard adult body size. P0 is a standard pixel pitch. L and p are the shooting distance and pixel pitch at the time of shooting read from the header of the image file.
[0028]
[Step S500]
The reference position detection unit 3 detects the axis of symmetry in the image from the characteristics of the input image data. In this detection, as shown in FIG. 5, first, two windows rl and rr are set at an equal distance d with respect to the temporary symmetry axis Tx, and each window rl at a position symmetrical about the temporary symmetry axis Tx. , Rr are subtracted from each other, and the sum of squares is calculated. Then, the temporary symmetry axis Tx is moved within a predetermined range, and the position where the sum of squares is minimized is determined as the horizontal position (reference position) of the symmetry axis Tx.
[0029]
[Step S600]
The search range determining unit 4 searches for a rib cage position in a target image based on the output (parameter) of the geometric parameter extracting unit 2 and the output (reference position) of the reference position detecting unit 3 (analysis region). To determine. FIG. 6 is an example of the determined search range, in which the search ranges Wsr and Wsl are set symmetrically with respect to the axis of symmetry Sx.
[0030]
[Step S700]
The analysis unit 5 detects the rib cage (region of interest in the subject) from within the search windows rr and rl. As a method of detecting the rib cage, for example, as disclosed in Japanese Patent Application Laid-Open No. 8-335271, an edge is extracted from a result obtained by integrating and projecting an image on one-dimensional data, and interpolation is performed between the edges. Can be detected.
[0031]
FIG. 6 illustrates an example of detection, in which a search area (analysis area) set at a position symmetrical with respect to the symmetry axis Sx (reference position) is compared with lung fields Fr and Fl (region of interest in the subject). ) Shows the result of detection.
[0032]
[Step S800]
The output unit 6 outputs position information indicating the position of the detected lung field to the outside (external device). The position information is represented by information such as coordinate points representing the outline of each lung field, and the output unit 6 is specifically configured as a device that transfers the position information for subsequent processing, a device such as an interface, or the like. Function.
[0033]
Here, the subsequent external device itself is not within the scope of the present invention, but is, for example, a device such as an analysis device that detects gradation processing or a lesion, and performs processing such as gradation processing based on detected position information. Processing is performed.
[0034]
As described above, according to the first embodiment, the reference position of the image that is not affected by the size of the subject is detected, and the predetermined anatomical information is used using the information about the imaging device or the subject added to the image. By determining a search range (analysis region) for searching for a feature point, highly accurate detection can be realized while suppressing an increase in processing time.
[0035]
<Embodiment 2>
In the first embodiment, the shooting distance and the pixel pitch are read from the header of the image file to determine the search range. However, information on the subject (patient or the like) included in the header may be further reflected.
[0036]
That is, although t0 and h0 in FIG. 4 are set in advance from the values of the standard body dimensions of an adult, these values are corrected based on factors such as age and gender in the header that are correlated with the body dimensions. Then, the search range may be determined based on the result.
[0037]
For example, if the patient is a child and has a smaller body size than an adult, a correction coefficient is calculated in advance based on a standard value of the corresponding age. The calculation formula at this time is as follows.
[0038]
α = ε · hc / (L0−tc) (6)
ε = (L0−ta) / ha (7)
Here, ha, hc and ta, tc are representative values of adults and children corresponding to h0 and t0 in FIG.
[0039]
As described above, according to the second embodiment, the search range can be appropriately set according to the body dimensions of the patient to be imaged.
[0040]
<Embodiment 3>
In the first embodiment, the reference position detection unit 3 detects the symmetry axis of the image, but may use another reference position. For example, the center of gravity may be obtained by binarizing the input image, and the search range may be determined using the center of gravity as a reference position.
[0041]
<Embodiment 4>
In each of the embodiments described above, the input to the image processing apparatus is an image file composed of image data and a header including parameters, but the present invention is not limited to this. For example, data (supplementary information) corresponding to the header may be input as a separate file separately from the image data.
[0042]
As described above, the embodiment has been described in detail. However, the present invention can take an embodiment as, for example, a system, an apparatus, a method, a program, a storage medium, or the like. The system may be applied to a system including a single device or an apparatus including one device.
[0043]
The image processing apparatuses according to the first to third embodiments described above can be realized by an information processing apparatus such as a personal computer. Further, the processing procedure can be regarded as a method invention. In addition, since the present invention can be realized by a computer, the present invention stores a computer program to be executed by each device, and further stores the computer program in a computer-readable storage medium such as a CD-ROM that can be read by a computer. It will be clear that also can be applied.
[0044]
Therefore, the embodiments according to the first to third embodiments are listed as follows. That is, the image processing apparatus, method, and program are as follows.
[0045]
[Embodiment 1] Input means for inputting a medical image and incidental information related to the medical image,
Size determining means for determining the size of the area based on the incidental information,
Reference position determination means for determining a reference position in the medical image,
An image processing apparatus comprising: an area determining unit that determines an area to be processed in the medical image based on the size and the reference position.
[0046]
Second Embodiment The image processing apparatus according to the first embodiment, further comprising a region-of-interest determination unit that determines a region of interest in the medical image by analyzing the processing target region.
[0047]
Third Embodiment The image processing apparatus according to the second embodiment, further comprising an output unit that outputs position information indicating a position of the region of interest.
[0048]
[Embodiment 4] The image processing apparatus according to Embodiment 1, wherein the supplementary information includes information on a pixel pitch of a detector in the radiation imaging apparatus that has generated the medical image.
[0049]
[Fifth Embodiment] The image processing apparatus according to the first embodiment, wherein the supplementary information includes information on an imaging distance in radiation imaging in which the medical image is generated.
[0050]
[Sixth Embodiment] The image processing apparatus according to the first embodiment, wherein the supplementary information includes information correlated with the size of a subject in the medical image.
[0051]
[Seventh Embodiment] The image processing apparatus according to the first embodiment, wherein the reference position is a position of a symmetry axis in a subject region in the medical image.
[0052]
[Eighth Embodiment] The image processing apparatus according to the first embodiment, wherein the reference position is a center of gravity of a subject area in the medical image.
[0053]
[Embodiment 9] An input step of inputting a medical image and incidental information related to the medical image,
Based on the incidental information, a size determination step of determining the size of the area,
A reference position determination step of determining a reference position in the medical image,
An area determining step of determining a processing target area in the medical image based on the size and the reference position.
[0054]
[Embodiment 10] A program code of an input step of inputting a medical image and incidental information related to the medical image,
A program code for a size determination step of determining the size of the area based on the incidental information;
Program code of a reference position determination step of determining a reference position in the medical image,
An image processing program comprising: an area determining step of determining a processing target area in the medical image based on the size and the reference position.
[0055]
According to the present invention, a software program (for example, a program corresponding to the illustrated flowchart) for realizing the functions of the above-described embodiments is directly or remotely supplied to a system or an apparatus. It is also achieved by reading and executing the supplied program code.
[0056]
Therefore, the program code itself installed in the computer to implement the processing of the present invention by the computer also implements the present invention. That is, the present invention includes the computer program itself for realizing the processing of the present invention.
In this case, the program may be in the form of an object code, a program executed by an interpreter, script data supplied to an OS, or the like as long as the program has the function of the program.
[0057]
As a recording medium for supplying the program, for example, a floppy (registered trademark) disk, hard disk, optical disk, magneto-optical disk, MO, CD-ROM, CD-R, CD-RW, magnetic tape, nonvolatile memory card , ROM, DVD (DVD-ROM, DVD-R) and the like.
[0058]
Alternatively, by connecting to a homepage on the Internet using a browser of a client computer, and downloading the computer program itself of the present invention or a compressed file including an automatic installation function from the homepage to a recording medium such as a hard disk, the program is also executed. Can be supplied. The program can also be supplied by dividing the program code constituting the program of the present invention into a plurality of files and downloading each file from a different homepage. In other words, the present invention also includes a WWW server that allows a plurality of users to download a program file for realizing the functional processing of the present invention on a computer.
[0059]
In addition, the program of the present invention is encrypted, stored in a storage medium such as a CD-ROM, distributed to users, and downloaded to a user who satisfies predetermined conditions by downloading key information for decrypting from a homepage via the Internet. The program can also be supplied by executing the encrypted program using the key information and installing the program on a computer.
The functions of the above-described embodiments are implemented when the computer executes the read program, and the OS or the like running on the computer executes a part of the actual processing based on the instructions of the program. Alternatively, the functions of the above-described embodiments can be realized by performing all of them.
[0061]
Further, after the program read from the recording medium is written into the memory provided in the function expansion board inserted into the computer or the function expansion unit connected to the computer, the function expansion board or the The functions of the above-described embodiments can also be realized when a CPU or the like provided in the function expansion unit performs part or all of the actual processing.
[0062]
【The invention's effect】
As described above, according to the present invention, it is possible to provide an image processing technique capable of appropriately determining a processing target area in a medical image.
[Brief description of the drawings]
FIG. 1 is a basic configuration diagram of an image processing apparatus according to a first embodiment of the present invention.
FIG. 2 is a schematic flowchart illustrating an operation of the image processing apparatus according to the first embodiment of the present invention.
FIG. 3 is a diagram illustrating an example of an arrangement of windows according to the first embodiment of the present invention.
FIG. 4 is a schematic diagram illustrating an arrangement of a photographing system according to the first embodiment of the present invention.
FIG. 5 is a diagram illustrating an example of an axis of symmetry and a search range of an image according to the first embodiment of the present invention.
FIG. 6 is a diagram illustrating an example of detecting a rib cage according to the first embodiment of the present invention.
[Explanation of symbols]
Reference Signs List 1 Image input unit 2 Geometric parameter extraction unit 3 Reference position detection unit 4 Search range determination unit 5 Analysis unit 6 Output unit

Claims (1)

医療画像と、該医療画像に関する付帯情報とを入力する入力手段と、
前記付帯情報に基づいて、領域のサイズを決定するサイズ決定手段と、
前記医療画像中の基準位置を決定する基準位置決定手段と、
前記サイズ及び前記基準位置に基づいて、前記医療画像中の処理対象領域を決定する領域決定手段と
を備えることを特徴とする画像処理装置。
Medical image, input means for inputting incidental information related to the medical image,
Size determining means for determining the size of the area based on the incidental information,
Reference position determination means for determining a reference position in the medical image,
An image processing apparatus comprising: an area determining unit that determines an area to be processed in the medical image based on the size and the reference position.
JP2003061862A 2003-03-07 2003-03-07 Image processor Withdrawn JP2004267450A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003061862A JP2004267450A (en) 2003-03-07 2003-03-07 Image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003061862A JP2004267450A (en) 2003-03-07 2003-03-07 Image processor

Publications (1)

Publication Number Publication Date
JP2004267450A true JP2004267450A (en) 2004-09-30

Family

ID=33123962

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003061862A Withdrawn JP2004267450A (en) 2003-03-07 2003-03-07 Image processor

Country Status (1)

Country Link
JP (1) JP2004267450A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008521468A (en) * 2004-11-29 2008-06-26 メディックサイト ピーエルシー Digital medical image analysis
WO2020090246A1 (en) * 2018-10-29 2020-05-07 富士フイルム株式会社 Information processing device, information processing method, and program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008521468A (en) * 2004-11-29 2008-06-26 メディックサイト ピーエルシー Digital medical image analysis
WO2020090246A1 (en) * 2018-10-29 2020-05-07 富士フイルム株式会社 Information processing device, information processing method, and program
CN112970043A (en) * 2018-10-29 2021-06-15 富士胶片株式会社 Information processing apparatus, information processing method, and program
JPWO2020090246A1 (en) * 2018-10-29 2021-10-21 富士フイルム株式会社 Information processing equipment, information processing methods, and programs
US11925481B2 (en) 2018-10-29 2024-03-12 Fujifilm Corporation Information processing device, information processing method, and program

Similar Documents

Publication Publication Date Title
JP5026939B2 (en) Image processing apparatus and program thereof
US20040081342A1 (en) Image processing apparatus, image processing method, program, and recording medium
KR102338018B1 (en) Ultrasound diagnosis apparatus for liver steatosis using the key points of ultrasound image and remote medical-diagnosis method using the same
KR102228087B1 (en) Method and apparatus for segmentation of specific cartilage in medical image
JP2008212396A (en) Image processor and its program
US7418122B2 (en) Image processing apparatus and method
US20060008131A1 (en) Image processing method, apparatus and program
US6911988B1 (en) Apparatus, method and memory medium for processing a radiation image
WO2002047553A1 (en) Method of detecting rib cage boundary for digital chest image
US20050169508A1 (en) Processing method, image processing system and computer program
JP2002245453A (en) Image processor, image processing system, image processing method and storage medium
JP4208333B2 (en) Image processing apparatus, image processing system, image processing method, and storage medium
JP5655327B2 (en) Program and information processing apparatus
JP2004267450A (en) Image processor
JP2005198887A (en) Method, apparatus and program for detecting anatomical structure, structure removal picture generation apparatus, and abnormal shadow detector
JP2003299646A (en) Image analyzer
JP2007105196A (en) Image processor, image processing method and its program
JP2006175036A (en) Rib shape estimating apparatus, rib profile estimating method, and its program
KR101726505B1 (en) Apparatus and method for acquiring and processing tongue image
JP7387080B1 (en) People flow measurement system, people flow measurement method, and people flow measurement program
JP4554921B2 (en) Method of operating abnormal shadow detection device, abnormal shadow detection device, and program
JP4502364B2 (en) Image processing apparatus, image processing method, image processing program, and storage medium
JP4411011B2 (en) Image processing apparatus, program, and computer-readable recording medium
JP2000324341A (en) Picture processor, system therefor, its method and storage medium
JP2012232062A (en) Method, program, and apparatus for specifying analyzed region

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20060509