JP2015173923A - Image processing device, image processing method, and program - Google Patents
Image processing device, image processing method, and program Download PDFInfo
- Publication number
- JP2015173923A JP2015173923A JP2014054161A JP2014054161A JP2015173923A JP 2015173923 A JP2015173923 A JP 2015173923A JP 2014054161 A JP2014054161 A JP 2014054161A JP 2014054161 A JP2014054161 A JP 2014054161A JP 2015173923 A JP2015173923 A JP 2015173923A
- Authority
- JP
- Japan
- Prior art keywords
- subject
- image data
- value
- orientation
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims abstract description 82
- 238000003672 processing method Methods 0.000 title claims description 5
- 238000009826 distribution Methods 0.000 claims abstract description 28
- 238000000605 extraction Methods 0.000 claims description 71
- 238000004364 calculation method Methods 0.000 claims description 33
- 230000005855 radiation Effects 0.000 claims description 27
- 238000000034 method Methods 0.000 claims description 23
- 230000008859 change Effects 0.000 claims description 19
- 239000000284 extract Substances 0.000 claims description 12
- 238000010801 machine learning Methods 0.000 claims description 5
- 239000013598 vector Substances 0.000 description 19
- 210000002569 neuron Anatomy 0.000 description 18
- 230000008569 process Effects 0.000 description 16
- 238000003384 imaging method Methods 0.000 description 9
- 238000007781 pre-processing Methods 0.000 description 8
- 230000014509 gene expression Effects 0.000 description 6
- 238000003745 diagnosis Methods 0.000 description 4
- 210000004072 lung Anatomy 0.000 description 4
- 210000001015 abdomen Anatomy 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 210000003484 anatomy Anatomy 0.000 description 2
- 210000000746 body region Anatomy 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000003702 image correction Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 229910052751 metal Inorganic materials 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Abstract
Description
本発明は、撮影された撮影画像中の被検体向きを算出するための処理を行う画像処理装置、その画像処理方法およびプログラムに関するものである。 The present invention relates to an image processing apparatus that performs processing for calculating the orientation of a subject in a captured image, and an image processing method and program thereof.
放射線センサで生成された放射線画像にデジタル画像処理を行う場合、撮影した画像内の被検体向きを含む解剖学的構造を考慮し処理を行う場合がある。また、ユーザからは指定の角度で画像を観察し易い向きに自動で画像回転し表示されることが望まれている。これらデジタル画像処理及び自動画像回転を行うためには、画像内で被検体向きを判別することが必要となる。特許文献1には、胸部の放射線画像を対象とし、椎体の解剖学的特徴から椎体領域を抽出し、椎体の向きを判別する技術が提案されている。 When digital image processing is performed on a radiographic image generated by a radiation sensor, the processing may be performed in consideration of an anatomical structure including a subject direction in the captured image. In addition, it is desired from the user that the image is automatically rotated and displayed in a direction in which the image can be easily observed at a specified angle. In order to perform these digital image processing and automatic image rotation, it is necessary to determine the orientation of the subject in the image. Patent Document 1 proposes a technique for extracting a vertebral body region from an anatomical feature of a vertebral body and discriminating the orientation of the vertebral body for a radiographic image of the chest.
しかし、特許文献1で提案されている方法は、胸部撮影画像中の椎体領域を対象とし、椎体の解剖学的特徴を抽出する技術であり、頭部や四肢等の他の部位や機械的な非破壊検査の対象となる検査対象といったあらゆる被検体に対応しているとはいえない。そのため、特許文献1に記載の発明を様々な被検体に対して適用することは困難である。 However, the method proposed in Patent Document 1 is a technique for extracting an anatomical feature of a vertebral body from a vertebral body region in a chest image, and other parts and machines such as the head and limbs. It cannot be said that it corresponds to every subject such as an inspection object which is a target of a typical nondestructive inspection. Therefore, it is difficult to apply the invention described in Patent Document 1 to various subjects.
そこで、本発明は、撮影画像において被検体に依らず被検体の向きを算出することが可能な画像処理装置の提供を目的とする。 Therefore, an object of the present invention is to provide an image processing apparatus capable of calculating the orientation of a subject in a captured image regardless of the subject.
そこで本発明の画像処理装置は、
被検体の画像データにおける複数の領域毎の画素値の強度分布を複数の領域間で比較した傾向を示す値と、前記傾向を示す値と前記画像データにおける被検体の向きを関連づけるために予め被検体毎に定められた値と、に基づいて前記画像データにおける前記被検体の向きを決定する演算を行う演算手段と、前記演算手段によって演算された演算結果に基づいて、前記画像データに基づいて前記被検体の画像を表示する表示手段に対して前記被検体の画像中の被検体が所定の向きになるように前記被検体の画像を前記表示手段に表示させる処理をする表示処理手段と、を有することを特徴とする。
Therefore, the image processing apparatus of the present invention is
In order to associate a value indicating the tendency of comparing the intensity distribution of pixel values for each of a plurality of regions in the image data of the subject between the plurality of regions, the value indicating the tendency and the orientation of the subject in the image data in advance. Based on the value determined for each sample, a calculation unit that performs a calculation to determine the orientation of the subject in the image data, and based on the calculation result calculated by the calculation unit, based on the image data Display processing means for performing processing for displaying the image of the subject on the display means so that the subject in the image of the subject is in a predetermined orientation with respect to the display means for displaying the image of the subject; It is characterized by having.
本発明は、撮影画像において被検体に依らず被検体の向きを算出することが可能な画像処理装置を提供することができる。 The present invention can provide an image processing apparatus capable of calculating the orientation of a subject in a captured image regardless of the subject.
以下、図面を参照して、本発明における好適な実施の形態を詳しく説明する。まず、図1を参照して本発明の実施の形態にかかる画像処理装置200を説明する。本発明の実施の形態にかかる画像処理装置200は、例えば図1に示すような放射線撮影装置100に適用される。即ち、放射線撮影装置100は、被検体の向きを決定する演算を行う画像処理装置を含む放射線撮影装置である。以下、図面を参照して本実施の形態にかかる画像処理装置200について説明する。放射線撮影装置100は、放射線発生部101と放射線センサ104とを有する。放射線発生部101は、被検体102に向けて放射線103を照射する。放射線センサ104は、被検体102を透過した放射線103を受けて放射線画像データを生成する。すなわち放射線センサ104は、放射線照射された被検体102の撮影画像データを生成する撮影手段として機能する。被検体の撮影画像データは通信手段であるバス115を介して送受信される。なお、本実施の形態では、X線、γ線などの電磁波やα線、β線も放射線に含めるものとして説明する。
Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings. First, an
さらに、放射線撮影装置100は、前処理部105と操作部106と記憶部107と演算部108とを有する。前処理部105は、放射線センサ104が出力する撮影画像データに対し、放射線センサ104の特性を補正する処理を行う。操作部106は、ユーザの操作指示を入力し各部に操作指示を与える。記憶部107は、少なくとも撮影される患者の被検体の情報と、被検体毎に予め定められた値と、を保持する。なお、記憶部107は、画像処理パラメータや画像補正用のデータを更に保持していてもよい。演算部108は、放射線画像データにおける被検体の向きを決定する演算を行う。即ち、演算部108は、被検体の画像データにおける複数の領域毎の画素値の変化量の分布の傾向を示す値と被検体の向きを関連づけるために予め被検体毎に定められた値に基づいて画像データにおける被検体の向きを決定する演算を行う。なお、「画素値」とは、画素の輝度値や濃度値のことである。また、「画素値の変化量」とは、ある注目した画素と1又は複数の隣接画素との画素値である輝度値や濃度値の差分のことである。「画素値の強度分布」とは、画像データにおける画素値の強度の分布を示すものであり、規格化されたデータでもよい。例えば、エッジ強度画像やエッジ強度分布を指す。また、「被検体」とは、検査を受ける対象であり、検査される人や物あるいは動物をことである。例えば人体の部位である胸部・肺野・腹部・四肢・頭部等を示す。また、「予め被検体毎に定められた値」とは、被検体の向きを算出するために被検体の特徴量と向きを関連づけるための値である。本実施の形態において、「予め被検体毎に定められた値」は、後述する、サンプル画像から算出された結合荷重およびバイアス値がその一例である。また、「所定の向き」とは、被検体毎に設定された基準となる被検体の向きであり、本実施の形態においては、予めシステム上設定することや、操作部106から入力しユーザが被検体毎に設定することができる。例えば、胸部正面画像データであれば解剖学的に頭部が撮影画像データの上となる向きが診断に適した基準向きである。一方で四肢などユーザにより診断に適した向きが異なる被検体においては定義が困難である。そのため、ユーザが操作部106により所定の向きを設定することで、個々のユーザの診断等に適した被検体の向きを設定することができる。
Further, the
さらに、放射線撮影装置100は、高画質化部113と表示処理部114と表示部109とを有する。高画質化部113は、撮影画像に対し判別した被検体向きを考慮した高画質化処理を行う。表示処理部114は、演算部108によって演算された演算結果に基づいて、被検体の向きを所定の向きとするための基準となる被検体の向きと一致または類似するように処理する。即ち、表示処理部114は、画像データにおける被検体の向きを、ユーザが予め定めた表示部109における被検体の所定の向きに一致又は類似するように、被検体の向きを変更する。表示部109は、変更された画像データにおける被検体の向きを画像として表示を行う。
Furthermore, the
本実施の形態における画像処理装置200は、少なくとも演算部108と表示処理部114とを有している。また、システム上必要に応じて、画像処理装置200は高画質化部113等の他の構成を含むものであってもよい。
The
演算部108は、前処理部105が出力する撮影画像データから被検体向きを判別するために、第一の特徴量抽出部110と、判別部112と、を有する。演算部108は、更に第二の特徴量抽出部111を有してもよい。本実施の形態における第一の特徴量抽出部110および第二の特徴量抽出部111は、本発明における第一の特徴量抽出手段および第二の特徴量抽出手段に相当する。なお、以下の説明では第一の特徴量抽出部110と第二の特徴量抽出部111と判別部112とを用いた被検体向きの判別を行っているが、本発明はそれに限定されるものではない。本発明では、第一の特徴量抽出部110と判別部112とを用いた被検体向きの判別が行い得る。
The
第一の特徴量抽出部110は、被検体の画像データにおける複数の領域毎の画素値の強度分布を複数の領域間で比較した傾向に基づいた第一の特徴量を抽出する。また、第二の特徴量抽出部111は、撮影画像データ内に複数の方向を設定し、複数の方向毎に算出された画素値の変化量の分布を複数の方向間で比較した傾向に基づいて第二の特徴量を抽出する。第一の特徴量および第二の特徴量については後述する。判別部112は、第一の特徴量と予め被検体毎に定められた値とに基づいて画像データにおける被検体の向きを判別する。判別部112は、第一の特徴量と第二の特徴量と予め被検体毎に定められた値とに基づいて画像データにおける被検体の向きを判別してもよい。判別部112での被検体向きを判別した結果は、予め被検体毎に設定された基準となる被検体の向きを0度とし、D度ずつ回転した向きで定義されるものとする。図2に一例として胸部正面画像データについて頭部が撮影画像データの上となる向きを基準向きと定義した場合の4つの方向を示す。本実施の形態では、判別部112は、D=90度とし、被検体向き判別処理は、撮影画像データが、部位別基準向き(0度)、90度、180度、270度の4方向のいずれかを判別するものとする。本実施の形態における被検体向きは、4方向としたがこれに限られるものではない。
The first feature
次に、図3に示すフローチャートを用いて、放射線撮影装置100により撮影された撮影画像データから被検体の向きを決定して被検体の向きを考慮した高画質化処理と画像回転処理とを行って表示部109に出力する方法を説明する。
Next, using the flowchart shown in FIG. 3, the orientation of the subject is determined from the captured image data captured by the
まず、ステップS201において、演算部108は、前処理部105にて前処理が加えられた撮影画像データを取得し、第一の特徴量抽出部110および第二の特徴量抽出部111に入力する。演算部108は、このステップにて撮影画像データ内の被検体の特徴量の抽出を行う。
First, in step S <b> 201, the
次にステップS202において、演算部108は、第二の特徴量抽出部111及び第一の特徴量抽出部110により抽出された特徴量を判別部112に入力する。判別部112は、第一の特徴量および第二の特徴量と予め被検体毎に定められた値に基づいて撮影画像データ中の被検体の向きを算出する。
Next, in step S <b> 202, the
そして、ステップS203において、演算部108は、判別部112が出力する被検体向き判別結果を高画質化部113に出力する。高画質化部113は、被検体向き判別結果に基づいて高画質化処理を行い、高画質化処理済み画像データを生成する。ここで高画質化処理とは、例えば被検体の関心領域を基準として、画像全体を診断に適した階調に変換する階調処理である。高画質化部113は、高画質化処理において被検体からの所定の関心領域の抽出行う場合がある。例えば、胸部画像の場合、肺野を関心領域として抽出する。被検体向きが算出された画像データに対して高画質化処理を行うことで、高画質化処理部113は、関心領域の抽出精度が向上し、より高画質化された撮影画像データが得られる。
In step S <b> 203, the
ステップS204において、放射線撮影装置100は、判別部112が出力する被検体向き判別結果及び高画質化部113が出力する高画質化処理済み画像データを表示処理部114に入力する。また表示処理部114は、撮影された撮影画像データの被検体とその被検体に対応する基準向きを記憶部107から読み込む。表示処理部114は、画像データにおける被検体の向きが所定の向き(被検体毎の基準向き)と一致又は類似するように、高画質化処理済み画像データに対し、被検体の向きを回転させて、表示用画像として表示させるために表示部109に出力し、処理を終了する。以上の処理により、画像処理装置200は被検体に依らず撮影画像内の被検体の向きを算出し、ユーザ所定の向き(被検体毎の基準向き)と一致させることができる。
In step S <b> 204, the
以降の説明では、撮影画像データの横方向をx軸、縦方向をy軸と定義し、左上端の座標を原点(x,y)=(1,1)で表し、撮影画像データIの座標(x,y)における画素値をI(x,y)で表す。さらに撮影画像データの横サイズをW、縦サイズをHとする。つまり撮影画像データの右下端の座標は(x,y)=(W,H)であり、xは1以上W以下の範囲を、yは1以上H以下の範囲で示される。 In the following description, the horizontal direction of the captured image data is defined as the x-axis and the vertical direction is defined as the y-axis, the coordinates of the upper left corner are represented by the origin (x, y) = (1, 1), and the coordinates of the captured image data I The pixel value at (x, y) is represented by I (x, y). Further, the horizontal size of the captured image data is W and the vertical size is H. That is, the coordinates of the lower right corner of the captured image data are (x, y) = (W, H), where x is in the range of 1 to W and y is in the range of 1 to H.
(第一の特徴量)
第一の特徴量抽出部110によって抽出される第一の特徴量は、被検体の撮影画像データ内に複数の領域を設定し、設定した複数の領域から別々に抽出したエッジ画素に基づいて定められた特徴量である。第一の特徴量はこの定義に沿ったものであれば様々なものが適用可能であるが、本実施の形態では以下のように特徴量を算出する。
(First feature)
The first feature quantity extracted by the first feature
図4(a)のフローチャートを用いて第一の特徴量抽出部110が行う第一の特徴量の抽出について詳細に説明する。図4(a)のステップS301からS303までの工程は、図3で説明したステップS201内の特徴量抽出処理内の工程である。ステップS301として、第一の特徴量抽出部110は、撮影画像データ内の複数の領域毎の変化量を算出する。本実施の形態では、撮影画像データ内の画素値の変化量の分布をエッジ強度画像データEmとして示す。ここで、エッジ画素とは撮影画像データ内で画素値の変化量が所定値以上になる画素とする。エッジ強度画像データはエッジ画素の強度の分布を示す画像データである。
The first feature amount extraction performed by the first feature
まず、第一の特徴量抽出部110は、撮影画像データIのエッジ強度画像データEmを、上述したx軸方向及びy軸方向のエッジ画像データEx、Eyを用いて次式により算出する。
First, the first feature
ここでは例として、撮影画像データIが胸部正面画像データである場合に、第一の特徴量抽出部110は、x方向エッジ画像データExとy方向エッジ画像データEyから算出されたエッジ強度画像データEmを図5に示す。
Here, as an example, when the captured image data I is chest front image data, the first feature
さらに、第一の特徴量抽出部110は、このエッジ強度画像データEm内にrnum個の複数の領域を設定した場合のエッジ画像データをERn(n=1,2,...,rnum)として算出する。エッジ画像データERnは、設定された領域内の画素値をエッジ強度画像データEmの画素値、それ以外の画素値をゼロで表した画像データとしている。ここでは、第一の特徴量抽出部110は、エッジ強度画像データEmの上半分、下半分、左半分、右半分の4領域を設定し、エッジ画像データER1、ER2、ER3、ER4をそれぞれ次式に基づいて算出する。
Further, the first feature
ここでは例として、第一の特徴量抽出部110が、撮影画像データIが胸部正面画像データである場合のエッジ強度画像データEmから取得した領域エッジ画像データER1〜ER4を図6に示す。
Here, as an example, FIG. 6 shows region edge image data ER1 to ER4 acquired by the first feature
続いて、ステップS302として、第一の特徴量抽出部110は、設定した複数の領域から、統計量を抽出する。ここで用いる統計量は、撮影画像データにおける画素値の平均値や分散値、あるいは所定の閾値を定めた場合の閾値以上の画素値を持つ画素数といったものを用いる。本実施の形態では、第一の特徴量抽出部110は、上述のエッジ強度画像データEmに上半分、下半分、左半分、右半分の4領域から、統計量として平均値をeu、eb、el、erを算出する。
Subsequently, in step S302, the first feature
そして、ステップS303として、第一の特徴量抽出部110は、算出したeu、eb、el、erを用いて、複数の領域毎の統計量毎の関係を表す特徴量を第一の特徴量として算出する。具体的には第一の特徴量抽出部110は、次式にて示すeuとebの関係に基づくeubと、elとerの関係に基づくelrとを、第一の特徴量として算出する。
In step S303, the first feature
以上で算出したeubとelrは、撮影画像データに設定した領域ごとの変化量の分布の傾向(エッジ密集度)を表す第一の特徴量である。例えば式10のeubは、撮影画像データにおいて、上半分に下半分よりエッジが密集していれば1、下半分に上半分よりエッジが密集していれば0に近い値をとる特徴量である。同様に、式11のelrは、撮影画像データにおいて、左半分に右半分よりエッジが密集していれば1、右半分に左半分よりエッジが密集していれば0に近い値をとる特徴量である。 The eub and elr calculated as described above are the first feature amounts that represent the distribution distribution trend (edge density) for each region set in the captured image data. For example, eub in Expression 10 is a feature value that takes a value close to 0 in the captured image data if the edge is denser in the upper half than the lower half, and close to 0 if the edge is denser in the lower half than the upper half. . Similarly, elr in Expression 11 is a feature value that takes a value close to 0 in the captured image data when the edge is denser in the left half than the right half, and close to 0 if the edge is denser in the right half than the left half. It is.
このように、演算部108は、複数の領域から別々に抽出した第一の特徴量は、被検体の解剖学的情報を用いることなく撮影画像データの被検体向きを表す特徴の一つとして用いることができる。なお、本実施の形態においては、胸部の撮影画像データについて説明をしたが、肺野・腹部・四肢・頭部においても、複数の領域毎に画素値の変化量の分布の傾向は異なるため、被検体の向きを算出するための特徴量として用いることができる。
As described above, the
次に、第一の特徴量抽出部110が第一の特徴量の抽出の前に行う前処理について説明する。第一の特徴量抽出部110は、第一の特徴量抽出の前処理として、被検体の撮影画像データを特徴量抽出に適した所定の画像データ量に縮小した縮小画像データ処理をしてもよい。このため、第一の特徴量抽出部110は、特徴量抽出処理の高速化を図ることができる。更に、縮小画像データを用いることで、特徴量抽出に不要な画像データ内のノイズの影響を除去できる。
Next, preprocessing performed by the first feature
また、被検体の撮影画像データ内の画素値は放射線照射線量や被検体構造によって様々な分布を持つ。そのため、第一の特徴量抽出部110は、前処理として、放射線照射線量や被検体構造によって異なる撮影画像データ間で様々な分布を持つ画素値範囲の正規化処理を行っても良い。例えば、第一の特徴量抽出部110は、正規化処理により画素値の範囲を0から1の範囲に割り当てることができる。このため、第一の特徴量抽出部110は、特徴量の抽出の精度を向上することができる。
The pixel values in the captured image data of the subject have various distributions depending on the radiation irradiation dose and the subject structure. Therefore, the first feature
更に、第一の特徴量抽出部110は、被検体の撮影画像データから被検体の向きの判別に不要な領域を取り除いた撮影画像データに基づいて処理することもできる。例えば、放射線撮影画像データの場合、第一の特徴量抽出部110は、放射線の照射がされていない照射野外の領域、被検体を放射線が透過していない素抜け領域、金属が検出された領域などを取り除く領域除去処理を行いことができる。上記処理により、画像処理装置200は、被検体の特徴量に関係のない部分を取り除いた領域で第一の特徴量の抽出を行えるため、被検体向きの算出精度を向上することができる。
Furthermore, the first feature
第一の特徴量抽出部110は、特徴量抽出処理や表示処理の方法、演算精度、処理速度などのパフォーマンス、対象とする被検体等により、これらの前処理の実行または非実行を切り替えられるようにすることが好適である。
The first feature
なお、本実施の形態では複数の領域毎の画素値の変化量の分布の傾向を第一の特徴量として用いた。ただし、第一の特徴量として、複数の領域のエッジ統計量の2つ以上の組み合わせを用いてもよい。このことにより特徴量の抽出の精度を向上することができる。 In the present embodiment, the distribution tendency of the change amount of the pixel value for each of the plurality of regions is used as the first feature amount. However, a combination of two or more edge statistics of a plurality of regions may be used as the first feature amount. As a result, the accuracy of feature quantity extraction can be improved.
(第二の特徴量)
図4(b)のフローチャートを用いて、第二の特徴量抽出部111を用いた場合に第二の特徴量抽出部111が行う第二の特徴量の抽出について詳細に説明する。図4(b)のステップS401からS403までの工程は、図3で説明したステップS201内の特徴量抽出処理での工程である。なお、図4(b)のフローチャートは、図4(a)のフローチャートと並列に処理されてもよく、また図4(a)のフローチャートの前に処理されてもよい。
(Second feature)
The second feature quantity extraction performed by the second feature
第二の特徴量は、撮影画像データ内に複数の方向を設定し、設定した複数の方向から別々に抽出した複数の方向のエッジ画素の分布に基づいて定められた特徴量である。 The second feature amount is a feature amount determined based on the distribution of edge pixels in a plurality of directions that are set in a plurality of directions in the captured image data and extracted separately from the set directions.
第二の特徴量を被検体の向きの算出に用いることで、被検体の向きの算出が困難な部位であっても、第一の特徴量と組み合わせることで精度が向上する。具体的には、第一の特徴量として抽出が困難な、上下対称、左右対称の被検体を判別する際に効果が大きい。 By using the second feature amount for calculating the orientation of the subject, the accuracy is improved by combining it with the first feature amount even in a region where it is difficult to calculate the orientation of the subject. Specifically, the effect is large when discriminating vertically and horizontally symmetric subjects that are difficult to extract as the first feature amount.
本実施の形態では、第二の特徴量抽出部111は、撮影画像データ内にあるエッジ画素の分布をエッジ画像データとして抽出している。本実施の形態では、第二の特徴量はこの定義に沿ったものであれば様々なものが適用可能である。
In the present embodiment, the second feature
まずステップS401として、撮影画像データ内の複数の方向毎の変化量を算出する。 First, in step S401, a change amount for each of a plurality of directions in the captured image data is calculated.
まず、撮影画像データをIとしたとき、ある方向を示す単位ベクトル(nx,ny)に直交するエッジを抽出した方向エッジ画像データEdは、次式で表すことができる。 First, when the captured image data is I, direction edge image data Ed obtained by extracting an edge orthogonal to a unit vector (nx, ny) indicating a certain direction can be expressed by the following equation.
ここで、本実施の形態では、複数の方向をx軸(横方向)とy軸(縦方向)の二つと定義する。第二の特徴量抽出部111は、撮影画像データからx軸方向のエッジとy軸方向のエッジ画素を表す方向エッジ画像データExとEyを次式により算出する。
Here, in this embodiment, a plurality of directions are defined as two of an x axis (horizontal direction) and a y axis (vertical direction). The second feature
式1および式2は単位ベクトル(nx,ny)を(0,1)、(1,0)にした場合の例を示している。ここでは例として、撮影画像データIが胸部正面画像データである場合のx方向エッジ画像データExとy方向エッジ画像データEyを図7に示す。第二の特徴量抽出部111は、x方向エッジ画像データEx、y方向エッジ画像データEyは濃淡画像データである撮影画像データからそれぞれ横方向、縦方向のエッジ画素が抽出される。
Expressions 1 and 2 show examples when the unit vectors (nx, ny) are (0, 1) and (1, 0). Here, as an example, FIG. 7 shows x-direction edge image data Ex and y-direction edge image data Ey in the case where the captured image data I is chest front image data. The second feature
ステップS402として、第二の特徴量抽出部111は、撮影画像データ内の複数の方向毎のエッジ画像データ毎に、統計量を算出し、この統計量を第二の特徴量として抽出することができる。第二の特徴量抽出部111が抽出する統計量は、例えば、それぞれのエッジ画像データ内の画素値の平均値や分散値、あるいはエッジ画素の数(エッジ画素の割合)といった、エッジ画素の方向毎の傾向を示す方向エッジ統計量を抽出する。ここでは、上述のx軸方向のエッジとy軸方向のエッジを表すx方向エッジ画像データExとy方向エッジ画像データEyから、統計量として平均値を算出してex、eyとする。
As step S402, the second feature
次に、ステップS403として、第二の特徴量抽出部111は、算出した方向エッジ統計量ex、eyを用いて、複数の方向エッジ統計量の毎の関係を表す特徴を第二の特徴量として算出する。そして、第二の特徴量抽出部111は、具体的に次式にて示すedを第二の特徴量として算出する。
Next, as step S403, the second feature
なお、上述で算出したedは、撮影画像データから抽出した複数の方向エッジ統計量のうち、支配的な方向を表す特徴量である。例えば式17は、撮影画像データ内でy軸方向の方向エッジ統計量がx軸方向の方向エッジ統計量よりも支配的であれば1に、x軸方向の方向エッジ統計量がy軸方向の方向エッジ統計量より支配的であれば0に近い値をとるものである。被検体である人体の部位は、方向毎にエッジの量が異なるため、被検体に依らず特徴量を抽出することができる。なお、本実施の形態においては、胸部の撮影画像データについて説明をしたが、肺野・腹部・四肢・頭部においても、方向毎にエッジの量は異なるため、被検体の向きを算出するための特徴量として用いることができる。 Note that ed calculated above is a feature amount representing a dominant direction among a plurality of direction edge statistics extracted from the captured image data. For example, Expression 17 is 1 if the direction edge statistic in the y-axis direction is more dominant than the direction edge statistic in the x-axis direction in the captured image data, and the direction edge statistic in the x-axis direction is 1 in the y-axis direction. If it is more dominant than the direction edge statistics, it takes a value close to 0. Since the amount of the edge of each part of the human body that is the subject differs depending on the direction, the feature amount can be extracted regardless of the subject. In the present embodiment, the imaged image data of the chest has been described. However, in the lung field, abdomen, limbs, and head, the amount of edge varies depending on the direction, so that the orientation of the subject is calculated. It can be used as a feature amount.
このように、第二の特徴量抽出部111により、複数の方向から別々に抽出した複数の方向の画素値の変化量に基づいて定められる第二の特徴量は、被検体の解剖学的構造を用いることなく撮影画像データの被検体向きの算出に利用することができる。
As described above, the second feature amount determined based on the change amount of the pixel value in the plurality of directions separately extracted from the plurality of directions by the second feature
なお、本実施の形態では、第二の特徴量抽出部111は、上述のように第二の特徴量を抽出するものとしたが、これに限定されるものではない。例えば、ex、eyを平均値でなく、次式のように所定の閾値T以上の画素値となる画素の割合とし、この値に基づきedを算出しても良い。さらに複数方向のエッジ画像データ毎に複数の方向エッジ統計量を算出して、算出した統計量毎の関係に応じて、第二の特徴量の1つとして用いることもできる。
In the present embodiment, the second feature
ここで第二の特徴量抽出部111は、上式では画像データサイズが異なる撮影画像データの影響を減らすため、撮影画像データ全体の画素数H×Wによって除算を行っている。
Here, the second feature
なお、本実施の形態では方向エッジ関係量を第二の特徴量として用いた。ただし、第二の特徴量として、上述の複数の統計量の二つ以上の組み合わせを用いてもよい。 In this embodiment, the direction edge relation amount is used as the second feature amount. However, as the second feature amount, a combination of two or more of the plurality of statistics described above may be used.
また本実施の形態では、複数の方向を縦方向と横方向としているが、さらに第二の特徴量抽出する方向を増やし、統計量として用いてもよい。演算部108は、第二の特徴量を抽出する方向を増やすことで、後述する判別手段において判別が困難な被検体における判別精度を向上することができる。
In this embodiment, the plurality of directions are the vertical direction and the horizontal direction. However, the direction in which the second feature amount is extracted may be further increased and used as a statistic. The
また、第二の特徴量抽出部111は、撮影画像データに対して上述した第一の特徴量抽出部110で行ったものと同様の前処理を行うことができる。このことにより、第二の特徴量抽出部111は、前処理を行った撮影画像データから第二の特徴量の抽出を行うことができ、同様の効果が得られる。
Further, the second feature
(被検体向き判別処理)
特徴量を入力として被検体向き判別結果を出力する判別部112には様々な方法が適用できる。本実施の形態では判別部112は入力層、中間層、出力層からなる3層フィードフォワードニューラルネット(以下、FFNN)により被検体の向きを判別し判別結果を出力する。FFNNを用いることで、上述した特徴量と被検体の向きとの関連を被検体毎に定められた値(結合荷重、バイアス値)を設定することで関連づけることができる。
(Subject orientation discrimination processing)
Various methods can be applied to the discriminating
判別部112の3層FFNNは、Nin個のニューロンで構成される入力層、パラメータで与えられるNmid個のニューロンで構成される中間層、判別するクラスの数に対応するNout個のニューロンで構成される出力層を持つ。そして、入力層と中間層、中間層と出力層の各ニューロンはそれぞれが結合加重で結ばれており、さらに中間層と出力層はバイアス値が加えられる。この結合加重及びバイアス値が3層FFNNの判別パラメータである。判別部112は、適切に設定された値を記憶部107から読み込んで設定することで入力層に与えられる特徴量を出力層の示す値によって分類することが可能になる。
The three-layer FFNN of the discriminating
入力層に属するNin個のニューロンを、i番目のニューロンの値をxiで示すNin次元ベクトルx=(x1,x2,...,xNin)で表す。このベクトルxは判別に用いる特徴量に対応する。従って本被検体判別処理においては、ステップS201で抽出した第一の特徴量及び第二の特徴量を要素として持つベクトルを作成し、ベクトルxの値とする。本実施の形態では、第一の特徴量としてeub、elr、第二の特徴量としてedの3つを用い、Nin=3、x1=ed、x2=eub、x3=elrとなる3次元ベクトルxが入力層のニューロンとなる。 Nin neurons belonging to the input layer are represented by a Nin-dimensional vector x = (x 1 , x 2 ,..., X Nin ) indicating the value of the i-th neuron as x i . This vector x corresponds to a feature amount used for discrimination. Accordingly, in the subject discrimination process, a vector having the first feature value and the second feature value extracted in step S201 as elements is created and used as the value of the vector x. In the present embodiment, three of eub and elr are used as the first feature quantity, and ed is used as the second feature quantity, and Nin = 3, x 1 = ed, x 2 = eub, and x 3 = elr 3 The dimension vector x becomes a neuron of the input layer.
中間層に属するNmid個のニューロンを、i番目のニューロンの値をaiで示すNmid次元ベクトルa=(a1,a2,...,aNmid)で表す。このベクトルaは入力層に与えられた特徴量から計算される。ここでベクトルaのj番目の要素ajは、入力層のニューロンを表すNin次元ベクトルxを用いて、次式で表される。 Nmid neurons belonging to the intermediate layer are represented by an Nmid dimension vector a = (a 1 , a 2 ,..., A Nmid ) indicating the value of the i-th neuron as a i . This vector a is calculated from the feature value given to the input layer. Here, the j-th element a j of the vector a is expressed by the following equation using the Nin-dimensional vector x representing the neurons of the input layer.
さらに、出力層に属するNout個のニューロンを、Nout次元ベクトルo=(o1,o2,...,oNout)で表す。このベクトルoは中間層で求められた値から計算される。ここで、ベクトルoのj番目の要素ojは、中間層のニューロンを表すNmid次元ベクトルaを用いて次式で表される。 Further, Nout neurons belonging to the output layer are represented by Nout dimensional vector o = (o 1 , o 2 ,..., O Nout ). This vector o is calculated from the value obtained in the intermediate layer. Here, the j-th element o j of the vector o is expressed by the following equation using the Nmid-dimensional vector a representing the intermediate layer neuron.
判別するクラスの数Noutは、ここでは判別する被検体の向きの数に対応し、Nout次元ベクトルoの各要素は、撮影画像データがどの被検体向きであるかを示す評価値である。本実施の形態では、判別する向きをNout=4つとし、o1、o2、o3、o4をそれぞれ被検体向き0度、90度、180度、270度に対応する評価値として設定する。望ましい被検体の向きの判別が行われた場合、ベクトルoの要素は一つだけが1に近い値をとり、他の要素はゼロに近い値をとる。従って、判別部112は、3層FFNNでは、ベクトルo各要素の内最大の値をとる要素に対応する被検体向きを被検体向き判別結果として出力することで被検体向き判別処理が達成される。
The number Nout of classes to be identified here corresponds to the number of orientations of the object to be identified here, and each element of the Nout dimension vector o is an evaluation value indicating which object direction the captured image data is. In this embodiment, Nout = 4 discrimination directions are set, and o 1 , o 2 , o 3 , and o 4 are set as evaluation values corresponding to the subject orientations of 0 degree, 90 degrees, 180 degrees, and 270 degrees, respectively. To do. When the desired orientation of the subject is determined, only one element of the vector o takes a value close to 1, and the other elements take values close to zero. Accordingly, in the three-layer FFNN, the
式20において、w{1} jiは入力層のニューロンiと中間層のニューロンjを結ぶ結合荷重、b{1} jは中間層のニューロンjに加えられるバイアス値である。また、式21において、w{2} jiは中間層のニューロンiと出力層のニューロンjを結ぶ結合荷重、b{2} jは出力層のニューロンjに加えられるバイアス値である。これらは後述する機械学習により予め適切な値に調整された被検体毎に定められた判別パラメータである。 In Expression 20, w {1} ji is a connection load connecting the neuron i in the input layer and the neuron j in the intermediate layer, and b {1} j is a bias value applied to the neuron j in the intermediate layer. In Expression 21, w {2} ji is a connection load connecting the neuron i in the intermediate layer and the neuron j in the output layer, and b {2} j is a bias value applied to the neuron j in the output layer. These are discrimination parameters determined for each subject that have been adjusted to appropriate values in advance by machine learning described later.
判別部112は、被検体判別処理において正しい判別を行うために、予め判別パラメータが適切な値に設定されている必要がある。上述した3層FFNNでは、結合荷重w{1}、w{2}、バイアス値b{1}、b{2}が適切な判別結果を生成するための判別パラメータであり、機械学習により適切な値に調整される。本実施の形態では機械学習の一つである教師あり学習を用いる。
The
教師あり学習は、被検体毎の多数のサンプル画像データと、各サンプル画像データの正しい判別結果を教師データとして準備し、サンプル画像データを判別部112に与えた結果が教師データと一致するように判別パラメータを調整する学習である。教師あり学習は被検体別に行い、被検体ごとの判別パラメータを生成して記憶部107に予め記憶されるものとする。
In supervised learning, a large number of sample image data for each subject and a correct discrimination result of each sample image data are prepared as teacher data, and the result of giving the sample image data to the
3層FFNNでは、教師データは出力層と同じNout次元のベクトルであり、期待される被検体向きに対応する要素の値を1、それ以外の要素の値を0として与える。そして、サンプル画像データから特徴量を生成して3層FFNNの入力層に与え、生成される出力層の値が教師データと等しくなるように判別パラメータw{1}、w{2}、b{1}、b{2}を調整する。この調整は判別パラメータが正確に定まるものであればよい。例えば誤差逆伝搬法が用いられる。 In the three-layer FFNN, the teacher data is the same Nout-dimensional vector as that of the output layer, and the value of the element corresponding to the expected subject direction is 1 and the value of the other elements is 0. Then, a feature amount is generated from the sample image data and given to the input layer of the three-layer FFNN, and the discrimination parameters w {1} , w {2} , b { are set so that the generated output layer value is equal to the teacher data. 1} and b {2} are adjusted. This adjustment may be performed as long as the discrimination parameter is accurately determined. For example, an error back propagation method is used.
以上の説明では、被検体向き判別処理を3層FFNNを用いて教師あり機械学習により生成した判別パラメータを用いて行う場合を説明したが、その他の判別手段を用いることも可能である。 In the above description, the case in which the object orientation determination process is performed using the determination parameter generated by supervised machine learning using the three-layer FFNN is described, but other determination means may be used.
例えば、本実施の形態で述べた3層FFNNの中間層を多数にすれば、機械学習の過程において複数の特徴量を組み合わせ方も学習することが可能となる。この場合、例えば方向エッジ画像データそのものを第二の特徴量として用いても被検体向き判別処理が可能となる。 For example, if the number of intermediate layers of the three-layer FFNN described in the present embodiment is increased, it is possible to learn how to combine a plurality of feature amounts in the machine learning process. In this case, for example, the object orientation determination process can be performed even if the direction edge image data itself is used as the second feature amount.
(情報処理装置について)
また、本発明は、前述した実施の形態の機能を実現するソフトウェアのプログラム(実施の形態では図に示すフローチャートに対応したプログラム)を、システムあるいは装置に直接あるいは遠隔から供給し、そのシステムあるいは装置のコンピュータが該供給されたプログラムコードを読み出して実行することによっても達成される場合を含む。
(About information processing equipment)
In addition, the present invention supplies a software program (in the embodiment, a program corresponding to the flowchart shown in the drawing) to the system or apparatus directly or remotely, and the system or apparatus implements the functions of the above-described embodiments. The computer can read out and execute the supplied program code.
従って、本発明の機能処理をコンピュータで実現するために、該コンピュータにインストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明は、本発明の機能処理を実現するためのコンピュータプログラム自体も含まれる。 Accordingly, since the functions of the present invention are implemented by computer, the program code installed in the computer also implements the present invention. In other words, the present invention includes a computer program itself for realizing the functional processing of the present invention.
以上、本発明の好ましい実施の形態について説明したが、本発明はこれらの実施の形態に限定されないことはいうまでもなく、その要旨の範囲内で種々の変形及び変更が可能である。 As mentioned above, although preferable embodiment of this invention was described, it cannot be overemphasized that this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.
108 演算部(演算手段に対応)
109 表示部(表示手段に対応)
114 表示処理部(表示処理手段に対応)
200 画像処理装置
108 Calculation unit (corresponding to calculation means)
109 Display (corresponding to display means)
114 Display processing unit (corresponding to display processing means)
200 Image processing apparatus
Claims (20)
前記演算手段によって演算された演算結果に基づいて、前記画像データに基づいて前記被検体の画像を表示する表示手段に対して前記被検体の画像中の被検体が所定の向きになるように前記被検体の画像を前記表示手段に表示させる処理をする表示処理手段と、
を有することを特徴とする画像処理装置。 In order to associate a value indicating the tendency of comparing the intensity distribution of pixel values for each of a plurality of regions in the image data of the subject between the plurality of regions, the value indicating the tendency and the orientation of the subject in the image data in advance. A calculation means for performing a calculation for determining a direction of the subject in the image data based on a value determined for each sample;
Based on the calculation result calculated by the calculation means, the subject in the subject image is in a predetermined orientation with respect to the display means for displaying the subject image based on the image data. Display processing means for processing to display an image of the subject on the display means;
An image processing apparatus comprising:
前記複数の領域毎に算出された画素値の強度分布を複数の領域間で比較した傾向に基づいて第一の特徴量を抽出する第一の特徴量抽出手段を有し、前記第一の特徴量に基づいて前記画像データにおける被検体の向きを決定することを特徴とすることを特徴とする請求項1又は2に記載の画像処理装置。 The computing means is
A first feature amount extraction unit configured to extract a first feature amount based on a tendency of comparing intensity distributions of pixel values calculated for each of the plurality of regions between the plurality of regions; The image processing apparatus according to claim 1, wherein the orientation of the subject in the image data is determined based on the amount.
前記第一の特徴量は、前記複数の領域毎の統計量の関係に応じた値を含むことを特徴とする請求項3に記載の画像処理装置。 The first feature amount extraction unit extracts a statistic for each of the plurality of regions,
The image processing apparatus according to claim 3, wherein the first feature amount includes a value corresponding to a statistical amount relationship for each of the plurality of regions.
前記第一の特徴量は、前記統計量を含むことを特徴とする請求項3叉は4に記載の画像処理装置。 The first feature amount extraction unit extracts a statistic for each of the plurality of regions,
The image processing apparatus according to claim 3, wherein the first feature amount includes the statistical amount.
前記撮影画像における複数の方向毎に算出された画素値の変化量の分布を複数の方向間で比較した傾向に基づいて第二の特徴量を抽出する第二の特徴量抽出手段を更に有し、
前記第二の特徴量に更に基づいて前記画像データにおける被検体の向きを決定することを特徴とする請求項1から6のいずれか1項に記載の画像処理装置。 The computing means is
The image processing apparatus further includes second feature amount extraction means for extracting a second feature amount based on a tendency of comparing distributions of change amounts of pixel values calculated for a plurality of directions in the captured image between a plurality of directions. ,
The image processing apparatus according to claim 1, wherein an orientation of the subject in the image data is determined further based on the second feature amount.
前記画素値の変化量が所定値以上であるエッジ画素の分布から前記複数の方向毎の統計量を算出して、前記複数の方向毎の統計量の関係を第二の特徴量とすることを特徴とする請求項7に記載の画像処理装置。 The second feature amount extraction means includes
Calculating a statistic for each of the plurality of directions from a distribution of edge pixels in which the change amount of the pixel value is equal to or greater than a predetermined value, and setting the relationship between the statistics for the plurality of directions as a second feature quantity The image processing apparatus according to claim 7, wherein the apparatus is an image processing apparatus.
前記画素値の変化量が所定値以上であるエッジ画素の分布から前記複数の方向毎の統計量を算出して、前記統計量を第二の特徴量とすることを特徴とする請求項7叉は8に記載の画像処理装置。 The second feature amount extraction means includes
8. The method according to claim 7, further comprising: calculating a statistic for each of the plurality of directions from a distribution of edge pixels having a change amount of the pixel value equal to or greater than a predetermined value, and setting the statistic as a second feature quantity. 8. The image processing apparatus according to 8.
機械学習により予め被検体毎に定められた値に基づいて被検体の向きを演算することを特徴とする請求項1から11のいずれか1項に記載の画像処理装置。 The computing means is
The image processing apparatus according to claim 1, wherein the orientation of the subject is calculated based on a value predetermined for each subject by machine learning.
前記所定の向きとするための基準となる被検体の向きと前記予め被検体毎に定められた値とが対応づけられており、前記傾向を示す値と前記予め被検体毎に定められた値とに基づいて前記画像データにおける被検体の向きを判別する判別手段を有することを特徴とする請求項1から12のいずれか1項に記載の画像処理装置。 The computing means is
The orientation of the subject serving as a reference for setting the predetermined orientation is associated with the value predetermined for each subject, and the value indicating the tendency and the value predetermined for each subject The image processing apparatus according to claim 1, further comprising: a determination unit configured to determine a direction of the subject in the image data based on
前記演算手段は、前記傾向を示す値と前記記憶部から取得した前記予め被検体毎に定められた値とに基づいて前記画像データにおける被検体の向きを決定する演算を行うことを特徴とする請求項1から13のいずれか1項に記載の画像処理装置。 A storage unit is further provided for storing a value determined for each subject and information on the subject including a value predetermined for each subject that is associated with the reference orientation of the subject. And
The calculation means performs a calculation for determining the orientation of the subject in the image data based on a value indicating the tendency and a value predetermined for each subject acquired from the storage unit. The image processing apparatus according to claim 1.
前記画素値の変化量の分布の傾向が示す値に基づいて前記画像データにおける被検体の向きを判別する判別手段と、
を有することを特徴とする画像処理装置。 Feature amount extraction means for extracting a value indicated by a distribution of change amounts of pixel values for a plurality of regions in the image data of the subject;
A discriminating means for discriminating a direction of the subject in the image data based on a value indicated by a tendency of the distribution of the change amount of the pixel value;
An image processing apparatus comprising:
であることを特徴とする請求項1から17のいずれか1項に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the image data of the subject is image data based on a captured image of the subject irradiated with radiation.
前記演算工程によって演算された演算結果に基づいて、前記画像データに基づいて前記被検体の画像を表示する表示手段に対して所定の向きになるように前記被検体の画像を前記表示手段に表示させる処理をする表示処理工程と、
を備えることを特徴とする画像処理方法。 A value indicating a tendency of distribution of pixel value variation for each of a plurality of regions in the image data of the subject, a value predetermined for each subject in order to associate the value indicating the tendency and the orientation of the subject, A calculation step of performing a calculation for determining the orientation of the subject in the image data based on
Based on the calculation result calculated by the calculation step, the image of the subject is displayed on the display means so as to be in a predetermined orientation with respect to the display means for displaying the image of the subject based on the image data. A display processing step for performing processing;
An image processing method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014054161A JP6425396B2 (en) | 2014-03-17 | 2014-03-17 | Image processing apparatus, image processing method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014054161A JP6425396B2 (en) | 2014-03-17 | 2014-03-17 | Image processing apparatus, image processing method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015173923A true JP2015173923A (en) | 2015-10-05 |
JP6425396B2 JP6425396B2 (en) | 2018-11-21 |
Family
ID=54253677
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014054161A Active JP6425396B2 (en) | 2014-03-17 | 2014-03-17 | Image processing apparatus, image processing method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6425396B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018011958A (en) * | 2016-07-21 | 2018-01-25 | 東芝メディカルシステムズ株式会社 | Medical image processing apparatus and medical image processing program |
DE112016004021T5 (en) | 2015-09-03 | 2018-05-17 | Denso Corporation | Suction filter and fuel supply device |
WO2019208006A1 (en) * | 2018-04-26 | 2019-10-31 | 株式会社島津製作所 | Radiation imaging device |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11847730B2 (en) * | 2020-01-24 | 2023-12-19 | Covidien Lp | Orientation detection in fluoroscopic images |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5862249A (en) * | 1995-12-01 | 1999-01-19 | Eastman Kodak Company | Automated method and system for determination of positional orientation of digital radiographic images |
JP2001070290A (en) * | 1999-08-31 | 2001-03-21 | Konica Corp | Method and device for processing image |
JP2001351092A (en) * | 2000-04-04 | 2001-12-21 | Konica Corp | Image processing selecting method, image selecting method, and image processor |
US20060110021A1 (en) * | 2004-11-23 | 2006-05-25 | Hui Luo | Method for recognizing projection views of radiographs |
US20060110068A1 (en) * | 2004-11-19 | 2006-05-25 | Hui Luo | Detection and correction method for radiograph orientation |
JP2008011901A (en) * | 2006-07-03 | 2008-01-24 | Fujifilm Corp | Image type discrimination device, method and program |
JP2008520385A (en) * | 2004-11-23 | 2008-06-19 | イーストマン コダック カンパニー | How to classify radiographs |
US20090220174A1 (en) * | 2008-02-29 | 2009-09-03 | Fujifilm Corporation | Chest image rotation apparatus, method and recording-medium stored therein program |
JP2010246705A (en) * | 2009-04-15 | 2010-11-04 | Konica Minolta Medical & Graphic Inc | Image processor, image processing method and program |
-
2014
- 2014-03-17 JP JP2014054161A patent/JP6425396B2/en active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5862249A (en) * | 1995-12-01 | 1999-01-19 | Eastman Kodak Company | Automated method and system for determination of positional orientation of digital radiographic images |
JP2001070290A (en) * | 1999-08-31 | 2001-03-21 | Konica Corp | Method and device for processing image |
JP2001351092A (en) * | 2000-04-04 | 2001-12-21 | Konica Corp | Image processing selecting method, image selecting method, and image processor |
US20060110068A1 (en) * | 2004-11-19 | 2006-05-25 | Hui Luo | Detection and correction method for radiograph orientation |
JP2008520344A (en) * | 2004-11-19 | 2008-06-19 | ケアストリーム ヘルス インク | Method for detecting and correcting the orientation of radiographic images |
US20060110021A1 (en) * | 2004-11-23 | 2006-05-25 | Hui Luo | Method for recognizing projection views of radiographs |
JP2008520385A (en) * | 2004-11-23 | 2008-06-19 | イーストマン コダック カンパニー | How to classify radiographs |
JP2008011901A (en) * | 2006-07-03 | 2008-01-24 | Fujifilm Corp | Image type discrimination device, method and program |
US20090220174A1 (en) * | 2008-02-29 | 2009-09-03 | Fujifilm Corporation | Chest image rotation apparatus, method and recording-medium stored therein program |
JP2009201872A (en) * | 2008-02-29 | 2009-09-10 | Fujifilm Corp | Thoracic region image rotating device, method, and program |
JP2010246705A (en) * | 2009-04-15 | 2010-11-04 | Konica Minolta Medical & Graphic Inc | Image processor, image processing method and program |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE112016004021T5 (en) | 2015-09-03 | 2018-05-17 | Denso Corporation | Suction filter and fuel supply device |
JP2018011958A (en) * | 2016-07-21 | 2018-01-25 | 東芝メディカルシステムズ株式会社 | Medical image processing apparatus and medical image processing program |
JP7118606B2 (en) | 2016-07-21 | 2022-08-16 | キヤノンメディカルシステムズ株式会社 | MEDICAL IMAGE PROCESSING APPARATUS AND MEDICAL IMAGE PROCESSING PROGRAM |
WO2019208006A1 (en) * | 2018-04-26 | 2019-10-31 | 株式会社島津製作所 | Radiation imaging device |
JPWO2019208006A1 (en) * | 2018-04-26 | 2021-04-08 | 株式会社島津製作所 | Radiation imaging device |
JP7283470B2 (en) | 2018-04-26 | 2023-05-30 | 株式会社島津製作所 | radiography equipment |
US11890126B2 (en) | 2018-04-26 | 2024-02-06 | Shimadzu Corporation | Radiation imaging apparatus |
Also Published As
Publication number | Publication date |
---|---|
JP6425396B2 (en) | 2018-11-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6833444B2 (en) | Radiation equipment, radiography system, radiography method, and program | |
US10388018B2 (en) | Image processing apparatus, image processing method, and storage medium | |
EP3326534B1 (en) | X-ray apparatus and method of acquiring medical image thereof | |
KR102560911B1 (en) | Image processing apparatus, image processing method, and storage medium | |
CN109363699B (en) | Method and device for identifying focus of breast image | |
JP5828649B2 (en) | Image processing apparatus, image processing method, and computer program | |
US10692215B2 (en) | Image processing apparatus, image processing method, and storage medium | |
US20080123929A1 (en) | Apparatus, method and program for image type judgment | |
JP6425396B2 (en) | Image processing apparatus, image processing method and program | |
WO2013191061A1 (en) | Image processing device | |
US20190392552A1 (en) | Spine image registration method | |
JP6957170B2 (en) | Radiation imaging equipment, radiography systems, radiography methods, and programs | |
JP4416823B2 (en) | Image processing apparatus, image processing method, and computer program | |
JP2006130212A (en) | Method, device, and program for detecting abnormal shadow candidate | |
JP2008011900A (en) | Image type discrimination device, method and program | |
CN111932467A (en) | Image processing method and device | |
JP2004188202A (en) | Automatic analysis method of digital radiograph of chest part | |
US20240062367A1 (en) | Detecting abnormalities in an x-ray image | |
CN110022772B (en) | X-ray apparatus and method for acquiring medical image thereof | |
JP6789620B2 (en) | Image processing device and its control method, computer program | |
JP2004302581A (en) | Image processing method and device | |
WO2021039211A1 (en) | Machine learning device, machine learning method, and program | |
JP7418171B2 (en) | Image processing device, radiography system, image processing method and program | |
JP7409606B2 (en) | Image processing device, image processing method and program | |
JP7454456B2 (en) | Image processing device, image processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170316 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20171212 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171219 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180214 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180626 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180810 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180925 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181023 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6425396 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |