JP2015173923A - Image processing device, image processing method, and program - Google Patents

Image processing device, image processing method, and program Download PDF

Info

Publication number
JP2015173923A
JP2015173923A JP2014054161A JP2014054161A JP2015173923A JP 2015173923 A JP2015173923 A JP 2015173923A JP 2014054161 A JP2014054161 A JP 2014054161A JP 2014054161 A JP2014054161 A JP 2014054161A JP 2015173923 A JP2015173923 A JP 2015173923A
Authority
JP
Japan
Prior art keywords
subject
image data
value
orientation
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014054161A
Other languages
Japanese (ja)
Other versions
JP6425396B2 (en
Inventor
秀昭 宮本
Hideaki Miyamoto
秀昭 宮本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014054161A priority Critical patent/JP6425396B2/en
Publication of JP2015173923A publication Critical patent/JP2015173923A/en
Application granted granted Critical
Publication of JP6425396B2 publication Critical patent/JP6425396B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an image processing device which can calculate a direction of a subject without depending on the subject in a photographed image.SOLUTION: An image processing device has: computing means which computes to determine the direction of a subject in image data on the basis of a value showing tendency after comparing intensity distribution of a pixel value for each of a plurality of regions in the image data of the subject among a plurality of regions and a value defined every subject in advance so as to associate the value showing the tendency with the direction of the subject in the image data; and display processing means which performs processing to allow display means to display on the basis of a computation result computed by the computing means an image of the subject so that the subject in the image of the subject faces in a prescribed direction with respect to the display means displaying the image of the subject on the basis of the image data.

Description

本発明は、撮影された撮影画像中の被検体向きを算出するための処理を行う画像処理装置、その画像処理方法およびプログラムに関するものである。   The present invention relates to an image processing apparatus that performs processing for calculating the orientation of a subject in a captured image, and an image processing method and program thereof.

放射線センサで生成された放射線画像にデジタル画像処理を行う場合、撮影した画像内の被検体向きを含む解剖学的構造を考慮し処理を行う場合がある。また、ユーザからは指定の角度で画像を観察し易い向きに自動で画像回転し表示されることが望まれている。これらデジタル画像処理及び自動画像回転を行うためには、画像内で被検体向きを判別することが必要となる。特許文献1には、胸部の放射線画像を対象とし、椎体の解剖学的特徴から椎体領域を抽出し、椎体の向きを判別する技術が提案されている。   When digital image processing is performed on a radiographic image generated by a radiation sensor, the processing may be performed in consideration of an anatomical structure including a subject direction in the captured image. In addition, it is desired from the user that the image is automatically rotated and displayed in a direction in which the image can be easily observed at a specified angle. In order to perform these digital image processing and automatic image rotation, it is necessary to determine the orientation of the subject in the image. Patent Document 1 proposes a technique for extracting a vertebral body region from an anatomical feature of a vertebral body and discriminating the orientation of the vertebral body for a radiographic image of the chest.

特開2009−201872JP 2009-201872 A

しかし、特許文献1で提案されている方法は、胸部撮影画像中の椎体領域を対象とし、椎体の解剖学的特徴を抽出する技術であり、頭部や四肢等の他の部位や機械的な非破壊検査の対象となる検査対象といったあらゆる被検体に対応しているとはいえない。そのため、特許文献1に記載の発明を様々な被検体に対して適用することは困難である。   However, the method proposed in Patent Document 1 is a technique for extracting an anatomical feature of a vertebral body from a vertebral body region in a chest image, and other parts and machines such as the head and limbs. It cannot be said that it corresponds to every subject such as an inspection object which is a target of a typical nondestructive inspection. Therefore, it is difficult to apply the invention described in Patent Document 1 to various subjects.

そこで、本発明は、撮影画像において被検体に依らず被検体の向きを算出することが可能な画像処理装置の提供を目的とする。   Therefore, an object of the present invention is to provide an image processing apparatus capable of calculating the orientation of a subject in a captured image regardless of the subject.

そこで本発明の画像処理装置は、
被検体の画像データにおける複数の領域毎の画素値の強度分布を複数の領域間で比較した傾向を示す値と、前記傾向を示す値と前記画像データにおける被検体の向きを関連づけるために予め被検体毎に定められた値と、に基づいて前記画像データにおける前記被検体の向きを決定する演算を行う演算手段と、前記演算手段によって演算された演算結果に基づいて、前記画像データに基づいて前記被検体の画像を表示する表示手段に対して前記被検体の画像中の被検体が所定の向きになるように前記被検体の画像を前記表示手段に表示させる処理をする表示処理手段と、を有することを特徴とする。
Therefore, the image processing apparatus of the present invention is
In order to associate a value indicating the tendency of comparing the intensity distribution of pixel values for each of a plurality of regions in the image data of the subject between the plurality of regions, the value indicating the tendency and the orientation of the subject in the image data in advance. Based on the value determined for each sample, a calculation unit that performs a calculation to determine the orientation of the subject in the image data, and based on the calculation result calculated by the calculation unit, based on the image data Display processing means for performing processing for displaying the image of the subject on the display means so that the subject in the image of the subject is in a predetermined orientation with respect to the display means for displaying the image of the subject; It is characterized by having.

本発明は、撮影画像において被検体に依らず被検体の向きを算出することが可能な画像処理装置を提供することができる。   The present invention can provide an image processing apparatus capable of calculating the orientation of a subject in a captured image regardless of the subject.

実施の形態にかかる画像処理装置の構成を説明する図である。It is a figure explaining the structure of the image processing apparatus concerning embodiment. 実施の形態にかかる画像処理装置の基準向きと、被検体向きに基づいて定義される方向の一例を示した図である。It is the figure which showed an example of the direction defined based on the reference | standard direction of the image processing apparatus concerning embodiment, and object direction. 実施の形態にかかる画像処理装置の動作を示すフローチャートである。3 is a flowchart illustrating an operation of the image processing apparatus according to the embodiment. 実施の形態にかかる画像処理装置の特徴量抽出の動作を示すフローチャートである。3 is a flowchart illustrating an operation of extracting feature values of the image processing apparatus according to the embodiment. 実施の形態が対象とする撮影画像の一例と、撮影画像から抽出されるエッジ強度画像データを示した図である。It is the figure which showed an example of the picked-up image made into embodiment, and the edge strength image data extracted from a picked-up image. エッジ強度画像データと領域エッジ画像データの一例を示した図である。It is the figure which showed an example of edge strength image data and area | region edge image data. 実施の形態が対象とする撮影画像の一例と、撮影画像から抽出される方向エッジ画像を示した図である。It is the figure which showed an example of the picked-up image made into embodiment, and the direction edge image extracted from a picked-up image.

以下、図面を参照して、本発明における好適な実施の形態を詳しく説明する。まず、図1を参照して本発明の実施の形態にかかる画像処理装置200を説明する。本発明の実施の形態にかかる画像処理装置200は、例えば図1に示すような放射線撮影装置100に適用される。即ち、放射線撮影装置100は、被検体の向きを決定する演算を行う画像処理装置を含む放射線撮影装置である。以下、図面を参照して本実施の形態にかかる画像処理装置200について説明する。放射線撮影装置100は、放射線発生部101と放射線センサ104とを有する。放射線発生部101は、被検体102に向けて放射線103を照射する。放射線センサ104は、被検体102を透過した放射線103を受けて放射線画像データを生成する。すなわち放射線センサ104は、放射線照射された被検体102の撮影画像データを生成する撮影手段として機能する。被検体の撮影画像データは通信手段であるバス115を介して送受信される。なお、本実施の形態では、X線、γ線などの電磁波やα線、β線も放射線に含めるものとして説明する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings. First, an image processing apparatus 200 according to an embodiment of the present invention will be described with reference to FIG. An image processing apparatus 200 according to an embodiment of the present invention is applied to, for example, a radiation imaging apparatus 100 as shown in FIG. That is, the radiation imaging apparatus 100 is a radiation imaging apparatus including an image processing apparatus that performs an operation for determining the orientation of the subject. The image processing apparatus 200 according to the present embodiment will be described below with reference to the drawings. The radiation imaging apparatus 100 includes a radiation generation unit 101 and a radiation sensor 104. The radiation generation unit 101 irradiates the subject 102 with radiation 103. The radiation sensor 104 receives the radiation 103 transmitted through the subject 102 and generates radiation image data. That is, the radiation sensor 104 functions as an imaging unit that generates captured image data of the subject 102 irradiated with radiation. The captured image data of the subject is transmitted / received via the bus 115 which is a communication means. In the present embodiment, it is assumed that electromagnetic waves such as X-rays and γ rays, α rays, and β rays are included in the radiation.

さらに、放射線撮影装置100は、前処理部105と操作部106と記憶部107と演算部108とを有する。前処理部105は、放射線センサ104が出力する撮影画像データに対し、放射線センサ104の特性を補正する処理を行う。操作部106は、ユーザの操作指示を入力し各部に操作指示を与える。記憶部107は、少なくとも撮影される患者の被検体の情報と、被検体毎に予め定められた値と、を保持する。なお、記憶部107は、画像処理パラメータや画像補正用のデータを更に保持していてもよい。演算部108は、放射線画像データにおける被検体の向きを決定する演算を行う。即ち、演算部108は、被検体の画像データにおける複数の領域毎の画素値の変化量の分布の傾向を示す値と被検体の向きを関連づけるために予め被検体毎に定められた値に基づいて画像データにおける被検体の向きを決定する演算を行う。なお、「画素値」とは、画素の輝度値や濃度値のことである。また、「画素値の変化量」とは、ある注目した画素と1又は複数の隣接画素との画素値である輝度値や濃度値の差分のことである。「画素値の強度分布」とは、画像データにおける画素値の強度の分布を示すものであり、規格化されたデータでもよい。例えば、エッジ強度画像やエッジ強度分布を指す。また、「被検体」とは、検査を受ける対象であり、検査される人や物あるいは動物をことである。例えば人体の部位である胸部・肺野・腹部・四肢・頭部等を示す。また、「予め被検体毎に定められた値」とは、被検体の向きを算出するために被検体の特徴量と向きを関連づけるための値である。本実施の形態において、「予め被検体毎に定められた値」は、後述する、サンプル画像から算出された結合荷重およびバイアス値がその一例である。また、「所定の向き」とは、被検体毎に設定された基準となる被検体の向きであり、本実施の形態においては、予めシステム上設定することや、操作部106から入力しユーザが被検体毎に設定することができる。例えば、胸部正面画像データであれば解剖学的に頭部が撮影画像データの上となる向きが診断に適した基準向きである。一方で四肢などユーザにより診断に適した向きが異なる被検体においては定義が困難である。そのため、ユーザが操作部106により所定の向きを設定することで、個々のユーザの診断等に適した被検体の向きを設定することができる。   Further, the radiation imaging apparatus 100 includes a preprocessing unit 105, an operation unit 106, a storage unit 107, and a calculation unit 108. The preprocessing unit 105 performs processing for correcting the characteristics of the radiation sensor 104 on the captured image data output from the radiation sensor 104. The operation unit 106 inputs a user operation instruction and gives the operation instruction to each unit. The storage unit 107 holds at least information on the subject of the patient to be imaged and a value predetermined for each subject. The storage unit 107 may further hold image processing parameters and image correction data. The calculation unit 108 performs calculation for determining the orientation of the subject in the radiation image data. In other words, the calculation unit 108 is based on a value predetermined for each subject in order to associate a value indicating the distribution tendency of the change amount of the pixel value for each of the plurality of regions in the image data of the subject with the orientation of the subject. To calculate the orientation of the subject in the image data. The “pixel value” is a luminance value or density value of a pixel. The “pixel value change amount” is a difference between a luminance value and a density value which are pixel values of a pixel of interest and one or a plurality of adjacent pixels. The “pixel value intensity distribution” indicates a distribution of pixel value intensity in image data, and may be standardized data. For example, it refers to an edge intensity image or an edge intensity distribution. In addition, the “subject” is a subject to be examined and refers to a person, an object, or an animal to be examined. For example, a chest part, a lung field, an abdomen, an extremity, a head, etc. which are parts of a human body are shown. Further, the “value determined in advance for each subject” is a value for associating the feature amount and the direction of the subject in order to calculate the direction of the subject. In the present embodiment, “value determined in advance for each subject” is an example of a combined load and a bias value calculated from a sample image, which will be described later. Further, the “predetermined orientation” is a reference subject orientation set for each subject. In the present embodiment, the “predetermined orientation” is set on the system in advance or input from the operation unit 106 and is input by the user. It can be set for each subject. For example, in the case of chest front image data, the reference direction suitable for diagnosis is the orientation in which the head is anatomically above the captured image data. On the other hand, it is difficult to define in a subject whose orientation suitable for diagnosis varies depending on the user, such as extremities. Therefore, when the user sets a predetermined direction using the operation unit 106, the direction of the subject suitable for diagnosis of each user can be set.

さらに、放射線撮影装置100は、高画質化部113と表示処理部114と表示部109とを有する。高画質化部113は、撮影画像に対し判別した被検体向きを考慮した高画質化処理を行う。表示処理部114は、演算部108によって演算された演算結果に基づいて、被検体の向きを所定の向きとするための基準となる被検体の向きと一致または類似するように処理する。即ち、表示処理部114は、画像データにおける被検体の向きを、ユーザが予め定めた表示部109における被検体の所定の向きに一致又は類似するように、被検体の向きを変更する。表示部109は、変更された画像データにおける被検体の向きを画像として表示を行う。   Furthermore, the radiation imaging apparatus 100 includes an image quality improving unit 113, a display processing unit 114, and a display unit 109. The image quality improving unit 113 performs an image quality improving process in consideration of the determined subject orientation with respect to the captured image. Based on the calculation result calculated by the calculation unit 108, the display processing unit 114 performs processing so as to match or be similar to the direction of the subject serving as a reference for setting the orientation of the subject to a predetermined direction. That is, the display processing unit 114 changes the orientation of the subject so that the orientation of the subject in the image data matches or resembles a predetermined orientation of the subject on the display unit 109 that is predetermined by the user. The display unit 109 displays the orientation of the subject in the changed image data as an image.

本実施の形態における画像処理装置200は、少なくとも演算部108と表示処理部114とを有している。また、システム上必要に応じて、画像処理装置200は高画質化部113等の他の構成を含むものであってもよい。   The image processing apparatus 200 according to the present embodiment includes at least a calculation unit 108 and a display processing unit 114. Further, the image processing apparatus 200 may include other configurations such as the image quality improving unit 113 as necessary in the system.

演算部108は、前処理部105が出力する撮影画像データから被検体向きを判別するために、第一の特徴量抽出部110と、判別部112と、を有する。演算部108は、更に第二の特徴量抽出部111を有してもよい。本実施の形態における第一の特徴量抽出部110および第二の特徴量抽出部111は、本発明における第一の特徴量抽出手段および第二の特徴量抽出手段に相当する。なお、以下の説明では第一の特徴量抽出部110と第二の特徴量抽出部111と判別部112とを用いた被検体向きの判別を行っているが、本発明はそれに限定されるものではない。本発明では、第一の特徴量抽出部110と判別部112とを用いた被検体向きの判別が行い得る。   The calculation unit 108 includes a first feature amount extraction unit 110 and a determination unit 112 in order to determine the subject orientation from the captured image data output from the preprocessing unit 105. The calculation unit 108 may further include a second feature amount extraction unit 111. The first feature quantity extraction unit 110 and the second feature quantity extraction unit 111 in the present embodiment correspond to the first feature quantity extraction unit and the second feature quantity extraction unit in the present invention. In the following description, the orientation of the subject is determined using the first feature value extraction unit 110, the second feature value extraction unit 111, and the determination unit 112, but the present invention is not limited thereto. is not. In the present invention, the orientation of the subject can be determined using the first feature quantity extraction unit 110 and the determination unit 112.

第一の特徴量抽出部110は、被検体の画像データにおける複数の領域毎の画素値の強度分布を複数の領域間で比較した傾向に基づいた第一の特徴量を抽出する。また、第二の特徴量抽出部111は、撮影画像データ内に複数の方向を設定し、複数の方向毎に算出された画素値の変化量の分布を複数の方向間で比較した傾向に基づいて第二の特徴量を抽出する。第一の特徴量および第二の特徴量については後述する。判別部112は、第一の特徴量と予め被検体毎に定められた値とに基づいて画像データにおける被検体の向きを判別する。判別部112は、第一の特徴量と第二の特徴量と予め被検体毎に定められた値とに基づいて画像データにおける被検体の向きを判別してもよい。判別部112での被検体向きを判別した結果は、予め被検体毎に設定された基準となる被検体の向きを0度とし、D度ずつ回転した向きで定義されるものとする。図2に一例として胸部正面画像データについて頭部が撮影画像データの上となる向きを基準向きと定義した場合の4つの方向を示す。本実施の形態では、判別部112は、D=90度とし、被検体向き判別処理は、撮影画像データが、部位別基準向き(0度)、90度、180度、270度の4方向のいずれかを判別するものとする。本実施の形態における被検体向きは、4方向としたがこれに限られるものではない。   The first feature amount extraction unit 110 extracts a first feature amount based on a tendency of comparing intensity distributions of pixel values for a plurality of regions in the image data of the subject between the plurality of regions. Further, the second feature amount extraction unit 111 sets a plurality of directions in the captured image data, and based on the tendency of comparing the distribution of the change amount of the pixel value calculated for each of the plurality of directions between the plurality of directions. To extract the second feature amount. The first feature value and the second feature value will be described later. The discriminating unit 112 discriminates the orientation of the subject in the image data based on the first feature amount and a value predetermined for each subject. The determination unit 112 may determine the orientation of the subject in the image data based on the first feature amount, the second feature amount, and a value predetermined for each subject. The result of the determination of the object orientation by the determination unit 112 is defined as a direction rotated by D degrees with the reference object direction set in advance for each object as 0 degrees. As an example, FIG. 2 shows four directions when the direction in which the head is above the captured image data is defined as the reference direction for the chest front image data. In the present embodiment, the discriminating unit 112 sets D = 90 degrees, and the subject orientation discriminating process is performed in four directions of the captured image data, that is, the reference orientation for each region (0 degree), 90 degrees, 180 degrees, and 270 degrees. One of them shall be determined. In this embodiment, the direction of the subject is four directions, but is not limited to this.

次に、図3に示すフローチャートを用いて、放射線撮影装置100により撮影された撮影画像データから被検体の向きを決定して被検体の向きを考慮した高画質化処理と画像回転処理とを行って表示部109に出力する方法を説明する。   Next, using the flowchart shown in FIG. 3, the orientation of the subject is determined from the captured image data captured by the radiation imaging apparatus 100, and the image quality enhancement processing and the image rotation processing are performed in consideration of the orientation of the subject. A method of outputting to the display unit 109 will be described.

まず、ステップS201において、演算部108は、前処理部105にて前処理が加えられた撮影画像データを取得し、第一の特徴量抽出部110および第二の特徴量抽出部111に入力する。演算部108は、このステップにて撮影画像データ内の被検体の特徴量の抽出を行う。   First, in step S <b> 201, the calculation unit 108 acquires captured image data that has been pre-processed by the pre-processing unit 105 and inputs the captured image data to the first feature amount extraction unit 110 and the second feature amount extraction unit 111. . In this step, the calculation unit 108 extracts the feature amount of the subject in the captured image data.

次にステップS202において、演算部108は、第二の特徴量抽出部111及び第一の特徴量抽出部110により抽出された特徴量を判別部112に入力する。判別部112は、第一の特徴量および第二の特徴量と予め被検体毎に定められた値に基づいて撮影画像データ中の被検体の向きを算出する。   Next, in step S <b> 202, the calculation unit 108 inputs the feature amounts extracted by the second feature amount extraction unit 111 and the first feature amount extraction unit 110 to the determination unit 112. The determination unit 112 calculates the orientation of the subject in the captured image data based on the first feature amount, the second feature amount, and a value determined in advance for each subject.

そして、ステップS203において、演算部108は、判別部112が出力する被検体向き判別結果を高画質化部113に出力する。高画質化部113は、被検体向き判別結果に基づいて高画質化処理を行い、高画質化処理済み画像データを生成する。ここで高画質化処理とは、例えば被検体の関心領域を基準として、画像全体を診断に適した階調に変換する階調処理である。高画質化部113は、高画質化処理において被検体からの所定の関心領域の抽出行う場合がある。例えば、胸部画像の場合、肺野を関心領域として抽出する。被検体向きが算出された画像データに対して高画質化処理を行うことで、高画質化処理部113は、関心領域の抽出精度が向上し、より高画質化された撮影画像データが得られる。   In step S <b> 203, the calculation unit 108 outputs the object orientation determination result output from the determination unit 112 to the image quality improvement unit 113. The image quality enhancement unit 113 performs an image quality enhancement process based on the object orientation determination result, and generates image quality processed image data. Here, the image quality enhancement process is a gradation process for converting the entire image into a gradation suitable for diagnosis using, for example, the region of interest of the subject as a reference. The image quality improving unit 113 may extract a predetermined region of interest from the subject in the image quality improving process. For example, in the case of a chest image, a lung field is extracted as a region of interest. By performing the image quality enhancement process on the image data for which the subject orientation is calculated, the image quality enhancement processing unit 113 improves the extraction accuracy of the region of interest and obtains captured image data with a higher image quality. .

ステップS204において、放射線撮影装置100は、判別部112が出力する被検体向き判別結果及び高画質化部113が出力する高画質化処理済み画像データを表示処理部114に入力する。また表示処理部114は、撮影された撮影画像データの被検体とその被検体に対応する基準向きを記憶部107から読み込む。表示処理部114は、画像データにおける被検体の向きが所定の向き(被検体毎の基準向き)と一致又は類似するように、高画質化処理済み画像データに対し、被検体の向きを回転させて、表示用画像として表示させるために表示部109に出力し、処理を終了する。以上の処理により、画像処理装置200は被検体に依らず撮影画像内の被検体の向きを算出し、ユーザ所定の向き(被検体毎の基準向き)と一致させることができる。   In step S <b> 204, the radiation imaging apparatus 100 inputs the object orientation determination result output from the determination unit 112 and the image quality processed image data output from the image quality improving unit 113 to the display processing unit 114. Further, the display processing unit 114 reads from the storage unit 107 the subject of the captured image data and the reference orientation corresponding to the subject. The display processing unit 114 rotates the orientation of the subject with respect to the image data that has been subjected to the high image quality processing so that the orientation of the subject in the image data matches or resembles a predetermined orientation (reference orientation for each subject). Then, the image is output to the display unit 109 for display as a display image, and the process is terminated. With the above processing, the image processing apparatus 200 can calculate the orientation of the subject in the captured image without depending on the subject, and can match the orientation specified by the user (reference orientation for each subject).

以降の説明では、撮影画像データの横方向をx軸、縦方向をy軸と定義し、左上端の座標を原点(x,y)=(1,1)で表し、撮影画像データIの座標(x,y)における画素値をI(x,y)で表す。さらに撮影画像データの横サイズをW、縦サイズをHとする。つまり撮影画像データの右下端の座標は(x,y)=(W,H)であり、xは1以上W以下の範囲を、yは1以上H以下の範囲で示される。   In the following description, the horizontal direction of the captured image data is defined as the x-axis and the vertical direction is defined as the y-axis, the coordinates of the upper left corner are represented by the origin (x, y) = (1, 1), and the coordinates of the captured image data I The pixel value at (x, y) is represented by I (x, y). Further, the horizontal size of the captured image data is W and the vertical size is H. That is, the coordinates of the lower right corner of the captured image data are (x, y) = (W, H), where x is in the range of 1 to W and y is in the range of 1 to H.

(第一の特徴量)
第一の特徴量抽出部110によって抽出される第一の特徴量は、被検体の撮影画像データ内に複数の領域を設定し、設定した複数の領域から別々に抽出したエッジ画素に基づいて定められた特徴量である。第一の特徴量はこの定義に沿ったものであれば様々なものが適用可能であるが、本実施の形態では以下のように特徴量を算出する。
(First feature)
The first feature quantity extracted by the first feature quantity extraction unit 110 is determined based on edge pixels that are extracted from the set plurality of areas by setting a plurality of areas in the captured image data of the subject. Feature amount. Various first feature quantities can be applied as long as they meet this definition. In the present embodiment, the feature quantities are calculated as follows.

図4(a)のフローチャートを用いて第一の特徴量抽出部110が行う第一の特徴量の抽出について詳細に説明する。図4(a)のステップS301からS303までの工程は、図3で説明したステップS201内の特徴量抽出処理内の工程である。ステップS301として、第一の特徴量抽出部110は、撮影画像データ内の複数の領域毎の変化量を算出する。本実施の形態では、撮影画像データ内の画素値の変化量の分布をエッジ強度画像データEmとして示す。ここで、エッジ画素とは撮影画像データ内で画素値の変化量が所定値以上になる画素とする。エッジ強度画像データはエッジ画素の強度の分布を示す画像データである。   The first feature amount extraction performed by the first feature amount extraction unit 110 will be described in detail with reference to the flowchart of FIG. Steps S301 to S303 in FIG. 4A are steps in the feature amount extraction process in step S201 described in FIG. As step S301, the first feature amount extraction unit 110 calculates a change amount for each of a plurality of regions in the captured image data. In the present embodiment, the distribution of the change amount of the pixel value in the captured image data is shown as edge intensity image data Em. Here, the edge pixel is a pixel in which the change amount of the pixel value is equal to or greater than a predetermined value in the captured image data. The edge intensity image data is image data indicating the intensity distribution of edge pixels.

まず、第一の特徴量抽出部110は、撮影画像データIのエッジ強度画像データEmを、上述したx軸方向及びy軸方向のエッジ画像データEx、Eyを用いて次式により算出する。   First, the first feature amount extraction unit 110 calculates the edge intensity image data Em of the captured image data I using the above-described edge image data Ex and Ey in the x-axis direction and the y-axis direction according to the following equation.

Figure 2015173923
Figure 2015173923

ここでは例として、撮影画像データIが胸部正面画像データである場合に、第一の特徴量抽出部110は、x方向エッジ画像データExとy方向エッジ画像データEyから算出されたエッジ強度画像データEmを図5に示す。   Here, as an example, when the captured image data I is chest front image data, the first feature amount extraction unit 110 calculates edge intensity image data calculated from the x-direction edge image data Ex and the y-direction edge image data Ey. Em is shown in FIG.

さらに、第一の特徴量抽出部110は、このエッジ強度画像データEm内にrnum個の複数の領域を設定した場合のエッジ画像データをERn(n=1,2,...,rnum)として算出する。エッジ画像データERnは、設定された領域内の画素値をエッジ強度画像データEmの画素値、それ以外の画素値をゼロで表した画像データとしている。ここでは、第一の特徴量抽出部110は、エッジ強度画像データEmの上半分、下半分、左半分、右半分の4領域を設定し、エッジ画像データER1、ER2、ER3、ER4をそれぞれ次式に基づいて算出する。   Further, the first feature quantity extraction unit 110 sets the edge image data when ernum plural regions are set in the edge intensity image data Em as ERn (n = 1, 2,..., Rnum). calculate. The edge image data ERn is image data in which the pixel value in the set area is represented by the pixel value of the edge intensity image data Em and the other pixel values are represented by zero. Here, the first feature amount extraction unit 110 sets four regions of the upper half, the lower half, the left half, and the right half of the edge strength image data Em, and the edge image data ER1, ER2, ER3, and ER4 are respectively set next. Calculate based on the formula.

Figure 2015173923
Figure 2015173923

Figure 2015173923
Figure 2015173923

Figure 2015173923
Figure 2015173923

Figure 2015173923
Figure 2015173923

ここでは例として、第一の特徴量抽出部110が、撮影画像データIが胸部正面画像データである場合のエッジ強度画像データEmから取得した領域エッジ画像データER1〜ER4を図6に示す。   Here, as an example, FIG. 6 shows region edge image data ER1 to ER4 acquired by the first feature amount extraction unit 110 from the edge strength image data Em when the captured image data I is chest front image data.

続いて、ステップS302として、第一の特徴量抽出部110は、設定した複数の領域から、統計量を抽出する。ここで用いる統計量は、撮影画像データにおける画素値の平均値や分散値、あるいは所定の閾値を定めた場合の閾値以上の画素値を持つ画素数といったものを用いる。本実施の形態では、第一の特徴量抽出部110は、上述のエッジ強度画像データEmに上半分、下半分、左半分、右半分の4領域から、統計量として平均値をeu、eb、el、erを算出する。   Subsequently, in step S302, the first feature amount extraction unit 110 extracts a statistic from the set plurality of regions. As the statistic used here, an average value or variance value of pixel values in the captured image data, or the number of pixels having a pixel value equal to or greater than a threshold value when a predetermined threshold value is set is used. In the present embodiment, the first feature amount extraction unit 110 calculates average values as statistics from the four regions of the upper half, the lower half, the left half, and the right half of the edge intensity image data Em described above as eu, eb, el and er are calculated.

Figure 2015173923
Figure 2015173923

Figure 2015173923
Figure 2015173923

Figure 2015173923
Figure 2015173923

Figure 2015173923
Figure 2015173923

そして、ステップS303として、第一の特徴量抽出部110は、算出したeu、eb、el、erを用いて、複数の領域毎の統計量毎の関係を表す特徴量を第一の特徴量として算出する。具体的には第一の特徴量抽出部110は、次式にて示すeuとebの関係に基づくeubと、elとerの関係に基づくelrとを、第一の特徴量として算出する。   In step S303, the first feature amount extraction unit 110 uses the calculated eu, eb, el, and er as a first feature amount that represents a relationship for each statistic for each of the plurality of regions. calculate. Specifically, the first feature quantity extraction unit 110 calculates eub based on the relation between eu and eb and elr based on the relation between el and er, which are expressed by the following equations, as the first feature quantity.

Figure 2015173923
Figure 2015173923

Figure 2015173923
Figure 2015173923

以上で算出したeubとelrは、撮影画像データに設定した領域ごとの変化量の分布の傾向(エッジ密集度)を表す第一の特徴量である。例えば式10のeubは、撮影画像データにおいて、上半分に下半分よりエッジが密集していれば1、下半分に上半分よりエッジが密集していれば0に近い値をとる特徴量である。同様に、式11のelrは、撮影画像データにおいて、左半分に右半分よりエッジが密集していれば1、右半分に左半分よりエッジが密集していれば0に近い値をとる特徴量である。   The eub and elr calculated as described above are the first feature amounts that represent the distribution distribution trend (edge density) for each region set in the captured image data. For example, eub in Expression 10 is a feature value that takes a value close to 0 in the captured image data if the edge is denser in the upper half than the lower half, and close to 0 if the edge is denser in the lower half than the upper half. . Similarly, elr in Expression 11 is a feature value that takes a value close to 0 in the captured image data when the edge is denser in the left half than the right half, and close to 0 if the edge is denser in the right half than the left half. It is.

このように、演算部108は、複数の領域から別々に抽出した第一の特徴量は、被検体の解剖学的情報を用いることなく撮影画像データの被検体向きを表す特徴の一つとして用いることができる。なお、本実施の形態においては、胸部の撮影画像データについて説明をしたが、肺野・腹部・四肢・頭部においても、複数の領域毎に画素値の変化量の分布の傾向は異なるため、被検体の向きを算出するための特徴量として用いることができる。   As described above, the calculation unit 108 uses the first feature amount extracted separately from the plurality of regions as one of the features representing the subject direction of the captured image data without using the anatomical information of the subject. be able to. In the present embodiment, the imaged image data of the chest has been described, but since the trend of the distribution of changes in pixel values is different for each of a plurality of regions in the lung field, abdomen, limbs, and head, It can be used as a feature amount for calculating the orientation of the subject.

次に、第一の特徴量抽出部110が第一の特徴量の抽出の前に行う前処理について説明する。第一の特徴量抽出部110は、第一の特徴量抽出の前処理として、被検体の撮影画像データを特徴量抽出に適した所定の画像データ量に縮小した縮小画像データ処理をしてもよい。このため、第一の特徴量抽出部110は、特徴量抽出処理の高速化を図ることができる。更に、縮小画像データを用いることで、特徴量抽出に不要な画像データ内のノイズの影響を除去できる。   Next, preprocessing performed by the first feature quantity extraction unit 110 before extraction of the first feature quantity will be described. The first feature quantity extraction unit 110 may perform reduced image data processing in which the captured image data of the subject is reduced to a predetermined image data quantity suitable for feature quantity extraction as preprocessing for the first feature quantity extraction. Good. For this reason, the first feature quantity extraction unit 110 can increase the speed of the feature quantity extraction process. Further, by using the reduced image data, it is possible to remove the influence of noise in the image data that is not necessary for feature amount extraction.

また、被検体の撮影画像データ内の画素値は放射線照射線量や被検体構造によって様々な分布を持つ。そのため、第一の特徴量抽出部110は、前処理として、放射線照射線量や被検体構造によって異なる撮影画像データ間で様々な分布を持つ画素値範囲の正規化処理を行っても良い。例えば、第一の特徴量抽出部110は、正規化処理により画素値の範囲を0から1の範囲に割り当てることができる。このため、第一の特徴量抽出部110は、特徴量の抽出の精度を向上することができる。   The pixel values in the captured image data of the subject have various distributions depending on the radiation irradiation dose and the subject structure. Therefore, the first feature quantity extraction unit 110 may perform normalization processing of a pixel value range having various distributions between captured image data that varies depending on the radiation irradiation dose and the subject structure, as preprocessing. For example, the first feature quantity extraction unit 110 can assign a range of pixel values to a range of 0 to 1 by normalization processing. For this reason, the first feature quantity extraction unit 110 can improve the accuracy of feature quantity extraction.

更に、第一の特徴量抽出部110は、被検体の撮影画像データから被検体の向きの判別に不要な領域を取り除いた撮影画像データに基づいて処理することもできる。例えば、放射線撮影画像データの場合、第一の特徴量抽出部110は、放射線の照射がされていない照射野外の領域、被検体を放射線が透過していない素抜け領域、金属が検出された領域などを取り除く領域除去処理を行いことができる。上記処理により、画像処理装置200は、被検体の特徴量に関係のない部分を取り除いた領域で第一の特徴量の抽出を行えるため、被検体向きの算出精度を向上することができる。   Furthermore, the first feature quantity extraction unit 110 can also perform processing based on captured image data obtained by removing a region unnecessary for determining the orientation of the subject from the captured image data of the subject. For example, in the case of radiographic image data, the first feature amount extraction unit 110 includes an area outside the irradiation field that is not irradiated with radiation, a blank area where no radiation is transmitted through the subject, and an area where metal is detected. It is possible to perform a region removal process for removing the. With the above processing, the image processing apparatus 200 can extract the first feature amount in a region from which a portion irrelevant to the feature amount of the subject is removed, so that the accuracy of calculation of the subject direction can be improved.

第一の特徴量抽出部110は、特徴量抽出処理や表示処理の方法、演算精度、処理速度などのパフォーマンス、対象とする被検体等により、これらの前処理の実行または非実行を切り替えられるようにすることが好適である。   The first feature quantity extraction unit 110 can switch execution or non-execution of these pre-processes depending on the feature quantity extraction processing and display processing methods, performance such as calculation accuracy and processing speed, and the target subject. Is preferable.

なお、本実施の形態では複数の領域毎の画素値の変化量の分布の傾向を第一の特徴量として用いた。ただし、第一の特徴量として、複数の領域のエッジ統計量の2つ以上の組み合わせを用いてもよい。このことにより特徴量の抽出の精度を向上することができる。   In the present embodiment, the distribution tendency of the change amount of the pixel value for each of the plurality of regions is used as the first feature amount. However, a combination of two or more edge statistics of a plurality of regions may be used as the first feature amount. As a result, the accuracy of feature quantity extraction can be improved.

(第二の特徴量)
図4(b)のフローチャートを用いて、第二の特徴量抽出部111を用いた場合に第二の特徴量抽出部111が行う第二の特徴量の抽出について詳細に説明する。図4(b)のステップS401からS403までの工程は、図3で説明したステップS201内の特徴量抽出処理での工程である。なお、図4(b)のフローチャートは、図4(a)のフローチャートと並列に処理されてもよく、また図4(a)のフローチャートの前に処理されてもよい。
(Second feature)
The second feature quantity extraction performed by the second feature quantity extraction unit 111 when the second feature quantity extraction unit 111 is used will be described in detail with reference to the flowchart of FIG. Steps S401 to S403 in FIG. 4B are steps in the feature amount extraction process in step S201 described in FIG. Note that the flowchart of FIG. 4B may be processed in parallel with the flowchart of FIG. 4A, or may be processed before the flowchart of FIG.

第二の特徴量は、撮影画像データ内に複数の方向を設定し、設定した複数の方向から別々に抽出した複数の方向のエッジ画素の分布に基づいて定められた特徴量である。   The second feature amount is a feature amount determined based on the distribution of edge pixels in a plurality of directions that are set in a plurality of directions in the captured image data and extracted separately from the set directions.

第二の特徴量を被検体の向きの算出に用いることで、被検体の向きの算出が困難な部位であっても、第一の特徴量と組み合わせることで精度が向上する。具体的には、第一の特徴量として抽出が困難な、上下対称、左右対称の被検体を判別する際に効果が大きい。   By using the second feature amount for calculating the orientation of the subject, the accuracy is improved by combining it with the first feature amount even in a region where it is difficult to calculate the orientation of the subject. Specifically, the effect is large when discriminating vertically and horizontally symmetric subjects that are difficult to extract as the first feature amount.

本実施の形態では、第二の特徴量抽出部111は、撮影画像データ内にあるエッジ画素の分布をエッジ画像データとして抽出している。本実施の形態では、第二の特徴量はこの定義に沿ったものであれば様々なものが適用可能である。   In the present embodiment, the second feature quantity extraction unit 111 extracts the distribution of edge pixels in the captured image data as edge image data. In the present embodiment, various second feature amounts can be applied as long as they meet this definition.

まずステップS401として、撮影画像データ内の複数の方向毎の変化量を算出する。   First, in step S401, a change amount for each of a plurality of directions in the captured image data is calculated.

まず、撮影画像データをIとしたとき、ある方向を示す単位ベクトル(nx,ny)に直交するエッジを抽出した方向エッジ画像データEdは、次式で表すことができる。   First, when the captured image data is I, direction edge image data Ed obtained by extracting an edge orthogonal to a unit vector (nx, ny) indicating a certain direction can be expressed by the following equation.

Figure 2015173923
Figure 2015173923

ここで、本実施の形態では、複数の方向をx軸(横方向)とy軸(縦方向)の二つと定義する。第二の特徴量抽出部111は、撮影画像データからx軸方向のエッジとy軸方向のエッジ画素を表す方向エッジ画像データExとEyを次式により算出する。   Here, in this embodiment, a plurality of directions are defined as two of an x axis (horizontal direction) and a y axis (vertical direction). The second feature amount extraction unit 111 calculates directional edge image data Ex and Ey representing edge in the x-axis direction and edge pixel in the y-axis direction from the captured image data by the following formula.

Figure 2015173923
Figure 2015173923

Figure 2015173923
Figure 2015173923

式1および式2は単位ベクトル(nx,ny)を(0,1)、(1,0)にした場合の例を示している。ここでは例として、撮影画像データIが胸部正面画像データである場合のx方向エッジ画像データExとy方向エッジ画像データEyを図7に示す。第二の特徴量抽出部111は、x方向エッジ画像データEx、y方向エッジ画像データEyは濃淡画像データである撮影画像データからそれぞれ横方向、縦方向のエッジ画素が抽出される。   Expressions 1 and 2 show examples when the unit vectors (nx, ny) are (0, 1) and (1, 0). Here, as an example, FIG. 7 shows x-direction edge image data Ex and y-direction edge image data Ey in the case where the captured image data I is chest front image data. The second feature quantity extraction unit 111 extracts edge pixels in the horizontal and vertical directions from the captured image data, which is grayscale image data, for the x-direction edge image data Ex and the y-direction edge image data Ey, respectively.

ステップS402として、第二の特徴量抽出部111は、撮影画像データ内の複数の方向毎のエッジ画像データ毎に、統計量を算出し、この統計量を第二の特徴量として抽出することができる。第二の特徴量抽出部111が抽出する統計量は、例えば、それぞれのエッジ画像データ内の画素値の平均値や分散値、あるいはエッジ画素の数(エッジ画素の割合)といった、エッジ画素の方向毎の傾向を示す方向エッジ統計量を抽出する。ここでは、上述のx軸方向のエッジとy軸方向のエッジを表すx方向エッジ画像データExとy方向エッジ画像データEyから、統計量として平均値を算出してex、eyとする。   As step S402, the second feature quantity extraction unit 111 may calculate a statistic for each edge image data for each of a plurality of directions in the captured image data, and extract the statistic as a second feature quantity. it can. The statistics amount extracted by the second feature amount extraction unit 111 is, for example, the edge pixel direction such as the average value or variance value of the pixel values in each edge image data, or the number of edge pixels (percentage of edge pixels). A direction edge statistic indicating a tendency for each is extracted. Here, an average value is calculated as a statistic from the above-described x-direction edge image data Ex and y-direction edge image data Ey representing the x-axis direction edge and the y-axis direction edge, and set as ex and ey.

Figure 2015173923
Figure 2015173923

Figure 2015173923
Figure 2015173923

次に、ステップS403として、第二の特徴量抽出部111は、算出した方向エッジ統計量ex、eyを用いて、複数の方向エッジ統計量の毎の関係を表す特徴を第二の特徴量として算出する。そして、第二の特徴量抽出部111は、具体的に次式にて示すedを第二の特徴量として算出する。   Next, as step S403, the second feature quantity extraction unit 111 uses the calculated direction edge statistics ex and ey as a second feature quantity that represents the relationship between each of the plurality of direction edge statistics. calculate. Then, the second feature amount extraction unit 111 calculates ed specifically represented by the following equation as the second feature amount.

Figure 2015173923
Figure 2015173923

なお、上述で算出したedは、撮影画像データから抽出した複数の方向エッジ統計量のうち、支配的な方向を表す特徴量である。例えば式17は、撮影画像データ内でy軸方向の方向エッジ統計量がx軸方向の方向エッジ統計量よりも支配的であれば1に、x軸方向の方向エッジ統計量がy軸方向の方向エッジ統計量より支配的であれば0に近い値をとるものである。被検体である人体の部位は、方向毎にエッジの量が異なるため、被検体に依らず特徴量を抽出することができる。なお、本実施の形態においては、胸部の撮影画像データについて説明をしたが、肺野・腹部・四肢・頭部においても、方向毎にエッジの量は異なるため、被検体の向きを算出するための特徴量として用いることができる。   Note that ed calculated above is a feature amount representing a dominant direction among a plurality of direction edge statistics extracted from the captured image data. For example, Expression 17 is 1 if the direction edge statistic in the y-axis direction is more dominant than the direction edge statistic in the x-axis direction in the captured image data, and the direction edge statistic in the x-axis direction is 1 in the y-axis direction. If it is more dominant than the direction edge statistics, it takes a value close to 0. Since the amount of the edge of each part of the human body that is the subject differs depending on the direction, the feature amount can be extracted regardless of the subject. In the present embodiment, the imaged image data of the chest has been described. However, in the lung field, abdomen, limbs, and head, the amount of edge varies depending on the direction, so that the orientation of the subject is calculated. It can be used as a feature amount.

このように、第二の特徴量抽出部111により、複数の方向から別々に抽出した複数の方向の画素値の変化量に基づいて定められる第二の特徴量は、被検体の解剖学的構造を用いることなく撮影画像データの被検体向きの算出に利用することができる。   As described above, the second feature amount determined based on the change amount of the pixel value in the plurality of directions separately extracted from the plurality of directions by the second feature amount extraction unit 111 is the anatomical structure of the subject. Can be used to calculate the orientation of the captured image data without using.

なお、本実施の形態では、第二の特徴量抽出部111は、上述のように第二の特徴量を抽出するものとしたが、これに限定されるものではない。例えば、ex、eyを平均値でなく、次式のように所定の閾値T以上の画素値となる画素の割合とし、この値に基づきedを算出しても良い。さらに複数方向のエッジ画像データ毎に複数の方向エッジ統計量を算出して、算出した統計量毎の関係に応じて、第二の特徴量の1つとして用いることもできる。   In the present embodiment, the second feature quantity extraction unit 111 extracts the second feature quantity as described above, but the present invention is not limited to this. For example, ex and ey may not be average values but may be the ratio of pixels having a pixel value equal to or greater than a predetermined threshold T as in the following equation, and ed may be calculated based on these values. Furthermore, a plurality of directional edge statistics can be calculated for each edge image data in a plurality of directions, and can be used as one of the second feature values according to the relationship for each calculated statistic.

Figure 2015173923
Figure 2015173923

Figure 2015173923
Figure 2015173923

ここで第二の特徴量抽出部111は、上式では画像データサイズが異なる撮影画像データの影響を減らすため、撮影画像データ全体の画素数H×Wによって除算を行っている。   Here, the second feature quantity extraction unit 111 performs division by the number of pixels H × W of the entire photographed image data in order to reduce the influence of the photographed image data having different image data sizes in the above equation.

なお、本実施の形態では方向エッジ関係量を第二の特徴量として用いた。ただし、第二の特徴量として、上述の複数の統計量の二つ以上の組み合わせを用いてもよい。   In this embodiment, the direction edge relation amount is used as the second feature amount. However, as the second feature amount, a combination of two or more of the plurality of statistics described above may be used.

また本実施の形態では、複数の方向を縦方向と横方向としているが、さらに第二の特徴量抽出する方向を増やし、統計量として用いてもよい。演算部108は、第二の特徴量を抽出する方向を増やすことで、後述する判別手段において判別が困難な被検体における判別精度を向上することができる。   In this embodiment, the plurality of directions are the vertical direction and the horizontal direction. However, the direction in which the second feature amount is extracted may be further increased and used as a statistic. The computing unit 108 can improve the discrimination accuracy of the subject that is difficult to discriminate by the discriminating means described later by increasing the direction in which the second feature amount is extracted.

また、第二の特徴量抽出部111は、撮影画像データに対して上述した第一の特徴量抽出部110で行ったものと同様の前処理を行うことができる。このことにより、第二の特徴量抽出部111は、前処理を行った撮影画像データから第二の特徴量の抽出を行うことができ、同様の効果が得られる。   Further, the second feature quantity extraction unit 111 can perform the same preprocessing as that performed by the first feature quantity extraction unit 110 described above on the captured image data. Accordingly, the second feature quantity extraction unit 111 can extract the second feature quantity from the pre-processed captured image data, and the same effect can be obtained.

(被検体向き判別処理)
特徴量を入力として被検体向き判別結果を出力する判別部112には様々な方法が適用できる。本実施の形態では判別部112は入力層、中間層、出力層からなる3層フィードフォワードニューラルネット(以下、FFNN)により被検体の向きを判別し判別結果を出力する。FFNNを用いることで、上述した特徴量と被検体の向きとの関連を被検体毎に定められた値(結合荷重、バイアス値)を設定することで関連づけることができる。
(Subject orientation discrimination processing)
Various methods can be applied to the discriminating unit 112 that outputs a subject orientation discrimination result using a feature amount as an input. In the present embodiment, the discriminating unit 112 discriminates the direction of the subject using a three-layer feedforward neural network (hereinafter referred to as FFNN) including an input layer, an intermediate layer, and an output layer, and outputs a discrimination result. By using FFNN, it is possible to relate the relationship between the above-described feature amount and the direction of the subject by setting a value (binding load, bias value) determined for each subject.

判別部112の3層FFNNは、Nin個のニューロンで構成される入力層、パラメータで与えられるNmid個のニューロンで構成される中間層、判別するクラスの数に対応するNout個のニューロンで構成される出力層を持つ。そして、入力層と中間層、中間層と出力層の各ニューロンはそれぞれが結合加重で結ばれており、さらに中間層と出力層はバイアス値が加えられる。この結合加重及びバイアス値が3層FFNNの判別パラメータである。判別部112は、適切に設定された値を記憶部107から読み込んで設定することで入力層に与えられる特徴量を出力層の示す値によって分類することが可能になる。   The three-layer FFNN of the discriminating unit 112 is composed of an input layer composed of Nin neurons, an intermediate layer composed of Nmid neurons given by parameters, and Nout neurons corresponding to the number of classes to be discriminated. Output layer. The neurons of the input layer and the intermediate layer, and the intermediate layer and the output layer are connected by connection weights, and a bias value is added to the intermediate layer and the output layer. This joint weight and bias value are the discrimination parameters of the three-layer FFNN. The determination unit 112 can classify the feature amount given to the input layer according to the value indicated by the output layer by reading and setting an appropriately set value from the storage unit 107.

入力層に属するNin個のニューロンを、i番目のニューロンの値をxで示すNin次元ベクトルx=(x,x,...,xNin)で表す。このベクトルxは判別に用いる特徴量に対応する。従って本被検体判別処理においては、ステップS201で抽出した第一の特徴量及び第二の特徴量を要素として持つベクトルを作成し、ベクトルxの値とする。本実施の形態では、第一の特徴量としてeub、elr、第二の特徴量としてedの3つを用い、Nin=3、x=ed、x=eub、x=elrとなる3次元ベクトルxが入力層のニューロンとなる。 Nin neurons belonging to the input layer are represented by a Nin-dimensional vector x = (x 1 , x 2 ,..., X Nin ) indicating the value of the i-th neuron as x i . This vector x corresponds to a feature amount used for discrimination. Accordingly, in the subject discrimination process, a vector having the first feature value and the second feature value extracted in step S201 as elements is created and used as the value of the vector x. In the present embodiment, three of eub and elr are used as the first feature quantity, and ed is used as the second feature quantity, and Nin = 3, x 1 = ed, x 2 = eub, and x 3 = elr 3 The dimension vector x becomes a neuron of the input layer.

中間層に属するNmid個のニューロンを、i番目のニューロンの値をaで示すNmid次元ベクトルa=(a,a,...,aNmid)で表す。このベクトルaは入力層に与えられた特徴量から計算される。ここでベクトルaのj番目の要素aは、入力層のニューロンを表すNin次元ベクトルxを用いて、次式で表される。 Nmid neurons belonging to the intermediate layer are represented by an Nmid dimension vector a = (a 1 , a 2 ,..., A Nmid ) indicating the value of the i-th neuron as a i . This vector a is calculated from the feature value given to the input layer. Here, the j-th element a j of the vector a is expressed by the following equation using the Nin-dimensional vector x representing the neurons of the input layer.

Figure 2015173923
Figure 2015173923

さらに、出力層に属するNout個のニューロンを、Nout次元ベクトルo=(o,o,...,oNout)で表す。このベクトルoは中間層で求められた値から計算される。ここで、ベクトルoのj番目の要素oは、中間層のニューロンを表すNmid次元ベクトルaを用いて次式で表される。 Further, Nout neurons belonging to the output layer are represented by Nout dimensional vector o = (o 1 , o 2 ,..., O Nout ). This vector o is calculated from the value obtained in the intermediate layer. Here, the j-th element o j of the vector o is expressed by the following equation using the Nmid-dimensional vector a representing the intermediate layer neuron.

Figure 2015173923
Figure 2015173923

判別するクラスの数Noutは、ここでは判別する被検体の向きの数に対応し、Nout次元ベクトルoの各要素は、撮影画像データがどの被検体向きであるかを示す評価値である。本実施の形態では、判別する向きをNout=4つとし、o、o、o、oをそれぞれ被検体向き0度、90度、180度、270度に対応する評価値として設定する。望ましい被検体の向きの判別が行われた場合、ベクトルoの要素は一つだけが1に近い値をとり、他の要素はゼロに近い値をとる。従って、判別部112は、3層FFNNでは、ベクトルo各要素の内最大の値をとる要素に対応する被検体向きを被検体向き判別結果として出力することで被検体向き判別処理が達成される。 The number Nout of classes to be identified here corresponds to the number of orientations of the object to be identified here, and each element of the Nout dimension vector o is an evaluation value indicating which object direction the captured image data is. In this embodiment, Nout = 4 discrimination directions are set, and o 1 , o 2 , o 3 , and o 4 are set as evaluation values corresponding to the subject orientations of 0 degree, 90 degrees, 180 degrees, and 270 degrees, respectively. To do. When the desired orientation of the subject is determined, only one element of the vector o takes a value close to 1, and the other elements take values close to zero. Accordingly, in the three-layer FFNN, the determination unit 112 outputs the object direction corresponding to the element having the maximum value among the elements of the vector o as the object direction determination result, thereby achieving the object direction determination process. .

式20において、w{1} jiは入力層のニューロンiと中間層のニューロンjを結ぶ結合荷重、b{1} は中間層のニューロンjに加えられるバイアス値である。また、式21において、w{2} jiは中間層のニューロンiと出力層のニューロンjを結ぶ結合荷重、b{2} は出力層のニューロンjに加えられるバイアス値である。これらは後述する機械学習により予め適切な値に調整された被検体毎に定められた判別パラメータである。 In Expression 20, w {1} ji is a connection load connecting the neuron i in the input layer and the neuron j in the intermediate layer, and b {1} j is a bias value applied to the neuron j in the intermediate layer. In Expression 21, w {2} ji is a connection load connecting the neuron i in the intermediate layer and the neuron j in the output layer, and b {2} j is a bias value applied to the neuron j in the output layer. These are discrimination parameters determined for each subject that have been adjusted to appropriate values in advance by machine learning described later.

判別部112は、被検体判別処理において正しい判別を行うために、予め判別パラメータが適切な値に設定されている必要がある。上述した3層FFNNでは、結合荷重w{1}、w{2}、バイアス値b{1}、b{2}が適切な判別結果を生成するための判別パラメータであり、機械学習により適切な値に調整される。本実施の形態では機械学習の一つである教師あり学習を用いる。 The determination unit 112 needs to set the determination parameter to an appropriate value in advance in order to perform correct determination in the object determination process. In the above-described three-layer FFNN, the coupling weights w {1} , w {2} , bias values b {1} , b {2} are discrimination parameters for generating an appropriate discrimination result, Adjusted to the value. In this embodiment, supervised learning which is one of machine learning is used.

教師あり学習は、被検体毎の多数のサンプル画像データと、各サンプル画像データの正しい判別結果を教師データとして準備し、サンプル画像データを判別部112に与えた結果が教師データと一致するように判別パラメータを調整する学習である。教師あり学習は被検体別に行い、被検体ごとの判別パラメータを生成して記憶部107に予め記憶されるものとする。   In supervised learning, a large number of sample image data for each subject and a correct discrimination result of each sample image data are prepared as teacher data, and the result of giving the sample image data to the discrimination unit 112 matches the teacher data. Learning to adjust the discrimination parameter. Supervised learning is performed for each subject, and a discrimination parameter for each subject is generated and stored in the storage unit 107 in advance.

3層FFNNでは、教師データは出力層と同じNout次元のベクトルであり、期待される被検体向きに対応する要素の値を1、それ以外の要素の値を0として与える。そして、サンプル画像データから特徴量を生成して3層FFNNの入力層に与え、生成される出力層の値が教師データと等しくなるように判別パラメータw{1}、w{2}、b{1}、b{2}を調整する。この調整は判別パラメータが正確に定まるものであればよい。例えば誤差逆伝搬法が用いられる。 In the three-layer FFNN, the teacher data is the same Nout-dimensional vector as that of the output layer, and the value of the element corresponding to the expected subject direction is 1 and the value of the other elements is 0. Then, a feature amount is generated from the sample image data and given to the input layer of the three-layer FFNN, and the discrimination parameters w {1} , w {2} , b { are set so that the generated output layer value is equal to the teacher data. 1} and b {2} are adjusted. This adjustment may be performed as long as the discrimination parameter is accurately determined. For example, an error back propagation method is used.

以上の説明では、被検体向き判別処理を3層FFNNを用いて教師あり機械学習により生成した判別パラメータを用いて行う場合を説明したが、その他の判別手段を用いることも可能である。   In the above description, the case in which the object orientation determination process is performed using the determination parameter generated by supervised machine learning using the three-layer FFNN is described, but other determination means may be used.

例えば、本実施の形態で述べた3層FFNNの中間層を多数にすれば、機械学習の過程において複数の特徴量を組み合わせ方も学習することが可能となる。この場合、例えば方向エッジ画像データそのものを第二の特徴量として用いても被検体向き判別処理が可能となる。   For example, if the number of intermediate layers of the three-layer FFNN described in the present embodiment is increased, it is possible to learn how to combine a plurality of feature amounts in the machine learning process. In this case, for example, the object orientation determination process can be performed even if the direction edge image data itself is used as the second feature amount.

(情報処理装置について)
また、本発明は、前述した実施の形態の機能を実現するソフトウェアのプログラム(実施の形態では図に示すフローチャートに対応したプログラム)を、システムあるいは装置に直接あるいは遠隔から供給し、そのシステムあるいは装置のコンピュータが該供給されたプログラムコードを読み出して実行することによっても達成される場合を含む。
(About information processing equipment)
In addition, the present invention supplies a software program (in the embodiment, a program corresponding to the flowchart shown in the drawing) to the system or apparatus directly or remotely, and the system or apparatus implements the functions of the above-described embodiments. The computer can read out and execute the supplied program code.

従って、本発明の機能処理をコンピュータで実現するために、該コンピュータにインストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明は、本発明の機能処理を実現するためのコンピュータプログラム自体も含まれる。   Accordingly, since the functions of the present invention are implemented by computer, the program code installed in the computer also implements the present invention. In other words, the present invention includes a computer program itself for realizing the functional processing of the present invention.

以上、本発明の好ましい実施の形態について説明したが、本発明はこれらの実施の形態に限定されないことはいうまでもなく、その要旨の範囲内で種々の変形及び変更が可能である。   As mentioned above, although preferable embodiment of this invention was described, it cannot be overemphasized that this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.

108 演算部(演算手段に対応)
109 表示部(表示手段に対応)
114 表示処理部(表示処理手段に対応)
200 画像処理装置
108 Calculation unit (corresponding to calculation means)
109 Display (corresponding to display means)
114 Display processing unit (corresponding to display processing means)
200 Image processing apparatus

Claims (20)

被検体の画像データにおける複数の領域毎の画素値の強度分布を複数の領域間で比較した傾向を示す値と、前記傾向を示す値と前記画像データにおける被検体の向きを関連づけるために予め被検体毎に定められた値と、に基づいて前記画像データにおける前記被検体の向きを決定する演算を行う演算手段と、
前記演算手段によって演算された演算結果に基づいて、前記画像データに基づいて前記被検体の画像を表示する表示手段に対して前記被検体の画像中の被検体が所定の向きになるように前記被検体の画像を前記表示手段に表示させる処理をする表示処理手段と、
を有することを特徴とする画像処理装置。
In order to associate a value indicating the tendency of comparing the intensity distribution of pixel values for each of a plurality of regions in the image data of the subject between the plurality of regions, the value indicating the tendency and the orientation of the subject in the image data in advance. A calculation means for performing a calculation for determining a direction of the subject in the image data based on a value determined for each sample;
Based on the calculation result calculated by the calculation means, the subject in the subject image is in a predetermined orientation with respect to the display means for displaying the subject image based on the image data. Display processing means for processing to display an image of the subject on the display means;
An image processing apparatus comprising:
前記表示処理手段は、前記画像データにおける前記被検体の向きが、前記所定の向きとするための基準となる被検体の向きと一致又は類似するように、前記画像データにおける前記被検体の向きを変更させて前記表示手段に表示させることを特徴とする請求項1に記載の画像処理装置。   The display processing means determines the orientation of the subject in the image data so that the orientation of the subject in the image data matches or is similar to the orientation of the subject serving as a reference for setting the predetermined orientation. The image processing apparatus according to claim 1, wherein the image processing apparatus is changed and displayed on the display unit. 前記演算手段は、
前記複数の領域毎に算出された画素値の強度分布を複数の領域間で比較した傾向に基づいて第一の特徴量を抽出する第一の特徴量抽出手段を有し、前記第一の特徴量に基づいて前記画像データにおける被検体の向きを決定することを特徴とすることを特徴とする請求項1又は2に記載の画像処理装置。
The computing means is
A first feature amount extraction unit configured to extract a first feature amount based on a tendency of comparing intensity distributions of pixel values calculated for each of the plurality of regions between the plurality of regions; The image processing apparatus according to claim 1, wherein the orientation of the subject in the image data is determined based on the amount.
前記第一の特徴量抽出手段は、前記複数の領域毎に統計量を抽出し、
前記第一の特徴量は、前記複数の領域毎の統計量の関係に応じた値を含むことを特徴とする請求項3に記載の画像処理装置。
The first feature amount extraction unit extracts a statistic for each of the plurality of regions,
The image processing apparatus according to claim 3, wherein the first feature amount includes a value corresponding to a statistical amount relationship for each of the plurality of regions.
前記第一の特徴量抽出手段は、前記複数の領域毎に統計量を抽出し、
前記第一の特徴量は、前記統計量を含むことを特徴とする請求項3叉は4に記載の画像処理装置。
The first feature amount extraction unit extracts a statistic for each of the plurality of regions,
The image processing apparatus according to claim 3, wherein the first feature amount includes the statistical amount.
前記第一の特徴量は、前記被検体の画像データにおける画素値の変化量が所定値以上であるエッジ画素を抽出し、前記画像データ内の上半分と下半分の領域又は左半分と右半分の領域の少なくとも1組の領域の統計量を比較した結果に基づいて抽出された前記複数の領域間でのエッジ画素の分布の傾向を示す値であることを特徴とする請求項3から5のいずれか1項に記載の画像処理装置。   The first feature amount is obtained by extracting an edge pixel whose pixel value change amount in the image data of the subject is equal to or larger than a predetermined value, and an upper half region and a lower half region or a left half portion and a right half in the image data. 6. The value according to claim 3, wherein the value indicates a tendency of an edge pixel distribution among the plurality of regions extracted based on a result of comparing statistics of at least one set of the regions. The image processing apparatus according to any one of the above. 前記演算手段は、
前記撮影画像における複数の方向毎に算出された画素値の変化量の分布を複数の方向間で比較した傾向に基づいて第二の特徴量を抽出する第二の特徴量抽出手段を更に有し、
前記第二の特徴量に更に基づいて前記画像データにおける被検体の向きを決定することを特徴とする請求項1から6のいずれか1項に記載の画像処理装置。
The computing means is
The image processing apparatus further includes second feature amount extraction means for extracting a second feature amount based on a tendency of comparing distributions of change amounts of pixel values calculated for a plurality of directions in the captured image between a plurality of directions. ,
The image processing apparatus according to claim 1, wherein an orientation of the subject in the image data is determined further based on the second feature amount.
前記第二の特徴量抽出手段は、
前記画素値の変化量が所定値以上であるエッジ画素の分布から前記複数の方向毎の統計量を算出して、前記複数の方向毎の統計量の関係を第二の特徴量とすることを特徴とする請求項7に記載の画像処理装置。
The second feature amount extraction means includes
Calculating a statistic for each of the plurality of directions from a distribution of edge pixels in which the change amount of the pixel value is equal to or greater than a predetermined value, and setting the relationship between the statistics for the plurality of directions as a second feature quantity The image processing apparatus according to claim 7, wherein the apparatus is an image processing apparatus.
前記第二の特徴量抽出手段は、
前記画素値の変化量が所定値以上であるエッジ画素の分布から前記複数の方向毎の統計量を算出して、前記統計量を第二の特徴量とすることを特徴とする請求項7叉は8に記載の画像処理装置。
The second feature amount extraction means includes
8. The method according to claim 7, further comprising: calculating a statistic for each of the plurality of directions from a distribution of edge pixels having a change amount of the pixel value equal to or greater than a predetermined value, and setting the statistic as a second feature quantity. 8. The image processing apparatus according to 8.
前記第二の特徴量は、前記被検体の画像データにおける横方向の画素値の変化量と縦方向の画素値の変化量の少なくとも二方向の画素値の変化量が所定値以上であるエッジ画素を抽出し、前記二方向のエッジ画素の統計量を比較した結果に基づいて抽出されたエッジ画素の分布の傾向を示す値であることを特徴とする請求項7から9のいずれか1項に記載の画像処理装置。   The second feature amount is an edge pixel in which a change amount of a pixel value in at least two directions of a change amount of a pixel value in a horizontal direction and a change amount of a pixel value in a vertical direction in the image data of the subject is a predetermined value or more. 10. The value according to claim 7, wherein the value indicates a tendency of the distribution of edge pixels extracted based on a result of comparing the statistics of the edge pixels in the two directions. The image processing apparatus described. 前記統計量は、前記画像データにおける、画素値の平均値、画素値の分散値、または、前記エッジ画素の数の少なくともいずれか1つを含むことを特徴とする請求項4から6もしくは請求項8から10のいずれか1項に記載の画像処理装置。   7. The statistic includes at least one of an average value of pixel values, a variance value of pixel values, and a number of the edge pixels in the image data. The image processing apparatus according to any one of 8 to 10. 前記演算手段は、
機械学習により予め被検体毎に定められた値に基づいて被検体の向きを演算することを特徴とする請求項1から11のいずれか1項に記載の画像処理装置。
The computing means is
The image processing apparatus according to claim 1, wherein the orientation of the subject is calculated based on a value predetermined for each subject by machine learning.
前記演算手段は、
前記所定の向きとするための基準となる被検体の向きと前記予め被検体毎に定められた値とが対応づけられており、前記傾向を示す値と前記予め被検体毎に定められた値とに基づいて前記画像データにおける被検体の向きを判別する判別手段を有することを特徴とする請求項1から12のいずれか1項に記載の画像処理装置。
The computing means is
The orientation of the subject serving as a reference for setting the predetermined orientation is associated with the value predetermined for each subject, and the value indicating the tendency and the value predetermined for each subject The image processing apparatus according to claim 1, further comprising: a determination unit configured to determine a direction of the subject in the image data based on
前記被検体毎に定められた値と、前記基準となる被検体の向きと対応づけられた前記予め被検体毎に定められた値を含む被検体の情報と、を記憶する記憶部を更に有し、
前記演算手段は、前記傾向を示す値と前記記憶部から取得した前記予め被検体毎に定められた値とに基づいて前記画像データにおける被検体の向きを決定する演算を行うことを特徴とする請求項1から13のいずれか1項に記載の画像処理装置。
A storage unit is further provided for storing a value determined for each subject and information on the subject including a value predetermined for each subject that is associated with the reference orientation of the subject. And
The calculation means performs a calculation for determining the orientation of the subject in the image data based on a value indicating the tendency and a value predetermined for each subject acquired from the storage unit. The image processing apparatus according to claim 1.
前記演算手段は、前記画像データを所定のデータ量に縮小した縮小画像データに基づき、前記被検体の向きを算出することを特徴とする請求項1から14のいずれか1項に記載の画像処理装置。   The image processing according to any one of claims 1 to 14, wherein the calculation unit calculates the orientation of the subject based on reduced image data obtained by reducing the image data to a predetermined data amount. apparatus. 前記表示処理手段は、前記画像データにおける前記被検体の向きが、前記所定の向きとするための基準となる被検体の向きと一致又は類似するように、前記画像データにおける前記被検体の向きを回転させて前記表示手段に表示させることを特徴とする請求項1から15のいずれか1項に記載の画像処理装置。   The display processing means determines the orientation of the subject in the image data so that the orientation of the subject in the image data matches or is similar to the orientation of the subject serving as a reference for setting the predetermined orientation. The image processing apparatus according to claim 1, wherein the image processing apparatus is rotated and displayed on the display unit. 被検体の画像データにおける複数の領域毎の画素値の変化量の分布が示す値を抽出する特徴量抽出手段と、
前記画素値の変化量の分布の傾向が示す値に基づいて前記画像データにおける被検体の向きを判別する判別手段と、
を有することを特徴とする画像処理装置。
Feature amount extraction means for extracting a value indicated by a distribution of change amounts of pixel values for a plurality of regions in the image data of the subject;
A discriminating means for discriminating a direction of the subject in the image data based on a value indicated by a tendency of the distribution of the change amount of the pixel value;
An image processing apparatus comprising:
前記被検体の画像データは、放射線を照射された被検体の撮影画像に基づく画像データ
であることを特徴とする請求項1から17のいずれか1項に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the image data of the subject is image data based on a captured image of the subject irradiated with radiation.
被検体の画像データにおける複数の領域毎の画素値の変化量の分布の傾向を示す値と、前記傾向を示す値と被検体の向きを関連づけるために予め被検体毎に定められた値と、に基づいて前記画像データにおける被検体の向きを決定する演算を行う演算工程と、
前記演算工程によって演算された演算結果に基づいて、前記画像データに基づいて前記被検体の画像を表示する表示手段に対して所定の向きになるように前記被検体の画像を前記表示手段に表示させる処理をする表示処理工程と、
を備えることを特徴とする画像処理方法。
A value indicating a tendency of distribution of pixel value variation for each of a plurality of regions in the image data of the subject, a value predetermined for each subject in order to associate the value indicating the tendency and the orientation of the subject, A calculation step of performing a calculation for determining the orientation of the subject in the image data based on
Based on the calculation result calculated by the calculation step, the image of the subject is displayed on the display means so as to be in a predetermined orientation with respect to the display means for displaying the image of the subject based on the image data. A display processing step for performing processing;
An image processing method comprising:
請求項19に記載の画像処理方法をコンピュータに実行させるためのプログラム。   A program for causing a computer to execute the image processing method according to claim 19.
JP2014054161A 2014-03-17 2014-03-17 Image processing apparatus, image processing method and program Active JP6425396B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014054161A JP6425396B2 (en) 2014-03-17 2014-03-17 Image processing apparatus, image processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014054161A JP6425396B2 (en) 2014-03-17 2014-03-17 Image processing apparatus, image processing method and program

Publications (2)

Publication Number Publication Date
JP2015173923A true JP2015173923A (en) 2015-10-05
JP6425396B2 JP6425396B2 (en) 2018-11-21

Family

ID=54253677

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014054161A Active JP6425396B2 (en) 2014-03-17 2014-03-17 Image processing apparatus, image processing method and program

Country Status (1)

Country Link
JP (1) JP6425396B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018011958A (en) * 2016-07-21 2018-01-25 東芝メディカルシステムズ株式会社 Medical image processing apparatus and medical image processing program
DE112016004021T5 (en) 2015-09-03 2018-05-17 Denso Corporation Suction filter and fuel supply device
WO2019208006A1 (en) * 2018-04-26 2019-10-31 株式会社島津製作所 Radiation imaging device

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11847730B2 (en) * 2020-01-24 2023-12-19 Covidien Lp Orientation detection in fluoroscopic images

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5862249A (en) * 1995-12-01 1999-01-19 Eastman Kodak Company Automated method and system for determination of positional orientation of digital radiographic images
JP2001070290A (en) * 1999-08-31 2001-03-21 Konica Corp Method and device for processing image
JP2001351092A (en) * 2000-04-04 2001-12-21 Konica Corp Image processing selecting method, image selecting method, and image processor
US20060110021A1 (en) * 2004-11-23 2006-05-25 Hui Luo Method for recognizing projection views of radiographs
US20060110068A1 (en) * 2004-11-19 2006-05-25 Hui Luo Detection and correction method for radiograph orientation
JP2008011901A (en) * 2006-07-03 2008-01-24 Fujifilm Corp Image type discrimination device, method and program
JP2008520385A (en) * 2004-11-23 2008-06-19 イーストマン コダック カンパニー How to classify radiographs
US20090220174A1 (en) * 2008-02-29 2009-09-03 Fujifilm Corporation Chest image rotation apparatus, method and recording-medium stored therein program
JP2010246705A (en) * 2009-04-15 2010-11-04 Konica Minolta Medical & Graphic Inc Image processor, image processing method and program

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5862249A (en) * 1995-12-01 1999-01-19 Eastman Kodak Company Automated method and system for determination of positional orientation of digital radiographic images
JP2001070290A (en) * 1999-08-31 2001-03-21 Konica Corp Method and device for processing image
JP2001351092A (en) * 2000-04-04 2001-12-21 Konica Corp Image processing selecting method, image selecting method, and image processor
US20060110068A1 (en) * 2004-11-19 2006-05-25 Hui Luo Detection and correction method for radiograph orientation
JP2008520344A (en) * 2004-11-19 2008-06-19 ケアストリーム ヘルス インク Method for detecting and correcting the orientation of radiographic images
US20060110021A1 (en) * 2004-11-23 2006-05-25 Hui Luo Method for recognizing projection views of radiographs
JP2008520385A (en) * 2004-11-23 2008-06-19 イーストマン コダック カンパニー How to classify radiographs
JP2008011901A (en) * 2006-07-03 2008-01-24 Fujifilm Corp Image type discrimination device, method and program
US20090220174A1 (en) * 2008-02-29 2009-09-03 Fujifilm Corporation Chest image rotation apparatus, method and recording-medium stored therein program
JP2009201872A (en) * 2008-02-29 2009-09-10 Fujifilm Corp Thoracic region image rotating device, method, and program
JP2010246705A (en) * 2009-04-15 2010-11-04 Konica Minolta Medical & Graphic Inc Image processor, image processing method and program

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112016004021T5 (en) 2015-09-03 2018-05-17 Denso Corporation Suction filter and fuel supply device
JP2018011958A (en) * 2016-07-21 2018-01-25 東芝メディカルシステムズ株式会社 Medical image processing apparatus and medical image processing program
JP7118606B2 (en) 2016-07-21 2022-08-16 キヤノンメディカルシステムズ株式会社 MEDICAL IMAGE PROCESSING APPARATUS AND MEDICAL IMAGE PROCESSING PROGRAM
WO2019208006A1 (en) * 2018-04-26 2019-10-31 株式会社島津製作所 Radiation imaging device
JPWO2019208006A1 (en) * 2018-04-26 2021-04-08 株式会社島津製作所 Radiation imaging device
JP7283470B2 (en) 2018-04-26 2023-05-30 株式会社島津製作所 radiography equipment
US11890126B2 (en) 2018-04-26 2024-02-06 Shimadzu Corporation Radiation imaging apparatus

Also Published As

Publication number Publication date
JP6425396B2 (en) 2018-11-21

Similar Documents

Publication Publication Date Title
JP6833444B2 (en) Radiation equipment, radiography system, radiography method, and program
US10388018B2 (en) Image processing apparatus, image processing method, and storage medium
EP3326534B1 (en) X-ray apparatus and method of acquiring medical image thereof
KR102560911B1 (en) Image processing apparatus, image processing method, and storage medium
CN109363699B (en) Method and device for identifying focus of breast image
JP5828649B2 (en) Image processing apparatus, image processing method, and computer program
US10692215B2 (en) Image processing apparatus, image processing method, and storage medium
US20080123929A1 (en) Apparatus, method and program for image type judgment
JP6425396B2 (en) Image processing apparatus, image processing method and program
WO2013191061A1 (en) Image processing device
US20190392552A1 (en) Spine image registration method
JP6957170B2 (en) Radiation imaging equipment, radiography systems, radiography methods, and programs
JP4416823B2 (en) Image processing apparatus, image processing method, and computer program
JP2006130212A (en) Method, device, and program for detecting abnormal shadow candidate
JP2008011900A (en) Image type discrimination device, method and program
CN111932467A (en) Image processing method and device
JP2004188202A (en) Automatic analysis method of digital radiograph of chest part
US20240062367A1 (en) Detecting abnormalities in an x-ray image
CN110022772B (en) X-ray apparatus and method for acquiring medical image thereof
JP6789620B2 (en) Image processing device and its control method, computer program
JP2004302581A (en) Image processing method and device
WO2021039211A1 (en) Machine learning device, machine learning method, and program
JP7418171B2 (en) Image processing device, radiography system, image processing method and program
JP7409606B2 (en) Image processing device, image processing method and program
JP7454456B2 (en) Image processing device, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170316

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180626

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180810

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180925

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181023

R151 Written notification of patent or utility model registration

Ref document number: 6425396

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151