JP2001224576A - Image processing method and image processor - Google Patents

Image processing method and image processor

Info

Publication number
JP2001224576A
JP2001224576A JP2000041260A JP2000041260A JP2001224576A JP 2001224576 A JP2001224576 A JP 2001224576A JP 2000041260 A JP2000041260 A JP 2000041260A JP 2000041260 A JP2000041260 A JP 2000041260A JP 2001224576 A JP2001224576 A JP 2001224576A
Authority
JP
Japan
Prior art keywords
subject
image processing
category
correlation
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000041260A
Other languages
Japanese (ja)
Other versions
JP3709759B2 (en
Inventor
Tsutomu Kono
努 河野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2000041260A priority Critical patent/JP3709759B2/en
Publication of JP2001224576A publication Critical patent/JP2001224576A/en
Application granted granted Critical
Publication of JP3709759B2 publication Critical patent/JP3709759B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To automatically select an optimum image processing condition or image processing means and automatically provide an optimum image for diagnosis without any complicated operation by rightly recognizing the position and photographing direction of a photographed subject to a radiation image. SOLUTION: This processor comprises a judgment means 30 for judging the position and photographing direction of the subject for the obtained radiation image, an image processing condition memory means 50 for storing a plurality of image processing conditions preliminarily optimized every position and photographing direction of the subject, an image processing condition selecting means 40 for selecting and reading an optimum one from the image processing conditions stored in the image processing condition memory means according to the position and photographing direction of the subject judged by the judgment means, and an image processing means 60 for performing an image processing on the basis of the image processing condition read by the processing condition selecting means. In the judgment means, the position and photographing direction are judged on the basis of the priority set every position and photographing direction of the subject.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は放射線画像を処理す
る画像処理方法および画像処理装置に関し、さらに詳し
くは、放射線画像の最適処理が可能な画像処理方法およ
び画像処理装置に関する。
The present invention relates to an image processing method and an image processing apparatus for processing a radiation image, and more particularly to an image processing method and an image processing apparatus capable of optimally processing a radiation image.

【0002】[0002]

【従来の技術】近年、放射線画像を直接デジタル画像と
して撮影できる装置が開発されている。たとえば、被写
体に照射された放射線量を検出し、その検出量に対応し
て形成される放射線画像を電気信号として得る装置とし
ては、輝尽性蛍光体を用いたディテクタを用いる方法が
特開昭55-12429号公報、特開昭63-189853号公報など、
多数開示されている。
2. Description of the Related Art In recent years, devices capable of directly taking a radiation image as a digital image have been developed. For example, as a device that detects the amount of radiation applied to a subject and obtains a radiation image formed in accordance with the detected amount as an electric signal, a method using a detector using a stimulable phosphor is disclosed in Japanese Unexamined Patent Application Publication No. 2005-110,026. 55-12429 gazette, JP-A-63-189853 gazette,
Many have been disclosed.

【0003】このような装置では、シ−ト状の基板に輝
尽性蛍光体を塗布、あるいは蒸着等によって固着したデ
ィテクタに、いったん被写体を透過した放射線を照射し
て輝尽性蛍光体に放射線を吸収させる。
In such an apparatus, a stimulable phosphor is applied to a sheet-like substrate, or is fixed by vapor deposition or the like. To absorb.

【0004】その後、この輝尽性蛍光体を光または熱エ
ネルギ−で励起することにより、この輝尽性蛍光体が上
記吸収によって蓄積している放射線エネルギ−を蛍光と
して放射させ、この蛍光を光電変換して画像信号を得る
ようにしている。
Thereafter, the stimulable phosphor is excited by light or heat energy to emit the radiation energy accumulated by the stimulable phosphor as a result of the above-mentioned absorption, and the fluorescence is converted to a photoelectric energy. Conversion is performed to obtain an image signal.

【0005】一方、照射された放射線の強度に応じた電
荷を光導電層に生成し、生成された電荷を二次元的に配
列された複数のコンデンサに蓄積し、それら蓄積された
電荷を取り出すことにより得られる放射線画像検出装置
が提案されている。
On the other hand, an electric charge corresponding to the intensity of the irradiated radiation is generated in the photoconductive layer, the generated electric charge is accumulated in a plurality of two-dimensionally arranged capacitors, and the accumulated electric charge is taken out. Has been proposed.

【0006】このような放射線画像検出装置では、フラ
ットパネルディテクタ(FPD)と呼ばれるものを使用
している。この種のFPDは、特開平9−90048号
公報に記載されているように、蛍光をフォトダイオード
で検知したり、CCDやC−MOSセンサで検出するこ
とができる。また、特開平6−342098号公報にも
同様なFPDが記載されている。
[0006] Such a radiation image detecting apparatus uses what is called a flat panel detector (FPD). As described in Japanese Patent Application Laid-Open No. 9-90048, this type of FPD can detect fluorescence with a photodiode or a CCD or C-MOS sensor. A similar FPD is described in Japanese Patent Application Laid-Open No. 6-342098.

【0007】これらの装置では、放射線画像を診断に適
した階調で表現するために、医師が注目する部分(関心
領域)について見やすくなるよう、前記のような装置で
得られた画像を自動的に階調変換することが望ましい。
[0007] In these devices, in order to express a radiographic image in a gradation suitable for diagnosis, an image obtained by the above device is automatically converted so that a doctor can easily see a portion (region of interest) of interest. It is desirable to perform gradation conversion.

【0008】このような自動階調変換を行うために、画
像デ−タの統計的特徴(デ−タの最大値・最小値・ヒス
トグラム等)から処理条件を決定し、画像全体に対して
画像処理を施すことが行われる。
In order to perform such automatic gradation conversion, processing conditions are determined from the statistical characteristics (maximum value, minimum value, histogram, etc.) of image data, and the image Processing is performed.

【0009】また、細部の構造を見やすくするため、エ
ッジ強調処理を行ったり、被写体の信号領域を狭めて、
濃度の高い部分と低い部分を同時に観察しやすくするた
めのダイナミックレンジ圧縮処理等も行われる。
Further, in order to make it easy to see the detailed structure, edge enhancement processing is performed or the signal area of the subject is narrowed.
A dynamic range compression process or the like is also performed to make it easy to observe high density portions and low density portions simultaneously.

【0010】しかし、診断に利用する放射線撮影では、
撮影対象となる部位が頭部から四肢まで多岐に渡り、そ
れぞれによって医師が注目する領域も異なるため、診断
に最適な画像を得るための画像処理条件は、撮影部位毎
に異なるものとなる。また、同様に、撮影方向によって
も、処理条件は異なるものとなる。
However, in radiography used for diagnosis,
Since the region to be photographed covers a wide range from the head to the limbs, and the region to which the doctor pays attention differs depending on the region, the image processing conditions for obtaining an image optimal for diagnosis differ for each region to be photographed. Similarly, processing conditions vary depending on the shooting direction.

【0011】そのため、従来これらの装置では、画像処
理を行う前に、最適な処理条件を選択するため、被写体
の撮影部位、方向等を入力する必要がある。
[0011] Therefore, in these devices, it is necessary to input a photographing part, a direction, and the like of a subject in order to select an optimum processing condition before performing image processing.

【0012】一部の病院では、病院情報システム(HI
S)や放射線科情報システム(RIS)を備えていると
ころもあり、放射線撮影のオーダー情報から、直接撮影
部位情報を取得できるため、特に放射線技師等の操作無
く、最適な処理条件を選択可能であるが、多数の病院で
はこのようなシステムを備えていないため、技師等が手
入力にてこれらの情報を入力する必要がある。
In some hospitals, hospital information systems (HI
S) and some radiology information systems (RIS) are provided, and the imaging part information can be obtained directly from the order information of the radiography, so that the optimal processing conditions can be selected without the operation of a radiologist or the like. However, since many hospitals do not have such a system, it is necessary for a technician or the like to manually input such information.

【0013】また緊急時の撮影においても、迅速に撮影
を行うために、上記のHISやRISを備えた病院で
も、技師等が被写体の部位情報等を手入力する場合もあ
る。
[0013] In addition, even in a hospital equipped with the above-mentioned HIS or RIS, a technician or the like may manually input information on a part of a subject or the like in order to quickly take a picture in an emergency.

【0014】しかし、一般に撮影される部位は100種
類以上もあり、この中から毎回撮影を行う度に上記入力
作業を行うことは煩雑であり、放射線撮影を行う放射線
技師の負担となっていた。
[0014] However, there are generally more than 100 types of parts to be imaged, and it is troublesome to perform the above-mentioned input work every time an image is taken from each of them, and this burdens the radiation technologist who performs the radiography.

【0015】そこで、撮影された画像を読み取って自動
的に被写体の部位、方向を認識して、最適な処理条件を
選択することが、技師の負担を軽くするために求められ
ている。
Therefore, it is required to read the photographed image, automatically recognize the part and direction of the subject, and select the optimum processing condition in order to reduce the burden on the engineer.

【0016】撮影された部位を自動的に判別する方法と
して、特開平11−85950号公報に記載のように画
像の濃度分布から特徴量を調べ、その特徴量に基づいて
判別するものがある。
As a method of automatically judging a photographed part, there is a method of examining a feature quantity from an image density distribution and discriminating based on the feature quantity as described in Japanese Patent Application Laid-Open No. H11-85950.

【0017】[0017]

【発明が解決しようとする課題】しかし、放射線撮影で
は通常、人体への不要な被曝を避けるために、照射野絞
りと呼ばれる放射線遮蔽物を用いて、放射線が照射され
る領域(照射野)を限定して撮影することが一般的であ
る。
However, in radiography, in order to avoid unnecessary exposure to the human body, an area (irradiation field) to be irradiated with radiation is usually used by using a radiation shield called an irradiation field stop. It is common to take a limited number of images.

【0018】また、照射野の絞り方は、撮影技師によっ
て異なるため、同一患者、同一部位に対する撮影であっ
ても、必ずしも同じ照射野形状になるとは限らない。
Further, since the method of narrowing the irradiation field differs depending on the radiographing technician, the same irradiation field shape is not always obtained even when the same patient and the same site are photographed.

【0019】さらに、照射野内外では、大きく信号分布
が変化するため、照射野の絞り方によって画像の濃度分
布は大きく異なってしまう。
Further, since the signal distribution changes greatly inside and outside the irradiation field, the density distribution of the image greatly differs depending on how to narrow the irradiation field.

【0020】このような結果、上記のように濃度分布に
よる特徴量で判別を行うと照射野の絞り方によって特徴
量が変わってしまい、撮影部位を正しく判別することは
困難になる。
As a result, if the discrimination is performed based on the characteristic amount based on the density distribution as described above, the characteristic amount changes depending on the manner of narrowing the irradiation field, and it becomes difficult to correctly determine the imaging region.

【0021】また、放射線撮影を行う部位は多岐にわた
り、同じ診断目的に対しても異なる撮影方法があるた
め、病院毎に撮影される部位もしくは撮影方向が異なっ
てくる。また、病院毎に工夫された、独自の撮影方法も
用いられる。
[0021] In addition, since radiographic imaging is performed in a wide variety of areas and there are different imaging methods for the same diagnostic purpose, the imaging area or imaging direction differs for each hospital. Also, a unique imaging method devised for each hospital is used.

【0022】従って、全ての撮影方法に対応した処理条
件を予め準備しておくことは非常に困難である。
Therefore, it is very difficult to prepare processing conditions corresponding to all photographing methods in advance.

【0023】もし、処理条件や部位の判別条件が記憶さ
れていない、新規の撮影方法で撮影された画像が入力さ
れた場合、上記公知例では判別手段に設けられた学習機
能によって対応できるようになっているが、正しい学習
が行われるためには多くのサンプルが必要であり、即座
に対応することができないという問題が生じる。
If an image photographed by a new photographing method is inputted in which processing conditions and part discriminating conditions are not stored, the learning function provided in the discriminating means can be used in the above-mentioned known example. However, a problem arises in that many samples are required for correct learning to be performed, and it is not possible to respond immediately.

【0024】本発明は以上のような課題に鑑みてなされ
たものであって、放射線画像に対して、撮影された被写
体の部位および撮影方向を正しく認識することにより、
自動的に最適な画像処理条件または画像処理手段を選択
し、煩雑な操作無しに診断に最適な画像を自動的に得る
ことが可能な画像処理方法および画像処理装置を実現す
ることを目的とする。
SUMMARY OF THE INVENTION The present invention has been made in view of the above-described problems, and by correctly recognizing a part and a photographing direction of a photographed subject in a radiographic image,
It is an object of the present invention to realize an image processing method and an image processing apparatus capable of automatically selecting an optimal image processing condition or an image processing unit and automatically obtaining an optimal image for diagnosis without complicated operation. .

【0025】[0025]

【課題を解決するための手段】すなわち、前記した課題
を解決する本発明は、以下の通りである。
That is, the present invention for solving the above-mentioned problems is as follows.

【0026】(1)請求項1記載の発明は、被写体を透
過した放射線量を検出し、検出された放射線量に応じた
放射線画像を形成する放射線画像形成ステップと、形成
された放射線画像について被写体の部位および撮影方向
を判別する判別ステップと、被写体の部位および撮影方
向毎に予め最適化された複数の画像処理条件を記憶する
画像処理条件記憶ステップと、判別された被写体の部位
および撮影方向に応じて、前記画像処理条件記憶ステッ
プで記憶された画像処理条件の中から最適なもの選定し
て読み出す処理条件選定ステップと、読み出された画像
処理条件に基づいて画像処理を行う画像処理ステップ
と、を備え、前記判別ステップでは被写体の部位および
撮影方向毎に設定された優先度に基づいて被写体の部位
および撮影方向を判別する、ことを特徴とする画像処理
方法である。
(1) According to the first aspect of the present invention, there is provided a radiation image forming step of detecting a radiation amount transmitted through a subject and forming a radiation image corresponding to the detected radiation amount; Determining an image processing condition for storing a plurality of image processing conditions optimized in advance for each of the region and the imaging direction of the subject; Accordingly, a processing condition selecting step of selecting and reading out the optimal image processing conditions from the image processing conditions stored in the image processing condition storing step, and an image processing step of performing image processing based on the read image processing conditions. In the determination step, the part of the subject and the photographing direction are determined based on the priority set for each part of the subject and the photographing direction. To an image processing method characterized by.

【0027】また、請求項7記載の発明は、被写体を透
過した放射線量を検出し、検出された放射線量に応じた
放射線画像を形成する放射線画像形成手段と、前記放射
線画像形成手段で形成された放射線画像について被写体
の部位および撮影方向を判別する判別手段と、被写体の
部位および撮影方向毎に予め最適化された複数の画像処
理条件を記憶する画像処理条件記憶手段と、前記判別手
段で判別された被写体の部位および撮影方向に応じて、
前記画像処理条件記憶手段に記憶された画像処理条件の
中から最適なもの選定して読み出す処理条件選定手段
と、前記処理条件選定手段で読み出された画像処理条件
に基づいて画像処理を行う画像処理手段と、を備え、前
記判別手段では被写体の部位および撮影方向毎に設定さ
れた優先度に基づいて被写体の部位および撮影方向を判
別する、ことを特徴とする画像処理装置である。
According to a seventh aspect of the present invention, there is provided a radiation image forming means for detecting a radiation amount transmitted through a subject and forming a radiation image in accordance with the detected radiation amount, and the radiation image forming means. Discriminating means for discriminating a part and a photographing direction of a subject with respect to the obtained radiation image; image processing condition storing means for storing a plurality of image processing conditions optimized in advance for each part of the subject and a photographing direction; Depending on the part of the subject and the shooting direction
A processing condition selecting means for selecting and reading out an optimum one from the image processing conditions stored in the image processing condition storing means, and an image for performing image processing based on the image processing conditions read out by the processing condition selecting means Processing means, wherein the determining means determines the part and the photographing direction of the subject based on the priority set for each part of the subject and the photographing direction.

【0028】これらの発明では、被写体を透過した放射
線量を検出して得た放射線画像を処理する際に、部位お
よび撮影方向毎に設定された優先度に基づいて被写体の
部位および撮影方向を判別し、被写体の部位および撮影
方向毎に予め最適化された複数の画像処理条件の中から
判別された被写体の部位および撮影方向に応じて読み出
し、読み出された画像処理条件に基づいて画像処理を行
うようにしている。
According to these inventions, when processing a radiation image obtained by detecting the amount of radiation transmitted through a subject, the part of the subject and the photographing direction are determined based on the priority set for each part and the photographing direction. Then, reading is performed in accordance with the part of the subject and the photographing direction determined from the plurality of image processing conditions optimized in advance for each part of the subject and the photographing direction, and image processing is performed based on the read image processing conditions. I'm trying to do it.

【0029】以上のように、撮影部位および撮影方向毎
に設定された優先度を利用することにより、被写体の特
徴だけでは被写体を正しく認識し難い場合でも精度良く
最適な画像処理条件を選択することができる。
As described above, by using the priorities set for each of the imaging region and the imaging direction, it is possible to accurately select the optimal image processing conditions even when it is difficult to correctly recognize the object only by the characteristics of the object. Can be.

【0030】このため、放射線画像に対して、撮影され
た被写体の部位および撮影方向を正しく認識することに
よって、自動的に最適な階調処理条件を選択し、煩雑な
操作無しに診断に最適な画像を自動的に得ることが可能
になる。
For this reason, by properly recognizing the part of the photographed subject and the photographing direction with respect to the radiographic image, the optimum gradation processing condition is automatically selected, and the optimum gradation processing condition is selected without complicated operation. Images can be obtained automatically.

【0031】(2)請求項2記載の発明は、前記判別ス
テップは、前記被写体の複数の特徴を抽出し、それらの
特徴を各要素としてもつ特徴ベクトルを生成する特徴ベ
クトル生成ステップと、被写体の部位および撮影方向に
よる特徴を表す被写体ベクトルと、それぞれの優先度を
予め記憶しておく被写体情報記憶ステップと、生成され
た前記特徴ベクトルと、読み出された前記被写体ベクト
ルとで、相関度を計算する相関度計算ステップと、を有
し、前記相関度計算ステップにより求められた相関度が
予め定められたしきい値以上となる部位および撮影方向
が複数存在する場合には、該当する被写体の部位および
撮影方向が有する前記優先度が最も高い部位および撮影
方向として被写体を判別する、ことを特徴とする請求項
1記載の画像処理方法である。
(2) The invention according to claim 2, wherein the discriminating step extracts a plurality of features of the subject and generates a feature vector having the features as respective elements, Calculate the degree of correlation between a subject vector representing a feature according to a part and an imaging direction, a subject information storing step of storing respective priorities in advance, the generated feature vector, and the read subject vector. And calculating the degree of correlation, and when there are a plurality of parts and imaging directions in which the degree of correlation obtained by the degree of correlation calculation is equal to or greater than a predetermined threshold, the part of the subject 2. The image processing apparatus according to claim 1, wherein a subject is determined as a part having the highest priority and a photographing direction of the photographing direction. It is the law.

【0032】また、請求項8記載の発明は、前記判別手
段は、前記被写体の複数の特徴を抽出し、それらの特徴
を各要素としてもつ特徴ベクトルを生成する特徴ベクト
ル生成手段と、被写体の部位および撮影方向による特徴
を表す被写体ベクトルと、それぞれの優先度を予め記憶
しておく被写体情報記憶手段と、前記特徴ベクトル生成
手段によって生成された前記特徴ベクトルと、前記被写
体情報記憶手段から読み出された前記被写体ベクトルと
で、相関度を計算する相関度計算手段と、を有し、前記
相関度計算手段により求められた相関度が予め定められ
たしきい値以上となる部位および撮影方向が複数存在す
る場合には、該当する被写体の部位および撮影方向が有
する前記優先度が最も高い部位および撮影方向として被
写体を判別する、ことを特徴とする請求項7記載の画像
処理装置である。
Further, according to an eighth aspect of the present invention, the discriminating means extracts a plurality of features of the subject and generates a feature vector having those features as elements, and a part of the subject. And a subject vector representing a feature according to a shooting direction, subject information storage means for storing in advance respective priorities, the feature vector generated by the feature vector generation means, and read from the subject information storage means. And a correlation degree calculating means for calculating a degree of correlation with the subject vector, wherein a plurality of parts and imaging directions in which the degree of correlation obtained by the degree of correlation calculation means is equal to or greater than a predetermined threshold value. If there is, determine the subject as the part and the shooting direction of the highest priority that the corresponding subject part and the shooting direction have, Preparative an image processing apparatus according to claim 7, wherein.

【0033】これらの発明では、以上の(1)に加え、
相関度を用いて判別する際に、相関度が予め定められた
しきい値以上となる場合には、優先度が最も高い部位お
よび撮影方向として被写体を判別するようにしている。
In these inventions, in addition to the above (1),
When determining using the degree of correlation, if the degree of correlation is equal to or greater than a predetermined threshold, the subject is determined as the part and the imaging direction with the highest priority.

【0034】以上のように、撮影部位および撮影方向毎
に設定された優先度を利用することにより、被写体の特
徴だけでは被写体を正しく認識し難い場合でも精度良く
最適な画像処理条件を選択することができる。
As described above, by using the priorities set for each imaging region and imaging direction, it is possible to accurately select the optimal image processing conditions even when it is difficult to correctly recognize the object only by the characteristics of the object. Can be.

【0035】このため、放射線画像に対して、撮影され
た被写体の部位および撮影方向を正しく認識することに
よって、自動的に最適な階調処理条件を選択し、煩雑な
操作無しに診断に最適な画像を自動的に得ることが可能
になる。
For this reason, by properly recognizing the part of the photographed subject and the photographing direction with respect to the radiographic image, the optimum gradation processing conditions are automatically selected, and the optimum gradation processing condition is selected without any complicated operation. Images can be obtained automatically.

【0036】(3)請求項3記載の発明は、前記判別ス
テップは、同様の撮影部位毎に分類された複数のカテゴ
リのうちのいずれかに前記被写体を分類するカテゴリ分
類ステップと、さらに分類されたカテゴリ内で該カテゴ
リに属する部位および撮影方向として前記被写体を特定
する被写体特定ステップと、を有し、該被写体特定ステ
ップは、前記各カテゴリ毎に所属する部位および撮影方
向毎に設定された優先度を用いて被写体を認識する、こ
とを特徴とする請求項1記載の画像処理方法である。
(3) The invention according to claim 3, wherein the discriminating step is further classified into a category classifying step of classifying the subject into any one of a plurality of categories classified by similar photographed parts. And a subject identification step of identifying the subject as a part belonging to the category and a photographing direction in the category, wherein the subject identification step includes a priority set for each part belonging to each category and each photographing direction. 2. The image processing method according to claim 1, wherein the object is recognized using the degree.

【0037】また、請求項9記載の発明は、前記判別手
段は、同様の撮影部位毎に分類された複数のカテゴリの
うちのいずれかに前記被写体を分類するカテゴリ分類手
段と、さらに分類されたカテゴリ内で該カテゴリに属す
る部位および撮影方向として前記被写体を特定する被写
体特定手段と、を有し、該被写体特定手段は、前記各カ
テゴリ毎に所属する部位および撮影方向毎に設定された
優先度を用いて被写体を認識する、ことを特徴とする請
求項7記載の画像処理装置である。
According to a ninth aspect of the present invention, the discriminating means is further classified into a category classifying means for classifying the subject into any one of a plurality of categories classified by similar photographed parts. Subject specifying means for specifying the subject as a part belonging to the category and a shooting direction within the category, wherein the subject specifying means includes a part belonging to each category and a priority set for each shooting direction 8. The image processing apparatus according to claim 7, wherein the object is recognized using the image.

【0038】これらの発明では、以上の(1)に加え、
同様の撮影部位毎に分類された複数のカテゴリのうちの
いずれかに被写体を分類し、さらに分類されたカテゴリ
内で該カテゴリに属する部位および撮影方向として前記
被写体を特定する場合に、各カテゴリ毎に所属する部位
および撮影方向毎に設定された優先度を用いて被写体を
認識するようにしている。
In these inventions, in addition to the above (1),
When the subject is classified into any one of a plurality of categories classified by the same imaging region, and when the subject is specified as a region belonging to the category and the imaging direction in the classified category, each of the categories The object is recognized by using the priority set for each part belonging to and the shooting direction.

【0039】以上のように、撮影部位および撮影方向毎
に設定された優先度を利用することにより、被写体の特
徴だけでは被写体を正しく認識し難い場合でも精度良く
最適な画像処理条件を選択することができる。
As described above, by using the priorities set for each photographing region and photographing direction, optimal image processing conditions can be accurately selected even when it is difficult to correctly recognize the subject only by the characteristics of the subject. Can be.

【0040】このため、放射線画像に対して、撮影され
た被写体の部位および撮影方向を正しく認識することに
よって、自動的に最適な階調処理条件を選択し、煩雑な
操作無しに診断に最適な画像を自動的に得ることが可能
になる。
For this reason, by properly recognizing the part of the photographed subject and the photographing direction with respect to the radiographic image, the optimal gradation processing condition is automatically selected, and the optimal gradation processing condition is selected without complicated operation. Images can be obtained automatically.

【0041】(4)請求項4記載の発明は、前記カテゴ
リ分類ステップは、前記被写体の複数の特徴を抽出し、
それらの特徴を各要素としてもつ特徴ベクトルを生成す
る特徴ベクトル生成ステップと、前記カテゴリ毎の特徴
を表すカテゴリベクトルを予め記憶しておくカテゴリ情
報記憶ステップと、前記特徴ベクトル生成ステップによ
って得られた前記特徴ベクトルに含まれる一部または全
ての要素について、前記カテゴリ情報記憶ステップから
読み出された前記カテゴリベクトルとで、相関度を計算
するカテゴリ相関度計算ステップと、を有し、該カテゴ
リ相関度計算ステップによって、相関度が最も高いと判
断されたカテゴリに含まれるとして、前記被写体の所属
カテゴリを決定するとともに、前記被写体特定ステップ
は、部位および撮影方向毎の特徴を表す被写体ベクトル
とそれぞれの優先度を予め記憶しておく被写体情報記憶
ステップと、該被写体情報記憶ステップから前記被写体
が所属すると判断されたカテゴリに属する部位および撮
影方向に関連する前記被写体ベクトルを読み出して、前
記特徴ベクトルとの相関度を計算する被写体相関度計算
ステップと、を有し、該被写体相関度計算ステップによ
り求められた相関度が予め定められたしきい値以上とな
る部位および撮影方向が複数存在する場合には、該当す
る部位および撮影方向が有する前記優先度が最も高い撮
影部位および方向として被写体を認識する、ことを特徴
とする請求項3記載の画像処理方法である。
(4) In the invention described in claim 4, the category classification step includes extracting a plurality of features of the subject,
A feature vector generating step of generating a feature vector having those features as respective elements, a category information storing step of storing a category vector representing a feature of each category in advance, and the feature vector generating step obtained by the feature vector generating step. A category correlation degree calculating step of calculating a degree of correlation with the category vector read from the category information storage step for a part or all of the elements included in the feature vector; And determining the category to which the subject belongs, assuming that the category is included in the category determined to have the highest degree of correlation. Storing the subject information in advance, An object correlation degree calculating step of reading the object vector related to a part and a shooting direction belonging to a category determined to belong to the object from the body information storage step and calculating a degree of correlation with the feature vector. If there are a plurality of parts and shooting directions in which the degree of correlation obtained by the subject correlation degree calculation step is equal to or greater than a predetermined threshold, the priority of the corresponding part and shooting direction is the highest. 4. The image processing method according to claim 3, wherein a subject is recognized as an imaging part and a direction.

【0042】また、請求項10記載の発明は、前記カテ
ゴリ分類手段は、前記被写体の複数の特徴を抽出し、そ
れらの特徴を各要素としてもつ特徴ベクトルを生成する
特徴ベクトル生成手段と、前記カテゴリ毎の特徴を表す
カテゴリベクトルを予め記憶しておくカテゴリ情報記憶
手段と、前記特徴ベクトル生成手段によって得られた前
記特徴ベクトルに含まれる一部または全ての要素につい
て、前記カテゴリ情報記憶手段から読み出された前記カ
テゴリベクトルとで、相関度を計算するカテゴリ相関度
計算手段と、を有し、該カテゴリ相関度計算手段によっ
て、相関度が最も高いと判断されたカテゴリに含まれる
として、前記被写体の所属カテゴリを決定するととも
に、前記被写体特定手段は、部位および撮影方向毎の特
徴を表す被写体ベクトルとそれぞれの優先度を予め記憶
しておく被写体情報記憶手段と、該被写体情報記憶手段
から前記被写体が所属すると判断されたカテゴリに属す
る部位および撮影方向に関連する前記被写体ベクトルを
読み出して、前記特徴ベクトルとの相関度を計算する被
写体相関度計算手段と、を有し、該被写体相関度計算手
段により求められた相関度が予め定められたしきい値以
上となる部位および撮影方向が複数存在する場合には、
該当する部位および撮影方向が有する前記優先度が最も
高い撮影部位および方向として被写体を認識する、こと
を特徴とする請求項9記載の画像処理装置である。
According to a tenth aspect of the present invention, the category classification means extracts a plurality of features of the subject and generates a feature vector having the features as respective elements, and the category classification means includes: A category information storage unit for storing in advance a category vector representing a feature for each feature; and a part or all of the elements included in the feature vector obtained by the feature vector generation unit, read from the category information storage unit. And a category correlation degree calculating means for calculating a degree of correlation with the category vector thus determined. The category correlation degree calculating means determines that the subject is included in a category determined to have the highest degree of correlation. In addition to determining the belonging category, the subject specifying means includes a subject vector representing a feature for each part and each photographing direction. And a subject information storage unit for storing in advance the respective priorities and a subject vector related to a part and a shooting direction belonging to a category determined to belong to the subject from the subject information storage unit, and Object correlation degree calculation means for calculating the degree of correlation with the feature vector, and there are a plurality of parts and imaging directions in which the degree of correlation obtained by the object correlation degree calculation means is equal to or greater than a predetermined threshold value. If you do
The image processing apparatus according to claim 9, wherein the subject is recognized as the imaging part and the direction having the highest priority of the corresponding part and the imaging direction.

【0043】これらの発明では、相関度が最も高いと判
断されたカテゴリに含まれるとして被写体の所属カテゴ
リを決定するとともに、求められた相関度が予め定めら
れたしきい値以上となる部位および撮影方向が複数存在
する場合には該当する部位および撮影方向が有する前記
優先度が最も高い撮影部位および方向として被写体を認
識するようにしている。
According to these inventions, the category to which the subject belongs is determined as being included in the category determined to have the highest degree of correlation, and at the same time, the region and the photographing position where the obtained degree of correlation is equal to or greater than a predetermined threshold value are determined. When there are a plurality of directions, the subject is recognized as the imaging part and direction having the highest priority of the corresponding part and imaging direction.

【0044】以上のように、撮影部位および撮影方向毎
に設定された優先度を利用することにより、被写体の特
徴だけでは被写体を正しく認識し難い場合でも精度良く
最適な画像処理条件を選択することができる。
As described above, by using the priorities set for each photographing region and photographing direction, optimal image processing conditions can be accurately selected even when it is difficult to correctly recognize the subject only by the characteristics of the subject. Can be.

【0045】このため、放射線画像に対して、撮影され
た被写体の部位および撮影方向を正しく認識することに
よって、自動的に最適な階調処理条件を選択し、煩雑な
操作無しに診断に最適な画像を自動的に得ることが可能
になる。
For this reason, by properly recognizing the part of the photographed subject and the photographing direction with respect to the radiographic image, the optimum gradation processing condition is automatically selected, and the optimum gradation processing condition is selected without any complicated operation. Images can be obtained automatically.

【0046】(5)請求項5記載の発明は、前記優先度
は、被写体の部位および撮影方向毎の撮影頻度に基づい
て決定されたものである、ことを特徴とする請求項1乃
至請求項4のいずれかに記載の画像処理方法である。
(5) The invention according to claim 5, wherein the priority is determined based on a photographing frequency for each part of a subject and a photographing direction. 4. The image processing method according to any one of 4.

【0047】また、請求項11記載の発明は、前記優先
度は、被写体の部位および撮影方向毎の撮影頻度に基づ
いて決定されたものである、ことを特徴とする請求項7
乃至請求項10のいずれかに記載の画像処理装置であ
る。
The invention according to claim 11 is characterized in that the priority is determined based on a photographing frequency for each part of a subject and a photographing direction.
An image processing apparatus according to claim 10.

【0048】以上のように、優先度として撮影頻度を利
用することで、より精度良く最適な画像処理条件を選択
することができる。
As described above, by using the photographing frequency as the priority, the optimum image processing condition can be more accurately selected.

【0049】(6)請求項6記載の発明は、前記被写体
情報記憶ステップに対し、外部から被写体ベクトルの追
加,削除,変更できるともに、各部位および撮影方向毎
の優先度を追加,削除,変更できる被写体情報入力ステ
ップを有する、ことを特徴とする請求項2乃至請求項5
のいずれかに記載の画像処理方法である。
(6) According to the invention of claim 6, in the object information storing step, an object vector can be externally added, deleted, and changed, and the priority for each part and each imaging direction is added, deleted, and changed. 6. A subject information input step which can be performed.
The image processing method according to any one of the above.

【0050】また、請求項12記載の発明は、前記被写
体情報記憶手段に対し、外部から被写体ベクトルの追
加,削除,変更できるともに、各部位および撮影方向毎
の優先度を追加,削除,変更できる被写体情報入力手段
を有する、ことを特徴とする請求項8乃至請求項11の
いずれかに記載の画像処理装置である。
According to the twelfth aspect of the present invention, the subject information storage means can externally add, delete, and change subject vectors, and can add, delete, and change the priority of each part and each photographing direction. The image processing apparatus according to any one of claims 8 to 11, further comprising subject information input means.

【0051】以上のように、外部から被写体ベクトルの
追加,削除,変更できるともに、各部位および撮影方向
毎の優先度を追加,削除,変更できるようにすること
で、より精度良く最適な画像処理条件を選択することが
できる。また、撮影部位等が増えた場合にも簡単に対応
することができる。
As described above, the object vector can be added, deleted, and changed from the outside, and the priority for each part and each photographing direction can be added, deleted, and changed. Conditions can be selected. In addition, it is possible to easily cope with an increase in the number of imaging parts and the like.

【0052】[0052]

【発明の実施の形態】以下、図面を参照して本発明の実
施の形態例を詳細に説明する。
Embodiments of the present invention will be described below in detail with reference to the drawings.

【0053】〈画像処理装置の構成〉以下、画像処理装
置の構成を大まかなブロックに従って説明する。なお、
本実施の形態例の画像処理装置の各手段は、ハードウェ
アやファームウェア、またはソフトウェアで構成するこ
とが可能である。このため、各手段の処理手順に沿った
機能ブロック図を示す。なお、この機能ブロック図は、
画像処理方法の実施の形態例を理解するためのフローチ
ャートとしても用いることができる。
<Structure of Image Processing Apparatus> Hereinafter, the structure of the image processing apparatus will be described according to rough blocks. In addition,
Each unit of the image processing apparatus according to the present embodiment can be configured by hardware, firmware, or software. For this reason, a functional block diagram according to the processing procedure of each means is shown. This functional block diagram is
It can also be used as a flowchart for understanding the embodiment of the image processing method.

【0054】(a)放射線画像形成:図1に示すように、
放射線画像形成手段10により、照射された放射線量の
対数に比例した信号値を有する画像が生成される。
(A) Radiation image formation: As shown in FIG.
The radiation image forming means 10 generates an image having a signal value proportional to the logarithm of the irradiated radiation dose.

【0055】この放射線画像形成手段10としては、前
述したFPDやCCDなどのセンサ類を使用したもの
や、輝尽性蛍光体プレートを読み取って放射線画像を生
成する既知の装置を使用することができる。なお、いず
れの場合も放射線の照射量の対数に比例した信号値が得
られ、かつ照射量が多いほど、信号値が高くなる。
As the radiation image forming means 10, those using sensors such as the above-mentioned FPD and CCD, and a known apparatus which reads a stimulable phosphor plate and generates a radiation image can be used. . In each case, a signal value proportional to the logarithm of the radiation dose is obtained, and the larger the dose, the higher the signal value.

【0056】また、これ以降の各部の処理に必要な時間
を短縮するため、縮小画像生成手段20により、元の放
射線画像からサンプリングをして画素数を縮小させた間
引き放射線画像を作成し、この間引き放射線画像を判別
手段30へ転送する。なお、画像処理装置の処理が十分
に高速である場合や、処理時間がかかっても問題ない場
合には、間引きをしない放射線画像を判別手段30に転
送してもよい。
Further, in order to reduce the time required for the subsequent processing of each section, the reduced image generation means 20 creates a thinned radiation image in which the number of pixels is reduced by sampling from the original radiation image. The thinned radiation image is transferred to the determination unit 30. In addition, when the processing of the image processing apparatus is sufficiently fast, or when there is no problem even if the processing time is long, a radiation image without thinning may be transferred to the determination unit 30.

【0057】なお、この実施の形態例の説明では、以降
の処理は間引き放射線画像を用いて行われるものとす
る。
In the description of this embodiment, it is assumed that the subsequent processing is performed using a thinned-out radiation image.

【0058】間引き放射線画像は、できるだけ画素数が
少ない方が各種処理の計算時間が短縮されて望ましい。
しかし、本実施の形態例においては、被写体の特徴が判
別できる程の情報量を備えている必要がある。このた
め、人体各部について等倍の放射線画像が得られている
場合は、1mm平方から5mm平方程度の画素サイズとするこ
とが望ましい。
It is desirable that the number of pixels of the thinned-out radiation image be as small as possible because the calculation time of various processes is reduced.
However, in the present embodiment, it is necessary to provide a sufficient amount of information to determine the characteristics of the subject. For this reason, when a 1: 1 radiographic image is obtained for each part of the human body, it is desirable to set the pixel size to about 1 mm square to 5 mm square.

【0059】(b)判別:判別手段30では、まず縮小画
像生成手段20より送信されてきた間引き放射線画像を
解析する。これにより、被写体部位および撮影方向を判
別する。なお、本実施の形態例の判別手段30では、被
写体の部位および撮影方向毎に設定された優先度に基づ
いて被写体の部位および撮影方向を判別することを特徴
としている。
(B) Discrimination: The discriminating means 30 first analyzes the thinned radiation image transmitted from the reduced image generating means 20. Thereby, the subject part and the photographing direction are determined. The determining means 30 according to the present embodiment is characterized in that the part of the subject and the shooting direction are determined based on the priority set for each part of the subject and the shooting direction.

【0060】なお、この判別手段30は、図2に示すよ
うに、相関度計算手段320、相関結果比較手段33
0、一時記憶手段340、優先度比較手段350、被写
体情報記憶手段360、を内蔵している。また、外付け
で、被写体情報入力手段90を備えて構成される。
As shown in FIG. 2, the discriminating means 30 includes a correlation degree calculating means 320 and a correlation result comparing means 33.
0, a temporary storage unit 340, a priority comparison unit 350, and a subject information storage unit 360. In addition, an externally provided subject information input means 90 is provided.

【0061】判別手段30では、縮小画像生成手段20
より送信されてきた間引き画像を特徴ベクトル生成手段
310において解析し、複数の要素を有する特徴ベクト
ルを生成する。得られた特徴ベクトルは、相関度計算手
段320に送られる。
In the discriminating means 30, the reduced image generating means 20
The transmitted thinned image is analyzed by the feature vector generation unit 310 to generate a feature vector having a plurality of elements. The obtained feature vector is sent to the correlation degree calculating means 320.

【0062】一方、被写体情報記憶手段360には各撮
影部位および撮影方向に相当する被写体ベクトルが、部
位情報および優先度とともに記憶されている。
On the other hand, the subject information storage means 360 stores a subject vector corresponding to each photographing part and photographing direction together with the part information and the priority.

【0063】相関度計算手段320では、特徴ベクトル
を受信すると、被写体情報記憶手段360に記憶されて
いる被写体ベクトルを順次引きだし、該特徴ベクトルと
の相関演算を行う。相関演算の結果得られた相関値は相
関結果比較手段330に送られる。
Upon receiving the feature vector, the correlation degree calculating means 320 sequentially retrieves the subject vector stored in the subject information storage means 360 and performs a correlation operation with the feature vector. The correlation value obtained as a result of the correlation operation is sent to the correlation result comparison means 330.

【0064】相関結果比較手段330では、予め定めら
れたしきい値と、送られてきた相関値との比較を行う。
相関値が該しきい値以上である場合、当該する被写体ベ
クトルに相当する部位情報と優先度を一時記憶手段34
0に記憶する。
The correlation result comparison means 330 compares a predetermined threshold value with the transmitted correlation value.
If the correlation value is equal to or greater than the threshold value, the part information and priority corresponding to the subject vector are temporarily stored in the temporary storage unit 34.
Store to 0.

【0065】全ての被写体ベクトルとの相関演算が終了
した後、一時記憶手段340に記憶されている部位情報
が優先度とともに読み出される。読み出された部位情報
および優先度は優先度比較手段350に送られる。
After completion of the correlation calculation with all the object vectors, the part information stored in the temporary storage means 340 is read out together with the priority. The read part information and priority are sent to the priority comparison means 350.

【0066】優先度比較手段350では、部位情報が複
数存在する場合には、送られてきた優先度のうち最も高
い部位情報を、画像処理条件選定手段40に送る。
If there are a plurality of pieces of part information, the priority comparing means 350 sends the part information having the highest priority among the transmitted priorities to the image processing condition selecting means 40.

【0067】また、優先度比較手段350に送られた部
位情報が一つも存在しない場合、被写体情報記憶手段3
60に記憶されている全ての部位情報のうち、もっとも
優先度が高い部位および撮影方向に相当する部位情報を
出力して画像処理条件選定手段40に送信する。
If there is no part information sent to the priority comparing means 350, the object information storing means 3
Out of all the part information stored in 60, the part information having the highest priority and the part information corresponding to the imaging direction are output and transmitted to the image processing condition selecting means 40.

【0068】(b-1)特徴ベクトル生成:特徴ベクトル
生成手段310は、被写体領域抽出手段311と、特徴
抽出手段312から校正されている。まず被写体領域抽
出手段311により、縮小画像生成手段20より送信さ
れてきた間引き画像を解析して被写体領域を抽出する。
そして抽出された被写体領域を表すラベル情報と間引き
画像を特徴抽出手段312に転送する。特徴抽出手段3
12では、前記ラベル情報と間引き画像から複数の特徴
を求め、各特徴毎に数値化する。そして、それらを要素
として有する特徴ベクトルを生成する。
(B-1) Feature Vector Generation: The feature vector generation means 310 is calibrated by the subject area extraction means 311 and the feature extraction means 312. First, a subject region is extracted by the subject region extracting unit 311 by analyzing the thinned image transmitted from the reduced image generating unit 20.
Then, the extracted label information indicating the subject area and the thinned image are transferred to the feature extracting unit 312. Feature extraction means 3
At 12, a plurality of features are obtained from the label information and the thinned image, and each feature is quantified. Then, a feature vector having these as elements is generated.

【0069】(b-1-1)被写体領域抽出:ここで、被写
体領域抽出手段311の詳細について説明する。この被
写体領域抽出手段311は、以下の〜のような手順
で被写体領域抽出を行う。 画像を複数の小領域に分割する(図4(a))。 各小領域内毎に、該小領域に含まれる画素信号値の平
均信号値をしきい値Th1としてそれぞれ求める。 各小領域毎に、しきい値Th1より信号値の低い画素
を被写体領域として検出する(図4(b))。 各小領域で得られた被写体領域の平均信号値を求め、
しきい値Th2とする。 画像全体で、しきい値Th2よりも信号値の低い画素
を被写体領域として検出する(図4(c))。 照射野外領域を検出された被写体領域から除くため
に、照射野外領域の境界線を求め、その境界線と、近い
方の画像端までの間を、照射野外領域として取り除く
(図4(d))。 照射野外領域の境界線は次のように求める。まず、被
写体領域の境界に位置する画素を境界点として検出す
る。そして、同方向の境界点が多数並ぶ直線を境界候補
線として検出する。境界候補線は、任意の2点の境界点
から直線の方程式を計算し、その直線上に存在する境界
点の個数が、所定のしきい値Th3以上なら検出する。
そして、境界候補線から画像端までの間が、ほぼ被写体
領域となっている場合、その境界候補線は、照射野外領
域境界線として、画像端までの間の被写体領域を、照射
野外領域として取り除く。
(B-1-1) Subject Area Extraction: Here, details of the subject area extracting means 311 will be described. The subject area extracting means 311 performs subject area extraction in the following procedure. The image is divided into a plurality of small areas (FIG. 4A). The average signal value of the pixel signal values included in the small area is obtained as the threshold value Th1 for each small area. For each small area, a pixel having a signal value lower than the threshold value Th1 is detected as a subject area (FIG. 4B). Find the average signal value of the subject area obtained in each small area,
The threshold value is set to Th2. In the whole image, a pixel having a signal value lower than the threshold value Th2 is detected as a subject area (FIG. 4C). In order to remove the out-of-irradiation area from the detected subject area, a boundary line of the out-of-irradiation area is obtained, and the area between the boundary line and the closer image end is removed as the out-of-irradiation area (FIG. 4D). . The boundary line of the irradiation field area is obtained as follows. First, a pixel located at the boundary of the subject area is detected as a boundary point. Then, a straight line having a large number of boundary points in the same direction is detected as a boundary candidate line. A boundary candidate line is calculated by calculating an equation of a straight line from arbitrary two boundary points and detecting if the number of boundary points existing on the straight line is equal to or greater than a predetermined threshold value Th3.
If the area from the boundary candidate line to the end of the image is almost a subject area, the boundary candidate line is removed as an outside field boundary, and the subject area from the end of the image is removed as the outside field area. .

【0070】(b-1-2)特徴抽出:特徴抽出手段312
では、主に被写体領域から、複数の特徴を抽出し、それ
ぞれを特徴ベクトルPの要素Cj(j=1,2,…,m)とす
る。抽出する特徴としては、被写体領域の大ささ、形
状、濃度ヒストグラムの形状、被写体領域の中心線の形
状、各方向毎の1次微分値の分布や、同強度の1次およ
び2次微分値の分布等がある。各要素の値Cjは、予め
決められた条件に基づき、ベクトル値として記憶され
る。例えば、“被写体の形状”を特徴ベクトルの一要素
Csとし、“矩形”、“円形”、“糸巻き”、“ブーメ
ラン”、“その他”の5タイプのいずれかに分類される
とすれば、Csは、{e1,e2,e3,e4,e5}という5個の要
素を有するベクトルとする。各要素ek(k=1,2,3,4,5)
は、それぞれ“矩形’、“円形”、“糸巻き”、“ブー
メラン”、“その他”、に対応させる。そして、前腕骨
や大腿骨のように略矩形であると判断されれば、Cs=
{1,0,0,0,0}という値として表され、頭部のように略
円形ならCs={0,1,0,0,0}という具合に表される。
(B-1-2) Feature extraction: feature extraction means 312
In this example, a plurality of features are extracted mainly from the subject region, and each of them is set as an element Cj (j = 1, 2,..., M) of the feature vector P. The features to be extracted include the size and shape of the subject area, the shape of the density histogram, the shape of the center line of the subject area, the distribution of the primary differential values in each direction, and the primary and secondary differential values of the same intensity. There are distributions. The value Cj of each element is stored as a vector value based on a predetermined condition. For example, assuming that “subject shape” is one element Cs of a feature vector and is classified into any one of five types of “rectangle”, “circle”, “thread winding”, “boomerang”, and “other”, Cs Is a vector having five elements {e1, e2, e3, e4, e5}. Each element ek (k = 1,2,3,4,5)
Correspond to “rectangle”, “circle”, “pincushion”, “boomerang”, and “others.” Then, if it is determined to be substantially rectangular like a forearm bone or a femur, Cs =
It is represented as a value {1,0,0,0,0}, and if it is substantially circular like a head, it is represented as Cs = {0,1,0,0,0}.

【0071】(b-2)被写体情報記憶:前記被写体情報
記憶手段360では、被写体の部位および撮影方向毎の
特徴を記述したn個の被写体ベクトルSi(i=1,2,…,
n)、Siに関連づけられた部位情報Ii(i=1,2,…,
n)、および優先度Oi(i=1,2,…,n)が記憶されてい
る。
(B-2) Storage of subject information: The subject information storage means 360 stores n subject vectors Si (i = 1, 2,...
n), site information Ii associated with Si (i = 1, 2,...,
n) and priority Oi (i = 1, 2,..., n) are stored.

【0072】該被写体ベクトルSiは、前記特徴ベクト
ル生成手段310によって抽出された特徴ベクトルPの
各要素値毎の評価値が記述されたベクトルであり、後述
する相関手段により、特徴ベクトルPとの相関演算によ
ってその評価値が呼び出され、相関値として用いられ
る。
The subject vector Si is a vector in which an evaluation value for each element value of the feature vector P extracted by the feature vector generating means 310 is described. The evaluation value is called out by the calculation and used as a correlation value.

【0073】被写体ベクトルSiでは、Cjに対応する各
要素Vj(j=1,2,…,m)について、Cjが取り得る値に対
して、個々に評価値を記述した評価値テーブルとして記
述する。例えば、前述した被写体形状を表す特徴ベクト
ルの要素Csに対し、対応する要素Vsは{a,b,c,d,e}
という値を有するベクトルとする。
In the object vector Si, each element Vj (j = 1, 2,..., M) corresponding to Cj is described as an evaluation value table in which evaluation values are individually described for possible values of Cj. . For example, for the element Cs of the feature vector representing the object shape described above, the corresponding element Vs is {a, b, c, d, e}.
Is a vector having the value

【0074】また、部位情報Iiでは、被写体の部位お
よび撮影方向毎に一意に関連づけられた番号および部位
名称、撮影方向等の名称が記憶されており、部位情報I
iが持つ番号を参照して、画像処理条件の選択がなされ
るとともに、記憶されている部位名称や撮影方向は、認
識結果が容易にわかるよう部位情報表示手段80(例え
ば操作盤に備えられたモニタ表示装置等)で表示するこ
とに使用される。
The part information Ii stores a number, a part name, a photographing direction, and the like uniquely associated with each part of the subject and each photographing direction.
The image processing conditions are selected with reference to the number of i, and the stored part names and imaging directions are displayed in the part information display means 80 (for example, provided on the operation panel) so that the recognition result can be easily understood. Monitor display device).

【0075】さらに優先度情報Oiは、被写体の部位お
よび撮影方向毎に一意に決定され、小さい数値程優先度
が高くなるよう、“1”から“n”までのいずれかの数値
が記憶される。
Further, the priority information Oi is uniquely determined for each part of the subject and the photographing direction, and any numerical value from “1” to “n” is stored so that the smaller the numerical value, the higher the priority. .

【0076】(b-3)相関度計算、相関結果比較、一時
記憶:前記特徴ベクトル生成手段310で得られた特徴
ベクトルPについて、被写体の部位および撮影方向によ
る特徴を記述した被写体ベクトルSi(i=1,2,…,n)と
の相関を計算する。相関演算では、PとSiの対応する
各要素毎に相関値を求め、個々の要素の相関値の総和T
iを計算する。Tiは相関結果比較手段330に送られ、
予め定められたしきい値Th4と、送られてさた相関値
との比較が実行される。この相関値が該しきい値以上で
ある場合、当該する被写体ベクトルに相当する部位情報
と優先度を一時記憶手段340に記憶する。
(B-3) Calculation of Correlation Degree, Comparison of Correlation Results, Temporary Storage: For the feature vector P obtained by the feature vector generation means 310, a subject vector Si (i = 1,2, ..., n). In the correlation operation, a correlation value is obtained for each element corresponding to P and Si, and the sum T of the correlation values of the individual elements is calculated.
Calculate i. Ti is sent to the correlation result comparing means 330,
The comparison between the predetermined threshold value Th4 and the transmitted correlation value is performed. When the correlation value is equal to or larger than the threshold value, the part information and the priority corresponding to the subject vector are stored in the temporary storage unit 340.

【0077】なお、特徴ベクトル、被写体ベクトル間の
各要素間の相関演算は以下のように行う。特徴ベクトル
Pの要素Cj、およびCjに対応する被写体ベクトルSi
の要素Vjは、ともに同じ要素数のベクトルとして記述
されているので、tCj・Vjを計算することにより、Vj
からCjに対する評価値を呼び出すことができ、これを
相関値として出力する。
The correlation calculation between each element between the feature vector and the subject vector is performed as follows. The element Cj of the feature vector P and the subject vector Si corresponding to Cj
Is described as a vector having the same number of elements, and by calculating t Cj · Vj, Vj
Can output an evaluation value for Cj, which is output as a correlation value.

【0078】例えば、前述した被写体の形状を表す特徴
ベクトルの要素Csが{0,0,1,0,0}なら、対応する被写
体ベクトルの要素Vsは{a,b,c,d,e}と定義されている
ため、相関値は‘c’として得られる。また、Csが{1,
0,0,0,0}であれば、相関値は‘a’となる。
For example, if the feature vector element Cs representing the shape of the subject is {0,0,1,0,0}, the corresponding subject vector element Vs is {a, b, c, d, e}. Thus, the correlation value is obtained as 'c'. Also, Cs is {1,
If 0,0,0,0, the correlation value is 'a'.

【0079】また、この相関方法を用いると、被写体ベ
クトル毎に評価値を指定できるため、特定要素に対する
評価値を値を大きくすることで、どの要素に重点を置く
か、さめ細かく設定することができる。
Further, when this correlation method is used, an evaluation value can be specified for each subject vector. Therefore, by increasing the evaluation value for a specific element, it is possible to finely set which element is to be emphasized. it can.

【0080】例えば、“頭部”に対しては、“被写体の
形状”が略円形になるという特徴でほぼ判別できるた
め、“被写体の形状”に相当する要素Csでの相関結果
が大きくなるよう、“頭部”を表す被写体ベクトルで
は、Csに対応するVsの各要素値を他のVjと比較して
大きな値をとるよう設定する。また、被写体が“指”で
あるかどうか判別する場合には、“被写体のサイズ”が
有効な判別要素となるため、”指”に相当する被写体ベ
クトルでは、“被写体のサイズ”に対する評価値を他の
要素に対して大きくすることで、正確に認識することが
可能になる。
For example, since the “head shape” can be almost discriminated by the feature that the “shape of the subject” is substantially circular, the correlation result with the element Cs corresponding to the “shape of the subject” increases. , The subject vector representing “head” is set so that each element value of Vs corresponding to Cs is larger than the other Vj. When determining whether or not the subject is a “finger”, “subject size” is an effective discriminating factor. Therefore, in the subject vector corresponding to “finger”, an evaluation value for “subject size” is calculated. By making it larger for other elements, accurate recognition becomes possible.

【0081】上記のように、被写体ベクトル毎に各要素
に対する重み付けを変更することで、より正確な認識を
行うことができる。
As described above, by changing the weight for each element for each subject vector, more accurate recognition can be performed.

【0082】(b-4)優先度比較:優先度比較手段35
0では、すべての相関演算が終了した後に、一時記憶手
段340に蓄えられている部位情報および優先度情報を
引きだし、最も優先度が高い(優先度情報Oiに記述さ
れている数値が最も小さい)部位情報を、画像処理条件
選定手段40に送る。もし、一時記憶手段340から引
きだされる部位情報が一つも存在しない場合、優先度比
較手段350は、被写体情報記憶手段360に記憶され
ている全ての部位情報のうち、優先度が最も高い部位情
報を読み出し、画像処理条件選定手段40に送る。
(B-4) Priority comparison: priority comparison means 35
In the case of 0, after all the correlation operations are completed, the part information and the priority information stored in the temporary storage means 340 are retrieved, and the priority is the highest (the numerical value described in the priority information Oi is the smallest). The part information is sent to the image processing condition selecting means 40. If there is no part information extracted from the temporary storage unit 340, the priority comparison unit 350 determines the part with the highest priority among all the part information stored in the subject information storage unit 360. The information is read and sent to the image processing condition selection means 40.

【0083】(c)判別の他の実施の形態例:前記判別
手段30は、図3に示したように、以下に述べるような
形態としてもよい。すなわち、まず被写体ベクトルは、
同様の部位毎に集められ複数のカテゴリを形成する。
(C) Another embodiment of determination: As shown in FIG. 3, the determination means 30 may have the following configuration. That is, first, the subject vector is
Collected for each similar part to form a plurality of categories.

【0084】このカテゴリは、例えば“胸部”、“上
肢”、“下肢”等に分類される。さらに、各カテゴリ毎
の特徴を表すカテゴリベクトルにより、どのカテゴリに
所属するか、記述される。
This category is classified into, for example, "chest", "upper limb", "lower limb" and the like. Further, the category to which each category belongs is described by a category vector representing the feature of each category.

【0085】カテゴリベクトルは、所属する被写体ベク
トルのリストとともに、前記特徴ベクトルの一部の要素
に対する評価値を有し、カテゴリ情報記憶手段380に
記憶されている。そして、前述した被写体ベクトルと特
徴ベクトルとの相関演算と同様に、カテゴリ相関度計算
手段370によって、特徴ベクトルと各カテゴリベクト
ルとの間で相関演算を実施し、カテゴリ相関値を計算す
る。このとき、特徴ベクトルの各要素における相関演算
は、カテゴリベクトルが評価値を有する要素に限って行
われる。
The category vector has an evaluation value for a part of the feature vector together with the list of the subject vectors to which it belongs, and is stored in the category information storage means 380. Then, similarly to the above-described correlation calculation between the subject vector and the feature vector, the category correlation degree calculating means 370 performs a correlation calculation between the feature vector and each category vector to calculate a category correlation value. At this time, the correlation operation on each element of the feature vector is performed only on the element whose category vector has the evaluation value.

【0086】各カテゴリベクトルと、特徴ベクトルとの
カテゴリ相関値は、カテゴリベクトルとともにカテゴリ
相関結果比較手段390に送られる。カテゴリ相関結果
比較手段390では、カテゴリ相関値が送られて来るた
びに、カテゴリ相関結果比較手段390自身が保持して
いるカテゴリ相関値との比較を行う。そして比較の結
果、カテゴリ相関値の大きい方だけ、その相関値とカテ
ゴリベクトルを記憶する。
The category correlation value between each category vector and the feature vector is sent to the category correlation result comparing means 390 together with the category vector. Each time a category correlation value is sent, the category correlation result comparison means 390 compares the category correlation value with the category correlation value held by the category correlation result comparison means 390 itself. Then, as a result of the comparison, only the larger one of the category correlation values stores the correlation value and the category vector.

【0087】全てのカテゴリ相関値について、比較が終
了した後、最終的にカテゴリ相関結果比較手段390が
有するカテゴリベクトルに相当するカテゴリに属すると
して、撮影画像の被写体が分類される。
After the comparison is completed for all the category correlation values, the subject of the photographed image is classified as finally belonging to the category corresponding to the category vector of the category correlation result comparison means 390.

【0088】このカテゴリベクトルに記述された被写体
ベクトルのリストを参照して、このカテゴリに所属する
被写体ベクトルが、被写体情報記憶手段365から呼び
出され、特徴ベクトルとともに被写体特定手段325に
送られる。
Referring to the list of subject vectors described in the category vector, the subject vectors belonging to this category are called from the subject information storage means 365 and sent to the subject specifying means 325 together with the feature vectors.

【0089】被写体特定手段325では、特徴ベクトル
と呼び出された被写体ベクトルとの間で、前述した相関
度計算手段と同様に相関演算が行われる。そしてその相
関値が相関結果比較手段335に送られ、相関値が予め
定められたしきい値Th5と比較される。比較の結果、
相関値がしきい値Th5以上となる被写体ベクトルにつ
いて、関連付けられた部位情報およびその優先度が一時
記憶手段345に送られる。
In the subject specifying means 325, a correlation operation is performed between the feature vector and the called subject vector in the same manner as the correlation degree calculating means described above. Then, the correlation value is sent to the correlation result comparison means 335, and the correlation value is compared with a predetermined threshold value Th5. As a result of the comparison,
For the subject vector having the correlation value equal to or greater than the threshold value Th5, the associated part information and its priority are sent to the temporary storage unit 345.

【0090】そして、全ての相関演算終了後に、一時記
憶手段345に蓄えられている部位情報および優先度情
報が引きだされ、優先度比較手段355によって最も優
先度が高いと判断された部位情報が、画像処理条件選定
手段40に送られる。もし、一時記憶手段から引きださ
れる部位情報が一つも存在しない場合、優先度比較手段
355は、被写体情報記憶手段365に記憶されている
全ての部位情報のうち、優先度が最も高い部位情報を読
み出し、画像処理条件選定手段40に送る。
After completion of all the correlation calculations, the part information and the priority information stored in the temporary storage means 345 are retrieved, and the part information determined to have the highest priority by the priority comparing means 355 is obtained. Is sent to the image processing condition selection means 40. If there is no part information extracted from the temporary storage means, the priority comparison means 355 determines the part information having the highest priority among all the pieces of part information stored in the subject information storage means 365. And sends it to the image processing condition selection means 40.

【0091】また優先度比較手段365は、一時記憶手
段から引きだされる部位情報は一つも存在しない場合、
前記特徴ベクトルが所属すると判断されたカテゴリに属
する部位情報のうち、最も優先度が高い部位情報を読み
出すようにしてもよい。
The priority comparing means 365 determines whether there is no part information extracted from the temporary storing means.
The part information having the highest priority may be read out of the part information belonging to the category determined to belong to the feature vector.

【0092】(d)画像処理条件選定、画像処理条件記
憶および画像処理:判別手段30によって得られた判別
結果に基づき、画像処理条件選定手段40は、画像処理
条件を記憶した画像処理条件記憶手段50から最適な画
像処理条件を読み出す。
(D) Image processing condition selection, image processing condition storage and image processing: Based on the determination result obtained by the determination unit 30, the image processing condition selection unit 40 stores the image processing condition storage unit storing the image processing conditions. The optimal image processing conditions are read out from 50.

【0093】そして、読み出された画像処理条件は、画
像処理手段60に送られる。画像処理手段60では放射
線画像生成手段10から送られてきた原画像と、この画
像処理条件を用いて画像処理を行い、最終的な出力画像
を得る。
The read image processing conditions are sent to the image processing means 60. The image processing means 60 performs image processing using the original image sent from the radiation image generating means 10 and the image processing conditions to obtain a final output image.

【0094】実施される画像処理としては、階調変換や
エッジ強調、イコライゼーション処理、拡大/縮小処理
およびそれらを組み合わせたものが実施される。
As the image processing to be performed, gradation conversion, edge enhancement, equalization processing, enlargement / reduction processing, and a combination thereof are performed.

【0095】また、撮影部位や方向によって、求められ
る画像処理の種類が異なることがある。たとえば、階調
変換処理とエッジ強調処理等が該当する。そこで、上記
のような画像処理を行う画像処理手段を複数準備してお
き、判別手段によって得られた部位情報に基づき、最適
な画像処理手段を選択して実行するようにしてもよい。
Further, the type of image processing to be obtained may differ depending on the imaging region and the direction. For example, gradation conversion processing and edge emphasis processing are applicable. Therefore, a plurality of image processing units for performing the above-described image processing may be prepared, and an optimal image processing unit may be selected and executed based on the region information obtained by the determination unit.

【0096】この場合の画像処理条件は、単に入力信号
値に対する出力信号値を記述したルックアップテーブル
(LUT)やエッジ強調度等、直接的に画像を変換する
ためのパラメータだけを指すものではない。特開平5−
7578号公報等に示されるような医師が読影するポイ
ントに関心領域(ROI)を設定し、ROI内の画像情
報を解析することで、より診断に適した階調変換が実行
されるような処理を、撮影部位によって最適な結果が得
られるよう複数準備しておき、それらの処理のうち、ど
れを使用するかを決定するような間接的なパラメータを
も含むものとする。
The image processing conditions in this case do not simply refer to parameters for directly converting an image, such as a look-up table (LUT) describing an output signal value with respect to an input signal value or an edge enhancement degree. . Japanese Patent Laid-Open No. 5-
No. 7578, for example, by setting a region of interest (ROI) at a point to be interpreted by a doctor and analyzing image information in the ROI, a gradation conversion more suitable for diagnosis is executed. Are prepared in such a manner that an optimum result is obtained depending on the imaging region, and indirect parameters for determining which of the processes to use are included.

【0097】さらに、判別手段30によって得られた判
別結果が一目でわかるよう、最終的に選択された部位情
報は部位情報表示手段80にも送信され、部位および撮
影方向が表示される。
Further, the part information finally selected is also transmitted to the part information display means 80 so that the result of the determination obtained by the determining means 30 can be seen at a glance, and the part and the photographing direction are displayed.

【0098】また、その際に、出力画像もしくは確認目
的の表示用に出力画像を、画素数を減らす等して簡略化
した簡易出力画像も同時に表示することが望ましい。
At this time, it is desirable to simultaneously display an output image or an output image for display for confirmation purpose, which is simplified by reducing the number of pixels.

【0099】(e)その他の実施の形態例 前述したように、HISやRISを通じて、被写体の部
位情報が入力可能な場合もある。そこで外部から被写体
部位情報を選択可能な部位情報選択手段70を設け、こ
の手段から被写体部位情報が入力された場合、判別手段
による判別結果よりも優先し、この被写体部位情報に基
づいて最適な画像処理が選択されるようにすることが望
ましい。
(E) Other Embodiments As described above, there may be a case where information on a part of a subject can be input through HIS or RIS. Therefore, there is provided a part information selecting means 70 capable of selecting the subject part information from the outside, and when the subject part information is inputted from this means, the priority is given to the determination result by the determining means, and an optimum image It is desirable that a process be selected.

【0100】また、前述したように、施設によって撮影
される放射線画像の種類は異なることがある。そこで、
前記被写体情報記憶手段に対して、被写体ベクトルや部
位情報および優先度情報を追加したり、削除、編集がで
きる被写体情報入力手段を別途設けることが望ましい。
このようにすることで、多種多様な環境にも対応が可能
になる。
Further, as described above, the types of radiographic images photographed by facilities may differ. Therefore,
It is desirable to separately provide a subject information input unit capable of adding, deleting, and editing a subject vector, site information, and priority information to the subject information storage unit.
By doing so, it is possible to cope with various environments.

【0101】以上のように、外部から被写体ベクトルの
追加,削除,変更できるともに、各部位および撮影方向
毎の優先度を追加,削除,変更できるようにすること
で、より精度良く最適な画像処理条件を選択することが
できる。また、撮影部位等が増えた場合にも簡単に対応
することができる。
As described above, the object vector can be added, deleted, and changed from the outside, and the priority for each part and each photographing direction can be added, deleted, or changed, so that the optimum image processing can be performed with higher accuracy. Conditions can be selected. In addition, it is possible to easily cope with an increase in the number of imaging parts and the like.

【0102】また、以上の説明において、優先度は、被
写体の部位および撮影方向毎の撮影頻度に基づいて決定
することが望ましい。このように、優先度として撮影頻
度を利用することで、より精度良く最適な画像処理条件
を選択することができる。
In the above description, it is desirable that the priority is determined based on the photographing frequency for each part of the subject and the photographing direction. As described above, by using the photographing frequency as the priority, the optimum image processing condition can be more accurately selected.

【0103】[0103]

【発明の効果】以上、詳細に説明したように、本発明で
は、撮影部位および撮影方向毎に設定された優先度を判
別に利用することにより、被写体の特徴だけでは被写体
を正しく認識し難い場合でも精度良く最適な画像処理条
件を選択することができる。
As described above in detail, according to the present invention, the priority set for each imaging part and imaging direction is used for discrimination. However, the optimum image processing conditions can be selected with high accuracy.

【0104】このため、放射線画像に対して、撮影され
た被写体の部位および撮影方向を正しく認識することに
よって、自動的に最適な階調処理条件を選択し、煩雑な
操作無しに診断に最適な画像を自動的に得ることが可能
になる。
For this reason, by properly recognizing the part of the photographed subject and the photographing direction with respect to the radiographic image, the optimum gradation processing condition is automatically selected, and the optimum gradation processing condition is selected without any complicated operation. Images can be obtained automatically.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の形態例の画像処理装置の構成を
示す機能ブロック図である。
FIG. 1 is a functional block diagram illustrating a configuration of an image processing apparatus according to an embodiment of the present invention.

【図2】本発明の実施の形態例の画像処理装置の主要部
の構成を示す機能ブロック図である。
FIG. 2 is a functional block diagram illustrating a configuration of a main part of the image processing apparatus according to the embodiment of the present invention;

【図3】本発明の実施の形態例の画像処理装置の主要部
の構成を示す機能ブロック図である。
FIG. 3 is a functional block diagram illustrating a configuration of a main part of the image processing apparatus according to the embodiment of the present invention.

【図4】本発明の実施の形態例における被写体領域の抽
出の様子を示す説明図である。
FIG. 4 is an explanatory diagram showing a state of extracting a subject region in the embodiment of the present invention.

【符号の説明】[Explanation of symbols]

10 放射線画像形成手段 20 縮小画像生成手段 30 判別手段 40 画像処理条件選定手段 50 画像処理条件記憶手段 60 画像処理手段 70 部位情報選択手段 80 部位情報表示手段 REFERENCE SIGNS LIST 10 radiation image forming means 20 reduced image generating means 30 discriminating means 40 image processing condition selecting means 50 image processing condition storing means 60 image processing means 70 part information selecting means 80 part information displaying means

フロントページの続き Fターム(参考) 4C093 AA26 AA28 CA15 EB05 EB13 FD03 FD09 FF08 FF13 FF15 FF16 FF18 FF19 FF20 FF33 5B057 AA08 BA03 CA02 CA08 CA12 CA16 CB02 CB08 CB12 CB16 CC03 CD05 CE03 CE11 CH08 CH11 CH18 DA08 DA17 DB02 DB05 DB09 DC01 DC04 DC08 DC09 DC14 DC23 DC36 5L096 AA06 BA06 BA13 EA37 FA32 FA34 FA37 FA46 FA59 FA67 GA02 GA19 GA26 GA34 GA51 GA53 JA18 Continued on the front page F term (reference) 4C093 AA26 AA28 CA15 EB05 EB13 FD03 FD09 FF08 FF13 FF15 FF16 FF18 FF19 FF20 FF33 5B057 AA08 BA03 CA02 CA08 CA12 CA16 CB02 CB08 CB12 CB16 DC08 DA08 CH08 DC08 DC09 DC14 DC23 DC36 5L096 AA06 BA06 BA13 EA37 FA32 FA34 FA37 FA46 FA59 FA67 GA02 GA19 GA26 GA34 GA51 GA53 JA18

Claims (12)

【特許請求の範囲】[Claims] 【請求項1】 被写体を透過した放射線量を検出し、検
出された放射線量に応じた放射線画像を形成する放射線
画像形成ステップと、 形成された放射線画像について被写体の部位および撮影
方向を判別する判別ステップと、 被写体の部位および撮影方向毎に予め最適化された複数
の画像処理条件を記憶する画像処理条件記憶ステップ
と、 判別された被写体の部位および撮影方向に応じて、前記
画像処理条件記憶ステップで記憶された画像処理条件の
中から最適なもの選定して読み出す処理条件選定ステッ
プと、 読み出された画像処理条件に基づいて画像処理を行う画
像処理ステップと、を備え、 前記判別ステップでは被写体の部位および撮影方向毎に
設定された優先度に基づいて被写体の部位および撮影方
向を判別する、ことを特徴とする画像処理方法。
1. A radiation image forming step of detecting a radiation amount transmitted through a subject and forming a radiation image according to the detected radiation amount, and determining a part of the subject and a photographing direction of the formed radiation image. Step, an image processing condition storing step of storing a plurality of image processing conditions optimized in advance for each part of the subject and each photographing direction; and the image processing condition storing step according to the determined part of the subject and the photographing direction. A processing condition selecting step of selecting and reading out the optimum image processing condition from the image processing conditions stored in the step; and an image processing step of performing image processing based on the read image processing condition. And determining a part and a photographing direction of the subject based on the priority set for each part and the photographing direction. Image processing method.
【請求項2】 前記判別ステップは、 前記被写体の複数の特徴を抽出し、それらの特徴を各要
素としてもつ特徴ベクトルを生成する特徴ベクトル生成
ステップと、 被写体の部位および撮影方向による特徴を表す被写体ベ
クトルと、それぞれの優先度を予め記憶しておく被写体
情報記憶ステップと、 生成された前記特徴ベクトルと、読み出された前記被写
体ベクトルとで、相関度を計算する相関度計算ステップ
と、を有し、 前記相関度計算ステップにより求められた相関度が予め
定められたしきい値以上となる部位および撮影方向が複
数存在する場合には、該当する被写体の部位および撮影
方向が有する前記優先度が最も高い部位および撮影方向
として被写体を判別する、ことを特徴とする請求項1記
載の画像処理方法。
2. The method according to claim 1, wherein the determining includes extracting a plurality of features of the subject, generating a feature vector having the features as elements, and a subject representing a feature based on a part of the subject and a shooting direction. A subject information storing step of preliminarily storing vectors and respective priorities; and a correlation degree calculating step of calculating a correlation degree between the generated feature vector and the read subject vector. When there are a plurality of parts and imaging directions in which the degree of correlation obtained by the correlation degree calculation step is equal to or greater than a predetermined threshold, the priority of the part and the imaging direction of the subject is 2. The image processing method according to claim 1, wherein a subject is determined as a highest part and a photographing direction.
【請求項3】 前記判別ステップは、 同様の撮影部位毎に分類された複数のカテゴリのうちの
いずれかに前記被写体を分類するカテゴリ分類ステップ
と、 さらに分類されたカテゴリ内で該カテゴリに属する部位
および撮影方向として前記被写体を特定する被写体特定
ステップと、を有し、 該被写体特定ステップは、前記各カテゴリ毎に、所属す
る部位および撮影方向毎に設定された優先度を用いて、
被写体を認識する、ことを特徴とする請求項1記載の画
像処理方法。
3. The classifying step of classifying the subject into any one of a plurality of categories classified by the same imaging region; and a portion belonging to the category within the classified category. And a subject specifying step of specifying the subject as a shooting direction, and the subject specifying step uses, for each of the categories, a priority to which each part belongs and a setting for each shooting direction.
2. The image processing method according to claim 1, wherein a subject is recognized.
【請求項4】 前記カテゴリ分類ステップは、前記被写
体の複数の特徴を抽出し、それらの特徴を各要素として
もつ特徴ベクトルを生成する特徴ベクトル生成ステップ
と、前記カテゴリ毎の特徴を表すカテゴリベクトルを予
め記憶しておくカテゴリ情報記憶ステップと、前記特徴
ベクトル生成ステップによって得られた前記特徴ベクト
ルに含まれる一部または全ての要素について、前記カテ
ゴリ情報記憶ステップから読み出された前記カテゴリベ
クトルとで、相関度を計算するカテゴリ相関度計算ステ
ップと、を有し、 該カテゴリ相関度計算ステップによって、相関度が最も
高いと判断されたカテゴリに含まれるとして、前記被写
体の所属カテゴリを決定するとともに、 前記被写体特定ステップは、部位および撮影方向毎の特
徴を表す被写体ベクトルとそれぞれの優先度を予め記憶
しておく被写体情報記憶ステップと、該被写体情報記憶
ステップから前記被写体が所属すると判断されたカテゴ
リに属する部位および撮影方向に関連する前記被写体ベ
クトルを読み出して、前記特徴ベクトルとの相関度を計
算する被写体相関度計算ステップと、を有し、 該被写体相関度計算ステップにより求められた相関度が
予め定められたしきい値以上となる部位および撮影方向
が複数存在する場合には、該当する部位および撮影方向
が有する前記優先度が最も高い撮影部位および方向とし
て被写体を認識する、ことを特徴とする請求項3記載の
画像処理方法。
4. The category classification step includes: extracting a plurality of features of the subject; generating a feature vector having the features as respective elements; and generating a category vector representing a feature of each category. A category information storage step to store in advance, and, for some or all elements included in the feature vector obtained in the feature vector generation step, the category vector read from the category information storage step, A category correlation degree calculating step of calculating a degree of correlation; and determining the category to which the subject belongs as being included in the category determined to have the highest degree of correlation by the category correlation degree calculation step; In the subject specifying step, a subject representing a feature for each part and each photographing direction is provided. A subject information storing step of storing in advance the vector and each priority, and reading out the subject vector related to a part and a shooting direction belonging to a category determined to belong to the subject from the subject information storing step, A subject correlation degree calculation step of calculating a degree of correlation with the feature vector, wherein there are a plurality of parts and imaging directions in which the degree of correlation obtained by the subject correlation degree calculation step is equal to or greater than a predetermined threshold value. 4. The image processing method according to claim 3, wherein in the case of performing the processing, the subject is recognized as the imaging part and direction having the highest priority of the corresponding part and imaging direction.
【請求項5】 前記優先度は、被写体の部位および撮影
方向毎の撮影頻度に基づいて決定されたものである、こ
とを特徴とする請求項1乃至請求項4のいずれかに記載
の画像処理方法。
5. The image processing apparatus according to claim 1, wherein the priority is determined based on a photographing frequency for each part of a subject and a photographing direction. Method.
【請求項6】 前記被写体情報記憶ステップに対し、外
部から被写体ベクトルの追加,削除,変更できるとも
に、各部位および撮影方向毎の優先度を追加,削除,変
更できる被写体情報入力ステップを有する、ことを特徴
とする請求項2乃至請求項5のいずれかに記載の画像処
理方法。
6. A subject information input step which can add, delete, and change a subject vector from the outside, and add, delete, and change the priority of each part and each photographing direction with respect to the subject information storing step. The image processing method according to claim 2, wherein:
【請求項7】 被写体を透過した放射線量を検出し、検
出された放射線量に応じた放射線画像を形成する放射線
画像形成手段と、 前記放射線画像形成手段で形成された放射線画像につい
て被写体の部位および撮影方向を判別する判別手段と、 被写体の部位および撮影方向毎に予め最適化された複数
の画像処理条件を記憶する画像処理条件記憶手段と、 前記判別手段で判別された被写体の部位および撮影方向
に応じて、前記画像処理条件記憶手段に記憶された画像
処理条件の中から最適なもの選定して読み出す処理条件
選定手段と、 前記処理条件選定手段で読み出された画像処理条件に基
づいて画像処理を行う画像処理手段と、を備え、 前記判別手段では被写体の部位および撮影方向毎に設定
された優先度に基づいて被写体の部位および撮影方向を
判別する、ことを特徴とする画像処理装置。
7. A radiation image forming means for detecting a radiation amount transmitted through a subject and forming a radiation image in accordance with the detected radiation amount, a part of the subject with respect to the radiation image formed by the radiation image forming means, Determining means for determining a shooting direction; image processing condition storing means for storing a plurality of image processing conditions optimized in advance for each part of the subject and each shooting direction; and a part and a shooting direction of the subject determined by the determining means Processing condition selecting means for selecting and reading out the most suitable image processing conditions from the image processing condition stored in the image processing condition storing means, and an image processing apparatus based on the image processing conditions read out by the processing condition selecting means. Image processing means for performing processing, wherein the determination means determines the position of the subject and the photographing based on the priority set for each of the region of the subject and the photographing direction. To determine the direction, the image processing apparatus characterized by.
【請求項8】 前記判別手段は、 前記被写体の複数の特徴を抽出し、それらの特徴を各要
素としてもつ特徴ベクトルを生成する特徴ベクトル生成
手段と、 被写体の部位および撮影方向による特徴を表す被写体ベ
クトルと、それぞれの優先度を予め記憶しておく被写体
情報記憶手段と、 前記特徴ベクトル生成手段によって生成された前記特徴
ベクトルと、前記被写体情報記憶手段から読み出された
前記被写体ベクトルとで、相関度を計算する相関度計算
手段と、を有し、 前記相関度計算手段により求められた相関度が予め定め
られたしきい値以上となる部位および撮影方向が複数存
在する場合には、該当する被写体の部位および撮影方向
が有する前記優先度が最も高い部位および撮影方向とし
て被写体を判別する、ことを特徴とする請求項7記載の
画像処理装置。
8. A feature vector generating means for extracting a plurality of features of the subject and generating a feature vector having the features as respective elements, and a subject representing a feature based on a part of the subject and a photographing direction. A vector, subject information storage means for storing priorities in advance, and a correlation between the feature vector generated by the feature vector generation means and the subject vector read from the subject information storage means. And a correlation degree calculating means for calculating the degree.If there are a plurality of parts and imaging directions in which the correlation degree obtained by the correlation degree calculating means is equal to or greater than a predetermined threshold value, 8. A subject is determined as a site and a shooting direction having the highest priority of a site and a shooting direction of the subject. Mounting image processing apparatus.
【請求項9】 前記判別手段は、 同様の撮影部位毎に分類された複数のカテゴリのうちの
いずれかに前記被写体を分類するカテゴリ分類手段と、 さらに分類されたカテゴリ内で該カテゴリに属する部位
および撮影方向として前記被写体を特定する被写体特定
手段と、を有し、 該被写体特定手段は、前記各カテゴリ毎に、所属する部
位および撮影方向毎に設定された優先度を用いて、被写
体を認識する、ことを特徴とする請求項7記載の画像処
理装置。
9. A classifying means for classifying the subject into one of a plurality of categories classified by similar photographing parts, and a part belonging to the category among the classified categories. And a subject specifying means for specifying the subject as a photographing direction, the subject specifying means recognizing the subject by using a priority set for each of the categories to which the subject belongs and for each photographing direction. The image processing apparatus according to claim 7, wherein:
【請求項10】 前記カテゴリ分類手段は、前記被写体
の複数の特徴を抽出し、それらの特徴を各要素としても
つ特徴ベクトルを生成する特徴ベクトル生成手段と、前
記カテゴリ毎の特徴を表すカテゴリベクトルを予め記憶
しておくカテゴリ情報記憶手段と、前記特徴ベクトル生
成手段によって得られた前記特徴ベクトルに含まれる一
部または全ての要素について、前記カテゴリ情報記憶手
段から読み出された前記カテゴリベクトルとで、相関度
を計算するカテゴリ相関度計算手段と、を有し、 該カテゴリ相関度計算手段によって、相関度が最も高い
と判断されたカテゴリに含まれるとして、前記被写体の
所属カテゴリを決定するとともに、 前記被写体特定手段は、部位および撮影方向毎の特徴を
表す被写体ベクトルとそれぞれの優先度を予め記憶して
おく被写体情報記憶手段と、該被写体情報記憶手段から
前記被写体が所属すると判断されたカテゴリに属する部
位および撮影方向に関連する前記被写体ベクトルを読み
出して、前記特徴ベクトルとの相関度を計算する被写体
相関度計算手段と、を有し、 該被写体相関度計算手段により求められた相関度が予め
定められたしきい値以上となる部位および撮影方向が複
数存在する場合には、該当する部位および撮影方向が有
する前記優先度が最も高い撮影部位および方向として被
写体を認識する、ことを特徴とする請求項9記載の画像
処理装置。
10. The category classification unit extracts a plurality of features of the subject and generates a feature vector having the features as respective elements, and a category vector representing a feature of each category. Category information storage means stored in advance, and, for some or all elements included in the feature vector obtained by the feature vector generation means, the category vector read from the category information storage means, A category correlation degree calculating means for calculating a degree of correlation, wherein the category correlation degree calculating means determines a category to which the subject belongs as being included in the category determined to have the highest degree of correlation, The subject specifying means predicts a subject vector representing a feature for each part and a photographing direction and the priority of each. The subject information storage means to be stored, and the subject vector relating to the part belonging to the category determined to belong to the subject and the shooting direction are read from the subject information storage means, and the degree of correlation with the feature vector is calculated. Subject correlation calculating means, and when there are a plurality of parts and shooting directions in which the correlation obtained by the subject correlation calculating means is equal to or greater than a predetermined threshold, the corresponding parts The image processing apparatus according to claim 9, further comprising: recognizing a subject as an imaging region and a direction having the highest priority in an imaging direction.
【請求項11】 前記優先度は、被写体の部位および撮
影方向毎の撮影頻度に基づいて決定されたものである、
ことを特徴とする請求項7乃至請求項10のいずれかに
記載の画像処理装置。
11. The priority is determined based on a shooting frequency for each part of a subject and a shooting direction.
The image processing apparatus according to claim 7, wherein:
【請求項12】 前記被写体情報記憶手段に対し、外部
から被写体ベクトルの追加,削除,変更できるともに、
各部位および撮影方向毎の優先度を追加,削除,変更で
きる被写体情報入力手段を有する、ことを特徴とする請
求項8乃至請求項11のいずれかに記載の画像処理装
置。
12. The image processing apparatus according to claim 1, wherein the object information storage means can externally add, delete, and change object vectors.
The image processing apparatus according to claim 8, further comprising a subject information input unit configured to add, delete, and change a priority for each part and each imaging direction.
JP2000041260A 2000-02-18 2000-02-18 Image processing method and image processing apparatus Expired - Lifetime JP3709759B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000041260A JP3709759B2 (en) 2000-02-18 2000-02-18 Image processing method and image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000041260A JP3709759B2 (en) 2000-02-18 2000-02-18 Image processing method and image processing apparatus

Publications (2)

Publication Number Publication Date
JP2001224576A true JP2001224576A (en) 2001-08-21
JP3709759B2 JP3709759B2 (en) 2005-10-26

Family

ID=18564520

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000041260A Expired - Lifetime JP3709759B2 (en) 2000-02-18 2000-02-18 Image processing method and image processing apparatus

Country Status (1)

Country Link
JP (1) JP3709759B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004358245A (en) * 2003-05-30 2004-12-24 Siemens Ag Method and apparatus for processing digital radiograph
JP2006520972A (en) * 2003-02-28 2006-09-14 ピクトン・リミテッド・ライアビリティ・カンパニー Image pattern recognition system and method
JP2015013208A (en) * 2014-09-22 2015-01-22 キヤノン株式会社 Image processor, image processing system, image processing method and program
WO2015011904A1 (en) * 2013-07-23 2015-01-29 富士フイルム株式会社 Radiation-image processing device and method
CN109805947A (en) * 2017-11-22 2019-05-28 佳能株式会社 Radiography systems, radiographic method, control device and storage medium
JP2020006163A (en) * 2018-06-29 2020-01-16 キヤノンメディカルシステムズ株式会社 Medical information processing device, method and program
CN112020329A (en) * 2018-04-26 2020-12-01 株式会社岛津制作所 Radiographic apparatus

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006520972A (en) * 2003-02-28 2006-09-14 ピクトン・リミテッド・ライアビリティ・カンパニー Image pattern recognition system and method
JP2004358245A (en) * 2003-05-30 2004-12-24 Siemens Ag Method and apparatus for processing digital radiograph
JP4514517B2 (en) * 2003-05-30 2010-07-28 シーメンス アクチエンゲゼルシヤフト Image processing method and apparatus for digital X-ray image
WO2015011904A1 (en) * 2013-07-23 2015-01-29 富士フイルム株式会社 Radiation-image processing device and method
JP2015019996A (en) * 2013-07-23 2015-02-02 富士フイルム株式会社 Radiographic image processing apparatus and method
US10089728B2 (en) 2013-07-23 2018-10-02 Fujifilm Corporation Radiation-image processing device and method
JP2015013208A (en) * 2014-09-22 2015-01-22 キヤノン株式会社 Image processor, image processing system, image processing method and program
CN109805947A (en) * 2017-11-22 2019-05-28 佳能株式会社 Radiography systems, radiographic method, control device and storage medium
CN109805947B (en) * 2017-11-22 2023-10-24 佳能株式会社 Radiography system, radiography method, control device, and storage medium
CN112020329A (en) * 2018-04-26 2020-12-01 株式会社岛津制作所 Radiographic apparatus
JP2020006163A (en) * 2018-06-29 2020-01-16 キヤノンメディカルシステムズ株式会社 Medical information processing device, method and program
JP7355532B2 (en) 2018-06-29 2023-10-03 キヤノンメディカルシステムズ株式会社 Medical information processing device, method and program

Also Published As

Publication number Publication date
JP3709759B2 (en) 2005-10-26

Similar Documents

Publication Publication Date Title
JP5026939B2 (en) Image processing apparatus and program thereof
CN111696083B (en) Image processing method and device, electronic equipment and storage medium
US7477766B1 (en) Method and apparatus for expanding the use of existing computer-aided detection code
US7747058B2 (en) Image processing method for windowing and/or dose control for medical diagnostic devices
WO2010050333A1 (en) Information processing device
JP2001076141A (en) Image recognizing method and image processor
US6911988B1 (en) Apparatus, method and memory medium for processing a radiation image
US20050161617A1 (en) Image processing method, apparatus, and program
JP2004105437A (en) Medical image processor and medical image photographing system
Zhang et al. Automatic background recognition and removal (ABRR) in computed radiography images
JP2004041490A (en) Diagnostic imaging support system
JP3709759B2 (en) Image processing method and image processing apparatus
JP4830564B2 (en) Medical imaging system
JP4380176B2 (en) MEDICAL IMAGE PROCESSING DEVICE AND METHOD FOR DISPLAYING DETECTION RESULT OF ANOTHER SHAPE CANDIDATE
US7260254B2 (en) Comparing images
US20050069187A1 (en) Image processing method, image processing apparatus and image processing program
JP2001238868A (en) Method of image processing and its apparatus
JP2001351092A (en) Image processing selecting method, image selecting method, and image processor
JP3731400B2 (en) Image processing method and image processing apparatus
JP2004351100A (en) System and method for medical image processing
JP2003275196A (en) Method and apparatus for processing medical image
JP2006263055A (en) X-ray image processing system and x-ray image processing method
JP4690204B2 (en) Image reproduction apparatus and program thereof
JP3975668B2 (en) Feature quantity correctness determination method and image processing apparatus
JP2004216007A (en) Device, method and program for image processing

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040415

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050708

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050719

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050801

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 3709759

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090819

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090819

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100819

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100819

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110819

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110819

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120819

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130819

Year of fee payment: 8

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term