JP5155020B2 - Radiographic imaging apparatus and radiographic imaging method - Google Patents

Radiographic imaging apparatus and radiographic imaging method Download PDF

Info

Publication number
JP5155020B2
JP5155020B2 JP2008143758A JP2008143758A JP5155020B2 JP 5155020 B2 JP5155020 B2 JP 5155020B2 JP 2008143758 A JP2008143758 A JP 2008143758A JP 2008143758 A JP2008143758 A JP 2008143758A JP 5155020 B2 JP5155020 B2 JP 5155020B2
Authority
JP
Japan
Prior art keywords
area
correction
amount
boundary
edge pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008143758A
Other languages
Japanese (ja)
Other versions
JP2009285354A (en
Inventor
哲矢 辻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2008143758A priority Critical patent/JP5155020B2/en
Publication of JP2009285354A publication Critical patent/JP2009285354A/en
Application granted granted Critical
Publication of JP5155020B2 publication Critical patent/JP5155020B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、放射線を被写体に照射し、被写体を透過した放射線を検出して電気信号に変換し、変換した電気信号に基づいて放射線画像を生成する放射線画像撮像装置及び放射線画像撮像方法に関するものである。   The present invention relates to a radiation image capturing apparatus and a radiation image capturing method for irradiating a subject with radiation, detecting the radiation transmitted through the subject, converting the detected radiation into an electrical signal, and generating a radiation image based on the converted electrical signal. is there.

放射線画像撮像装置は、例えば、医療用の診断画像や工業用の非破壊検査などを含む各種の分野で利用されている。放射線画像撮像装置において、被写体を透過した放射線(X線、α線、β線、γ線、電子線、紫外線等)を検出する放射線検出器として、現在では、放射線を電気信号に変換するフラットパネル型検出器(FPD(Flat Panel Detector))を用いるものがある。   Radiographic imaging devices are used in various fields including, for example, medical diagnostic images and industrial nondestructive inspection. As a radiation detector for detecting radiation (X-rays, α-rays, β-rays, γ-rays, electron beams, ultraviolet rays, etc.) transmitted through a subject in a radiographic imaging device, at present, a flat panel that converts radiation into electrical signals There is a type using a flat panel detector (FPD).

FPDを用いた放射線画像放射線撮像装置では、放射線源から放射線を被写体に照射し、被写体を透過した放射線をFPDで電気信号に変換し、FPDから被写体の画像データに相当する電気信号を読み出して放射線画像を生成する。   In a radiographic radiation imaging apparatus using an FPD, a subject is irradiated with radiation from a radiation source, the radiation transmitted through the subject is converted into an electrical signal by the FPD, and an electrical signal corresponding to the image data of the subject is read from the FPD. Generate an image.

ここで、FPDは、読み出し単位又は検出素子単位の少なくとも一方で分割された複数のサブエリアを連結した構成であり、各々のサブエリア毎に画像データの読出回路が設けられている。しかし、各々のサブエリアの感度や読出回路の増幅特性に個体差があるため、隣接するサブエリアの境界でオフセットが発生して放射線画像の信号強度(輝度)に段差(アーチファクト)が生じるという問題があった。   Here, the FPD has a configuration in which a plurality of subareas divided in at least one of a readout unit or a detection element unit are connected, and a readout circuit for image data is provided for each subarea. However, there is an individual difference in the sensitivity of each sub-area and the amplification characteristics of the readout circuit, causing an offset at the boundary between adjacent sub-areas, resulting in a step (artifact) in the signal intensity (luminance) of the radiographic image. was there.

これに対し、例えば、特許文献1には、画像データを形成するための複数のセンサ要素、画像のサブエリアと関連する読み取りユニット、隣接サブエリアの連接画像エリアの画像データを評価し、補正データを生成するように配される分析ユニット、及び、補正データにより不正な画像データを補正するように配される補正ユニットを有し、ユーザによるあらためてのX線投与や介人を要することなく、非線形増幅態様の規則的で正確な再校正または補正の実行を可能とする画像形成装置が記載されている。   On the other hand, for example, Patent Document 1 evaluates image data of a plurality of sensor elements for forming image data, a reading unit related to an image subarea, and a concatenated image area of adjacent subareas, and correction data. An analysis unit arranged to generate a non-linear image, and a correction unit arranged to correct illegal image data by the correction data, so that the user does not need a new X-ray administration or an intermediary, and is non-linear. An image forming apparatus is described that allows regular and accurate recalibration or correction of amplification features.

また、特許文献2には、被検体に向けて放射線を照射する放射線照射手段と、被検体を透過した放射線を検出する放射線検出手段とを備え、放射線検出手段から検出された放射線検出信号に基づいて放射線画像を得る放射線撮像装置であって、検出された放射線検出信号に基づく画素の信号レベルの分布に関する統計量を算出する場合について、放射線検出手段の構成によって区分される2つの領域間で信号レベル差が現れるときに、各領域について統計量をそれぞれ算出する統計量算出手段と、信号レベル差を打ち消すように2つの領域間での統計量の差に関連した補正量を各画素の信号レベルに作用させて、信号レベル差を低減させて各画素を補正する画素補正手段とを備える放射線撮像装置が記載されている。   Further, Patent Document 2 includes radiation irradiating means for irradiating a subject with radiation and radiation detecting means for detecting radiation transmitted through the subject, and based on a radiation detection signal detected from the radiation detecting means. A radiographic imaging device that obtains a radiographic image and calculates a statistic regarding the distribution of the signal level of the pixel based on the detected radiation detection signal, and signals between the two regions divided by the configuration of the radiation detection means When a level difference appears, a statistic calculation means for calculating a statistic for each region, and a correction amount related to the difference in the statistic between the two regions so as to cancel the signal level difference A radiation imaging apparatus is provided that includes a pixel correction means that corrects each pixel by reducing the signal level difference.

特開2001−197313号公報JP 2001-197313 A 特開2006−296722号公報JP 2006-296722 A

ここで、特許文献1に記載の装置では、読み取りユニット毎の増幅特性を分析するために、サブエリア毎にヒストグラムを求めて補正量を算出する。そのため、この装置では、サブエリア内で均一な変動に起因する画像信号の段差は補正できるが、サブエリア内で不均一な変動に起因する画像の信号強度の段差はサブエリアの境界位置で異なるというローカリティを有しているので、サブエリア内で不均一な変動に起因する画像の信号強度の段差を解消することはできないという問題がある。   Here, in the apparatus described in Patent Document 1, in order to analyze the amplification characteristic for each reading unit, a correction amount is calculated by obtaining a histogram for each sub-area. Therefore, this apparatus can correct the step of the image signal caused by the uniform fluctuation in the sub-area, but the step of the signal strength of the image caused by the non-uniform fluctuation in the sub-area differs depending on the boundary position of the sub-area. Therefore, there is a problem that the step of the signal intensity of the image due to non-uniform fluctuation in the sub-area cannot be eliminated.

また、特許文献2に記載されている装置のように、各サブエリアの統計値を求め、その統計値の差分から補正値を算出する装置でも、その統計量は分割境界近辺を母集団とした統計量ではなく、分割境界に垂直な方向のサブエリア全体の画素を母集団としているため、適切に段差量を計算できるとはいえない。また、分割境界に平行な方向に関する補正量の連続性を考慮していないために、補正画像に分割境界と垂直なスジ状アーチファクトが生じる可能性もある。   Further, even in an apparatus that calculates a statistical value of each sub-area and calculates a correction value from the difference between the statistical values as in the apparatus described in Patent Document 2, the statistical amount is based on the vicinity of the division boundary. Since the entire sub-area pixel in the direction perpendicular to the division boundary is not a statistical quantity but a population, it cannot be said that the step amount can be calculated appropriately. In addition, since the continuity of the correction amount regarding the direction parallel to the division boundary is not taken into consideration, there may be a streak-like artifact perpendicular to the division boundary in the corrected image.

さらに、境界での段差量や、画素濃度に応じて補正値を算出すると、放射線画像の画素濃度が急激に変化するエッジパターンで構成されるエッジパターン領域と、境界とが重なった場合に、境界のエッジパターンに起因する画素濃度の変化を段差量として検出し、補正してしまうという問題もある。
このように、エッジパターンに起因する画素濃度の差を段差量として検出し、補正をしてしまうと、放射線画像からエッジパターンが無くなることになり実際の画像とは異なる画像となってしまう。
Furthermore, if the correction value is calculated according to the step amount at the boundary and the pixel density, the edge pattern area composed of edge patterns where the pixel density of the radiation image changes abruptly overlaps the boundary. There is also a problem that a change in pixel density due to the edge pattern is detected and corrected as a step amount.
As described above, if the difference in pixel density caused by the edge pattern is detected as a step amount and corrected, the edge pattern disappears from the radiographic image, resulting in an image different from the actual image.

また、たとえエッジパターン領域を認識できて、エッジパターンへの誤補正を防げたとしても、エッジパターンでない領域の境界との連続性を考慮しなければエッジパターン領域と境界が重なった部分(適正でない値で段差を補正した部分)と、エッジパターン領域と境界とが重なっていない部分(適正な値で段差を補正した部分)との境目に、サブエリアの境界に直交する方向に延びたスジ上のアーチファクトが発生するという問題もある。
つまり、図8(A)及び(B)に示すように、画像のエッジパターンedの一部が、サブエリアの境界bに略重なって、かつ、略平行に延在している場合に、エッジパターンedと、サブエリアの境界bとが重なった重なり領域の両端(または一方の端部)にエッジに直交する方向に延びたスジ状のアーチファクトafが生じるという問題がある。なお、図8(A)は、アーチファクトと境界とエッジパターンとの関係を概念的に示す模式図であり、図8(B)は、図8(A)の境界周辺を拡大して示す拡大模式図である。
Even if the edge pattern area can be recognized and erroneous correction to the edge pattern can be prevented, the edge pattern area and the boundary overlap with each other unless the continuity with the boundary of the non-edge pattern area is taken into consideration (inappropriate) On the streak extending in the direction perpendicular to the boundary of the sub-area at the boundary between the edge pattern area and the part where the edge pattern area and the boundary do not overlap (part where the step is corrected with an appropriate value) There is also a problem that this artifact occurs.
That is, as shown in FIGS. 8A and 8B, when a part of the edge pattern ed of the image substantially overlaps the boundary b of the sub area and extends substantially in parallel, the edge There is a problem in that streak-shaped artifacts af extending in the direction perpendicular to the edges are generated at both ends (or one end portion) of the overlapping region where the pattern ed and the sub-area boundary b overlap. 8A is a schematic diagram conceptually showing the relationship between the artifact, the boundary, and the edge pattern, and FIG. 8B is an enlarged schematic diagram showing the periphery of the boundary in FIG. 8A in an enlarged manner. FIG.

本発明の目的は、上記従来技術に基づく問題点を解消し、サブエリアとサブエリアとの境界でアーチファクトが発生することを防止し、放射線画像を高精度に撮像できる放射線画像撮像装置及び放射線画像撮像方法を提供することにある。   An object of the present invention is to solve the problems based on the above prior art, prevent the occurrence of artifacts at the boundary between subareas and prevent radiation from occurring, and a radiographic image capturing apparatus and radiographic image capable of capturing radiographic images with high accuracy It is to provide an imaging method.

上記課題を解決するために、本発明は、放射線を検出する検出素子を複数備えるサブエリアが複数配置された検出部及びそれぞれのサブエリアに対応して設けられ、対応するサブエリアの検出素子で発生される検出信号を読み取る複数の読取回路とを有する放射線検出器と、複数の前記読取回路でそれぞれ読み取った検出信号から画像データを生成する撮影データ処理手段と、前記撮影データ処理手段で生成された画像データの前記サブエリアと該サブエリアに隣接するサブエリアとの境界で発生する画素濃度の段差を、前記境界の近傍の画像データに基づいて補正する段差補正手段とを有し、前記段差補正手段は、前記サブエリアと該サブエリアに隣接するサブエリアとの境界で発生する画素濃度の段差量を検出する段差量検出部と、前記段差量検出部で検出した段差量から、前記境界に対応する位置の画像が前記境界に略平行に延在するエッジパターン領域の画像であるかを判定するエッジ領域判定部と、前記段差量検出部で検出した段差量に基づいて補正量を算出し、算出した補正量に基づいて検出信号を補正する段差補正部とを備え、前記段差補正部は、前記エッジパターン領域と判定した領域の補正量を、前記エッジパターン領域と判定した領域の端部と接する前記エッジパターン領域と判定されなかった領域の補正量に基づいて算出し、エッジパターン領域の画像データを補正することを特徴とする放射線画像撮像装置を提供するものである。 In order to solve the above-described problems, the present invention is provided with a detection unit in which a plurality of subareas each including a plurality of detection elements for detecting radiation are arranged and corresponding to each subarea, and a detection element in a corresponding subarea. A radiation detector having a plurality of reading circuits for reading the generated detection signals, imaging data processing means for generating image data from the detection signals respectively read by the plurality of reading circuits, and the imaging data processing means Step correction means for correcting a step of pixel density generated at the boundary between the sub-area of the image data and a sub-area adjacent to the sub-area based on image data in the vicinity of the boundary, The correction means includes a step amount detection unit that detects a step amount of pixel density that occurs at a boundary between the sub area and a sub area adjacent to the sub area. An edge region determination unit that determines whether an image at a position corresponding to the boundary is an image of an edge pattern region extending substantially parallel to the boundary from the step amount detected by the difference amount detection unit, and the step amount detection A step correction unit that calculates a correction amount based on the step amount detected by the unit and corrects the detection signal based on the calculated correction amount, wherein the step correction unit corrects the region determined to be the edge pattern region A quantity is calculated based on a correction amount of an area not determined to be the edge pattern area in contact with an edge of the area determined to be the edge pattern area, and image data in the edge pattern area is corrected. An image pickup apparatus is provided.

ここで、前記段差補正部は、エッジパターン領域と判定した領域の一方の端部が画像の端と一致する場合は、エッジパターン領域と判定した領域の他方の端部と接する領域の補正量のみに基づいて前記エッジパターン領域と判定した領域の補正量を算出することが好ましい。
また、前記段差補正部は、エッジパターン領域と判定した領域の両端が画像の端と一致しない場合は、エッジパターン領域と判定した領域の両端のそれぞれと接する領域の補正量に基づいて前記エッジパターン領域と判定した領域の補正量を算出することも好ましい。
また、前記段差補正部は、両端の段差量を用いて線形補間により補正量を算出することが好ましい。
また、前記段差補正部は、両端の段差量を用いて非線形補間により補正量を算出することも好ましい。
Here, when the one end of the area determined as the edge pattern area coincides with the edge of the image, the step correction unit only corrects the correction amount of the area in contact with the other end of the area determined as the edge pattern area. It is preferable to calculate the correction amount of the area determined as the edge pattern area based on the above.
In addition, when the both ends of the area determined as the edge pattern area do not coincide with the edges of the image, the step correction unit determines the edge pattern based on the correction amount of the area contacting each of the both ends of the area determined as the edge pattern area. It is also preferable to calculate the correction amount of the area determined as the area.
Further, it is preferable that the step correction unit calculates a correction amount by linear interpolation using the step amounts at both ends.
The step correction unit preferably calculates the correction amount by nonlinear interpolation using the step amounts at both ends.

また、前記段差量検出部は、前記サブエリアの境界近傍の画像データの画素濃度と、該サブエリアに隣接するサブエリアの境界近傍の画像データの画素濃度との差分を、境界に平行な方向に平滑化処理して段差量を算出することが好ましい。
また、前記平滑化処理は、メディアンフィルタを用いた処理および移動平均処理の少なくとも1つである。
Further, the step amount detection unit calculates a difference between the pixel density of the image data near the boundary of the sub area and the pixel density of the image data near the boundary of the sub area adjacent to the sub area in a direction parallel to the boundary. It is preferable to calculate the level difference by smoothing.
The smoothing process is at least one of a process using a median filter and a moving average process.

また、前記エッジ領域判定部は、段差量のしきい値判定により、エッジパターン領域を判定することが好ましい。
さらに、前記しきい値は、エッジパターン起因でない段差量の最大値付近の値であることが好ましい。
また、前記段差量検出部は、各サブエリアの前記境界近傍の画像データの画素濃度の統計量を算出し、統計値から差分を計算して、段差量を算出することが好ましい。
また、前記段差量検出部は、前記統計量を、メディアンフィルタで算出することが好ましい。
また、前記段差量検出部は、各サブエリアの前記境界近傍の画像データの画素濃度の平均値を統計量として算出することが好ましい。
また、前記統計量は、前記境界に直交する方向に配列された複数の検出素子からそれぞれ検出した検出信号から算出した値であることが好ましい。
また、前記段差量検出部は、他のサブエリアと隣接した画素同士の差分から段差量を算出することが好ましい。
また、前記段差補正部は、前記境界から離れるに従って補正強度を減衰させた補正量を算出することが好ましい。
Moreover, it is preferable that the said edge area | region determination part determines an edge pattern area | region by threshold value determination of the amount of steps.
Furthermore, it is preferable that the threshold value is a value near the maximum value of the step amount not caused by the edge pattern.
Further, it is preferable that the step amount detection unit calculates a statistic of pixel density of image data in the vicinity of the boundary of each sub-area, calculates a difference from the statistic value, and calculates a step amount.
Moreover, it is preferable that the level difference detection unit calculates the statistic by a median filter.
Moreover, it is preferable that the level difference detection unit calculates an average value of pixel densities of image data in the vicinity of the boundary of each sub-area as a statistic.
The statistic is preferably a value calculated from detection signals respectively detected from a plurality of detection elements arranged in a direction orthogonal to the boundary.
Further, it is preferable that the step amount detection unit calculates a step amount from a difference between pixels adjacent to another sub area.
Moreover, it is preferable that the level | step difference correction | amendment part calculates the correction amount which attenuated correction intensity | strength as it left | separated from the said boundary.

また、前記段差補正部は、補正前の画像データの画素濃度に応じて補正量を算出することが好ましい。
また、前記段差補正部は、過補正によるアンダーフローを発生させない補正量を算出することが好ましい。
また、前記段差補正部は、補正前の画像データの画素濃度が、段差量の算出に用いた画像データの画素濃度よりも大きいときは加算により補正量を算出し、段差量の算出に用いた画像データの画素濃度より小さいときは乗算により補正量を算出することが好ましい。
The step correction unit preferably calculates a correction amount according to the pixel density of the image data before correction.
The step correction unit preferably calculates a correction amount that does not cause an underflow due to overcorrection.
Further, the step correction unit calculates the correction amount by addition when the pixel density of the image data before correction is larger than the pixel density of the image data used for calculating the step amount, and used for calculating the step amount. When it is smaller than the pixel density of the image data, the correction amount is preferably calculated by multiplication.

前記検出素子は、放射線の照射線量に応じた電荷を蓄積し、前記読取回路は、前記検出値として前記検出素子の電荷を読み取ることが好ましい。
前記検出素子は、放射線の照射線量に応じて蛍光する蛍光素子と、前記蛍光素子の発光に応じて電荷を蓄積する電荷蓄積素子を有し、
前記読取回路は、前記検出値として前記電荷蓄積素子の電荷を読み取ることが好ましい。
It is preferable that the detection element accumulates a charge corresponding to the radiation dose, and the reading circuit reads the charge of the detection element as the detection value.
The detection element includes a fluorescent element that fluoresces according to an irradiation dose of radiation, and a charge storage element that accumulates charges according to light emission of the fluorescent element,
The reading circuit preferably reads the charge of the charge storage element as the detection value.

また、上記課題を解決するために、本発明は、放射線を検出する検出素子を複数備えるサブエリアが複数配置された検出部及びそれぞれのサブエリアに対応して設けられ、対応するサブエリアの検出素子で発生される検出信号を読み取る複数の読取回路とを有する放射線検出器で放射線画像を読み取る放射線画像読取ステップと、複数の前記読取回路でそれぞれ読み取った検出信号から画像データを生成する画像データ生成ステップと、前記サブエリアと該サブエリアに隣接するサブエリアとの境界で発生する画素濃度の段差量を検出し、検出した段差量から、前記境界に対応する位置の画像が前記境界に略平行に延在するエッジパターン領域の画像であるかを判定し、検出した段差量に基づいて補正量を算出し、算出した補正量に基づいて検出信号を補正する段差補正ステップとを有し、前記段差補正ステップは、前記エッジパターン領域と判定した領域の補正量を、前記エッジパターン領域と判定した領域の端部と接する前記エッジパターン領域と判定されなかった領域の補正量に基づいて算出し、エッジパターン領域の画像データを補正することを特徴とする放射線画像撮像方法を提供するものである。 In order to solve the above-described problem, the present invention provides a detection unit in which a plurality of subareas each including a plurality of detection elements for detecting radiation are arranged and corresponding to each subarea, and detection of the corresponding subarea. A radiation image reading step for reading a radiation image with a radiation detector having a plurality of reading circuits for reading detection signals generated by the elements, and image data generation for generating image data from the detection signals respectively read by the plurality of reading circuits A step amount of pixel density generated at a boundary between the step and the sub area and a sub area adjacent to the sub area is detected, and an image at a position corresponding to the boundary is substantially parallel to the boundary from the detected step amount. determining whether the image of the extending edge pattern regions, and calculates a correction amount based on the detected step amount, based on the calculated correction amount A step correction step for correcting the output signal, wherein the step correction step includes a correction amount of the area determined to be the edge pattern area and the edge pattern area in contact with an end of the area determined to be the edge pattern area. The present invention provides a radiographic imaging method characterized in that it is calculated based on a correction amount of a region that has not been determined, and image data in an edge pattern region is corrected.

本発明によれば、放射線撮像画像の画素値が急激に変化する領域であるエッジパターン領域とサブエリアの境界とが重なった場合も放射線撮像画像のエッジパターンを保持しつつ、サブエリアの境界で段差が発生することを防止できる。これにより、アーチファクトが発生することを防止でき、かつエッジパターンも保持することができ、高精度な放射線画像を撮像することができる。   According to the present invention, even when the edge pattern region, which is a region where the pixel value of the radiation image is abruptly changed, and the boundary of the sub area overlap, the edge pattern of the radiation image is retained and the boundary of the sub area is maintained. Generation of a step can be prevented. As a result, the occurrence of artifacts can be prevented and the edge pattern can also be retained, and a highly accurate radiation image can be taken.

本発明に係る放射線画像撮像装置及び放射線画像撮像方法について、添付の図面に示す実施形態を基に詳細に説明する。   A radiographic image capturing apparatus and a radiographic image capturing method according to the present invention will be described in detail based on embodiments shown in the accompanying drawings.

図1は、本発明の放射線画像撮像方法を用いる本発明の放射線画像撮像装置の実施形態の概略構成を示すブロック図であり、図2は、図1に示すFPD(フラットパネルディテクタ)の概略構成を示す模式図である。 Figure 1 is a block diagram showing the schematic configuration of one embodiment of a radiation imaging apparatus of the present invention using the radiation image capturing method of the present invention, FIG. 2 is a schematic of an FPD (Flat Panel Detector) as shown in FIG. 1 It is a schematic diagram which shows a structure.

図1に示す放射線画像撮像装置(以下単に「撮像装置」という。)10は、被写体に放射線を照射し、被写体に照射された(透過した)放射線を検出した検出信号を取得する撮像手段12と、撮像手段12で取得された検出信号(画像データに相当する信号)をデジタル変換する撮影データ処理手段14と、デジタル変換された画像データに段差補正処理を施す段差補正処理手段15と、段差補正された画像データに画像処理を施す画像処理手段16と、画像処理された画像データを出力する出力手段18と、撮像手段12等に撮影指示を入力する撮影指示手段20と、各部を制御する制御手段22とを有する。撮像装置10は、放射線を被写体(被検者)Hに照射し、検出素子で被写体Hを透過した放射線を検出し、その検出素子で検出された信号に基づいて、被写体Hが撮影された放射線画像を生成する。   A radiographic image capturing apparatus (hereinafter simply referred to as “imaging apparatus”) 10 shown in FIG. 1 irradiates a subject with radiation, and obtains a detection signal for detecting the radiation irradiated (transmitted) to the subject. A photographing data processing means 14 for digitally converting a detection signal (a signal corresponding to image data) acquired by the imaging means 12, a step correction processing means 15 for performing a step correction process on the digitally converted image data, and a step correction. Image processing means 16 for performing image processing on the processed image data, output means 18 for outputting the image processed image data, photographing instruction means 20 for inputting a photographing instruction to the imaging means 12 and the like, and control for controlling each part And means 22. The imaging apparatus 10 irradiates a subject (subject) H with radiation, detects radiation transmitted through the subject H with a detection element, and based on a signal detected by the detection element, radiation obtained by imaging the subject H Generate an image.

撮像手段12は、照射制御部24と、放射線源26と、撮影台28と、放射線検出部30とを有し、放射線を被写体Hに照射し、被写体Hを透過した放射線を検出することで被写体Hの放射線画像を撮像する。撮像手段12からは、被写体Hが撮影された放射線画像のデータ(アナログデータ)が出力される。   The imaging unit 12 includes an irradiation control unit 24, a radiation source 26, an imaging table 28, and a radiation detection unit 30. The imaging unit 12 irradiates the subject H with radiation and detects the radiation transmitted through the subject H, thereby detecting the subject. A radiographic image of H is taken. The imaging means 12 outputs data (analog data) of a radiographic image obtained by imaging the subject H.

放射線源26は、放射線を発生する放射線照射機構であり、撮影台28に向けて放射線を照射する。放射線源26から照射された放射線は、撮影台28上の被写体Hを透過して放射線検出部30に入射される。
ここで、放射線源26としては、撮像装置の放射線源として用いられる種々の放射線照射機構を用いることができる。また、本発明では、放射線として、X線、α線、β線、γ線、電子線、紫外線等を用いることができる。
照射制御部24は、放射線源26を駆動して、撮影モードに応じて設定された強度の放射線が設定された時間だけ照射されるように照射量を制御する。
撮影台28は、放射線源26に対向した位置に配置され、その放射線源26側の面に被写体Hが載置される支持台である。撮影台28としては、各種の放射線画像撮影装置で利用される通常の撮影台である。
The radiation source 26 is a radiation irradiation mechanism that generates radiation and irradiates the imaging table 28 with radiation. Radiation emitted from the radiation source 26 passes through the subject H on the imaging table 28 and enters the radiation detection unit 30.
Here, as the radiation source 26, various radiation irradiation mechanisms used as the radiation source of the imaging apparatus can be used. In the present invention, X-rays, α rays, β rays, γ rays, electron beams, ultraviolet rays, and the like can be used as radiation.
The irradiation control unit 24 drives the radiation source 26 to control the irradiation amount so that the radiation with the intensity set according to the imaging mode is irradiated for the set time.
The imaging table 28 is a support table that is disposed at a position facing the radiation source 26 and on which the subject H is placed on the surface on the radiation source 26 side. The imaging table 28 is a normal imaging table used in various types of radiographic imaging devices.

放射線検出部30は、FPD32を有し、被写体Hを透過した放射線をFPD32で検出して電気信号(検出信号、放射線画像のデータ)に変換する。放射線検出部30からは、被写体Hが撮影されたアナログの放射線画像のデータ(以下、単に「画像データ」ともいう。)が出力される。   The radiation detection unit 30 has an FPD 32, detects the radiation transmitted through the subject H with the FPD 32, and converts it into an electrical signal (detection signal, radiation image data). The radiation detection unit 30 outputs analog radiation image data (hereinafter, also simply referred to as “image data”) obtained by photographing the subject H.

FPD32は、図2に示すように、5つのサブエリア42a〜42eを連結して構成されており、各々のサブエリア42a〜42e毎に画像データの読出回路44a〜44eが設けられ、サブエリア42a〜42eと読出回路44a〜44eとは読出しライン46a〜46eにより接続されている。なお、以下では、2つのサブエリアの境界48a〜48d(つまりサブエリアと隣接するサブエリアとの接線)と平行な方向を主方向(図2中、左右方向)とし、主方向に直交する方向を副方向(図2中、上下方向)とする。 As shown in FIG. 2, the FPD 32 is configured by connecting five subareas 42a to 42e, and image data readout circuits 44a to 44e are provided for the respective subareas 42a to 42e. To 42e and read circuits 44a to 44e are connected by read lines 46a to 46e. In the following, the direction parallel to the boundaries 48a to 48d of the two subareas (that is, the tangent line between the subarea and the adjacent subarea) is defined as the main direction (the left-right direction in FIG. 2), and the direction orthogonal to the main direction. Is the sub-direction (vertical direction in FIG. 2).

サブエリア42a〜42eは、2次元方向(つまり、主方向および副方向のそれぞれ)にアレイ状に配列された複数の読取画素(検出素子ともいう。)により構成される。各読取画素は、放射線感応膜を有し、放射線の照射線量に応じた検出信号を生成する。   The sub-areas 42a to 42e are configured by a plurality of reading pixels (also referred to as detection elements) arranged in an array in a two-dimensional direction (that is, each of the main direction and the sub-direction). Each reading pixel has a radiation-sensitive film and generates a detection signal corresponding to the radiation dose.

読出回路44a〜44eは、それぞれ対応するサブエリア42a〜42eで生成された検出信号を読み出す回路であり、例えば、特定用途のために設計、製造される半導体集積回路(ASIC)を用いることができる。   The read circuits 44a to 44e are circuits for reading the detection signals generated in the corresponding subareas 42a to 42e, respectively. For example, a semiconductor integrated circuit (ASIC) designed and manufactured for a specific application can be used. .

また、図2では1本だけを代表的に表示しているが、読出しライン46a〜46eは、サブエリア毎に副方向に複数本配列され、サブエリア42a〜42eと各サブエリアに対応する読出回路44a〜44eとを、サブエリア42a〜42eの主方向と平行な方向に延びるライン毎に接続している。   In FIG. 2, only one line is representatively displayed. However, a plurality of read lines 46a to 46e are arranged in the sub direction for each sub area, and the read lines corresponding to the sub areas 42a to 42e and each sub area are read out. The circuits 44a to 44e are connected to each line extending in a direction parallel to the main direction of the sub areas 42a to 42e.

FPD32から画像データの読み出しが行われる場合には、全ての読出回路44a〜44eによって、全てのサブエリア42a〜42eの全ての読出ライン46a〜46eを介して副方向の1行分の画像データが同時に読み出される。また、主方向に位置を変えながら副方向の全画素にわたって1行分の画像データの読み出しを行数に相当する回数繰り返すことで1画面分の画像データの読み出しが行われる。   When image data is read from the FPD 32, image data for one row in the sub-direction is obtained by all the read circuits 44a to 44e via all the read lines 46a to 46e of all the sub areas 42a to 42e. Read simultaneously. Further, the image data for one screen is read by repeating the reading of the image data for one row over all the pixels in the sub direction while changing the position in the main direction, the number of times corresponding to the number of rows.

ここで、FPD32としては、放射線を電荷に直接変換し、検出信号を生成する直接方式のFPD、もしくは、放射線を一旦光に変換し、変換された光をさらに電気信号に変換して検出信号を生成する間接方式のFPDのどちらも利用可能である。また、本出願人が特願2007−218816号において提案した、公知の直接方式および間接方式とは異なる方式で放射線を検出し、検出信号を生成する光読取方式のFPDも利用可能である。つまり、サブエリア及び読出回路により放射線を感知し、感知した放射線から検出信号を生成する方法としては、種々の方法を用いることができる。   Here, as the FPD 32, a direct type FPD that directly converts radiation into electric charge and generates a detection signal, or radiation is once converted into light, and the converted light is further converted into an electric signal to generate a detection signal. Both indirect FPDs that are generated can be used. Further, an optical reading type FPD that detects radiation by a method different from the known direct method and indirect method proposed by the present applicant in Japanese Patent Application No. 2007-218816 and generates a detection signal can also be used. That is, various methods can be used as a method of sensing radiation by the subarea and the readout circuit and generating a detection signal from the sensed radiation.

ここで、直接方式のFPDは、例えば、アモルファスセレン等の光導電膜、キャパシタ、スイッチ素子としてのTFT(Thin Film Transistor)等によって構成される。例えば、X線等の放射線が入射されると、光導電膜から電子−正孔対(e−hペア)が発せられる。その電子−正孔対はキャパシタに蓄積され、キャパシタに蓄積された電荷が、TFTを介して電気信号として読み出される。   Here, the direct type FPD includes, for example, a photoconductive film such as amorphous selenium, a capacitor, a TFT (Thin Film Transistor) as a switch element, and the like. For example, when radiation such as X-rays is incident, electron-hole pairs (e-h pairs) are emitted from the photoconductive film. The electron-hole pair is accumulated in the capacitor, and the electric charge accumulated in the capacitor is read out as an electric signal through the TFT.

一方、間接方式のFPDは、例えば、「CsI:Tl」等の蛍光体で形成されたシンチレータ層、フォトダイオード、キャパシタ、TFT等によって構成される。例えば、放射線が入射されると、シンチレータ層が発光(蛍光)する。シンチレータ層による発光はフォトダイオードで光電変換されてキャパシタに蓄積され、キャパシタに蓄積された電荷が、TFTを介して電気信号として読み出される。   On the other hand, the indirect FPD is composed of, for example, a scintillator layer made of a phosphor such as “CsI: Tl”, a photodiode, a capacitor, and a TFT. For example, when radiation is incident, the scintillator layer emits light (fluoresce). Light emitted by the scintillator layer is photoelectrically converted by a photodiode and accumulated in a capacitor, and the electric charge accumulated in the capacitor is read out as an electrical signal through the TFT.

さらに、光読取方式のFPDは、概略すると、放射線(記録光)が照射されると電荷対を発生して導電性を呈する記録用光導電層、読取光が照射されると電荷対を発生して導電性を呈する読取用光導電層、読取光に対して透過性を有する基板等がこの順に積層されている。また、光読取方式のFPDには、蓄積された電荷を読み出す時に、1ライン分の読取光を基板側に順次照射するライン光源が設けられている。   Furthermore, an optical reading type FPD can be summarized as follows: a recording photoconductive layer that exhibits conductivity when irradiated with radiation (recording light) and a charge pair when irradiated with reading light. Thus, a photoconductive layer for reading exhibiting conductivity, a substrate having transparency to the reading light, and the like are laminated in this order. Further, the optical reading type FPD is provided with a line light source for sequentially irradiating the substrate side with reading light for one line when the accumulated charge is read out.

光読取方式のFPDでは、ライン光源からライン状の読取光が照射されると、蓄電部に蓄積された潜像極性電荷として記録されている画像情報のうち、読取光が照射された部分に記録されている1ライン分の画像情報が、透明線状電極を介し、画素毎に潜像極性電荷の量に応じたレベルの電気信号として読み出される。この処理を全てのラインについて行うことで1画面分の画像情報が画像データとして読み出される。   In an optical reading type FPD, when line-shaped reading light is irradiated from a line light source, recording is performed on a portion irradiated with reading light in image information recorded as a latent image polarity charge accumulated in a power storage unit. The image information for one line is read out as an electric signal of a level corresponding to the amount of latent image polarity charge for each pixel through the transparent linear electrode. By performing this process for all lines, image information for one screen is read as image data.

撮像部12は、以上のような構成である。
なお、放射線源26と放射線検出部30は、例えば、長尺撮影などの場合のために、撮影台28の長手方向(図1中、左右方向)に沿って往復移動が可能な構成としてもよい。また、撮像手段12は、さらに放射線源22の移動手段、撮影台28の昇降手段や水平方向への移動手段、撮影台28を傾ける傾斜手段等を有してもよい。
The imaging unit 12 is configured as described above.
The radiation source 26 and the radiation detection unit 30 may be configured to be capable of reciprocating along the longitudinal direction (left and right direction in FIG. 1) of the imaging table 28 for, for example, long imaging. . The imaging unit 12 may further include a moving unit for the radiation source 22, a lifting unit for the imaging table 28, a moving unit for moving in the horizontal direction, a tilting unit for tilting the imaging table 28, and the like.

次に、撮影データ処理手段14は、撮像手段12から供給された放射線画像データに対して、A/D(アナログ/デジタル)変換等のデータ処理を行う部位である。撮影データ処理手段14からは、データ処理後のデジタルの画像データが出力される。   Next, the imaging data processing unit 14 is a part that performs data processing such as A / D (analog / digital) conversion on the radiation image data supplied from the imaging unit 12. The photographic data processing means 14 outputs digital image data after data processing.

段差補正処理手段15は、段差量算出部52と、平滑化処理部54と、1/2乗算部56と、エッジ領域判定部58と、段差補正部60とを有する。段差補正処理手段15は、撮影データ処理手段14から出力されたデータ処理後の放射線画像データに対して、段差補正処理を行う。段差補正処理手段15からは、段差補正後の放射線画像のデータが出力される。   The step correction processing means 15 includes a step amount calculation unit 52, a smoothing processing unit 54, a ½ multiplication unit 56, an edge region determination unit 58, and a step correction unit 60. The step correction processing unit 15 performs a step correction process on the radiographic image data after the data processing output from the imaging data processing unit 14. The step correction processing means 15 outputs the data of the radiographic image after the step correction.

段差量算出部52は、撮影データ処理手段14から出力された放射線画像のデータの各サブエリアの指定された位置の画素濃度(つまり、画像の信号強度)を比較して、隣接する2つのサブエリアの境界の段差量を算出する。ここで、段差量算出部52は、隣接する2つのサブエリアの境界の各位置における段差量を算出することで、隣接する2つのサブエリアの境界の各位置におけるローカリティを吸収し、高い精度で各位置の段差量を算出する。   The step amount calculation unit 52 compares the pixel density (that is, the signal strength of the image) at a specified position in each sub-area of the radiographic image data output from the imaging data processing unit 14, and compares the adjacent two sub-areas. The amount of step at the boundary of the area is calculated. Here, the step amount calculation unit 52 calculates the step amount at each position of the boundary between two adjacent subareas, thereby absorbing the locality at each position of the boundary between two adjacent subareas with high accuracy. A step amount at each position is calculated.

平滑化処理部54は、段差量算出部52で算出した段差量を、メディアンフィルタを用いて平滑化処理し、段差量からノイズ(より具体的には高周波なノイズ)を除去する。   The smoothing processing unit 54 smoothes the step amount calculated by the step amount calculating unit 52 using a median filter, and removes noise (more specifically, high-frequency noise) from the step amount.

1/2乗算部56は、平滑化処理部54で平滑化処理した段差量を1/2倍する(つまり、0.5をかける)。このように、1/2乗算部56により、段差量を半分にすることで、隣接する2つのサブエリアのぞれぞれに割り当てる段差量を算出する。   The 1/2 multiplier 56 multiplies the step amount smoothed by the smoothing processor 54 by 1/2 (that is, multiplies by 0.5). As described above, the step amount to be allocated to each of two adjacent subareas is calculated by halving the step amount by the ½ multiplier 56.

エッジ領域判定部58は、1/2乗算部56で算出された段差量に基づいて、隣接する2つのサブエリアの境界に対応する位置の画像が隣接する2つのサブエリアの境界と略平行に延在するエッジパターン画像であるか否かを判定する。つまり、エッジ領域判定部58は、境界に対応する位置の画像が前記境界に略平行に延在するエッジパターン領域の画像であるかを判定する。   Based on the step amount calculated by the ½ multiplier 56, the edge region determination unit 58 has an image at a position corresponding to the boundary between two adjacent subareas substantially parallel to the boundary between two adjacent subareas. It is determined whether the edge pattern image extends. That is, the edge area determination unit 58 determines whether the image at the position corresponding to the boundary is an image of the edge pattern area extending substantially parallel to the boundary.

段差補正部60は、算出された段差量に基づいて画像データの段差を補正する。
具体的には、隣接するサブエリアの一方(画像の信号強度の高い方)の読出ラインの各画素の画像データから対応する画素から1/2乗算部56で1/2倍された段差量を減算し、他方(画像の信号強度の低い方)のラインの各画素の画像データに対応する画素から1/2乗算部56で1/2倍された段差量を加算することにより、境界で発生する画像信号の段差を補正する。
また、段差補正部60は、境界から離れるに従って画像の信号強度に対する補正量の割合が少なくなるように変化させた補正量を用いて、隣接するサブエリアの画像データの段差を補正する。具体的には、段差補正部60は、境界からの距離に応じて変化する(境界から離れるに従って値が小さくなる)補正係数を用い、境界からの位置毎に、段差量に補正係数をかけて算出した値から補正量を算出し、算出した補正量を用いて画像データの段差を補正する。
境界からの距離に応じて補正量を調整することで画像ムラが発生することをより確実に防止できる。
段差補正手段15は、基本的に以上のような構成である。
The step correction unit 60 corrects the step of the image data based on the calculated step amount.
Specifically, the step amount that is halved by the ½ multiplier 56 from the corresponding pixel from the image data of each pixel of the readout line of one of the adjacent subareas (the one with the higher signal strength of the image) Occurs at the boundary by subtracting and adding the step amount halved by the ½ multiplier 56 from the pixel corresponding to the image data of each pixel of the other line (the lower signal strength of the image) The level difference of the image signal to be corrected is corrected.
Further, the level difference correcting unit 60 corrects the level difference of the image data of the adjacent subarea using the correction amount that is changed so that the ratio of the correction amount to the signal intensity of the image decreases as the distance from the boundary increases. Specifically, the step correction unit 60 uses a correction coefficient that changes according to the distance from the boundary (the value decreases as the distance from the boundary decreases), and applies the correction coefficient to the step amount for each position from the boundary. A correction amount is calculated from the calculated value, and the level difference of the image data is corrected using the calculated correction amount.
By adjusting the correction amount according to the distance from the boundary, it is possible to more reliably prevent the occurrence of image unevenness.
The level difference correcting means 15 is basically configured as described above.

画像処理手段16は、段差補正処理手段15で段差が補正された画像データに、コントラスト強調、エッジ強調処理等を含む各種の画像処理を行う部位である。画像処理手段16は、コンピュータ上で動作するプログラム(ソフトウェア)、専用のハードウェア、ないしは、両者を組み合わせて構成される。画像処理手段16からは、画像処理後の画像データが出力される。   The image processing unit 16 is a part that performs various types of image processing including contrast enhancement and edge enhancement processing on the image data in which the level difference is corrected by the level difference correction processing unit 15. The image processing means 16 is configured by a program (software) operating on a computer, dedicated hardware, or a combination of both. Image data after image processing is output from the image processing means 16.

出力手段18は、画像処理手段16から供給された画像処理後の画像データを出力する部位である。出力手段18は、例えば、放射線画像を画面上に表示するモニタ、放射線画像をプリント出力するプリンタ、放射線画像データを記憶する記憶装置等である。   The output unit 18 is a part that outputs image data after image processing supplied from the image processing unit 16. The output means 18 is, for example, a monitor that displays a radiation image on a screen, a printer that prints out a radiation image, a storage device that stores radiation image data, and the like.

ここで、撮像装置10には、撮影モードとして、放射線の強度および照射時間(照射量)等の撮影条件を手動で設定する手動撮影モードの他に、あらかじめ所定の撮影条件が設定されている、複数の撮影モードが設けられている。   Here, in the imaging apparatus 10, predetermined imaging conditions are set in advance in addition to a manual imaging mode in which imaging conditions such as radiation intensity and irradiation time (irradiation amount) are manually set as imaging modes. Multiple shooting modes are provided.

撮影指示手段20は、撮影条件や撮影モードを設定し、被写体Hの撮影を指示する部位である。撮影指示手段20として、撮影条件や撮影モードを設定するための入力キー、撮影の指示には、2段押し型の撮影ボタンが用いられている。撮影ボタンは、1段目まで押されると撮影の準備状態となり、2段目まで押されると撮影が開始される。撮影指示手段20からは、撮影条件や撮影モード、撮影ボタンの状態を表す撮影指示信号が出力される。   The photographing instruction means 20 is a part that sets photographing conditions and a photographing mode and instructs photographing of the subject H. As the shooting instruction means 20, an input key for setting shooting conditions and a shooting mode and a shooting button of a two-step push type are used for shooting instructions. When the shooting button is pressed down to the first level, it is ready for shooting, and when it is pressed down to the second level, shooting starts. The shooting instruction means 20 outputs shooting instruction signals indicating shooting conditions, shooting modes, and shooting button states.

制御手段22は、撮影指示手段20から供給された撮影指示信号に応じて、撮像装置10の動作を制御する部位である。制御手段22は、例えば、撮像手段12における撮影の制御、画像処理手段16における画像処理の制御、出力手段18における出力の制御を行う。
撮像装置10は、基本的に以上のような構成である。
The control unit 22 is a part that controls the operation of the imaging apparatus 10 in accordance with the imaging instruction signal supplied from the imaging instruction unit 20. For example, the control unit 22 performs shooting control in the imaging unit 12, image processing control in the image processing unit 16, and output control in the output unit 18.
The imaging device 10 is basically configured as described above.

次に、撮像装置10の動作を説明する。
ここで、図3は、撮像装置の段差補正手段15の動作を示すフロー図であり、図4は、エッジ領域判定部58及び段差補正部60の動作を示すフロー図である。また、以下の実施例では、画素濃度(検出信号の強度)として、画素値(またはLSB)用いる場合を例として説明する。
Next, the operation of the imaging apparatus 10 will be described.
Here, FIG. 3 is a flowchart showing the operation of the step correction means 15 of the imaging apparatus, and FIG. 4 is a flowchart showing the operations of the edge region determination unit 58 and the step correction unit 60. In the following embodiments, a case where a pixel value (or LSB) is used as a pixel density (intensity of a detection signal) will be described as an example.

まず、撮影指示手段20において、ユーザにより撮影条件ないし撮影モードが設定され、撮影ボタンが1段目まで押されると、撮像装置10は、制御手段22の制御の下で撮影の準備状態となる。   First, in the shooting instruction unit 20, when a shooting condition or shooting mode is set by the user and the shooting button is pushed down to the first level, the imaging apparatus 10 enters a shooting ready state under the control of the control unit 22.

続いて、撮影ボタンが2段目まで押されると撮影が開始される。撮影が開始されると、撮像手段12において、放射線源26から、撮影条件ないし撮影モードに応じて設定された強度の放射線が設定された時間だけ照射される。照射された放射線は、撮影台28上の被写体Hを透過して放射線検出部30のFPD32に入射され、被写体Hを透過した放射線が電気信号(放射線画像データ)に変換される。   Subsequently, shooting is started when the shooting button is pushed down to the second level. When imaging is started, the imaging unit 12 emits radiation with intensity set according to imaging conditions or imaging modes from the radiation source 26 for a set time. The irradiated radiation passes through the subject H on the imaging table 28 and enters the FPD 32 of the radiation detection unit 30, and the radiation transmitted through the subject H is converted into an electrical signal (radiation image data).

続いて、FPD32から、撮影された放射線画像のデータが読み出され、撮影データ処理手段14によってA/D変換等のデータ処理が行われ、デジタルの画像データが生成される。   Subsequently, the captured radiographic image data is read from the FPD 32, and data processing such as A / D conversion is performed by the imaging data processing unit 14 to generate digital image data.

次に、段差補正手段15によって、撮影データ処理手段14によって生成された画像データに段差補正処理が施される。
以下、図3を用いて具体的に説明する。
Next, the step correction process is performed on the image data generated by the photographing data processing unit 14 by the step correction unit 15.
Hereinafter, this will be specifically described with reference to FIG.

まず、撮影データ処理手段14によって生成された画像データをサブエリアの位置毎に分割し、段差量算出部52により、サブエリアと隣接するサブエリアとの境界を基準として所定位置の読出ライン(境界に平行なライン)の各位置における画像(画像データ)の信号強度から主方向の各位置における段差量を算出する(ステップS10)。各位置と段差量との関係をまとめて段差量データとする。
ここで、段差量は、境界よりも上側のサブエリアの画像の信号強度から、境界よりも下側のサブエリアの画像の信号強度を引くことで算出する。したがって、境界よりも上側のサブエリアの画像の信号強度が、境界よりも下側のサブエリアの画像の信号強度よりも高い場合は、段差量は正の値となり、逆の場合は、段差量は負の値となる。なお、本実施形態では、段差量を境界よりも上側のサブエリアの画像の信号強度から、境界よりも下側のサブエリアの画像の信号強度を引いた値としたが、段差量の定義(基準とするサブエリア)は特に限定されず、境界よりも下側のサブエリアの画像の信号強度から、境界よりも上側のサブエリアの画像の信号強度を引いた値を段差量としてもよい。
次に、算出した段差量を、平滑化処理部54で平滑化処理する。(ステップS12)。
つまり、算出した段差量にメディアンフィルタを用い、対象位置の段差量と、主方向と平行な方向において、対象位置に隣接する複数の位置の段差量とで平滑化処理する。
次に、平滑化処理した段差量データを、1/2乗算部56で1/2倍する(ステップS14)。
次に、1/2倍した段差量を用いて、エッジ領域判定部58と段差補正部60とで、境界よりも上側のサブエリア画像用の補正データを作成する(ステップS16)。
具体的には、エッジ領域判定部58で、段差量から、境界における画像が、2つのサブエリアの境界に略平行に延在するエッジパターン領域の画像であるか否か(つまり、境界と画像のエッジパターンとが一定長さ以上重なっているか否か)を判定し、その判定結果に基づいて補正量を算出する。各補正量の算出方法は後ほど詳述する。
このような補正量を算出する計算を繰り返し、境界よりも上側のサブエリアの各位置における補正量を算出し、境界よりも上側のサブエリアの補正データとする。
次に、ステップS14で1/2倍した段差量データを−1倍する(ステップS18)。
次に、−1倍した段差量データを用いて、エッジ領域判定部58と段差補正部60とで、境界よりも下側のサブエリア画像用の補正データを作成する(ステップS20)。
具体的には、ステップS16と同様に、境界とエッジパターンとが一定長さ以上重なっているか否かを判定し、その判定結果に基づいて補正量を算出する。
次に、ステップS16で算出した境界よりも上側のサブエリアの補正データと、ステップS20で算出した境界よりも下側のサブエリアの補正データとを用いて、画像データの段差量を補正する(ステップS22)。
具体的には、隣接するサブエリアのうち、画像の信号強度が高い方のサブエリアの境界に最も近い読出ラインの主方向の各画素における画像データから対応する各画素の補正値を減算し、画像の信号強度が低い方のサブエリアの境界に最も近い読出ラインの主方向の各画素における画像データに対応する各画素の補正値を加算する。
続いて、境界から副方向に離れる(上側のサブエリアでは、境界から上側に離れ、下側のサブエリアでは、境界から下側に離れる)に従って画像の信号強度が弱くなるように設定された強度補正テーブルの強度補正係数を乗算することによって、主方向および副方向の各画素の画像の信号強度に応じて、隣接する上下のサブエリア内の全ての位置の画像データを補正する。
First, the image data generated by the photographing data processing unit 14 is divided for each position of the sub area, and the step amount calculation unit 52 reads out the read line (boundary at a predetermined position) with reference to the boundary between the sub area and the adjacent sub area. The step amount at each position in the main direction is calculated from the signal intensity of the image (image data) at each position (line parallel to) (step S10). The relationship between each position and the step amount is collectively used as step amount data.
Here, the step amount is calculated by subtracting the signal intensity of the image in the sub area below the boundary from the signal intensity of the image in the sub area above the boundary. Therefore, when the signal strength of the image in the sub-area above the boundary is higher than the signal strength of the image in the sub-area below the boundary, the step amount becomes a positive value, and in the opposite case, the step amount Is negative. In the present embodiment, the step amount is a value obtained by subtracting the signal intensity of the image in the sub area below the boundary from the signal intensity of the image in the sub area above the boundary. The reference sub-area) is not particularly limited, and a value obtained by subtracting the signal intensity of the sub-area image above the boundary from the signal intensity of the sub-area image below the boundary may be used as the step amount.
Next, the level difference calculated is smoothed by the smoothing processing unit 54. (Step S12).
In other words, a median filter is used for the calculated step amount, and smoothing processing is performed using the step amount at the target position and the step amounts at a plurality of positions adjacent to the target position in a direction parallel to the main direction.
Next, the smoothed level difference data is multiplied by 1/2 by the 1/2 multiplier 56 (step S14).
Next, using the step amount multiplied by 1/2, the edge area determination unit 58 and the step correction unit 60 create correction data for the sub-area image above the boundary (step S16).
Specifically, the edge area determination unit 58 determines whether or not the image at the boundary is an image of the edge pattern area extending substantially parallel to the boundary between the two sub-areas based on the step amount (that is, the boundary and the image). Whether or not the edge pattern overlaps with a certain length or more), and a correction amount is calculated based on the determination result. The calculation method of each correction amount will be described in detail later.
Such calculation for calculating the correction amount is repeated, and the correction amount at each position in the sub-area above the boundary is calculated to obtain correction data for the sub-area above the boundary.
Next, the step amount data halved in step S14 is multiplied by -1 (step S18).
Next, using the step amount data multiplied by −1, the edge area determination unit 58 and the step correction unit 60 create correction data for a sub-area image below the boundary (step S20).
Specifically, as in step S16, it is determined whether or not the boundary and the edge pattern overlap by a certain length or more, and the correction amount is calculated based on the determination result.
Next, the step amount of the image data is corrected using the correction data for the sub-area above the boundary calculated in step S16 and the correction data for the sub-area below the boundary calculated in step S20 ( Step S22).
Specifically, among adjacent subareas, the correction value of each corresponding pixel is subtracted from the image data in each pixel in the main direction of the readout line closest to the boundary of the subarea with the higher signal strength of the image, The correction value of each pixel corresponding to the image data in each pixel in the main direction of the readout line closest to the boundary of the subarea with the lower image signal intensity is added.
Subsequently, the intensity is set so that the signal strength of the image becomes weaker as it moves away from the boundary in the sub-direction (away from the boundary in the upper sub-area and away from the boundary in the lower sub-area). By multiplying the intensity correction coefficient of the correction table, the image data at all positions in the adjacent upper and lower subareas is corrected according to the signal intensity of the image of each pixel in the main direction and the sub direction.

すなわち、段差補正手段15によって、隣接する上下のサブエリア内の全ての位置の画像データは、境界から副方向に離れるに従って補正値が少なくなるように変化されて補正される。これにより、境界における画像信号の段差を滑らかに補正できる。   In other words, the image data at all positions in the adjacent upper and lower sub-areas are changed and corrected by the step correction means 15 so that the correction value decreases as the distance from the boundary in the sub-direction increases. Thereby, the level | step difference of the image signal in a boundary can be corrected smoothly.

上記手順に従って、隣接するサブエリアの境界の全てに対して同様の処理を行うことで、隣接するサブエリアの境界で画像の信号強度が大きく変わる画像の場合であっても、その画像信号の段差を正確に補正することができる。   According to the above procedure, the same processing is performed on all the borders of adjacent subareas, so that even in the case of an image in which the signal strength of the image changes greatly at the border between adjacent subareas, the level difference of the image signal Can be corrected accurately.

次に、画像処理手段16は、段差を補正した画像データに対して、コントラスト強調、エッジ強調などの画像処理を行う。
さらに、画像処理後の画像データは、出力手段18により出力される。具体的には、出力手段がモニタの場合には、モニタ上に表示され、出力手段がプリンタの場合には、プリント出力される。
Next, the image processing means 16 performs image processing such as contrast enhancement and edge enhancement on the image data whose level difference is corrected.
Further, the image data after the image processing is output by the output means 18. Specifically, when the output means is a monitor, it is displayed on the monitor, and when the output means is a printer, it is printed out.

次に、図4及び図5を用いて、エッジ領域判定部58と段差補正部60による補正データの作成方法について説明する。
ここで、図4は、エッジ領域判定部58及び段差補正部60の動作を示すフロー図である。図5は、隣接する2つのサブエリアにおける各位置の座標を示す正面図である。ここで、本実施形態では、図5に示すように、主方向(境界と平行な方向)をx方向とし、副方向をy方向とする。
また、本実施形態では、隣接する2つのサブエリアの境界のy座標を、iMidとし、段差量の算出に用いる、境界よりも上側のサブエリアの基準ラインを境界よりもiSmだけ上側に移動したラインとし、段差量の算出に用いる、境界よりも下側のサブエリアの段差量を算出する基準ラインを境界よりもiSpだけ上側に移動したラインとする。
また、隣接する2つのサブエリアの一方の基準ラインと他方の基準ラインとの差をとり、その差分を1/2倍した段差量をstep[x]とする。また、各位置における画素値をDt[x][y]とする。
また、以下では、基準ラインから一定距離離間した位置(iM,iS)における補正値を算出する場合として説明する。
なお、補正値の算出は、境界に平行な方向において、サブエリアの一方の端部から他方の端部に向かって繰り返し算出される。
Next, a method of creating correction data by the edge area determination unit 58 and the step correction unit 60 will be described with reference to FIGS. 4 and 5.
Here, FIG. 4 is a flowchart showing the operations of the edge region determination unit 58 and the step correction unit 60. FIG. 5 is a front view showing the coordinates of each position in two adjacent subareas. In this embodiment, as shown in FIG. 5, the main direction (direction parallel to the boundary) is the x direction, and the sub direction is the y direction.
In this embodiment, the y coordinate of the boundary between two adjacent subareas is set to iMid, and the reference line of the subarea above the boundary used for calculation of the step amount is moved iSm above the boundary. A reference line used to calculate a step amount and used to calculate a step amount in a sub-area below the boundary is a line moved iSp above the boundary.
Further, the difference between one reference line and the other reference line of two adjacent subareas is taken, and a step amount obtained by halving the difference is defined as step [x]. Also, the pixel value at each position is Dt [x] [y].
In the following description, a correction value is calculated at a position (iM, iS) that is a fixed distance away from the reference line.
The correction value is repeatedly calculated from one end of the sub-area toward the other end in the direction parallel to the boundary.

まず、基準ラインから一定距離離間した位置(以下「目標位置」という。)の画素値Dt[iM][iS]が段差計算位置の画素値Dt[iM][iMid+iSm]以上であるかを判定する(ステップS30)。つまり、Dt[iM][iS]≧Dt[iM][iMid+iSm]を満たすか否かを判定する。   First, it is determined whether the pixel value Dt [iM] [iS] at a position spaced apart from the reference line by a certain distance (hereinafter referred to as “target position”) is greater than or equal to the pixel value Dt [iM] [iMid + iSm] at the step calculation position. (Step S30). That is, it is determined whether or not Dt [iM] [iS] ≧ Dt [iM] [iMid + iSm] is satisfied.

Dt[iM][iS]≧Dt[iM][iMid+iSm]の場合は、補正量をstep[iM]とし(ステップS32)、ステップS36に進む。
つまり、基準位置で算出した段差量を補正量とする。
Dt[iM][iS]<Dt[iM][iMid+iSm]の場合は、補正量をDt[iM][iS]×step[iM]/D[iM][iMid+iSm]とし(ステップS34)、ステップS36に進む。
If Dt [iM] [iS] ≧ Dt [iM] [iMid + iSm], the correction amount is set to step [iM] (step S32), and the process proceeds to step S36.
That is, the step amount calculated at the reference position is set as the correction amount.
If Dt [iM] [iS] <Dt [iM] [iMid + iSm], the correction amount is Dt [iM] [iS] × step [iM] / D [iM] [iMid + iSm] (step S34), and step S36. Proceed to

ここで、図6(A)は、段差量が正の場合の補正前の画素値と補正後の画素値との関係を示すグラフであり、図6(B)は、段差量が負の場合の補正前の画素値と補正後の画素値との関係を示すグラフである。図6(A)及び図6(B)では、横軸を補正前の画素値とし、縦軸を補正後の画素値とした。
また、図6(A)及び図6(B)において、太線が補正前の画素値と補正後の画素値との関係を示す線である。
上述したように、ステップS30、ステップS32、ステップS34で、画素値の大きさにより補正量の算出方法を切り換え、図6(A)及び図6(B)に示すように、一定値以下の場合は、補正量を比例的に少なくすることで、アンダーフローが発生することを防止できる。
Here, FIG. 6A is a graph showing the relationship between the pixel value before correction and the pixel value after correction when the step amount is positive, and FIG. 6B shows the case where the step amount is negative. It is a graph which shows the relationship between the pixel value before correction | amendment, and the pixel value after correction | amendment. In FIGS. 6A and 6B, the horizontal axis is the pixel value before correction, and the vertical axis is the pixel value after correction.
In FIGS. 6A and 6B, a thick line is a line indicating a relationship between a pixel value before correction and a pixel value after correction.
As described above, the calculation method of the correction amount is switched depending on the size of the pixel value in step S30, step S32, and step S34, and as shown in FIG. 6A and FIG. Can prevent underflow from occurring by reducing the correction amount proportionally.

補正量を算出したら、段差量step[iM]の絶対値がしきい値fUPPER以上であるか否かを判定する(ステップS36)。つまり、|step[iM]|>fUPPERを満たすかを判定する。
ここで、しきい値fUPPERは、サブエリア間の段差量として算出される値の最大値付近の値である。しきい値をこのような値に設定することで、しきい値を超える段差量step[iM]は、サブエリアの段差に起因した段差ではなく、画像のエッジパターンに起因した段差(ここでは、画像自体の画素濃度の差)と判定することができる。
After calculating the correction amount, it is determined whether or not the absolute value of the step amount step [iM] is equal to or greater than the threshold value f UPPER (step S36). That is, it is determined whether | step [iM] |> f UPPER is satisfied.
Here, the threshold value f UPPER is a value near the maximum value calculated as the step amount between the sub-areas. By setting the threshold value to such a value, the step amount step [iM] exceeding the threshold value is not a step caused by the step in the sub area, but a step caused by the edge pattern of the image (here, It can be determined that the pixel density difference of the image itself.

|step[iM]|>fUPPERである場合は、目標位置の段差補正の基準となる境界が画像のエッジパターンと重なっていると判定し、ステップS38に進む。
基準となる境界が画像のエッジパターンと重なっていると判定したら、エッジ領域の他方の端部があるか否かを判定する(ステップS38)。つまり、既に補正値を算出している領域側の端部とは反対側の領域にエッジパターンではない領域があるか否かを判定する。
エッジパターン領域の他方の端部があると判定したら、エッジパターン領域のそれぞれの端部に隣接している2つのエッジパターンではない領域の補正量に基づいて補正量を算出し(ステップS40)、ステップS44に進む。
エッジパターン領域の他方の端部がないと判定したら、エッジパターン領域の一方の端部(既に検出されているエッジパターン領域と隣接しているエッジパターンではない領域)の補正量に基づいて補正量を算出し(ステップS42)、ステップS44に進む。
また、|step[iM]|≦fUPPERである場合は、目標位置の段差補正の基準となる境界が画像のエッジパターンと重なっていないと判定し、ステップS44に進む。
ステップS44では、ステップS32、ステップS34、ステップS40、ステップS42のいずれかで算出した補正量に補正強度テーブル値を乗算し、算出した補正量を補正データに記憶させる。
ここで、補正強度テーブル値は、境界からの距離毎に記憶された係数であり、境界からの距離が長くなるに従って、値が徐々に小さくなる係数である。
ステップS44で、目標位置における補正量を算出したら、全画像データの補正値の算出が終了したかを判定する(ステップS46)。
サブエリア内の全画像データの補正量の算出が終了していない場合は、ステップS30に進み、補正量を算出していない位置を目標位置として、補正量を算出する。
他方、サブエリア内の全画像データの補正量の算出が終了している場合は、補正対象の段差を隣の段差に移して、その段差に隣接するサブエリア(つまり、段差の原因となっている境界を構成する2つのサブエリア)の画像データの補正量を同様に算出する。これをすべての段差に対して行い、画像全面の補正量を算出する。
If | step [iM] |> f UPPER, it is determined that the boundary serving as a reference for the step correction of the target position overlaps the edge pattern of the image, and the process proceeds to step S38.
If it is determined that the reference boundary overlaps the edge pattern of the image, it is determined whether or not there is the other end of the edge region (step S38). That is, it is determined whether or not there is a region that is not an edge pattern in the region opposite to the end portion on the region side where the correction value has already been calculated.
If it is determined that there is the other end portion of the edge pattern region, a correction amount is calculated based on the correction amounts of the regions that are not two edge patterns adjacent to the respective end portions of the edge pattern region (step S40). Proceed to step S44.
If it is determined that there is no other end portion of the edge pattern region, the correction amount is based on the correction amount of one end portion of the edge pattern region (the non-edge pattern region adjacent to the already detected edge pattern region). Is calculated (step S42), and the process proceeds to step S44.
If | step [iM] | ≦ f UPPER, it is determined that the boundary serving as a reference for correcting the step at the target position does not overlap the edge pattern of the image, and the process proceeds to step S44.
In step S44, the correction amount calculated in any of step S32, step S34, step S40, or step S42 is multiplied by the correction intensity table value, and the calculated correction amount is stored in the correction data.
Here, the correction intensity table value is a coefficient stored for each distance from the boundary, and is a coefficient that gradually decreases as the distance from the boundary increases.
If the correction amount at the target position is calculated in step S44, it is determined whether the calculation of the correction values for all the image data has been completed (step S46).
If the calculation of the correction amount for all the image data in the sub-area has not been completed, the process proceeds to step S30, and the correction amount is calculated using the position where the correction amount is not calculated as the target position.
On the other hand, when calculation of the correction amount of all image data in the sub-area has been completed, the step to be corrected is moved to the next step and the sub-area adjacent to the step (that is, the cause of the step). The correction amount of the image data in the two sub-areas constituting the boundary is calculated in the same manner. This is performed for all the steps, and the correction amount of the entire image is calculated.

このように、隣接する2つのサブエリアの境界に画像のエッジパターンが重なっているかを判定し、境界にエッジパターンが重なっていると判定した場合は、エッジパターンと接しているエッジパターンでない部分の補正値に基づいて補正量を算出することで、エッジパターンを段差として補正することを防止しつつ、サブエリアの境界で発生する段差を補正することができる。また、エッジパターンと接しているエッジパターンでない部分の補正量を用いることで、エッジパターンとエッジパターンでない部分との境目でサブエリアの境界に直交する方向に延在するスジ状のアーチファクト(ムラ)が発生することも防止できる。   In this way, it is determined whether the edge pattern of the image overlaps the boundary between two adjacent subareas. If it is determined that the edge pattern overlaps the boundary, the portion of the edge pattern that is not in contact with the edge pattern By calculating the correction amount based on the correction value, it is possible to correct the step generated at the boundary of the sub-area while preventing the edge pattern from being corrected as a step. In addition, by using a correction amount of a portion that is not an edge pattern that is in contact with the edge pattern, a streak-like artifact (unevenness) that extends in a direction perpendicular to the boundary of the sub-area at the boundary between the edge pattern and the portion that is not the edge pattern Can also be prevented.

ここで、図7(A)は、境界の各位置における段差量の算出結果の一例を示すグラフであり、図7(B)は、境界の各位置における補正量の算出結果の一例を示すグラフであり、図7(C)は、エッジパターンでは、直前の補正量のみに基づいて補正量を算出した算出結果の一例を示すグラフである。
具体的には、図7(A)に示すように、段差量がしきい値fUPPERを超える領域をエッジパターン領域として検出し、エッジパターン領域の両端にエッジパターン領域以外の領域がある場合には、図7(B)に示すように、エッジパターン領域の両端にぞれぞれ接する位置の補正量からエッジパターン領域の補正量を算出することで、画像のエッジパターン領域を保持しつつ段差量を補正することができる。
また、エッジパターン領域の補正量を、エッジパターン領域の両端にそれぞれ隣接する位置における2つの補正量から算出することで、エッジパターン領域とエッジパターン領域でない部分との境目で、補正量が急激に変化することを防止でき、画像にアーチファクトが発生することを防止できる。
つまり、エッジパターン領域の補正量を一方の端部のみから算出(例えば、直前の補正量を援用して算出)すると図7(C)に示すように、他方の端部との境界で補正量との境目で、補正量が急激に変化する可能性があるが、図7(B)に示すように両端に隣接する位置における補正量を加味することで、補正量が急激に変化することを防止できる。これにより、主方向において、隣接する画素間で補正量が急激に変化することを防止できるため、主方向の座標が同一の位置で一定の不連続な変化が発生することを防止でき、副方向に延びたアーチファクトが発生することをより確実に防止することができる。
Here, FIG. 7A is a graph showing an example of the calculation result of the step amount at each position of the boundary, and FIG. 7B is a graph showing an example of the calculation result of the correction amount at each position of the boundary. FIG. 7C is a graph showing an example of a calculation result obtained by calculating the correction amount based only on the immediately preceding correction amount in the edge pattern.
Specifically, as shown in FIG. 7A, a region where the step amount exceeds the threshold value f UPPER is detected as an edge pattern region, and there are regions other than the edge pattern region at both ends of the edge pattern region. As shown in FIG. 7B, the level difference is calculated while maintaining the edge pattern region of the image by calculating the correction amount of the edge pattern region from the correction amount of the position in contact with both ends of the edge pattern region. The amount can be corrected.
In addition, by calculating the correction amount of the edge pattern area from two correction amounts at positions adjacent to both ends of the edge pattern area, the correction amount rapidly increases at the boundary between the edge pattern area and the non-edge pattern area. The change can be prevented, and the occurrence of artifacts in the image can be prevented.
That is, when the correction amount of the edge pattern region is calculated from only one end (for example, calculated using the previous correction amount), the correction amount at the boundary with the other end as shown in FIG. The correction amount may change abruptly at the boundary between the two, but it can be seen that the correction amount changes abruptly by adding the correction amounts at the positions adjacent to both ends as shown in FIG. Can be prevented. As a result, since the correction amount can be prevented from changing suddenly between adjacent pixels in the main direction, it is possible to prevent a constant discontinuous change from occurring in the same position in the main direction, and the sub direction. It is possible to more reliably prevent the occurrence of an artifact extending to

ここで、エッジパターン領域の補正値は、図7(B)に実線で示すようにエッジパターン領域の両端にそれぞれ隣接する位置における2つの補正量から線形補間で算出してもよく、図7(B)に点線で示すようにエッジパターン領域の両端にそれぞれ隣接する位置における2つの補正量からスプライン補間等の非線形補間で算出してもよい。ここで、より滑らかに補正量を変化させることができるため、補正量は、スプライン補間等の非線形補間で算出することが好ましい。   Here, the correction value of the edge pattern region may be calculated by linear interpolation from two correction amounts at positions adjacent to both ends of the edge pattern region as shown by a solid line in FIG. As indicated by a dotted line in B), it may be calculated by nonlinear interpolation such as spline interpolation from two correction amounts at positions adjacent to both ends of the edge pattern region. Here, since the correction amount can be changed more smoothly, the correction amount is preferably calculated by nonlinear interpolation such as spline interpolation.

さらに、撮像装置10のようにエッジパターン領域に他方の端部(エッジパターン領域とエッジパターン領域でない部分との境い目)がない場合、つまり、エッジパターン領域が主方向においても画像の端に位置する場合は、一方の端部のみに基づいて補正量を算出することで、段差量をより適切に算出することができる。
このように、エッジパターン領域に他方の端部がない場合も、エッジパターン領域に隣接するエッジパターン領域の段差量に基づいて、補正量を算出することで、適切な補正値を算出することができる。
Further, when the edge pattern area does not have the other end (the boundary between the edge pattern area and the non-edge pattern area) as in the imaging device 10, that is, the edge pattern area is positioned at the edge of the image even in the main direction. In this case, the step amount can be calculated more appropriately by calculating the correction amount based on only one end.
As described above, even when the edge pattern region does not have the other end, an appropriate correction value can be calculated by calculating the correction amount based on the step amount of the edge pattern region adjacent to the edge pattern region. it can.

また、上述したように、画素濃度に応じて補正量を調整すること、具体的には、一定濃度(本実施形態では、段差量を算出した位置の画素濃度)よりも低い画素濃度では乗算で補正量を算出し、一定濃度よりも高い画素濃度では加算で補正量を算出することで、過補正によるアンダーフローが発生することを防止できる。このように画素濃度に応じて補正量を変化させて、具体的には、画素濃度が低い場合には補正量を小さくして、アンダーフローを防止することで、画像むらが発生することを防止できる。   Further, as described above, the correction amount is adjusted according to the pixel density. Specifically, multiplication is performed at a pixel density lower than a certain density (in this embodiment, the pixel density at the position where the step amount is calculated). By calculating the correction amount and calculating the correction amount by addition at a pixel density higher than a certain density, it is possible to prevent underflow due to overcorrection. In this way, the amount of correction is changed in accordance with the pixel density. Specifically, when the pixel density is low, the amount of correction is reduced to prevent underflow, thereby preventing image unevenness. it can.

また、サブエリア間の段差量の算出に用いるライン位置(つまり、画素の位置)は、境界近傍であればよいが、隣接しているサブエリアと接している位置(つまり、境界と接している位置)の画素を用いることが好ましい。また、段差量の算出には、境界を軸として対称となる位置の画素を用いることが好ましい。
さらに、サブエリア間の段差量は、各サブエリアの1つの画素の画素濃度を検出することに限定されず、複数の画素の画素濃度の統計値同士を比較して、算出してもよい。
ここで、統計値としては、複数の画素の画素濃度からメディアンフィルタを用いて算出した値を用いてもよく、複数の画素の画素濃度の平均値を用いてもよい。
このように、統計値を用いることで、高周波なノイズを除去することができ、誤検出を防止することができる。
ここで、統計量は、副方向(つまり、境界に直交する方向)の複数の画素の画素濃度から算出することが好ましい。副方向の複数の画素、つまり、主方向における位置が同一の複数の画素から統計量を算出することで、画像に横スジなどのノイズがあった場合でも、その影響を除去したより正確な段差量を算出することができる。
Further, the line position (that is, the pixel position) used for calculating the step amount between the sub-areas may be in the vicinity of the boundary, but the position that is in contact with the adjacent sub-area (that is, is in contact with the boundary). It is preferable to use the pixel at position. In addition, it is preferable to use pixels at positions symmetrical with respect to the boundary for the calculation of the step amount.
Furthermore, the level difference between the sub-areas is not limited to detecting the pixel density of one pixel in each sub-area, and may be calculated by comparing the pixel density statistical values of a plurality of pixels.
Here, as the statistical value, a value calculated from the pixel density of a plurality of pixels using a median filter may be used, or an average value of pixel densities of a plurality of pixels may be used.
Thus, by using a statistical value, high frequency noise can be removed and erroneous detection can be prevented.
Here, the statistic is preferably calculated from the pixel density of a plurality of pixels in the sub-direction (that is, the direction orthogonal to the boundary). By calculating statistics from multiple pixels in the sub-direction, that is, multiple pixels with the same position in the main direction, even if there is noise such as horizontal stripes in the image, more accurate steps that eliminate the effect The amount can be calculated.

また、平滑化処理部54では、メディアンフィルタにより、平滑化処理したが、本発明はこれに限定されず、種々の平滑化処理を用いることができる。例えば、移動平均処理により平滑化してもよい。
ここで、算出する段差量が横スジなどのノイズの影響を受けないという点から、撮像装置10のように平滑化処理部54を設けることが好ましいが、本発明はこれに限定されず、平滑化処理部を設けなくてもよい。
In the smoothing processing unit 54 , the smoothing process is performed by the median filter. However, the present invention is not limited to this, and various smoothing processes can be used. For example, smoothing may be performed by moving average processing.
Here, from the viewpoint of step amount for calculating is not affected by noise such as horizontal stripes, as in the image pickup apparatus 10, it is preferable to provide a smoothing processing section 54, the present invention is not limited thereto, The smoothing processing unit may not be provided.

また、撮像装置10では、サブエリア間の段差を確実に補正でき、かつ、エッジパターンを適切に算出できるため、算出した段差量が画像のエッジパターンと重なっている領域であるか否かを判定するしきい値として、エッジパターン起因でない段差量の最大値付近の値を用いたが、本発明はこれに限定されず、例えば、オペレータによって設定した任意の値としてもよい。
また、エッジパターン起因でない段差量の最大値付近の値とは、エッジパターン起因でない段差量の最大値、この最大値よりも一定量小さい値、および、最大値よりも一定量大きい値のいずれかであり、エッジパターン起因でない段差量の最大値もしくは最大値よりも一定量大きい値とすることが好ましい。しきい値をエッジパターン起因でない段差量の最大値もしくは最大値よりも一定量大きい値とすることで、サブエリア間の段差に起因する段差量をエッジパターン領域として判定することを確実に防止することができる。
In addition, since the imaging device 10 can reliably correct the step between the sub-areas and appropriately calculate the edge pattern, it is determined whether or not the calculated step amount overlaps the edge pattern of the image. As the threshold value, a value in the vicinity of the maximum value of the step amount not caused by the edge pattern is used. However, the present invention is not limited to this, and may be an arbitrary value set by an operator, for example.
Also, the value near the maximum value of the step amount not caused by the edge pattern is one of the maximum value of the step amount not caused by the edge pattern, a value smaller by a certain amount than this maximum value, or a value larger by a certain amount than the maximum value. It is preferable that the step amount is not caused by the edge pattern, or is a certain amount larger than the maximum value or the maximum value. By setting the threshold value to the maximum value of the step amount not caused by the edge pattern or a value larger than the maximum value by a certain amount, it is possible to reliably prevent the step amount caused by the step between the sub-areas from being determined as the edge pattern region. be able to.

以上、本発明の放射線画像撮像装置及び放射線画像撮像方法について詳細に説明したが、本発明は上記実施形態に限定されず、本発明の主旨を逸脱しない範囲において、種々の改良や変更をしてもよいのはもちろんである。   The radiographic image capturing apparatus and radiographic image capturing method of the present invention have been described in detail above. However, the present invention is not limited to the above-described embodiment, and various improvements and modifications can be made without departing from the gist of the present invention. Of course it is also good.

例えば、撮像装置10では、5つのサブエリアで1つのFPD32を構成したが、サブエリアの数はこれに限定されず、2つ以上のサブエリアで1つのFPD32を構成してもよい。また、上記実施形態では、サブエリアを図2中上下方向に重ねた構成としたが、これに限定されず、サブエリアを図2中左右方向に重ねるように構成してもよい。   For example, in the imaging apparatus 10, one FPD 32 is configured by five subareas, but the number of subareas is not limited to this, and one FPD 32 may be configured by two or more subareas. Moreover, in the said embodiment, although it was set as the structure which piled up the subarea in the up-down direction in FIG. 2, it is not limited to this, You may comprise so that a subarea may be piled up in the left-right direction in FIG.

また、撮像装置10では、段差量から補正量を算出した後に、境界とエッジパターンとが重なっているかを判定したが、これに限定されず、境界とエッジパターンとが重なっているかを判定した後に、段差量から補正量を算出するようにしてもよい。境界とエッジパターンとが重なっているかを判定した後に、段差量から補正量を算出することで、境界とエッジパターンとが重なっている領域については、段差量から補正量を算出することなく、上述したようにエッジパターンの両端の補正量から補正量を算出することができる。
これにより、無駄なく補正量を算出することができ、計算量を少なくすることができ、より短時間で段差補正処理を行うことができる。
In the imaging device 10, after calculating the correction amount from the step amount, it is determined whether the boundary and the edge pattern overlap. However, the present invention is not limited to this, and after determining whether the boundary and the edge pattern overlap. The correction amount may be calculated from the step amount. After determining whether the boundary and the edge pattern overlap, by calculating the correction amount from the step amount, the region where the boundary and the edge pattern overlap can be calculated without calculating the correction amount from the step amount. As described above, the correction amount can be calculated from the correction amounts at both ends of the edge pattern.
Thereby, the correction amount can be calculated without waste, the calculation amount can be reduced, and the step correction process can be performed in a shorter time.

本発明の放射線画像撮像装置の一実施形態の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of one Embodiment of the radiographic imaging apparatus of this invention. 図1に示すFPDの概略構成を示す模式図である。It is a schematic diagram which shows schematic structure of FPD shown in FIG. 撮像装置の段差補正手段の動作を示すフロー図である。It is a flowchart which shows operation | movement of the level | step difference correction | amendment means of an imaging device. エッジ領域判定部及び段差補正部の動作を示すフロー図である。It is a flowchart which shows operation | movement of an edge area | region determination part and a level | step difference correction | amendment part. 隣接する2つのサブエリアにおける各位置の座標を示す正面図である。It is a front view which shows the coordinate of each position in two adjacent subareas. (A)は、段差量が正の場合の補正前の画素値と補正後の画素値との関係を示すグラフであり、(B)は、段差量が負の場合の補正前の画素値と補正後の画素値との関係を示すグラフである。(A) is a graph showing the relationship between the pixel value before correction and the pixel value after correction when the step amount is positive, and (B) is the pixel value before correction when the step amount is negative. It is a graph which shows the relationship with the pixel value after correction | amendment. (A)は、境界の各位置における段差量の算出結果の一例を示すグラフであり、(B)は、境界の各位置における補正量の算出結果の一例を示すグラフであり、(C)は、エッジパターンでは、直前の補正量のみに基づいて補正量を算出した算出結果の一例を示すグラフである。(A) is a graph showing an example of the calculation result of the step amount at each position of the boundary, (B) is a graph showing an example of the calculation result of the correction amount at each position of the boundary, (C) The edge pattern is a graph showing an example of a calculation result obtained by calculating a correction amount based only on the immediately preceding correction amount. (A)は、アーチファクトと境界とエッジパターンとの関係を概念的に示す模式図であり、(B)は、(A)の境界周辺を拡大して示す拡大模式図である。(A) is a schematic diagram conceptually showing the relationship between an artifact, a boundary, and an edge pattern, and (B) is an enlarged schematic diagram showing an enlarged periphery of the boundary of (A).

符号の説明Explanation of symbols

10 放射線画像撮像装置
12 撮像手段
14 撮影データ処理手段
15 段差補正手段
16 画像処理手段
18 出力手段
20 撮影指示手段
22 制御手段
24 照射制御部
26 放射線源
28 撮影台
30 放射線検出部
32 FPD(フラットパネルディテクタ)
42a〜42e サブエリア
44a〜44e 読出回路
46a〜46e 読出ライン
48a〜48d 境界
52 段差算出部
54 平滑化処理部
56 1/2乗算部
58 エッジ領域判定部
60 段差補正部
DESCRIPTION OF SYMBOLS 10 Radiation imaging device 12 Imaging means 14 Imaging | photography data processing means 15 Level | step difference correction means 16 Image processing means 18 Output means 20 Imaging instruction means 22 Control means 24 Irradiation control part 26 Radiation source 28 Imaging stand 30 Radiation detection part 32 FPD (flat panel) Detector)
42a to 42e Subarea 44a to 44e Read circuit 46a to 46e Read line 48a to 48d Boundary 52 Step amount calculation unit 54 Smoothing processing unit 56 1/2 multiplier 58 Edge region determination unit 60 Step correction unit

Claims (19)

放射線を検出する検出素子を複数備えるサブエリアが複数配置された検出部及びそれぞれのサブエリアに対応して設けられ、対応するサブエリアの検出素子で発生される検出信号を読み取る複数の読取回路とを有する放射線検出器と、
複数の前記読取回路でそれぞれ読み取った検出信号から画像データを生成する撮影データ処理手段と、
前記撮影データ処理手段で生成された画像データの前記サブエリアと該サブエリアに隣接するサブエリアとの境界で発生する画素濃度の段差を、前記境界の近傍の画像データに基づいて補正する段差補正手段とを有し、
前記段差補正手段は、前記サブエリアと該サブエリアに隣接するサブエリアとの境界で発生する画素濃度の段差量を検出する段差量検出部と、
前記段差量検出部で検出した段差量から、前記境界に対応する位置の画像が前記境界に略平行に延在するエッジパターン領域の画像であるかを判定するエッジ領域判定部と、
前記段差量検出部で検出した段差量に基づいて補正量を算出し、算出した補正量に基づいて検出信号を補正する段差補正部とを備え、
前記段差補正部は、前記エッジパターン領域と判定した領域の補正量を、前記エッジパターン領域と判定した領域の端部と接する前記エッジパターン領域と判定されなかった領域の補正量に基づいて算出し、エッジパターン領域の画像データを補正することを特徴とする放射線画像撮像装置。
A plurality of subareas each including a plurality of detection elements for detecting radiation, a plurality of reading circuits provided corresponding to each subarea, and reading detection signals generated by the detection elements in the corresponding subarea; A radiation detector having
Photographing data processing means for generating image data from detection signals respectively read by the plurality of reading circuits;
Step correction for correcting a step in pixel density generated at the boundary between the sub-area and the sub-area adjacent to the sub-area of the image data generated by the photographing data processing unit based on image data in the vicinity of the boundary Means,
The step correction means includes a step amount detection unit that detects a step amount of pixel density generated at a boundary between the sub area and a sub area adjacent to the sub area.
An edge region determination unit that determines whether an image at a position corresponding to the boundary is an image of an edge pattern region extending substantially parallel to the boundary from the step amount detected by the step amount detection unit;
A correction amount is calculated based on the step amount detected by the step amount detection unit, and a step correction unit corrects the detection signal based on the calculated correction amount.
The step correction unit calculates a correction amount of the region determined as the edge pattern region based on a correction amount of the region not determined as the edge pattern region in contact with an end portion of the region determined as the edge pattern region. A radiographic image capturing apparatus for correcting image data in an edge pattern region.
前記段差補正部は、エッジパターン領域と判定した領域の一方の端部が画像の端と一致する場合は、エッジパターン領域と判定した領域の他方の端部と接する領域の補正量のみに基づいて前記エッジパターン領域と判定した領域の補正量を算出する請求項1に記載の放射線画像撮像装置。   When the one end of the area determined to be the edge pattern area coincides with the edge of the image, the step correction unit is based only on the correction amount of the area in contact with the other end of the area determined to be the edge pattern area. The radiographic image capturing apparatus according to claim 1, wherein a correction amount of an area determined as the edge pattern area is calculated. 前記段差補正部は、エッジパターン領域と判定した領域の両端が画像の端と一致しない場合は、エッジパターン領域と判定した領域の両端のそれぞれと接する領域の補正量に基づいて前記エッジパターン領域と判定した領域の補正量を算出する請求項1または2に記載の放射線画像撮像装置。   When the both ends of the area determined as the edge pattern area do not coincide with the edge of the image, the step correction unit determines whether the edge pattern area and the edge pattern area based on the correction amount of the area contacting each of the both ends of the area determined as the edge pattern area. The radiographic image capturing apparatus according to claim 1, wherein a correction amount of the determined area is calculated. 前記段差補正部は、両端の段差量を用いて線形補間により補正量を算出する請求項1または3に記載の放射線画像撮像装置。 The radiographic imaging apparatus according to claim 1, wherein the step correction unit calculates a correction amount by linear interpolation using step amounts at both ends. 前記段差補正部は、両端の段差量を用いて非線形補間により補正量を算出する請求項1または3に記載の放射線画像撮像装置。 The radiographic imaging apparatus according to claim 1, wherein the step correction unit calculates a correction amount by nonlinear interpolation using a step amount at both ends. 前記段差量検出部は、前記サブエリアの境界近傍の画像データの画素濃度と、該サブエリアに隣接するサブエリアの境界近傍の画像データの画素濃度との差分を、境界に平行な方向に平滑化処理して段差量を算出する請求項1〜5のいずれかに記載の放射線画像撮像装置。 The step amount detection unit smoothes the difference between the pixel density of the image data near the boundary of the sub area and the pixel density of the image data near the boundary of the sub area adjacent to the sub area in a direction parallel to the boundary. The radiographic image capturing apparatus according to claim 1 , wherein the step amount is calculated by performing the conversion process. 前記平滑化処理は、メディアンフィルタを用いた処理および移動平均処理の少なくとも1つである請求項6に記載の放射線画像撮像装置。   The radiographic image capturing apparatus according to claim 6, wherein the smoothing process is at least one of a process using a median filter and a moving average process. 前記エッジ領域判定部は、段差量のしきい値判定により、エッジパターン領域を判定する請求項1〜7のいずれかに記載の放射線画像撮像装置。   The radiographic image capturing apparatus according to claim 1, wherein the edge area determination unit determines an edge pattern area by determining a threshold value of a step amount. 前記しきい値は、エッジパターン起因でない段差量の最大値付近の値である請求項8に記載の放射線画像撮像装置。   The radiographic image capturing apparatus according to claim 8, wherein the threshold value is a value near a maximum value of a step amount that is not caused by an edge pattern. 前記段差量検出部は、各サブエリアの前記境界近傍の画像データの画素濃度の統計量を算出し、統計値から差分を計算して、段差量を算出する請求項1〜9のいずれかに記載の放射線画像撮像装置。   The level difference detection unit calculates a level difference by calculating a statistical amount of pixel density of image data in the vicinity of the boundary of each sub-area and calculating a difference from the statistical value. The radiographic imaging apparatus of description. 前記段差量検出部は、前記統計量を、メディアンフィルタで算出する請求項10に記載の放射線画像撮像装置。   The radiographic image capturing apparatus according to claim 10, wherein the step amount detection unit calculates the statistic by a median filter. 前記段差量検出部は、各サブエリアの前記境界近傍の画像データの画素濃度の平均値を統計量として算出する請求項10に記載の放射線画像撮像装置。   The radiographic image capturing apparatus according to claim 10, wherein the step amount detection unit calculates an average value of pixel densities of image data in the vicinity of the boundary of each sub-area as a statistical amount. 前記統計量は、前記境界に直交する方向に配列された複数の検出素子からそれぞれ検出した検出信号から算出した値である請求項10〜12のいずれかに記載の放射線画像撮像装置。 The radiographic image capturing apparatus according to claim 10 , wherein the statistic is a value calculated from detection signals respectively detected from a plurality of detection elements arranged in a direction orthogonal to the boundary. 前記段差量検出部は、他のサブエリアと隣接した画素同士の差分から段差量を算出する請求項1〜9のいずれかに記載の放射線画像撮像装置。   The radiographic image capturing apparatus according to claim 1, wherein the step amount detection unit calculates a step amount from a difference between pixels adjacent to another sub area. 前記段差補正部は、前記境界から離れるに従って補正強度を減衰させた補正量を算出する請求項1〜14のいずれかに記載の放射線画像撮像装置。 The radiographic image capturing apparatus according to claim 1, wherein the step correction unit calculates a correction amount in which a correction intensity is attenuated as the distance from the boundary increases. 前記段差補正部は、補正前の画像データの画素濃度に応じて補正量を算出する請求項1〜15のいずれかに記載の放射線画像撮像装置。 The radiographic image capturing apparatus according to claim 1, wherein the step correction unit calculates a correction amount according to a pixel density of image data before correction. 前記段差補正部は、過補正によるアンダーフローを発生させない補正量を算出する請求項1〜16のいずれかに記載の放射線画像撮像装置。 The radiographic imaging apparatus according to claim 1, wherein the step correction unit calculates a correction amount that does not cause an underflow due to overcorrection. 前記段差補正部は、補正前の画像データの画素濃度が、段差量の算出に用いた画像データの画素濃度よりも大きいときは加算により補正量を算出し、段差量の算出に用いた画像データの画素濃度より小さいときは乗算により補正量を算出する請求項1〜17のいずれかに記載の放射線画像撮像装置。 The step correction unit calculates the correction amount by addition when the pixel density of the image data before correction is larger than the pixel density of the image data used to calculate the step amount, and the image data used to calculate the step amount The radiographic image capturing apparatus according to claim 1, wherein a correction amount is calculated by multiplication when the pixel density is smaller than the pixel density. 放射線を検出する検出素子を複数備えるサブエリアが複数配置された検出部及びそれぞれのサブエリアに対応して設けられ、対応するサブエリアの検出素子で発生される検出信号を読み取る複数の読取回路とを有する放射線検出器で放射線画像を読み取る放射線画像読取ステップと、
複数の前記読取回路でそれぞれ読み取った検出信号から画像データを生成する画像データ生成ステップと、
前記サブエリアと該サブエリアに隣接するサブエリアとの境界で発生する画素濃度の段差量を検出し、検出した段差量から、前記境界に対応する位置の画像が前記境界に略平行に延在するエッジパターン領域の画像であるかを判定し、検出した段差量に基づいて補正量を算出し、算出した補正量に基づいて検出信号を補正する段差補正ステップとを有し、
前記段差補正ステップは、前記エッジパターン領域と判定した領域の補正量を、前記エッジパターン領域と判定した領域の端部と接する前記エッジパターン領域と判定されなかった領域の補正量に基づいて算出し、エッジパターン領域の画像データを補正することを特徴とする放射線画像撮像方法。
A plurality of subareas each including a plurality of detection elements for detecting radiation, a plurality of reading circuits provided corresponding to each subarea, and reading detection signals generated by the detection elements in the corresponding subarea; A radiation image reading step for reading a radiation image with a radiation detector comprising:
An image data generation step for generating image data from detection signals read by each of the plurality of reading circuits;
A step amount of pixel density generated at a boundary between the sub area and a sub area adjacent to the sub area is detected, and an image at a position corresponding to the boundary extends substantially parallel to the boundary from the detected step amount. A step correction step of determining whether the image is an edge pattern region image to be calculated , calculating a correction amount based on the detected step amount, and correcting the detection signal based on the calculated correction amount;
In the step correction step, the correction amount of the area determined as the edge pattern area is calculated based on the correction amount of the area not determined as the edge pattern area in contact with the edge of the area determined as the edge pattern area. A radiographic image capturing method comprising correcting image data of an edge pattern region.
JP2008143758A 2008-05-30 2008-05-30 Radiographic imaging apparatus and radiographic imaging method Active JP5155020B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008143758A JP5155020B2 (en) 2008-05-30 2008-05-30 Radiographic imaging apparatus and radiographic imaging method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008143758A JP5155020B2 (en) 2008-05-30 2008-05-30 Radiographic imaging apparatus and radiographic imaging method

Publications (2)

Publication Number Publication Date
JP2009285354A JP2009285354A (en) 2009-12-10
JP5155020B2 true JP5155020B2 (en) 2013-02-27

Family

ID=41455131

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008143758A Active JP5155020B2 (en) 2008-05-30 2008-05-30 Radiographic imaging apparatus and radiographic imaging method

Country Status (1)

Country Link
JP (1) JP5155020B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5467517B2 (en) * 2010-03-18 2014-04-09 横河電機株式会社 Radiation measurement equipment
JP6189772B2 (en) * 2014-03-03 2017-08-30 富士フイルム株式会社 Radiographic imaging system, image processing apparatus, radiographic imaging system control method, and radiographic imaging system control program
US9508127B1 (en) * 2015-06-30 2016-11-29 Konica Minolta Laboratory U.S.A., Inc. Processing for creating a transmission image without artificial noises

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07177432A (en) * 1993-12-21 1995-07-14 Toshiba Corp Multi-ccd type camera for x-ray diagnosis
US5572565A (en) * 1994-12-30 1996-11-05 Philips Electronics North America Corporation Automatic segmentation, skinline and nipple detection in digital mammograms
JP4101329B2 (en) * 1996-08-02 2008-06-18 ユナイテッド・モジュール・コーポレーション Block distortion removing filter, image processing apparatus, and image signal filtering method
JPH11168723A (en) * 1997-09-26 1999-06-22 Nippon Steel Corp Block distortion eliminating filter, image processor, image signal filtering method, and storage medium
EP1111909A1 (en) * 1999-12-23 2001-06-27 Philips Patentverwaltung GmbH Device and method for displaying an image composed of a plurality of parts
JP2002112992A (en) * 2000-06-30 2002-04-16 Canon Inc Apparatus and method for processing signal, and imaging device
JP2002085392A (en) * 2000-09-14 2002-03-26 Konica Corp Radiographic image processing method and apparatus
JP4655383B2 (en) * 2001-02-23 2011-03-23 ソニー株式会社 Image signal processing device for image sensor
JP2003033348A (en) * 2001-07-19 2003-02-04 Hitachi Medical Corp Three dimensional x-ray ct scanner
JP4377571B2 (en) * 2001-09-11 2009-12-02 株式会社東芝 X-ray flat panel detector, X-ray image diagnostic apparatus, and X-ray image correction method
JP2003210454A (en) * 2002-01-23 2003-07-29 Hitachi Medical Corp X-ray ct apparatus
JP2005304818A (en) * 2004-04-22 2005-11-04 Shimadzu Corp Radiation imaging device and radiation detection signal processing method
JP2006296722A (en) * 2005-04-20 2006-11-02 Shimadzu Corp Radiation imaging apparatus, and radiation detecting signal-processing method
JP2007202811A (en) * 2006-02-02 2007-08-16 Fujifilm Corp Radiation field recognition unit, radiation field recognition method, and program therefor

Also Published As

Publication number Publication date
JP2009285354A (en) 2009-12-10

Similar Documents

Publication Publication Date Title
JP5010637B2 (en) Image correction method and image correction apparatus
JP6208600B2 (en) Radiographic imaging apparatus and radiographic imaging system
US8232529B2 (en) Imaging apparatus, imaging system, its controlling method, and storage medium storing its program
JP6189772B2 (en) Radiographic imaging system, image processing apparatus, radiographic imaging system control method, and radiographic imaging system control program
JP6609119B2 (en) Radiographic apparatus, radiographic method, radiographic system, and program
JP7361516B2 (en) Radiography device, radiography system, radiography device control method, and program
JP2009201586A (en) Radiographic apparatus
JP5155020B2 (en) Radiographic imaging apparatus and radiographic imaging method
JP2009201552A (en) Radiographic apparatus
JP2006304213A (en) Imaging apparatus
JP5186425B2 (en) Image processing method and radiation imaging apparatus
WO2013039054A1 (en) Image processing device
US9949708B2 (en) Radiation imaging apparatus and method of controlling the same, radiation image processing apparatus and method thereof, and computer-readable storage medium
JP2009201587A (en) Radiographic apparatus
JP4980769B2 (en) Radiation imaging apparatus and method
JP5121504B2 (en) Radiation imaging apparatus and image processing apparatus
JP5355726B2 (en) Imaging apparatus, image processing apparatus, imaging system, radiation imaging apparatus, and image processing method
JP6570584B2 (en) Radiographic imaging system, image processing apparatus, radiographic imaging system control method, and radiographic imaging system control program
CN108882900B (en) Radiographic imaging device and system, image processing device and method
JP2008245991A (en) Radiographic image correction device and radiographic image photographing apparatus equipped with the same
JP7383673B2 (en) Image processing device, radiography system, image processing method and program
JP6739511B2 (en) Radiation image capturing apparatus and radiation image capturing system
JP4968364B2 (en) Imaging device
JP5456404B2 (en) Defective pixel detection method and image processing apparatus
JP2008237836A (en) Radiographic imaging device and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110202

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120823

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120828

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121025

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121120

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121206

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151214

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5155020

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250