JP2013192828A - Apparatus and method for detecting uneven brightness - Google Patents

Apparatus and method for detecting uneven brightness Download PDF

Info

Publication number
JP2013192828A
JP2013192828A JP2012064764A JP2012064764A JP2013192828A JP 2013192828 A JP2013192828 A JP 2013192828A JP 2012064764 A JP2012064764 A JP 2012064764A JP 2012064764 A JP2012064764 A JP 2012064764A JP 2013192828 A JP2013192828 A JP 2013192828A
Authority
JP
Japan
Prior art keywords
images
luminance
image
radiation
overlapping portion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012064764A
Other languages
Japanese (ja)
Other versions
JP5759405B2 (en
Inventor
Kei Naito
慧 内藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2012064764A priority Critical patent/JP5759405B2/en
Publication of JP2013192828A publication Critical patent/JP2013192828A/en
Application granted granted Critical
Publication of JP5759405B2 publication Critical patent/JP5759405B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To accurately detect uneven brightness between images when connecting and synthesizing a plurality of images.SOLUTION: An overlapping part extracting section 12 extracts overlapping parts between two radiation images acquired by long-length photography. An offset correcting section 13 calculates the offset amounts r of the overlapping parts Cup and Cdown of the two radiation images, and an uneven brightness calculating section 14 calculates an uneven vector K(y) representing uneven brightness. An image processing section 15 carries out image processing to match brightness of the two radiation images on the basis of regions of parts without uneven brightness acquired from the uneven vector K(y). A synthesizing section 16 synthesizes the radiation images so as to connect the overlapping parts to acquire a long-sized radiation image GL.

Description

本発明は、例えばパノラマ撮影や、医療分野の長尺撮影等により取得された複数の画像を合成して長尺の画像を取得する際に、複数の画像に含まれる輝度ムラを検出する輝度ムラ検出装置および方法に関するものである。   The present invention provides a luminance unevenness for detecting luminance unevenness included in a plurality of images when a long image is obtained by combining a plurality of images obtained by panoramic photography or long photography in the medical field, for example. The present invention relates to a detection apparatus and method.

従来より、医療分野等における放射線撮影において、背骨全体(全脊椎)や足全体(全下肢)等の長尺領域を撮影対象とした長尺撮影が行われることがある。放射線撮影には、被写体を透過した放射線の照射により被写体に関する放射線画像を記録する放射線検出器(いわゆる「Flat Panel Detector」)が各種提案、実用化されているが、放射線検出器は、撮影したい対象より撮影可能な範囲が狭い場合がある。このため、長尺撮影を行うためには、放射線検出器を所定の移動軸に沿って一部が重複するように移動して、位置を変える毎に同一被写体を透過した放射線の照射を受けるようにする。そして、各回の放射線照射(放射線画像の記録)毎に放射線検出器から読取操作がなされて、各回の読取操作毎に放射線画像が取得される。そして、後にそれらの放射線画像をつなぎ合わせるように合成することにより、被写体の長い部分を示す長尺の放射線画像が得られるようになる。   2. Description of the Related Art Conventionally, in radiography in the medical field or the like, there is a case where long imaging is performed on a long region such as the entire spine (whole spine) or the entire foot (whole leg). For radiation imaging, various radiation detectors (so-called “Flat Panel Detectors”) that record radiation images related to the subject by irradiation of the radiation that has passed through the subject have been proposed and put to practical use. There may be a narrower range that can be taken. For this reason, in order to perform long imaging, the radiation detector is moved so as to partially overlap along a predetermined movement axis, and each time the position is changed, radiation is transmitted through the same subject. To. A reading operation is performed from the radiation detector for each radiation irradiation (recording of a radiation image), and a radiation image is acquired for each reading operation. Then, by combining the radiographic images so as to be joined later, a long radiographic image showing a long portion of the subject can be obtained.

ところで、このような長尺撮影を行う場合、例えば全下肢を撮影する場合には、腹部および骨盤から、大腿部、ふくらはぎ、足先を順次撮影することになるが、これらの部位は体厚が各々異なること等から、撮影部位により、管電圧、管電流等の撮影条件の最適値が異なることとなる。しかしながら、各部位をそれぞれに最適な撮影条件にて撮影すると、連続して撮影された複数の画像毎に輝度に差違が生じ、これらの画像を長尺画像に合成した場合、画像間の輝度の相違により適切な診断を行うことができなくなる場合がある。このため、現在では多くの場合において、各部位は同一の撮影条件にて撮影されて、複数の画像が取得される。これは、例えばデジタルカメラを用いてパノラマ撮影を行って複数の画像を取得し、これらをつなぎ合わせるように合成してパノラマ画像を生成する場合にも生じる問題である。   By the way, when performing such a long photographing, for example, when photographing all the lower limbs, the thigh, calf, and toes are photographed sequentially from the abdomen and pelvis. Therefore, the optimum values of imaging conditions such as tube voltage and tube current differ depending on the region to be imaged. However, if each part is photographed under the optimum photographing conditions for each part, there is a difference in brightness for each of a plurality of consecutively photographed images. When these images are combined with a long image, the brightness between the images is reduced. Due to the difference, an appropriate diagnosis may not be performed. For this reason, in many cases, each part is imaged under the same imaging conditions, and a plurality of images are acquired. This is a problem that occurs even when a panoramic image is taken using a digital camera, for example, and a plurality of images are acquired and combined to generate a panoramic image.

このため、長尺撮影により取得した画像間の重複部分に基づいて、画像間の階調を合わせてから合成する手法、長尺撮影により取得した複数画像の重複部分の指標値が一致するように階調補正を行う手法、画素の出力値の最小値を求める処理を画像の重複部分における全ての画素について行い、求めた最小値をその画素の出力値として長尺画像を作成することで、ムラの少ない長尺画像を得る手法等の各種手法が提案されている(特許文献1〜3参照)。また、複数のデジタルカメラ画像を合成する際に、部分画像間の濃度差を低減する手法も提案されている(特許文献4参照)。   Therefore, based on the overlap between images acquired by long shooting, a method of combining after matching the gradation between images, so that the index values of the overlap of multiple images acquired by long shooting match A method for performing gradation correction, a process for obtaining the minimum value of the output value of a pixel is performed for all the pixels in the overlapping portion of the image, and a long image is created using the obtained minimum value as the output value of the pixel, thereby producing unevenness. Various methods such as a method for obtaining a long image with little image are proposed (see Patent Documents 1 to 3). In addition, a method for reducing a density difference between partial images when combining a plurality of digital camera images has been proposed (see Patent Document 4).

特開2011−110247号公報JP 2011-110247 A 特開2004−057506号公報JP 2004-057506 A 特開2005−46444号公報JP 2005-46444 A 特開平11−055558号公報Japanese Patent Laid-Open No. 11-055558

一方、放射線画像の撮影時には、被写体の不要な部分に放射線が照射されることを防止するために、照射野絞り(コリメータ)を用いる場合がある。照射野絞りを用いて被写体を撮影した場合、放射線画像には被写体の画像情報を含む照射野内領域と、画像情報を含まない照射野外領域とが含まれる。これにより、放射線画像には照射野内領域と照射野外領域とが存在することとなるが、照射野絞りによる放射線のケラレにより、照射野外領域から照射野外領域と照射野内領域との境界にかけて白いスジ状の輝度ムラが発生する。また、放射線のヒール効果により、輝度がグラデーション状に変化するシェーディングのような輝度ムラも発生する。上述した長尺撮影を行った場合、照射野外領域および照射野外領域と照射野内領域との境界部分は、各放射線画像の重複部分に発生する。このため、上記特許文献1〜3に記載されたように、重複部分の階調等を用いて画像間の濃度の相違を補正する手法を用いた場合、ケラレおよびシェーディング等の起因する輝度ムラの存在により、精度良く画像間の濃度の相違を補正することができなくなるおそれがある。これは、放射線画像のみならず、デジタルカメラを用いてパノラマ撮影を行うことにより取得した複数の画像を用いてパノラマ画像を作成する場合にも同様に生じる問題である。   On the other hand, when capturing a radiographic image, an irradiation field stop (collimator) may be used in order to prevent radiation from being applied to an unnecessary part of the subject. When a subject is photographed using the irradiation field stop, the radiation image includes an irradiation field inner region including image information of the subject and an irradiation field outer region not including the image information. As a result, the radiation image has an irradiation field area and an irradiation field area. However, due to the vignetting of the radiation by the irradiation field stop, white stripes are formed from the irradiation field area to the boundary between the irradiation field area and the irradiation field area. Brightness unevenness occurs. Further, due to the radiation heel effect, luminance unevenness such as shading in which the luminance changes in a gradation shape also occurs. When the above-described long imaging is performed, the irradiation field region and the boundary part between the irradiation field region and the irradiation field region occur in overlapping portions of the radiation images. For this reason, as described in Patent Documents 1 to 3, when a method of correcting a difference in density between images using gradations of overlapping portions is used, luminance unevenness caused by vignetting, shading, or the like is caused. Due to the presence, there is a possibility that the difference in density between images cannot be corrected with high accuracy. This is a problem that occurs not only in the case of a radiographic image but also when a panoramic image is created using a plurality of images acquired by performing panoramic photography using a digital camera.

本発明は上記事情に鑑みなされたものであり、長尺撮影やパノラマ撮影により取得した複数の画像をつなぎ合わせて合成する場合に、画像間の輝度ムラを精度良く検出することを目的とする。   The present invention has been made in view of the above circumstances, and an object thereof is to accurately detect luminance unevenness between images when a plurality of images acquired by long shooting or panoramic shooting are connected and combined.

本発明による輝度ムラ検出装置は、同一被写体を異なる露光量にて複数回撮影することにより得られた、少なくとも一部の領域が重複した複数の画像を取得する画像取得手段と、
複数の画像の重複部において、輝度の相違を補正する補正手段と、
複数の画像間において、補正後の重複部における対応する位置の差分値の絶対値に基づいて、重複部における輝度ムラを算出するムラ算出手段とを備えたことを特徴とするものである。
The brightness unevenness detection apparatus according to the present invention includes an image acquisition means for acquiring a plurality of images obtained by photographing the same subject a plurality of times with different exposure amounts, and at least some of the regions overlap.
Correction means for correcting the difference in brightness in the overlapping portion of the plurality of images;
It is characterized by comprising unevenness calculation means for calculating luminance unevenness in the overlapped portion based on the absolute value of the difference value of the corresponding position in the overlapped portion after correction between a plurality of images.

なお、本発明による輝度ムラ検出装置においては、補正手段を、複数の画像間の重複部の輝度の相違を表すオフセット量を算出し、オフセット量に基づいて輝度の相違を補正する手段としてもよい。   In the luminance unevenness detection apparatus according to the present invention, the correction unit may be a unit that calculates an offset amount indicating a luminance difference of an overlapping portion between a plurality of images and corrects the luminance difference based on the offset amount. .

この場合、補正手段を、重複部における画素値の代表値に基づいてオフセット量を算出する手段としてもよい。   In this case, the correction unit may be a unit that calculates the offset amount based on the representative value of the pixel value in the overlapping portion.

また、本発明による輝度ムラ検出装置においては 輝度ムラを、複数の画像を重複部において合成した場合における、複数の画像が並ぶ方向についての1次元の情報としてもよい。   In the luminance unevenness detection apparatus according to the present invention, the luminance unevenness may be one-dimensional information about the direction in which a plurality of images are arranged when a plurality of images are combined in an overlapping portion.

また、本発明による輝度ムラ検出装置においては、重複部における輝度ムラ以外の部分の画像情報に基づいて、複数の画像間の輝度を一致させる画像処理を行う画像処理手段と、
画像処理後の複数の画像をつなぎ合わせるよう合成して長尺画像を生成する合成手段とをさらに備えるものとしてもよい。
Further, in the luminance unevenness detection apparatus according to the present invention, based on image information of a portion other than the luminance unevenness in the overlapping portion, image processing means for performing image processing for matching the luminance between a plurality of images,
Combining means for generating a long image by combining a plurality of images after image processing may be further provided.

本発明による輝度ムラ検出方法は、同一被写体を異なる露光量にて複数回撮影することにより得られた、少なくとも一部の領域が重複した複数の画像を取得し、
複数の画像の重複部において、輝度の相違を補正し、
複数の画像間において、補正後の重複部における対応する位置の差分値の絶対値に基づいて、重複部における輝度ムラを算出することを特徴とするものである。
The luminance unevenness detection method according to the present invention obtains a plurality of images obtained by photographing the same subject a plurality of times with different exposure amounts, and at least some of the regions overlap.
In the overlapping part of multiple images, correct the difference in brightness,
Among the plurality of images, the luminance unevenness in the overlapping portion is calculated based on the absolute value of the difference value of the corresponding position in the overlapping portion after correction.

本発明によれば、複数の画像の重複部において輝度の相違を補正し、補正後の重複部における対応する位置の差分値の絶対値に基づいて、重複部における輝度ムラを算出するようにしたものである。このため、重複部に存在する輝度ムラを精度良く検出することができる。   According to the present invention, the luminance difference is corrected in the overlapping portion of the plurality of images, and the luminance unevenness in the overlapping portion is calculated based on the absolute value of the difference value of the corresponding position in the corrected overlapping portion. Is. For this reason, the brightness | luminance nonuniformity which exists in an overlap part can be detected accurately.

また、重複部における輝度ムラ以外の部分の画像情報に基づいて、複数の画像間の輝度を一致させる画像処理を行い、画像処理後の複数の画像をつなぎ合わせるように合成して長尺画像を生成することにより、輝度ムラに影響されることなく、複数の画像の輝度を一致させることができるため、高画質の長尺画像やパノラマ画像を生成することができる。とくに、取得した画像が医療画像の場合、長尺画像を用いて適切な診断を行うことができる。   Also, based on the image information of the part other than the luminance unevenness in the overlapping portion, image processing for matching the luminance between the plurality of images is performed, and the long image is synthesized by combining the plurality of images after the image processing. By generating, the luminance of a plurality of images can be matched without being affected by luminance unevenness, so that a high-quality long image or panoramic image can be generated. In particular, when the acquired image is a medical image, an appropriate diagnosis can be performed using a long image.

本発明の第1の実施形態による輝度ムラ検出装置を適用した放射線画像撮影システムの構成を示す概略図Schematic which shows the structure of the radiographic imaging system to which the brightness nonuniformity detection apparatus by the 1st Embodiment of this invention is applied. 被写体の長尺撮影時における放射線検出器の移動を説明するための図The figure for demonstrating the movement of the radiation detector at the time of long imaging | photography of a to-be-photographed object 画像処理装置の構成を示す概略ブロック図Schematic block diagram showing the configuration of the image processing apparatus 放射線画像の例を示す図Figure showing an example of a radiographic image 放射線画像の重複部を示す図Diagram showing overlapping parts of radiographic images 重複部のライン平均の値を示す図The figure which shows the line average value of the overlapping part ライン平均Eup(y)およびEdown(y)を加算した値を示す図The figure which shows the value which added the line average Eup (y) and Edown (y) ムラベクトルの値を示す図Diagram showing the value of the unevenness vector 重複部Cup、CdownのヒストグラムHup、Hdownを示す図The figure which shows the histograms Hup and Hdown of the overlapping part Cup and Cdown 第1の実施形態において行われる処理を示すフローチャートThe flowchart which shows the process performed in 1st Embodiment. 第2の実施形態において行われる処理を示すフローチャートThe flowchart which shows the process performed in 2nd Embodiment.

以下、図面を参照して本発明の実施形態について説明する。図1は本発明の第1の実施形態による輝度ムラ検出装置を適用した放射線画像撮影システムの構成を示す概略図である。図1に示すように第1の実施形態による放射線画像撮影システム1は、撮影台5上の被写体Sに放射線を照射する放射線源2と、放射線源2から発せられる放射線の照射範囲を制限するコリメータ3と、被写体Sを透過した放射線を検出する放射線検出器4と、放射線検出器4により取得された放射線画像に対して各種処理を行う画像処理装置10とを備える。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a schematic diagram showing a configuration of a radiographic image capturing system to which a luminance unevenness detecting apparatus according to a first embodiment of the present invention is applied. As shown in FIG. 1, a radiographic imaging system 1 according to the first embodiment includes a radiation source 2 that irradiates a subject S on an imaging table 5 with radiation, and a collimator that limits an irradiation range of radiation emitted from the radiation source 2. 3, a radiation detector 4 that detects radiation transmitted through the subject S, and an image processing device 10 that performs various processes on the radiation image acquired by the radiation detector 4.

本実施形態においては、コリメータ3は、被写体Sの体軸方向およびこれに直行する方向に辺を有する矩形の照射領域となるように、放射線源2から発せられる放射線の照射範囲を制限する。また、本実施形態においては、放射線画像における放射線検出器4の移動方向と一致する方向をy方向、これに直交する方向をx方向とする座標系を定めるものとする。   In the present embodiment, the collimator 3 limits the irradiation range of the radiation emitted from the radiation source 2 so as to be a rectangular irradiation region having sides in the body axis direction of the subject S and the direction perpendicular thereto. In the present embodiment, a coordinate system is defined in which the direction that coincides with the moving direction of the radiation detector 4 in the radiographic image is the y direction, and the direction orthogonal thereto is the x direction.

放射線源2およびコリメータ3と、放射線検出器4とは不図示の移動機構により、被写体Sの体軸方向に同期して移動するように構成されている。これにより、放射線画像撮影システム1は、被写体S中の隣接する複数の領域を順次撮影し、これにより取得した複数の放射線画像をつなぎ合わせるように合成して、被写体Sの大部分を示す長尺の放射線画像を取得する、長尺撮影を行うことができるように構成されている。   The radiation source 2, the collimator 3, and the radiation detector 4 are configured to move in synchronization with the body axis direction of the subject S by a moving mechanism (not shown). As a result, the radiographic image capturing system 1 sequentially captures a plurality of adjacent areas in the subject S, combines them so that the plurality of radiographic images acquired thereby are joined together, and is a long image that indicates most of the subject S. It is comprised so that long imaging | photography which acquires the radiographic image of can be performed.

なお、放射線検出器4のみを被写体Sの体軸方向に移動させ、放射線源2およびコリメータ3を、移動した放射線検出器4に向けて放射線を照射するように揺動させるように構成してもよい。   Alternatively, only the radiation detector 4 may be moved in the body axis direction of the subject S, and the radiation source 2 and the collimator 3 may be swung so as to irradiate the radiation toward the moved radiation detector 4. Good.

ここで放射線検出器4は、被写体Sを透過した放射線を検出して電気信号に変換し、その被写体Sの放射線画像を表す画像データを出力する。なお、放射線検出器4は、放射線を電荷に直接変換する直接方式の検出器、または放射線を一旦光に変換し、変換された光をさらに電気信号に変換する間接方式の検出器のいずれも利用可能である。   Here, the radiation detector 4 detects the radiation transmitted through the subject S, converts it into an electrical signal, and outputs image data representing the radiation image of the subject S. The radiation detector 4 uses either a direct type detector that directly converts radiation into electric charges, or an indirect type detector that converts radiation once into light and further converts the converted light into electric signals. Is possible.

図2は、被写体Sの長尺撮影時における放射線検出器4の移動を説明するための図である。図2に示すように、放射線検出器4は、その撮影領域の縁部近傍の領域が互いに重複するように位置P1,P2,P3に移動する。そして、放射線画像撮影システム1においては、各位置P1〜P3において、放射線源2から被写体Sに放射線を照射することにより撮影が行われる。そして、これにより取得された複数の放射線画像の重複部分が一致するように、複数の放射線画像をつなぎ合わせることにより、長尺の放射線画像を取得することができる。   FIG. 2 is a diagram for explaining the movement of the radiation detector 4 when the subject S is photographed long. As shown in FIG. 2, the radiation detector 4 moves to positions P1, P2, and P3 so that regions near the edge of the imaging region overlap each other. In the radiographic imaging system 1, imaging is performed by irradiating the subject S with radiation from the radiation source 2 at each of the positions P1 to P3. And a long radiographic image is acquirable by connecting a some radiographic image so that the overlapping part of the some radiographic image acquired by this may correspond.

このような長尺撮影を行う際、被写体Sの部分によって体厚が異なる。具体的には、腹部および骨盤は体厚が比較的大きく、大腿部、ふくらはぎから足先に向かうに従って体厚が徐々に小さくなる。また、胸部と腹部とでも体厚は異なるものとなる。このため、これらの撮影部位に対応して、管電流を変化させる等して放射線の照射量の変更が必要となるが、放射線の照射量の変更により、放射線画像間で輝度が相違する。このような放射線画像間の輝度の相違を補正するために、画像処理装置10において階調変換等の画像処理が行われる。   When such long shooting is performed, the body thickness varies depending on the portion of the subject S. Specifically, the body thickness of the abdomen and pelvis is relatively large, and the body thickness gradually decreases from the thigh and calf toward the toes. Also, the body thickness differs between the chest and abdomen. For this reason, it is necessary to change the radiation dose by changing the tube current corresponding to these imaging regions, but the luminance differs between the radiographic images due to the change of the radiation dose. In order to correct such a difference in luminance between radiographic images, image processing such as gradation conversion is performed in the image processing apparatus 10.

画像処理装置10は、画像等の表示を行う高精細液晶ディスプレイと、ユーザからの入力を受け付けるキーボードやマウス等と、CPUやメモリ、ハードディスク、通信インターフェース等を備えた本体とを有するコンピュータであり、長尺撮影により取得された複数の放射線画像に対して各種処理を施すとともに、複数の放射線画像をつなぎ合わせるように合成して長尺の放射線画像を取得する機能を有している。   The image processing apparatus 10 is a computer having a high-definition liquid crystal display that displays images and the like, a keyboard and a mouse that accept input from a user, and a main body that includes a CPU, a memory, a hard disk, a communication interface, and the like. Various functions are performed on a plurality of radiographic images acquired by long imaging, and a function of acquiring a long radiographic image by combining the plurality of radiographic images is provided.

図3は画像処理装置10の構成を示す概略ブロック図である。図2に示すように、画像処理装置10は、画像取得部11、重複部抽出部12、オフセット補正部13、輝度ムラ算出部14、画像処理部15および合成部16を備える。   FIG. 3 is a schematic block diagram showing the configuration of the image processing apparatus 10. As shown in FIG. 2, the image processing apparatus 10 includes an image acquisition unit 11, an overlapping part extraction unit 12, an offset correction unit 13, a luminance unevenness calculation unit 14, an image processing unit 15, and a synthesis unit 16.

画像取得部11は、長尺撮影により放射線検出器2が検出した、複数の放射線画像Gi(i=1〜n:nは長尺撮影による撮影枚数)をデジタルデータとして取得するものである。図4は放射線画像の例を示す図である。なお、ここでは被写体Sの3枚の放射線画像G1〜G3が取得されたものとする。図4に示すように、放射線画像G1〜G3は縁部から所定範囲の領域が互いに重複した、被写体Sの全脊柱および全下肢の画像情報を含むものとなっている。   The image acquisition unit 11 acquires, as digital data, a plurality of radiation images Gi (i = 1 to n: n is the number of images taken by long imaging) detected by the radiation detector 2 by long imaging. FIG. 4 is a diagram illustrating an example of a radiographic image. Here, it is assumed that three radiation images G1 to G3 of the subject S have been acquired. As shown in FIG. 4, the radiographic images G <b> 1 to G <b> 3 include image information of the entire spinal column and all the lower limbs of the subject S in which regions within a predetermined range from the edge overlap each other.

重複部抽出部12は、放射線画像Giにおける互いに重複する部分(以下重複部とする)を放射線画像Giのそれぞれから抽出する。図4に示す放射線画像においては、放射線画像G1からは重複部C1が、放射線画像G2からは両端において重複部C2−1,C2−2が、放射線画像G3からは重複部C3がそれぞれ抽出される。図5は放射線画像の重複部C1,C2−1を示す図である。図5に示すように、重複部C1,C2−1には同一部位の画像情報が含まれるが、撮影時の照射放射線量の相違により、同一部位であっても輝度が異なるものとなっている。なお、図5においては、輝度の相違をハッチングの密度の相違にて示している。また、重複部C1,C2−1の縁部(すなわち元の放射線画像の縁部)には、放射線がコリメータ3にけられることにより、x方向に伸びる白いスジ状の輝度ムラM0が含まれている。   The overlapping part extracting unit 12 extracts overlapping parts (hereinafter referred to as overlapping parts) in the radiation image Gi from each of the radiation images Gi. In the radiographic image shown in FIG. 4, the overlapping part C1 is extracted from the radiographic image G1, the overlapping parts C2-1 and C2-2 are extracted from both ends of the radiographic image G2, and the overlapping part C3 is extracted from the radiographic image G3. . FIG. 5 is a diagram illustrating the overlapping portions C1 and C2-1 of the radiographic image. As shown in FIG. 5, the overlapping portions C1 and C2-1 include image information of the same part, but due to the difference in the radiation dose at the time of imaging, the luminance is different even in the same part. . In FIG. 5, the difference in luminance is indicated by the difference in hatching density. Further, the edge of the overlapping portions C1 and C2-1 (that is, the edge of the original radiation image) includes white stripe-like luminance unevenness M0 extending in the x direction when the radiation is applied to the collimator 3. Yes.

オフセット補正部13は、放射線画像Giの重複部における輝度の相違を補正する。以下、オフセット補正部13が行う処理について説明する。オフセット補正部13は、まず、下記の式(1)、(2)により、隣接する撮影位置において取得された2つの放射線画像から抽出された2つの重複部の、x方向に延びる画素のライン平均をそれぞれ算出する。
The offset correction unit 13 corrects the luminance difference in the overlapping portion of the radiation image Gi. Hereinafter, processing performed by the offset correction unit 13 will be described. The offset correction unit 13 first calculates the line average of pixels extending in the x direction of two overlapping portions extracted from two radiographic images acquired at adjacent imaging positions by the following formulas (1) and (2). Are calculated respectively.

式(1)、(2)において、I(x,y)は重複部における各画素の輝度値、E(y)は輝度値のライン平均、添え字のupは、放射線画像Giをつなぎ合わせた場合に上側となる放射線画像を、添え字のdownは下側となる放射線画像についてのものをそれぞれ表している。また、重複部におけるx方向の一方の縁部座標値はx=0であり、W−1は他方の縁部座標値(Wは全画素数)である。ライン平均の値を図6に示す。図6に示すように、ライン平均Eup(y)、Edown(y)は、y方向についての1次元の情報となる。なお、図6において、座標の原点は、重複部CupおよびCdownの左上隅である。また、Hは重複部Cup、Cdownのy方向の画素数である。 In Expressions (1) and (2), I (x, y) is the luminance value of each pixel in the overlapped portion, E (y) is the line average of the luminance values, and the subscript up is a combination of the radiation images Gi. In this case, the upper radiographic image and the subscript down represent the lower radiographic image. In addition, one edge coordinate value in the x direction in the overlapping portion is x = 0, and W-1 is the other edge coordinate value (W is the total number of pixels). The line average value is shown in FIG. As shown in FIG. 6, the line averages Eup (y) and Edown (y) are one-dimensional information about the y direction. In FIG. 6, the origin of the coordinates is the upper left corner of the overlapping portions Cup and Cdown. H is the number of pixels in the y direction of the overlapping portions Cup and Cdown.

上側の重複部Cupには下端に、下側の重複部Cdownには上端に輝度ムラM0がそれぞれ含まれることから、図6に示すように、上側の重複部Cupのライン平均Eupの値は、y=Hすなわち縁部近傍において高くなり、下側の重複部Cdownのライン平均Edownの値は、y=0すなわち縁部近傍において高くなる。   Since the upper overlapping portion Cup includes a luminance unevenness M0 at the lower end and the lower overlapping portion Cdown includes an upper end, as shown in FIG. 6, the value of the line average Eup of the upper overlapping portion Cup is y = H, i.e., higher in the vicinity of the edge, and the value of the line average Edown of the lower overlapping portion Cdown is higher in y = 0, that is, in the vicinity of the edge.

次いで、オフセット補正部13は、下記の式(3)に示すように、重複部Cup、Cdownにおける対応するy座標のライン平均Eup(y)およびEdown(y)を加算し、加算した値が最小となるyの値をybaseとして算出する。なお、この演算は重複部における放射線量が最も多い座標を求めるものである。図7にEup(y)+Edown(y)の値を示す。
Next, the offset correction unit 13 adds the line averages Eup (y) and Edown (y) of the corresponding y coordinates in the overlapping portions Cup and Cdown as shown in the following formula (3), and the added value is the minimum. The value of y is calculated as ybase. This calculation is to obtain the coordinates with the largest radiation dose in the overlapping portion. FIG. 7 shows the value of Eup (y) + Edown (y).

さらにオフセット補正部13は、下記の式(4)に示すように、Edown(ybase)とEup(ybase)との差分値を重複部Cup、Cdownのオフセット量rとして算出する。オフセット量rは、図6に示すように、重複部Cupおよび重複部Cdownのライン平均Eup(y)、Edown(y)の相違を表すものとなる。
Further, the offset correction unit 13 calculates a difference value between Edown (ybase) and Eup (ybase) as an offset amount r of the overlapping portions Cup and Cdown as shown in the following equation (4). As shown in FIG. 6, the offset amount r represents the difference between the line averages Eup (y) and Edown (y) of the overlapping portion Cup and the overlapping portion Cdown.

そして、オフセット補正部13は、オフセット量rを用いて、下記の式(5)に示すように、重複部Cup、Cdownのライン平均Eup(y)、Edown(y)のオフセット補正を行う。これにより、重複部Cupおよび重複部Cdownの、撮影時の放射線量の相違に基づく輝度の相違が補正されることとなる。なお、式(5)はEdown(y)の値をEup(y)に合わせるようにオフセット補正を行うものである。なお、式(5)によりオフセット補正を行った場合、ライン平均Eup(y)の値は変更されないが、オフセット補正の手法によっては、ライン平均Eup(y)の値も変更されるため、オフセット補正後に使用するライン平均Eup(y)をE′up(y)と示すものとする。
Then, the offset correction unit 13 performs offset correction of the line averages Eup (y) and Edown (y) of the overlapping portions Cup and Cdown using the offset amount r as shown in the following equation (5). As a result, the difference in luminance between the overlapping portion Cup and the overlapping portion Cdown based on the difference in radiation dose during imaging is corrected. Equation (5) performs offset correction so that the value of Edown (y) matches Eup (y). Note that when the offset correction is performed according to the equation (5), the value of the line average Eup (y) is not changed, but the value of the line average Eup (y) is also changed depending on the offset correction method. The line average Eup (y) to be used later is represented as E′up (y).

輝度ムラ算出部14は、下記の式(6)に示すように、オフセット補正後の重複部Cup、Cdownのライン平均E′up(y)およびE′down(y)の差分値の絶対値K(y)を、重複部Cupおよび重複部Cdownにおけるy方向の輝度ムラを表すムラベクトルとして算出する。図8にムラベクトルK(y)の値を示す。図8に示すようにムラベクトルK(y)の値は、y方向についての1次元の情報となる。重複部Cup、Cdownにおける輝度ムラM0が存在する位置において大きくなり、それ以外の位置においては略0の値となる。
As shown in the following equation (6), the luminance unevenness calculation unit 14 calculates the absolute value K of the difference value between the line averages E′up (y) and E′down (y) of the overlapping portions Cup and Cdown after the offset correction. (Y) is calculated as a non-uniformity vector representing luminance non-uniformity in the y direction at the overlapping portion Cup and the overlapping portion Cdown. FIG. 8 shows the value of the unevenness vector K (y). As shown in FIG. 8, the value of the unevenness vector K (y) is one-dimensional information about the y direction. The value becomes large at the position where the luminance unevenness M0 exists in the overlapping portions Cup and Cdown, and becomes substantially zero at other positions.

画像処理部15は、重複部Cup、Cdownにおける、ムラベクトルK(y)の値がしきい値Th1以下となるy方向の座標値を有する領域内の画素の輝度値を用いて、放射線画像Gup、Gdownの輝度を変換する処理を行う。具体的には、図8の矢印Aの範囲に示すように、重複部Cupおよび重複部CdownにおけるムラベクトルK(y)の値がしきい値Th1以下となるy座標となる領域内の画素の輝度値のヒストグラムHup、Hdownを算出する。図9は重複部Cup、CdownのヒストグラムHup、Hdownを示す図である。図9に示すように、ヒストグラムHup、Hdownは被写体Sの同一部位の画像情報が含まれるため略同一の形状となるが、ヒストグラムHdownの方が、高輝度側にΔEシフトしている。   The image processing unit 15 uses the luminance value of the pixel in the region having the coordinate value in the y direction where the value of the unevenness vector K (y) is equal to or less than the threshold value Th1 in the overlapping portions Cup and Cdown, and uses the radiation image Gup , Gdown brightness conversion processing is performed. Specifically, as shown in the range of the arrow A in FIG. 8, the pixels in the region where the y coordinate is such that the value of the unevenness vector K (y) in the overlapping portion Cup and the overlapping portion Cdown is equal to or less than the threshold value Th1. Luminance value histograms Hup and Hdown are calculated. FIG. 9 is a diagram showing histograms Hup and Hdown of overlapping portions Cup and Cdown. As shown in FIG. 9, the histograms Hup and Hdown have substantially the same shape because the image information of the same part of the subject S is included, but the histogram Hdown is shifted by ΔE toward the high luminance side.

このため、画像処理部15は、ΔEに基づいて、放射線画像Gup、Gdownの輝度値Iup(x,y)、Idown(x,y)を一致させる処理を行う。具体的には、放射線画像Gupの各画素の輝度値Iup(x,y)にΔEを加算する、または放射線画像Gdownの各画素の輝度値Idown(x,y)からΔEを減算する等の演算により、放射線画像Gup、Gdownの各画素の輝度値Iup(x,y)、Idown(x,y)を一致させる。   For this reason, the image processing unit 15 performs a process of matching the luminance values Iup (x, y) and Idown (x, y) of the radiation images Gup and Gdown based on ΔE. Specifically, an operation such as adding ΔE to the luminance value Iup (x, y) of each pixel of the radiation image Gup or subtracting ΔE from the luminance value Idown (x, y) of each pixel of the radiation image Gdown. Thus, the luminance values Iup (x, y) and Idown (x, y) of the respective pixels of the radiation images Gup and Gdown are matched.

合成部16は輝度値が補正された放射線画像Giの重複部をつなぎ合わせるように合成して、長尺の放射線画像GLを生成する。   The synthesizing unit 16 synthesizes the overlapping portions of the radiographic images Gi whose luminance values have been corrected so as to join together to generate a long radiographic image GL.

次いで、第1の実施形態において行われる処理について説明する。図10は第1の実施形態において行われる処理を示すフローチャートである。なお、複数の放射線画像Giはすでに取得されて、画像処理装置10に取り込まれているものとする。まず、画像処理装置10は、最初に処理を行う2つの放射線画像からなる放射線画像の組を選択し(ステップST1)、重複部抽出部12が、選択された組に含まれる2つの放射線画像の重複部を抽出する(ステップST2)。そして、オフセット補正部13が、2つの放射線画像における重複部Cup、Cdownのオフセット量rを算出し(ステップST3)、輝度ムラ算出部14が、ムラベクトルK(y)を算出する(ステップST4)。   Next, processing performed in the first embodiment will be described. FIG. 10 is a flowchart showing processing performed in the first embodiment. It is assumed that a plurality of radiation images Gi have already been acquired and taken into the image processing apparatus 10. First, the image processing apparatus 10 selects a set of radiographic images composed of two radiographic images to be processed first (step ST1), and the overlapping portion extraction unit 12 selects two radiographic images included in the selected set. An overlapping part is extracted (step ST2). Then, the offset correction unit 13 calculates the offset amount r of the overlapping portions Cup and Cdown in the two radiographic images (step ST3), and the luminance unevenness calculation unit 14 calculates the unevenness vector K (y) (step ST4). .

そして、画像処理部15がムラベクトルK(y)に基づいて、2つの放射線画像の輝度を一致させる画像処理を行う(ステップST5)。そして、画像処理装置10が、全ての放射線画像の組について処理を行ったか否かを判定し(ステップST6)、ステップST6が否定されると、処理の対象を次の放射線画像の組に変更し(ステップST7)、ステップST2に戻る。なお、放射線画像の組の選択は放射線画像G1,G2の次は放射線画像G2,G3、放射線画像G2,G3の次は放射線画像G3,G4というように、放射線画像が取得された位置を1つずつずらして放射線画像の組を変更していくものとする。この際、画像処理部15は、全ての組の放射線画像の輝度が一致するように、各組において取得されるムラベクトルK(y)から求めた輝度ムラ以外の部分の領域の輝度値に基づいて画像処理を行うものとする。   Then, the image processing unit 15 performs image processing for matching the luminances of the two radiographic images based on the unevenness vector K (y) (step ST5). Then, the image processing apparatus 10 determines whether or not processing has been performed for all sets of radiographic images (step ST6). If step ST6 is negative, the processing target is changed to the next set of radiographic images. (Step ST7), the process returns to Step ST2. The radiographic image set is selected by selecting one position where the radiographic image is acquired, such as radiographic images G2 and G3 next to the radiographic images G1 and G2, and radiographic images G3 and G4 next to the radiographic images G2 and G3. It is assumed that the set of radiation images is changed by shifting each step. At this time, the image processing unit 15 is based on the brightness value of the area other than the brightness unevenness obtained from the unevenness vector K (y) acquired in each set so that the brightness of all the sets of radiographic images matches. Image processing.

ステップST6が肯定されると、合成部16が放射線画像Giの重複部をつなぎ合わせるように合成して長尺の放射線画像GLを取得し(ステップST8)、処理を終了する。   If step ST6 is affirmed, the combining unit 16 combines the overlapping portions of the radiation images Gi to join together to obtain a long radiation image GL (step ST8), and ends the process.

このように、本実施形態においては、複数の放射線画像Giの重複部において、オフセット量rにより輝度の相違を補正し、補正後の重複部におけるライン平均E′up(y)、E′down(y)の差分値の絶対値に基づいて、重複部における輝度ムラを表すムラベクトルK(y)を算出するようにしたものである。このため、重複部に存在する輝度ムラを精度良く検出することができる。   As described above, in this embodiment, the difference in luminance is corrected by the offset amount r in the overlapping portion of the plurality of radiation images Gi, and the line averages E′up (y), E′down ( Based on the absolute value of the difference value of y), the unevenness vector K (y) representing the brightness unevenness in the overlapping portion is calculated. For this reason, the brightness | luminance nonuniformity which exists in an overlap part can be detected accurately.

また、重複部における輝度ムラ以外の部分の領域の輝度値に基づいて、放射線画像間の輝度を一致させる画像処理を行い、画像処理後の複数の放射線画像をつなぎ合わせるように合成して長尺の放射線画像GLを生成するようにしたため、輝度ムラに影響されることなく、複数の放射線画像の輝度を一致させることができ、これにより、高画質の長尺画像を生成することができる。とくに、医療画像の場合、長尺の放射線画像GLを用いて適切な診断を行うことができる。   Also, based on the brightness value of the area other than the brightness unevenness in the overlapping part, image processing for matching the brightness between the radiographic images is performed, and a plurality of radiographic images after the image processing are combined and combined to be long. Since the radiographic image GL is generated, the luminance of the plurality of radiographic images can be matched without being affected by the luminance unevenness, whereby a high-quality long image can be generated. In particular, in the case of a medical image, an appropriate diagnosis can be performed using a long radiation image GL.

なお、上記第1の実施形態においては、3つ以上の放射線画像を用いた場合の処理について説明したが、2つの放射線画像のみを用いて長尺画像を生成する場合にも本発明を適用することができる。以下、これを第2の実施形態として説明する。図11は第2の実施形態において行われる処理を示すフローチャートである。   In the first embodiment, the processing in the case of using three or more radiographic images has been described. However, the present invention is also applied to the case where a long image is generated using only two radiographic images. be able to. Hereinafter, this will be described as a second embodiment. FIG. 11 is a flowchart showing processing performed in the second embodiment.

まず、重複部抽出部12が、選択された組に含まれる2つの放射線画像の重複部を抽出する(ステップST11)。そして、オフセット補正部13が、2つの放射線画像における重複部Cup、Cdownのオフセット量rを算出し(ステップST12)、輝度ムラ算出部14が、ムラベクトルK(y)を算出する(ステップST13)。   First, the overlapping part extraction unit 12 extracts an overlapping part of two radiographic images included in the selected set (step ST11). Then, the offset correction unit 13 calculates the offset amounts r of the overlapping portions Cup and Cdown in the two radiographic images (step ST12), and the luminance unevenness calculation unit 14 calculates the unevenness vector K (y) (step ST13). .

そして、画像処理部15がムラベクトルK(y)に基づいて、2つの放射線画像の輝度を一致させる画像処理を行う(ステップST14)。次いで、合成部16が2つの放射線画像の重複部をつなぎ合わせるように合成して長尺の放射線画像GLを取得し(ステップST15)、処理を終了する。   Then, the image processing unit 15 performs image processing for matching the luminances of the two radiation images based on the unevenness vector K (y) (step ST14). Next, the synthesizing unit 16 synthesizes the overlapping portions of the two radiographic images together to obtain a long radiographic image GL (step ST15), and ends the process.

なお、上記第1および第2の実施形態においては、重複部Cup、Cdownのライン平均を用いてオフセット量rを算出しているが、下記の式(7)に示すように、重複部Cup、Cdownの面平均を用いてオフセット量rを算出するようにしてもよい。
In the first and second embodiments, the offset amount r is calculated using the line average of the overlapping portions Cup and Cdown. However, as shown in the following equation (7), the overlapping portions Cup, The offset amount r may be calculated using the Cdown surface average.

また、上記第1および第2の実施形態においては、重複部Cup、Cdownのライン平均または面平均を用いてオフセット量rを算出しているが、ラインあるいは面の中間値等、重複部Cup、Cdownのラインまたは面を代表する値であれば、任意の代表値を用いることができる。例えば、ライン平均または面平均のみならず、下記の式(8)に示すように、あらかじめ定められた任意の画素位置(x0,y0)の輝度値を代表値として用いてオフセット量rを算出するようにしてもよい。
In the first and second embodiments, the offset amount r is calculated using the line average or the surface average of the overlapping portions Cup and Cdown. However, the overlapping portion Cup, Any representative value can be used as long as it represents a Cdown line or surface. For example, not only the line average or the surface average but also the offset amount r is calculated using the luminance value at an arbitrary predetermined pixel position (x0, y0) as a representative value as shown in the following equation (8). You may do it.

また、上記各実施形態においては、輝度ムラK(y)を1次元の情報としているが、2次元の情報としてもよい。この場合、重複部の各画素からオフセット量rを減算して2次元の情報からなる輝度ムラK(x,y)を算出すればよい。   In each of the above embodiments, the luminance unevenness K (y) is one-dimensional information, but may be two-dimensional information. In this case, the luminance unevenness K (x, y) consisting of two-dimensional information may be calculated by subtracting the offset amount r from each pixel in the overlapping portion.

また、上記各実施形態においては、スジ状の輝度ムラを除去しているが、放射線画像には放射線のヒール効果により、輝度がグラデーション状に変化するシェーディングのような輝度ムラも発生する。ヒール効果による輝度ムラは、スジ状のムラをぼかしたような状態となっている。このため、ヒール効果による輝度ムラも、上記第1および第2の実施形態と同様に、オフセット量およびムラベクトルを算出し、ムラベクトルに基づいて2つの放射線画像の輝度を一致させる画像処理を行うことが可能である。   In each of the above embodiments, streaky luminance unevenness is removed. However, due to the radiation heel effect, luminance unevenness such as shading in which the luminance changes in a gradation shape also occurs in the radiation image. The luminance unevenness due to the heel effect is in a state where the streaky unevenness is blurred. For this reason, as for the luminance unevenness due to the heel effect, as in the first and second embodiments, the offset amount and the unevenness vector are calculated, and image processing for matching the brightness of the two radiation images based on the unevenness vector is performed. It is possible.

また、上記各実施形態においては、長尺撮影を行った複数の放射線画像から長尺の放射線画像を作成する場合の処理について説明しているが、デジタルカメラを用いてパノラマ撮影を行う場合も、風景等の被写体の一部が重複するように撮影が行われて、一部が重複する複数の画像が取得される。ここで、サイズが合っていない角型レンズフードをデジタルカメラに装着した場合、あるいは花型レンズフードの向きを誤って装着した場合には、取得した画像の縁部にスジ状の輝度ムラが発生する。また、フラッシュの適用範囲が画角より狭い場合にも、画像の縁部にスジ状の輝度ムラが発生する場合がある。このため、デジタルカメラによる取得した一部が重複する複数の画像についても、上記第1および第2の実施形態と同様に、重複部のオフセット補正量rを算出し、輝度ムラを抽出して、複数の画像の輝度値を合わせるように画像処理を行うことにより、放射線画像の場合と同様に、画像間のムラを精度良く補正して、高画質のパノラマ画像を取得することができる。   Further, in each of the above embodiments, the processing in the case of creating a long radiographic image from a plurality of radiographic images that have undergone long radiography has been described, but also when performing panoramic radiography using a digital camera, Photographing is performed so that a part of a subject such as a landscape overlaps, and a plurality of images partially overlapping are acquired. Here, when a square lens hood that does not match the size is attached to the digital camera, or when the orientation of the flower lens hood is attached incorrectly, streaky luminance unevenness occurs at the edge of the acquired image. To do. Even when the flash application range is narrower than the angle of view, streaky luminance unevenness may occur at the edge of the image. For this reason, as in the first and second embodiments, the offset correction amount r of the overlapping portion is calculated for a plurality of images that are partially overlapped by the digital camera, and luminance unevenness is extracted. By performing image processing so that the luminance values of a plurality of images are matched, unevenness between the images can be accurately corrected and a high-quality panoramic image can be acquired, as in the case of a radiographic image.

なお、上述したオフセット補正部13が算出するybaseは、重複部における放射線量が最も多い座標に相当するが、デジタルカメラにより取得した画像の場合、ybaseは、光量が最も多い座標に相当する。ここで、放射線画像では、放射線量が多いほど輝度値は減少するが、デジタルカメラにより取得した画像では、逆に光量が多いほど輝度値が増大する。このため、デジタルカメラにより取得した画像では、重複部における対応するy座標のライン平均Eup(y)およびEdown(y)を加算した値が最大となるyの値をybaseとして算出する。   Note that the ybase calculated by the offset correction unit 13 described above corresponds to the coordinates with the largest radiation dose in the overlapping portion, but in the case of an image acquired by a digital camera, the ybase corresponds to the coordinates with the largest amount of light. Here, in the radiographic image, the luminance value decreases as the radiation dose increases. Conversely, in the image acquired by the digital camera, the luminance value increases as the light amount increases. For this reason, in the image acquired by the digital camera, the y value that maximizes the value obtained by adding the line averages Eup (y) and Edown (y) of the corresponding y coordinates in the overlapping portion is calculated as ybase.

1 放射線画像撮影システム
2 放射線源
3 コリメータ
4 放射線検出器
10 画像処理装置
11 画像取得部
12 重複部抽出部
13 オフセット補正部
14 輝度ムラ算出部
15 画像処理部
16 合成部
DESCRIPTION OF SYMBOLS 1 Radiographic imaging system 2 Radiation source 3 Collimator 4 Radiation detector 10 Image processing apparatus 11 Image acquisition part 12 Duplicate part extraction part 13 Offset correction part 14 Brightness nonuniformity calculation part 15 Image processing part 16 Synthesis | combination part

Claims (6)

同一被写体を異なる露光量にて複数回撮影することにより得られた、少なくとも一部の領域が重複した複数の画像を取得する画像取得手段と、
前記複数の画像の重複部において、輝度の相違を補正する補正手段と、
前記複数の画像間において、前記補正後の前記重複部における対応する位置の差分値の絶対値に基づいて、前記重複部における輝度ムラを算出するムラ算出手段とを備えたことを特徴とする輝度ムラ検出装置。
Image acquisition means for acquiring a plurality of images obtained by photographing the same subject a plurality of times with different exposure amounts, at least a part of which overlaps;
Correction means for correcting a difference in luminance in the overlapping portion of the plurality of images;
A luminance calculating unit that calculates luminance unevenness in the overlapping portion based on an absolute value of a difference value of a corresponding position in the overlapping portion after the correction between the plurality of images; Unevenness detection device.
前記補正手段は、前記複数の画像間の重複部の輝度の相違を表すオフセット量を算出し、該オフセット量に基づいて前記輝度の相違を補正する手段であることを特徴とする請求項1記載の輝度ムラ検出装置。   2. The correction unit according to claim 1, wherein the correction unit is a unit that calculates an offset amount representing a difference in luminance of the overlapping portion between the plurality of images and corrects the difference in luminance based on the offset amount. Brightness unevenness detection device. 前記補正手段は、前記重複部における画素値の代表値に基づいて前記オフセット量を算出する手段であることを特徴とする請求項2記載の輝度ムラ検出装置。   The luminance unevenness detection apparatus according to claim 2, wherein the correction unit is a unit that calculates the offset amount based on a representative value of pixel values in the overlapping portion. 前記輝度ムラは、前記複数の画像を前記重複部において合成した場合における、該複数の画像が並ぶ方向についての1次元の情報であることを特徴とする請求項2または3記載の輝度ムラ検出装置。   The brightness unevenness detection apparatus according to claim 2 or 3, wherein the brightness unevenness is one-dimensional information about a direction in which the plurality of images are arranged when the plurality of images are combined in the overlapping portion. . 前記重複部における前記輝度ムラ以外の部分の画像情報に基づいて、前記複数の画像間の輝度を一致させる画像処理を行う画像処理手段と、
前記画像処理後の前記複数の画像をつなぎ合わせるよう合成して長尺画像を生成する合成手段とをさらに備えたことを特徴とする請求項1から4のいずれか1項記載の輝度ムラ検出装置。
Image processing means for performing image processing for matching the luminance between the plurality of images based on image information of a portion other than the luminance unevenness in the overlapping portion;
The brightness nonuniformity detection apparatus according to claim 1, further comprising: a combining unit that combines the plurality of images after the image processing so as to join together to generate a long image. .
同一被写体を異なる露光量にて複数回撮影することにより得られた、少なくとも一部の領域が重複した複数の画像を取得し、
前記複数の画像の重複部において、輝度の相違を補正し、
前記複数の画像間において、前記補正後の前記重複部における対応する位置の差分値の絶対値に基づいて、前記重複部における輝度ムラを算出することを特徴とする輝度ムラ検出方法。
Acquire a plurality of images obtained by photographing the same subject multiple times with different exposure amounts, at least part of which overlaps,
In the overlapping part of the plurality of images, correct the difference in brightness,
A luminance unevenness detection method, comprising: calculating luminance unevenness in the overlapping portion based on an absolute value of a difference value of corresponding positions in the overlapped portion after the correction between the plurality of images.
JP2012064764A 2012-03-22 2012-03-22 Luminance unevenness detection apparatus and method Active JP5759405B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012064764A JP5759405B2 (en) 2012-03-22 2012-03-22 Luminance unevenness detection apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012064764A JP5759405B2 (en) 2012-03-22 2012-03-22 Luminance unevenness detection apparatus and method

Publications (2)

Publication Number Publication Date
JP2013192828A true JP2013192828A (en) 2013-09-30
JP5759405B2 JP5759405B2 (en) 2015-08-05

Family

ID=49392471

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012064764A Active JP5759405B2 (en) 2012-03-22 2012-03-22 Luminance unevenness detection apparatus and method

Country Status (1)

Country Link
JP (1) JP5759405B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016198424A (en) * 2015-04-14 2016-12-01 コニカミノルタ株式会社 Radiation image photographing system
WO2017006420A1 (en) * 2015-07-06 2017-01-12 株式会社島津製作所 X-ray imaging apparatus
JP2018064637A (en) * 2016-10-17 2018-04-26 キヤノン株式会社 Radiographic system and radiographic method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002085392A (en) * 2000-09-14 2002-03-26 Konica Corp Radiographic image processing method and apparatus
JP2004057506A (en) * 2002-07-29 2004-02-26 Toshiba Corp Digital image processor and x-ray diagnostic apparatus
WO2008088480A1 (en) * 2006-12-20 2008-07-24 Carestream Health, Inc. Long length imaging using digital radiography
WO2010137482A1 (en) * 2009-05-27 2010-12-02 株式会社 日立メディコ Image processing apparatus, x-ray image capturing apparatus and image processing method
JP2012045232A (en) * 2010-08-27 2012-03-08 Canon Inc Image processing apparatus, image processing method, radiation imaging system, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002085392A (en) * 2000-09-14 2002-03-26 Konica Corp Radiographic image processing method and apparatus
JP2004057506A (en) * 2002-07-29 2004-02-26 Toshiba Corp Digital image processor and x-ray diagnostic apparatus
WO2008088480A1 (en) * 2006-12-20 2008-07-24 Carestream Health, Inc. Long length imaging using digital radiography
WO2010137482A1 (en) * 2009-05-27 2010-12-02 株式会社 日立メディコ Image processing apparatus, x-ray image capturing apparatus and image processing method
JP2012045232A (en) * 2010-08-27 2012-03-08 Canon Inc Image processing apparatus, image processing method, radiation imaging system, and program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016198424A (en) * 2015-04-14 2016-12-01 コニカミノルタ株式会社 Radiation image photographing system
WO2017006420A1 (en) * 2015-07-06 2017-01-12 株式会社島津製作所 X-ray imaging apparatus
CN107708562A (en) * 2015-07-06 2018-02-16 株式会社岛津制作所 X-ray imaging device
JPWO2017006420A1 (en) * 2015-07-06 2018-03-22 株式会社島津製作所 X-ray equipment
US11175247B2 (en) 2015-07-06 2021-11-16 Shimadzu Corporation X-ray imaging apparatus
JP2018064637A (en) * 2016-10-17 2018-04-26 キヤノン株式会社 Radiographic system and radiographic method

Also Published As

Publication number Publication date
JP5759405B2 (en) 2015-08-05

Similar Documents

Publication Publication Date Title
JP6165809B2 (en) Tomographic image generating apparatus, method and program
JP2016032623A (en) Radiation image processing apparatus, method and program
JP6677100B2 (en) Radiation imaging system
US11615270B2 (en) Medical image processing apparatus, learning method, X-ray diagnostic apparatus, and medical image processing method
JP6156847B2 (en) Radiation image processing apparatus and method, and program
JP6815818B2 (en) Radiation imaging system and radiography imaging method
KR20120003811A (en) Image processing apparatus, radiation imaging system, image processing method, and storage medium storing a program
JP5759405B2 (en) Luminance unevenness detection apparatus and method
JP2010246862A (en) Medical image generation apparatus and program
JP2005109790A (en) Medical image processing apparatus
JP6492553B2 (en) Image processing apparatus and program
JP4181845B2 (en) Image acquisition device
US10123757B2 (en) Image-processing device, radiation image capture system, image-processing method, and computer-readable storage medium
JP2016064118A (en) Tomographic image generating device, method and program
JP6643038B2 (en) Radiography system, image processing apparatus, and image processing method
JP6156849B2 (en) Radiation image processing apparatus, method and program
JP2013198603A (en) Image processing apparatus, method, and program
JPWO2019053935A1 (en) Radiography equipment
JP4184965B2 (en) Method and apparatus for intensity correction in CR mosaic image composition
JP5972347B2 (en) Image processing apparatus, image processing method, and program
JP6167841B2 (en) Medical image processing apparatus and program
JP2010081996A (en) Apparatus and method for processing subtraction image
JP2004152043A (en) Method for correcting difference image, and image processor
JP2020146233A (en) Radiographic apparatus
JP6345178B2 (en) Radiation image processing apparatus and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140528

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150303

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150430

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150602

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150605

R150 Certificate of patent or registration of utility model

Ref document number: 5759405

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250