JP2023076350A - Reading device - Google Patents

Reading device Download PDF

Info

Publication number
JP2023076350A
JP2023076350A JP2021189735A JP2021189735A JP2023076350A JP 2023076350 A JP2023076350 A JP 2023076350A JP 2021189735 A JP2021189735 A JP 2021189735A JP 2021189735 A JP2021189735 A JP 2021189735A JP 2023076350 A JP2023076350 A JP 2023076350A
Authority
JP
Japan
Prior art keywords
image
imaging plate
light
size
evaluation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021189735A
Other languages
Japanese (ja)
Inventor
正志 吉岡
Masashi Yoshioka
義人 杉原
Yoshihito Sugihara
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
J Morita Manufaturing Corp
Original Assignee
J Morita Manufaturing Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by J Morita Manufaturing Corp filed Critical J Morita Manufaturing Corp
Priority to JP2021189735A priority Critical patent/JP2023076350A/en
Priority to US18/055,901 priority patent/US20230164279A1/en
Priority to EP22208546.6A priority patent/EP4209809A1/en
Priority to CN202211467076.6A priority patent/CN116148283A/en
Publication of JP2023076350A publication Critical patent/JP2023076350A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Facsimile Scanning Arrangements (AREA)

Abstract

To provide a technique that makes it possible to properly evaluate the image quality of a radiological image read out from an imaging plate.SOLUTION: A reading device for reading a radiological image from an imaging plate includes a light source that irradiates an imaging plate with excitation light and a first detector that detects light emitted from the imaging plate by the excitation light and outputs a first image signal as a detection result of the emitted light. The light source irradiates an evaluation member having an evaluation pattern on the front surface based on the first image signal for evaluating the image quality of the detected radiological image. The reading device further includes a second detector that detects reflected light of the excitation light from the surface of the evaluation member and outputs a second image signal as a detection result of the reflected light.SELECTED DRAWING: Figure 6

Description

本開示は、読取装置に関する。 The present disclosure relates to reading devices.

特許文献1には、蓄積性蛍光体シートから画像情報を読み取る技術が記載されている。 Patent Document 1 describes a technique for reading image information from a stimulable phosphor sheet.

特開昭61-267451号公報JP-A-61-267451

イメージングプレートから読み取られた放射線像の画質の評価を行うことがある。 The image quality of the radiation image read from the imaging plate may be evaluated.

そこで、本開示は、イメージングプレートから読み出された放射線像の画質を適切に評価することが可能な技術を提供することを目的とする。 Accordingly, an object of the present disclosure is to provide a technique capable of appropriately evaluating the image quality of a radiographic image read from an imaging plate.

第1の態様に係る読取装置は、イメージングプレートから放射線像を読み取る読取装置であって、前記イメージングプレートに励起光を照射する光源と、前記励起光による前記イメージングプレートからの発光光を検出し、当該発光光の検出結果としての第1の画像信号を出力する第1の検出器とを備え、前記光源は、前記第1の画像信号に基づく検出放射線像の画質評価のための評価用パターンを表面に有する評価用部材に前記励起光を照射し、前記評価用部材の前記表面からの前記励起光の反射光を検出し、当該反射光の検出結果としての第2の画像信号を出力する第2の検出器をさらに備える。 A reading device according to a first aspect is a reading device for reading a radiation image from an imaging plate, comprising a light source for irradiating the imaging plate with excitation light, and detecting light emitted from the imaging plate by the excitation light, and a first detector that outputs a first image signal as a detection result of the emitted light, wherein the light source provides an evaluation pattern for image quality evaluation of the detected radiation image based on the first image signal. The evaluation member on the surface is irradiated with the excitation light, the reflected light of the excitation light from the surface of the evaluation member is detected, and a second image signal is output as a detection result of the reflected light. 2 detectors.

第2の態様に係る読取装置は、第1の態様に係る読取装置であって、前記第1の検出器は前記第2の検出器として機能し、前記第1の検出器は、前記発光光と前記反射光を検出する。 A reading device according to a second aspect is the reading device according to the first aspect, wherein the first detector functions as the second detector, and the first detector serves as the emitted light. and the reflected light.

第3の態様は、第1または第2の態様に係る読取装置であって、前記評価用部材では、前記評価用パターンが前記表面に印刷されている。 A third aspect is the reading device according to the first or second aspect, wherein the evaluation pattern is printed on the surface of the evaluation member.

第4の態様は、第3の態様に係る読取装置であって、前記評価用部材は印刷紙である。 A fourth aspect is the reading device according to the third aspect, wherein the member for evaluation is printed paper.

第5の態様は、第1から第4の態様のいずれか一つに係る読取装置であって、前記第2の画像信号に基づく反射光像を表示する。 A fifth aspect is the reading device according to any one of the first to fourth aspects, which displays a reflected light image based on the second image signal.

第1の態様によると、第2の画像信号に基づく反射光像に含まれる評価用パターンの像に基づいて、検出放射線像、つまりイメージングプレートから読み出された放射線像の画質を適切に評価することができる。 According to the first aspect, the image quality of the detected radiation image, that is, the radiation image read from the imaging plate is appropriately evaluated based on the image of the evaluation pattern included in the reflected light image based on the second image signal. be able to.

第2の態様によると、第1の検出器が第2の検出器として機能することから、読取装置の構成を簡素化することができる。 According to the second aspect, the configuration of the reader can be simplified because the first detector functions as the second detector.

第3の態様によると、評価用パターンが印刷で作成されていることから、精度の良い評価用パターンを得ることができる。よって、検出放射線像の画質評価をより適切に行うことができる。 According to the third aspect, since the evaluation pattern is created by printing, it is possible to obtain a highly accurate evaluation pattern. Therefore, image quality evaluation of the detected radiation image can be performed more appropriately.

第4の態様によると、評価用部材が印刷紙であることから、安価な評価用部材を用いて検出放射線像の画質評価を行うことができる。 According to the fourth aspect, since the evaluation member is printed paper, it is possible to evaluate the image quality of the detected radiation image using an inexpensive evaluation member.

第5の態様によると、ユーザは、第2の画像信号に基づく反射光像に含まれる評価用パターンの像を確認して、検出放射線像の画質評価を行うことができる。 According to the fifth aspect, the user can check the image of the evaluation pattern included in the reflected light image based on the second image signal to evaluate the image quality of the detected radiation image.

読取装置の外観の一例を示す概略図である。It is a schematic diagram showing an example of the appearance of a reading device. 読取装置の構成の一例を示す概略図である。It is a schematic diagram showing an example of a configuration of a reading device. 読取装置の構成の一例を示す概略図である。It is a schematic diagram showing an example of a configuration of a reading device. 読取装置の構成の一例を示す概略図である。It is a schematic diagram showing an example of a configuration of a reading device. 読取装置の構成の一例を示す概略図である。It is a schematic diagram showing an example of a configuration of a reading device. 読取装置の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of a reading device. IP存在領域、励起光照射範囲及び検出範囲の一例を示す概略図である。It is the schematic which shows an example of an IP existence area, an excitation light irradiation range, and a detection range. IP存在領域、励起光照射範囲及び検出範囲の一例を示す概略図である。It is the schematic which shows an example of an IP existence area, an excitation light irradiation range, and a detection range. IP存在領域、励起光照射範囲及び検出範囲の一例を示す概略図である。It is the schematic which shows an example of an IP existence area, an excitation light irradiation range, and a detection range. 取得全体像の一例を示す概略図である。FIG. 4 is a schematic diagram showing an example of an acquisition overview; 取得全体像の一例を示す概略図である。FIG. 4 is a schematic diagram showing an example of an acquisition overview; 取得全体像の一例を示す概略図である。FIG. 4 is a schematic diagram showing an example of an acquisition overview; 取得全体像の一例を示す概略図である。FIG. 4 is a schematic diagram showing an example of an acquisition overview; 読取装置の動作の一例を示すフローチャートである。4 is a flow chart showing an example of the operation of the reading device; イメージングプレートが傾く様子の一例を示す概略図である。FIG. 4 is a schematic diagram showing an example of how the imaging plate is tilted; 取得全体像の一例を示す概略図である。FIG. 4 is a schematic diagram showing an example of an acquisition overview; 傾き角度特定処理の一例を説明するための概略図である。It is a schematic diagram for explaining an example of inclination angle identification processing. 傾き角度特定処理の一例を説明するための概略図である。It is a schematic diagram for explaining an example of inclination angle identification processing. サイズ特定処理の一例を説明するための概略図である。It is a schematic diagram for explaining an example of size identification processing. イメージングプレートのサイズ及び傾き角度の一例を示す図である。It is a figure which shows an example of the size of an imaging plate, and an inclination angle. イメージングプレートのサイズ及び傾き角度の一例を示す図である。It is a figure which shows an example of the size of an imaging plate, and an inclination angle. イメージングプレートのサイズの種類の一例を示す図である。FIG. 4 is a diagram showing an example of types of sizes of imaging plates; 読取装置の動作の一例を示すフローチャートである。4 is a flow chart showing an example of the operation of the reading device; 読取装置の動作の一例を示すフローチャートである。4 is a flow chart showing an example of the operation of the reading device; 取得全体像の一例を示す概略図である。FIG. 4 is a schematic diagram showing an example of an acquisition overview; 取得全体像の表示例を示す概略図である。FIG. 4 is a schematic diagram showing a display example of an acquired overall image; 取得全体像の表示例を示す概略図である。FIG. 4 is a schematic diagram showing a display example of an acquired overall image; イメージングプレートのサイズ及び傾き角度の一例を示す図である。It is a figure which shows an example of the size of an imaging plate, and an inclination angle. 傾き補正処理の一例を説明するための概略図である。FIG. 5 is a schematic diagram for explaining an example of tilt correction processing; 取得全体像の一例を示す概略図である。FIG. 4 is a schematic diagram showing an example of an acquisition overview; 切出処理の一例を説明するための概略図である。It is a schematic diagram for explaining an example of a clipping process. 切出像の一例を示す概略図である。It is a schematic diagram showing an example of a cut-out image. 切出処理の一例を説明するための概略図である。It is a schematic diagram for explaining an example of a clipping process. 切出像の一例を示す概略図である。It is a schematic diagram showing an example of a cut-out image. 切出像の表示例を示す概略図である。FIG. 4 is a schematic diagram showing a display example of a cut-out image; 切出処理の一例を説明するための概略図である。It is a schematic diagram for explaining an example of a clipping process. 切出像の一例を示す概略図である。It is a schematic diagram showing an example of a cut-out image. 切出像の一例を示す概略図である。It is a schematic diagram showing an example of a cut-out image. 保持部の構成の一例を示す概略図である。It is a schematic diagram showing an example of a structure of a holding part. 取得全体像の一例を示す概略図である。FIG. 4 is a schematic diagram showing an example of an acquisition overview; 切出処理の一例を説明するための概略図である。It is a schematic diagram for explaining an example of a clipping process. 切出処理の一例を説明するための概略図である。It is a schematic diagram for explaining an example of a clipping process. 切出像の一例を示す概略図である。It is a schematic diagram showing an example of a cut-out image. 取得全体像の一例を示す概略図である。FIG. 4 is a schematic diagram showing an example of an acquisition overview; 切出処理の一例を説明するための概略図である。It is a schematic diagram for explaining an example of a clipping process. 切出像の一例を示す概略図である。It is a schematic diagram showing an example of a cut-out image. 切出像の一例を示す概略図である。It is a schematic diagram showing an example of a cut-out image. 未露光通知情報の表示例を示す概略図である。FIG. 11 is a schematic diagram showing a display example of non-exposure notification information; 未露光通知情報の表示例を示す概略図である。FIG. 11 is a schematic diagram showing a display example of non-exposure notification information; 未露光通知情報の表示例を示す概略図である。FIG. 11 is a schematic diagram showing a display example of non-exposure notification information; 未露光通知情報の表示例を示す概略図である。FIG. 11 is a schematic diagram showing a display example of non-exposure notification information; 未露光通知情報の表示例を示す概略図である。FIG. 11 is a schematic diagram showing a display example of non-exposure notification information; 未露光通知情報の表示例を示す概略図である。FIG. 11 is a schematic diagram showing a display example of non-exposure notification information; 評価用部材の一例を示す概略図である。It is the schematic which shows an example of the member for evaluation. 評価用部材の一例を示す概略図である。It is the schematic which shows an example of the member for evaluation. 評価用部材の一例を示す概略図である。It is the schematic which shows an example of the member for evaluation. 評価用部材の一例を示す概略図である。It is the schematic which shows an example of the member for evaluation. 読取装置の動作の一例を示すフローチャートである。4 is a flow chart showing an example of the operation of the reading device; 評価用全体像の一例を示す概略図である。It is a schematic diagram showing an example of an overview for evaluation. 評価用全体像の一例を示す概略図である。It is a schematic diagram showing an example of an overview for evaluation. 評価用全体像の一例を示す概略図である。It is a schematic diagram showing an example of an overview for evaluation. 評価用全体像の一例を示す概略図である。It is a schematic diagram showing an example of an overview for evaluation. 読取装置の構成の一例を示す概略図である。It is a schematic diagram showing an example of a configuration of a reading device. 読取装置の構成の一例を示す概略図である。It is a schematic diagram showing an example of a configuration of a reading device. 読取装置の構成の一例を示す概略図である。It is a schematic diagram showing an example of a configuration of a reading device. 読取装置の構成の一例を示す概略図である。It is a schematic diagram showing an example of a configuration of a reading device. 読取装置の構成の一例を示す概略図である。It is a schematic diagram showing an example of a configuration of a reading device. 読取装置の構成の一例を示す概略図である。It is a schematic diagram showing an example of a configuration of a reading device.

図1は読取装置1の外観の一例を示す概略図である。読取装置1は、放射線像が記録されたイメージングプレート10から当該放射線像を読み取る装置である。読取装置1は、イメージングプレート10に記録された放射線像を検出する装置であるともいえる。 FIG. 1 is a schematic diagram showing an example of the appearance of the reader 1. As shown in FIG. The reader 1 is a device that reads a radiographic image from an imaging plate 10 on which the radiographic image is recorded. It can also be said that the reader 1 is a device that detects a radiation image recorded on the imaging plate 10 .

イメージングプレート10は、放射線像形成層11を有する平たい形状であり、放射線像を記録する記録媒体である。イメージングプレート10は、例えば、四隅が丸まった略長方形の平たい形状を成している。放射線像形成層11は、照射された放射線のエネルギーを蓄積し、蓄積されたエネルギーに応じた発光光を発する層である。例えば、放射線像形成層11は、樹脂で形成されたフィルムの一方主面に輝尽性蛍光体を塗布することによって形成される。放射線像形成層11に照射される放射線としては、例えばX線が採用される。X線発生器からのX線が撮影対象物を透過してイメージングプレート10に照射されると、X線の強度に応じたエネルギーが放射線像形成層11に蓄積される。X線の強度は、撮影対象物におけるX線吸収領域の分布に基づいたものであるため、放射線像形成層11に蓄積されたエネルギーの分布は、X線による撮影対象物の放射線像である。このように、イメージングプレート10は、例えばX線による放射線像を潜像として記録する。読取装置1は、放射線像形成層11から放射線像を読み取り、読み取った放射線像を表す画像信号(画像データともいう)を生成する。 The imaging plate 10 has a flat shape having a radiation image forming layer 11 and is a recording medium for recording radiation images. The imaging plate 10 has, for example, a substantially rectangular flat shape with rounded corners. The radiation image forming layer 11 is a layer that accumulates energy of irradiated radiation and emits light according to the accumulated energy. For example, the radiation image forming layer 11 is formed by applying a stimulable phosphor to one main surface of a film made of resin. As the radiation with which the radiation image forming layer 11 is irradiated, for example, X-rays are employed. When the X-rays from the X-ray generator pass through the object to be imaged and are irradiated onto the imaging plate 10 , energy corresponding to the intensity of the X-rays is accumulated in the radiation image forming layer 11 . Since the X-ray intensity is based on the distribution of the X-ray absorption regions in the object to be imaged, the distribution of the energy accumulated in the radiation image forming layer 11 is the radiographic image of the object to be imaged by X-rays. In this way, the imaging plate 10 records, for example, an X-ray radiation image as a latent image. The reader 1 reads a radiographic image from the radiographic image forming layer 11 and generates an image signal (also referred to as image data) representing the read radiographic image.

本例では、イメージングプレート10は、例えば、人の口の中に入れられた状態で放射線が照射される。したがって、イメージングプレート10は、人の口の中に入るようなサイズとなっている。そして、イメージングプレート10の放射線像形成層11には、例えば、歯の放射線像が記録される。なお、イメージングプレート10の用途はこれに限られない。 In this example, the imaging plate 10 is exposed to radiation while it is placed in, for example, a person's mouth. Therefore, the imaging plate 10 is sized to fit inside a person's mouth. For example, a radiographic image of teeth is recorded on the radiographic image forming layer 11 of the imaging plate 10 . Note that the application of the imaging plate 10 is not limited to this.

以後、イメージングプレート10において、放射線像形成層11側の主面を前面と呼ぶことがある。また、イメージングプレート10において、前面とは反対側の主面を裏面と呼ぶことがある。 Hereinafter, in the imaging plate 10, the main surface on the side of the radiation image forming layer 11 may be referred to as the front surface. Also, in the imaging plate 10, the main surface opposite to the front surface may be called the back surface.

図1に示されるように、読取装置1は例えば筐体2を備える。筐体2内には、イメージングプレート10から放射線像を読み取る構成が収容されている。当該構成については後述する。 As shown in FIG. 1, the reading device 1 comprises a housing 2, for example. A structure for reading a radiographic image from the imaging plate 10 is accommodated in the housing 2 . The configuration will be described later.

筐体2には、挿入口2a及び取出口2bが設けられている。挿入口2aは、例えば筐体2の上面に設けられている。読取装置1のユーザは、挿入口2aからイメージングプレート10を筐体2内に入れることができる。イメージングプレート10は、筐体2内において放射線像が読み取られる。取出口2bは、例えば、筐体2の一側面のうちの下側部分に設けられる。放射線像が読み取られた後のイメージングプレート10(読み取り済みイメージングプレート10ともいう)は取出口2bに排出される。読取装置1のユーザは、取出口2bを通じて、読み取り済みイメージングプレート10を回収することができる。 The housing 2 is provided with an insertion port 2a and an extraction port 2b. The insertion port 2a is provided on the upper surface of the housing 2, for example. A user of the reader 1 can insert the imaging plate 10 into the housing 2 through the insertion port 2a. A radiation image is read from the imaging plate 10 within the housing 2 . The outlet 2b is provided, for example, in a lower portion of one side surface of the housing 2. As shown in FIG. The imaging plate 10 after the radiographic image has been read (also referred to as the read imaging plate 10) is ejected through the outlet 2b. A user of the reader 1 can collect the read imaging plate 10 through the outlet 2b.

本例では、読取装置1は、イメージングプレート10から放射線像を読み出した後に、イメージングプレート10から放射線像を消去することができる。取出口2bには、例えば、放射線像が消去されたイメージングプレート10が排出される。 In this example, the reader 1 can erase the radiographic image from the imaging plate 10 after reading the radiographic image from the imaging plate 10 . For example, the imaging plate 10 from which the radiographic image has been erased is discharged from the outlet 2b.

筐体2には、例えば、ユーザからの操作を受け付ける操作部4が設けられている。操作部4は、例えば複数の操作ボタン4aを備える。各操作ボタン4aは、例えばハードウェアボタンである。複数の操作ボタン4aには、例えば、電源ボタン及び読み取りの開始を指示するためのスタートボタン等が含まれる。操作部4は、ユーザのタッチ操作を検出するタッチセンサを備えてもよい。 The housing 2 is provided with, for example, an operation unit 4 that receives operations from the user. The operation unit 4 includes, for example, a plurality of operation buttons 4a. Each operation button 4a is, for example, a hardware button. The plurality of operation buttons 4a include, for example, a power button and a start button for instructing the start of reading. The operation unit 4 may include a touch sensor that detects a user's touch operation.

筐体2には、例えば、表示部3が設けられている。表示部3は、例えば、液晶表示パネルあるいは有機EL(electro-luminescence)表示パネルにより構成される。表示部3は、例えば、文字、記号、図形及び画像などの各種情報を表示することが可能である。表示部3は、イメージングプレート10から読み取られた放射線像(言い換えれば、検出された放射線像)を表示してもよい。 The housing 2 is provided with, for example, a display section 3 . The display unit 3 is configured by, for example, a liquid crystal display panel or an organic EL (electro-luminescence) display panel. The display unit 3 can display various information such as characters, symbols, graphics, and images. The display unit 3 may display a radiographic image read from the imaging plate 10 (in other words, a detected radiographic image).

操作部4がタッチセンサを備える場合、当該タッチセンサと表示部3とで、表示機能及びタッチ検出機能を有するタッチパネルディスプレイが構成されてもよい。この場合、複数の操作ボタン4aの少なくとも一つが、タッチパネルディスプレイに表示されるソフトウェアボタンに置き換えられてもよいし、操作部4は複数の操作ボタン4aを備えなくてもよい。また、読取装置1は表示部3を備えなくてもよい。 When the operation unit 4 includes a touch sensor, the touch sensor and the display unit 3 may constitute a touch panel display having a display function and a touch detection function. In this case, at least one of the plurality of operation buttons 4a may be replaced with a software button displayed on the touch panel display, and the operation section 4 may not include the plurality of operation buttons 4a. Further, the reading device 1 does not have to include the display section 3 .

筐体2には、例えば、イメージングプレート10を収容可能なプレート収容ケース6及び7が設けられている。プレート収容ケース6及び7は、例えば筐体2の上面に設けられている。プレート収容ケース6は仕切り付きのケースであり、プレート収容ケース7は蓋付きのケースである。読取装置1はプレート収容ケース6及び7の少なくとも一方を備えなくてもよい。 The housing 2 is provided with plate housing cases 6 and 7 capable of housing the imaging plate 10, for example. The plate housing cases 6 and 7 are provided on the upper surface of the housing 2, for example. The plate storage case 6 is a case with a partition, and the plate storage case 7 is a case with a lid. At least one of the plate housing cases 6 and 7 does not have to be provided at the reading device 1 .

筐体2からは、その外側に向かって、ACアダプタ5のケーブル5aが延びている。読取装置1の各部品には、ACアダプタ5から電力が供給される。読取装置1は、ACアダプタ5だけではなく、読取装置1の各部品に電力を供給するバッテリを備えてもよい。あるいは、読取装置1は、ACアダプタ5の代わりにバッテリを備えてもよい。 A cable 5 a of an AC adapter 5 extends outward from the housing 2 . Power is supplied from an AC adapter 5 to each component of the reading device 1 . The reader 1 may include not only the AC adapter 5 but also a battery that supplies power to each component of the reader 1 . Alternatively, the reader 1 may have a battery instead of the AC adapter 5 .

<筐体内の機構の一例について>
図2~5は筐体2内の構成の一例を示す概略図である。図3は図2の矢視A-Aの断面構造の一例を示す概略図である。図4は図3の矢視B-Bの断面構造の一例を示す概略図である。図6は読取装置1が備える制御部80の構成の一例を主に示すブロック図である。後述するように、イメージングプレート10を保持する保持部20は、筐体2内において、所定方向DR10に沿って移動することが可能である。図3は、イメージングプレート10及び保持部20が、図2に示される状態から移動した様子が示されている。
<About an example of the mechanism in the housing>
2 to 5 are schematic diagrams showing an example of the internal configuration of the housing 2. FIG. FIG. 3 is a schematic diagram showing an example of a cross-sectional structure taken along line AA in FIG. FIG. 4 is a schematic diagram showing an example of a cross-sectional structure taken along line BB in FIG. FIG. 6 is a block diagram mainly showing an example of the configuration of the control section 80 provided in the reading device 1. As shown in FIG. As will be described later, the holding section 20 that holds the imaging plate 10 can move in the housing 2 along the predetermined direction DR10. FIG. 3 shows how the imaging plate 10 and the holder 20 have moved from the state shown in FIG.

図2~6に示されるように、読取装置1は、例えば、保持部20、光源30、検出器40、駆動部50、一対のガイド部60、消去用光源70、制御部80及びインタフェース部95を備える。これらの構成は筐体2内に設けられている。 As shown in FIGS. 2 to 6, the reading device 1 includes, for example, a holding portion 20, a light source 30, a detector 40, a driving portion 50, a pair of guide portions 60, an erasing light source 70, a control portion 80, and an interface portion 95. Prepare. These components are provided within the housing 2 .

<制御部について>
制御部80は、読取装置1の動作を統合的に管理することが可能であり、制御回路ともいえる。制御部80は、例えば、表示部3、保持部20、光源30、検出器40、駆動部50、消去用光源70及びインタフェース部95を制御することができる。また、制御部80は、操作部4が受け付けたユーザ操作に応じた処理を行うことができる。
<About the control unit>
The control unit 80 can integrally manage the operation of the reading device 1, and can be said to be a control circuit. The control unit 80 can control the display unit 3, the holding unit 20, the light source 30, the detector 40, the driving unit 50, the erasing light source 70, and the interface unit 95, for example. Further, the control unit 80 can perform processing according to user operations received by the operation unit 4 .

制御部80は、例えば、少なくとも一つのプロセッサと、記憶部とを備えるコンピュータ装置によって構成される。制御部80が備える少なくとも一つのプロセッサには、CPU(Central Processing Unit)が含まれてもよいし、CPU以外のプロセッサが含まれてもよい。制御部80では、少なくとも一つのプロセッサが記憶部(記憶回路ともいう)内のプログラムを実行することによって、以下に説明する各種機能が実現される。 The control unit 80 is configured by, for example, a computer device including at least one processor and a storage unit. At least one processor included in the control unit 80 may include a CPU (Central Processing Unit), or may include a processor other than the CPU. In the control unit 80, at least one processor executes a program in a storage unit (also referred to as a storage circuit) to implement various functions described below.

制御部80では、少なくとも一つのプロセッサが記憶部内のプログラムを実行することによって、機能ブロックとして、例えば、画像処理部81、表示制御部82、駆動制御部83、保持制御部84、検出制御部85、発光制御部86及び消去制御部87が形成される。 In the control unit 80, at least one processor executes a program in the storage unit, thereby forming functional blocks such as an image processing unit 81, a display control unit 82, a drive control unit 83, a holding control unit 84, and a detection control unit 85. , a light emission control section 86 and an erasing control section 87 are formed.

画像処理部81は、例えば、検出器40から出力される後述の画像信号に対して画像処理を行うことができる。表示制御部82は表示部3の表示を制御することができる。駆動制御部83は駆動部50を制御することができる。保持制御部84は保持部20を制御することができる。検出制御部85は検出器40を制御することができる。発光制御部86は光源30を制御することができる。消去制御部87は消去用光源70を制御することができる。 The image processor 81 can, for example, perform image processing on an image signal, which will be described later and is output from the detector 40 . The display control section 82 can control the display of the display section 3 . The drive control section 83 can control the drive section 50 . The holding control section 84 can control the holding section 20 . A detection control unit 85 can control the detector 40 . The light emission controller 86 can control the light source 30 . The erasing controller 87 can control the erasing light source 70 .

なお、制御部80の一部の機能あるいは制御部80のすべての機能は、その機能の実現にソフトウェア(言い換えればプログラム)が不要なハードウェア回路で実現されてもよい。例えば、画像処理部81の一部の機能あるいは画像処理部81のすべての機能は、その機能の実現にソフトウェアが不要なハードウェア回路で実現されてもよい。画像処理部81は、他の構成とは独立した画像処理回路であってもよい。また、表示制御部82の一部の機能あるいは表示制御部82のすべての機能は、その機能の実現にソフトウェアが不要なハードウェア回路で実現されてもよい。表示制御部82は、他の構成とは独立した表示制御回路であってもよい。また、駆動制御部83の一部の機能あるいは駆動制御部83のすべての機能は、その機能の実現にソフトウェアが不要なハードウェア回路で実現されてもよい。駆動制御部83は、他の構成とは独立した駆動制御回路であってもよい。また、保持制御部84の一部の機能あるいは保持制御部84のすべての機能は、その機能の実現にソフトウェアが不要なハードウェア回路で実現されてもよい。保持制御部84は、他の構成とは独立した表示制御回路であってもよい。また、検出制御部85の一部の機能あるいは検出制御部85のすべての機能は、その機能の実現にソフトウェアが不要なハードウェア回路で実現されてもよい。検出制御部85は、他の構成とは独立した検出制御回路であってもよい。また、発光制御部86の一部の機能あるいは発光制御部86のすべての機能は、その機能の実現にソフトウェアが不要なハードウェア回路で実現されてもよい。発光制御部86は、他の構成とは独立した発光制御回路であってもよい。また、消去制御部87の一部の機能あるいは消去制御部87のすべての機能は、その機能の実現にソフトウェアが不要なハードウェア回路で実現されてもよい。消去制御部88は、他の構成とは独立した消去制御回路であってもよい。 A part of the functions of the control unit 80 or all the functions of the control unit 80 may be implemented by a hardware circuit that does not require software (in other words, programs) to implement the functions. For example, part of the functions of the image processing unit 81 or all the functions of the image processing unit 81 may be implemented by hardware circuits that do not require software to implement the functions. The image processing unit 81 may be an image processing circuit independent of other components. A part of the functions of the display control unit 82 or all the functions of the display control unit 82 may be implemented by hardware circuits that do not require software to implement the functions. The display control section 82 may be a display control circuit independent of other components. A part of the functions of the drive control unit 83 or all the functions of the drive control unit 83 may be implemented by a hardware circuit that does not require software to implement the functions. The drive control section 83 may be a drive control circuit independent of other components. A part of the functions of the hold control unit 84 or all the functions of the hold control unit 84 may be implemented by hardware circuits that do not require software to implement the functions. The hold control section 84 may be a display control circuit independent of other components. A part of the functions of the detection control unit 85 or all the functions of the detection control unit 85 may be implemented by hardware circuits that do not require software to implement the functions. The detection control section 85 may be a detection control circuit independent of other components. Further, part of the functions of the light emission control section 86 or all the functions of the light emission control section 86 may be implemented by hardware circuits that do not require software to implement the functions. The light emission control section 86 may be a light emission control circuit independent of other components. Also, part of the functions of the erasure control unit 87 or all the functions of the erasure control unit 87 may be implemented by hardware circuits that do not require software to implement the functions. The erase control section 88 may be an erase control circuit independent of other components.

<インタフェース部について>
インタフェース部95は、筐体2の外部の装置(以後、外部装置ともいう)と通信することが可能であって、インタフェース回路、通信回路あるいは通信部ともいえる。外部装置には、パーソナルコンピュータが含まれてもよいし、スマートフォン等の携帯電話機が含まれてもよいし、他のコンピュータ装置が含まれてもよい。また、外部装置には、読取装置1に着脱可能なデータ記録媒体(例えば、フラッシュメモリ)が含まれてもよい。インタフェース部95は、外部装置からの信号を受信し、受信した信号を制御部80に入力することができる。また、インタフェース部95は、制御部80からの信号を外部装置に送信することができる。例えば、インタフェース部95は、制御部80の画像処理部81において画像処理が行われた画像信号を外部装置に送信することができる。インタフェース部95は、外部装置と有線通信を行ってもよいし、無線通信を行ってもよい。インタフェース部95と外装装置との間の通信は、イーサネットに準拠してもよいし、USB(Universal Serial Bus)に準拠してもよいし、WiFiに準拠してもよいし、他の規格に準拠してもよい。
<About the interface part>
The interface section 95 can communicate with a device outside the housing 2 (hereinafter also referred to as an external device), and can be called an interface circuit, a communication circuit, or a communication section. The external device may include a personal computer, a mobile phone such as a smart phone, or other computer device. Further, the external device may include a data recording medium (for example, flash memory) that is removable from the reading device 1 . The interface unit 95 can receive a signal from an external device and input the received signal to the control unit 80 . Also, the interface unit 95 can transmit a signal from the control unit 80 to an external device. For example, the interface unit 95 can transmit an image signal image-processed by the image processing unit 81 of the control unit 80 to an external device. The interface unit 95 may perform wired communication with an external device, or may perform wireless communication. Communication between the interface unit 95 and the exterior device may conform to Ethernet, USB (Universal Serial Bus), WiFi, or other standards. You may

<保持部について>
保持部20は、筐体2の挿入口2aから挿入されたイメージングプレート10を保持する。保持部20は、例えば、イメージングプレート10を支持する支持板21と、支持板21に支持されたイメージングプレート10の位置を固定する固定部22とを備える。
<Regarding the holding part>
The holding part 20 holds the imaging plate 10 inserted from the insertion opening 2 a of the housing 2 . The holding portion 20 includes, for example, a support plate 21 that supports the imaging plate 10 and a fixing portion 22 that fixes the position of the imaging plate 10 supported by the support plate 21 .

支持板21は、イメージングプレート10の裏面を支持する主面21a(支持面21aともいう)と、当該主面21aとは反対側の主面21b(裏面21bともいう)とを備える。固定部22は、例えば、イメージングプレート10の周縁部分と接近する複数の固定部分22aを有する。固定部22は固定部材ともいえる。複数の固定部分22aは、イメージングプレート10の周縁部分を取り囲むように当該周縁部分と接近する。これにより、支持板21に対するイメージングプレート10の位置(つまり相対位置)及び姿勢(つまり相対姿勢)が固定される。本例では、例えば、イメージングプレート10の両長辺のそれぞれに対して2つの固定部分22aが接近し、イメージングプレート10の両短辺のそれぞれに対して1つの固定部分22aが接近する。 The support plate 21 includes a main surface 21a (also referred to as a support surface 21a) that supports the back surface of the imaging plate 10, and a main surface 21b (also referred to as a back surface 21b) opposite to the main surface 21a. The fixed part 22 has, for example, a plurality of fixed parts 22a that are close to the periphery of the imaging plate 10 . The fixing part 22 can also be said to be a fixing member. The plurality of fixed portions 22a approach the peripheral portion of the imaging plate 10 so as to surround the peripheral portion. Thereby, the position (that is, relative position) and posture (that is, relative posture) of imaging plate 10 with respect to support plate 21 are fixed. In this example, for example, two fixing portions 22a approach each of the long sides of the imaging plate 10, and one fixing portion 22a approaches each of both short sides of the imaging plate 10. FIG.

各固定部分22aは、保持制御部84による制御によって、支持板21に支持されたイメージングプレート10に接近する接近位置と、支持板21に支持されたイメージングプレート10から離間する離間位置との間で移動することが可能である。イメージングプレート10は、各固定部分22aが離間位置に存在する状態で、挿入口2aから筐体2内に投入されて、支持板21で支持される。その後、各固定部分22aが離間位置から接近位置に移動することによって、イメージングプレート10の位置及び姿勢が固定部22で固定される。各固定部分22aは、接近位置に存在する場合、例えば、イメージングプレート10の周縁部分と接している。 Each fixed portion 22a is controlled by the holding control unit 84 between an approach position approaching the imaging plate 10 supported by the support plate 21 and a separation position separating from the imaging plate 10 supported by the support plate 21. It is possible to move. The imaging plate 10 is inserted into the housing 2 through the insertion port 2a and supported by the support plate 21 with the fixing portions 22a positioned at the separated positions. Thereafter, the position and posture of the imaging plate 10 are fixed by the fixing portions 22 by moving the fixing portions 22a from the separated positions to the approached positions. Each fixed portion 22a is in contact with, for example, the peripheral portion of the imaging plate 10 when it is in the approached position.

なお、複数の固定部分22aの少なくとも一つは、接近位置に存在する場合、イメージングプレート10の周縁部分と接しなくてもよい。また、固定部22の構成は上記の限りではない。また、保持部20の構成は上記の限りではない。 Note that at least one of the plurality of fixed portions 22a does not have to come into contact with the peripheral portion of the imaging plate 10 when it exists at the approach position. Also, the configuration of the fixing portion 22 is not limited to the above. Also, the configuration of the holding portion 20 is not limited to the above.

<駆動部及び一対のガイド部について>
駆動部50は、駆動制御部83による制御によって、保持部20を所定方向DR10に沿って移動することが可能である。これにより、保持部20で保持されたイメージングプレート10も所定方向DR10に沿って移動することができる。駆動部50は、保持部20を通じてイメージングプレート10を所定方向DR10に沿って移動することが可能であるともいえる。
<Regarding the driving part and the pair of guide parts>
Drive unit 50 can move holding unit 20 along predetermined direction DR<b>10 under the control of drive control unit 83 . Thereby, the imaging plate 10 held by the holding portion 20 can also be moved along the predetermined direction DR10. It can also be said that the drive unit 50 can move the imaging plate 10 along the predetermined direction DR10 through the holding unit 20 .

一対のガイド部60は、保持部20をその間に挟んだ状態で所定方向DR10に沿って延在している。各ガイド部60の内側には所定方向DR10に沿って延びる溝が形成されている。支持板21の互いに対向する一対の側縁部は、一対のガイド部60の内側の溝にそれぞれ嵌合している。これにより、一対のガイド部60は、保持部20の所定方向DR10に沿った移動を案内することが可能である。なお、ガイド部60の構成はこの限りではない。 The pair of guide portions 60 extend along the predetermined direction DR10 with the holding portion 20 sandwiched therebetween. A groove extending along the predetermined direction DR10 is formed inside each guide portion 60 . A pair of side edges of the support plate 21 facing each other are fitted into grooves inside the pair of guide portions 60 . Thereby, the pair of guide portions 60 can guide the movement of the holding portion 20 along the predetermined direction DR10. Note that the configuration of the guide portion 60 is not limited to this.

駆動部50は、例えば、モータ51、ネジ軸部52及びナット部53を有するボールネジ機構で構成されている。モータ51は、駆動制御部83によって制御される。ネジ軸部52は、周囲にネジ溝が形成された棒状部材である。ネジ軸部52は、所定方向DR10に沿って延びており、モータ51によって回転させられる。ナット部53は、保持部20に固定されている。ナット部53は、例えば、保持部20の支持板21の裏面21bに固定されている。ネジ軸部52はナット部53に螺合している。モータ51の正転方向または逆転方向の回転に応じて、ネジ軸部52が正転方向または逆転方向に回転する。保持部20は、ネジ軸部52の正転方向の回転に応じて、所定方向DR10に沿って一方側に移動する。このとき、一対のガイド部60は、保持部20の一方側への移動を案内する。一方で、保持部20は、ネジ軸部52の逆転方向の回転に応じて、所定方向DR10に沿って他方側に移動する。このとき、一対のガイド部60は、保持部20の他方側への移動を案内する。駆動部50の構成はこの限りではない。 The drive unit 50 is configured by, for example, a ball screw mechanism having a motor 51 , a screw shaft portion 52 and a nut portion 53 . The motor 51 is controlled by the drive control section 83 . The screw shaft portion 52 is a rod-shaped member with a thread groove formed around it. The screw shaft portion 52 extends along the predetermined direction DR<b>10 and is rotated by the motor 51 . The nut portion 53 is fixed to the holding portion 20 . The nut portion 53 is fixed to the back surface 21b of the support plate 21 of the holding portion 20, for example. The screw shaft portion 52 is screwed onto the nut portion 53 . As the motor 51 rotates forward or backward, the screw shaft portion 52 rotates forward or backward. Holding portion 20 moves to one side along predetermined direction DR10 in response to rotation of screw shaft portion 52 in the forward direction. At this time, the pair of guide portions 60 guide the movement of the holding portion 20 to one side. On the other hand, the holding portion 20 moves to the other side along the predetermined direction DR10 according to the rotation of the screw shaft portion 52 in the reverse direction. At this time, the pair of guide portions 60 guide the movement of the holding portion 20 to the other side. The configuration of the drive unit 50 is not limited to this.

駆動部50は、イメージングプレート10からの放射線像の読み取りが開始する読取開始位置に、イメージングプレート10を保持した保持部20を移動させることができる。また、駆動部50は、イメージングプレート10からの放射線像の読み取りが終了すると、イメージングプレート10の放射線像の消去が行われる消去位置に、イメージングプレート10を保持した保持部20を移動させることができる。図2及び3には、イメージングプレート10からの放射線像の読み取りが行われる様子が示されている。図4及び5には、イメージングプレート10から放射線像が消去される様子が示されている。 The driving unit 50 can move the holding unit 20 holding the imaging plate 10 to a reading start position where reading of the radiation image from the imaging plate 10 is started. Further, when the reading of the radiographic image from the imaging plate 10 is completed, the drive unit 50 can move the holding unit 20 holding the imaging plate 10 to the erasing position where the radiographic image of the imaging plate 10 is erased. . 2 and 3 show how the radiation image is read from the imaging plate 10. FIG. FIGS. 4 and 5 show how the radiation image is erased from the imaging plate 10. FIG.

<光源及び検出器について>
本例では、図6に示されるように、光源30と、それを制御する発光制御部86と、検出器40と、それを制御する検出制御部85とで、イメージングプレート10から放射線像を読み取る光測定器90が構成されている。光測定器90を構成する光源30、検出器40、検出制御部85及び発光制御部86は、一つのケースに収容されてユニット化されてもよいし、一つのケースに収容されていなくてもよい。
<About the light source and detector>
In this example, as shown in FIG. 6, the radiation image is read from the imaging plate 10 by the light source 30, the light emission controller 86 controlling it, the detector 40, and the detection controller 85 controlling it. An optical measuring device 90 is configured. The light source 30, the detector 40, the detection control section 85, and the light emission control section 86, which constitute the light measuring device 90, may be housed in one case and unitized, or may not be housed in one case. good.

光源30は、保持部20に保持されたイメージングプレート10に対して、放射線像形成層11を励起させるための励起光L1を照射することが可能である。光源30は保持部20の支持面21aに向けて励起光L1を出射する。光源30は、励起光L1をイメージングプレート10上で一方向(主走査方向DRmともいう)に走査することが可能である。本実施形態では、主走査方向DRmは、所定方向DR10に対して垂直な方向である。つまり、主走査方向DRmは、保持部20の移動方向に対して垂直な方向である。 The light source 30 can irradiate the imaging plate 10 held by the holding section 20 with excitation light L<b>1 for exciting the radiation image forming layer 11 . Light source 30 emits excitation light L<b>1 toward support surface 21 a of holding portion 20 . The light source 30 can scan the imaging plate 10 with the excitation light L1 in one direction (also referred to as the main scanning direction DRm). In this embodiment, the main scanning direction DRm is a direction perpendicular to the predetermined direction DR10. That is, the main scanning direction DRm is a direction perpendicular to the moving direction of the holding section 20 .

励起光L1は例えば可視光のレーザ光である。励起光L1は、例えば、赤色レーザ光であってもよいし、他の色のレーザ光であってもよい。放射線像形成層11に励起光L1が照射されると、放射線像形成層11に蓄積されたエネルギーの分布に応じて放射線像形成層11が発光し、放射線像形成層11から発光光L2が発せられる。発光光L2は、輝尽光とも呼ばれ、例えば青色の可視光である。検出器40は、イメージングプレート10からの発光光L2を検出し、検出した発光光L2の強度に応じた電気信号を出力する。 The excitation light L1 is, for example, visible laser light. The excitation light L1 may be, for example, red laser light or other color laser light. When the radiation image forming layer 11 is irradiated with the excitation light L1, the radiation image forming layer 11 emits light according to the distribution of the energy accumulated in the radiation image forming layer 11, and the radiation image forming layer 11 emits light L2. be done. The emitted light L2 is also called photostimulated light, and is blue visible light, for example. The detector 40 detects the emitted light L2 from the imaging plate 10 and outputs an electrical signal corresponding to the intensity of the detected emitted light L2.

光源30は、例えば、励起光L1を生成して出力するレーザ発生部と、励起光L1をイメージングプレート10上で主走査方向DRmに走査する走査部とを有する。レーザ発生部は、例えば半導体レーザであって、発光制御部86によって制御される。レーザ発生部は、レーザダイオードであってもよいし、他の半導体レーザであってもよい。走査部は、例えば、レーザ発生部からの励起光L1を、イメージングプレート10の放射線像形成層11に向けて反射するMEMS(Micro Electro Mechanical Systems)ミラーである。MEMSミラーは、発光制御部86による制御によって、放射線像形成層11上での励起光L1の照射点が主走査方向DRmに移動するように励起光L1の反射角度を変化させる。 The light source 30 has, for example, a laser generator that generates and outputs the excitation light L1 and a scanner that scans the imaging plate 10 with the excitation light L1 in the main scanning direction DRm. The laser generator is, for example, a semiconductor laser and is controlled by the light emission controller 86 . The laser generator may be a laser diode or another semiconductor laser. The scanning unit is, for example, a MEMS (Micro Electro Mechanical Systems) mirror that reflects the excitation light L1 from the laser generating unit toward the radiation image forming layer 11 of the imaging plate 10 . The MEMS mirror changes the reflection angle of the excitation light L1 under the control of the light emission control unit 86 so that the irradiation point of the excitation light L1 on the radiation image forming layer 11 moves in the main scanning direction DRm.

検出器40は、イメージングプレート10からの発光光L2(図3参照)が入射する光学フィルタ42と、光学フィルタ42から出射される発光光L2を検出するセンサ41とを備える。センサ41は検出制御部85によって制御される。光学フィルタ42は、センサ41での発光光L2の検出面に対向するように配置されている。光学フィルタ42の発光光L2に対する透過率(発光光透過率ともいう)は非常に高くなっている。したがって、光学フィルタ42は、イメージングプレート10からの発光光L2を十分に透過させてセンサ41に出射する。一方で、光学フィルタ42の励起光L1に対する透過率(励起光透過率ともいう)は、発光光透過率よりも低くなっている。例えば、励起光透過率は、発光光透過率の10%程度になっている。よって、光学フィルタ42は、センサ41に向かう、イメージングプレート10での励起光L1の反射光を減衰させる。本開示では、反射光には散乱光が含まれる。以後、単に反射光と言えば、励起光L1の反射光を意味する。 The detector 40 includes an optical filter 42 into which the emitted light L2 (see FIG. 3) from the imaging plate 10 is incident, and a sensor 41 that detects the emitted light L2 emitted from the optical filter 42 . The sensor 41 is controlled by the detection control section 85 . The optical filter 42 is arranged so as to face the detection surface of the emitted light L2 in the sensor 41 . The transmittance (also referred to as emitted light transmittance) of the optical filter 42 for the emitted light L2 is extremely high. Therefore, the optical filter 42 sufficiently transmits the emitted light L2 from the imaging plate 10 and emits it to the sensor 41 . On the other hand, the transmittance of the optical filter 42 for the excitation light L1 (also referred to as the excitation light transmittance) is lower than the emitted light transmittance. For example, the excitation light transmittance is about 10% of the emission light transmittance. Therefore, the optical filter 42 attenuates the reflected light of the excitation light L<b>1 from the imaging plate 10 toward the sensor 41 . In this disclosure, reflected light includes scattered light. Hereinafter, simply speaking of reflected light means the reflected light of the excitation light L1.

センサ41は、光学フィルタ42を透過した発光光L2を検出し、検出した発光光L2の強度に応じた電気信号を出力することが可能である。センサ41は、例えば、複数のフォトダイオードで構成されてもよいし、光電子増倍管で構成されてもよい。 The sensor 41 can detect the emitted light L2 that has passed through the optical filter 42 and output an electrical signal corresponding to the intensity of the detected emitted light L2. The sensor 41 may be composed of, for example, a plurality of photodiodes or a photomultiplier tube.

読取装置1において、イメージングプレート10から放射線像が読み取られる処理(読取処理ともいう)が行われる場合、イメージングプレート10を保持した保持部20は、駆動部50によって読取開始位置に搬送される。そして、光測定器90は読取処理を開始する。読取処理では、光源30が、発光制御部86による制御によって、励起光L1をイメージングプレート10上で主走査方向DRmに走査する処理(主走査方向スキャンともいう)を繰り返し実行する。一方で、読取処理において、駆動部50は、イメージングプレート10を保持した保持部20を、所定方向DR10に沿った一方向DRs(副走査方向DRsともいう)に移動させる。副走査方向DRsは主走査方向DRmに垂直な方向である。保持部20が副走査方向DRsに移動している間に、主走査方向スキャンが繰り返し実行されることにより、イメージングプレート10の放射線像形成層11に対して励起光L1がラスタスキャンされる。これにより、読取処理では、放射線像形成層11の全領域にわたって励起光L1が順次照射されて、放射線像形成層11の全領域が励起光L1で走査される。放射線像形成層11に対して励起光L1がラスタスキャンされる間、検出器40のセンサ41が、ラスタスキャンに応じて放射線像形成層11が順次発する発光光L2を検出することによって、放射線像形成層11から放射線像が読み取られる。センサ41は、励起光L1のラスタスキャン中の発光光L2の検出結果として、読み取られた放射線像(言い換えれば、検出された放射線像)を表す画像信号を検出制御部85に出力する。この画像信号には、読み取られた放射線像を表す複数の画素の輝度値(言い換えれば画素値)が含まれる。センサ41は、例えば、グレースケールの画像信号を出力する。以後、検出器40で読み取られた放射線像を検出放射線像と呼ぶことがある。 When the reader 1 performs a process of reading a radiation image from the imaging plate 10 (also referred to as a reading process), the holding unit 20 holding the imaging plate 10 is conveyed to the reading start position by the driving unit 50 . Then, the light measuring device 90 starts the reading process. In the reading process, the light source 30 repeatedly performs a process of scanning the imaging plate 10 with the excitation light L1 in the main scanning direction DRm (also referred to as main scanning direction scanning) under the control of the light emission control unit 86 . On the other hand, in the reading process, the drive unit 50 moves the holding unit 20 holding the imaging plate 10 in one direction DRs (also called sub-scanning direction DRs) along the predetermined direction DR10. The sub-scanning direction DRs is a direction perpendicular to the main scanning direction DRm. While the holding unit 20 is moving in the sub-scanning direction DRs, scanning in the main scanning direction is repeatedly performed, whereby the radiation image forming layer 11 of the imaging plate 10 is raster-scanned with the excitation light L1. Thus, in the reading process, the entire area of the radiation image forming layer 11 is sequentially irradiated with the excitation light L1, and the entire area of the radiation image forming layer 11 is scanned with the excitation light L1. While the radiation image forming layer 11 is raster-scanned with the excitation light L1, the sensor 41 of the detector 40 detects the emitted light L2 sequentially emitted from the radiation image forming layer 11 according to the raster scanning, thereby forming a radiation image. A radiation image is read from the forming layer 11 . The sensor 41 outputs an image signal representing the read radiographic image (in other words, the detected radiographic image) to the detection control unit 85 as a detection result of the emitted light L2 during raster scanning of the excitation light L1. This image signal includes luminance values (in other words, pixel values) of a plurality of pixels representing the read radiation image. The sensor 41 outputs, for example, a grayscale image signal. Hereinafter, the radiographic image read by the detector 40 may be called a detected radiographic image.

ここで、本願における走査について説明する。ラスタスキャンは、2次元の走査対象を、点で1次元的に走査(スキャン)して線(走査線(スキャンライン))を得て、次いでその直角方向に所定画素分ずれた位置で同様な1次元的な走査を繰り返すことで2次元の面の画像を得る方法を指すことがある。2次元の面の画像を得る目的が達成できるのであれば、1次元的走査は直線の走査でなければならないことはなく、ずらす方向も直角方向でなければならないことはない。また、単位走査は必ずしも同じ方向であることを要するものではなく、例えば反対方向に往と復を繰り返してもよい。本願では、ラスタスキャンの1次元的走査のように、2次元の面の画像を形成するために集合する走査の各々を単位走査とし、単位走査の走査方向を主走査方向とし、ラスタスキャンでずれる直角方向のように、単位走査と交差する方向を単位走査交差方向とし、単位走査を単位走査方向にずらしながら繰り返して2次元の走査を行うことを単位走査反復走査とする。単位走査を反復するために単位走査を単位走査交差方向に移動させる走査を副走査とし、副走査と交差する方向に行う単位走査を主走査とする。主走査方向は主走査の走査方向であるといえ、副走査方向は副走査の走査方向であるといえる。本願構成で採用される走査は、単位走査反復走査であればよいのであるが、実施形態の説明としては、単位走査反復走査の代表としてラスタスキャンによる走査を説明していく。 Here, scanning in the present application will be described. In raster scanning, a two-dimensional object to be scanned is one-dimensionally scanned (scanned) at points to obtain lines (scan lines). It may refer to a method of obtaining a two-dimensional surface image by repeating one-dimensional scanning. If the purpose of obtaining an image of a two-dimensional surface can be achieved, the one-dimensional scanning does not have to be a straight line scanning and the shifting direction does not have to be perpendicular. Also, the unit scanning does not necessarily have to be in the same direction, and for example, may be repeated in opposite directions. In the present application, each of the scans gathered to form a two-dimensional surface image is defined as a unit scan, like the one-dimensional scan of the raster scan, and the scanning direction of the unit scan is defined as the main scanning direction. A direction that intersects the unit scan, such as the perpendicular direction, is defined as the unit scan cross direction, and repeating two-dimensional scanning while shifting the unit scan in the unit scan direction is referred to as unit scan repetitive scan. A scan in which the unit scan is moved in the direction crossing the unit scan in order to repeat the unit scan is referred to as a sub-scan, and a unit scan performed in the direction crossing the sub-scan is referred to as a main scan. The main scanning direction can be said to be the scanning direction of main scanning, and the sub-scanning direction can be said to be the scanning direction of sub-scanning. Scanning employed in the configuration of the present application may be repetitive unit-scanning, but in the description of the embodiments, scanning by raster scanning will be described as a representative of repetitive unit-scanning.

本例では、イメージングプレート10が保持部20で適切に保持されている状態では、図2及び4に示されるように、イメージングプレート10の短手方向が主走査方向DRmと平行を成し、イメージングプレート10の長手方向が副走査方向DRsと平行を成す。ここで、イメージングプレート10が保持部20で適切に保持されている状態でのイメージングプレートの姿勢を基準姿勢と呼ぶ、本例では、基準姿勢は、イメージングプレート10の短手方向が主走査方向DRmと平行を成し、イメージングプレート10の長手方向が副走査方向DRsと平行を成すようなイメージングプレート10の姿勢である。なお、基準姿勢はこの限りではない。 In this example, when the imaging plate 10 is properly held by the holding unit 20, the lateral direction of the imaging plate 10 is parallel to the main scanning direction DRm as shown in FIGS. The longitudinal direction of the plate 10 is parallel to the sub-scanning direction DRs. Here, the posture of the imaging plate 10 in a state in which the imaging plate 10 is appropriately held by the holding unit 20 is called a reference posture. , and the longitudinal direction of the imaging plate 10 is parallel to the sub-scanning direction DRs. Note that the reference posture is not limited to this.

イメージングプレート10は、基本的には、基準姿勢で保持部20に保持される。ただし、固定部22の不具合等により保持部20が適切にイメージングプレート10を保持していない場合、イメージングプレート10は基準姿勢から傾いた状態で保持部20で保持されることもある。 The imaging plate 10 is basically held by the holding section 20 in a reference posture. However, if the holding section 20 does not properly hold the imaging plate 10 due to a defect of the fixing section 22 or the like, the imaging plate 10 may be held by the holding section 20 in a state inclined from the reference posture.

本例では、センサ41は、例えば、検出した光の強度が大きいほど、値の大きい輝度値を出力する。イメージングプレート10の放射線像形成層11では、放射線の照射強度が大きく蓄積エネルギーが大きい部分ほど、当該部分からの発光光L2の強度は大きい。したがって、放射線像形成層11において蓄積エネルギーが大きい部分からの発光光L2の検出に基づく像についてセンサ41が出力する輝度値は大きくなる。 In this example, the sensor 41, for example, outputs a larger luminance value as the intensity of the detected light increases. In the radiation image forming layer 11 of the imaging plate 10, the intensity of the emitted light L2 from that portion increases as the irradiation intensity of the radiation increases and the accumulated energy increases. Therefore, the luminance value output by the sensor 41 for an image based on the detection of the emitted light L2 from the portion of the radiation image forming layer 11 having a large accumulated energy is increased.

例えば、放射線像形成層11に歯の放射線像が記録される場合を考える。この場合、放射線像形成層11において歯の放射線像が記録されている部分、つまり、歯を透過した放射線が照射された部分からの発光光L2の強度は比較的小さい。よって、検出放射線像のうち歯が写る部分についてのセンサ41からの輝度値は比較的小さい。一方で、放射線像形成層11において放射線が直接照射された部分(直接照射部分ともいう)からの発光光L2の強度は比較的大きい。よって、検出放射線像のうち、放射線像形成層11の直接照射部分に相当する像についてセンサ41から出力される輝度値は比較的大きい。 For example, consider the case where a radiation image of teeth is recorded on the radiation image forming layer 11 . In this case, the intensity of the emitted light L2 from the portion where the radiation image of the tooth is recorded in the radiation image forming layer 11, that is, the portion irradiated with the radiation that has passed through the tooth is relatively small. Therefore, the luminance value from the sensor 41 for the portion of the detected radiation image where the tooth is reflected is relatively small. On the other hand, the intensity of the emitted light L2 from the portion directly irradiated with the radiation (also referred to as the directly irradiated portion) in the radiation image forming layer 11 is relatively high. Therefore, among the detected radiation images, the brightness value output from the sensor 41 for the image corresponding to the directly irradiated portion of the radiation image forming layer 11 is relatively large.

本例では、光学フィルタ42は、励起光L1を減衰させるものの、励起光L1をある程度は透過させる。したがって、センサ41は、イメージングプレート10が発する発光光L2だけではなく、イメージングプレート10での励起光L1の反射光もある程度検出する。よって、センサ41から出力される検出放射線像の輝度値には、検出された発光光L2の強度に応じた輝度値(発光光対応輝度値ともいう)と、検出された反射光に応じた輝度値(反射光対応輝度値ともいう)とが含まれる。発光光対応輝度値は、例えば、反射光対応輝度値の10倍以上の値となっている。よって、検出器40から出力される画像信号に基づく検出放射線像は、反射光の影響をあまり受けておらず、イメージングプレート10に記録されている放射線像を適切に表している。 In this example, the optical filter 42 attenuates the excitation light L1, but transmits the excitation light L1 to some extent. Therefore, the sensor 41 detects not only the emitted light L2 emitted by the imaging plate 10 but also the reflected light of the excitation light L1 on the imaging plate 10 to some extent. Therefore, the luminance value of the detected radiation image output from the sensor 41 includes a luminance value corresponding to the detected intensity of the emitted light L2 (also referred to as a luminance value corresponding to the emitted light) and a luminance corresponding to the detected reflected light. values (also referred to as luminance values corresponding to reflected light). The luminance value corresponding to emitted light is, for example, a value that is ten times or more than the luminance value corresponding to reflected light. Therefore, the detected radiation image based on the image signal output from the detector 40 is not greatly affected by the reflected light, and appropriately represents the radiation image recorded on the imaging plate 10 .

また、本例では、イメージングプレート10の放射線像形成層11においては、部分的に、放射線の照射に応じたエネルギーが蓄積されていない未露光部分が存在することがある。例えば、イメージングプレート10に対して撮影対象物越しに放射線が照射される場合、放射線を発する光源の位置ずれ等によって、放射線像形成層11において、本来は放射線が照射されるべき部分に対して放射線が照射されずに、部分的に未露光部分が発生することがある。この部分的な未露光部分はコーンカットと呼ばれることがある。また、放射線像形成層11において、放射線が照射された部分から意図せずに放射線像が消えてしまい、未露光部分が部分的に発生することがある。例えば、放射線像を記録するイメージングプレート10は、通常、周囲の光が照射されないように、カバーで覆われた上で保管される。しかしながら、イメージングプレート10が適切にカバーで覆われていない場合には、イメージングプレート10の保管中に周囲の光が放射線像形成層11の一部に照射され、当該一部に記録されていた放射線像が意図せずに消去されることがある。この場合にも、放射線像形成層11は、部分的に未露光部分を有することになる。 In this example, the radiation image forming layer 11 of the imaging plate 10 may partially have an unexposed portion where the energy corresponding to the irradiation of the radiation is not accumulated. For example, when the imaging plate 10 is irradiated with radiation through an object to be photographed, the position of the light source that emits the radiation may shift, causing the portion of the radiation image forming layer 11 to be irradiated with the radiation to be exposed to the radiation. is not irradiated, and partially unexposed areas may occur. This partial unexposed portion is sometimes called a cone cut. In addition, in the radiation image forming layer 11, the radiation image may unintentionally disappear from the radiation-irradiated portions, resulting in partially unexposed portions. For example, the imaging plate 10 for recording a radiographic image is usually stored with a cover so that it is not exposed to ambient light. However, if the imaging plate 10 is not properly covered with a cover, ambient light will irradiate a portion of the radiation image forming layer 11 during storage of the imaging plate 10, causing the radiation recorded in that portion to be exposed to radiation. Images may be erased unintentionally. In this case also, the radiation image forming layer 11 will partially have unexposed areas.

イメージングプレート10の未露光部分に励起光L1が照射されたとしても、未露光部分からは発光光L2は発せられない。したがって、励起光L1が未露光部分に照射された場合には、検出器40は、発光光L2を検出せずに、未露光部分での励起光L1の反射光を検出する。よって、検出器40が出力する画像信号には、未露光部分の反射光像、つまり、未露光部分からの励起光L1の反射光の検出に基づく反射光像を表す複数の画素の輝度値が含まれることがある。検出器40が発光光L2及び反射光の検出結果として出力する画像信号に基づく全体の像には、発光光L2の検出に基づく検出放射線像だけではなく、未露光部分の反射光像(未露光領域像ともいう)も含まれることがある。検出器40が出力する検出放射線像の輝度値は、例えば、検出器40が出力する未露光領域像の輝度値の10倍以上となっている。 Even if the unexposed portion of the imaging plate 10 is irradiated with the excitation light L1, the unexposed portion does not emit the emission light L2. Therefore, when the excitation light L1 is applied to the unexposed portion, the detector 40 detects the reflected light of the excitation light L1 at the unexposed portion without detecting the emitted light L2. Therefore, the image signal output by the detector 40 includes the luminance values of a plurality of pixels representing the reflected light image of the unexposed portion, that is, the reflected light image based on the detection of the reflected light of the excitation light L1 from the unexposed portion. may be included. The entire image based on the image signal output by the detector 40 as the detection result of the emitted light L2 and the reflected light includes not only the detected radiation image based on the detection of the emitted light L2 but also the reflected light image of the unexposed portion (unexposed image). Also called an area image) may also be included. The luminance value of the detected radiation image output by the detector 40 is, for example, ten times or more the luminance value of the unexposed area image output by the detector 40 .

また本例では、読取処理において、励起光L1は、イメージングプレート10だけではなく、保持部20のうちイメージングプレート10の外側の部分に対しても照射される。ここで、読取装置1において励起光L1が照射される対象物を照射対象物1200と呼ぶ。本例では、照射対象物1200は、保持部20と、保持部20に保持されたイメージングプレート10とで構成されている。また、照射対象物1200の支持面21a側の主面1200aを支持側主面1200aと呼ぶ。本例では、支持側主面1200aには、イメージングプレート10の放射線像形成層11の表面と、保持部20の固定部22の表面と、保持部20の支持板21の支持面21aのうちイメージングプレート10及び固定部22で覆われていない領域とが含まれる。また、支持側主面1200aにおいてイメージングプレート10が存在する領域R100をIP存在領域R100と呼ぶ。なお、照射対象物1200の支持側主面1200aとは反対側の主面は、支持板21の裏面21bと一致する。 In this example, in the reading process, not only the imaging plate 10 but also the portion of the holding unit 20 outside the imaging plate 10 is irradiated with the excitation light L1. Here, an object irradiated with the excitation light L1 in the reader 1 is called an irradiation object 1200 . In this example, the object to be irradiated 1200 is composed of the holding section 20 and the imaging plate 10 held by the holding section 20 . A main surface 1200a of the irradiation object 1200 on the support surface 21a side is called a support-side main surface 1200a. In this example, the main surface 1200a on the support side includes the surface of the radiation image forming layer 11 of the imaging plate 10, the surface of the fixed portion 22 of the holding portion 20, and the supporting surface 21a of the supporting plate 21 of the holding portion 20. The area not covered by the plate 10 and the fixed part 22 is included. A region R100 where the imaging plate 10 exists on the support-side main surface 1200a is called an IP existing region R100. Note that the main surface of the irradiation object 1200 on the side opposite to the support-side main surface 1200 a coincides with the back surface 21 b of the support plate 21 .

本例では、読取処理での支持側主面1200aに対する励起光L1の照射範囲(励起光照射範囲ともいう)R120は、IP存在領域R100を含みつつ、それよりも大きい範囲となっている。励起光照射範囲R120は、読取処理での励起光L1の走査範囲ともいえる。また、読取処理における検出器40の支持側主面1200aでの検出範囲R110も、IP存在領域R100を含みつつ、それよりも大きい範囲となっている。 In this example, the irradiation range (also referred to as excitation light irradiation range) R120 of the excitation light L1 with respect to the support-side main surface 1200a in the reading process is a range that includes the IP existence region R100 and is larger than it. The excitation light irradiation range R120 can also be said to be the scanning range of the excitation light L1 in the reading process. Further, the detection range R110 on the support-side main surface 1200a of the detector 40 in the reading process is also a range that includes the IP existence region R100 and is larger than it.

図7は励起光照射範囲R120、検出範囲R110及びIP存在領域R100の一例を示す概略図である。図7及び後述の図8及び9では、イメージングプレート10の記載は省略している。図7に示されるように、励起光照射範囲R120及び検出範囲R110のそれぞれは、IP存在領域R100を含みつつ、IP存在領域R100よりも大きい範囲となっている。そして、励起光照射範囲R120及び検出範囲R110は、例えば、互いに同じ大きさであり、かつ互いに同じ位置に存在する。なお、図7では、説明の便宜上、励起光照射範囲R120が検出範囲R110よりも若干大きく示されている。 FIG. 7 is a schematic diagram showing an example of an excitation light irradiation range R120, a detection range R110, and an IP existence region R100. The illustration of the imaging plate 10 is omitted in FIG. 7 and FIGS. 8 and 9 described later. As shown in FIG. 7, each of the excitation light irradiation range R120 and the detection range R110 includes the IP existence region R100 and is larger than the IP existence region R100. For example, the excitation light irradiation range R120 and the detection range R110 have the same size and are located at the same position. In addition, in FIG. 7, for convenience of explanation, the excitation light irradiation range R120 is shown slightly larger than the detection range R110.

読取処理では、光源30が主走査方向スキャンを繰り返し実行しつつ、イメージングプレート10を保持した保持部20が副走査方向DRsに移動することによって、励起光照射範囲R120に対して励起光L1がラスタスキャンされる。そして、センサ41は、検出範囲R110での励起光L1の照射位置に応じた輝度値を、励起光L1のラスタスキャンに応じて順次出力する。 In the reading process, the holding unit 20 holding the imaging plate 10 moves in the sub-scanning direction DRs while the light source 30 repeatedly scans in the main scanning direction. Scanned. Then, the sensor 41 sequentially outputs luminance values according to the irradiation position of the excitation light L1 in the detection range R110 according to the raster scan of the excitation light L1.

ここで、支持側主面1200aにおいて、IP存在領域R100の外側であり、かつ励起光照射範囲R120及び検出範囲R110の内側の領域をIP外側領域R130と呼ぶ。本例では、励起光照射範囲R120及び検出範囲R110が、IP存在領域R100を含みつつ、IP存在領域R100よりも大きい範囲となっていることから、センサ41は、IP外側領域R130からの励起光L1の反射光を検出する。IP外側領域R130には、例えば、固定部22の表面の少なくとも一部と、支持板21の支持面21aのうちイメージングプレート10及び固定部22で覆われていない領域の少なくとも一部とが含まれる。IP外側領域R130は、保持部20の表面、具体的には保持部20のイメージングプレート10側の主面に含まれる。 Here, on the support-side main surface 1200a, a region outside the IP existence region R100 and inside the excitation light irradiation range R120 and the detection range R110 is called an IP outside region R130. In this example, since the excitation light irradiation range R120 and the detection range R110 include the IP existence region R100 and are larger than the IP existence region R100, the sensor 41 detects the excitation light from the IP outer region R130. The reflected light of L1 is detected. The IP outer region R130 includes, for example, at least part of the surface of the fixing part 22 and at least part of the area of the support surface 21a of the support plate 21 that is not covered with the imaging plate 10 and the fixing part 22. . IP outer region R130 is included in the surface of holding portion 20, specifically, the main surface of holding portion 20 on the imaging plate 10 side.

IP外側領域R130に励起光L1が照射されたとしても、IP外側領域R130からは発光光L2は発せられない。したがって、検出器40は、励起光L1がIP外側領域R130に照射された場合、発光光L2を検出せずに、IP外側領域R130からの励起光L1の反射光を検出する。よって、読取処理において、検出器40が発光光L2及び反射光の検出結果として出力する画像信号には、IP外側領域R130の反射光像、つまり、IP外側領域R130からの励起光L1の反射光の検出に基づく反射光像を表す複数の画素の輝度値が含まれる。本例では、検出器40が出力する画像信号に基づく全体の像(取得全体像ともいう)には、検出放射線像だけではなく、IP外側領域R130の反射光像も含まれる。イメージングプレート10に未露光部分が含まれる場合には、取得全体像には、検出放射線像、未露光領域像及びIP外側領域R130の反射光像が含まれる。以後、IP外側領域R130の反射光像をIP外側領域像と呼ぶことがある。 Even if the IP outer region R130 is irradiated with the excitation light L1, the emission light L2 is not emitted from the IP outer region R130. Therefore, when the IP outer region R130 is irradiated with the excitation light L1, the detector 40 detects the reflected light of the excitation light L1 from the IP outer region R130 without detecting the emitted light L2. Therefore, in the reading process, the image signal output by the detector 40 as the detection result of the emitted light L2 and the reflected light includes the reflected light image of the IP outer region R130, that is, the reflected light of the excitation light L1 from the IP outer region R130. Intensity values of a plurality of pixels representing a reflected light image based on the detection of . In this example, the overall image based on the image signal output by the detector 40 (also referred to as an acquired overall image) includes not only the detected radiation image but also the reflected light image of the IP outer region R130. If the imaging plate 10 includes an unexposed portion, the acquired overall image includes the detected radiation image, the unexposed area image, and the reflected light image of the IP outer area R130. Hereinafter, the reflected light image of the IP outer region R130 may be referred to as an IP outer region image.

本例では、IP外側領域R130に対して、励起光L1が反射しにくくなる処理が行われている。例えば、IP外側領域R130には黒アルマイト処理が行われている。これにより、検出器40は、イメージングプレート10の未露光部分での励起光L1の反射光よりも、IP外側領域R130での励起光L1の反射光の方が検出しにくくなっている。本例では、黒アルマイト処理により、IP外側領域R130では、ほとんど励起光L1が反射しなくなっている。検出器40が出力する未露光領域像の輝度値は、例えば、検出器40が出力するIP外側領域像の輝度値の3倍以上となっている。なお、黒アルマイト処理は、保持部20の表面のうち、IP外側領域R130以外の領域に対しても行われてもよい。例えば、黒アルマイト処理は、保持部20の表面の全領域に行われてもよい。 In this example, the IP outer region R130 is subjected to a process that makes it difficult for the excitation light L1 to be reflected. For example, the IP outer region R130 is subjected to black alumite treatment. This makes it more difficult for the detector 40 to detect the reflected light of the excitation light L1 on the IP outer region R130 than the reflected light of the excitation light L1 on the unexposed portion of the imaging plate 10 . In this example, due to the black alumite treatment, the IP outer region R130 hardly reflects the excitation light L1. The luminance value of the unexposed area image output by the detector 40 is, for example, three times or more the luminance value of the IP outer area image output by the detector 40 . Note that the black alumite treatment may also be performed on a region other than the IP outer region R130 on the surface of the holding portion 20 . For example, the black alumite treatment may be performed on the entire surface area of the holding portion 20 .

励起光照射範囲R120、検出範囲R110及びIP存在領域R100の関係は上記の例に限られない。図8及び9は、励起光照射範囲R120、検出範囲R110及びIP存在領域R100の他の一例を示す概略図である。図8の例では、励起光照射範囲R120は、検出範囲R110及びIP存在領域R100を含みつつ、検出範囲R110及びIP存在領域R100よりも大きくなっている。図9の例では、検出範囲R110は、励起光照射範囲R120及びIP存在領域R100を含みつつ、励起光照射範囲R120及びIP存在領域R100よりも大きくなっている。 The relationship between the excitation light irradiation range R120, the detection range R110, and the IP existence region R100 is not limited to the above example. 8 and 9 are schematic diagrams showing other examples of the excitation light irradiation range R120, the detection range R110, and the IP existence region R100. In the example of FIG. 8, the excitation light irradiation range R120 includes the detection range R110 and the IP existence region R100, but is larger than the detection range R110 and the IP existence region R100. In the example of FIG. 9, the detection range R110 includes the excitation light irradiation range R120 and the IP existence region R100, but is larger than the excitation light irradiation range R120 and the IP existence region R100.

図9の例では、検出範囲R110には、支持側主面1200aにおける、励起光照射範囲R120以外の領域(照射範囲外領域ともいう)が含まれている。したがって、検出器40が出力する画像信号には、照射範囲外領域に対応する輝度値も含まれるが、当該輝度値は零となる。この場合、検出器40は、照射範囲外領域に対応する輝度値を含まない画像信号を出力してもよい。 In the example of FIG. 9, the detection range R110 includes a region other than the excitation light irradiation range R120 (also referred to as a non-irradiation range region) on the support-side main surface 1200a. Therefore, although the image signal output by the detector 40 also includes the brightness value corresponding to the area outside the irradiation range, the brightness value is zero. In this case, the detector 40 may output an image signal that does not include the luminance value corresponding to the non-irradiation area.

<消去用光源について>
本例では、図6に示されるように、消去用光源70と、それを制御する消去制御部87とで、イメージングプレート10から放射線像を消去する消去処理を行う消去部91が構成されている。消去部91を構成する消去用光源70及び消去制御部87は、一つのケースに収容されてユニット化されてもよいし、一つのケースに収容されていなくてもよい。 消去用光源70は、イメージングプレート10から放射線像を消去するための消去光L3をイメージングプレート10に照射することが可能である。消去光L3は、例えば可視光である。消去光L3は、白色光であってもよいし、赤色の可視光であってもよいし、他の色の可視光であってもよい。消去用光源70は、LED(Light Emission Diode)であってもよいし、ハロゲンランプであってもよいし、他の光源であってもよい。
<About light source for erasing>
In this example, as shown in FIG. 6, an erasing light source 70 and an erasing control part 87 for controlling the erasing light source 70 constitute an erasing part 91 that performs an erasing process for erasing a radiation image from the imaging plate 10 . . The erasing light source 70 and the erasing control section 87 that constitute the erasing section 91 may be housed in one case to form a unit, or may not be housed in one case. The erasing light source 70 can irradiate the imaging plate 10 with erasing light L3 for erasing the radiation image from the imaging plate 10 . The erasing light L3 is, for example, visible light. The erasing light L3 may be white light, red visible light, or other colors of visible light. The erasing light source 70 may be an LED (Light Emission Diode), a halogen lamp, or another light source.

図4及び5に示されるように、消去用光源70は、例えば一度の照射で、イメージングプレート10の放射線像形成層11の全領域に消去光L3を照射することができる。消去処理では、放射線像形成層11に消去光L3が照射されることにより、放射線像形成層11から放射線像が消去される。 As shown in FIGS. 4 and 5, the erasing light source 70 can irradiate the entire area of the radiation image forming layer 11 of the imaging plate 10 with the erasing light L3, for example, in one irradiation. In the erasing process, the radiation image is erased from the radiation image forming layer 11 by irradiating the radiation image forming layer 11 with the erasing light L3.

駆動部50は、光測定器90での読取処理が終了すると、イメージングプレート10を保持する保持部20を消去位置まで移動させる。保持部20が消去位置まで移動すると、消去部91が消去処理を行う。消去処理では、消去用光源70が、消去制御部87による制御によって、イメージングプレート10の放射線像形成層11の全領域に対して消去光L3を照射する。これより、イメージングプレート10から放射線像が消去される。 When the reading process by the optical measuring device 90 is completed, the driving section 50 moves the holding section 20 holding the imaging plate 10 to the erasing position. When the holding section 20 moves to the erasing position, the erasing section 91 performs erasing processing. In the erasing process, the erasing light source 70 irradiates the entire region of the radiation image forming layer 11 of the imaging plate 10 with the erasing light L3 under the control of the erasing controller 87 . As a result, the radiation image is erased from the imaging plate 10 .

駆動部50は、イメージングプレート10から放射線像が消去されると、保持部20を排出位置まで移動させる。保持部20が排出位置まで移動すると、保持部20の各固定部分22aが接近位置から離間位置まで移動する。その後、放射線像が消去されたイメージングプレート10が取出口2bに排出される。以後、消去済みイメージングプレート10と言えば、放射線像が消去されたイメージングプレート10を意味する。 When the radiation image is erased from the imaging plate 10, the driving section 50 moves the holding section 20 to the discharge position. When the holding portion 20 moves to the ejection position, each fixed portion 22a of the holding portion 20 moves from the approach position to the separation position. After that, the imaging plate 10 from which the radiation image has been erased is ejected to the outlet 2b. Hereinafter, the erased imaging plate 10 means the imaging plate 10 from which the radiation image has been erased.

<画像処理部について>
制御部80の画像処理部81は、検出制御部85を通じて、センサ41から出力される画像信号を受け取る。画像処理部81は、センサ41からの画像信号に含まれる複数の輝度値のそれぞれに対して画素位置情報を対応付ける。ある輝度値に対応付けられる画素位置情報とは、取得全体像において、当該ある輝度値を有する画素の位置(画素位置ともいう)を示す情報である。
<About the image processing unit>
An image processing unit 81 of the control unit 80 receives image signals output from the sensor 41 through the detection control unit 85 . The image processing unit 81 associates pixel position information with each of a plurality of luminance values included in the image signal from the sensor 41 . The pixel position information associated with a certain luminance value is information indicating the position (also referred to as pixel position) of a pixel having the certain luminance value in the acquired overall image.

ここで、読取処理では、駆動部50は、主走査方向スキャンの繰り返しに合わせて保持部20を副走査方向DRsに移動する。具体的には、主走査方向スキャンが所定回数実行される間に、励起光照射範囲R120の全領域が励起光L1で照射されるように、駆動部50は保持部20を副走査方向DRsに移動する。そして、センサ41は、検出範囲R110での励起光L1の照射位置に応じた輝度値を、励起光L1のラスタスキャンに応じて順次出力する。読取処理では、読取装置1がこのように動作することから、励起光照射範囲R120と、検出範囲R110と、1回の主走査方向スキャンにかかる時間と、主走査方向スキャンの繰り返し周期と、読取処理での主走査方向スキャンの実行回数とが分かれば、センサ41があるタイミングで出力する輝度値が、取得全体像のどの位置の画素の輝度値であるのかが分かる。画像処理部81は、励起光照射範囲R120と、検出範囲R110と、1回の主走査方向スキャンにかかる時間と、主走査方向スキャンの繰り返し周期と、読取処理での主走査方向スキャンの実行回数とに基づいて、センサ41からの画像信号に含まれる複数の輝度値のそれぞれに対して画素位置情報を対応付ける。なお、検出制御部85が、センサ41からの画像信号に含まれる複数の輝度値のそれぞれに対して画素位置情報を対応付けてもよい。 Here, in the reading process, the driving unit 50 moves the holding unit 20 in the sub-scanning direction DRs in accordance with the repetition of scanning in the main scanning direction. Specifically, the driving unit 50 moves the holding unit 20 in the sub-scanning direction DRs so that the entire area of the excitation light irradiation range R120 is irradiated with the excitation light L1 while the scanning in the main scanning direction is performed a predetermined number of times. Moving. Then, the sensor 41 sequentially outputs luminance values according to the irradiation position of the excitation light L1 in the detection range R110 according to the raster scan of the excitation light L1. In the reading process, since the reading device 1 operates as described above, the excitation light irradiation range R120, the detection range R110, the time required for one scan in the main scanning direction, the repetition period of the scan in the main scanning direction, and the reading If the number of scans in the main scanning direction in the process is known, it is possible to know the luminance value of the pixel at which position in the acquired overall image the luminance value output by the sensor 41 at a certain timing. The image processing unit 81 stores the excitation light irradiation range R120, the detection range R110, the time required for one scan in the main scanning direction, the repetition period of the scan in the main scanning direction, and the number of times the scan in the main scanning direction is executed in the reading process. , the pixel position information is associated with each of the plurality of luminance values included in the image signal from the sensor 41 . Note that the detection control unit 85 may associate pixel position information with each of a plurality of luminance values included in the image signal from the sensor 41 .

また、画像処理部81は、センサ41からの画像信号に対して画像処理を行う。画像処理部81は、例えば、画像処理後の画像信号と、それに含まれる各輝度値に対応付けた画素位置情報とを表示制御部82に出力する。表示制御部82は、例えば、画像処理後の画像信号と、当該画像信号の各輝度値に対応付けられた画素位置情報とに基づいて、検出放射線像を含む取得全体像を表示部3に表示させる。 Also, the image processing unit 81 performs image processing on the image signal from the sensor 41 . The image processing unit 81 outputs, for example, an image signal after image processing and pixel position information associated with each luminance value included in the image signal to the display control unit 82 . The display control unit 82 displays, on the display unit 3, the obtained whole image including the detected radiographic image, based on the image signal after the image processing and the pixel position information associated with each luminance value of the image signal, for example. Let

画像処理部81が行う画像処理には輝度反転処理が含まれてもよい。輝度反転処理とは、輝度反転処理が行われる前の画像信号の各輝度値に対して、当該輝度値が大きいほど小さくなるような変換を行う処理である。ここで、輝度値が取り得る範囲の最大値を輝度最大値と呼ぶ。例えば、輝度反転処理が行われる前の画像信号に含まれるある輝度値を、輝度最大値から差し引いて得られる値が、変換後の当該ある輝度値となる。画像信号に対して輝度反転処理が行われることによって、画像処理後の画像信号では、画像処理前の画像信号とは異なり、イメージングプレート10において蓄積エネルギーが小さい部分からの発光光L2の検出に基づく放射線像の輝度値は大きくなり、イメージングプレート10において蓄積エネルギーが大きい部分からの発光光L2の検出に基づく放射線像の輝度値は小さくなる。また、画像処理後の画像信号では、未露光領域像の輝度値及びIP外側領域像の輝度値は、検出放射線像の輝度値よりも大きくなる。 The image processing performed by the image processing unit 81 may include brightness inversion processing. The brightness reversal process is a process of converting each brightness value of the image signal before the brightness reversal process so that the larger the brightness value, the smaller the brightness value. Here, the maximum value of the possible range of luminance values is called the maximum luminance value. For example, a value obtained by subtracting a certain luminance value included in the image signal before luminance inversion processing from the maximum luminance value becomes the certain luminance value after conversion. By performing luminance inversion processing on the image signal, the image signal after image processing differs from the image signal before image processing based on the detection of emitted light L2 from a portion of the imaging plate 10 where the accumulated energy is small. The luminance value of the radiation image increases, and the luminance value of the radiation image based on the detection of the emitted light L2 from the portion of the imaging plate 10 where the accumulated energy is large decreases. Further, in the image signal after image processing, the luminance value of the unexposed area image and the luminance value of the IP outer area image are larger than the luminance value of the detected radiographic image.

なお、画像処理部81が行う画像処理には、輝度反転処理が含まれなくてもよいし、輝度反転処理以外の処理が含まれてもよい。画像処理には、輝度反転処理以外の処理として、例えば、オフセット補正及び対数変換が含まれてもよい。 Note that the image processing performed by the image processing unit 81 may not include the luminance inversion processing, or may include processing other than the luminance inversion processing. Image processing may include, for example, offset correction and logarithmic conversion as processing other than luminance inversion processing.

図10及び11は、輝度反転処理が行われる前の画像信号に基づく取得全体像(反転前全体像ともいう)100aの一例を示す概略図である。図12及び13は、輝度反転処理が行われた後の画像信号に基づく取得全体像(反転後全体像ともいう)100bの一例を示す概略図である。図10~13では、反転前全体像100a及び反転後全体像100bがグレースケールで示されている。図10~13では、像の輝度値が大きいほど、その像は明るく(言い換えれば白く)示され、像の輝度値が小さいほど、その像は暗く(言い換えれば黒く)示されている。なお、読取装置1で得られる像を示す後述の図についても同様である。 10 and 11 are schematic diagrams showing an example of an acquired global image (also referred to as a pre-reversal global image) 100a based on the image signal before luminance reversal processing is performed. 12 and 13 are schematic diagrams showing an example of an acquired overall image (also referred to as an inverted overall image) 100b based on the image signal after luminance inversion processing has been performed. In FIGS. 10-13, the pre-inverted global image 100a and the post-inverted global image 100b are shown in grayscale. In FIGS. 10 to 13, the image appears brighter (in other words, whiter) as the luminance value of the image increases, and the image appears darker (in other words, blacker) as the luminance value of the image decreases. The same applies to later-described figures showing images obtained by the reading device 1. FIG.

図10には、発光光L2の検出に基づく放射線像(言い換えれば検出放射線像)101aとIP外側領域像102aとを含む反転前全体像100aが示されている。図11には、放射線像101aと、IP外側領域像102aと、未露光領域像103aとを含む反転前全体像100aが示されている。図12には、放射線像101bとIP外側領域像102bとを含む反転後全体像100bが示されている。図13には、放射線像101bと、IP外側領域像102bと、未露光領域像103bとを含む反転後全体像100bが示されている。本例では、センサ41の検出範囲R110が長方形であることから、図10~13に示されるように、取得全体像の形状は長方形となる。 FIG. 10 shows a pre-inversion whole image 100a including a radiation image (in other words, a detection radiation image) 101a based on detection of the emitted light L2 and an IP outer region image 102a. FIG. 11 shows a pre-reversal overall image 100a including a radiation image 101a, an IP outer area image 102a, and an unexposed area image 103a. FIG. 12 shows an inverted overall image 100b including a radiation image 101b and an IP outer region image 102b. FIG. 13 shows an inverted overall image 100b including a radiation image 101b, an IP outer area image 102b, and an unexposed area image 103b. In this example, since the detection range R110 of the sensor 41 is rectangular, the shape of the obtained whole image is rectangular as shown in FIGS.

表示制御部82は、画像処理後の画像信号に基づいて反転後全体像100bを表示部3に表示させる場合、例えば、図12及び13に示されるようなグレースケールで反転後全体像100bを表示部3に表示させる。図12及び13は、反転後全体像100bの表示例を示す図であるともいえる。また、表示制御部82は、輝度反転処理が行われる前の画像信号に基づいて反転前全体像100aを表示部3に表示させる場合、例えば、図10及び11に示されるようなグレースケールで反転前全体像100aを表示部3に表示させる。図10及び11は、反転前全体像100aの表示例を示す図であるともいえる。 When the display control unit 82 causes the display unit 3 to display the post-reversal overall image 100b based on the image signal after the image processing, the display control unit 82 displays the post-reversal overall image 100b in grayscale as shown in FIGS. 12 and 13, for example. Display in part 3. 12 and 13 can also be said to be diagrams showing display examples of the post-reversal overall image 100b. Further, when the display control unit 82 causes the display unit 3 to display the pre-inversion whole image 100a based on the image signal before the luminance inversion processing is performed, the display control unit 82, for example, inverts the image in a gray scale as shown in FIGS. The front whole image 100a is displayed on the display unit 3. FIG. 10 and 11 can also be said to be diagrams showing display examples of the pre-reversal whole image 100a.

<読取装置の動作の一例>
図14は読取装置1の動作の一例を示すフローチャートを示す図である。筐体2の挿入口2aから挿入されたイメージングプレート10が保持部20で保持され、操作部4に含まれるスタートボタンが操作されると、図14のステップs1が実行される。スタートボタンの操作は、図14に示される一連の処理の開始指示操作であるともいえる。
<Example of reading device operation>
FIG. 14 is a diagram showing a flowchart showing an example of the operation of the reading device 1. As shown in FIG. When the imaging plate 10 inserted from the insertion opening 2a of the housing 2 is held by the holding portion 20 and the start button included in the operation portion 4 is operated, step s1 in FIG. 14 is executed. It can be said that the operation of the start button is an instruction to start the series of processes shown in FIG.

ステップs1では、駆動部50が、駆動制御部83による制御によって、保持部20を読取開始位置に移動させる。次にステップs2において、光測定器90が、イメージングプレート10から放射線像を読み取る読取処理を行う。次にステップs3において、駆動部50は、駆動制御部83による制御によって、保持部20を消去位置に移動させる。次にステップs4において、消去用光源70が、消去制御部87による制御によって、消去光L3をイメージングプレート10に照射することによって、イメージングプレート10から照射線像が消去される消去処理が行われる。次にステップs5において、駆動部50は、駆動制御部83による制御によって、保持部20を排出位置に移動させる。次にステップs6において、イメージングプレート10は筐体2の取出口2bに排出される。そしてステップs7において、表示部3は、表示制御部82による制御によって、取得全体像を表示する。ステップs7では、表示部3は、例えば、反転後全体像を図12及び13のようにグレースケール表示する。なお、ステップs7は、ステップs2の後であれば、いつでも実行されてもよい。例えば、ステップs7はステップs3とステップs4の間に実行されてもよい。 At step s1, the driving unit 50 moves the holding unit 20 to the reading start position under the control of the driving control unit 83. FIG. Next, in step s2, the optical measuring device 90 performs reading processing for reading a radiation image from the imaging plate 10. FIG. Next, in step s3, the driving section 50 moves the holding section 20 to the erasing position under the control of the driving control section 83. FIG. Next, in step s4, the erasing light source 70 irradiates the imaging plate 10 with the erasing light L3 under the control of the erasing control unit 87, thereby performing erasing processing in which the radiation image is erased from the imaging plate 10. FIG. Next, in step s5, the driving section 50 moves the holding section 20 to the ejection position under the control of the driving control section 83. As shown in FIG. Next, in step s6, the imaging plate 10 is ejected to the outlet 2b of the housing 2. FIG. Then, in step s7, the display unit 3 displays the obtained overall image under the control of the display control unit 82. FIG. In step s7, the display unit 3 displays the reversed whole image in grayscale as shown in FIGS. 12 and 13, for example. Note that step s7 may be executed at any time after step s2. For example, step s7 may be performed between steps s3 and s4.

<イメージングプレートの傾き角度の特定について>
画像処理部81は、例えば、イメージングプレート10の基準姿勢からの傾き角度(IP傾き角度ともいう)を特定する傾き角度特定処理を行ってもよい。画像処理部81は、傾き角度特定処理において、例えば、検出器40が出力する画像信号に基づいてIP傾き角度を特定する。画像処理部81はIP傾き角度を特定する特定部として機能する。以下に傾き角度特定処理の具体例について説明するが、傾き角度特定処理は下記の例に限られない。
<Identification of the tilt angle of the imaging plate>
The image processing unit 81 may perform, for example, an inclination angle specifying process of specifying an inclination angle (also referred to as an IP inclination angle) from the reference orientation of the imaging plate 10 . In the tilt angle identification process, the image processing unit 81 identifies the IP tilt angle, for example, based on the image signal output by the detector 40 . The image processing unit 81 functions as a specifying unit that specifies the IP tilt angle. A specific example of the tilt angle specifying process will be described below, but the tilt angle specifying process is not limited to the example below.

上述のように、本例の基準姿勢とは、イメージングプレート10の短手方向及び長手方向が主走査方向DRm及び副走査方向DRsにそれぞれ平行となるようなイメージングプレート10の姿勢である。保持部20がイメージングプレート10を適切に保持していない場合、保持部20で保持されたイメージングプレート10をその前面側から見ると、図15に示されるように、イメージングプレート10の長手方向(IP長手方向ともいう)が副走査方向DRsに対して傾いて、イメージングプレート10が基準姿勢に対して傾くことがある。言い換えれば、イメージングプレート10の短手方向(IP短手方向ともいう)が主走査方向DRmに対して傾いて、イメージングプレート10が基準姿勢に対して傾くことがある。図15では、基準姿勢のイメージングプレート10が破線で示されている。 As described above, the reference posture in this example is the posture of the imaging plate 10 in which the lateral direction and longitudinal direction of the imaging plate 10 are parallel to the main scanning direction DRm and the sub-scanning direction DRs, respectively. When the imaging plate 10 held by the holding part 20 is not properly held by the holding part 20, the imaging plate 10 held by the holding part 20 is viewed from the front side, as shown in FIG. (also referred to as the longitudinal direction) is tilted with respect to the sub-scanning direction DRs, and the imaging plate 10 may be tilted with respect to the reference posture. In other words, the lateral direction (also referred to as the IP lateral direction) of imaging plate 10 may be tilted with respect to main scanning direction DRm, and imaging plate 10 may be tilted with respect to the reference posture. In FIG. 15, the imaging plate 10 in the reference posture is indicated by broken lines.

本例では、IP傾き角度、つまりイメージングプレート10の基準姿勢からの傾き角度は、副走査方向DRsに対するIP長手方向の傾き角度と一致する。言い換えれば、IP傾き角度は、主走査方向DRmに対するIP短手方向の傾き角度と一致する。 In this example, the IP tilt angle, that is, the tilt angle of the imaging plate 10 from the reference orientation matches the tilt angle of the IP longitudinal direction with respect to the sub-scanning direction DRs. In other words, the IP tilt angle matches the tilt angle of the IP lateral direction with respect to the main scanning direction DRm.

一方で、センサ41の検出範囲R110(図7等参照)の長手方向は、センサ41からの画像信号に基づく取得全体像の長手方向に対応する。本例では、検出範囲R110の長手方向は副走査方向DRsに平行であることから、取得全体像の長手方向は、副走査方向DRsに対応しているといえる。したがって、イメージングプレート10の姿勢が基準姿勢である場合、取得全体像の長手方向と、取得全体像のうちのイメージングプレート10に相当する部分(IP相当部分ともいう)の長手方向とは、互いに一致する。一方で、イメージングプレート10が基準姿勢に対して傾いている場合、取得全体像のIP相当部分の長手方向は、取得全体像の長手方向に対して傾くことになる。言い換えれば、イメージングプレート10が基準姿勢に対して傾いている場合、取得全体像に含まれるIP相当部分の短手方向は、取得全体像の短手方向に対して傾くことになる。 On the other hand, the longitudinal direction of the detection range R110 (see FIG. 7 and the like) of the sensor 41 corresponds to the longitudinal direction of the overall image acquired based on the image signal from the sensor 41 . In this example, since the longitudinal direction of the detection range R110 is parallel to the sub-scanning direction DRs, it can be said that the longitudinal direction of the obtained whole image corresponds to the sub-scanning direction DRs. Therefore, when the posture of the imaging plate 10 is the reference posture, the longitudinal direction of the acquired entire image and the longitudinal direction of the portion corresponding to the imaging plate 10 (also referred to as the IP corresponding portion) of the acquired entire image match each other. do. On the other hand, when the imaging plate 10 is tilted with respect to the reference posture, the longitudinal direction of the IP-corresponding portion of the acquired overall image is tilted with respect to the longitudinal direction of the acquired overall image. In other words, when the imaging plate 10 is tilted with respect to the reference posture, the widthwise direction of the portion corresponding to the IP included in the acquired overall image is tilted with respect to the widthwise direction of the acquired overall image.

図16は、イメージングプレート10が基準姿勢に対して傾いている場合に得られる反転前全体像100aの一例を示す図である。図16の例では、反転前全体像100aに含まれるIP相当部分105aの長手方向は、反転前全体像100aの長手方向に対して傾いている。反転前全体像100aの長手方向に対するIP相当部分105aの長手方向の傾き角度は、IP傾き角度と一致する。 FIG. 16 is a diagram showing an example of a pre-inversion whole image 100a obtained when the imaging plate 10 is tilted with respect to the reference posture. In the example of FIG. 16, the longitudinal direction of the IP-corresponding portion 105a included in the pre-reversal whole image 100a is inclined with respect to the longitudinal direction of the pre-reversal whole image 100a. The tilt angle of the IP corresponding portion 105a in the longitudinal direction with respect to the longitudinal direction of the whole image 100a before reversal matches the IP tilt angle.

このように、本例では、取得全体像の長手方向に対するIP相当部分の長手方向の傾き角度は、IP傾き角度と一致する。そこで、画像処理部81は、センサ41からの画像信号に基づいて、取得全体像の長手方向に対するIP相当部分の長手方向の傾き角度を求める。そして、画像処理部81は、求めた傾き角度をIP傾き角度とする。以下にこの画像処理部81の動作について詳細に説明する。 Thus, in this example, the tilt angle in the longitudinal direction of the portion corresponding to the IP with respect to the longitudinal direction of the obtained entire image matches the IP tilt angle. Therefore, based on the image signal from the sensor 41, the image processing unit 81 obtains the inclination angle of the portion corresponding to the IP in the longitudinal direction with respect to the longitudinal direction of the obtained entire image. Then, the image processing unit 81 sets the obtained tilt angle as the IP tilt angle. The operation of this image processing unit 81 will be described in detail below.

傾き角度特定処理において、画像処理部81は、輝度反転処理が行われる前の画像信号(反転前の画像信号ともいう)に基づく反転前全体像を二値化して二値化像を生成する。画像処理部81は、まず、反転前の画像信信号に含まれる、反転前全体像の各輝度値と、予め設定されたしきい値とを比較する。そして、画像処理部81は、反転前全体像の各輝度値について、しきい値以上の輝度値を“1”に置き換え、しきい値未満の輝度値を“0”に置き換える。これにより、反転前全体像が二値化されて二値化像が得られる。 In the tilt angle specifying process, the image processing unit 81 binarizes the pre-inversion whole image based on the image signal before the luminance inversion process (also referred to as the image signal before inversion) to generate a binarized image. The image processing unit 81 first compares each luminance value of the pre-inversion whole image, which is included in the pre-inversion image signal, with a preset threshold value. Then, the image processing unit 81 replaces luminance values equal to or greater than the threshold value with "1" and substitutes luminance values less than the threshold value with "0" for each luminance value of the pre-reversal whole image. As a result, the whole image before reversal is binarized to obtain a binarized image.

二値化で使用されるしきい値は、例えば、反転前の画像信号に含まれるIP外側領域像の輝度値よりも大きく、かつ反転前の画像信号に含まれる未露光領域像の輝度値よりも小さい値に設定される。例えば、反転前の画像信号に含まれるIP外側領域像の輝度値が1000とし、反転前の画像信号に含まれる未露光領域像の輝度値が3000である場合を考える。この場合、しきい値は、例えば2000に設定される。しきい値は、例えば、実稼働前の読取装置1で得られた反転前の画像信号に基づいて設定され、読取装置1の画像処理部81に予め記憶される。なお、反転前の画像信号に含まれる検出放射線像の輝度値は、反転前の画像信号に含まれる未露光領域像の輝度値よりも大きくなることから(図11参照)、しきい値は、反転前の画像信号に含まれる検出放射線像の輝度値よりも小さくなる。 The threshold value used in binarization is, for example, greater than the luminance value of the IP outer area image included in the image signal before inversion and more than the luminance value of the unexposed area image included in the image signal before inversion. is also set to a small value. For example, consider a case where the brightness value of the IP outer area image included in the image signal before inversion is 1000 and the brightness value of the unexposed area image included in the image signal before inversion is 3000. FIG. In this case, the threshold is set to 2000, for example. The threshold value is set based on, for example, an image signal before reversal obtained by the reading device 1 before actual operation, and is stored in advance in the image processing section 81 of the reading device 1 . Since the luminance value of the detected radiation image contained in the image signal before inversion is greater than the luminance value of the unexposed area image contained in the image signal before inversion (see FIG. 11), the threshold value is It is smaller than the luminance value of the detected radiation image included in the image signal before inversion.

しきい値が上記のように設定されることによって、二値化像では、IP外側領域に相当する部分の各輝度値は“0”となる。また、イメージングプレート10に未露光部分が含まれているか否かにかかわらず、二値化像では、イメージングプレート10に相当する部分の各輝度値は“1”となる。 By setting the threshold values as described above, each luminance value of the portion corresponding to the IP outer region becomes "0" in the binarized image. Further, regardless of whether or not the imaging plate 10 includes an unexposed portion, each luminance value of the portion corresponding to the imaging plate 10 is "1" in the binarized image.

図17は二値化像500の一例を示す概略図である。図17には、図16に示される反転前全体像100aを二値化して得られた二値化像500が示されている。図17では、二値化像500において、輝度値が“1”の領域(高輝度領域ともいう)501は白で示され、輝度値が“0”の領域(低輝度領域ともいう)502は黒で示されている。図17から理解できるように、二値化像500では、高輝度領域501がイメージングプレート10に相当し、低輝度領域502がIP外側領域に相当する。高輝度領域501の外形は、イメージングプレート10の外形に応じた形状となる。 FIG. 17 is a schematic diagram showing an example of a binarized image 500. As shown in FIG. FIG. 17 shows a binarized image 500 obtained by binarizing the pre-inversion whole image 100a shown in FIG. In FIG. 17, in a binarized image 500, an area 501 with a luminance value of "1" (also called a high luminance area) is shown in white, and an area 502 with a luminance value of "0" (also called a low luminance area) is shown in white. Shown in black. As can be understood from FIG. 17, in the binarized image 500, the high brightness area 501 corresponds to the imaging plate 10, and the low brightness area 502 corresponds to the IP outer area. The outer shape of the high-brightness region 501 has a shape corresponding to the outer shape of the imaging plate 10 .

ここで、二値化像500に含まれる高輝度領域501は、反転前全体像100aに含まれるIP相当部分105aに対応する。画像処理部81は、傾き角度特定処理において、生成した二値化像500に含まれる高輝度領域501を構成する複数の画素の位置を分析対象データとして主成分分析を行って、分析対象データについての第1主成分軸を求める。 Here, a high brightness area 501 included in the binarized image 500 corresponds to the IP equivalent portion 105a included in the pre-inversion whole image 100a. In the tilt angle specifying process, the image processing unit 81 performs principal component analysis on the positions of a plurality of pixels forming the high-brightness region 501 included in the generated binarized image 500 as data to be analyzed. Find the first principal component axis of

主成分分析において、画像処理部81は、二値化像500に含まれる高輝度領域501の重心501a(図17参照)を求める。そして、画像処理部81は、図17に示されるように、重心501aを原点とするXY座標系を二値化像500に対して設定する。このとき、X軸は反転前全体像100aの長手方向に平行とし、Y軸は反転前全体像100aの短手方向に平行とする。後述するように、画像処理部81は、XY座標系を重心501aを中心にして回転させる。本例では、XY座標系の右回りの回転角度をプラスとし、XY座標系の左回りの回転角度をマイナスとする。X軸が反転前全体像100aの長手方向に平行であり、かつY軸が反転前全体像100aの短手方向に平行であるXY座標系の姿勢を初期姿勢と呼ぶ。 In the principal component analysis, the image processing unit 81 obtains the center of gravity 501a (see FIG. 17) of the high brightness area 501 included in the binarized image 500. FIG. Then, the image processing unit 81 sets an XY coordinate system with the center of gravity 501a as the origin for the binarized image 500, as shown in FIG. At this time, the X-axis is parallel to the longitudinal direction of the pre-reversal overall image 100a, and the Y-axis is parallel to the lateral direction of the pre-reversal overall image 100a. As will be described later, the image processing unit 81 rotates the XY coordinate system around the center of gravity 501a. In this example, the clockwise rotation angle of the XY coordinate system is positive, and the counterclockwise rotation angle of the XY coordinate system is negative. The orientation of the XY coordinate system in which the X axis is parallel to the longitudinal direction of the pre-reversal overall image 100a and the Y axis is parallel to the lateral direction of the pre-reversal overall image 100a is called an initial posture.

画像処理部81は、初期姿勢のXY座標系を二値化像500に対して設定すると、高輝度領域501を構成する複数の画素のそれぞれについて、当該画素の位置510からY軸に下ろした垂線の長さLを求める。次に、画像処理部81は、高輝度領域501を構成する複数の画素についてそれぞれ求めた複数の長さLの分散を求める。この分散を、初期姿勢のときの分散と呼ぶ。 When the image processing unit 81 sets the XY coordinate system of the initial posture for the binarized image 500, for each of the plurality of pixels forming the high-brightness region 501, a vertical line drawn from the pixel position 510 to the Y axis Find the length L of Next, the image processing unit 81 obtains the variance of the plurality of lengths L obtained for the plurality of pixels forming the high-brightness region 501 . This variance is called the variance in the initial posture.

画像処理部81は、XY座標系を重心501aを中心にして初期姿勢から右回り520Rに例えば0.1度ずつ回転させ、XY座標系を0.1度回転させるたびに同様にして複数の長さLの分散を求める右回り処理を行う。右回り処理において、画像処理部81は、XY座標系を右回り520Rに最終的に例えば90度回転させる。また、画像処理部81は、XY座標系を重心501aを中心にして初期姿勢から左回り520Lに例えば0.1度ずつ回転させ、XY座標系を0.1度回転させるたびに同様にして複数の長さLの分散を求める左回り処理を行う。左回り処理において、画像処理部81は、XY座標系を左回り520Lに最終的に例えば90度回転させる。 The image processing unit 81 rotates the XY coordinate system about the center of gravity 501a clockwise 520R from the initial posture by 0.1 degrees, for example, and similarly rotates the XY coordinate system by 0.1 degrees. A clockwise process is performed to find the variance of L. In the clockwise processing, the image processing unit 81 finally rotates the XY coordinate system clockwise 520R, for example, by 90 degrees. Further, the image processing unit 81 rotates the XY coordinate system about the center of gravity 501a from the initial posture counterclockwise 520L, for example, by 0.1 degrees each time the XY coordinate system is rotated by 0.1 degrees. Perform counterclockwise processing to find the variance of length L of . In the counterclockwise process, the image processing unit 81 finally rotates the XY coordinate system counterclockwise 520L by, for example, 90 degrees.

画像処理部81は、右回り処理及び左回り処理を実行すると、右回り処理及び左回り処理において得られた複数の分散と初期姿勢のときの分散のうちの最小値を特定する。そして、画像処理部81は、特定した最小値が得られたときのXY座標系のY軸を第1主成分軸とする。第1主成分軸は、高輝度領域501を構成する複数の画素の位置から、それに下ろした垂線の長さの分散が最小となるような軸であると言える。以後、第1主成分軸に垂直であり、かつ重心501aを通る軸を、第2主成分軸と呼ぶことがある。また、右回り処理及び左回り処理において得られる複数の分散と初期姿勢のときの分散のうちの最小値が得られたときのXY座標系を、分散最小姿勢のXY座標系と呼ぶことがある。 After executing the clockwise and counterclockwise processing, the image processing unit 81 specifies the minimum value among the plurality of variances obtained in the clockwise and counterclockwise processing and the variance in the initial posture. Then, the image processing unit 81 sets the Y axis of the XY coordinate system when the specified minimum value is obtained as the first principal component axis. The first principal component axis can be said to be the axis that minimizes the variance of the lengths of perpendicular lines drawn from the positions of the plurality of pixels forming the high-brightness region 501 . Hereinafter, an axis that is perpendicular to the first principal component axis and that passes through the center of gravity 501a may be referred to as a second principal component axis. Also, the XY coordinate system in which the minimum value among the multiple variances obtained in the clockwise and counterclockwise processing and the variance in the initial posture is obtained is sometimes called the XY coordinate system of the minimum variance posture. .

図18は、図17に示される二値化像500から得られた第1主成分軸551を示す概略図である。図18には、初期姿勢のXY座標系のY軸が破線で示されている。図18に示されるように、第1主成分軸551は高輝度領域501の長手方向に一致する。画像処理部81は、第1主成分軸551を求めると、第1主成分軸551と一致するY軸を有するXY座標系、つまり分散最小姿勢のXY座標系についての初期姿勢からの回転角度αを求める。そして、画像処理部81は、求めた回転角度αを、取得全体像の長手方向に対するIP相当部分の長手方向の傾き角度αとする。初期姿勢のXY座標系のY軸は取得全体像の長手方向に対応し、第1主成分軸551(言い換えれば、分散最小姿勢のXY座標系のY軸)は取得全体像に含まれるIP相当部分の長手方向に対応する。したがって、回転角度αは、取得全体像の長手方向に対するIP相当部分の長手方向の傾き角度であると言える。分散最小姿勢のXY座標系が右回り処理において得られる場合には、回転角度αはプラスの値を示し、分散最小姿勢のXY座標系が左回り処理において得られる場合には、回転角度αはマイナスの値を示す。そして、分散最小姿勢のXY座標系が初期姿勢のXY座標系と一致する場合には、回転角度αは零となる。 FIG. 18 is a schematic diagram showing the first principal component axis 551 obtained from the binarized image 500 shown in FIG. In FIG. 18, the Y-axis of the XY coordinate system in the initial posture is indicated by a dashed line. As shown in FIG. 18 , the first principal component axis 551 coincides with the longitudinal direction of the high brightness region 501 . After obtaining the first principal component axis 551, the image processing unit 81 obtains the rotation angle α Ask for Then, the image processing unit 81 sets the obtained rotation angle α to the longitudinal direction inclination angle α of the portion corresponding to the IP with respect to the longitudinal direction of the obtained entire image. The Y axis of the XY coordinate system of the initial posture corresponds to the longitudinal direction of the acquired whole image, and the first principal component axis 551 (in other words, the Y axis of the XY coordinate system of the minimum variance posture) corresponds to the IP included in the acquired whole image. Corresponds to the longitudinal direction of the part. Therefore, it can be said that the rotation angle α is the inclination angle of the portion corresponding to the IP in the longitudinal direction with respect to the longitudinal direction of the acquired entire image. When the XY coordinate system of the minimum variance attitude is obtained in clockwise processing, the rotation angle α indicates a positive value, and when the XY coordinate system of the minimum variance attitude is obtained in counterclockwise processing, the rotation angle α is Indicates a negative value. Then, when the XY coordinate system of the minimum variance attitude matches the XY coordinate system of the initial attitude, the rotation angle α becomes zero.

画像処理部81は、以上のようにして、取得全体像の二値化像500から取得全体像の長手方向に対するIP相当部分の長手方向の傾き角度αを求めると、求めた傾き角度αをIP傾き角度αとする。イメージングプレート10をその前面側から平面視した場合、IP傾き角度αがプラスのときには、イメージングプレート10は基準姿勢に対して右回りに傾斜し、IP傾き角度αがマイナスのときは、イメージングプレート10は基準姿勢に対して左回りに傾斜している。以後、イメージングプレート10の傾きに関して、単に右回りと言えば、イメージングプレート10をその前面側から見たときの右回りを意味し、単に左回りと言えば、イメージングプレート10をその前面側から見たときの左回りを意味する。 When the image processing unit 81 obtains the tilt angle α in the longitudinal direction of the portion corresponding to the IP with respect to the longitudinal direction of the obtained whole image from the binarized image 500 of the obtained whole image as described above, the image processing unit 81 converts the obtained tilt angle α to the IP Let the tilt angle be α. When the imaging plate 10 is viewed from the front side, the imaging plate 10 tilts clockwise with respect to the reference posture when the IP tilt angle α is positive, and the imaging plate 10 tilts clockwise when the IP tilt angle α is negative. is inclined counterclockwise with respect to the reference posture. Hereinafter, with respect to the tilt of the imaging plate 10, the term "clockwise rotation" means the clockwise rotation when the imaging plate 10 is viewed from its front side, and the term "counterclockwise rotation" simply refers to the clockwise rotation when the imaging plate 10 is viewed from its front side. means counterclockwise rotation when

以上のような傾き角度特定処理は、上述の図14に示される一連の処理の中で実行されてもよいし、図14に示される処理とは別のタイミングで実行されてもよい。また、画像処理部81で求められたIP傾き角度は表示部3で表示されてもよい。このとき、表示部3は、IP傾き角度を、例えば上述のステップs7において取得全体像と同時に表示してもよいし、取得全体像を表示しないときに表示してもよい。 The tilt angle specifying process as described above may be executed during the series of processes shown in FIG. 14 described above, or may be executed at a timing different from the process shown in FIG. Also, the IP tilt angle obtained by the image processing unit 81 may be displayed on the display unit 3 . At this time, the display unit 3 may display the IP tilt angle at the same time as the obtained overall image in step s7 described above, or may display the obtained overall image when not displaying the obtained overall image.

このように、本例では、画像処理部81は、イメージングプレート10からの発光光L2及び反射光の検出結果としての画像信号に基づいてIP傾き角度を特定していることから、IP傾き角度を適切に特定することができる。 As described above, in this example, the image processing unit 81 identifies the IP tilt angle based on the image signal as the detection result of the emitted light L2 and the reflected light from the imaging plate 10. Therefore, the IP tilt angle is can be properly identified.

例えば、センサ41が反射光を検出できない場合であって、イメージングプレート10に未露光部分が含まれる場合を考える。この場合、センサ41からの画像信号に基づく反転前全体像に含まれる未露光領域像及びIP外側領域像の各輝度値は零となる。したがって、反転前全体像を二値化して得られる二値化像500では、未露光領域像及びIP外側領域像に相当する部分の輝度値はすべて“0”となり、未露光領域像及びIP外側領域像に相当する部分はすべて低輝度領域502となる。よって、イメージングプレート10に未露光部分が含まれる場合、二値化像500の高輝度領域501には、未露光部分に相当する部分が含まれなくなり、高輝度領域501は、反転前全体像に含まれるIP相当部分に対応しなくなる。つまり、イメージングプレート10に未露光部分が含まれる場合、高輝度領域501の外形は、イメージングプレート10の外形に応じた形状にならない。このため、画像処理部81は、高輝度領域501について主成分分析を行った場合、イメージングプレート10の長手方向に対応する第1主成分軸を求めることができず、取得全体像の長手方向に対するIP相当部分の長手方向の傾き角度を適切に求めることができない可能性がある。 For example, consider the case where the sensor 41 cannot detect reflected light and the imaging plate 10 includes an unexposed portion. In this case, the brightness values of the unexposed area image and the IP outer area image included in the pre-reversal whole image based on the image signal from the sensor 41 are zero. Therefore, in the binarized image 500 obtained by binarizing the whole image before reversal, the luminance values of the portions corresponding to the unexposed area image and the IP outside area image are all "0", and the unexposed area image and the IP outside area image are all "0". All the portions corresponding to the area image become the low luminance area 502 . Therefore, when the imaging plate 10 includes an unexposed portion, the high-brightness region 501 of the binarized image 500 does not include the portion corresponding to the unexposed portion, and the high-brightness region 501 is the whole image before inversion. It no longer corresponds to the included IP equivalent part. In other words, if the imaging plate 10 includes an unexposed portion, the outer shape of the high-brightness region 501 does not conform to the outer shape of the imaging plate 10 . Therefore, when the principal component analysis is performed on the high luminance region 501, the image processing unit 81 cannot obtain the first principal component axis corresponding to the longitudinal direction of the imaging plate 10. There is a possibility that the tilt angle in the longitudinal direction of the IP-corresponding portion cannot be obtained appropriately.

これに対して、本例では、センサ41は反射光をある程度検出することができ、画像処理部81は、イメージングプレート10からの発光光L2及び反射光の検出結果としての画像信号に基づく反転前全体像を二値化して二値化像500を生成している。そのため、二値化像500では、イメージングプレート10に未露光部分が含まれている場合であっても、図17及び18に示されるように、高輝度領域501は、反転前全体像に含まれるIP相当部分に対応するようになる。つまり、高輝度領域501の外形は、イメージングプレート10の外形の応じた形状となる。これにより、画像処理部81は、高輝度領域501について主成分分析を行った場合、イメージングプレート10の長手方向に対応する第1主成分軸を求めることができ、取得全体像の長手方向に対するIP相当部分の長手方向の傾き角度を適切に求めることができる。よって、画像処理部81はIP傾き角度を適切に特定することができる。 On the other hand, in this example, the sensor 41 can detect the reflected light to some extent, and the image processing unit 81 detects the emitted light L2 from the imaging plate 10 and the image signal as the detection result of the reflected light. A binarized image 500 is generated by binarizing the entire image. Therefore, in the binarized image 500, even if the imaging plate 10 includes an unexposed portion, as shown in FIGS. It comes to correspond to the IP equivalent part. That is, the outer shape of the high-brightness region 501 has a shape corresponding to the outer shape of the imaging plate 10 . As a result, the image processing unit 81 can obtain the first principal component axis corresponding to the longitudinal direction of the imaging plate 10 when principal component analysis is performed on the high luminance region 501, and the IP The inclination angle of the corresponding portion in the longitudinal direction can be obtained appropriately. Therefore, the image processing unit 81 can appropriately specify the IP tilt angle.

<イメージングプレートのサイズの特定について>
画像処理部81は、例えば、イメージングプレート10のサイズ(IPサイズともいう)を特定するサイズ特定処理を行ってもよい。画像処理部81は、サイズ特定処理において、例えば、検出器40が出力する画像信号に基づいてIPサイズを特定する。画像処理部81はIPサイズを特定する特定部として機能する。以下にサイズ特定処理の具体例について説明するが、サイズ特定処理は以下の例に限られない。
<Specifying the size of the imaging plate>
The image processing unit 81 may perform, for example, size identification processing for identifying the size (also referred to as IP size) of the imaging plate 10 . In the size identification process, the image processing unit 81 identifies the IP size, for example, based on the image signal output by the detector 40 . The image processing unit 81 functions as a specifying unit that specifies the IP size. A specific example of the size identification process will be described below, but the size identification process is not limited to the following example.

画像処理部81は、例えば、上記と同様にして、反転前の画像信号に基づく反転前全体像を二値化して二値化像500を生成する。そして、画像処理部81は、生成した二値化像500に基づいてIPサイズを特定する。例えば、画像処理部81は、イメージングプレート10の長手方向のサイズ(長手サイズともいう)と、イメージングプレート10の短手方向のサイズ(短手サイズともいう)とを数値で特定する。 For example, the image processing unit 81 binarizes the pre-inversion whole image based on the pre-inversion image signal to generate the binarized image 500 in the same manner as described above. The image processing unit 81 then identifies the IP size based on the generated binarized image 500 . For example, the image processing unit 81 numerically specifies the size of the imaging plate 10 in the longitudinal direction (also referred to as the longitudinal size) and the size of the imaging plate 10 in the lateral direction (also referred to as the lateral size).

画像処理部81は、IPサイズを特定する場合、上記と同様にして、二値化像500に含まれる高輝度領域501を構成する複数の画素の位置を分析対象データとして主成分分析を行って、分析対象データについての第1主成分軸551を求める。そして、画像処理部81は、第1主成分軸551に垂直であって、重心501aを通る第2主成分軸552を求める。 When specifying the IP size, the image processing unit 81 performs principal component analysis on the positions of the plurality of pixels forming the high-brightness region 501 included in the binarized image 500 as data to be analyzed in the same manner as described above. , the first principal component axis 551 for the data to be analyzed is determined. Then, the image processing unit 81 obtains a second principal component axis 552 that is perpendicular to the first principal component axis 551 and passes through the center of gravity 501a.

図19は第1主成分軸551及び第2主成分軸552の一例を示す概略図である。図19には、上述の図10に示される反転前全体像100aを二値化して得られた二値化像500と、当該二値化像500に基づいて求められた第1主成分軸551及び第2主成分軸552とが示されている。第1主成分軸551は、イメージングプレート10に相当する高輝度領域501の長手方向と平行である。また、第2主成分軸552は高輝度領域501の短手方向と平行である。 FIG. 19 is a schematic diagram showing an example of the first principal component axis 551 and the second principal component axis 552. FIG. FIG. 19 shows a binarized image 500 obtained by binarizing the whole image 100a before reversal shown in FIG. and a second principal component axis 552 are shown. The first principal component axis 551 is parallel to the longitudinal direction of the high luminance region 501 corresponding to the imaging plate 10 . Also, the second principal component axis 552 is parallel to the short direction of the high luminance region 501 .

図19に示されるように、画像処理部81は、高輝度領域501の第1主成分軸551に沿った画素数(長手方向の画素数ともいう)N1を求める。また、画像処理部81は、高輝度領域501の第2主成分軸552に沿った画素数(短手方向の画素数ともいう)N2を求める。そして、画像処理部81は、長手方向の画素数N1に基づいてイメージングプレート10の長手サイズを求め、短手方向の画素数N2に基づいてイメージングプレート10の短手サイズを求める。 As shown in FIG. 19, the image processing unit 81 obtains the number of pixels (also referred to as the number of pixels in the longitudinal direction) N1 along the first principal component axis 551 of the high luminance region 501 . The image processing unit 81 also obtains the number of pixels along the second principal component axis 552 (also referred to as the number of pixels in the lateral direction) N2 of the high luminance area 501 . Then, the image processing unit 81 obtains the longitudinal size of the imaging plate 10 based on the number N1 of pixels in the longitudinal direction, and obtains the lateral size of the imaging plate 10 based on the number N2 of pixels in the lateral direction.

ここで、本例では、センサ41の検出範囲R110において一辺がMmmの正方形の領域が、取得全体像及び二値化像500の1画素に相当する。Mmmは例えば0.03mm程度である。画像処理部81は、Mmmに対して長手方向の画素数N1を掛け合わせて得られる長さを、イメージングプレート10の長手サイズとする。また、画像処理部81は、Mmmに対して短手方向の画素数N2を掛け合わせて得られる長さを、イメージングプレート10の短手サイズとする。以後、イメージングプレート10について画像処理部81が求めた長手サイズ及び短手サイズをそれぞれ特定長手サイズ及び特定短手サイズと呼ぶことがある。 Here, in this example, a square region with a side of M mm in the detection range R110 of the sensor 41 corresponds to one pixel of the acquired whole image and the binarized image 500 . Mmm is, for example, about 0.03 mm. The image processing unit 81 sets the length obtained by multiplying M mm by the number of pixels N1 in the longitudinal direction as the longitudinal size of the imaging plate 10 . In addition, the image processing unit 81 sets the length obtained by multiplying M mm by the number of pixels N2 in the short side direction as the short side size of the imaging plate 10 . Hereinafter, the lengthwise size and the widthwise size obtained by the image processing unit 81 for the imaging plate 10 may be referred to as the specific lengthwise size and the widthwise size, respectively.

画像処理部81は、サイズ特定処理において、イメージングプレート10の主面の面積(主面面積ともいう)を数値で特定してもよい。この場合、画像処理部81は、高輝度領域501を構成する複数の画素の総数に対して、Mmmの二乗を掛け合わせて得られる値を、イメージングプレート10の主面面積としてもよい。主面面積は、イメージングプレート10の前面の面積であるともいえるし、イメージングプレート10の裏面の面積であるともいえる。以後、イメージングプレート10について画像処理部81が求めた主面面積を特定主面面積あるいは特定面積と呼ぶことがある。 In the size identification process, the image processing section 81 may numerically identify the area of the main surface of the imaging plate 10 (also referred to as the main surface area). In this case, the image processing unit 81 may set the principal surface area of the imaging plate 10 to a value obtained by multiplying the total number of pixels forming the high-brightness region 501 by the square of Mmm. The principal surface area can be said to be the area of the front surface of the imaging plate 10 or the area of the rear surface of the imaging plate 10 . Hereinafter, the main surface area obtained by the image processing unit 81 for the imaging plate 10 may be referred to as a specific main surface area or a specific area.

図20及び21は、特定長手サイズ、特定短手サイズ及び特定主面面積の一例を示す図である。図20には、上述の図10に示される反転前全体像100aの二値化像500に基づいて特定された長手サイズ、短手サイズ及び主面面積が示されている。図21には、上述の図11に示される反転前全体像100aの二値化像500に基づいて特定された長手サイズ、短手サイズ及び主面面積が示されている。 20 and 21 are diagrams showing examples of the specific longitudinal size, the specific lateral size, and the specific main surface area. FIG. 20 shows the lengthwise size, widthwise size, and main surface area specified based on the binarized image 500 of the pre-reversal whole image 100a shown in FIG. 10 described above. FIG. 21 shows the lengthwise size, widthwise size, and main surface area specified based on the binarized image 500 of the pre-reversal whole image 100a shown in FIG. 11 described above.

ここで、図10及び11には、基準姿勢から若干傾いた状態のイメージングプレート10に対して励起光L1が照射されることによって得られた反転前全体像100aが示されている。図20には、図10に示される反転前全体像100aの二値化像500から特定されたIP傾き角度も示されており、図21には、図11に示される反転前全体像100aの二値化像500から特定されたIP傾き角度も示されている。 Here, FIGS. 10 and 11 show a pre-reversal whole image 100a obtained by irradiating the imaging plate 10 slightly tilted from the reference posture with the excitation light L1. FIG. 20 also shows the IP tilt angle specified from the binarized image 500 of the pre-reversal whole image 100a shown in FIG. 10, and FIG. The IP tilt angle identified from the binarized image 500 is also shown.

図20及び21から理解できるように、反転前全体像100aに未露光領域像103aが含まれない場合の特定長手サイズ、特定短手サイズ及び特定主面面積と、反転前全体像100aに未露光領域像103aが含まれる場合の特定長手サイズ、特定短手サイズ及び特定主面面積とは、ほぼ同じとなる。画像処理部81は、反転前全体像100aに未露光領域像103aが含まれているか否かにかかわらず、イメージングプレート10の長手サイズ、短手サイズ及び主面面積を適切に特定することができる。 As can be understood from FIGS. 20 and 21, when the unexposed area image 103a is not included in the pre-reversal overall image 100a, the specific longitudinal size, the specific lateral size, and the specific main surface area, and the pre-reversal overall image 100a are unexposed. When the area image 103a is included, the specific longitudinal size, the specific lateral size, and the specific main surface area are substantially the same. The image processing unit 81 can appropriately specify the longitudinal size, the lateral size, and the main surface area of the imaging plate 10 regardless of whether the unexposed area image 103a is included in the pre-reversal whole image 100a. .

画像処理部81は、サイズ特定処理において、イメージングプレート10のサイズの種類を特定してもよい。本例では、イメージングプレート10のサイズとして複数種類のサイズが用意されている。読取装置1において、保持部20は、複数種類のサイズのイメージングプレート10のそれぞれを保持することが可能である。そして、読取装置1は、複数種類のサイズのイメージングプレート10のそれぞれから放射線像を読み取ることができる。 The image processing unit 81 may specify the type of size of the imaging plate 10 in the size specifying process. In this example, a plurality of sizes are prepared as the size of the imaging plate 10 . In the reading device 1, the holding section 20 can hold each of the imaging plates 10 of different sizes. The reading device 1 can read radiation images from each of the imaging plates 10 of a plurality of sizes.

図22はイメージングプレート10のサイズの種類(IPサイズの種類ともいう)の一例を示す図である。IPサイズの種類として、例えば、サイズ0、サイズ1、サイズ2及びサイズ3の4種類が用意されている。ここで、各種類のサイズでのイメージングプレート10の短手サイズ及び長手サイズをそれぞれ公称短手サイズ及び公称長手サイズと呼ぶ。 FIG. 22 is a diagram showing an example of types of sizes of the imaging plate 10 (also referred to as types of IP sizes). As types of IP size, for example, four types of size 0, size 1, size 2, and size 3 are prepared. Here, the short side size and the long side size of the imaging plate 10 in each kind of size are called the nominal short side size and the nominal long side size, respectively.

サイズ0の公称短手サイズ及び公称長手サイズは、それぞれ22mm及び31mmとなっている。サイズ1の公称短手サイズ及び公称長手サイズは、それぞれ24mm及び40mmとなっている。サイズ2の公称短手サイズ及び公称長手サイズは、それぞれ31mm及び41mmとなっている。そして、サイズ3の公称手サイズ及び公称長手サイズは、それぞれ27mm及び54mmとなっている。なお、公称短手サイズと公称長手サイズを掛け合わせて得られる値を公称主面面積あるいは公称面積と呼ぶ。 The nominal short side size and nominal long side size of size 0 are 22 mm and 31 mm, respectively. The nominal short side size and nominal long side size of size 1 are 24 mm and 40 mm, respectively. The nominal short side size and nominal long side size of size 2 are 31 mm and 41 mm, respectively. The nominal hand size and nominal longitudinal size of size 3 are 27 mm and 54 mm, respectively. A value obtained by multiplying the nominal width size and the nominal length size is called a nominal main surface area or a nominal area.

画像処理部81は、例えば、イメージングプレート10の特定短手サイズ、特定長手サイズ及ぶ特定主面面積に基づいて、当該イメージングプレート10のサイズの種類を特定する。例えば、画像処理部81は、特定短手サイズがサイズ0の公称短手サイズと近く、特定長手サイズがサイズ0の公称長手サイズと近く、特定面積がサイズ0の公称面積と近い場合、IPサイズの種類がサイズ0であると判定する。 The image processing unit 81 identifies the type of size of the imaging plate 10 based on, for example, the specific lateral size, the specific longitudinal size, and the specific main surface area of the imaging plate 10 . For example, if the specific width size is close to the nominal width size of size 0, the specific length size is close to the nominal length size of size 0, and the specific area is close to the nominal size of size 0, the image processing unit 81 determines that the IP size type is size 0.

画像処理部81は、例えば、サイズ0の公称短手サイズよりも少し小さい第1しきい値と、サイズ0の公称短手サイズよりも少し大きい第2しきい値とを用いて、特定短手サイズがサイズ0の公称短手サイズと近いか否かを判定する。例えば、画像処理部81は、特定短手サイズが、第1しきい値よりも大きくかつ第2しきい値よりも小さい場合、特定短手サイズがサイズ0の公称短手サイズと近いと判定する。 For example, the image processing unit 81 uses a first threshold that is slightly smaller than the nominal short length size of size 0 and a second threshold that is slightly larger than the nominal short length size of size 0 to determine the specific short length. Determine whether the size is close to the nominal short side size of size 0. For example, when the specific short length size is larger than the first threshold value and smaller than the second threshold value, the image processing unit 81 determines that the specific short length size is close to the nominal short length size of size 0. .

また、画像処理部81は、例えば、サイズ0の公称長手サイズよりも少し小さい第3しきい値と、サイズ0の公称長手サイズよりも少し大きい第4しきい値とを用いて、特定長手サイズがサイズ0の公称長手サイズと近いか否かを判定する。例えば、画像処理部81は、特定長手サイズが、第3しきい値よりも大きくかつ第4しきい値よりも小さい場合、特定長手サイズがサイズ0の公称長手サイズと近いと判定する。 Further, the image processing unit 81 uses, for example, a third threshold that is slightly smaller than the nominal longitudinal size of size 0 and a fourth threshold that is slightly larger than the nominal longitudinal size of size 0, to determine the specified longitudinal size. is close to the nominal longitudinal size of size 0. For example, when the specific longitudinal size is larger than the third threshold value and smaller than the fourth threshold value, the image processing unit 81 determines that the specific longitudinal size is close to the nominal longitudinal size of size 0.

また、画像処理部81は、例えば、サイズ0の公称面積よりも少し小さい第5しきい値と、サイズ0の公称面積よりも少し大きい第6しきい値とを用いて、特定面積がサイズ0の公称面積と近いか否かを判定する。例えば、画像処理部81は、特定面積が、第5しきい値よりも大きくかつ第6しきい値よりも小さい場合、特定面積がサイズ0の公称面積と近いと判定する。 Further, the image processing unit 81 uses, for example, a fifth threshold that is slightly smaller than the nominal area of size 0 and a sixth threshold that is slightly larger than the nominal area of size 0, to determine whether the specific area is size 0. is close to the nominal area of For example, when the specific area is larger than the fifth threshold and smaller than the sixth threshold, the image processing section 81 determines that the specific area is close to the nominal area of size 0.

同様に、画像処理部81は、例えば、特定短手サイズがサイズ1の公称短手サイズと近く、特定長手サイズがサイズ1の公称長手サイズと近く、特定主面面積がサイズ1の公称主面面積と近い場合、IPサイズの種類がサイズ1であると判定する。 Similarly, the image processing unit 81 determines, for example, that the specific transverse size is close to the nominal transverse size of size 1, the specific longitudinal size is close to the nominal longitudinal size of size 1, and the specific principal surface area is the nominal principal surface of size 1. If it is close to the area, it is determined that the type of IP size is size 1.

同様に、画像処理部81は、例えば、特定短手サイズがサイズ2の公称短手サイズと近く、特定長手サイズがサイズ2の公称長手サイズと近く、特定主面面積がサイズ2の公称主面面積と近い場合、IPサイズの種類がサイズ2であると判定する。 Similarly, the image processing unit 81 determines, for example, that the specific transverse size is close to the nominal transverse size of size 2, the specific longitudinal size is close to the nominal longitudinal size of size 2, and the specific principal surface area is the nominal principal surface of size 2. If it is close to the area, it is determined that the type of IP size is size 2.

同様に、画像処理部81は、例えば、特定短手サイズがサイズ3の公称短手サイズと近く、特定長手サイズがサイズ3の公称長手サイズと近く、特定主面面積がサイズ3の公称主面面積と近い場合、IPサイズの種類がサイズ3であると判定する。 Similarly, the image processing unit 81 determines, for example, that the specific transverse size is close to the nominal transverse size of size 3, the specific longitudinal size is close to the nominal longitudinal size of size 3, and the specific principal surface area is the nominal principal surface of size 3. If it is close to the area, it is determined that the type of IP size is size 3.

なお、図10及び11には、サイズ2のイメージングプレート10に対して励起光L1が照射されることによって得られた反転前全体像100aが示されている。したがって、図21及び22に示される特定短手サイズ及び特定長手サイズは、サイズ2のイメージングプレート10の公称短手サイズ及び公称長手サイズにそれぞれ近い値となっている。よって、図10及び11に示される反転前全体像100aに基づいてIPサイズの種類が特定される場合、サイズ3が特定される。 10 and 11 show a pre-inversion whole image 100a obtained by irradiating the size 2 imaging plate 10 with the excitation light L1. Therefore, the specific short side size and specific long side size shown in FIGS. 21 and 22 are close to the nominal short side size and nominal long side size of the size 2 imaging plate 10, respectively. Therefore, when the type of IP size is specified based on the pre-reversal whole image 100a shown in FIGS. 10 and 11, size 3 is specified.

以上のようなサイズ特定処理は、上述の図14に示される一連の処理の中で実行されてもよいし、図14に示される処理とは別のタイミングで実行されてもよい。また、表示部3は、例えば、画像処理部81が特定した短手サイズ、長手サイズ、主面面積及びIPサイズの種類の少なくとも一つを表示してもよい。この場合、表示部3は、短手サイズ、長手サイズ、主面面積及びIPサイズの種類の少なくとも一つを、例えば上述のステップs7において取得全体像と同時に表示してもよいし、取得全体像を表示しないときに表示してもよい。また、表示部3は、短手サイズ、長手サイズ、主面面積及びIPサイズの種類の少なくとも一つを、IP傾き角度と同時に表示してもよいし、IP傾き角度を表示しないときに表示してもよい。また、表示部3は、短手サイズ、長手サイズ、主面面積及びIPサイズの種類の少なくとも二つを同時に表示してもよい。 The size specifying process as described above may be executed during the series of processes shown in FIG. 14 described above, or may be executed at a timing different from the process shown in FIG. In addition, the display unit 3 may display at least one of the short size, the long size, the main surface area, and the IP size specified by the image processing unit 81, for example. In this case, the display unit 3 may display at least one of the width size, length size, main surface area, and IP size at the same time as the acquired overall image in step s7 described above. may be displayed when is not displayed. In addition, the display unit 3 may display at least one of the width size, length size, main surface area, and IP size at the same time as the IP tilt angle, or may display it when the IP tilt angle is not displayed. may Moreover, the display unit 3 may simultaneously display at least two of the width size, length size, main surface area, and IP size.

このように、本例では、画像処理部81は、イメージングプレート10からの発光光L2及び反射光の検出結果としての画像信号に基づいてIPサイズを特定していることから、IP傾き角度を特定する場合と同様に、IPサイズを適切に特定することができる。上記のように、イメージングプレート10に未露光部分が含まれる場合であっても、二値化像500の高輝度領域501が、反転前全体像のIP相当部分に対応することから、画像処理部81は、イメージングプレート10の短手サイズ、長手サイズ及び主面面積とIPサイズの種類とを適切に特定することができる。 Thus, in this example, the image processing unit 81 identifies the IP size based on the image signal as the detection result of the emitted light L2 from the imaging plate 10 and the reflected light, and thus identifies the IP tilt angle. IP size can be appropriately specified as well. As described above, even if the imaging plate 10 includes an unexposed portion, the high-brightness region 501 of the binarized image 500 corresponds to the portion corresponding to the IP of the entire image before reversal. 81 can appropriately specify the width size, length size, main surface area, and type of IP size of the imaging plate 10 .

図23は、画像処理部81がIP傾き角度及びIPサイズを特定する場合の当該画像処理部81の一連の動作の一例を示すフローチャートである。図23に示される一連の処理は、上述の図14に示される一連の処理の中で実行されてもよいし、図14に示される処理とは別のタイミングで実行されてもよい。 FIG. 23 is a flowchart showing an example of a series of operations of the image processing section 81 when the image processing section 81 specifies the IP tilt angle and the IP size. The series of processes shown in FIG. 23 may be executed during the series of processes shown in FIG. 14 described above, or may be executed at a different timing than the processes shown in FIG.

図23に示されるように、ステップs11において、画像処理部81は、反転前の画像信号に基づく反転前全体像を二値化して二値化像500を生成する。次にステップs12において、画像処理部81は、上述のように、二値化像500に基づいてイメージングプレート10の主面面積を特定する。次にステップs13において、画像処理部81は、二値化像500に含まれる高輝度領域501を構成する複数の画素の位置を分析対象データとして主成分分析を行って、分析対象データについての第1主成分軸及び第2主成分軸を求める。 As shown in FIG. 23, in step s11, the image processing section 81 binarizes the pre-inversion whole image based on the pre-inversion image signal to generate a binarized image 500. As shown in FIG. Next, in step s12, the image processing section 81 identifies the main surface area of the imaging plate 10 based on the binarized image 500 as described above. Next, in step s13, the image processing unit 81 performs principal component analysis using the positions of a plurality of pixels forming the high-brightness region 501 included in the binarized image 500 as data to be analyzed. A first principal component axis and a second principal component axis are obtained.

次にステップs14において、画像処理部81は、上述のように、二値化像500、第1主成分軸及び第2主成分軸に基づいて、IP傾き角度と、イメージングプレート10の短手サイズ及び長手サイズを特定する。次にステップs15において、画像処理部81は、特定短手サイズ、特定長手サイズ及び特定面積に基づいて、IPサイズの種類がサイズ3であるか否かを判定する。ステップs15では、画像処理部81は、例えば、上述のように、特定短手サイズがサイズ3の公称短手サイズと近く、特定長手サイズがサイズ3の公称長手サイズと近く、特定面積がサイズ3の公称面積と近い場合、IPサイズの種類がサイズ3であると判定する。 Next, in step s14, the image processing unit 81 calculates the IP tilt angle and the width size of the imaging plate 10 based on the binarized image 500, the first principal component axis, and the second principal component axis, as described above. and specify the longitudinal size. Next, in step s15, the image processing unit 81 determines whether or not the type of IP size is size 3 based on the specific width size, the specific length size, and the specific area. In step s15, for example, the image processing unit 81 determines that the specific width size is close to the nominal width size of size 3, the specific length size is close to the nominal length size of size 3, and the specific area is size 3 If it is close to the nominal area of , it is determined that the type of IP size is size 3.

ステップs15においてYESと判定されると、図23に示される処理が終了する。一方で、ステップs15においてNOと判定されると、ステップs16が実行される。ステップs16において、画像処理部81は、特定短手サイズ、特定長手サイズ及び特定面積に基づいて、IPサイズの種類がサイズ2であるか否かを判定する。ステップs16では、画像処理部81は、例えば、上述のように、特定短手サイズがサイズ2の公称短手サイズと近く、特定長手サイズがサイズ2の公称長手サイズと近く、特定面積がサイズ2の公称面積と近い場合、IPサイズの種類がサイズ2であると判定する。 If the determination in step s15 is YES, the process shown in FIG. 23 ends. On the other hand, if NO is determined in step s15, step s16 is executed. In step s16, the image processing unit 81 determines whether the type of IP size is size 2 based on the specific width size, the specific length size, and the specific area. In step s16, the image processing unit 81, for example, as described above, determines that the specified lateral size is close to the nominal lateral size of size 2, the specified longitudinal size is close to the nominal longitudinal size of size 2, and the specified area is close to the nominal longitudinal size of size 2. If it is close to the nominal area of , it is determined that the type of IP size is size 2.

ステップs16においてYESと判定されると、図23に示される処理が終了する。一方で、ステップs16においてNOと判定されると、ステップs17が実行される。ステップs17において、画像処理部81は、特定短手サイズ、特定長手サイズ及び特定面積に基づいて、IPサイズの種類がサイズ1であるか否かを判定する。ステップs17では、画像処理部81は、例えば、上述のように、特定短手サイズがサイズ1の公称短手サイズと近く、特定長手サイズがサイズ1の公称長手サイズと近く、特定面積がサイズ1の公称面積と近い場合、IPサイズの種類がサイズ1であると判定する。 If YES is determined in step s16, the process shown in FIG. 23 ends. On the other hand, if NO is determined in step s16, step s17 is executed. In step s17, the image processing unit 81 determines whether the type of IP size is size 1 based on the specific width size, the specific length size, and the specific area. In step s17, the image processing unit 81, for example, as described above, determines that the specified lateral size is close to the nominal lateral size of size 1, the specified longitudinal size is close to the nominal longitudinal size of size 1, and the specified area is size 1. If it is close to the nominal area of , it is determined that the type of IP size is size 1.

ステップs17においてYESと判定されると、図23に示される処理が終了する。一方で、ステップs17においてNOと判定されると、ステップs18が実行される。ステップs18において、画像処理部81は、IPサイズの種類がサイズ0であると判定する。ステップs18の実行後、図23に示される処理が終了する。なお、ステップs18において、画像処理部81は、ステップs15~s17と同様に、特定短手サイズ、特定長手サイズ及び特定面積に基づいて、IPサイズの種類がサイズ0であるか否かを判定してもよい。 If YES is determined in step s17, the process shown in FIG. 23 is terminated. On the other hand, if NO is determined in step s17, step s18 is executed. In step s18, the image processing unit 81 determines that the type of IP size is size 0. After execution of step s18, the process shown in FIG. 23 ends. In step s18, the image processing unit 81 determines whether the type of IP size is size 0 based on the specific width size, length size, and area, as in steps s15 to s17. may

上記の例では、画像処理部81は、特定短手サイズ、特定長手サイズ及び特定面積に基づいてIPサイズの種類を特定しているが、特定短手サイズ、特定長手サイズ及び特定面積のいずれか一つに基づいて、IPサイズの種類を特定することも可能である。図22に示されるように、本例では、複数種類のサイズの間では、公称短手サイズは互いに異なり、公称長手サイズも互いに異なる。また、複数種類のサイズの間では、公称面積も互いに異なる。画像処理部81は、サイズ0~3のうち、特定短手サイズに最も近い公称短手サイズを有する種類を、イメージングプレート10のサイズの種類としてもよい。また、画像処理部81は、サイズ0~3のうち、特定長手サイズに最も近い公称長手サイズを有する種類を、イメージングプレート10のサイズの種類としてもよい。また、画像処理部81は、サイズ0~3のうち、特定面積に最も近い公称面積を有する種類を、イメージングプレート10のサイズの種類としてもよい。 In the above example, the image processing unit 81 identifies the type of IP size based on the specific width size, the specific length size, and the specific area. Based on one, it is also possible to specify the type of IP size. As shown in FIG. 22, in this example, the nominal width sizes are different from each other, and the nominal length sizes are also different from each other among a plurality of types of sizes. Also, the nominal areas are different between the plural kinds of sizes. The image processing unit 81 may set the size type of the imaging plate 10 to the type having the nominal short side size closest to the specific short side size among the sizes 0 to 3. FIG. Further, the image processing unit 81 may set the type of the imaging plate 10 having the nominal longitudinal size closest to the specific longitudinal size among sizes 0 to 3 as the size type of the imaging plate 10 . Further, the image processing unit 81 may set the type of the imaging plate 10 having a nominal area closest to the specific area among sizes 0 to 3 as the size type of the imaging plate 10 .

また、画像処理部81は、特定短手サイズ、特定長手サイズ及び特定面積のいずれか二つに基づいてIPサイズの種類を特定してもよい。例えば、画像処理部81は、特定短手サイズがサイズ1の公称短手サイズと近く、特定長手サイズがサイズ1の公称長手サイズと近い場合、IPサイズの種類がサイズ1であると判定してもよい。 Also, the image processing unit 81 may specify the type of IP size based on any two of the specified widthwise size, the specified lengthwise size, and the specified area. For example, when the specific width size is close to the nominal width size of size 1 and the specific length size is close to the nominal length size of size 1, the image processing unit 81 determines that the type of IP size is size 1. good too.

なお、サイズ特定処理では、イメージングプレート10の長手サイズが特定されなくてもよいし、イメージングプレート10の短手サイズが特定されなくてもよいし、イメージングプレート10の主面面積が特定されなくてもよい。また、サイズ特定処理では、イメージングプレート10のサイズの種類が特定されなくてもよい。 In the size specifying process, the longitudinal size of the imaging plate 10 may not be specified, the lateral size of the imaging plate 10 may not be specified, and the main surface area of the imaging plate 10 may not be specified. good too. Also, in the size identification process, the type of size of the imaging plate 10 may not be identified.

<消去済みイメージングプレートに対する励起光の照射>
読取装置1では、消去済みイメージングプレート10に対して光源30が励起光L1を照射し、検出器40が、消去済みイメージングプレート10からの励起光L1の反射光を検出して、イメージングプレート10が写る反射光像を取得してもよい。この場合、本例では、検出器40は、IP外側領域R130からの励起光L1の反射光も検出する。本例では、検出器40は、消去済みイメージングプレート10及びIP外側領域R130からの励起光L1の反射光を検出し、その検出結果としての画像信号を出力する。以下に、消去済みイメージングプレート10に対して励起光L1を照射する読取装置1の動作例について説明する。
<Irradiation of Excitation Light to Erased Imaging Plate>
In the reader 1, the light source 30 irradiates the erased imaging plate 10 with the excitation light L1, the detector 40 detects the reflected light of the excitation light L1 from the erased imaging plate 10, and the imaging plate 10 is A reflected light image may be acquired. In this case, in this example, the detector 40 also detects reflected light of the excitation light L1 from the IP outer region R130. In this example, the detector 40 detects reflected light of the excitation light L1 from the erased imaging plate 10 and the IP outer region R130, and outputs an image signal as the detection result. An example of the operation of the reading device 1 for irradiating the erased imaging plate 10 with the excitation light L1 will be described below.

以後、今まで説明してきた画像信号のように、放射線像を記録するイメージングプレート10が保持されている場合の発光光L2及び反射光の検出結果としての画像信号を発光時画像信号と呼ぶ。また、今まで説明してきた取得全体像のように、放射線像を含む全体の像、つまり発光時画像信号に基づく全体の像を、発光時全体像と呼ぶ。また、上述の反転前全体像及び反転後全体像を、反転前発光時全体像及び反転後発光時全体像とそれぞれ呼ぶ。 Hereinafter, an image signal obtained by detecting the emitted light L2 and the reflected light when the imaging plate 10 for recording a radiation image is held will be referred to as an image signal during emission, like the image signal described above. Further, like the acquired whole image described so far, the whole image including the radiographic image, that is, the whole image based on the image signal at the time of light emission is called the whole image at the time of light emission. In addition, the above-described pre-inversion whole image and post-inversion whole image are referred to as a pre-inversion luminous whole image and post-inversion luminous whole image, respectively.

また、消去済みイメージングプレート10が保持されている場合の光の反射光の検出結果としての画像信号を消去時画像信号と呼ぶ。また、消去時画像信号に基づく全体の像を消去時全体像と呼ぶ。本例では、消去時全体像には、イメージングプレート10の反射光像、つまりイメージングプレート10での励起光L1の反射光の検出に基づく反射光像だけではなく、IP外側領域像も含まれ、放射線像は含まれない。消去時全体像は、センサ41の検出範囲R110の反射光像であるともいえる。イメージングプレート10の反射光像をIP反射光像と呼ぶことがある。また、以後、検出器40が光の検出結果として出力する画像信号に基づく全体の像を取得全体像として読取装置1を説明する。以下の説明では、取得全体像は、発光時全体像及び消去時全体像を含む概念である。 Further, an image signal as a detection result of reflected light when the erased imaging plate 10 is held is called an erased image signal. Further, the entire image based on the erased image signal is referred to as an erased entire image. In this example, the entire image at the time of erasing includes not only the reflected light image of the imaging plate 10, that is, the reflected light image based on the detection of the reflected light of the excitation light L1 on the imaging plate 10, but also the IP outer area image, Radiographic images are not included. It can also be said that the erasing overall image is a reflected light image of the detection range R110 of the sensor 41 . A reflected light image of the imaging plate 10 is sometimes called an IP reflected light image. Further, hereinafter, the reader 1 will be described with the entire image based on the image signal output by the detector 40 as the light detection result being the acquired overall image. In the following description, the acquired overall image is a concept including the illuminated overall image and the erased overall image.

図24は本例の読取装置1の動作の一例を示すフローチャートである。操作部4に含まれるスタートボタンが操作されると、図24に示されるように、読取装置1は上述のステップs1~s4を実行する。ステップs2の読取処理では、検出器40は、発光光L2及び反射光の検出結果としての発光時画像信号を出力する。 FIG. 24 is a flow chart showing an example of the operation of the reader 1 of this example. When the start button included in the operation unit 4 is operated, the reader 1 executes the above steps s1 to s4 as shown in FIG. In the reading process of step s2, the detector 40 outputs a light emission image signal as a detection result of the light emission light L2 and the reflected light.

ステップs4の消去処理の後、ステップs21において、駆動部50が、消去済みイメージングプレート10を保持する保持部20を読取開始位置に移動する。次にステップs22が実行される。ステップs22では、光源30が消去済みイメージングプレート10の前面及びIP外側領域に対して励起光L1を照射する。そして、検出器40が、消去済みイメージングプレート10の前面及びIP外側領域からの励起光L1の反射光を検出し、その検出結果としての消去時画像信号を出力する。消去時画像信号は、例えば、発光時画像信号と同様にグレースケールの画像信号である。 After the erasing process in step s4, in step s21, the driving section 50 moves the holding section 20 holding the erased imaging plate 10 to the reading start position. Then step s22 is executed. In step s22, light source 30 irradiates excitation light L1 to the front surface and IP outer region of erased imaging plate 10. FIG. Then, the detector 40 detects the reflected light of the excitation light L1 from the front surface and IP outer region of the erased imaging plate 10, and outputs an erasing image signal as the detection result. The erasure image signal is, for example, a grayscale image signal similar to the light emission image signal.

ステップs22の後、上述のステップs5及びs6が実行されて、消去済みイメージングプレート10が筐体2の取出口2bに排出される。次にステップs27において、表示制御部82は、ステップs2で得られた発光時画像信号に基づく発光時全体像と、ステップs22で得られた消去時画像信号に基づく消去時全体像とを表示部3に同時にかつ別々に表示させる。ステップs27において、画像処理部81は、発光時全体像及び消去時全体像を例えばグレースケール表示する。 After step s22, steps s5 and s6 described above are performed to eject the erased imaging plate 10 to the outlet 2b of the housing 2. FIG. Next, in step s27, the display control unit 82 causes the display unit to display the entire image during light emission based on the image signal during light emission obtained in step s2 and the entire image during erasure based on the image signal during erasure obtained in step s22. 3 simultaneously and separately. In step s27, the image processing unit 81 displays, for example, a grayscale display of the whole image at the time of light emission and the whole image at the time of erasing.

なお、ステップs27は、ステップs22の後であれば、いつでも実行されてもよい。例えば、ステップs27はステップs22とステップs5の間に実行されてもよい。また、発光時全体像と消去時全体像とは同時に表示されてなくてもよい。また、ステップs27では、発光時全体像は表示されなくてもよい。上述のサイズ特定処理及び傾き角度特定処理の少なくとも一方は、図24の一連の処理の中で実行されてもよいし、図24の処理とは別のタイミングで実行されてもよい。 Note that step s27 may be executed at any time after step s22. For example, step s27 may be performed between steps s22 and s5. Further, the entire image during light emission and the entire image during erasing do not have to be displayed at the same time. Also, in step s27, the entire image during light emission may not be displayed. At least one of the size identification process and the inclination angle identification process described above may be executed during the series of processes in FIG. 24, or may be executed at a different timing than the process in FIG.

検出器40が出力する消去時画像信号には、IP反射光像を構成する複数の画素の輝度値と、IP外側領域像を構成する複数の画素の輝度値とが含まれる。消去時画像信号に含まれる輝度値は、検出器40が検出する反射光の強度が大きいほど大きい値を示す。したがって、例えば、消去済みイメージングプレート10のある領域での反射光の強度が大きい場合、消去時画像信号に含まれる、当該ある領域の反射光像の輝度は大きくなる。 The erased image signal output by the detector 40 includes the luminance values of a plurality of pixels forming the IP reflected light image and the luminance values of a plurality of pixels forming the IP outer region image. The luminance value included in the erased image signal indicates a larger value as the intensity of the reflected light detected by the detector 40 increases. Therefore, for example, when the intensity of the reflected light in a certain area of the erased imaging plate 10 is high, the brightness of the reflected light image of the certain area included in the erased image signal is high.

図25は消去時全体像200の一例を示す概略図である。図25に示されるように、消去時全体像200には、IP反射光像201及びIP外側領域像202が含まれる。図25の例では、IP反射光像201には、イメージングプレート10の前面が写っている。IP反射光像201は、消去時全体像200でのイメージングプレート10に相当する部分であることから、IP反射光像をIP相当部分ともいう。 FIG. 25 is a schematic diagram showing an example of an erasing overall image 200. As shown in FIG. As shown in FIG. 25 , the erased whole image 200 includes an IP reflected light image 201 and an IP outer area image 202 . In the example of FIG. 25 , the IP reflected light image 201 shows the front surface of the imaging plate 10 . Since the IP reflected light image 201 is a portion corresponding to the imaging plate 10 in the erased entire image 200, the IP reflected light image is also called an IP corresponding portion.

画像処理部81は、消去時画像信号に対して画像処理を行う。本例では、消去時画像信号に対する画像処理では、発光時画像信号に対する画像処理とは異なり、例えば輝度反転処理は行われない。したがって、画像処理後の消去時画像信号では、画像処理前の消去時画像信号と同様に、イメージングプレート10のある領域での反射光の強度が大きい場合、当該ある領域の反射光像の輝度値は大きくなる。一方で、イメージングプレート10のある領域での反射光の強度が小さい場合、当該ある領域の反射光像の輝度値は小さくなる。以後、輝度反転処理を含まない画像処理が行われた消去時画像信号に基づく消去時全体像200を、反転前消去時全体像200と呼ぶことがある。 The image processing unit 81 performs image processing on the erasing image signal. In this example, in the image processing for the erasure image signal, unlike the image processing for the light emission image signal, for example, luminance inversion processing is not performed. Therefore, in the erasing image signal after image processing, similarly to the erasing image signal before image processing, if the intensity of the reflected light in a certain area of the imaging plate 10 is high, the luminance value of the reflected light image in the certain area is becomes larger. On the other hand, when the intensity of the reflected light in a certain area of the imaging plate 10 is low, the luminance value of the reflected light image in the certain area is small. Hereinafter, the erased whole image 200 based on the erased image signal that has been subjected to image processing that does not include the luminance inversion process may be referred to as the erased whole image 200 before inversion.

ステップs27では、表示制御部82は、例えば、反転後発光時全体像100bと、反転前消去時全体像200とを表示部3にグレースケール表示させてもよい。この場合、表示部3は、上述の図12及び13に示されるようなグレースケールで反転後発光時全体像100bを表示し、上述の図25に示されるようなグレースケールで反転前消去時全体像200を表示してもよい。 In step s27, the display control unit 82 may cause the display unit 3 to display, for example, the post-reversal light emission entire image 100b and the pre-reversal erasing entire image 200 in grayscale. In this case, the display unit 3 displays the post-reversal light emitting overall image 100b in grayscale as shown in FIGS. Image 200 may be displayed.

図26及び27は、表示部3の表示面3aに、反転後発光時全体像100b及び反転前消去時全体像200が表示されている様子の一例を示す概略図である。図26には、イメージングプレート10に未露光部分が含まれない場合の反転後発光時全体像100b及び反転前消去時全体像200が示されている。図27には、イメージングプレート10に未露光部分が含まれる場合の反転後発光時全体像100b及び反転前消去時全体像200が示されている。 FIGS. 26 and 27 are schematic diagrams showing an example of how the post-reversal luminous image 100b and the pre-reversal erasing image 200 are displayed on the display surface 3a of the display unit 3. FIG. FIG. 26 shows an entire image 100b during light emission after reversal and an entire image 200 during erasure before reversal when the imaging plate 10 does not include an unexposed portion. FIG. 27 shows an entire image 100b during light emission after reversal and an entire image 200 during erasing before reversal when the imaging plate 10 includes an unexposed portion.

図26及び27に示されるように、表示部3は、反転後発光時全体像100b及び反転前消去時全体像200を、例えば、同じ大きさで表示してもよいし、横並びに表示してもよい。本例では、表示部3は、像の輝度値が大きいほど、その像を明るく表示することから、反転後発光時全体像100bでは、例えば、歯が写る部分及び未露光領域像103bが明るく表示される。また、反転前消去時全体像200では、イメージングプレート10が写る部分が明るく表示される。 As shown in FIGS. 26 and 27 , the display unit 3 may display the after-reversal luminescence entire image 100b and the pre-reversal erasing overall image 200 in the same size, for example, or may display them side by side. good too. In this example, the display unit 3 displays the image brighter as the luminance value of the image increases. Therefore, in the whole image 100b at the time of light emission after reversal, for example, the portion where the teeth appear and the unexposed area image 103b are displayed brightly. be done. In addition, in the pre-reversal erasing entire image 200, the portion where the imaging plate 10 is shown is displayed brightly.

また、図26及び27に示されるように、イメージングプレート10に未露光部分が含まれる場合の反転前消去時全体像200と、イメージングプレート10に未露光部分が含まれない場合の反転前消去時全体像200とは同じとなる。ユーザは、表示部3に表示される反転前消去時全体像200(言い換えれば消去時全体像)から、イメージングプレート10の外観を確認することができる。なお、反転後発光時全体像100b及び反転前消去時全体像200の表示方法は図26及び27の例に限られない。 Also, as shown in FIGS. 26 and 27, an entire image 200 upon erasing before reversal when the imaging plate 10 includes an unexposed portion, and an erased before reversing image 200 when the imaging plate 10 does not include an unexposed portion. The overall image 200 is the same. The user can confirm the appearance of the imaging plate 10 from the pre-reversal erasing whole image 200 (in other words, the erasing whole image) displayed on the display unit 3 . It should be noted that the method of displaying the post-reversal luminous image 100b and the pre-reversal erasing entire image 200 is not limited to the examples of FIGS.

上述の図24の例では、検出器40が、光源30からの励起光L1によって励起されたイメージングプレート10からの発光光L2を検出し、その検出結果としての発光時画像信号を出力する。その後、イメージングプレート10から放射線像が消去された後、消去済みイメージングプレート10に対して光源30から励起光L1が照射され、検出器40は、イメージングプレート10からの励起光L1の反射光を検出する。これにより、読取装置1は、同じ光源30及び同じ検出器40を使用して、イメージングプレート10に記録された放射線像とイメージングプレート10の反射光像の両方を容易に得ることができる。 In the example of FIG. 24 described above, the detector 40 detects the emitted light L2 from the imaging plate 10 excited by the excitation light L1 from the light source 30, and outputs an image signal during emission as the detection result. After that, after the radiation image is erased from the imaging plate 10, the erased imaging plate 10 is irradiated with the excitation light L1 from the light source 30, and the detector 40 detects the reflected light of the excitation light L1 from the imaging plate 10. do. Accordingly, the reader 1 can easily obtain both the radiation image recorded on the imaging plate 10 and the reflected light image of the imaging plate 10 using the same light source 30 and the same detector 40 .

また、図26及び27の例のように、発光時全体像と消去時全体像とが同時にかつ別々に表示される場合には、ユーザは、発光時全体像と消去時全体像とを見比べやすくなる。つまり、ユーザは、イメージングプレート10から読み取られた放射線像と、イメージングプレート10の外観とを見比べやすくなる。これにより、例えば、ユーザは、イメージングプレート10に未露光部分が含まれていることを容易に特定することができる。以下にこの点について説明する。 26 and 27, when the entire image at the time of lighting and the whole image at the time of erasing are displayed simultaneously and separately, the user can easily compare the whole image at the time of lighting and the whole image at the time of erasing. Become. In other words, the user can easily compare the radiation image read from the imaging plate 10 and the appearance of the imaging plate 10 . Thereby, for example, the user can easily specify that the imaging plate 10 includes an unexposed portion. This point will be explained below.

イメージングプレート10に未露光部分が含まれる場合、発光時全体像のうち当該未露光部分に相当する領域には放射線像が存在しない。しかしながら、ユーザは、当該領域には本来は放射線像が存在し、読取装置1の不具合のために当該領域に放射線像が存在しないのか、イメージングプレート10に未露光部分が含まれているために当該領域に放射線像が存在しないのか、発光時全体像の表示だけでは特定することが難しい。これに対して、図27の例のように、発光時全体像及び消去時全体像が同時にかつ別々に表示される場合には、ユーザは、発光時全体像の表示から、イメージングプレート10から読み取られた放射線像を確認し、消去時全体像の表示からイメージングプレート10外観を確認し、両者を比較することによって、イメージングプレート10に未露光部分が含まれていることを容易に特定することができる。また、ユーザは、イメージングプレート10での未露光部分の範囲も容易に特定することができる。 If the imaging plate 10 includes an unexposed portion, there is no radiation image in the region corresponding to the unexposed portion in the entire image during light emission. However, the user may suspect that a radiographic image originally exists in the area and that the radiographic image does not exist in the area due to a malfunction of the reading device 1 or that the imaging plate 10 includes an unexposed portion. It is difficult to determine whether or not there is a radiographic image in the region only by displaying the entire image during light emission. On the other hand, as in the example of FIG. 27, when the luminous whole image and the erased holistic image are displayed simultaneously and separately, the user can read from the imaging plate 10 from the display of the luminous whole image. By confirming the radiation image obtained, confirming the appearance of the imaging plate 10 from the display of the entire image at the time of erasing, and comparing the two, it is possible to easily specify that the imaging plate 10 includes an unexposed portion. can. Also, the user can easily specify the range of the unexposed portion on the imaging plate 10 .

上記の例では、画像処理部81は、発光時全体像に基づいてIP傾き角度を特定しているが、消去時全体像(言い換えれば、消去時画像信号に基づく反射光像)に基づいてIP傾き角度を特定してもよい。同様に、画像処理部81は、IPサイズを消去時全体像に基づいて特定してもよい。 In the above example, the image processing unit 81 specifies the IP tilt angle based on the entire image at the time of light emission. A tilt angle may be specified. Similarly, the image processing unit 81 may specify the IP size based on the erasing overall image.

画像処理部81は、発光時全体像に基づいてIP傾き角度及びIPサイズを特定する場合と同様にして、消去時全体像に基づいてIP傾き角度及びIPサイズを特定することができる。具体的には、画像処理部81は、反転前消去時全体像200を二値化して二値化像を生成する。この二値化像を第2の二値化像と呼ぶことがある。反転前消去時全体像200を二値化するときのしきい値は、例えば、反転前消去時全体像200に含まれるIP外側領域像202の輝度値よりも大きく、かつ反転前消去時全体像200に含まれるIP反射光像201の輝度値よりも小さく設定される。これにより、第2の二値化像は、反転前発光時全体像の二値化像と同様となり、第2の二値化像では、IP外側領域に相当する領域が低輝度領域となり、イメージングプレート10に相当する領域が高輝度領域となる。第2の二値化像の高輝度領域の外形は、イメージングプレート10に未露光部分が含まれている場合であっても、イメージングプレート10の外形に応じた形状となる。画像処理部81は、第2の二値化像に基づいて、上記と同様にして、IP傾き角度と、イメージングプレート10の短手サイズ、長手サイズ及び主面面積と、IPサイズの種類とを特定することができる。 The image processing unit 81 can specify the IP tilt angle and the IP size based on the erasing overall image in the same manner as the IP tilt angle and the IP size based on the emitting overall image. Specifically, the image processing unit 81 binarizes the pre-reversal erasing entire image 200 to generate a binarized image. This binarized image is sometimes called a second binarized image. The threshold value for binarizing the pre-reversal erased entire image 200 is, for example, greater than the luminance value of the IP outer region image 202 included in the pre-inverted erased entire image 200, and the pre-inverted erased entire image. 200 is set to be smaller than the luminance value of the IP reflected light image 201 included in 200 . As a result, the second binarized image becomes the same as the binarized image of the entire image during light emission before inversion, and in the second binarized image, the region corresponding to the IP outer region becomes a low luminance region, and imaging A region corresponding to the plate 10 becomes a high brightness region. The outline of the high-brightness region of the second binarized image has a shape corresponding to the outline of the imaging plate 10 even if the imaging plate 10 includes an unexposed portion. Based on the second binarized image, the image processing unit 81 determines the IP tilt angle, the widthwise size, the lengthwise size, the main surface area of the imaging plate 10, and the type of the IP size in the same manner as described above. can be specified.

図28は、図25に示される反転前消去時全体像200を二値化して得られる第2の二値化像に基づいて特定した、イメージングプレート10の短手サイズ、長手サイズ及び主面面積とIP傾き角度とを示す図である。図25に示される反転前消去時全体像200は、サイズ2のイメージングプレート10に対して励起光L1が照射された場合に得られる消去時全体像である。図28に示されるように、図25に示される反転前消去時全体像200から特定された短手サイズ及び長手サイズは、サイズ2のイメージングプレート10の公称短手サイズ及び公称長手サイズにそれぞれ近い値となっている。 FIG. 28 shows the lateral size, longitudinal size, and main surface area of the imaging plate 10 specified based on the second binarized image obtained by binarizing the pre-reversal erasing entire image 200 shown in FIG. and an IP tilt angle. A pre-reversal erasing overall image 200 shown in FIG. 25 is an erasing overall image obtained when the imaging plate 10 of size 2 is irradiated with the excitation light L1. As shown in FIG. 28, the short size and long size specified from the pre-reversal erasing entire image 200 shown in FIG. 25 are close to the nominal short size and long size of the size 2 imaging plate 10, respectively. value.

このように、IP傾き角度の特定に、イメージングプレート10の反射光像を表す消去時画像信号が使用される場合であっても、発光時画像信号が使用される場合と同様に、IP傾き角度を適切に特定することができる。また、IPサイズの特定に消去時画像信号が使用される場合であっても、発光時画像信号が使用される場合と同様に、IPサイズを適切に特定することができる。 As described above, even when the erasing image signal representing the reflected light image of the imaging plate 10 is used to specify the IP tilt angle, the IP tilt angle can be properly identified. Also, even when the erasure image signal is used to identify the IP size, the IP size can be appropriately identified in the same manner as when the light emission image signal is used.

<IP相当部分の傾きの補正について>
イメージングプレート10が基準姿勢から傾く場合には、図16等に示されるように、取得全体像においてIP相当部分が傾くことになる。詳細には、イメージングプレート10が基準姿勢から右回りに傾く場合には、IP相当部分の長手方向は、取得全体像において副走査方向DRsに対応する方向(図16では反転前全体像100aの長手方向)に対して右回りに傾くことになる。一方で、イメージングプレート10が基準姿勢から左回りに傾く場合には、IP相当部分の長手方向は、取得全体像において副走査方向DRsに対応する方向に対して左回りに傾くことになる。IP相当部分が傾いた状態で取得全体像が表示される場合、ユーザは、傾いたIP相当部分を見辛い可能性がある。
<Correction of inclination of IP equivalent part>
When the imaging plate 10 is tilted from the reference posture, as shown in FIG. 16 and the like, the portion corresponding to the IP is tilted in the acquired overall image. Specifically, when the imaging plate 10 is tilted clockwise from the reference posture, the longitudinal direction of the portion corresponding to the IP is the direction corresponding to the sub-scanning direction DRs in the acquired whole image (the longitudinal direction of the whole image 100a before reversal in FIG. direction). On the other hand, when the imaging plate 10 is tilted counterclockwise from the reference posture, the longitudinal direction of the portion corresponding to IP is tilted counterclockwise with respect to the direction corresponding to the sub-scanning direction DRs in the acquired whole image. If the entire acquired image is displayed with the IP equivalent portion tilted, the user may find it difficult to see the tilted IP equivalent portion.

そこで、画像処理部81は、IP傾き角度αに基づいて、取得全体像に対して、IP相当部分の傾きを補正する傾き補正処理を行ってもよい。補正対象の取得全体像が、発光光L2の検出に基づく発光時全体像である場合、傾き補正処理では、IP相当部分の傾きが補正されることによって、当該IP相当部分に含まれる放射線像の傾きが補正される。一方で、補正対象の取得全体像が、反射光の検出に基づく消去時全体像である場合、傾き補正処理では、イメージングプレート10が写るIP反射光像の傾きが補正される。画像処理部81は、輝度反転処理が行われる前の画像信号に基づく取得全体像に対して傾き補正処理を行ってもよいし、輝度反転処理が行われた後の画像信号に基づく取得全体像に対して傾き補正処理を行ってもよい。表示部3は、傾き補正処理後の取得全体像を表示してもよい。傾き補正処理は、図14の一連の処理の中で実行されてもよいし、図14の処理とは別のタイミングで実行されてもよい。また、傾き補正処理は、図24の一連の処理の中で実行されてもよいし、図24の処理とは別のタイミングで実行されてもよい。傾き補正処理は、イメージングプレート10の基準姿勢からの傾きに応じた、発光時全体像でのIP相当部分の傾きを補正する処理であるといえる。 Therefore, the image processing unit 81 may perform tilt correction processing for correcting the tilt of the portion corresponding to the IP on the obtained entire image based on the IP tilt angle α. When the acquired entire image to be corrected is the emitted entire image based on the detection of the emitted light L2, the tilt correction process corrects the tilt of the portion corresponding to the IP, thereby correcting the tilt of the portion corresponding to the IP. Tilt is corrected. On the other hand, when the acquired whole image to be corrected is the erased whole image based on the detection of the reflected light, the tilt correction process corrects the tilt of the IP reflected light image showing the imaging plate 10 . The image processing unit 81 may perform tilt correction processing on the acquired whole image based on the image signal before the brightness reversal processing is performed, or the acquired whole image based on the image signal after the brightness reversal processing is performed. may be subjected to tilt correction processing. The display unit 3 may display the acquired whole image after the tilt correction process. The tilt correction process may be performed during the series of processes in FIG. 14, or may be performed at a different timing from the process in FIG. Also, the tilt correction process may be executed during the series of processes in FIG. 24, or may be executed at a different timing from the process in FIG. The tilt correction process can be said to be a process of correcting the tilt of the portion corresponding to the IP in the entire image during light emission according to the tilt of the imaging plate 10 from the reference posture.

図29は傾き補正処理の一例を説明するための概略図である。図29では、傾き補正処理が行われる前の取得全体像250が上側に示され、傾き補正処理が行われた後の取得全体像250が下側に示されている。補正対象の取得全体像250には、IP相当部分251とIP外側領域像252とが含まれる。図29では、IP相当部分251の長手方向DR1が破線で示され、取得全体像250において副走査方向DRsに対応する方向DR2が一点鎖線で示されている。 FIG. 29 is a schematic diagram for explaining an example of tilt correction processing. In FIG. 29, the acquired whole image 250 before the tilt correction process is shown on the upper side, and the acquired whole image 250 after the tilt correction process is shown on the lower side. An acquired whole image 250 to be corrected includes an IP equivalent portion 251 and an IP outer area image 252 . In FIG. 29 , the longitudinal direction DR1 of the IP-corresponding portion 251 is indicated by a dashed line, and the direction DR2 corresponding to the sub-scanning direction DRs in the obtained overall image 250 is indicated by a dashed line.

傾き補正処理において、画像処理部81は、補正対象の取得全体像250に含まれるIP相当部分251の重心251aを求める。ここで、IP相当部分251の重心251aは、取得全体像250の二値化像の高輝度領域の重心と一致する。画像処理部81は、取得全体像250の二値化像を生成し、生成した二値化像の高輝度領域の重心を求めることによって、取得全体像250のIP相当部分251の重心251aを求めることができる。次に、画像処理部81は、求めた重心251aを中心にして取得全体像250をIP傾き角度αだけ回転させる。このとき、画像処理部81は、IP傾き角度αがプラスの場合、図29に示されるように、取得全体像250を左回り255LにIP傾き角度αだけ回転させる。一方で、IP傾き角度αがマイナスの場合、画像処理部81は、取得全体像250を右回りにIP傾き角度αだけ回転させる。これにより、IP相当部分251の傾きが補正されて、IP相当部分251の長手方向DR1は、取得全体像250において副走査方向DRsに対応する方向DR2に平行となる。 In the tilt correction process, the image processing unit 81 obtains the center of gravity 251a of the IP equivalent portion 251 included in the acquired entire image 250 to be corrected. Here, the center of gravity 251 a of the IP-corresponding portion 251 coincides with the center of gravity of the high-brightness region of the binarized image of the acquired overall image 250 . The image processing unit 81 generates a binarized image of the obtained overall image 250, and obtains the centroid 251a of the IP-corresponding portion 251 of the obtained overall image 250 by obtaining the centroid of the high luminance area of the generated binarized image. be able to. Next, the image processing unit 81 rotates the obtained entire image 250 by the IP tilt angle α around the obtained center of gravity 251a. At this time, if the IP tilt angle α is positive, the image processing unit 81 rotates the obtained entire image 250 counterclockwise 255L by the IP tilt angle α, as shown in FIG. On the other hand, when the IP tilt angle α is negative, the image processing unit 81 rotates the obtained whole image 250 clockwise by the IP tilt angle α. As a result, the inclination of the IP-corresponding portion 251 is corrected, and the longitudinal direction DR1 of the IP-corresponding portion 251 becomes parallel to the direction DR2 corresponding to the sub-scanning direction DRs in the acquired whole image 250 .

図30は、上述の図16に示される反転前発光時全体像100aに対して傾き補正処理が行われた様子の一例を示す概略図である。図16と図30とを比較して理解できるように、反転前発光時全体像100aに対する傾き補正処理によって、IP相当部分105aに含まれる放射線像101aの傾きが適切に補正されている。傾き補正処理が行われた反転前発光時全体像100aでのIP相当部分105aの姿勢は、イメージングプレート10の姿勢が基準姿勢である場合に得られる反転前発光時全体像100aでのIP相当部分105aの姿勢と同じとなる。表示部3は、傾き補正処理後の反転前発光時全体像100aを、例えば、図30のようなグレースケールで表示してもよい。以後、取得全体像が表示されることには、傾き補正処理後の取得全体像が表示されることも含まれる。 FIG. 30 is a schematic diagram showing an example of a state in which the tilt correction process is performed on the entire image 100a during light emission before reversal shown in FIG. 16 described above. As can be understood by comparing FIG. 16 and FIG. 30, the inclination of the radiation image 101a included in the IP-corresponding portion 105a is appropriately corrected by the inclination correction processing for the whole image 100a during light emission before reversal. The orientation of the IP-corresponding portion 105a in the entire image 100a during light emission before reversal in which the tilt correction processing is performed is the portion corresponding to the IP in the entire image 100a during light emission before reversal obtained when the orientation of the imaging plate 10 is the reference posture. It becomes the same as the posture of 105a. The display unit 3 may display the pre-reversal luminous whole image 100a after the tilt correction process, for example, in a gray scale as shown in FIG. Henceforth, the display of the acquired whole image includes the display of the acquired whole image after the tilt correction processing.

このように、画像処理部81が、IP傾き角度に基づいて取得全体像のIP相当部分の傾きを補正することによって、傾きが適切に補正されたIP相当部分を得ることができる。例えば、発光時全体像に対して傾き補正処理が行われる場合、傾きが適切に補正された放射線像を得ることができる。また、消去時全体像に対して傾き補正処理が行われる場合、傾きが適切に補正されたIP反射光像を得ることができる。 In this manner, the image processing unit 81 corrects the tilt of the IP-corresponding portion of the obtained entire image based on the IP tilt angle, thereby obtaining the IP-corresponding portion whose tilt is appropriately corrected. For example, when tilt correction processing is performed on the entire image during light emission, it is possible to obtain a radiographic image whose tilt is appropriately corrected. Further, when tilt correction processing is performed on the entire image at erasing, it is possible to obtain an IP reflected light image whose tilt is appropriately corrected.

<取得全体像に対する切出処理について>
画像処理部81は、放射線像を含む発光時全体像において切り出す対象の切出像をIP傾き角度及びIPサイズに基づいて決定し、決定した当該切出像を当該発光時全体像から切り出す切出処理を行ってもよい。この切出処理により、IP傾き角度及びIPサイズに応じた所望の切出像を発光時全体像から得ることができる。画像処理部81は切出処理を行う切り出し部として機能する。切出処理は、図14の一連の処理の中で実行されてもよいし、図14の処理とは別のタイミングで実行されてもよい。また、切出処理は、図24の一連の処理の中で実行されてもよいし、図24の処理とは別のタイミングで実行されてもよい。
<Regarding extraction processing for the acquired entire image>
The image processing unit 81 determines, based on the IP tilt angle and the IP size, a cutout image to be cut out from the whole image during luminescence including the radiographic image, and cuts out the determined cutout image from the whole image during luminescence. processing may be performed. By this clipping process, a desired clipped image corresponding to the IP tilt angle and IP size can be obtained from the entire image during light emission. The image processing unit 81 functions as a clipping unit that performs clipping processing. The extraction process may be performed during the series of processes in FIG. 14, or may be performed at a different timing from the process in FIG. Also, the extraction process may be executed during the series of processes in FIG. 24, or may be executed at a different timing from the process in FIG.

切出処理では、例えば、発光時全体像のIP相当部分が切出像として決定されてもよい。この場合、画像処理部81は、例えば、IPサイズの種類とIP傾き角度とに基づいて、発光時全体像のIP相当部分を切出像として決定する。以下に、画像処理部81が発光時全体像のIP相当部分を切出像として決定する際の当該画像処理部81の動作の一例について説明する。以後、画像処理部81が特定したIPサイズの種類を特定サイズZと呼ぶことがある。本例では、Zは0、1、2及び3のいずれかの値となる。 In the clipping process, for example, a portion corresponding to the IP of the entire image during light emission may be determined as the clipped image. In this case, the image processing unit 81 determines, as a cutout image, the portion corresponding to the IP of the whole image when the light is emitted, based on the type of IP size and the IP tilt angle, for example. An example of the operation of the image processing unit 81 when the image processing unit 81 determines the portion corresponding to the IP of the whole image when the light is emitted as the cutout image will be described below. Hereinafter, the type of IP size specified by the image processing unit 81 may be referred to as a specified size Z. In this example, Z is one of the values 0, 1, 2 and 3.

切出処理において、画像処理部81は、例えば、IPサイズの種類とIP傾き角度に基づいて、発光時全体像に対して切出枠を設定する。そして、画像処理部81は、発光時全体像での切出枠内の部分を、切出像として決定する。 In the clipping process, the image processing unit 81 sets a clipping frame for the entire image during light emission based on, for example, the type of IP size and the IP tilt angle. Then, the image processing unit 81 determines the portion within the cut-out frame in the whole image when the light is emitted as the cut-out image.

切出枠の形状は、特定サイズZのイメージングプレート10の公称外形と相似形を成す。本例では、イメージングプレート10の外形は四隅が丸まった長方形であることから、切出枠の形状も四隅が丸まった長方形となる。そして、切出枠の短手方向のサイズは、特定サイズZのイメージングプレート10の公称短手サイズ(特定サイズZの公称短手サイズともいう)に応じた値となり、切出枠の長手方向のサイズは、特定サイズZのイメージングプレート10の公称長手サイズ(特定サイズZの公称長手サイズともいう)に応じた値となる。 The shape of the cutting frame is similar to the nominal outer shape of the imaging plate 10 of the specific size Z. FIG. In this example, since the outer shape of the imaging plate 10 is a rectangle with rounded corners, the shape of the cutting frame is also a rectangle with rounded corners. The size of the cutting frame in the transverse direction is a value corresponding to the nominal transverse size of the imaging plate 10 of the specific size Z (also referred to as the nominal transverse size of the specific size Z). The size is a value corresponding to the nominal longitudinal size of the imaging plate 10 of the specific size Z (also referred to as the nominal longitudinal size of the specific size Z).

ここで、画像処理部81は、IPサイズの各種類について、公称短手サイズ及び公称長手サイズのそれぞれが、取得全体像での何画素分に相当するかを予め把握している。画素のP1個分が特定サイズZの公称短手サイズに相当し、画素のP2個分が特定サイズZの公称長手サイズに相当するとき、画像処理部81は、切出枠の短手方向のサイズを画素のP1個分の長さに設定し、切出枠の長手方向のサイズを画素のP2個分の長さに設定する。例えば、P1=800、P2=1100とすると、切出枠の短手方向のサイズは画素800個分の長さに設定され、切出枠の長手方向のサイズは画素1100個分の長さに設定される。 Here, for each type of IP size, the image processing unit 81 grasps in advance how many pixels each of the nominal short side size and the nominal long side size corresponds to in the obtained whole image. When P1 pixels correspond to the nominal short side size of the specific size Z and P2 pixels correspond to the nominal longitudinal size of the specific size Z, the image processing unit 81 adjusts the width of the clipping frame in the width direction. The size is set to the length of P1 pixels, and the size in the longitudinal direction of the clipping frame is set to the length of P2 pixels. For example, when P1=800 and P2=1100, the size of the clipping frame in the short direction is set to the length of 800 pixels, and the size of the clipping frame in the longitudinal direction is set to the length of 1100 pixels. set.

画像処理部81は、切出枠の外形及びサイズを決定すると、切出枠の中心が発光時全体像のIP相当部分の重心と一致し、かつ切出枠の長手方向及び短手方向が発光時全体像の長手方向及び短手方向にそれぞれ平行となるように、切出枠を発光時全体像上に配置する。なお、上述のように、発光時全体像のIP相当部分の重心は、当該発光時全体像の二値化像の高輝度領域の重心と一致する。 When the image processing unit 81 determines the outer shape and size of the clipping frame, the center of the clipping frame coincides with the center of gravity of the portion corresponding to the IP of the entire image during light emission, and the longitudinal direction and the width direction of the clipping frame are illuminated. The cut-out frame is arranged on the whole image when emitting light so as to be parallel to the longitudinal direction and the width direction of the whole image when emitting light. As described above, the center of gravity of the IP-corresponding portion of the whole image during light emission coincides with the center of gravity of the high luminance area of the binarized image of the whole image during light emission.

次に、画像処理部81は、発光時全体像上に配置した切出枠を、IP相当部分の重心の回りにIP傾き角度だけ回転させる。このとき、画像処理部81は、IP傾き角度がプラスの場合には切出枠を右回りに回転させ、IP傾き角度がマイナスの場合には切出枠を左回りに回転させる。これにより、発光時全体像のうち切出枠内の部分がIP相当部分に一致する。画像処理部81は、発光時全体像のうち、IP傾き角度だけ回転させた切出枠内の部分を切出像に決定する。その後、画像処理部81は、決定した切出像を発光時全体像から切り出す。これにより、発光時全体像からIP相当部分が切り出されて、イメージングプレート10に相当する部分だけの像を得ることができる。切出処理は、反転前発光時全体像に対して行われてもよいし、反転後発光時全体像に対して行われてもよい。 Next, the image processing unit 81 rotates the clipping frame arranged on the entire image during light emission by the IP tilt angle around the center of gravity of the IP corresponding portion. At this time, the image processing unit 81 rotates the clipping frame clockwise when the IP tilt angle is positive, and rotates the clipping frame counterclockwise when the IP tilt angle is negative. As a result, the portion within the cut-out frame of the entire image at the time of light emission matches the portion corresponding to the IP. The image processing unit 81 determines, as a cut-out image, a portion within the cut-out frame rotated by the IP tilt angle in the entire image during light emission. After that, the image processing unit 81 cuts out the determined cutout image from the whole image at the time of light emission. As a result, the portion corresponding to the IP is cut out from the entire image during light emission, and an image of only the portion corresponding to the imaging plate 10 can be obtained. The cropping process may be performed on the whole image when the light is emitted before reversal, or may be performed on the whole image when the light is emitted after the reversal.

図31は、上述の図12に示される反転後発光時全体像100bに対して切出枠150が設定されている様子の一例を示す概略図である。図32は、図31の例において、反転後発光時全体像100bでの切出枠150内の切出像151が、反転後発光時全体像100bから切り出された様子の一例を示す概略図である。図32に示されるように、反転後発光時全体像100bからIP相当部分105bが適切に切り出されている。切出像151には、反転後発光時全体像100bに含まれる放射線像101bと同じ放射線像151aが含まれる。 FIG. 31 is a schematic diagram showing an example of how the cutout frame 150 is set for the whole image 100b at the time of light emission after reversal shown in FIG. 12 described above. FIG. 32 is a schematic diagram showing an example of how a clipped image 151 in the clipping frame 150 in the whole image 100b when emitting light after reversal is clipped from the whole image 100b when emitting light after reversal in the example of FIG. be. As shown in FIG. 32, the IP-corresponding portion 105b is appropriately cut out from the whole image 100b at the time of light emission after reversal. The cut-out image 151 includes a radiographic image 151a that is the same as the radiographic image 101b included in the post-reversal light emission entire image 100b.

図33は、上述の図13に示される反転後発光時全体像100bに対して切出枠150が設定されている様子の一例を示す概略図である。図34は、図33の例において、反転後発光時全体像100bでの切出枠150内の切出像151が反転後発光時全体像100bから切り出された様子の一例を示す概略図である。図34に示されるように、反転後発光時全体像100bが未露光領域像103bを含む場合であっても、反転後発光時全体像100bからIP相当部分105bが適切に切り出されている。切出像151には、反転後発光時全体像100bに含まれる放射線像101bと同じ放射線像151aが含まれるとともに、反転後発光時全体像100bに含まれる未露光領域像103bと同じ未露光領域像151bが含まれる。 FIG. 33 is a schematic diagram showing an example of how the cutout frame 150 is set for the whole image 100b at the time of light emission after reversal shown in FIG. 13 described above. FIG. 34 is a schematic diagram showing an example of how a cut-out image 151 in the cut-out frame 150 in the whole image 100b during light emission after reversal is cut out from the whole image 100b during light emission after reversal in the example of FIG. . As shown in FIG. 34, even when the post-reversal luminescence entire image 100b includes the unexposed area image 103b, the IP corresponding portion 105b is appropriately cut out from the post-reversal luminescence overall image 100b. The cut-out image 151 includes the same radiation image 151a as the radiation image 101b included in the post-reversal light emission entire image 100b, and the same unexposed area as the unexposed area image 103b included in the post-reversal light emission overall image 100b. Image 151b is included.

切出処理が行われる場合、表示部3は、発光時全体像から切り出された切出像151を表示してもよい。この場合、表示部3は、図32及び34のようなグレースケールで切出像151を表示してもよい。図32及び34は切出像151の表示例を示す概略図であるともいえる。切出像151が表示される場合、ユーザは、発光時全体像のうち必要な像だけを確認することができる。本例のように、発光時全体像からIP相当部分が切出像151として切り出されて表示される場合、ユーザは、発光時全体像のうち、必要なIP相当部分だけを確認することができる。これにより、ユーザは、例えば図34のような切出像151の表示を確認することによって、イメージングプレート10に未露光部分が含まれていることを容易に特定することができる。また、ユーザは、イメージングプレート10での未露光部分の範囲も容易に特定することができる。 When the clipping process is performed, the display unit 3 may display a clipped image 151 clipped from the entire image during light emission. In this case, the display unit 3 may display the clipped image 151 in grayscale as shown in FIGS. It can also be said that FIGS. 32 and 34 are schematic diagrams showing display examples of the cut-out image 151. FIG. When the clipped image 151 is displayed, the user can confirm only a necessary image of the whole image during flash. As in this example, when the portion corresponding to the IP is cut out from the whole image when the light is emitted and displayed as the clipped image 151, the user can confirm only the necessary portion corresponding to the IP in the whole image when the light is emitted. . Thereby, the user can easily specify that the imaging plate 10 includes an unexposed portion by checking the display of the cutout image 151 as shown in FIG. 34, for example. Also, the user can easily specify the range of the unexposed portion on the imaging plate 10 .

表示部3は、発光時全体像から切り出された切出像151と消去時全体像200とを同時にかつ別々に表示してもよい。図35は、表示部3の表示面3aに切出像151と消去時全体像200がグレースケールで表示されている様子の一例を示す概略図である。図35には、未露光領域像151bを含む切出像151が示されている。図35に示されるように、表示部3は、切出像151及び消去時全体像200を、例えば、切出像151と消去時全体像200のIP反射光像(IP相当部分)201とが同じ大きさとなるように表示してもよい。また、表示部3は、切出像151及び消去時全体像200を、例えば横並びに表示してもよい。表示部3が切出像151と消去時全体像200とを同時にかつ別々に表示することによって、ユーザは、切出像151と消去時全体像200とを簡単に見比べることができる。これにより、ユーザは、例えば、消去時全体像200に含まれるIP反射光像201と切出像151とを比較することによって、発光時全体像から適切にIP相当部分が切り出されているか否かを容易に特定することができる。 The display unit 3 may simultaneously and separately display the clipped image 151 clipped from the entire image at the time of light emission and the overall image 200 at the time of erasure. FIG. 35 is a schematic diagram showing an example of a state in which the clipped image 151 and the erased whole image 200 are displayed in gray scale on the display surface 3a of the display section 3. As shown in FIG. FIG. 35 shows a cutout image 151 including an unexposed area image 151b. As shown in FIG. 35, the display unit 3 displays a cutout image 151 and an erased whole image 200, for example, an IP reflected light image (IP corresponding portion) 201 of the cutout image 151 and an erased whole image 200. You may display so that it may become the same size. Further, the display unit 3 may display the cut-out image 151 and the erased whole image 200 side by side, for example. The user can easily compare the cutout image 151 and the erased whole image 200 by simultaneously and separately displaying the cutout image 151 and the erased whole image 200 on the display unit 3 . Thereby, for example, the user can compare the IP reflected light image 201 and the clipped image 151 included in the entire image 200 at the time of erasing to determine whether or not the portion corresponding to the IP has been appropriately extracted from the overall image at the time of emission. can be easily identified.

画像処理部81は、上述の傾き補正処理と同様に、発光時全体像から切り出した切出像151の傾きをIP傾き角度に基づいて補正してもよい。これにより、例えば、補正後の切出像151が表示される場合、ユーザは切出像151を見やすくなる。以後、傾き補正処理には、切出像151の傾きを補正することも含まれるものとする。 The image processing unit 81 may correct the tilt of the cutout image 151 cut out from the entire image during light emission based on the IP tilt angle, in the same manner as in the tilt correction processing described above. As a result, for example, when the corrected cut-out image 151 is displayed, the user can easily see the cut-out image 151 . Hereinafter, it is assumed that the tilt correction processing also includes correcting the tilt of the cut-out image 151 .

画像処理部81は、例えば、発光時全体像に対する上述の傾き補正処理と同様にして切出像151の傾きを補正する。具体的には、画像処理部81は、まず、切出像151の重心を求める。切出像151の重心は、発光時全体像の二値化像の高輝度領域の重心と一致する。したがって、画像処理部81は、発光時全体像の二値化像の高輝度領域の重心を求めることによって、切出像151の重心を求めることができる。次に、画像処理部81は、求めた重心を中心にして切出像151をIP傾き角度だけ回転させる。このとき、画像処理部81は、IP傾き角度がプラスの場合、切出像151を左回りにIP傾き角度だけ回転させる。一方で、IP傾き角度がマイナスの場合、画像処理部81は、切出像151を右回りにIP傾き角度だけ回転させる。これにより、切出像151の傾きが補正される。よって、切出像151に含まれる、発光時画像信号に基づく放射線像の傾きが補正される。 The image processing unit 81 corrects the tilt of the cut-out image 151 in the same manner as the above-described tilt correction processing for the entire image during light emission, for example. Specifically, the image processing unit 81 first obtains the center of gravity of the cutout image 151 . The center of gravity of the clipped image 151 coincides with the center of gravity of the high-brightness region of the binarized image of the entire image during illumination. Therefore, the image processing unit 81 can obtain the center of gravity of the clipped image 151 by obtaining the center of gravity of the high-luminance region of the binarized image of the whole image when the light is emitted. Next, the image processing unit 81 rotates the cutout image 151 by the IP tilt angle around the obtained center of gravity. At this time, if the IP tilt angle is positive, the image processing unit 81 rotates the cutout image 151 counterclockwise by the IP tilt angle. On the other hand, when the IP tilt angle is negative, the image processing unit 81 rotates the cutout image 151 clockwise by the IP tilt angle. As a result, the tilt of the cutout image 151 is corrected. Therefore, the tilt of the radiographic image based on the image signal at the time of light emission, which is included in the cutout image 151, is corrected.

図36~38は、発光時全体像に対して切出処理が行われ、その後、切出像151に対して傾き補正処理が行われる様子の一例を示す概略図である。図36~38の例では、上述の図16に示される反転前発光時全体像100aに対して切出処理が行われている。図36に示されるように、画像処理部81は、上述のようにして切出枠150を反転前発光時全体像100aに設定する。次に、画像処理部81は、反転前発光時全体像100aでの切出枠150内の切出像151を、図37に示されるように、反転前発光時全体像100aから切り出す。その後、図38に示されるように、画像処理部81は、切り出した切出像151の傾きをIP傾き角度に基づいて補正する。これにより、イメージングプレート10の基準姿勢からの傾きに応じた切出像151の傾きが適切に補正される。傾きが補正された切出像151の姿勢は、イメージングプレート10の姿勢が基準姿勢である場合に得られる切出像151の姿勢と同じとなる。 FIGS. 36 to 38 are schematic diagrams showing an example of how the clipping process is performed on the whole image when the light is emitted, and then the tilt correction process is performed on the clipped image 151. FIG. In the examples of FIGS. 36 to 38, the cropping process is performed on the whole image 100a at the time of light emission before reversal shown in FIG. 16 described above. As shown in FIG. 36, the image processing unit 81 sets the clipping frame 150 to the whole image 100a during light emission before reversal as described above. Next, the image processing unit 81 cuts out a cutout image 151 within the cutout frame 150 in the whole image 100a during light emission before reversal, as shown in FIG. Thereafter, as shown in FIG. 38, the image processing unit 81 corrects the tilt of the clipped image 151 based on the IP tilt angle. As a result, the tilt of the cutout image 151 corresponding to the tilt of the imaging plate 10 from the reference posture is appropriately corrected. The orientation of the cut-out image 151 whose tilt has been corrected is the same as the orientation of the cut-out image 151 obtained when the orientation of the imaging plate 10 is the reference orientation.

上記の例では、画像処理部81は、発光時全体像のIP相当部分を切出像151としているが、IP相当部分の一部を切出像151としてもよい。以下にこの場合の画像処理部81の動作の一例について説明する。 In the above example, the image processing unit 81 uses the portion corresponding to the IP of the whole image when the light is emitted as the clipped image 151 . An example of the operation of the image processing section 81 in this case will be described below.

図39は、イメージングプレート10を保持する保持部20の他の例を示す概略図である。図39では、保持部20の固定部22が備える各固定部分22aが接近位置に存在する様子が示されている。図39に示される保持部20(保持部20Aともいう)では、各固定部分22aが接近位置に存在する場合、固定部22は、イメージングプレート10の周縁部10aを覆う重なり部分220を有する。各固定部分22aは、接近位置に存在する場合、イメージングプレート10の周縁部10aを覆う重なり部分220aを有する。固定部22の重なり部分220は、複数の固定部分22aの重なり部分220aで構成されている。 FIG. 39 is a schematic diagram showing another example of the holding section 20 that holds the imaging plate 10. As shown in FIG. FIG. 39 shows that each fixing portion 22a of the fixing portion 22 of the holding portion 20 exists at the approach position. In the holding portion 20 (also referred to as holding portion 20A) shown in FIG. 39, the holding portion 22 has an overlapping portion 220 that covers the peripheral portion 10a of the imaging plate 10 when each fixing portion 22a is in the approached position. Each fixed portion 22a has an overlapping portion 220a that covers the peripheral edge 10a of the imaging plate 10 when in the approximated position. The overlapping portion 220 of the fixing portion 22 is composed of overlapping portions 220a of a plurality of fixing portions 22a.

イメージングプレート10が保持部20Aで保持されている場合、イメージングプレート10の周縁部10aが固定部22の重なり部分220で覆われることから、読取装置1では、重なり部分220が写る発光時全体像が得られる。 When the imaging plate 10 is held by the holding portion 20A, the peripheral edge portion 10a of the imaging plate 10 is covered with the overlapping portion 220 of the fixing portion 22. Therefore, in the reading device 1, the entire image in which the overlapping portion 220 is reflected is captured. can get.

図40は、イメージングプレート10が保持部20Aで保持されている場合に得られる反転前発光時全体像100aの一例を示す概略図である。図40に示される反転前発光時全体像100aには、固定部22の重なり部分220の像120(重なり部分像120ともいう)が含まれている。重なり部分像120は、重なり部分220からの励起光L1の反射光の検出に基づく像である。重なり部分像120は、複数の固定部分22aの重なり部分220aの像120a(重なり部分像120aともいう)で構成されている。本例では、各固定部分220aの表面には、例えば黒アルマイト処理が行われている。したがって、反転前発光時全体像100aに含まれる重なり部分像120の輝度値は小さくなる。 FIG. 40 is a schematic diagram showing an example of an entire image 100a during light emission before reversal obtained when the imaging plate 10 is held by the holding portion 20A. An image 120 of the overlapping portion 220 of the fixing portion 22 (also referred to as an overlapping partial image 120) is included in the whole image 100a at the time of light emission before reversal shown in FIG. The overlapping partial image 120 is an image based on detection of the reflected light of the excitation light L<b>1 from the overlapping portion 220 . The overlapping partial image 120 is composed of images 120a (also referred to as overlapping partial images 120a) of overlapping portions 220a of a plurality of fixed portions 22a. In this example, the surface of each fixing portion 220a is subjected to black alumite treatment, for example. Therefore, the luminance value of the overlapping partial image 120 included in the whole image 100a during light emission before inversion is reduced.

画像処理部81は、重なり部分像120が発光時全体像に含まれる場合、発光時全体像において、重なり部分像120(言い換えれば複数の重なり部分像120a)を切出像151が含まないように、IP相当部分の一部を切出像151として決定してもよい。この場合、画像処理部81は、例えば、上記と同様にして、IPサイズの種類とIP傾き角度に基づいて切出枠150を発光時全体像に設定する。上述のようにして設定された切出枠150の外形は、イメージングプレート10の外形に応じた形状を成すため、この時点では、切出枠150内には重なり部分像120が含まれる。図41は、図40に示される反転前発光時全体像100aに対して上述のようにして切出枠150が設定された様子の一例を示す概略図である。反転前発光時全体像100aに設定された切出枠150内には、重なり部分像120を構成する複数の重なり部分像120aが含まれる。 When the overlapping partial image 120 is included in the luminous whole image, the image processing unit 81 controls the cutout image 151 not to include the overlapping partial image 120 (in other words, a plurality of overlapping partial images 120a) in the luminous whole image. , a portion corresponding to IP may be determined as the cutout image 151 . In this case, the image processing unit 81, for example, similarly to the above, sets the clipping frame 150 to the entire image during light emission based on the type of IP size and the IP tilt angle. Since the outer shape of the clipping frame 150 set as described above forms a shape corresponding to the outer shape of the imaging plate 10, the overlapping partial image 120 is included in the clipping frame 150 at this point. FIG. 41 is a schematic diagram showing an example of how the cutout frame 150 is set as described above with respect to the whole image 100a at the time of light emission before reversal shown in FIG. A plurality of overlapping partial images 120a forming an overlapping partial image 120 are included in the cutout frame 150 set in the whole image 100a during light emission before reversal.

画像処理部81は、上述のようにして切出枠150を発光時全体像に設定した後、切出枠150内に重なり部分像120が含まれないように、切出枠150を例えば相似形で縮小する。このとき、画像処理部81は、切出枠150内に重なり部分像120が含まれないように、かつ縮小後の切出枠150ができるだけ大きくなるように、切出枠150を相似形で縮小する。画像処理部81は、例えば、発光時全体像の二値化像に基づいて、発光時全体像での各重なり部分像120aの位置及び範囲を特定することができる。そして、画像処理部81は、各重なり部分像120aについて特定した位置及び範囲に基づいて、切出枠150内に重なり部分像120が含まれないように、かつ縮小後の切出枠150ができるだけ大きくなるように、切出枠150を相似形で縮小する。そして、画像処理部81は、発光時全体像において縮小後の切出枠150内の部分を切出像151として決定する。これにより、重なり部分像120が含まれず、かつIP相当部分105aの大部分が含まれるような切出像151が得られる。図42は、図41に示される切出枠150が縮小された様子の一例を示す概略図である。画像処理部81は、図42に示されるように、反転前発光時全体像100aにおいて縮小後の切出枠150内の部分を切出像151として決定する。 After setting the clipping frame 150 to the entire image during light emission as described above, the image processing unit 81 sets the clipping frame 150 to, for example, a similar shape so that the overlapping partial image 120 is not included in the clipping frame 150 . to zoom out. At this time, the image processing unit 81 reduces the clipping frame 150 in a similar shape so that the overlapping partial image 120 is not included in the clipping frame 150 and the clipping frame 150 after reduction is as large as possible. do. For example, the image processing unit 81 can specify the position and range of each overlapping partial image 120a in the luminous overall image based on the binarized image of the luminous overall image. Then, based on the position and range specified for each overlapping partial image 120a, the image processing unit 81 prevents the overlapped partial image 120 from being included in the clipping frame 150 and reduces the clipping frame 150 after reduction as much as possible. The clipping frame 150 is reduced in a similar shape so as to become larger. Then, the image processing unit 81 determines a portion within the reduced cutout frame 150 as the cutout image 151 in the entire image during light emission. As a result, a cutout image 151 that does not include the overlapping partial image 120 and includes most of the IP corresponding portion 105a is obtained. FIG. 42 is a schematic diagram showing an example of how the clipping frame 150 shown in FIG. 41 is reduced. As shown in FIG. 42 , the image processing unit 81 determines a portion within the reduced cutout frame 150 as the cutout image 151 in the entire image 100a during light emission before reversal.

画像処理部81は、切出像151を決定すると、発光時全体像から切出像151を切り出す。図43は、図42に示される切出像151が反転前全体像100aから切り出された様子の一例を示す概略図である。 After determining the cut-out image 151, the image processing unit 81 cuts out the cut-out image 151 from the whole image at the time of light emission. FIG. 43 is a schematic diagram showing an example of how the clipped image 151 shown in FIG. 42 is clipped from the pre-reversal whole image 100a.

このように、画像処理部81が、切出像151が重なり部分像120を含まないようにIP相当部分の一部を切出像151として決定する場合には、固定部22の重なり部分220が写らない切出像151を得ることができる。これにより、例えば、切出像151が表示される場合、ユーザは、イメージングプレート10に相当する部分だけを確認することができる。 In this way, when the image processing unit 81 determines a portion of the IP equivalent portion as the clipped image 151 so that the clipped image 151 does not include the overlapping partial image 120, the overlapping portion 220 of the fixing unit 22 is A clipped image 151 that is not captured can be obtained. Thereby, for example, when the clipped image 151 is displayed, the user can confirm only the portion corresponding to the imaging plate 10 .

なお、画像処理部81は、発光時全体像から、重なり部分220が写らない切出像151を切り出す場合であっても、上述のように、切り出した切出像151の傾きをIP傾き角度に基づいて補正してもよい。この場合、表示制御部82は、傾きが補正された切出像151を表示部3に表示させてもよい。 Note that even when the image processing unit 81 cuts out the clipped image 151 in which the overlapping portion 220 does not appear from the entire image during light emission, the tilt of the clipped image 151 is adjusted to the IP tilt angle as described above. can be corrected based on In this case, the display control unit 82 may cause the display unit 3 to display the cropped image 151 whose tilt has been corrected.

図44は、イメージングプレート10が保持部20Aで保持されている場合に得られる反転前発光時全体像100aの他の例を示す概略図である。図45~47は、図44に示される反転前発光時全体像100aに対して切出処理が行われ、その後、切出像151に対して傾き補正処理が行われる様子の一例を示す概略図である。画像処理部81は、上述のようにして、反転前発光時全体像100aに切出枠150を設定し、その後、図45に示されるように、切出枠150内に重なり部分像120が含まれないように、かつ縮小後の切出枠150ができるだけ大きくなるように、切出枠150を相似形で縮小する。次に、画像処理部81は、反転前発光時全体像100aでの切出枠150内の切出像151を、図46に示されるように、反転前発光時全体像100aから切り出す。その後、図47に示されるように、画像処理部81は、切り出した切出像151の傾きをIP傾き角度に基づいて補正する。これにより、イメージングプレート10の基準姿勢からの傾きに応じた切出像151の傾きが適切に補正される。 FIG. 44 is a schematic diagram showing another example of the whole image 100a at the time of light emission before reversal obtained when the imaging plate 10 is held by the holding portion 20A. FIGS. 45 to 47 are schematic diagrams showing an example of how the pre-reversal luminous whole image 100a shown in FIG. is. Image processing unit 81 sets clipping frame 150 in whole image 100a during light emission before reversal as described above, and then, as shown in FIG. The clipping frame 150 is reduced in a similar shape so that the clipping frame 150 after reduction is as large as possible. Next, the image processing unit 81 cuts out a clipped image 151 within the clipping frame 150 in the whole image 100a during light emission before reversal, as shown in FIG. Thereafter, as shown in FIG. 47, the image processing unit 81 corrects the tilt of the clipped image 151 based on the IP tilt angle. As a result, the tilt of the cutout image 151 corresponding to the tilt of the imaging plate 10 from the reference posture is appropriately corrected.

このように、画像処理部81は、IPサイズ及びIP傾き角度に基づいて、発光時全体像のIP相当部分の少なくとも一部を切出像として決定することから、IP相当部分の少なくとも一部を発光時全体像から適切に切り出すことができる。 In this way, the image processing unit 81 determines at least a portion of the portion corresponding to the IP of the entire image at the time of light emission as the cropped image based on the IP size and the IP tilt angle. It can be appropriately cut out from the whole image at the time of light emission.

画像処理部81は、発光時全体像に重なり部分像120が含まれない場合であっても、発光時全体像に設定した切出枠150を例えば相似形に縮小し、発光時全体像において縮小後の切出枠150内の部分を切出像151として決定してもよい。この場合であっても、発光時全体像でのIP相当部分の一部が切出像151として決定される。また、画像処理部81は、発光時全体像に設定した切出枠150を例えば相似形に拡大し、発光時全体像において拡大後の切出枠150内の部分を切出像151として決定してもよい。この場合、発光時全体像において、IP相当部分とその周囲の部分(例えば、IP外側領域像の一部あるいは重なり部分像120の少なくとも一部)とが切出像151として決定される。 Even if the overlapped partial image 120 is not included in the whole image when the light is emitted, the image processing unit 81 reduces the cutout frame 150 set in the whole image when the light is emitted to a similar shape, for example, and reduces the whole image when the light is emitted. A later portion within the cutout frame 150 may be determined as the cutout image 151 . Even in this case, a portion of the portion corresponding to the IP in the entire image during light emission is determined as the cutout image 151 . In addition, the image processing unit 81 enlarges the cropped frame 150 set in the entire image during lighting to a similar shape, for example, and determines a portion within the enlarged cropped frame 150 in the total image during lighting as the cropped image 151 . may In this case, the portion corresponding to the IP and its surrounding portion (for example, a portion of the IP outer region image or at least a portion of the overlapping partial image 120) are determined as the cutout image 151 in the entire image during light emission.

切出処理において、画像処理部81は、IP反射光像を含む消去時全体像において切り出す対象の切出像(第2切出像ともいう)をIP傾き角度及びIPサイズに基づいて決定し、決定した第2切出像を消去時全体像から切り出してもよい。この場合、画像処理部81は、消去時全体像のIP相当部分(言い換えればIP反射光像)の少なくとも一部を第2切出像として決定してもよい。また、画像処理部81は、消去時全体像に重なり部分220の像が含まれる場合には、第2切出像が重なり部分220の像を含まないように第2切出像を決定してもよい。また、表示制御部82は、消去時全体像から切り出された第2切出像を表示部3に表示させてもよい。この場合、表示部3は、第2切出像と、発光時全体像から切り出された切出像(第1切出像ともいう)151とを、同時にかつ別々に表示してもよい。また、画像処理部81は、IP傾き角度に基づいて、切り出した第2切出像の傾きを補正してもよい。また、表示制御部82は、傾きが補正された第2切出像を表示部3に表示させてもよい。この場合、表示部3は、傾きが補正された第2切出像と、傾きが補正された第1切出像とを同時にかつ別々に表示してもよい。 In the clipping process, the image processing unit 81 determines a clipped image (also referred to as a second clipped image) to be clipped from the whole image at erasure including the IP reflected light image based on the IP tilt angle and the IP size, The determined second cropped image may be cropped from the erased whole image. In this case, the image processing unit 81 may determine at least a portion of the IP-corresponding portion (in other words, IP reflected light image) of the erased entire image as the second cut-out image. Further, when the image of the overlapping portion 220 is included in the erased whole image, the image processing section 81 determines the second cut-out image so that the image of the overlapping portion 220 is not included in the second cut-out image. good too. Further, the display control unit 82 may cause the display unit 3 to display a second clipped image clipped from the entire image at the time of erasure. In this case, the display unit 3 may simultaneously and separately display the second cut-out image and the cut-out image (also referred to as the first cut-out image) 151 cut out from the whole image at the time of light emission. Further, the image processing unit 81 may correct the tilt of the second cropped image based on the IP tilt angle. Further, the display control unit 82 may cause the display unit 3 to display the second cropped image whose tilt has been corrected. In this case, the display unit 3 may display the tilt-corrected second cut-out image and the tilt-corrected first cut-out image simultaneously and separately.

なお、イメージングプレート10が基準姿勢からほとんど傾くことがない場合には、画像処理部81は、IP傾き角度を用いずに、IPサイズに基づいて第1切出像及び第2切出像を決定してもよい。この場合、切出処理では、IP傾き角度に応じて切出枠を回転させる処理が不要となる。以後、切出像を表示することには、傾きが補正された切出像を表示することも含まれる。 Note that when the imaging plate 10 hardly tilts from the reference posture, the image processing unit 81 determines the first cutout image and the second cutout image based on the IP size without using the IP tilt angle. You may In this case, in the clipping process, the process of rotating the clipping frame according to the IP tilt angle is not required. Henceforth, displaying a cut-out image also includes displaying a cut-out image whose tilt has been corrected.

<未露光領域像の特定について>
画像処理部81は、第1切出像151での未露光領域像あるいは発光時全体像での未露光領域像を特定する未露光特定処理を行ってもよい。未露光特定処理は、図14の一連の処理の中で実行されてもよいし、図14の処理とは別のタイミングで実行されてもよい。また、未露光特定処理は、図24の一連の処理の中で実行されてもよいし、図24の処理とは別のタイミングで実行されてもよい。画像処理部81は、未露光領域像を特定する特定部として機能する。
<Specification of unexposed area image>
The image processing unit 81 may perform an unexposed identification process of identifying an unexposed area image in the first cut-out image 151 or an unexposed area image in the entire image during light emission. The unexposed identification process may be executed during the series of processes in FIG. 14, or may be executed at a timing different from the process in FIG. Also, the unexposed identification process may be executed during the series of processes in FIG. 24, or may be executed at a timing different from the process in FIG. The image processing unit 81 functions as a specifying unit that specifies an unexposed area image.

画像処理部81は、図37及び43等の例のように、IP相当部分の少なくとも一部を第1切出像151に設定した場合、未露光特定処理において、例えば、第1切出像151を二値化して得られる二値化像を生成する。ここで、上述の図32及び34のように、反転後発光時全体像100bから切り出された第1切出像151を反転後第1切出像151と呼ぶ。また、上述の図43及び46のように、反転前発光時全体像100aから切り出された第1切出像151を反転前第1切出像151と呼ぶ。 When at least part of the IP corresponding portion is set to the first cut-out image 151 as in the examples of FIGS. is binarized to generate a binarized image. Here, as shown in FIGS. 32 and 34, the first cut-out image 151 cut out from the whole image 100b at the time of light emission after reversal is referred to as the first cut-out image 151 after reversal. 43 and 46, the first cutout image 151 cut out from the whole image 100a during light emission before reversal is referred to as the first cutout image 151 before reversal.

反転前第1切出像151の二値化で使用するしきい値は、例えば、反転前第1切出像151に含まれる放射線像の最小輝度値よりも小さく、かつ反転前第1切出像151に含まれる未露光領域像の輝度値よりも大きい値に設定される。例えば、反転前第1切出像151に含まれる放射線像の最小輝度値が10000とし、反転前第1切出像151に含まれる未露光領域像の輝度値が3000である場合を考える。この場合、しきい値は、例えば5000に設定される。これにより、IP相当部分の少なくとも一部である反転前第1切出像151の二値化像では、未露光領域像に相当する部分が低輝度領域となり、放射線像に相当する部分が高輝度領域となる。画像処理部81は、反転前第1切出像151の二値化像での低輝度領域を特定することによって、反転前第1切出像151での未露光領域像を適切に特定することができる。なお、イメージングプレート10に未露光部分が含まれない場合には、反転前第1切出像151の二値化像には低輝度領域は含まれない。 The threshold used in the binarization of the pre-inversion first cutout image 151 is, for example, smaller than the minimum luminance value of the radiation image included in the pre-inversion first cutout image 151 and It is set to a value greater than the luminance value of the unexposed area image included in the image 151 . For example, consider a case where the minimum luminance value of the radiation image included in the first cutout image 151 before inversion is 10000 and the luminance value of the unexposed area image included in the first cutout image 151 before inversion is 3000. FIG. In this case, the threshold is set to 5000, for example. As a result, in the binarized image of the pre-reversal first cutout image 151, which is at least a part of the IP corresponding portion, the portion corresponding to the unexposed area image becomes a low-luminance region, and the portion corresponding to the radiation image becomes a high-luminance region. area. The image processing unit 81 appropriately specifies the unexposed area image in the first cut-out image 151 before inversion by specifying the low-luminance region in the binarized image of the first cut-out image 151 before inversion. can be done. Note that when the imaging plate 10 does not include an unexposed portion, the binarized image of the pre-inversion first cutout image 151 does not include a low luminance region.

また、反転後第1切出像151の二値化で使用するしきい値は、例えば、反転後第1切出像151に含まれる放射線像の最大輝度値よりも大きく、かつ反転後第1切出像151に含まれる未露光領域像の輝度値よりも小さい値に設定される。これにより、IP相当部分の少なくとも一部である反転後第1切出像151の二値化像では、未露光領域像に相当する部分が高輝度領域となり、放射線像に相当する部分が低輝度領域となる。画像処理部81は、反転後第1切出像151の二値化像での高輝度領域を特定することによって、反転後第1切出像151での未露光領域像を適切に特定することができる。 In addition, the threshold value used in the binarization of the post-reversal first cut-out image 151 is, for example, greater than the maximum luminance value of the radiation image included in the post-reversal first cut-out image 151 and It is set to a value smaller than the luminance value of the unexposed area image included in the cutout image 151 . As a result, in the binarized image of the post-reversal first cutout image 151, which is at least part of the IP-corresponding portion, the portion corresponding to the unexposed area image becomes a high-brightness region, and the portion corresponding to the radiation image becomes a low-brightness region. area. The image processing unit 81 appropriately specifies the unexposed area image in the post-inversion first cut-out image 151 by specifying the high-brightness region in the binarized image of the post-inversion first cut-out image 151. can be done.

このように、画像処理部81は、発光時全体像からIP相当部分の少なくとも一部を第1切出像151として切り出した場合、第1切出像151での未露光領域像を適切に特定することができる。 In this way, when the image processing unit 81 cuts out at least part of the IP-corresponding portion as the first cut-out image 151 from the entire image during light emission, the image processing unit 81 appropriately specifies the unexposed area image in the first cut-out image 151. can do.

未露光特定処理において、画像処理部81は、IP外側領域像及び重なり部分像120の少なくとも一方を含む第1切出像151での未露光領域像を特定してもよい。この場合、画像処理部81は、第1切出像151を三値化して三値化像を生成する。以後、IP外側領域像及び重なり部分像120を特に区別する必要がない場合には、それぞれを低反射領域像と呼ぶことがある。 In the unexposed identification process, the image processing section 81 may identify an unexposed area image in the first cut-out image 151 including at least one of the IP outer area image and the overlapping partial image 120 . In this case, the image processing unit 81 ternarizes the first cut-out image 151 to generate a ternarized image. Hereinafter, when there is no particular need to distinguish between the IP outer area image and the overlapping partial image 120, they may be referred to as low-reflection area images.

画像処理部81は、まず、第1切出像151を構成する複数の画素のそれぞれの輝度値と、予め設定された下側しきい値と上側しきい値とを比較する。上側しきい値は下側しきい値よりも大きい値である。画像処理部81は、第1切出像151を構成する複数の画素のそれぞれの輝度値について、下側しきい値未満の輝度値を第1の値に置き換え、下側しきい値以上上側しきい値未満の輝度値を第2の値に置き換え、上側しきい値以上の輝度値を第3の値に置き換える。ここで、第3の値は第2の値よりも大きく、第2の値は第1の値よりも大きい。これにより、第1切出像151が三値化されて三値化像が得られる。以後、三値化像において、輝度値が第3の値である領域を高輝度領域と呼び、輝度値が第2の値である領域を中輝度領域と呼び、輝度値が第1の値である領域を低輝度領域と呼ぶことがある。 The image processing unit 81 first compares the luminance value of each of the plurality of pixels forming the first cut-out image 151 with preset lower and upper threshold values. The upper threshold is a value greater than the lower threshold. The image processing unit 81 replaces the luminance values of each of the plurality of pixels forming the first cut-out image 151 with the first value if the luminance values are less than the lower threshold value, and increases the luminance values above the lower threshold value. Luminance values below the threshold are replaced with a second value, and luminance values above the upper threshold are replaced with a third value. Here, the third value is greater than the second value, and the second value is greater than the first value. As a result, the first cut-out image 151 is ternarized to obtain a ternarized image. Hereinafter, in a ternary image, an area having a luminance value of the third value will be referred to as a high luminance area, an area having a luminance value of the second value will be referred to as an intermediate luminance area, and an area having a luminance value of the first value will be referred to as a medium luminance area. A certain area is sometimes called a low luminance area.

反転前第1切出像151の三値化で使用される下側第1しきい値は、例えば、反転前第1切出像151に含まれる低反射領域像の輝度値よりも大きく、かつ反転前第1切出像151に含まれる未露光領域像の輝度値よりも小さい値に設定される。反転前第1切出像151の三値化で使用される上側しきい値は、例えば、反転前第1切出像151に含まれる未露光領域像の輝度値よりも大きく、かつ反転前第1切出像151に含まれる放射線像の最小輝度値よりも小さい値に設定される。例えば、反転前第1切出像151に含まれる放射線像の最小輝度値が10000、反転前第1切出像151に含まれる未露光領域像の輝度値が3000、反転前第1切出像151に含まれる低反射領域像の輝度値が1000である場合を考える。この場合、下側しきい値は例えば2000に設定され、上側しきい値は例えば5000に設定される。これにより、反転前第1切出像151の三値化像では、低反射領域像に相当する部分が低輝度領域となり、未露光領域像に相当する部分が中輝度領域となり、放射線像に相当する部分が高輝度領域となる。画像処理部81は、反転前第1切出像151の三値化像での中輝度領域を特定することによって、反転前第1切出像151での未露光領域像を適切に特定することができる。なお、イメージングプレート10に未露光部分が含まれない場合には、反転前第1切出像151の三値化像には、中輝度領域は含まれない。 The lower first threshold value used in the ternarization of the pre-inversion first cutout image 151 is, for example, greater than the luminance value of the low-reflection area image included in the pre-inversion first cutout image 151, and It is set to a value smaller than the luminance value of the unexposed area image included in the first cut-out image 151 before inversion. The upper threshold value used in the ternarization of the pre-inversion first cut-out image 151 is, for example, greater than the luminance value of the unexposed area image included in the pre-inversion first cut-out image 151 and It is set to a value smaller than the minimum luminance value of the radiographic image included in one cut-out image 151 . For example, the minimum luminance value of the radiation image included in the first cut-out image before reversal 151 is 10000, the luminance value of the unexposed area image included in the first cut-out image before reversal 151 is 3000, and the first cut-out image before reversal is 10000. Consider a case where the luminance value of the low-reflection area image included in 151 is 1000. FIG. In this case, the lower threshold is set to 2000, for example, and the upper threshold is set to 5000, for example. As a result, in the ternary image of the first cut-out image 151 before reversal, the portion corresponding to the low-reflection area image becomes a low-luminance area, and the portion corresponding to the unexposed area image becomes a medium-luminance area, which corresponds to a radiation image. The area where the brightness is high is the high brightness area. The image processing unit 81 appropriately specifies an unexposed area image in the first cut-out image 151 before inversion by specifying a medium luminance region in the ternary image of the first cut-out image 151 before inversion. can be done. Note that when the imaging plate 10 does not include an unexposed portion, the ternary image of the first cut-out image 151 before inversion does not include the intermediate luminance region.

反転後第1切出像151の三値化で使用される下限しきい値は、例えば、反転後第1切出像151に含まれる放射線像の最大輝度値よりも大きく、かつ反転後第1切出像151に含まれる未露光領域像の輝度値よりも小さい値に設定される。反転後第1切出像151の三値化で使用される上限しきい値は、例えば、反転後第1切出像151に含まれる未露光領域像の輝度値よりも大きく、かつ反転後第1切出像151に含まれる低反射領域像の輝度値よりも小さい値に設定される。これにより、反転後第1切出像151の三値化像では、低反射領域像に相当する部分が高輝度領域となり、未露光領域像に相当する部分が中輝度領域となり、放射線像に相当する部分が低輝度領域となる。画像処理部81は、反転後第1切出像151の三値化像での中輝度領域を特定することによって、反転後第1切出像151での未露光領域像を適切に特定することができる。 The lower limit threshold used in the ternarization of the post-reversal first cutout image 151 is, for example, greater than the maximum luminance value of the radiation image included in the post-reversal first cutout image 151 and It is set to a value smaller than the luminance value of the unexposed area image included in the cutout image 151 . The upper threshold value used in the ternarization of the post-reversal first cut-out image 151 is, for example, greater than the luminance value of the unexposed area image included in the post-reversal first cut-out image 151, It is set to a value smaller than the brightness value of the low-reflection area image included in one cut-out image 151 . As a result, in the ternary image of the first cut-out image 151 after reversal, the portion corresponding to the low-reflection area image becomes a high-brightness area, and the portion corresponding to the unexposed area image becomes a medium-brightness area, which corresponds to a radiation image. The area where the The image processing unit 81 appropriately specifies an unexposed area image in the post-inversion first cut-out image 151 by specifying a medium luminance region in the ternary image of the post-inversion first cut-out image 151. can be done.

このように、画像処理部81は、低反射領域像を含む第1切出像151での未露光領域像を適切に特定することができる。 In this manner, the image processing section 81 can appropriately identify the unexposed area image in the first cut-out image 151 including the low-reflection area image.

未露光特定処理において、画像処理部81は、発光時全体像での未露光領域像を特定してもよい。この場合、画像処理部81は、低反射領域像を含む第1切出像151での未露光領域像を特定する場合と同様にして、発光時全体像を三値化して三値化像を生成する。反転前発光時全体像100aの三値化で使用される下限しきい値及び上限しきい値は、反転前第1切出像151の三値化で使用される下限しきい値及び上限しきい値と同様に設定される。画像処理部81は、反転前発光時全体像100aの三値化像での中輝度領域を特定することによって、反転前発光時全体像100aでの未露光領域像を適切に特定することができる。また、反転後発光時全体像100bの三値化で使用される下限しきい値及び上限しきい値は、反転後第1切出像151の三値化で使用される下限しきい値及び上限しきい値と同様に設定される。画像処理部81は、反転後発光時全体像100bの三値化像での中輝度領域を特定することによって、反転後発光時全体像100bでの未露光領域像を適切に特定することができる。 In the unexposed identification process, the image processing section 81 may identify an unexposed area image in the entire image during light emission. In this case, the image processing unit 81 ternarizes the entire image during light emission to produce a ternarized image in the same manner as when specifying the unexposed area image in the first cut-out image 151 including the low-reflection area image. Generate. The lower threshold value and upper threshold value used in the ternarization of the pre-reversal luminous whole image 100a are the same as the lower threshold value and the upper threshold value used in the ternarization of the pre-reversal first cropped image 151. It is set in the same way as the value. The image processing unit 81 can appropriately specify an unexposed area image in the whole image 100a when emitting light before inversion by specifying a medium luminance area in the ternary image of the whole image 100a when emitting light before inversion. . In addition, the lower limit threshold and upper limit threshold used for ternarizing the post-reversal light emission entire image 100b are the same as the lower limit threshold and upper limit threshold used for ternarizing the post-reversal first cropped image 151. It is set similarly to the threshold. The image processing unit 81 can appropriately specify the unexposed area image in the post-reversal light emission overall image 100b by specifying the intermediate luminance region in the ternary image of the post-reversal light emission overall image 100b. .

画像処理部81が、第1切出像151あるいは発光時全体像において未露光領域像を特定した場合、表示制御部82は、第1切出像151あるいは発光時全体像において未露光領域像が存在することを通知する未露光通知情報161を表示部3に表示させてもよい。これにより、ユーザは、第1切出像151あるいは発光時全体像において未露光領域像が存在することを容易に認識することができる。よって、ユーザは、イメージングプレート10に未露光部分が含まれていることを容易に認識することができる。 When the image processing unit 81 specifies an unexposed area image in the first cut-out image 151 or the whole image when emitting light, the display control unit 82 determines whether the unexposed area image is in the first cut-out image 151 or the whole image when emitting light. The display unit 3 may display the non-exposed notification information 161 for notifying the presence. This allows the user to easily recognize that there is an unexposed area image in the first cut-out image 151 or the whole image at the time of emission. Therefore, the user can easily recognize that the imaging plate 10 includes an unexposed portion.

図48及び49は、未露光通知情報161の表示例を示す概略図である。図48の例では、放射線像151a及び未露光領域像151bを含む第1切出像151と未露光通知情報161とが表示部3の表示面3aに表示されている。図49の例では、反転後発光時全体像100bと未露光通知情報161とが表示面3aに表示されている。図48の例では、未露光領域像151bの範囲を縁取る縁取り線1510が、第1切出像151において未露光領域像151bが存在することを通知する未露光通知情報161として表示されている。同様に、図49の例では、未露光領域像103bの範囲を縁取る縁取り線1030が、反転後発光時全体像100bにおいて未露光領域像103bが存在することを通知する未露光通知情報161として表示されている。縁取り線1510及び1030は、少なくとも一色でカラー表示されてもよい。 48 and 49 are schematic diagrams showing display examples of the non-exposure notification information 161. FIG. In the example of FIG. 48 , a first cut-out image 151 including a radiation image 151 a and an unexposed area image 151 b and unexposed notification information 161 are displayed on the display surface 3 a of the display section 3 . In the example of FIG. 49, the entire image 100b at the time of light emission after reversal and the non-exposure notification information 161 are displayed on the display surface 3a. In the example of FIG. 48, a border line 1510 bordering the range of the unexposed area image 151b is displayed as the unexposed notification information 161 for notifying that the unexposed area image 151b exists in the first cut-out image 151. . Similarly, in the example of FIG. 49, the border line 1030 bordering the range of the unexposed area image 103b is used as the unexposed notification information 161 for notifying that the unexposed area image 103b exists in the post-reversal light emission entire image 100b. is displayed. Border lines 1510 and 1030 may be colored in at least one color.

未露光通知情報161は図48及び49の例には限られない。例えば、未露光領域像に対して付された斜線等のハッチングが未露光通知情報161として表示されてもよい。また、未露光領域像が少なくとも一色でカラー表示されることによって、未露光通知情報161が表示されてもよい。 The non-exposure notification information 161 is not limited to the examples in FIGS. For example, hatching such as oblique lines attached to the unexposed area image may be displayed as the unexposed notification information 161 . Further, the unexposed notification information 161 may be displayed by displaying the unexposed area image in at least one color.

また、図50に示されるように、第1切出像151を取り囲む枠状図形1511が未露光通知情報161として表示されてもよい。図50の例では、説明の便宜上、枠状図形1511にハッチングが示されているが、枠状図形1511にはハッチングが示されなくてもよいし、ハッチングが示されてもよい。また、枠状図形1511は、少なくとも一色でカラー表示されてもよい。同様に、発光時全体像において未露光領域像が特定された場合、当該発光時全体像を取り囲む枠状図形が未露光通知情報161として表示されてもよい。また、未露光通知情報161は文字及び記号の少なくとも一方で表示されてもよい。 Further, as shown in FIG. 50 , a frame-shaped figure 1511 surrounding the first cut-out image 151 may be displayed as the non-exposure notification information 161 . In the example of FIG. 50, the frame-shaped figure 1511 is hatched for convenience of explanation, but the frame-shaped figure 1511 may not be hatched or may be hatched. Also, the frame-shaped figure 1511 may be displayed in at least one color. Similarly, when an unexposed area image is identified in the entire image during light emission, a frame-shaped figure surrounding the overall image during light emission may be displayed as the unexposed notification information 161 . Also, the non-exposure notification information 161 may be displayed in at least one of characters and symbols.

なお、第1切出像151あるいは発光時全体像に未露光領域像が含まれない場合、つまり、画像処理部81が第1切出像151あるいは発光時全体像において未露光領域像を特定しなかった場合、表示制御部82は、第1切出像151あるいは発光時全体像において未露光領域像が存在しないことを通知する通知情報162を表示部3に表示させてもよい。これにより、ユーザは、イメージングプレート10に未露光部分が含まれていないことを容易に認識することができる。 If the first cut-out image 151 or the entire image during emission does not include the unexposed area image, that is, the image processing unit 81 specifies the unexposed area image in the first cut-out image 151 or the entire image during emission. If not, the display control unit 82 may cause the display unit 3 to display notification information 162 that notifies that there is no unexposed area image in the first cut-out image 151 or the whole image at the time of emission. Thereby, the user can easily recognize that the imaging plate 10 does not include an unexposed portion.

図51は、通知情報162の表示例を示す概略図である。図51には、第1切出像151に未露光領域像が存在しないことを通知する通知情報162の表示例が示されている。図51の例では、未露光領域像を含まない第1切出像151を取り囲む枠状図形1512が通知情報162として表示されている。図51の例では、説明の便宜上、枠状図形1512にハッチングが示されているが、枠状図形1512にはハッチングが示されなくてもよいし、ハッチングが示されてもよい。また、枠状図形1512は、少なくとも一色でカラー表示されてもよい。未露光通知情報161として図50の枠状図形1511が表示される場合には、未露光通知情報161としての枠状図形1511と、通知情報162としての枠状図形1512とは、互いに異なる態様で表示される。このとき、枠状図形1511と枠状図形1512は、互いに異なる色で表示されてもよい。また、枠状図形1511と枠状図形1512には、互いに異なるハッチングが示されてもよい。同様に、発光時全体像において未露光領域像が存在しない場合、当該発光時全体像を取り囲む枠状図形が通知情報162として表示されてもよい。また、通知情報162は文字及び記号の少なくとも一方で表示されてもよい。 FIG. 51 is a schematic diagram showing a display example of the notification information 162. As shown in FIG. FIG. 51 shows a display example of notification information 162 that notifies that there is no unexposed area image in the first cut-out image 151 . In the example of FIG. 51 , a frame-shaped figure 1512 surrounding the first cut-out image 151 that does not include the unexposed area image is displayed as the notification information 162 . In the example of FIG. 51, the frame-shaped figure 1512 is hatched for convenience of explanation, but the frame-shaped figure 1512 may not be hatched or may be hatched. Also, the frame-shaped figure 1512 may be displayed in at least one color. When the frame-shaped figure 1511 of FIG. 50 is displayed as the unexposed notification information 161, the frame-shaped figure 1511 as the unexposed notification information 161 and the frame-shaped figure 1512 as the notification information 162 are different from each other. Is displayed. At this time, the frame-shaped figure 1511 and the frame-shaped figure 1512 may be displayed in different colors. In addition, the frame-shaped figure 1511 and the frame-shaped figure 1512 may have different hatching. Similarly, when an unexposed area image does not exist in the whole image when the light is emitted, a frame-shaped figure surrounding the whole image when the light is emitted may be displayed as the notification information 162 . Also, the notification information 162 may be displayed using at least one of characters and symbols.

表示制御部82は、上述の図35に示されるように、第1切出像151と消去時全体像200とを同時にかつ別々に表示部3に表示させる場合であって、第1切出像151に未露光領域像が含まれる場合、図52に示されるように未露光通知情報161も一緒に表示部3に表示させてもよい。このとき、消去時全体像200の代わりに第2切出像が表示されてもよい。また、表示制御部82は、上述の図27に示されるように、発光時全体像と消去時全体像200とを同時にかつ別々に表示部3に表示させる場合であって、発光時全体像に未露光領域像が含まれる場合には、図53に示されるように未露光通知情報161も一緒に表示部3に表示させてもよい。このとき、消去時全体像200の代わりに第2切出像が表示されてもよい。 As shown in FIG. 35, the display control unit 82 causes the display unit 3 to simultaneously and separately display the first cut-out image 151 and the erased whole image 200. In this case, the first cut-out image When the unexposed area image is included in 151, the unexposed notification information 161 may also be displayed on the display unit 3 as shown in FIG. At this time, the second cropped image may be displayed instead of the erased whole image 200 . Further, as shown in FIG. 27 described above, the display control unit 82 causes the display unit 3 to simultaneously and separately display the whole image at the time of light emission and the whole image at the time of erasure 200. When an unexposed area image is included, unexposed notification information 161 may be displayed together on the display unit 3 as shown in FIG. At this time, the second cropped image may be displayed instead of the erased whole image 200 .

また、表示制御部82は、未露光領域像を含まない第1切出像151と消去時全体像200とを同時にかつ別々に表示部3に表示させる場合には、通知情報162も一緒に表示部3に表示させてもよい。このとき、消去時全体像200の代わりに第2切出像が表示されてもよい。同様に、表示制御部82は、未露光領域像を含まない発光時全体像と消去時全体像200とを同時にかつ別々に表示部3に表示させる場合には、通知情報162も一緒に表示部3に表示させてもよい。このとき、消去時全体像200の代わりに第2切出像が表示されてもよい。 In addition, when the display control unit 82 causes the display unit 3 to simultaneously and separately display the first cut-out image 151 not including the unexposed area image and the erased whole image 200, the notification information 162 is also displayed together. You may make it display on part 3. At this time, the second cropped image may be displayed instead of the erased whole image 200 . Similarly, when the display control unit 82 causes the display unit 3 to simultaneously and separately display the whole image at the time of emission and the whole image at the time of erasure 200, which do not include the unexposed area image, the notification information 162 is also displayed on the display unit. 3 may be displayed. At this time, the second cropped image may be displayed instead of the erased whole image 200 .

以上のように、本例に係る検出器40は、イメージングプレート10からの発光光L2だけではなく、イメージングプレート10からの励起光L1の反射光もある程度検出することができる。そのため、読取装置1は、発光光L2の検出に基づく放射線像と、反射光の検出に基づく反射光像(例えば未露光領域像など)とを得ることができる。よって、読取装置1の利便性が向上する。 As described above, the detector 40 according to this example can detect not only the emitted light L2 from the imaging plate 10 but also the reflected light of the excitation light L1 from the imaging plate 10 to some extent. Therefore, the reader 1 can obtain a radiation image based on detection of the emitted light L2 and a reflected light image (for example, an unexposed area image) based on detection of reflected light. Therefore, the convenience of the reading device 1 is improved.

例えば、読取装置1は、イメージングプレート10からの発光光L2の検出に基づく放射線像と、イメージングプレート10からの反射光の検出に基づく反射光像とを含む発光時全体像に基づいて、上述のように、IPサイズを適切に特定したり、IP傾き角度を適切に特定したりすることができる。 For example, the reader 1 reads the above-described whole image at the time of emission including a radiographic image based on detection of the emitted light L2 from the imaging plate 10 and a reflected light image based on detection of the reflected light from the imaging plate 10. , the IP size can be appropriately specified, and the IP tilt angle can be specified appropriately.

また例えば、読取装置1は、上述の図26,27,35,52,53等に示されるように、イメージングプレート10からの発光光L2の検出に基づく放射線像と、イメージングプレート10からの反射光の検出に基づく反射光像とを同時にかつ別々に表示することによって、ユーザは、イメージングプレート10から読み取られた放射線像とイメージングプレート10の外観とを簡単に見比べることができる。これにより、ユーザは、例えば、イメージングプレート10に未露光部分が含まれていることを容易に特定することができる。 Further, for example, as shown in FIGS. By simultaneously and separately displaying the reflected light image based on the detection of , the user can easily compare the radiation image read from the imaging plate 10 and the appearance of the imaging plate 10 . Thereby, the user can easily specify, for example, that the imaging plate 10 includes an unexposed portion.

上記の例では、励起光L1が照射される対象物が、イメージングプレート10であったが、イメージングプレート10以外であってもよい。励起光L1が照射される対象物は、例えば、読取装置1がイメージングプレート10から読み取った放射線像の画質評価のための評価用パターンを表面に有する評価用部材であってもよい。 In the above example, the object irradiated with the excitation light L1 was the imaging plate 10, but it may be other than the imaging plate 10. FIG. The object irradiated with the excitation light L1 may be, for example, an evaluation member having on its surface an evaluation pattern for image quality evaluation of a radiation image read from the imaging plate 10 by the reader 1 .

評価用部材は、例えば、イメージングプレート10と同様の大きさ及び形状を有しており、読取装置1の挿入口2aから読取装置1に入れられる。読取装置1に入れられた評価用部材は、イメージングプレート10と同様に保持部20で保持される。評価用部材には、放射線像形成層11は形成されていない。したがって、評価用部材に励起光L1が照射されたとしても、評価用部材からは発光光L2は発せられない。 The member for evaluation has, for example, the same size and shape as the imaging plate 10 and is inserted into the reader 1 through the insertion port 2a of the reader 1 . The evaluation member placed in the reading device 1 is held by the holding section 20 in the same manner as the imaging plate 10 . The radiation image forming layer 11 was not formed on the member for evaluation. Therefore, even if the evaluation member is irradiated with the excitation light L1, the evaluation member does not emit the emission light L2.

保持部20が評価用部材を保持する場合、上述の照射対象物1200は、保持部20と、保持部20で保持された評価用部材とで構成される。以後、照射対象物1200の支持側主面1200aにおいて評価用部材が存在する領域を評価用部材存在領域と呼ぶ。また、支持側主面1200aにおいて、評価用部材存在領域の外側であり、かつ励起光照射範囲R120及び検出範囲R110の内側の領域を評価用部材外側領域あるいは単に外側領域と呼ぶ。評価用部材存在領域はIP存在領域R100に対応し、評価用部材外側領域(言い換えれば外側領域)はIP外側領域R130に対応する。 When the holding unit 20 holds the evaluation member, the above-described irradiation object 1200 is composed of the holding unit 20 and the evaluation member held by the holding unit 20 . Hereinafter, the region where the evaluation member exists on the support-side main surface 1200a of the irradiation object 1200 is called an evaluation member existence region. On the supporting side main surface 1200a, a region outside the evaluation member existing region and inside the excitation light irradiation range R120 and the detection range R110 is called an evaluation member outer region or simply an outer region. The evaluation member existence region corresponds to the IP existence region R100, and the evaluation member outer region (in other words, the outer region) corresponds to the IP outer region R130.

図54~57は評価用部材900の一例を示す概略図である。図54には、検出放射線像の解像度を評価するための評価用部材900(解像度評価用部材900Aともいう)が示されている。図55には、検出放射線像の幾何学的精度を評価するための評価用部材900(幾何学的精度評価用部材900Bともいう)が示されている。図56には、検出放射線像のコントラストを評価するための評価用部材900(コントラスト評価用部材900Cともいう)が示されている。図57には、検出放射線像のアーチファクトを評価するための評価用部材900(アーチファクト評価用部材900Dともいう)が示されている。 54 to 57 are schematic diagrams showing an example of the evaluation member 900. FIG. FIG. 54 shows an evaluation member 900 (also referred to as resolution evaluation member 900A) for evaluating the resolution of detected radiation images. FIG. 55 shows an evaluation member 900 (also referred to as a geometric accuracy evaluation member 900B) for evaluating the geometric accuracy of a detected radiation image. FIG. 56 shows an evaluation member 900 (also referred to as a contrast evaluation member 900C) for evaluating the contrast of detected radiation images. FIG. 57 shows an evaluation member 900 (also referred to as an artifact evaluation member 900D) for evaluating artifacts in detected radiation images.

図54に示されるように、解像度評価用部材900Aの前面901aには、検出放射線像の解像度を評価するための解像度評価用パターン902aが示されている。解像度評価用パターン902aとしては、例えばラインペアチャートが採用される。 As shown in FIG. 54, a resolution evaluation pattern 902a for evaluating the resolution of the detected radiation image is shown on the front surface 901a of the resolution evaluation member 900A. A line pair chart, for example, is employed as the resolution evaluation pattern 902a.

図55に示されるように、幾何学的精度評価用部材900Bの前面901bには、検出放射線像の幾何学的精度を評価するための幾何学的精度評価用パターン902bが示されている。幾何学的精度評価用パターン902bとしては、例えば、複数の小さな点が格子状に並べられたパターンが採用される。 As shown in FIG. 55, a geometric accuracy evaluation pattern 902b for evaluating the geometric accuracy of the detected radiation image is shown on the front surface 901b of the geometric accuracy evaluation member 900B. As the geometric accuracy evaluation pattern 902b, for example, a pattern in which a plurality of small dots are arranged in a lattice is adopted.

図56に示されるように、コントラスト評価用部材900Cの前面901cには、検出放射線像のコントラストを評価するためのコントラスト評価用パターン902cが示されている。コントラスト評価用パターン902cとしては、例えば、グレースケールで表現された、明るさ(言い換えれば濃淡)の異なる複数の方形パターンが並べられたものが採用される。 As shown in FIG. 56, a contrast evaluation pattern 902c for evaluating the contrast of the detected radiation image is shown on the front surface 901c of the contrast evaluation member 900C. As the contrast evaluation pattern 902c, for example, a pattern in which a plurality of square patterns expressed in grayscale and having different brightness (in other words, shading) are arranged is adopted.

図57に示されるように、アーチファクト評価用部材900Dの前面901dには、検出放射線像のアーチファクトを評価するためのアーチファクト評価用パターン902dが示されている。アーチファクト評価用パターン902dとしては、例えば、単色の一様なパターンが採用される。例えば、真っ白なパターンがアーチファクト評価用パターン902dとして採用されてもよい。 As shown in FIG. 57, the front surface 901d of the artifact evaluation member 900D shows an artifact evaluation pattern 902d for evaluating the artifact of the detected radiation image. As the artifact evaluation pattern 902d, for example, a monochromatic uniform pattern is employed. For example, a pure white pattern may be employed as the artifact evaluation pattern 902d.

読取装置1では、評価用部材900は、その評価用パターンが光源30側に向くように保持部20で保持される。言い換えれば、評価用部材900は、その前面が光源30側に向くように保持部20で保持される。これより、評価用部材900の評価用パターンに対して励起光L1が照射される。そして、検出器40は、評価用部材900の前面及び評価用部材外側領域からの励起光L1の反射光を検出し、その検出結果としての画像信号を出力する。 In the reading device 1 , the evaluation member 900 is held by the holding section 20 so that the evaluation pattern faces the light source 30 side. In other words, the evaluation member 900 is held by the holding section 20 so that its front surface faces the light source 30 side. Thus, the evaluation pattern of the evaluation member 900 is irradiated with the excitation light L1. Then, the detector 40 detects the reflected light of the excitation light L1 from the front surface of the evaluation member 900 and the outer region of the evaluation member, and outputs an image signal as the detection result.

以後、評価用部材900が保持部20で保持されている場合の光の反射光の検出結果としての画像信号を評価用画像信号と呼ぶ。また、評価用画像信号に基づく全体の像を評価用全体像と呼ぶ。評価用全体像には、評価用パターンが写っており、評価用パターンの反射光像(以後、評価用パターン像ともいう)が含まれる。評価用全体像には放射線像は含まれない。評価用全体像は反射光像のみで構成されている。 Hereinafter, an image signal obtained as a detection result of reflected light when the evaluation member 900 is held by the holding unit 20 will be referred to as an evaluation image signal. A whole image based on the evaluation image signal is called an evaluation whole image. The whole evaluation image shows the evaluation pattern, and includes a reflected light image of the evaluation pattern (hereinafter also referred to as an evaluation pattern image). The evaluation global view does not include radiographic images. The whole image for evaluation consists only of reflected light images.

図58は、評価用パターンが写る評価用全体像を読取装置1が取得する場合の読取装置1の動作の一例を示すフローチャートである。筐体2の挿入口2aから挿入された評価用部材900が保持部20で保持され、操作部4がユーザからの所定の操作を受け付けると、図58に示されるように、ステップs51が実行される。ステップs51では、駆動部50が、駆動制御部83による制御によって、保持部20を読取開始位置に移動させる。ステップs51の後、ステップs52が実行される。 FIG. 58 is a flow chart showing an example of the operation of the reading device 1 when the reading device 1 acquires the evaluation whole image including the evaluation pattern. When the evaluation member 900 inserted from the insertion opening 2a of the housing 2 is held by the holding section 20 and the operation section 4 receives a predetermined operation from the user, step s51 is executed as shown in FIG. be. At step s<b>51 , the driving section 50 moves the holding section 20 to the reading start position under the control of the drive control section 83 . After step s51, step s52 is executed.

ステップs52では、光源30が評価用部材900の前面及び外側領域に対して励起光L1を照射する。そして、検出器40が、評価用部材900の前面及び外側領域での励起光L1の反射光を検出し、その検出結果としての評価用画像信号を出力する。評価用画像信号はグレースケールの画像信号である。 In step s52, the light source 30 irradiates the front surface and outer region of the evaluation member 900 with the excitation light L1. Then, the detector 40 detects the reflected light of the excitation light L1 at the front surface and outer region of the evaluation member 900, and outputs an evaluation image signal as the detection result. The evaluation image signal is a grayscale image signal.

ステップs52の後、ステップs53において、駆動部50は、駆動制御部83による制御によって、保持部20を排出位置に移動させる。次にステップs54において、評価用部材900は筐体2の取出口2bに排出される。そしてステップs55において、表示制御部82は、評価用画像信号に基づいて評価用全体像を表示部3に例えばグレースケール表示させる。読取装置1に解像度評価用部材900Aが入れられると、ステップs55では、解像度評価用パターン902aの像を含む評価用全体像が表示される。読取装置1に幾何学的精度評価用部材900Bが入れられると、ステップs55では、幾何学的精度評価用パターン902bの像を含む評価用全体像が表示される。読取装置1にコントラスト評価用部材900Cが入れられると、ステップs55では、コントラスト評価用パターン902cの像を含む評価用全体像が表示される。読取装置1にアーチファクト評価用部材900Dが入れられると、ステップs55では、アーチファクト評価用パターン902dの像を含む評価用全体像が表示される。なお、ステップs55は、ステップs52の後であれば、いつでも実行されてもよい。 After step s52, in step s53, the driving section 50 moves the holding section 20 to the discharge position under the control of the drive control section 83. FIG. Next, in step s54, the evaluation member 900 is discharged to the outlet 2b of the housing 2. FIG. Then, in step s55, the display control unit 82 causes the display unit 3 to display, for example, a grayscale image for evaluation based on the image signal for evaluation. When the resolution evaluation member 900A is put into the reading device 1, in step s55, an evaluation whole image including the image of the resolution evaluation pattern 902a is displayed. When the geometrical accuracy evaluation member 900B is inserted into the reading device 1, in step s55, an overall evaluation image including the image of the geometrical accuracy evaluation pattern 902b is displayed. When the contrast evaluation member 900C is placed in the reading device 1, in step s55, an entire evaluation image including the image of the contrast evaluation pattern 902c is displayed. When the artifact evaluation member 900D is placed in the reader 1, in step s55, an overall evaluation image including the image of the artifact evaluation pattern 902d is displayed. Note that step s55 may be executed at any time after step s52.

図59は、解像度評価用パターン902aの像を含む評価用全体像の一例を示す概略図である。図60は、幾何学的精度評価用パターン902bの像を含む評価用全体像の一例を示す概略図である。図61は、コントラスト評価用パターン902cの像を含む評価用全体像の一例を示す概略図である。図62は、アーチファクト評価用パターン902dの像を含む評価用全体像の一例を示す概略図である。表示部3は、ステップs55において、例えば図59~62のようなグレースケールで評価用全体像を表示する。 FIG. 59 is a schematic diagram showing an example of an overall evaluation image including an image of the resolution evaluation pattern 902a. FIG. 60 is a schematic diagram showing an example of an overall evaluation image including an image of the geometric accuracy evaluation pattern 902b. FIG. 61 is a schematic diagram showing an example of an overall evaluation image including an image of the contrast evaluation pattern 902c. FIG. 62 is a schematic diagram showing an example of an overall evaluation image including an image of the artifact evaluation pattern 902d. In step s55, the display unit 3 displays the overall image for evaluation in gray scales as shown in FIGS. 59 to 62, for example.

ユーザは、表示部3に表示される評価用全体像に含まれる評価用パターン像に基づいて、検出放射線像の画質を評価することができる。つまり、ユーザは、表示部3に表示される評価用パターン像に基づいて、検出放射線像の画質を評価することができる。例えば、ユーザは、表示部3に表示される解像度評価用パターン902aの像に基づいて、検出放射線像の解像度を評価する。また、ユーザは、表示部3に表示される幾何学的精度評価用パターン902bの像に基づいて、検出放射線像の幾何学的精度を評価する。また、ユーザは、表示部3に表示されるコントラスト評価用パターン902cの像に基づいて、検出放射線像のコントラストを評価する。また、ユーザは、表示部3に表示されるアーチファクト評価用パターン902dの像に基づいて、検出放射線像のアーチファクトを評価する。 The user can evaluate the image quality of the detected radiation image based on the evaluation pattern image included in the overall evaluation image displayed on the display unit 3 . That is, the user can evaluate the image quality of the detected radiation image based on the evaluation pattern image displayed on the display unit 3 . For example, the user evaluates the resolution of the detected radiation image based on the image of the resolution evaluation pattern 902a displayed on the display unit 3. FIG. Further, the user evaluates the geometric accuracy of the detected radiation image based on the image of the geometric accuracy evaluation pattern 902b displayed on the display unit 3. FIG. Also, the user evaluates the contrast of the detected radiation image based on the image of the contrast evaluation pattern 902 c displayed on the display unit 3 . Further, the user evaluates artifacts in the detected radiation image based on the image of the artifact evaluation pattern 902 d displayed on the display unit 3 .

このように、本例では、検出放射線像を得るための光源30及び検出器40が使用されて、評価用部材900の前面からの励起光L1の反射光の検出結果としての評価用画像信号が得られている。このため、評価用画像信号に基づく反射光像に含まれる評価用パターン像に基づいて、検出放射線像の画質を適切に評価することができる。よって、イメージングプレート10の放射線像形成層11に評価用パターンの像を記録するための高価な評価用ファントムを使用することなく、検出放射線像の画質を適切に評価することができる。 Thus, in this example, the light source 30 and the detector 40 for obtaining the detection radiation image are used, and the image signal for evaluation as a detection result of the reflected light of the excitation light L1 from the front surface of the member for evaluation 900 is obtained. have been obtained. Therefore, the image quality of the detected radiation image can be appropriately evaluated based on the evaluation pattern image included in the reflected light image based on the evaluation image signal. Therefore, the image quality of the detected radiation image can be properly evaluated without using an expensive evaluation phantom for recording the image of the evaluation pattern on the radiation image forming layer 11 of the imaging plate 10 .

評価用部材900は、例えば、紙、樹脂あるいは金属で構成されてもよい。また、評価用パターンは、評価用部材900の前面に印刷されて形成されてもよい。また、解像度評価用パターン902a及び幾何学的精度評価用パターン902bの少なくとも一方は、評価用部材900の前面での凹凸で構成されてもよい。評価用パターンが評価用部材900の前面に印刷される場合には、印刷技術によって精度の良い評価用パターンを得ることができる。よって、検出放射線像の画質評価をより適切に行うことができる。また、評価用部材900は、評価用パターンが印刷された印刷紙で構成されてもよい。この場合、安価な評価用部材900を用いて検出放射線像の画質評価を行うことができる。評価用部材900は厚紙で構成されてもよい。 The evaluation member 900 may be made of paper, resin, or metal, for example. Also, the evaluation pattern may be formed by being printed on the front surface of the evaluation member 900 . Also, at least one of the resolution evaluation pattern 902 a and the geometric accuracy evaluation pattern 902 b may be configured with unevenness on the front surface of the evaluation member 900 . When the evaluation pattern is printed on the front surface of the evaluation member 900, a highly accurate evaluation pattern can be obtained by printing technology. Therefore, image quality evaluation of the detected radiation image can be performed more appropriately. Also, the evaluation member 900 may be made of printed paper on which an evaluation pattern is printed. In this case, the image quality of the detected radiation image can be evaluated using the inexpensive evaluation member 900 . The evaluation member 900 may be constructed of cardboard.

本実施形態によると、光源30がイメージングプレート10に励起光L1を照射する。検出器40は 励起光L1によるイメージングプレート10からの発光光L2を検出し、発光光L2の検出結果として第1の画像信号を出力する第1の検出器として機能する。光源30は第1の画像信号に基づく検出放射線像の画質評価のための評価用パターンを表面に有する評価用部材900に励起光L1を照射する。検出器40は評価用部材900の表面からの励起光L1の反射光を検出し、反射光の検出結果として第2の画像信号を出力する第2の検出器として機能する。 According to this embodiment, the light source 30 irradiates the imaging plate 10 with the excitation light L1. The detector 40 functions as a first detector that detects the emitted light L2 from the imaging plate 10 due to the excitation light L1 and outputs a first image signal as the detection result of the emitted light L2. The light source 30 irradiates the evaluation member 900 having an evaluation pattern for image quality evaluation of the detected radiation image based on the first image signal on its surface with the excitation light L1. The detector 40 functions as a second detector that detects reflected light of the excitation light L1 from the surface of the evaluation member 900 and outputs a second image signal as a result of detection of the reflected light.

本実施形態では、検出器40が第1の検出器と第2の検出器を兼ねるように構成されているが、後述するように第1の検出器と第2の検出器を別体としてそれぞれ設け、第1の検出器で発光光を、第2の検出器で反射光を検出するようにしてよい。 In this embodiment, the detector 40 is configured to serve as both the first detector and the second detector. A first detector may detect emitted light and a second detector may detect reflected light.

<読取装置の他の構成例>
上記の例では、保持部20が移動しているが、保持部20は移動しなくてもよい。この場合、保持部20が停止した状態で、光源30、検出器40及び消去用光源70が移動することによって、読取装置1では上記と同様の処理が実現される。また、光源30、検出器40及び消去用光源70と、保持部20とが移動してもよい。
<Another configuration example of the reader>
Although the holding part 20 is moved in the above example, the holding part 20 does not have to be moved. In this case, by moving the light source 30, the detector 40, and the erasing light source 70 while the holding unit 20 is stopped, the reader 1 realizes the same processing as described above. Further, the light source 30, the detector 40, the erasing light source 70, and the holding section 20 may move.

また、読取装置1は複数の光源を備えてもよい。図63は2つの光源を備える読取装置1(読取装置1Aともいう)の構成例を示す概略図である。 Moreover, the reading device 1 may include a plurality of light sources. FIG. 63 is a schematic diagram showing a configuration example of a reading device 1 (also referred to as reading device 1A) provided with two light sources.

図63に示されるように、読取装置1Aは、上述の光源30と、それとは別の光源130とを備えている。光源130は、保持部20に保持されたイメージングプレート10あるは評価用部材900に対して照射光L11を照射することが可能である。光源130は、例えば光源30と同じ構成を有しており、照射光L11を主走査方向DRmに走査することが可能である。照射光L11は例えば可視光のレーザ光である。照射光L11の波長は、励起光L1の波長と同じであってもよいし、異なっていてもよい。光源130は、光源30と同様に、発光制御部86によって制御される。 As shown in FIG. 63, the reading device 1A includes the light source 30 described above and a light source 130 separate therefrom. The light source 130 can irradiate the imaging plate 10 or the evaluation member 900 held by the holding section 20 with the irradiation light L11. The light source 130 has, for example, the same configuration as the light source 30, and can scan the irradiation light L11 in the main scanning direction DRm. The irradiation light L11 is, for example, visible laser light. The wavelength of the irradiation light L11 may be the same as or different from the wavelength of the excitation light L1. Light source 130 is controlled by light emission controller 86 in the same manner as light source 30 .

光源130は、例えば、上述の図24のステップs22で使用されてもよい。この場合、ステップs22では、光源30でなく光源130が、消去済みイメージングプレート10の前面及びIP外側領域に対して照射光L11を照射する。ステップs22では、光源130は、光源30と同様に、発光制御部86による制御によって、照射光L11をイメージングプレート10及びIP外側領域上で主走査方向DRmに走査する処理を繰り返し実行する。一方で、ステップs22において、駆動部50は、上述の読取処理と同様に、イメージングプレート10を保持した保持部20を、副走査方向DRsに移動させる。保持部20が副走査方向DRsに移動している間に、照射光L11を主走査方向DRmに走査する処理が繰り返し実行されることにより、励起光L1と同様に、照射光L11がイメージングプレート10及びIP外側領域に対してラスタスキャンされる。ステップs22では、イメージングプレート10に対して照射光L11がラスタスキャンされる間、検出器40が、イメージングプレート10からの照射光L11の反射光を検出し、その検出結果としての消去時画像信号を出力する。この消去時画像信号に基づく消去時全体像は、励起光L1の反射光の検出に基づく上述の消去時全体像と同様に、IP反射光像及びIP外側領域像を含み、放射線像を含まない。図24のステップs27では、照射光L11の反射光の検出に基づく消去時全体像が表示される。読取装置1Aは、励起光L1の反射光の検出に基づく消去時全体像と同様に、照射光L11の反射光の検出に基づく消去時全体像を使用することができる。例えば、読取装置1Aは、照射光L11の反射光の検出に基づく消去時全体像に基づいてIP傾き角度を特定してもよいし、IPサイズを特定してもよい。 Light source 130 may be used, for example, in step s22 of FIG. 24 above. In this case, in step s22, the light source 130, not the light source 30, irradiates the front surface and the IP outer region of the erased imaging plate 10 with the illumination light L11. In step s22, similarly to the light source 30, the light source 130 repeats the process of scanning the imaging plate 10 and the IP outer region with the irradiation light L11 in the main scanning direction DRm under the control of the light emission control unit 86. On the other hand, in step s22, the driving section 50 moves the holding section 20 holding the imaging plate 10 in the sub-scanning direction DRs, as in the reading process described above. While the holding unit 20 is moving in the sub-scanning direction DRs, the process of scanning the irradiation light L11 in the main scanning direction DRm is repeatedly executed, so that the irradiation light L11 reaches the imaging plate 10 in the same manner as the excitation light L1. and IP outer regions. In step s22, while the imaging plate 10 is being raster-scanned with the irradiation light L11, the detector 40 detects the reflected light of the irradiation light L11 from the imaging plate 10, and outputs the erasing image signal as the detection result. Output. The erasing overall image based on the erasing image signal includes the IP reflected light image and the IP outer region image, and does not include the radiation image, similar to the above-described erasing overall image based on the detection of the reflected light of the excitation light L1. . At step s27 in FIG. 24, the entire image at the time of erasing is displayed based on the detection of the reflected light of the irradiation light L11. The reading device 1A can use the erasing overall image based on the detection of the reflected light of the irradiation light L11 as well as the erasing overall image based on the detection of the reflected light of the excitation light L1. For example, the reading device 1A may specify the IP tilt angle or the IP size based on the erasing overall image based on the detection of the reflected light of the irradiation light L11.

また光源130は、例えば上述の図58のステップs52で使用されてもよい。この場合、読取装置1Aでは、ステップs52において、光源30でなく光源130が、評価用部材900の前面及び外側領域に対して照射光L11を照射する。ステップs52での読取装置1Aの動作は、読取装置1Aの上述のステップs22での動作と同様である。ステップs52では、評価用部材900及び外側領域に対して照射光L11がラスタスキャンされる間、検出器40が、評価用部材900及び外側領域からの照射光L11の反射光を検出し、その検出結果としての評価用画像信号を出力する。この評価用画像信号に基づく評価用全体像は、励起光L1の反射光の検出に基づく上述の評価用全体像と同様に、評価用パターン像を含み、放射線像を含まない。図58のステップs55では、ステップs52で得られた評価用画像信号に基づいて、照射光L11の反射光の検出に基づく評価用全体像が表示部3に表示される。ユーザは、読取装置1Aの表示部3に表示される評価用全体像に含まれる評価用パターン像に基づいて、検出放射線像の画質評価を行うことができる。 Light source 130 may also be used, for example, in step s52 of FIG. 58 above. In this case, in the reading device 1A, the light source 130, not the light source 30, irradiates the front surface and the outer region of the evaluation member 900 with the irradiation light L11 in step s52. The operation of the reading device 1A in step s52 is the same as the operation of the reading device 1A in step s22 described above. In step s52, while the evaluation member 900 and the outer region are being raster-scanned with the irradiation light L11, the detector 40 detects the reflected light of the irradiation light L11 from the evaluation member 900 and the outer region. An evaluation image signal is output as a result. The overall evaluation image based on this evaluation image signal includes the evaluation pattern image and does not include the radiation image, like the above-described evaluation overall image based on the detection of the reflected light of the excitation light L1. At step s55 in FIG. 58, the evaluation whole image based on the detection of the reflected light of the irradiation light L11 is displayed on the display unit 3 based on the evaluation image signal obtained at step s52. The user can evaluate the image quality of the detected radiation image based on the evaluation pattern image included in the overall evaluation image displayed on the display unit 3 of the reading device 1A.

読取装置1は複数の検出器を備えてもよい。図64は2つの検出器と1つの光源を備える読取装置1(読取装置1Bともいう)の構成例を示す概略図である。 The reader 1 may comprise multiple detectors. FIG. 64 is a schematic diagram showing a configuration example of a reading device 1 (also referred to as reading device 1B) having two detectors and one light source.

図64に示されるように、読取装置1Bは、上述の検出器40と、検出器40とは別の検出器140とを備えている。また、読取装置1Bは、光源30を備えており、光源130は備えていない。検出器140は、例えば、検出器40と同様の構成を有している。検出器140は、検出器40と同様に、イメージングプレート10からの発光光L2を検出することができる。また、検出器140は、検出器40と同様に、イメージングプレート10あるいは評価用部材900からの励起光L1の反射光と、IP外側領域あるいは評価用部材外側領域からの励起光L1の反射光とを検出することができる。 As shown in FIG. 64, the reader 1B includes the detector 40 described above and a detector 140 different from the detector 40 . Further, the reading device 1B has the light source 30 and does not have the light source 130 . Detector 140 has, for example, the same configuration as detector 40 . Detector 140 can detect emitted light L2 from imaging plate 10 in the same manner as detector 40 . Further, the detector 140, like the detector 40, the reflected light of the excitation light L1 from the imaging plate 10 or the evaluation member 900, and the reflected light of the excitation light L1 from the IP outer region or the evaluation member outer region can be detected.

検出器140は、例えば、上述の図24のステップs22で使用されてもよい。この場合、読取装置1Bでは、ステップs22において、光源30が、消去済みイメージングプレート10の前面及びIP外側領域に対してラスタスキャンしている間、検出器140が、イメージングプレート10及びIP外側領域からの励起光L1の反射光を検出し、その検出結果としての消去時画像信号を出力する。この消去時画像信号に基づく消去時全体像は、今まで説明した消去時全体像と同様に、IP反射光像及びIP外側領域像を含み、放射線像を含まない。読取装置1Bは、ステップs22で取得された消去時全体像に基づいて、IP傾き角度の特定等の各種処理を行うことができる。 Detector 140 may, for example, be used in step s22 of FIG. 24 above. In this case, in the reader 1B, in step s22, while the light source 30 is raster scanning over the front surface and the IP outer region of the erased imaging plate 10, the detector 140 scans from the imaging plate 10 and the IP outer region. The reflected light of the excitation light L1 is detected, and an erasing image signal is output as the detection result. The erased whole image based on the erased image signal includes the IP reflected light image and the IP outer region image, but does not contain the radiation image, like the erased whole image described so far. The reading device 1B can perform various processes such as identification of the IP tilt angle based on the erased whole image acquired in step s22.

また検出器140は、例えば上述の図72のステップs52で使用されてもよい。この場合、読取装置1Bでは、ステップs52において、光源30が、評価用部材900の前面及び外側領域に対してラスタスキャンしている間、検出器140が、評価用部材900及び外側領域からの励起光L1の反射光を検出し、その検出結果としての評価用画像信号を出力する。この評価用画像信号に基づく評価用全体像は、今まで説明した評価用全体像と同様に、評価用パターン像を含み、放射線像を含まない。 Detector 140 may also be used, for example, in step s52 of FIG. 72 above. In this case, in the reader 1B, in step s52, while the light source 30 is raster scanning with respect to the front and outer regions of the evaluation member 900, the detector 140 detects excitation from the evaluation member 900 and the outer region. The reflected light of the light L1 is detected, and an evaluation image signal is output as the detection result. The overall evaluation image based on this evaluation image signal includes the evaluation pattern image and does not include the radiation image, like the evaluation overall image described above.

読取装置1は複数の検出器と複数の光源とを備えてもよい。図65は検出器40及び140と光源30及び130を備える読取装置1(読取装置1Cともいう)の構成例を示す概略図である。 The reader 1 may comprise multiple detectors and multiple light sources. FIG. 65 is a schematic diagram showing a configuration example of a reading device 1 (also referred to as reading device 1C) including detectors 40 and 140 and light sources 30 and 130. As shown in FIG.

読取装置1Cは、検出器140及び光源130を、例えば、上述の図24のステップs22で使用してもよい。この場合、読取装置1Cでは、ステップs22において、光源130が、消去済みイメージングプレート10の前面及びIP外側領域に対してラスタスキャンしている間、検出器140が、イメージングプレート10及びIP外側領域からの励起光L1の反射光を検出し、その検出結果としての消去時画像信号を出力する。この消去時画像信号に基づく消去時全体像は、今まで説明した消去時全体像と同様に、IP反射光像及びIP外側領域像を含み、放射線像を含まない。 The reader 1C may use the detector 140 and the light source 130, for example, in step s22 of FIG. 24 described above. In this case, in the reader 1C, in step s22, while the light source 130 is raster scanning over the front surface and IP outer region of the erased imaging plate 10, the detector 140 scans from the imaging plate 10 and the IP outer region. The reflected light of the excitation light L1 is detected, and an erasing image signal is output as the detection result. The erased whole image based on the erased image signal includes the IP reflected light image and the IP outer region image, but does not contain the radiation image, like the erased whole image described so far.

また、読取装置1Cは、検出器140及び光源130を、例えば、上述の図72のステップs52で使用してもよい。この場合、読取装置1Cでは、ステップs52において、光源130が、評価用部材900の前面及び外側領域に対してラスタスキャンしている間、検出器140が、評価用部材900及び外側領域からの励起光L1の反射光を検出し、その検出結果としての評価用画像信号を出力する。この評価用画像信号に基づく評価用全体像は、今まで説明した評価用全体像と同様に、評価用パターン像を含み、放射線像を含まない。 Also, the reading device 1C may use the detector 140 and the light source 130, for example, in step s52 of FIG. 72 described above. In this case, in the reader 1C, in step s52, while the light source 130 is raster-scanning the front and outer regions of the evaluation member 900, the detector 140 detects excitation from the evaluation member 900 and the outer region. The reflected light of the light L1 is detected, and an evaluation image signal is output as the detection result. The overall evaluation image based on this evaluation image signal includes the evaluation pattern image and does not include the radiation image, like the evaluation overall image described above.

読取装置1A及び1Cでは、光源130は、可視光以外の光を照射光L11として出力してもよい。例えば、照射光L11は、赤外線であってもよいし、紫外線であってもよい。この場合、検出器40及び検出器140としては、赤外線あるいは紫外線を検出できる検出器が採用される。 In the readers 1A and 1C, the light source 130 may output light other than visible light as the irradiation light L11. For example, the irradiation light L11 may be infrared rays or ultraviolet rays. In this case, a detector capable of detecting infrared rays or ultraviolet rays is employed as the detector 40 and the detector 140 .

また、読取装置1B及び1Cでは、照射光L11の反射光を検出する検出器140は、例えば、カメラで使用されるCCDセンサあるいはCMOSセンサを備えてもよい。CCDはCharge Coupled Deviceの略語であり、CMOSは、Complementary Metal Oxide Semiconductorの略語である。 Moreover, in the reading devices 1B and 1C, the detector 140 that detects the reflected light of the irradiation light L11 may include, for example, a CCD sensor or a CMOS sensor used in cameras. CCD is an abbreviation for Charge Coupled Device, and CMOS is an abbreviation for Complementary Metal Oxide Semiconductor.

また、読取装置1Cでは、光源130は、照射光L11を走査するのではなく、消去用光源70のように、1度の照射でイメージングプレート10あるいは評価用部材900の全範囲を照射光L11で照射してもよい。この場合、検出器140は、例えば、カメラで使用されるCCDセンサあるいはCMOSセンサを備えてもよい。 Further, in the reading device 1C, the light source 130 does not scan the irradiation light L11, but like the erasing light source 70, irradiates the entire range of the imaging plate 10 or the evaluation member 900 with the irradiation light L11 in one irradiation. You can irradiate. In this case, detector 140 may comprise, for example, a CCD sensor or a CMOS sensor used in cameras.

また、読取装置1B及び1Cでは、検出器40は、励起光L1の反射光を検出できなくてもよい。この場合、検出器40の光学フィルタ42は、励起光L1を透過させてなくてもよい。また、読取装置1Cでは、検出器40は、照射光L11の反射光を検出できなくてもよい。この場合、検出器40の光学フィルタ42は、照射光L11を透過させてなくてもよい。 Further, in the readers 1B and 1C, the detector 40 may not be able to detect the reflected light of the excitation light L1. In this case, the optical filter 42 of the detector 40 does not have to transmit the excitation light L1. Further, in the reading device 1C, the detector 40 may not be able to detect the reflected light of the irradiation light L11. In this case, the optical filter 42 of the detector 40 does not have to transmit the irradiation light L11.

検出器40が励起光L1の反射光を検出しない場合に取得される発光時全体像では、イメージングプレート10に未露光部分が含まれるとき、未露光領域像の輝度値と、IP外側領域像の輝度値とは同じような値となる。よって、イメージングプレート10に未露光部分が含まれる場合、画像処理部81は、上記のような二値化像を用いる方法では、発光時全体像に基づいてIP傾き角度及びIPサイズを特定することが難しくなる。しかしながら、イメージングプレート10に未露光部分が含まれる場合であっても、画像処理部81は、検出器140が出力する消去時画像信号に基づく消去時全体像に基づいて、IP傾き角度及びIPサイズを上記のようにして適切に特定することができる。 In the whole image during light emission acquired when the detector 40 does not detect the reflected light of the excitation light L1, when the imaging plate 10 includes an unexposed portion, the luminance value of the unexposed area image and the IP outer area image It becomes a value similar to the brightness value. Therefore, when the imaging plate 10 includes an unexposed portion, the image processing unit 81, in the method using the binarized image as described above, specifies the IP tilt angle and the IP size based on the entire image during light emission. becomes difficult. However, even if the imaging plate 10 includes an unexposed portion, the image processing unit 81 calculates the IP tilt angle and the IP size based on the erased whole image based on the erased image signal output by the detector 140. can be adequately identified as described above.

また、読取装置1B及び1Cでは、検出器140は、発光光L2を検出できなくてもよい。この場合、読取装置1B及び1Cは、イメージングプレート10から放射線像を消去することなくIP反射光像を得ることができる。例えば、読取装置1Bは、上述のステップs2の読取処理において、検出器40及び140を同時に動作させてもよい。この場合、検出器40での発光光L2の検出と、検出器14でのイメージングプレート10からの励起光L1の反射光の検出とが並行に行われる。検出器140が出力する画像信号に基づく全体の像は、消去時全体像と同様の像となり、IP反射光像及びIP外側領域像を含み、放射線像を含まない。また、読取装置1Cは、上述のステップs2の読取処理において、光源30及び130を同時に動作させるとともに検出器40及び140を同時に動作させてもよい。この場合、検出器40での発光光L2の検出と、検出器140でのイメージングプレート10からの照射光L11の反射光の検出とが並行に行われる。この場合も、検出器140が出力する画像信号に基づく全体の像は、消去時全体像と同様の像となり、IP反射光像及びIP外側領域像を含み、放射線像を含まない。このように、読取処理の中で、発光光L2の検出に基づく放射線像だけではなく、励起光L1あるいは照射光L11の反射光の検出に基づく反射光像を得ることによって、図24のステップs21及びs22の処理が不要となる。つまり、上述の図14の一連の処理の中で、発光光L2の検出に基づく放射線像と、励起光L1あるいは照射光L11の反射光の検出に基づく反射光像とを得ることができる。よって、読取装置1の動作を簡素化することができる。 Further, in the readers 1B and 1C, the detector 140 does not have to be able to detect the emitted light L2. In this case, the readers 1B and 1C can obtain the IP reflected light image without erasing the radiation image from the imaging plate 10. FIG. For example, the reading device 1B may simultaneously operate the detectors 40 and 140 in the reading process of step s2 described above. In this case, the detection of the emitted light L2 by the detector 40 and the detection of the reflected light of the excitation light L1 from the imaging plate 10 by the detector 14 are performed in parallel. The overall image based on the image signal output by the detector 140 is the same image as the erasing overall image, and includes the IP reflected light image and the IP outer area image, but does not include the radiation image. Further, the reading device 1C may simultaneously operate the light sources 30 and 130 and simultaneously operate the detectors 40 and 140 in the reading process of step s2 described above. In this case, the detection of the emitted light L2 by the detector 40 and the detection of the reflected light of the irradiation light L11 from the imaging plate 10 by the detector 140 are performed in parallel. Also in this case, the overall image based on the image signal output by the detector 140 is the same image as the erasing overall image, and includes the IP reflected light image and the IP outer region image, but does not include the radiation image. In this manner, in the reading process, not only the radiation image based on the detection of the emitted light L2 but also the reflected light image based on the detection of the reflected light of the excitation light L1 or the irradiation light L11 is obtained. and the processing of s22 becomes unnecessary. That is, in the series of processes shown in FIG. 14 described above, it is possible to obtain a radiographic image based on the detection of the emitted light L2 and a reflected light image based on the detection of the reflected light of the excitation light L1 or the irradiation light L11. Therefore, the operation of the reading device 1 can be simplified.

上記の例の読取装置1では、ACアダプタ5以外の複数の構成が、筐体2で一体化されていたが、一体化されていなくてもよい。例えば、読取装置1は、筐体2に設けられた表示部3とは別に、あるいは表示部3の代わりに、筐体2の外側に位置する表示部13を備えてもよい。図66は、筐体2表示面の外側に表示部13を備える読取装置1(読取装置1Dともいう)の構成の一例を示す概略図である。表示部13は表示装置13ともいえる。 In the reading device 1 of the above example, a plurality of components other than the AC adapter 5 are integrated in the housing 2, but they do not have to be integrated. For example, the reading device 1 may include a display section 13 positioned outside the housing 2 separately from the display section 3 provided in the housing 2 or instead of the display section 3 . FIG. 66 is a schematic diagram showing an example of a configuration of a reading device 1 (also referred to as a reading device 1D) having a display section 13 outside the display surface of the housing 2. As shown in FIG. The display unit 13 can also be called the display device 13 .

表示部13は、例えば、液晶表示装置あるいは有機EL表示装置であり、文字、記号、図形及び画像などの各種情報を表示することが可能である。表示部13は、筐体2内の制御部80の表示制御部82によって制御される。表示制御部82は、例えば、筐体2内のインタフェース部95を通じて、表示部13を制御することができる。インタフェース部95と表示部13との間の通信は、USBに準拠してもよいし、DisplayPortに準拠してもよいし、HDMI(High-Definition Multimedia Interface)(登録商標)に準拠してもよい。また、インタフェース部95は、表示部13と有線接続されてもよいし、無線接続されてもよい。表示部13は、取得全体像を表示してもよいし、切出像を表示してもよい。なお、図76の例では、読取装置1Dの筐体2に表示部3が設けられているが、表示部3は設けられなくてもよい。また、読取装置1Dは、図63~65に示されるように、複数の光源を備えてもよいし、複数の検出器を備えてもよい。 The display unit 13 is, for example, a liquid crystal display device or an organic EL display device, and is capable of displaying various information such as characters, symbols, graphics, and images. The display unit 13 is controlled by a display control unit 82 of a control unit 80 inside the housing 2 . The display control unit 82 can control the display unit 13 through the interface unit 95 inside the housing 2, for example. Communication between the interface unit 95 and the display unit 13 may conform to USB, DisplayPort, or HDMI (High-Definition Multimedia Interface) (registered trademark). . Further, the interface unit 95 may be wired or wirelessly connected to the display unit 13 . The display unit 13 may display an acquired whole image or may display a clipped image. In addition, in the example of FIG. 76, the display unit 3 is provided in the housing 2 of the reading device 1D, but the display unit 3 may not be provided. Further, the reading device 1D may include a plurality of light sources or a plurality of detectors, as shown in FIGS. 63-65.

図67及び68は、読取装置1の構成の他の一例を示す概略図である。図67及び68に示される読取装置1(読取装置1Eともいう)では、読取装置1Eの機能の一部を有するコンピュータ装置950が筐体2の外側に設けられている。図68に示されるように、コンピュータ装置950は、例えば、上述の表示部3、画像処理部81及び表示制御部82を備える。コンピュータ装置950は、例えば、パーソナルコンピュータ(汎用コンピュータともいう)であってもよい。この場合、コンピュータ装置950は、ノート型であってもよいし、デスクトップ型であってもよい。以後、読取装置1Eにおいて、筐体2と、筐体2によって一体化された複数の構成と、ACアダプタ5とをまとめて読取装置本体9と呼ぶことがある。 67 and 68 are schematic diagrams showing another example of the configuration of the reading device 1. FIG. In the reader 1 (also referred to as reader 1E) shown in FIGS. 67 and 68, a computer device 950 having part of the functions of the reader 1E is provided outside the housing 2 . As shown in FIG. 68, the computer device 950 includes, for example, the display section 3, the image processing section 81, and the display control section 82 described above. Computing device 950 may be, for example, a personal computer (also called a general purpose computer). In this case, the computer device 950 may be of a notebook type or a desktop type. Hereinafter, in the reading device 1E, the housing 2, a plurality of components integrated by the housing 2, and the AC adapter 5 may be collectively referred to as a reading device main body 9. FIG.

コンピュータ装置950は、読取装置本体9と通信することが可能である。コンピュータ装置950は、例えば、画像処理部81及び表示制御部82を有する制御部951と、読取装置本体9と通信するインタフェース部952とを備える。また、コンピュータ装置950は、ユーザからの操作を受け付ける操作部953を備える。 The computer device 950 can communicate with the reader main body 9 . The computer device 950 includes, for example, a control section 951 having an image processing section 81 and a display control section 82 and an interface section 952 communicating with the reading device main body 9 . The computer device 950 also includes an operation unit 953 that receives operations from the user.

制御部951は、コンピュータ装置950の動作を統合的に管理することが可能であり、制御回路ともいえる。制御部951は、例えば、表示部3及びインタフェース部952を制御することができる。また、制御部951は、操作部953が受け付けたユーザ操作に応じた処理を行うことができる。 The control unit 951 can integrally manage the operation of the computer device 950, and can be called a control circuit. The control unit 951 can control the display unit 3 and the interface unit 952, for example. Further, the control unit 951 can perform processing according to user operations received by the operation unit 953 .

制御部951は、例えば、少なくとも一つのプロセッサと、記憶部とを備え、一種のコンピュータ装置であるといえる。制御部951が備える少なくとも一つのプロセッサには、CPUが含まれてもよいし、CPU以外のプロセッサが含まれてもよい。制御部951では、少なくとも一つのプロセッサが記憶部(記憶回路ともいう)内のプログラムを実行することによって、各種機能が実現される。制御部951では、少なくとも一つのプロセッサが記憶部内のプログラムを実行することによって、機能ブロックとして、上述の画像処理部81及び表示制御部82が形成される。 The control unit 951 can be said to be a kind of computer device including, for example, at least one processor and a storage unit. At least one processor included in the control unit 951 may include a CPU, or may include a processor other than the CPU. In the control portion 951, various functions are realized by at least one processor executing a program in a storage portion (also referred to as a storage circuit). In the control unit 951, the image processing unit 81 and the display control unit 82 described above are formed as functional blocks by at least one processor executing a program in the storage unit.

操作部953は、例えば、キーボード及びマウスを備える。操作部953は、ユーザのタッチ操作を検出するタッチセンサを備えてもよい。操作部953がタッチセンサを備える場合、当該タッチセンサと表示部3とで、表示機能及びタッチ検出機能を有するタッチパネルディスプレイが構成されてもよい。 The operation unit 953 has, for example, a keyboard and a mouse. The operation unit 953 may include a touch sensor that detects a user's touch operation. When the operation unit 953 includes a touch sensor, the touch sensor and the display unit 3 may constitute a touch panel display having a display function and a touch detection function.

インタフェース部952は、読取装置本体9のインタフェース部95と通信することが可能である。インタフェース部952と読取装置本体9のインタフェース部95との間の通信は、イーサネットに準拠してもよいし、USBに準拠してもよいし、WiFiに準拠してもよいし、他の規格に準拠してもよい。インタフェース部952は、インタフェース部95と有線通信を行ってもよいし、無線通信を行ってもよい。インタフェース部952は、インタフェース回路ともいえるし、通信部ともいえるし、通信回路ともいえる。コンピュータ装置950の制御部951と、読取装置本体9の制御部80とは、インタフェース部952及びインタフェース部95を通じて、互いに情報のやり取りを行うことができる。 The interface section 952 can communicate with the interface section 95 of the reader body 9 . Communication between the interface unit 952 and the interface unit 95 of the reader body 9 may conform to Ethernet, USB, WiFi, or other standards. May comply. The interface unit 952 may perform wired communication with the interface unit 95, or may perform wireless communication. The interface unit 952 can be called an interface circuit, a communication unit, or a communication circuit. The control section 951 of the computer device 950 and the control section 80 of the reading device main body 9 can exchange information with each other through the interface section 952 and the interface section 95 .

読取装置1Eでは、コンピュータ装置950の制御部951と読取装置本体9の制御部80とが協働することによって、制御部80が行っていた上述の各種処理が実行される。読取装置1Eでは、検出制御部85が、検出器40が出力する画像信号をインタフェース部95に出力する。インタフェース部95は、入力された画像信号をインタフェース部952に出力する。インタフェース部952は、入力された画像信号を制御部951に入力する。画像処理部81は、制御部951に入力された画像信号に対して上述の画像処理を行う。そして、画像処理部81は、画像処理後の画像信号に基づいて、上述の傾き角度特定処理を実行したり、サイズ特定処理を実行したり、切出処理を実行したりする。また、表示制御部82は、画像処理後の画像信号に基づいて、例えば、取得全体像を表示部3に表示させる。 In the reader 1E, the control section 951 of the computer device 950 and the control section 80 of the reading device main body 9 work together to execute the above-described various processes that were performed by the control section 80 . In the reading device 1</b>E, the detection control section 85 outputs the image signal output by the detector 40 to the interface section 95 . The interface section 95 outputs the input image signal to the interface section 952 . The interface unit 952 inputs the input image signal to the control unit 951 . The image processing unit 81 performs the image processing described above on the image signal input to the control unit 951 . Then, the image processing unit 81 executes the above-described tilt angle specifying process, size specifying process, and clipping process based on the image signal after the image processing. Further, the display control unit 82 causes the display unit 3 to display, for example, an acquired overall image based on the image signal after image processing.

コンピュータ装置950の操作部953は、読取装置本体9の操作部4が受け付ける複数のユーザ操作の少なくとも一部を受け付けてもよい。例えば、操作部953は、図14の一連の処理の開始を指示するユーザ操作を受け付けてもよいし、図23の一連の処理の開始を指示するユーザ操作を受け付けてもよいし、図24の一連の処理の開始を指示するユーザ操作を受け付けてもよいし、図58の一連の処理の開始を指示するユーザ操作を受け付けてもよい。この場合、制御部951は、操作部953が受け付けたユーザ操作をインタフェース部952を通じて読取装置本体9に通知する。読取装置本体9では、制御部80が、インタフェース部95を通じて制御部951からの通知を受け取り、操作部953が受け付けたユーザ操作に応じた処理を実行する。 The operation unit 953 of the computer device 950 may receive at least some of the user operations received by the operation unit 4 of the reader main body 9 . For example, the operation unit 953 may accept a user operation instructing the start of the series of processes in FIG. 14, may accept a user operation instructing the start of the series of processes in FIG. A user operation instructing the start of a series of processes may be accepted, or a user operation instructing the start of the series of processes in FIG. 58 may be accepted. In this case, the control unit 951 notifies the reader main body 9 of the user operation received by the operation unit 953 through the interface unit 952 . In the reading device main body 9 , the control unit 80 receives the notification from the control unit 951 through the interface unit 95 and executes processing according to the user's operation received by the operation unit 953 .

また、操作部953は、操作部4が受け付けないユーザ操作を受け付けてもよいし、操作部4は、操作部953が受け付けないユーザ操作を受け付けてもよい。また、操作部953が受け付けたユーザ操作と、操作部4が受け付けたユーザ操作が競合する場合、読取装置1Eでは、例えば、読取装置本体9が受け付けたユーザ操作に応じた処理が優先的に実行されてもよい。 Further, the operation unit 953 may accept user operations that the operation unit 4 does not accept, and the operation unit 4 may accept user operations that the operation unit 953 does not accept. Further, when the user operation received by the operation unit 953 conflicts with the user operation received by the operation unit 4, in the reading device 1E, for example, processing according to the user operation received by the reading device main body 9 is preferentially executed. may be

なお、読取装置1Eは、上述の図1等に示されるように、筐体2に設けられた表示部を備えてもよい。また、読取装置1Eは、図63~65に示されるように、複数の光源を備えてもよいし、複数の検出器を備えてもよい。また、読取装置1Eは、操作部4及び953のどちらか一方を備えなくてもよい。また、読取装置1Eでは、読取装置本体9の制御部80が、コンピュータ装置950の画像処理部81が行う複数の処理の一部を代わりに実行してもよい。例えば、制御部80は、検出器40からの画像信号に対する画像処理を実行し、画像処理後の画像信号が画像処理部81に入力されてもよい。 Note that the reading device 1E may include a display section provided in the housing 2, as shown in FIG. 1 and the like described above. Further, the reading device 1E may be provided with a plurality of light sources or a plurality of detectors, as shown in FIGS. 63-65. Further, the reading device 1E does not have to include either one of the operation units 4 and 953 . Further, in the reading device 1E, the control section 80 of the reading device main body 9 may instead execute some of the processes performed by the image processing section 81 of the computer device 950 . For example, the control unit 80 may perform image processing on the image signal from the detector 40 and the image signal after image processing may be input to the image processing unit 81 .

以上のように、読取装置1は詳細に説明されたが、上記した説明は、全ての局面において例示であって、この開示がそれに限定されるものではない。また、上述した各種変形例は、相互に矛盾しない限り組み合わせて適用可能である。そして、例示されていない無数の変形例が、この開示の範囲から外れることなく想定され得るものと解される。 Although the reader 1 has been described in detail as above, the above description is illustrative in all aspects, and the present disclosure is not limited thereto. Moreover, the various modifications described above can be applied in combination as long as they do not contradict each other. And it is understood that numerous variations not illustrated can be envisioned without departing from the scope of this disclosure.

1,1A,1B,1C,1D,1E 読取装置
10 イメージングプレート
30,130 光源
40,140 検出器
81 画像処理部
900,900A,900B,900C,900D 評価用部材
902a,902b、902c、902d 評価用パターン
L1 励起光
L2 発光光
L11 照射光
1, 1A, 1B, 1C, 1D, 1E Reader 10 Imaging plate 30, 130 Light source 40, 140 Detector 81 Image processing unit 900, 900A, 900B, 900C, 900D Evaluation members 902a, 902b, 902c, 902d For evaluation Pattern L1 Excitation light L2 Emission light L11 Irradiation light

Claims (5)

イメージングプレートから放射線像を読み取る読取装置であって、
前記イメージングプレートに励起光を照射する光源と、
前記励起光による前記イメージングプレートからの発光光を検出し、当該発光光の検出結果としての第1の画像信号を出力する第1の検出器と
を備え、
前記光源は、前記第1の画像信号に基づく検出放射線像の画質評価のための評価用パターンを表面に有する評価用部材に前記励起光を照射し、
前記評価用部材の前記表面からの前記励起光の反射光を検出し、当該反射光の検出結果としての第2の画像信号を出力する第2の検出器をさらに備える、読取装置。
A reading device for reading a radiographic image from an imaging plate,
a light source that irradiates the imaging plate with excitation light;
A first detector that detects emitted light from the imaging plate due to the excitation light and outputs a first image signal as a detection result of the emitted light,
The light source irradiates the excitation light to an evaluation member having an evaluation pattern for image quality evaluation of the detected radiation image based on the first image signal on its surface,
The reading device further comprises a second detector that detects the reflected light of the excitation light from the surface of the evaluation member and outputs a second image signal as a detection result of the reflected light.
請求項1に記載の読取装置であって、
前記第1の検出器は前記第2の検出器として機能し、
前記第1の検出器は、前記発光光と前記反射光を検出する、読取装置。
The reader according to claim 1, wherein
the first detector functions as the second detector;
The reading device, wherein the first detector detects the emitted light and the reflected light.
請求項1または請求項2に記載の読取装置であって、
前記評価用部材では、前記評価用パターンが前記表面に印刷されている、読取装置。
The reader according to claim 1 or claim 2,
The reading device, wherein the evaluation pattern is printed on the surface of the evaluation member.
請求項3に記載の読取装置であって、
前記評価用部材は印刷紙である、読取装置。
A reader according to claim 3, wherein
The reading device, wherein the member for evaluation is printed paper.
請求項1から請求項4のいずれか一つに記載の読取装置であって、
前記第2の画像信号に基づく反射光像を表示する、読取装置。
The reader according to any one of claims 1 to 4,
A reader that displays a reflected light image based on the second image signal.
JP2021189735A 2021-11-22 2021-11-22 Reading device Pending JP2023076350A (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2021189735A JP2023076350A (en) 2021-11-22 2021-11-22 Reading device
US18/055,901 US20230164279A1 (en) 2021-11-22 2022-11-16 Reading apparatus
EP22208546.6A EP4209809A1 (en) 2021-11-22 2022-11-21 Radiography image reading apparatus
CN202211467076.6A CN116148283A (en) 2021-11-22 2022-11-22 Reading device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021189735A JP2023076350A (en) 2021-11-22 2021-11-22 Reading device

Publications (1)

Publication Number Publication Date
JP2023076350A true JP2023076350A (en) 2023-06-01

Family

ID=86548042

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021189735A Pending JP2023076350A (en) 2021-11-22 2021-11-22 Reading device

Country Status (1)

Country Link
JP (1) JP2023076350A (en)

Similar Documents

Publication Publication Date Title
US10560634B2 (en) Image inspection apparatus and image inspection method
US20180348144A1 (en) Image Inspection Apparatus And Image Inspection Method
KR20160007361A (en) Image capturing method using projecting light source and image capturing device using the method
JP5933357B2 (en) Overhead image reader
JP2008170325A (en) Stain flaw detection method and stain flaw detection device
JP2008073158A (en) Image processor
US9531950B2 (en) Imaging system and imaging method that perform a correction of eliminating an influence of ambient light for measurement data
JP2010153975A (en) Image reading apparatus
US8441702B2 (en) Scanning and capturing digital images using residue detection
JP2020053931A (en) Image processing system, image scanner, and image processing method
JP2023076350A (en) Reading device
JP7457085B2 (en) reading device
JP7324116B2 (en) Foreign matter inspection device and foreign matter inspection method
JP2023076397A (en) Reading device and program
JP2023076349A (en) Reading device and program
EP4209809A1 (en) Radiography image reading apparatus
JP5618664B2 (en) Image processing method, program, image reading apparatus, and information device
JP4630477B2 (en) Image signal processing method
CN114450579A (en) Image processing system, setting method, and program
JP2008249783A (en) Image display device and method, and screen
US20210286094A1 (en) System and method for providing imaging parameters
WO2020241844A1 (en) Image processing device and image processing program
JP2021117108A (en) Control device, control method, and program
US20240080403A1 (en) Image processing apparatus, image processing method, and non-transitory computer readable medium
JP2008185352A (en) Color identification apparatus and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230407

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240409