JP2023076349A - Reading device and program - Google Patents

Reading device and program Download PDF

Info

Publication number
JP2023076349A
JP2023076349A JP2021189734A JP2021189734A JP2023076349A JP 2023076349 A JP2023076349 A JP 2023076349A JP 2021189734 A JP2021189734 A JP 2021189734A JP 2021189734 A JP2021189734 A JP 2021189734A JP 2023076349 A JP2023076349 A JP 2023076349A
Authority
JP
Japan
Prior art keywords
image
imaging plate
light
size
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021189734A
Other languages
Japanese (ja)
Inventor
正志 吉岡
Masashi Yoshioka
義人 杉原
Yoshihito Sugihara
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
J Morita Manufaturing Corp
Original Assignee
J Morita Manufaturing Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by J Morita Manufaturing Corp filed Critical J Morita Manufaturing Corp
Priority to JP2021189734A priority Critical patent/JP2023076349A/en
Priority to US18/055,901 priority patent/US20230164279A1/en
Priority to EP22208546.6A priority patent/EP4209809A1/en
Priority to CN202211467076.6A priority patent/CN116148283A/en
Publication of JP2023076349A publication Critical patent/JP2023076349A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Radiography Using Non-Light Waves (AREA)
  • Facsimile Scanning Arrangements (AREA)

Abstract

To provide a technique to make it possible to read a radiological image from an imaging plate more reliably.SOLUTION: A reading device for reading a radiological image from an imaging plate includes a light source, a detector, and a determination unit. The light source irradiates the imaging plate with light. The detector detects the light reflected from the imaging plate. The determination unit determines, on the basis of the detection result of the detector, whether the imaging plate is set with the front and back side reversed.SELECTED DRAWING: Figure 6

Description

本開示は、読取装置に関する。 The present disclosure relates to reading devices.

特許文献1は、走査手段により、蓄積性蛍光体シート上を励起光により主走査して、シートから輝尽発光光を生ぜしめること、その輝尽発光光を光検出器により検出すること、その検出結果に基づいて再生画像を得ることが開示されている。 Patent Document 1 discloses that a stimulable phosphor sheet is main-scanned with excitation light by a scanning means to generate stimulated luminescence from the sheet, the stimulated luminescence is detected by a photodetector, and the Obtaining a reconstructed image based on the detection result is disclosed.

特開昭61-267451号公報JP-A-61-267451

しかしながら、読取装置に対して、蓄積性蛍光体シートが表裏逆にセットされると、励起光を照射しても輝尽発光光は生じず、従って、再生画像を得ることができない。 However, if the stimulable phosphor sheet is set upside down on the reading device, no stimulated luminescence is generated even when the stimulating light is applied, and therefore a reproduced image cannot be obtained.

そこで、本開示は、イメージングプレートから放射線像がより確実に読み取られるようにすることを目的とする。 Accordingly, an object of the present disclosure is to more reliably read a radiographic image from an imaging plate.

第1の態様に係る読取装置は、イメージングプレートから放射線像を読み取る読取装置であって、前記イメージングプレートに光を照射する光源と、前記イメージングプレートからの前記光の反射光を検出する検出器と、前記検出器の検出結果に基づいて、前記イメージングプレートが表裏逆にセットされているか否かを判定する判定部とを備える。 A reading device according to a first aspect is a reading device for reading a radiation image from an imaging plate, comprising: a light source for irradiating the imaging plate with light; and a detector for detecting reflected light of the light from the imaging plate. and a determination unit that determines whether or not the imaging plate is set upside down based on the detection result of the detector.

第2の態様は、第1の態様に係る読取装置であって、前記光は、前記イメージングプレートから放射線像を読み取るために前記イメージングプレートを励起させる励起光として機能する。 A second aspect is the reading device according to the first aspect, wherein the light functions as excitation light that excites the imaging plate to read a radiation image from the imaging plate.

第3の態様は、第1または第2の態様に係る読取装置であって、前記検出器は、励起光による前記イメージングプレートからの発光光を検出する。 A third aspect is the reader according to the first or second aspect, wherein the detector detects light emitted from the imaging plate by excitation light.

第4の態様は、第1から第3の態様のいずれか一つに係る読取装置であって、前記イメージングプレートの裏面には、少なくとも一つの裏面特有情報が示されている。 A fourth aspect is the reading device according to any one of the first to third aspects, wherein at least one back surface specific information is indicated on the back surface of the imaging plate.

第5の態様は、第4の態様に係る読取装置であって、前記光源は、前記イメージングプレート上で前記光を走査し、前記イメージングプレートの前記裏面には、複数の裏面特有情報が示されている。 A fifth aspect is the reader according to the fourth aspect, wherein the light source scans the light on the imaging plate, and the back surface of the imaging plate shows a plurality of back surface specific information. ing.

第6の態様は、第1から第5の態様のいずれか一つに係る読取装置であって、前記イメージングプレートの前面には、少なくとも一つの前面特有情報が示されている。 A sixth aspect is the reading device according to any one of the first to fifth aspects, wherein at least one front surface specific information is indicated on the front surface of the imaging plate.

第7の態様は、第6の態様に係る読取装置であって、前記光源は、前記イメージングプレート上で前記光を走査し、前記イメージングプレートの前記前面には、複数の前面特有情報が示されている。 A seventh aspect is the reading device according to the sixth aspect, wherein the light source scans the light over the imaging plate, and the front surface of the imaging plate displays a plurality of front surface specific information. ing.

第8の態様は、第1から第7の態様のいずれか一つに係る読取装置であって、前記イメージングプレートの周縁に、前記イメージングプレートが表裏逆にセットされているか否かを判定するための少なくとも一つの凸部が設けられている。 An eighth aspect is the reading device according to any one of the first to seventh aspects, for determining whether or not the imaging plate is set upside down on the peripheral edge of the imaging plate. is provided with at least one protrusion of

第9の態様は、第8の態様に係る読取装置であって、前記光源は、前記イメージングプレート上で前記光を走査し、前記イメージングプレートの周縁に、前記イメージングプレートが表裏逆にセットされているか否かを判定するための複数の凸部が設けられている。 A ninth aspect is the reader according to the eighth aspect, wherein the light source scans the light on the imaging plate, and the imaging plate is set upside down on the periphery of the imaging plate. A plurality of protrusions are provided for determining whether or not there is.

第10の態様は、第1から第9の態様のいずれか一つに係る読取装置であって、前記イメージングプレートが表裏逆にセットされていると判定されたとき、ユーザに警告を通知する。 A tenth aspect is the reading device according to any one of the first to ninth aspects, in which a user is notified of a warning when it is determined that the imaging plate is set upside down.

第11の態様は、第1から第10の態様のいずれか一つに係る読取装置であって、前記イメージングプレートが表裏逆にセットされていないと判定されたとき、前記放射線像が読み取られた前記イメージングプレートに対して、前記放射線像を消去するための消去光を照射し、前記イメージングプレートが表裏逆にセットされていると判定されたとき、前記イメージングプレートに前記消去光を照射しない。 An eleventh aspect is the reading device according to any one of the first to tenth aspects, wherein the radiation image is read when it is determined that the imaging plate is not set upside down. The imaging plate is irradiated with erasing light for erasing the radiation image, and when it is determined that the imaging plate is set upside down, the imaging plate is not irradiated with the erasing light.

第12の態様は、第1から第11の態様のいずれか一つに係る読取装置であって、前記光源は、前記イメージングプレート上で前記光を走査する走査処理を実行し、前記走査処理の間に、前記イメージングプレートが表裏逆にセットされていると判定されたとき、前記走査処理を中止する。 A twelfth aspect is the reading device according to any one of the first to eleventh aspects, wherein the light source performs a scanning process of scanning the light on the imaging plate, and In the meantime, when it is determined that the imaging plate is set upside down, the scanning process is aborted.

第13の態様は、第1から第10の態様のいずれか一つに係る読取装置であって、前記イメージングプレートが表裏逆にセットされていると判定されたとき、前記イメージングプレートを排出する。 A thirteenth aspect is the reading device according to any one of the first to tenth aspects, wherein the imaging plate is ejected when it is determined that the imaging plate is set upside down.

第14の態様は、第13の態様に係る読取装置であって、前記イメージングプレートが表裏逆にセットされていないと判定されたとき、前記放射線像が読み取られた前記イメージングプレートに対して、前記放射線像を消去するための消去光を照射し、前記イメージングプレートが表裏逆にセットされていると判定されたとき、前記イメージングプレートに前記消去光を照射せずに前記イメージングプレートを排出する。 A fourteenth aspect is the reading device according to the thirteenth aspect, wherein when it is determined that the imaging plate is not set upside down, the imaging plate from which the radiographic image has been read is read with the Erasing light for erasing the radiation image is emitted, and when it is determined that the imaging plate is set upside down, the imaging plate is discharged without being irradiated with the erasing light.

第15の態様は、第13または第14の態様に係る読取装置であって、前記光源は、前記イメージングプレート上で前記光を走査する走査処理を実行し、前記走査処理の間に、前記イメージングプレートが表裏逆にセットされていると判定されたとき、前記走査処理を中止して前記イメージングプレートを排出する。 A fifteenth aspect is the reading device according to the thirteenth or fourteenth aspect, wherein the light source performs a scanning process of scanning the light on the imaging plate, and during the scanning process, the imaging When it is determined that the plate is set upside down, the scanning process is terminated and the imaging plate is ejected.

第16の態様は、イメージングプレートから放射線像を読み取る読取装置であって、前記イメージングプレートに光を照射する光源と、前記イメージングプレートからの前記光の反射光を検出する検出器とを備える読取装置を制御するためのプログラムであって、前記読取装置に、前記検出器の検出結果に基づいて、前記イメージングプレートが表裏逆にセットされているか否かを判定させるためのプログラムである。 A sixteenth aspect is a reading device for reading a radiation image from an imaging plate, the reading device comprising: a light source for irradiating the imaging plate with light; and a detector for detecting reflected light of the light from the imaging plate. , and causes the reading device to determine whether or not the imaging plate is set upside down based on the detection result of the detector.

第17の態様は、第16の態様に係るプログラムであって、前記読取装置に、前記イメージングプレートが表裏逆にセットされていると判定されたとき、前記ユーザに警告を通知させるためのプログラムである。 A seventeenth aspect is a program according to the sixteenth aspect, which is a program for notifying the user of a warning when the reader determines that the imaging plate is set upside down. be.

第18の態様は、第16または第17の態様に係るプログラムであって、前記読取装置に、前記イメージングプレートが表裏逆にセットされていると判定されたとき、前記イメージングプレートを排出させるためのプログラムである。 An eighteenth aspect is the program according to the sixteenth or seventeenth aspect, for causing the reader to eject the imaging plate when it is determined that the imaging plate is set upside down. It's a program.

第1及び16の態様によると、検出器の検出結果に基づいてイメージングプレートが表裏逆にセットされているか否かを判定することができる。これにより、判定結果に基づいて、メージングプレートから放射線像をより確実に読み取れるようにすることができる。 According to the first and sixteenth aspects, it is possible to determine whether the imaging plate is set upside down based on the detection result of the detector. This makes it possible to more reliably read the radiographic image from the imaging plate based on the determination result.

第2の態様によると、光源が発する光は、イメージングプレートから放射線像を読み取るためにイメージングプレートを励起させる励起光として機能する。これにより、励起光をイメージングプレートに照射する別の光源を設ける必要がない。よって、読取装置の構成を簡素化することができる。 According to the second aspect, the light emitted by the light source functions as excitation light for exciting the imaging plate for reading the radiation image from the imaging plate. This eliminates the need to provide a separate light source for irradiating the imaging plate with excitation light. Therefore, the configuration of the reader can be simplified.

第3の態様によると、検出器がイメージングプレートからの発光光を検出する。これにより、イメージングプレートからの発光光を検出する別の検出器を設ける必要がない。よって、読取装置の構成を簡素化することができる。 According to a third aspect, a detector detects emitted light from the imaging plate. This eliminates the need to provide a separate detector for detecting the emitted light from the imaging plate. Therefore, the configuration of the reader can be simplified.

第4の態様によると、イメージングプレートの裏面には、少なくとも一つの裏面特有情報が示されていることから、イメージングプレートが表裏逆にセットされているか否かを容易に判定することができる。 According to the fourth aspect, since at least one back surface specific information is indicated on the back surface of the imaging plate, it is possible to easily determine whether the imaging plate is set upside down.

第5の態様によると、光源がイメージングプレート上で光を走査する場合に、イメージングプレートの裏面に複数の裏面特有情報が示されている。これにより、イメージングプレートがセットされるときのイメージングプレートの姿勢が一定とならない場合であっても、イメージングプレートが表裏逆にセットされていることをすぐに特定することが可能となる。 According to a fifth aspect, a plurality of back side specific information is indicated on the back side of the imaging plate when the light source scans light over the imaging plate. This makes it possible to immediately identify that the imaging plate is set upside down even if the posture of the imaging plate is not constant when the imaging plate is set.

第6の態様によると、イメージングプレートの前面には、少なくとも一つの前面特有情報が示されていることから、イメージングプレートが表裏逆にセットされているか否かを容易に判定することができる。 According to the sixth aspect, since at least one front surface-specific information is indicated on the front surface of the imaging plate, it is possible to easily determine whether the imaging plate is set upside down.

第7の態様によると、光源がイメージングプレート上で光を走査する場合に、イメージングプレートの前面に複数の前面特有情報が示されている。これにより、イメージングプレートがセットされるときのイメージングプレートの姿勢が一定とならない場合であっても、イメージングプレートが表裏逆にセットされていることをすぐに特定することが可能となる。 According to a seventh aspect, a plurality of front surface specific information is indicated on the front surface of the imaging plate when the light source scans light over the imaging plate. This makes it possible to immediately identify that the imaging plate is set upside down even if the posture of the imaging plate is not constant when the imaging plate is set.

第8の態様によると、イメージングプレートの周縁に、イメージングプレートが表裏逆にセットされているか否かを判定するための少なくとも一つの凸部が設けられていることから、メージングプレートが表裏逆にセットされているか否かを容易に判定することができる。 According to the eighth aspect, since at least one convex portion for determining whether the imaging plate is set upside down is provided on the periphery of the imaging plate, the imaging plate is set upside down. It can be easily determined whether or not

第9の態様によると、光源がイメージングプレート上で光を走査する場合に、イメージングプレートの周縁に、イメージングプレートが表裏逆にセットされているか否かを判定するための複数の凸部が設けられている。これにより、イメージングプレートがセットされるときのイメージングプレートの姿勢が一定とならない場合であっても、イメージングプレートが表裏逆にセットされていることをすぐに特定することが可能となる。 According to the ninth aspect, when the light source scans light on the imaging plate, a plurality of projections are provided on the periphery of the imaging plate for determining whether the imaging plate is set upside down. ing. This makes it possible to immediately identify that the imaging plate is set upside down even if the posture of the imaging plate is not constant when the imaging plate is set.

第10及び第17の態様によると、イメージングプレートが表裏逆にセットされていると判定されると、ユーザに警告が通知される。これにより、ユーザに対して、イメージングプレートを正しくセットするように促すことができる。 According to the tenth and seventeenth aspects, when it is determined that the imaging plate is set upside down, a warning is sent to the user. Thereby, the user can be urged to set the imaging plate correctly.

第11の態様によると、イメージングプレートが表裏逆にセットされていると判定されたとき、イメージングプレートに消去光が照射されない。これにより、イメージングプレートが記録する放射線像が消去光の影響をうけにくくなる。 According to the eleventh aspect, when it is determined that the imaging plate is set upside down, the imaging plate is not irradiated with erasing light. This makes the radiation image recorded by the imaging plate less susceptible to the erasing light.

第12の態様によると、走査処理の間に、イメージングプレートが表裏逆にセットされていると判定されたとき、走査処理が中止する。これにより、走査処理が無駄に継続することを回避できる。 According to the twelfth aspect, the scanning process is stopped when it is determined during the scanning process that the imaging plate is set upside down. This makes it possible to avoid unnecessary continuation of the scanning process.

第13及び第18の態様によると、イメージングプレートが表裏逆にセットされていると判定されたとき、イメージングプレートが排出される。これにより、読取装置に対する、イメージングプレートの排出を指示するユーザ操作が不要となる。さらに、イメージングプレートが排出されることによって、イメージングプレートを再度セットするようにユーザを促すことができる。 According to the thirteenth and eighteenth aspects, the imaging plate is ejected when it is determined that the imaging plate is set upside down. This eliminates the need for the user to instruct the reader to eject the imaging plate. Furthermore, ejecting the imaging plate can prompt the user to set the imaging plate again.

第14の態様によると、イメージングプレートが表裏逆にセットされていると判定されたとき、イメージングプレートは、消去光が照射されずに排出される。これにより、イメージングプレートが表裏逆にセットされていると判定されたとき、イメージングプレートをすぐに排出することができる。 According to the fourteenth aspect, when it is determined that the imaging plate is set upside down, the imaging plate is ejected without being irradiated with erasing light. Accordingly, when it is determined that the imaging plate is set upside down, the imaging plate can be ejected immediately.

第15の態様によると、走査処理の間に、イメージングプレートが表裏逆にセットされていると判定されたとき、走査処理が中止してイメージングプレートが排出される。これにより、イメージングプレートが表裏逆にセットされていると判定されたとき、イメージングプレートをすぐに排出することができる。 According to the fifteenth aspect, when it is determined during the scanning process that the imaging plate is set upside down, the scanning process is stopped and the imaging plate is ejected. Accordingly, when it is determined that the imaging plate is set upside down, the imaging plate can be ejected immediately.

読取装置の外観の一例を示す概略図である。It is a schematic diagram showing an example of the appearance of a reading device. 読取装置の構成の一例を示す概略図である。It is a schematic diagram showing an example of a configuration of a reading device. 読取装置の構成の一例を示す概略図である。It is a schematic diagram showing an example of a configuration of a reading device. 読取装置の構成の一例を示す概略図である。It is a schematic diagram showing an example of a configuration of a reading device. 読取装置の構成の一例を示す概略図である。It is a schematic diagram showing an example of a configuration of a reading device. 読取装置の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of a reading device. IP存在領域、励起光照射範囲及び検出範囲の一例を示す概略図である。It is the schematic which shows an example of an IP existence area, an excitation light irradiation range, and a detection range. IP存在領域、励起光照射範囲及び検出範囲の一例を示す概略図である。It is the schematic which shows an example of an IP existence area, an excitation light irradiation range, and a detection range. IP存在領域、励起光照射範囲及び検出範囲の一例を示す概略図である。It is the schematic which shows an example of an IP existence area, an excitation light irradiation range, and a detection range. 取得全体像の一例を示す概略図である。FIG. 4 is a schematic diagram showing an example of an acquisition overview; 取得全体像の一例を示す概略図である。FIG. 4 is a schematic diagram showing an example of an acquisition overview; 取得全体像の一例を示す概略図である。FIG. 4 is a schematic diagram showing an example of an acquisition overview; 取得全体像の一例を示す概略図である。FIG. 4 is a schematic diagram showing an example of an acquisition overview; 読取装置の動作の一例を示すフローチャートである。4 is a flow chart showing an example of the operation of the reading device; イメージングプレートが傾く様子の一例を示す概略図である。FIG. 4 is a schematic diagram showing an example of how the imaging plate is tilted; 取得全体像の一例を示す概略図である。FIG. 4 is a schematic diagram showing an example of an acquisition overview; 傾き角度特定処理の一例を説明するための概略図である。It is a schematic diagram for explaining an example of inclination angle identification processing. 傾き角度特定処理の一例を説明するための概略図である。It is a schematic diagram for explaining an example of inclination angle identification processing. サイズ特定処理の一例を説明するための概略図である。It is a schematic diagram for explaining an example of size identification processing. イメージングプレートのサイズ及び傾き角度の一例を示す図である。It is a figure which shows an example of the size of an imaging plate, and an inclination angle. イメージングプレートのサイズ及び傾き角度の一例を示す図である。It is a figure which shows an example of the size of an imaging plate, and an inclination angle. イメージングプレートのサイズの種類の一例を示す図である。FIG. 4 is a diagram showing an example of types of sizes of imaging plates; 読取装置の動作の一例を示すフローチャートである。4 is a flow chart showing an example of the operation of the reading device; 読取装置の動作の一例を示すフローチャートである。4 is a flow chart showing an example of the operation of the reading device; 取得全体像の一例を示す概略図である。FIG. 4 is a schematic diagram showing an example of an acquisition overview; 取得全体像の表示例を示す概略図である。FIG. 4 is a schematic diagram showing a display example of an acquired overall image; 取得全体像の表示例を示す概略図である。FIG. 4 is a schematic diagram showing a display example of an acquired overall image; イメージングプレートのサイズ及び傾き角度の一例を示す図である。It is a figure which shows an example of the size of an imaging plate, and an inclination angle. 傾き補正処理の一例を説明するための概略図である。FIG. 5 is a schematic diagram for explaining an example of tilt correction processing; 取得全体像の一例を示す概略図である。FIG. 4 is a schematic diagram showing an example of an acquisition overview; 切出処理の一例を説明するための概略図である。It is a schematic diagram for explaining an example of a clipping process. 切出像の一例を示す概略図である。It is a schematic diagram showing an example of a cut-out image. 切出処理の一例を説明するための概略図である。It is a schematic diagram for explaining an example of a clipping process. 切出像の一例を示す概略図である。It is a schematic diagram showing an example of a cut-out image. 切出像の表示例を示す概略図である。FIG. 4 is a schematic diagram showing a display example of a cut-out image; 切出処理の一例を説明するための概略図である。It is a schematic diagram for explaining an example of a clipping process. 切出像の一例を示す概略図である。It is a schematic diagram showing an example of a cut-out image. 切出像の一例を示す概略図である。It is a schematic diagram showing an example of a cut-out image. 保持部の構成の一例を示す概略図である。It is a schematic diagram showing an example of a structure of a holding part. 取得全体像の一例を示す概略図である。FIG. 4 is a schematic diagram showing an example of an acquisition overview; 切出処理の一例を説明するための概略図である。It is a schematic diagram for explaining an example of a clipping process. 切出処理の一例を説明するための概略図である。It is a schematic diagram for explaining an example of a clipping process. 切出像の一例を示す概略図である。It is a schematic diagram showing an example of a cut-out image. 取得全体像の一例を示す概略図である。FIG. 4 is a schematic diagram showing an example of an acquisition overview; 切出処理の一例を説明するための概略図である。It is a schematic diagram for explaining an example of a clipping process. 切出像の一例を示す概略図である。It is a schematic diagram showing an example of a cut-out image. 切出像の一例を示す概略図である。It is a schematic diagram showing an example of a cut-out image. 未露光通知情報の表示例を示す概略図である。FIG. 11 is a schematic diagram showing a display example of non-exposure notification information; 未露光通知情報の表示例を示す概略図である。FIG. 11 is a schematic diagram showing a display example of non-exposure notification information; 未露光通知情報の表示例を示す概略図である。FIG. 11 is a schematic diagram showing a display example of non-exposure notification information; 未露光通知情報の表示例を示す概略図である。FIG. 11 is a schematic diagram showing a display example of non-exposure notification information; 未露光通知情報の表示例を示す概略図である。FIG. 11 is a schematic diagram showing a display example of non-exposure notification information; 未露光通知情報の表示例を示す概略図である。FIG. 11 is a schematic diagram showing a display example of non-exposure notification information; イメージングプレートの裏面の一例を示す概略図である。It is a schematic diagram showing an example of the back surface of an imaging plate. 取得全体像に含まれるIP反射光像の一例を示す概略図である。It is the schematic which shows an example of the IP reflected light image contained in the acquisition whole image. イメージングプレートの前面の一例を示す概略図である。It is a schematic diagram showing an example of the front surface of an imaging plate. イメージングプレートの前面の一例を示す概略図である。It is a schematic diagram showing an example of the front surface of an imaging plate. イメージングプレートの一例を示す概略図である。It is a schematic diagram showing an example of an imaging plate. イメージングプレートの一例を示す概略図である。It is a schematic diagram showing an example of an imaging plate. イメージングプレートの一例を示す概略図である。It is a schematic diagram showing an example of an imaging plate. イメージングプレートの一例を示す概略図である。It is a schematic diagram showing an example of an imaging plate. イメージングプレートの一例を示す概略図である。It is a schematic diagram showing an example of an imaging plate. イメージングプレートの一例を示す概略図である。It is a schematic diagram showing an example of an imaging plate. イメージングプレートの一例を示す概略図である。It is a schematic diagram showing an example of an imaging plate. イメージングプレートの一例を示す概略図である。It is a schematic diagram showing an example of an imaging plate. 読取装置の動作の一例を示すフローチャートである。4 is a flow chart showing an example of the operation of the reading device; 読取装置の表示例を示す概略図である。It is a schematic diagram showing an example of a display of a reading device. 読取装置の動作の一例を示すフローチャートである。4 is a flow chart showing an example of the operation of the reading device; イメージングプレートがセットされている様子の一例を示す概略図である。It is a schematic diagram showing an example of how an imaging plate is set. イメージングプレートがセットされている様子の一例を示す概略図である。It is a schematic diagram showing an example of how an imaging plate is set. イメージングプレートがセットされている様子の一例を示す概略図である。It is a schematic diagram showing an example of how an imaging plate is set. イメージングプレートがセットされている様子の一例を示す概略図である。It is a schematic diagram showing an example of how an imaging plate is set. イメージングプレートがセットされている様子の一例を示す概略図である。It is a schematic diagram showing an example of how an imaging plate is set. イメージングプレートがセットされている様子の一例を示す概略図である。It is a schematic diagram showing an example of how an imaging plate is set. 読取装置の動作の一例を示すフローチャートである。4 is a flow chart showing an example of the operation of the reading device; 読取装置の動作の一例を示すフローチャートである。4 is a flow chart showing an example of the operation of the reading device; 読取装置の動作の一例を示すフローチャートである。4 is a flow chart showing an example of the operation of the reading device; 読取装置の構成の一例を示す概略図である。It is a schematic diagram showing an example of a configuration of a reading device. 読取装置の構成の一例を示す概略図である。It is a schematic diagram showing an example of a configuration of a reading device. 読取装置の構成の一例を示す概略図である。It is a schematic diagram showing an example of a configuration of a reading device. 読取装置の構成の一例を示す概略図である。It is a schematic diagram showing an example of a configuration of a reading device. 読取装置の構成の一例を示す概略図である。It is a schematic diagram showing an example of a configuration of a reading device. 読取装置の構成の一例を示す概略図である。It is a schematic diagram showing an example of a configuration of a reading device.

図1は読取装置1の外観の一例を示す概略図である。読取装置1は、放射線像が記録されたイメージングプレート10から当該放射線像を読み取る装置である。読取装置1は、イメージングプレート10に記録された放射線像を検出する装置であるともいえる。 FIG. 1 is a schematic diagram showing an example of the appearance of the reader 1. As shown in FIG. The reader 1 is a device that reads a radiographic image from an imaging plate 10 on which the radiographic image is recorded. It can also be said that the reader 1 is a device that detects a radiation image recorded on the imaging plate 10 .

イメージングプレート10は、放射線像形成層11を有する平たい形状であり、放射線像を記録する記録媒体である。イメージングプレート10は、例えば、四隅が丸まった略長方形の平たい形状を成している。放射線像形成層11は、照射された放射線のエネルギーを蓄積し、蓄積されたエネルギーに応じた発光光を発する層である。例えば、放射線像形成層11は、樹脂で形成されたフィルムの一方主面に輝尽性蛍光体を塗布することによって形成される。放射線像形成層11に照射される放射線としては、例えばX線が採用される。X線発生器からのX線が撮影対象物を透過してイメージングプレート10に照射されると、X線の強度に応じたエネルギーが放射線像形成層11に蓄積される。X線の強度は、撮影対象物におけるX線吸収領域の分布に基づいたものであるため、放射線像形成層11に蓄積されたエネルギーの分布は、X線による撮影対象物の放射線像である。このように、イメージングプレート10は、例えばX線による放射線像を潜像として記録する。読取装置1は、放射線像形成層11から放射線像を読み取り、読み取った放射線像を表す画像信号(画像データともいう)を生成する。 The imaging plate 10 has a flat shape having a radiation image forming layer 11 and is a recording medium for recording radiation images. The imaging plate 10 has, for example, a substantially rectangular flat shape with rounded corners. The radiation image forming layer 11 is a layer that accumulates energy of irradiated radiation and emits light according to the accumulated energy. For example, the radiation image forming layer 11 is formed by applying a stimulable phosphor to one main surface of a film made of resin. As the radiation with which the radiation image forming layer 11 is irradiated, for example, X-rays are employed. When the X-rays from the X-ray generator pass through the object to be imaged and are irradiated onto the imaging plate 10 , energy corresponding to the intensity of the X-rays is accumulated in the radiation image forming layer 11 . Since the X-ray intensity is based on the distribution of the X-ray absorption regions in the object to be imaged, the distribution of the energy accumulated in the radiation image forming layer 11 is the radiographic image of the object to be imaged by X-rays. In this way, the imaging plate 10 records, for example, an X-ray radiation image as a latent image. The reader 1 reads a radiographic image from the radiographic image forming layer 11 and generates an image signal (also referred to as image data) representing the read radiographic image.

本例では、イメージングプレート10は、例えば、人の口の中に入れられた状態で放射線が照射される。したがって、イメージングプレート10は、人の口の中に入るようなサイズとなっている。そして、イメージングプレート10の放射線像形成層11には、例えば、歯の放射線像が記録される。なお、イメージングプレート10の用途はこれに限られない。 In this example, the imaging plate 10 is exposed to radiation while it is placed in, for example, a person's mouth. Therefore, the imaging plate 10 is sized to fit inside a person's mouth. For example, a radiographic image of teeth is recorded on the radiographic image forming layer 11 of the imaging plate 10 . Note that the application of the imaging plate 10 is not limited to this.

以後、イメージングプレート10において、放射線像形成層11側の主面を前面と呼ぶことがある。また、イメージングプレート10において、前面とは反対側の主面を裏面と呼ぶことがある。 Hereinafter, in the imaging plate 10, the main surface on the side of the radiation image forming layer 11 may be referred to as the front surface. Also, in the imaging plate 10, the main surface opposite to the front surface may be called the back surface.

図1に示されるように、読取装置1は例えば筐体2を備える。筐体2内には、イメージングプレート10から放射線像を読み取る構成が収容されている。当該構成については後述する。 As shown in FIG. 1, the reading device 1 comprises a housing 2, for example. A structure for reading a radiographic image from the imaging plate 10 is accommodated in the housing 2 . The configuration will be described later.

筐体2には、挿入口2a及び取出口2bが設けられている。挿入口2aは、例えば筐体2の上面に設けられている。読取装置1のユーザは、挿入口2aからイメージングプレート10を筐体2内に入れることができる。イメージングプレート10は、筐体2内において放射線像が読み取られる。取出口2bは、例えば、筐体2の一側面のうちの下側部分に設けられる。放射線像が読み取られた後のイメージングプレート10(読み取り済みイメージングプレート10ともいう)は取出口2bに排出される。読取装置1のユーザは、取出口2bを通じて、読み取り済みイメージングプレート10を回収することができる。 The housing 2 is provided with an insertion port 2a and an extraction port 2b. The insertion port 2a is provided on the upper surface of the housing 2, for example. A user of the reader 1 can insert the imaging plate 10 into the housing 2 through the insertion port 2a. A radiation image is read from the imaging plate 10 within the housing 2 . The outlet 2b is provided, for example, in a lower portion of one side surface of the housing 2. As shown in FIG. The imaging plate 10 after the radiographic image has been read (also referred to as the read imaging plate 10) is ejected through the outlet 2b. A user of the reader 1 can collect the read imaging plate 10 through the outlet 2b.

本例では、読取装置1は、イメージングプレート10から放射線像を読み出した後に、イメージングプレート10から放射線像を消去することができる。取出口2bには、例えば、放射線像が消去されたイメージングプレート10が排出される。 In this example, the reader 1 can erase the radiographic image from the imaging plate 10 after reading the radiographic image from the imaging plate 10 . For example, the imaging plate 10 from which the radiographic image has been erased is discharged from the outlet 2b.

筐体2には、例えば、ユーザからの操作を受け付ける操作部4が設けられている。操作部4は、例えば複数の操作ボタン4aを備える。各操作ボタン4aは、例えばハードウェアボタンである。複数の操作ボタン4aには、例えば、電源ボタン及び読み取りの開始を指示するためのスタートボタン等が含まれる。操作部4は、ユーザのタッチ操作を検出するタッチセンサを備えてもよい。 The housing 2 is provided with, for example, an operation unit 4 that receives operations from the user. The operation unit 4 includes, for example, a plurality of operation buttons 4a. Each operation button 4a is, for example, a hardware button. The plurality of operation buttons 4a include, for example, a power button and a start button for instructing the start of reading. The operation unit 4 may include a touch sensor that detects a user's touch operation.

筐体2には、例えば、表示部3が設けられている。表示部3は、例えば、液晶表示パネルあるいは有機EL(electro-luminescence)表示パネルにより構成される。表示部3は、例えば、文字、記号、図形及び画像などの各種情報を表示することが可能である。表示部3は、イメージングプレート10から読み取られた放射線像(言い換えれば、検出された放射線像)を表示してもよい。 The housing 2 is provided with, for example, a display section 3 . The display unit 3 is configured by, for example, a liquid crystal display panel or an organic EL (electro-luminescence) display panel. The display unit 3 can display various information such as characters, symbols, graphics, and images. The display unit 3 may display a radiographic image read from the imaging plate 10 (in other words, a detected radiographic image).

操作部4がタッチセンサを備える場合、当該タッチセンサと表示部3とで、表示機能及びタッチ検出機能を有するタッチパネルディスプレイが構成されてもよい。この場合、複数の操作ボタン4aの少なくとも一つが、タッチパネルディスプレイに表示されるソフトウェアボタンに置き換えられてもよいし、操作部4は複数の操作ボタン4aを備えなくてもよい。また、読取装置1は表示部3を備えなくてもよい。 When the operation unit 4 includes a touch sensor, the touch sensor and the display unit 3 may constitute a touch panel display having a display function and a touch detection function. In this case, at least one of the plurality of operation buttons 4a may be replaced with a software button displayed on the touch panel display, and the operation section 4 may not include the plurality of operation buttons 4a. Further, the reading device 1 does not have to include the display section 3 .

筐体2には、例えば、イメージングプレート10を収容可能なプレート収容ケース6及び7が設けられている。プレート収容ケース6及び7は、例えば筐体2の上面に設けられている。プレート収容ケース6は仕切り付きのケースであり、プレート収容ケース7は蓋付きのケースである。読取装置1はプレート収容ケース6及び7の少なくとも一方を備えなくてもよい。 The housing 2 is provided with plate housing cases 6 and 7 capable of housing the imaging plate 10, for example. The plate housing cases 6 and 7 are provided on the upper surface of the housing 2, for example. The plate storage case 6 is a case with a partition, and the plate storage case 7 is a case with a lid. At least one of the plate housing cases 6 and 7 does not have to be provided at the reading device 1 .

筐体2からは、その外側に向かって、ACアダプタ5のケーブル5aが延びている。読取装置1の各部品には、ACアダプタ5から電力が供給される。読取装置1は、ACアダプタ5だけではなく、読取装置1の各部品に電力を供給するバッテリを備えてもよい。あるいは、読取装置1は、ACアダプタ5の代わりにバッテリを備えてもよい。 A cable 5 a of an AC adapter 5 extends outward from the housing 2 . Power is supplied from an AC adapter 5 to each component of the reading device 1 . The reader 1 may include not only the AC adapter 5 but also a battery that supplies power to each component of the reader 1 . Alternatively, the reader 1 may have a battery instead of the AC adapter 5 .

<筐体内の機構の一例について>
図2~5は筐体2内の構成の一例を示す概略図である。図3は図2の矢視A-Aの断面構造の一例を示す概略図である。図4は図3の矢視B-Bの断面構造の一例を示す概略図である。図6は読取装置1が備える制御部80の構成の一例を主に示すブロック図である。後述するように、イメージングプレート10を保持する保持部20は、筐体2内において、所定方向DR10に沿って移動することが可能である。図3は、イメージングプレート10及び保持部20が、図2に示される状態から移動した様子が示されている。
<About an example of the mechanism in the housing>
2 to 5 are schematic diagrams showing an example of the internal configuration of the housing 2. FIG. FIG. 3 is a schematic diagram showing an example of a cross-sectional structure taken along line AA in FIG. FIG. 4 is a schematic diagram showing an example of a cross-sectional structure taken along line BB in FIG. FIG. 6 is a block diagram mainly showing an example of the configuration of the control section 80 provided in the reading device 1. As shown in FIG. As will be described later, the holding section 20 that holds the imaging plate 10 can move in the housing 2 along the predetermined direction DR10. FIG. 3 shows how the imaging plate 10 and the holder 20 have moved from the state shown in FIG.

図2~6に示されるように、読取装置1は、例えば、保持部20、光源30、検出器40、駆動部50、一対のガイド部60、消去用光源70、制御部80及びインタフェース部95を備える。これらの構成は筐体2内に設けられている。 As shown in FIGS. 2 to 6, the reading device 1 includes, for example, a holding portion 20, a light source 30, a detector 40, a driving portion 50, a pair of guide portions 60, an erasing light source 70, a control portion 80, and an interface portion 95. Prepare. These components are provided within the housing 2 .

<制御部について>
制御部80は、読取装置1の動作を統合的に管理することが可能であり、制御回路ともいえる。制御部80は、例えば、表示部3、保持部20、光源30、検出器40、駆動部50、消去用光源70及びインタフェース部95を制御することができる。また、制御部80は、操作部4が受け付けたユーザ操作に応じた処理を行うことができる。
<About the control part>
The control unit 80 can integrally manage the operation of the reading device 1, and can be said to be a control circuit. The control unit 80 can control the display unit 3, the holding unit 20, the light source 30, the detector 40, the driving unit 50, the erasing light source 70, and the interface unit 95, for example. Further, the control unit 80 can perform processing according to user operations received by the operation unit 4 .

制御部80は、例えば、少なくとも一つのプロセッサと、記憶部とを備えるコンピュータ装置によって構成される。制御部80が備える少なくとも一つのプロセッサには、CPU(Central Processing Unit)が含まれてもよいし、CPU以外のプロセッサが含まれてもよい。制御部80では、少なくとも一つのプロセッサが記憶部(記憶回路ともいう)内のプログラムを実行することによって、以下に説明する各種機能が実現される。 The control unit 80 is configured by, for example, a computer device including at least one processor and a storage unit. At least one processor included in the control unit 80 may include a CPU (Central Processing Unit), or may include a processor other than the CPU. In the control unit 80, at least one processor executes a program in a storage unit (also referred to as a storage circuit) to implement various functions described below.

制御部80では、少なくとも一つのプロセッサが記憶部内のプログラムを実行することによって、機能ブロックとして、例えば、画像処理部81、表示制御部82、駆動制御部83、保持制御部84、検出制御部85、発光制御部86及び消去制御部87が形成される。 In the control unit 80, at least one processor executes a program in the storage unit, thereby forming functional blocks such as an image processing unit 81, a display control unit 82, a drive control unit 83, a holding control unit 84, and a detection control unit 85. , a light emission control section 86 and an erasing control section 87 are formed.

画像処理部81は、例えば、検出器40から出力される後述の画像信号に対して画像処理を行うことができる。表示制御部82は表示部3の表示を制御することができる。駆動制御部83は駆動部50を制御することができる。保持制御部84は保持部20を制御することができる。検出制御部85は検出器40を制御することができる。発光制御部86は光源30を制御することができる。消去制御部87は消去用光源70を制御することができる。 The image processor 81 can, for example, perform image processing on an image signal, which will be described later and is output from the detector 40 . The display control section 82 can control the display of the display section 3 . The drive control section 83 can control the drive section 50 . The holding control section 84 can control the holding section 20 . A detection control unit 85 can control the detector 40 . The light emission controller 86 can control the light source 30 . The erasing controller 87 can control the erasing light source 70 .

なお、制御部80の一部の機能あるいは制御部80のすべての機能は、その機能の実現にソフトウェア(言い換えればプログラム)が不要なハードウェア回路で実現されてもよい。例えば、画像処理部81の一部の機能あるいは画像処理部81のすべての機能は、その機能の実現にソフトウェアが不要なハードウェア回路で実現されてもよい。画像処理部81は、他の構成とは独立した画像処理回路であってもよい。また、表示制御部82の一部の機能あるいは表示制御部82のすべての機能は、その機能の実現にソフトウェアが不要なハードウェア回路で実現されてもよい。表示制御部82は、他の構成とは独立した表示制御回路であってもよい。また、駆動制御部83の一部の機能あるいは駆動制御部83のすべての機能は、その機能の実現にソフトウェアが不要なハードウェア回路で実現されてもよい。駆動制御部83は、他の構成とは独立した駆動制御回路であってもよい。また、保持制御部84の一部の機能あるいは保持制御部84のすべての機能は、その機能の実現にソフトウェアが不要なハードウェア回路で実現されてもよい。保持制御部84は、他の構成とは独立した表示制御回路であってもよい。また、検出制御部85の一部の機能あるいは検出制御部85のすべての機能は、その機能の実現にソフトウェアが不要なハードウェア回路で実現されてもよい。検出制御部85は、他の構成とは独立した検出制御回路であってもよい。また、発光制御部86の一部の機能あるいは発光制御部86のすべての機能は、その機能の実現にソフトウェアが不要なハードウェア回路で実現されてもよい。発光制御部86は、他の構成とは独立した発光制御回路であってもよい。また、消去制御部87の一部の機能あるいは消去制御部87のすべての機能は、その機能の実現にソフトウェアが不要なハードウェア回路で実現されてもよい。消去制御部87は、他の構成とは独立した消去制御回路であってもよい。 A part of the functions of the control unit 80 or all the functions of the control unit 80 may be implemented by a hardware circuit that does not require software (in other words, programs) to implement the functions. For example, part of the functions of the image processing unit 81 or all the functions of the image processing unit 81 may be implemented by hardware circuits that do not require software to implement the functions. The image processing unit 81 may be an image processing circuit independent of other components. A part of the functions of the display control unit 82 or all the functions of the display control unit 82 may be implemented by hardware circuits that do not require software to implement the functions. The display control section 82 may be a display control circuit independent of other components. A part of the functions of the drive control unit 83 or all the functions of the drive control unit 83 may be implemented by a hardware circuit that does not require software to implement the functions. The drive control section 83 may be a drive control circuit independent of other components. A part of the functions of the hold control unit 84 or all the functions of the hold control unit 84 may be implemented by hardware circuits that do not require software to implement the functions. The hold control section 84 may be a display control circuit independent of other components. A part of the functions of the detection control unit 85 or all the functions of the detection control unit 85 may be implemented by hardware circuits that do not require software to implement the functions. The detection control section 85 may be a detection control circuit independent of other components. Further, part of the functions of the light emission control section 86 or all the functions of the light emission control section 86 may be implemented by hardware circuits that do not require software to implement the functions. The light emission control section 86 may be a light emission control circuit independent of other components. Also, part of the functions of the erasure control unit 87 or all the functions of the erasure control unit 87 may be implemented by hardware circuits that do not require software to implement the functions. The erase control section 87 may be an erase control circuit independent of other components.

<インタフェース部について>
インタフェース部95は、筐体2の外部の装置(以後、外部装置ともいう)と通信することが可能であって、インタフェース回路、通信回路あるいは通信部ともいえる。外部装置には、パーソナルコンピュータが含まれてもよいし、スマートフォン等の携帯電話機が含まれてもよいし、他のコンピュータ装置が含まれてもよい。また、外部装置には、読取装置1に着脱可能なデータ記録媒体(例えば、フラッシュメモリ)が含まれてもよい。インタフェース部95は、外部装置からの信号を受信し、受信した信号を制御部80に入力することができる。また、インタフェース部95は、制御部80からの信号を外部装置に送信することができる。例えば、インタフェース部95は、制御部80の画像処理部81において画像処理が行われた画像信号を外部装置に送信することができる。インタフェース部95は、外部装置と有線通信を行ってもよいし、無線通信を行ってもよい。インタフェース部95と外装装置との間の通信は、イーサネットに準拠してもよいし、USB(Universal Serial Bus)に準拠してもよいし、WiFiに準拠してもよいし、他の規格に準拠してもよい。
<About the interface part>
The interface section 95 can communicate with a device outside the housing 2 (hereinafter also referred to as an external device), and can be called an interface circuit, a communication circuit, or a communication section. The external device may include a personal computer, a mobile phone such as a smart phone, or other computer device. Further, the external device may include a data recording medium (for example, flash memory) that is removable from the reading device 1 . The interface unit 95 can receive a signal from an external device and input the received signal to the control unit 80 . Also, the interface unit 95 can transmit a signal from the control unit 80 to an external device. For example, the interface unit 95 can transmit an image signal image-processed by the image processing unit 81 of the control unit 80 to an external device. The interface unit 95 may perform wired communication with an external device, or may perform wireless communication. Communication between the interface unit 95 and the exterior device may conform to Ethernet, USB (Universal Serial Bus), WiFi, or other standards. You may

<保持部について>
保持部20は、筐体2の挿入口2aから挿入されたイメージングプレート10を保持する。保持部20は、例えば、イメージングプレート10を支持する支持板21と、支持板21に支持されたイメージングプレート10の位置を固定する固定部22とを備える。
<Regarding the holding part>
The holding part 20 holds the imaging plate 10 inserted from the insertion opening 2 a of the housing 2 . The holding portion 20 includes, for example, a support plate 21 that supports the imaging plate 10 and a fixing portion 22 that fixes the position of the imaging plate 10 supported by the support plate 21 .

支持板21は、イメージングプレート10の裏面を支持する主面21a(支持面21aともいう)と、当該主面21aとは反対側の主面21b(裏面21bともいう)とを備える。固定部22は、例えば、イメージングプレート10の周縁部分と接近する複数の固定部分22aを有する。固定部22は固定部材ともいえる。複数の固定部分22aは、イメージングプレート10の周縁部分を取り囲むように当該周縁部分と接近する。これにより、支持板21に対するイメージングプレート10の位置(つまり相対位置)及び姿勢(つまり相対姿勢)が固定される。本例では、例えば、イメージングプレート10の両長辺のそれぞれに対して2つの固定部分22aが接近し、イメージングプレート10の両短辺のそれぞれに対して1つの固定部分22aが接近する。 The support plate 21 includes a main surface 21a (also referred to as a support surface 21a) that supports the back surface of the imaging plate 10, and a main surface 21b (also referred to as a back surface 21b) opposite to the main surface 21a. The fixed part 22 has, for example, a plurality of fixed parts 22a that are close to the periphery of the imaging plate 10 . The fixing part 22 can also be said to be a fixing member. The plurality of fixed portions 22a approach the peripheral portion of the imaging plate 10 so as to surround the peripheral portion. Thereby, the position (that is, relative position) and posture (that is, relative posture) of imaging plate 10 with respect to support plate 21 are fixed. In this example, for example, two fixing portions 22a approach each of the long sides of the imaging plate 10, and one fixing portion 22a approaches each of both short sides of the imaging plate 10. FIG.

各固定部分22aは、保持制御部84による制御によって、支持板21に支持されたイメージングプレート10に接近する接近位置と、支持板21に支持されたイメージングプレート10から離間する離間位置との間で移動することが可能である。イメージングプレート10は、各固定部分22aが離間位置に存在する状態で、挿入口2aから筐体2内に投入されて、支持板21で支持される。その後、各固定部分22aが離間位置から接近位置に移動することによって、イメージングプレート10の位置及び姿勢が固定部22で固定される。各固定部分22aは、接近位置に存在する場合、例えば、イメージングプレート10の周縁部分と接している。 Each fixed portion 22a is controlled by the holding control unit 84 between an approach position approaching the imaging plate 10 supported by the support plate 21 and a separation position separating from the imaging plate 10 supported by the support plate 21. It is possible to move. The imaging plate 10 is inserted into the housing 2 through the insertion port 2a and supported by the support plate 21 with the fixing portions 22a positioned at the separated positions. Thereafter, the position and posture of the imaging plate 10 are fixed by the fixing portions 22 by moving the fixing portions 22a from the separated positions to the approached positions. Each fixed portion 22a is in contact with, for example, the peripheral portion of the imaging plate 10 when it is in the approached position.

なお、複数の固定部分22aの少なくとも一つは、接近位置に存在する場合、イメージングプレート10の周縁部分と接しなくてもよい。また、固定部22の構成は上記の限りではない。また、保持部20の構成は上記の限りではない。 Note that at least one of the plurality of fixed portions 22a does not have to come into contact with the peripheral portion of the imaging plate 10 when it exists at the approach position. Also, the configuration of the fixing portion 22 is not limited to the above. Also, the configuration of the holding portion 20 is not limited to the above.

<駆動部及び一対のガイド部について>
駆動部50は、駆動制御部83による制御によって、保持部20を所定方向DR10に沿って移動することが可能である。これにより、保持部20で保持されたイメージングプレート10も所定方向DR10に沿って移動することができる。駆動部50は、保持部20を通じてイメージングプレート10を所定方向DR10に沿って移動することが可能であるともいえる。
<Regarding the driving part and the pair of guide parts>
Drive unit 50 can move holding unit 20 along predetermined direction DR<b>10 under the control of drive control unit 83 . Thereby, the imaging plate 10 held by the holding portion 20 can also be moved along the predetermined direction DR10. It can also be said that the drive unit 50 can move the imaging plate 10 along the predetermined direction DR10 through the holding unit 20 .

一対のガイド部60は、保持部20をその間に挟んだ状態で所定方向DR10に沿って延在している。各ガイド部60の内側には所定方向DR10に沿って延びる溝が形成されている。支持板21の互いに対向する一対の側縁部は、一対のガイド部60の内側の溝にそれぞれ嵌合している。これにより、一対のガイド部60は、保持部20の所定方向DR10に沿った移動を案内することが可能である。なお、ガイド部60の構成はこの限りではない。 The pair of guide portions 60 extend along the predetermined direction DR10 with the holding portion 20 sandwiched therebetween. A groove extending along the predetermined direction DR10 is formed inside each guide portion 60 . A pair of side edges of the support plate 21 facing each other are fitted into grooves inside the pair of guide portions 60 . Thereby, the pair of guide portions 60 can guide the movement of the holding portion 20 along the predetermined direction DR10. Note that the configuration of the guide portion 60 is not limited to this.

駆動部50は、例えば、モータ51、ネジ軸部52及びナット部53を有するボールネジ機構で構成されている。モータ51は、駆動制御部83によって制御される。ネジ軸部52は、周囲にネジ溝が形成された棒状部材である。ネジ軸部52は、所定方向DR10に沿って延びており、モータ51によって回転させられる。ナット部53は、保持部20に固定されている。ナット部53は、例えば、保持部20の支持板21の裏面21bに固定されている。ネジ軸部52はナット部53に螺合している。モータ51の正転方向または逆転方向の回転に応じて、ネジ軸部52が正転方向または逆転方向に回転する。保持部20は、ネジ軸部52の正転方向の回転に応じて、所定方向DR10に沿って一方側に移動する。このとき、一対のガイド部60は、保持部20の一方側への移動を案内する。一方で、保持部20は、ネジ軸部52の逆転方向の回転に応じて、所定方向DR10に沿って他方側に移動する。このとき、一対のガイド部60は、保持部20の他方側への移動を案内する。駆動部50の構成はこの限りではない。 The drive unit 50 is configured by, for example, a ball screw mechanism having a motor 51 , a screw shaft portion 52 and a nut portion 53 . The motor 51 is controlled by the drive control section 83 . The screw shaft portion 52 is a rod-shaped member with a thread groove formed around it. The screw shaft portion 52 extends along the predetermined direction DR<b>10 and is rotated by the motor 51 . The nut portion 53 is fixed to the holding portion 20 . The nut portion 53 is fixed to the back surface 21b of the support plate 21 of the holding portion 20, for example. The screw shaft portion 52 is screwed onto the nut portion 53 . As the motor 51 rotates forward or backward, the screw shaft portion 52 rotates forward or backward. Holding portion 20 moves to one side along predetermined direction DR10 in response to rotation of screw shaft portion 52 in the forward direction. At this time, the pair of guide portions 60 guide the movement of the holding portion 20 to one side. On the other hand, the holding portion 20 moves to the other side along the predetermined direction DR10 according to the rotation of the screw shaft portion 52 in the reverse direction. At this time, the pair of guide portions 60 guide the movement of the holding portion 20 to the other side. The configuration of the drive unit 50 is not limited to this.

駆動部50は、イメージングプレート10からの放射線像の読み取りが開始する読取開始位置に、イメージングプレート10を保持した保持部20を移動させることができる。また、駆動部50は、イメージングプレート10からの放射線像の読み取りが終了すると、イメージングプレート10の放射線像の消去が行われる消去位置に、イメージングプレート10を保持した保持部20を移動させることができる。図2及び3には、イメージングプレート10からの放射線像の読み取りが行われる様子が示されている。図4及び5には、イメージングプレート10から放射線像が消去される様子が示されている。 The driving unit 50 can move the holding unit 20 holding the imaging plate 10 to a reading start position where reading of the radiation image from the imaging plate 10 is started. Further, when the reading of the radiographic image from the imaging plate 10 is completed, the drive unit 50 can move the holding unit 20 holding the imaging plate 10 to the erasing position where the radiographic image of the imaging plate 10 is erased. . 2 and 3 show how the radiation image is read from the imaging plate 10. FIG. FIGS. 4 and 5 show how the radiation image is erased from the imaging plate 10. FIG.

<光源及び検出器について>
本例では、図6に示されるように、光源30と、それを制御する発光制御部86と、検出器40と、それを制御する検出制御部85とで、イメージングプレート10から放射線像を読み取る光測定器90が構成されている。光測定器90を構成する光源30、検出器40、検出制御部85及び発光制御部86は、一つのケースに収容されてユニット化されてもよいし、一つのケースに収容されていなくてもよい。
<About the light source and detector>
In this example, as shown in FIG. 6, the radiation image is read from the imaging plate 10 by the light source 30, the light emission controller 86 controlling it, the detector 40, and the detection controller 85 controlling it. An optical measuring device 90 is configured. The light source 30, the detector 40, the detection control section 85, and the light emission control section 86, which constitute the light measuring device 90, may be housed in one case and unitized, or may not be housed in one case. good.

光源30は、保持部20に保持されたイメージングプレート10に対して、放射線像形成層11を励起させるための励起光L1を照射することが可能である。光源30は保持部20の支持面21aに向けて励起光L1を出射する。光源30は、励起光L1をイメージングプレート10上で一方向(主走査方向DRmともいう)に走査することが可能である。本実施形態では、主走査方向DRmは、所定方向DR10に対して垂直な方向である。つまり、主走査方向DRmは、保持部20の移動方向に対して垂直な方向である。 The light source 30 can irradiate the imaging plate 10 held by the holding section 20 with excitation light L<b>1 for exciting the radiation image forming layer 11 . Light source 30 emits excitation light L<b>1 toward support surface 21 a of holding portion 20 . The light source 30 can scan the imaging plate 10 with the excitation light L1 in one direction (also referred to as the main scanning direction DRm). In this embodiment, the main scanning direction DRm is a direction perpendicular to the predetermined direction DR10. That is, the main scanning direction DRm is a direction perpendicular to the moving direction of the holding section 20 .

励起光L1は例えば可視光のレーザ光である。励起光L1は、例えば、赤色レーザ光であってもよいし、他の色のレーザ光であってもよい。放射線像形成層11に励起光L1が照射されると、放射線像形成層11に蓄積されたエネルギーの分布に応じて放射線像形成層11が発光し、放射線像形成層11から発光光L2が発せられる。発光光L2は、輝尽光とも呼ばれ、例えば青色の可視光である。検出器40は、イメージングプレート10からの発光光L2を検出し、検出した発光光L2の強度に応じた電気信号を出力する。 The excitation light L1 is, for example, visible laser light. The excitation light L1 may be, for example, red laser light or other color laser light. When the radiation image forming layer 11 is irradiated with the excitation light L1, the radiation image forming layer 11 emits light according to the distribution of the energy accumulated in the radiation image forming layer 11, and the radiation image forming layer 11 emits light L2. be done. The emitted light L2 is also called photostimulated light, and is blue visible light, for example. The detector 40 detects the emitted light L2 from the imaging plate 10 and outputs an electrical signal corresponding to the intensity of the detected emitted light L2.

光源30は、例えば、励起光L1を生成して出力するレーザ発生部と、励起光L1をイメージングプレート10上で主走査方向DRmに走査する走査部とを有する。レーザ発生部は、例えば半導体レーザであって、発光制御部86によって制御される。レーザ発生部は、レーザダイオードであってもよいし、他の半導体レーザであってもよい。走査部は、例えば、レーザ発生部からの励起光L1を、イメージングプレート10の放射線像形成層11に向けて反射するMEMS(Micro Electro Mechanical Systems)ミラーである。MEMSミラーは、発光制御部86による制御によって、放射線像形成層11上での励起光L1の照射点が主走査方向DRmに移動するように励起光L1の反射角度を変化させる。 The light source 30 has, for example, a laser generator that generates and outputs the excitation light L1 and a scanner that scans the imaging plate 10 with the excitation light L1 in the main scanning direction DRm. The laser generator is, for example, a semiconductor laser and is controlled by the light emission controller 86 . The laser generator may be a laser diode or another semiconductor laser. The scanning unit is, for example, a MEMS (Micro Electro Mechanical Systems) mirror that reflects the excitation light L1 from the laser generating unit toward the radiation image forming layer 11 of the imaging plate 10 . The MEMS mirror changes the reflection angle of the excitation light L1 under the control of the light emission control unit 86 so that the irradiation point of the excitation light L1 on the radiation image forming layer 11 moves in the main scanning direction DRm.

検出器40は、イメージングプレート10からの発光光L2(図3参照)が入射する光学フィルタ42と、光学フィルタ42から出射される発光光L2を検出するセンサ41とを備える。センサ41は検出制御部85によって制御される。光学フィルタ42は、センサ41での発光光L2の検出面に対向するように配置されている。光学フィルタ42の発光光L2に対する透過率(発光光透過率ともいう)は非常に高くなっている。したがって、光学フィルタ42は、イメージングプレート10からの発光光L2を十分に透過させてセンサ41に出射する。一方で、光学フィルタ42の励起光L1に対する透過率(励起光透過率ともいう)は、発光光透過率よりも低くなっている。例えば、励起光透過率は、発光光透過率の10%程度になっている。よって、光学フィルタ42は、センサ41に向かう、イメージングプレート10での励起光L1の反射光を減衰させる。本開示では、反射光には散乱光が含まれる。以後、単に反射光と言えば、励起光L1の反射光を意味する。 The detector 40 includes an optical filter 42 into which the emitted light L2 (see FIG. 3) from the imaging plate 10 is incident, and a sensor 41 that detects the emitted light L2 emitted from the optical filter 42 . The sensor 41 is controlled by the detection control section 85 . The optical filter 42 is arranged so as to face the detection surface of the emitted light L2 in the sensor 41 . The transmittance (also referred to as emitted light transmittance) of the optical filter 42 for the emitted light L2 is extremely high. Therefore, the optical filter 42 sufficiently transmits the emitted light L2 from the imaging plate 10 and emits it to the sensor 41 . On the other hand, the transmittance of the optical filter 42 for the excitation light L1 (also referred to as the excitation light transmittance) is lower than the emitted light transmittance. For example, the excitation light transmittance is about 10% of the emission light transmittance. Therefore, the optical filter 42 attenuates the reflected light of the excitation light L<b>1 from the imaging plate 10 toward the sensor 41 . In this disclosure, reflected light includes scattered light. Hereinafter, simply speaking of reflected light means the reflected light of the excitation light L1.

センサ41は、光学フィルタ42を透過した発光光L2を検出し、検出した発光光L2の強度に応じた電気信号を出力することが可能である。センサ41は、例えば、複数のフォトダイオードで構成されてもよいし、光電子増倍管で構成されてもよい。 The sensor 41 can detect the emitted light L2 that has passed through the optical filter 42 and output an electrical signal corresponding to the intensity of the detected emitted light L2. The sensor 41 may be composed of, for example, a plurality of photodiodes or a photomultiplier tube.

読取装置1において、イメージングプレート10から放射線像が読み取られる処理(読取処理ともいう)が行われる場合、イメージングプレート10を保持した保持部20は、駆動部50によって読取開始位置に搬送される。そして、読取処理が開始する。読取処理では、光源30が、発光制御部86による制御によって、励起光L1をイメージングプレート10上で主走査方向DRmに走査する処理(主走査方向スキャンともいう)を繰り返し実行する。一方で、読取処理において、駆動部50は、イメージングプレート10を保持した保持部20を、所定方向DR10に沿った一方向DRs(副走査方向DRsともいう)に移動させる。副走査方向DRsは主走査方向DRmに垂直な方向である。保持部20が副走査方向DRsに移動している間に、主走査方向スキャンが繰り返し実行されることにより、イメージングプレート10の放射線像形成層11に対して励起光L1がラスタスキャンされる。これにより、読取処理では、放射線像形成層11の全領域にわたって励起光L1が順次照射されて、放射線像形成層11の全領域が励起光L1で走査される。放射線像形成層11に対して励起光L1がラスタスキャンされる間、検出器40のセンサ41が、ラスタスキャンに応じて放射線像形成層11が順次発する発光光L2を検出することによって、放射線像形成層11から放射線像が読み取られる。センサ41は、励起光L1のラスタスキャン中の発光光L2の検出結果として、読み取られた放射線像(言い換えれば、検出された放射線像)を表す画像信号を検出制御部85に出力する。この画像信号には、読み取られた放射線像を表す複数の画素の輝度値(言い換えれば画素値)が含まれる。センサ41は、例えば、グレースケールの画像信号を出力する。以後、検出器40で読み取られた放射線像を検出放射線像と呼ぶことがある。 When the reader 1 performs a process of reading a radiation image from the imaging plate 10 (also referred to as a reading process), the holding unit 20 holding the imaging plate 10 is conveyed to the reading start position by the driving unit 50 . Then, the reading process starts. In the reading process, the light source 30 repeatedly performs a process of scanning the imaging plate 10 with the excitation light L1 in the main scanning direction DRm (also referred to as main scanning direction scanning) under the control of the light emission control unit 86 . On the other hand, in the reading process, the drive unit 50 moves the holding unit 20 holding the imaging plate 10 in one direction DRs (also called sub-scanning direction DRs) along the predetermined direction DR10. The sub-scanning direction DRs is a direction perpendicular to the main scanning direction DRm. While the holding unit 20 is moving in the sub-scanning direction DRs, scanning in the main scanning direction is repeatedly performed, whereby the radiation image forming layer 11 of the imaging plate 10 is raster-scanned with the excitation light L1. Thus, in the reading process, the entire area of the radiation image forming layer 11 is sequentially irradiated with the excitation light L1, and the entire area of the radiation image forming layer 11 is scanned with the excitation light L1. While the radiation image forming layer 11 is raster-scanned with the excitation light L1, the sensor 41 of the detector 40 detects the emitted light L2 sequentially emitted from the radiation image forming layer 11 according to the raster scanning, thereby forming a radiation image. A radiation image is read from the forming layer 11 . The sensor 41 outputs an image signal representing the read radiographic image (in other words, the detected radiographic image) to the detection control unit 85 as a detection result of the emitted light L2 during raster scanning of the excitation light L1. This image signal includes luminance values (in other words, pixel values) of a plurality of pixels representing the read radiation image. The sensor 41 outputs, for example, a grayscale image signal. Hereinafter, the radiographic image read by the detector 40 may be called a detected radiographic image.

ここで、本願における走査について説明する。ラスタスキャンは、2次元の走査対象を、点で1次元的に走査(スキャン)して線(走査線(スキャンライン))を得て、次いでその直角方向に所定画素分ずれた位置で同様な1次元的な走査を繰り返すことで2次元の面の画像を得る方法を指すことがある。2次元の面の画像を得る目的が達成できるのであれば、1次元的走査は直線の走査でなければならないことはなく、ずらす方向も直角方向でなければならないことはない。また、単位走査は必ずしも同じ方向であることを要するものではなく、例えば反対方向に往と復を繰り返してもよい。本願では、ラスタスキャンの1次元的走査のように、2次元の面の画像を形成するために集合する走査の各々を単位走査とし、単位走査の走査方向を主走査方向とし、ラスタスキャンでずれる直角方向のように、単位走査と交差する方向を単位走査交差方向とし、単位走査を単位走査方向にずらしながら繰り返して2次元の走査を行うことを単位走査反復走査とする。単位走査を反復するために単位走査を単位走査交差方向に移動させる走査を副走査とし、副走査と交差する方向に行う単位走査を主走査とする。主走査方向は主走査の走査方向であるといえ、副走査方向は副走査の走査方向であるといえる。本願構成で採用される走査は、単位走査反復走査であればよいのであるが、実施形態の説明としては、単位走査反復走査の代表としてラスタスキャンによる走査を説明していく。 Here, scanning in the present application will be described. In raster scanning, a two-dimensional object to be scanned is one-dimensionally scanned (scanned) at points to obtain lines (scan lines). It may refer to a method of obtaining a two-dimensional surface image by repeating one-dimensional scanning. If the purpose of obtaining an image of a two-dimensional surface can be achieved, the one-dimensional scanning does not have to be a straight line scanning and the shifting direction does not have to be perpendicular. Also, the unit scanning does not necessarily have to be in the same direction, and for example, may be repeated in opposite directions. In the present application, each of the scans gathered to form a two-dimensional surface image is defined as a unit scan, like the one-dimensional scan of the raster scan, and the scanning direction of the unit scan is defined as the main scanning direction. A direction that intersects the unit scan, such as the perpendicular direction, is defined as the unit scan cross direction, and repeating two-dimensional scanning while shifting the unit scan in the unit scan direction is referred to as unit scan repetitive scan. A scan in which the unit scan is moved in the direction crossing the unit scan in order to repeat the unit scan is referred to as a sub-scan, and a unit scan performed in the direction crossing the sub-scan is referred to as a main scan. The main scanning direction can be said to be the scanning direction of main scanning, and the sub-scanning direction can be said to be the scanning direction of sub-scanning. Scanning employed in the configuration of the present application may be repetitive unit-scanning, but in the description of the embodiments, scanning by raster scanning will be described as a representative of repetitive unit-scanning.

本例では、イメージングプレート10が保持部20で適切に保持されている状態では、図2及び4に示されるように、イメージングプレート10の短手方向が主走査方向DRmと平行を成し、イメージングプレート10の長手方向が副走査方向DRsと平行を成す。ここで、イメージングプレート10が保持部20で適切に保持されている状態でのイメージングプレートの姿勢を基準姿勢と呼ぶ、本例では、基準姿勢は、イメージングプレート10の短手方向が主走査方向DRmと平行を成し、イメージングプレート10の長手方向が副走査方向DRsと平行を成すようなイメージングプレート10の姿勢である。なお、基準姿勢はこの限りではない。 In this example, when the imaging plate 10 is properly held by the holding unit 20, the lateral direction of the imaging plate 10 is parallel to the main scanning direction DRm as shown in FIGS. The longitudinal direction of the plate 10 is parallel to the sub-scanning direction DRs. Here, the posture of the imaging plate 10 in a state in which the imaging plate 10 is appropriately held by the holding unit 20 is called a reference posture. , and the longitudinal direction of the imaging plate 10 is parallel to the sub-scanning direction DRs. Note that the reference posture is not limited to this.

イメージングプレート10は、基本的には、基準姿勢で保持部20に保持される。ただし、固定部22の不具合等により保持部20が適切にイメージングプレート10を保持していない場合、イメージングプレート10は基準姿勢から傾いた状態で保持部20で保持されることもある。 The imaging plate 10 is basically held by the holding section 20 in a reference posture. However, if the holding section 20 does not properly hold the imaging plate 10 due to a defect of the fixing section 22 or the like, the imaging plate 10 may be held by the holding section 20 in a state inclined from the reference posture.

本例では、センサ41は、例えば、検出した光の強度が大きいほど、値の大きい輝度値を出力する。イメージングプレート10の放射線像形成層11では、放射線の照射強度が大きく蓄積エネルギーが大きい部分ほど、当該部分からの発光光L2の強度は大きい。したがって、放射線像形成層11において蓄積エネルギーが大きい部分からの発光光L2の検出に基づく像についてセンサ41が出力する輝度値は大きくなる。 In this example, the sensor 41, for example, outputs a larger luminance value as the intensity of the detected light increases. In the radiation image forming layer 11 of the imaging plate 10, the intensity of the emitted light L2 from that portion increases as the irradiation intensity of the radiation increases and the accumulated energy increases. Therefore, the luminance value output by the sensor 41 for an image based on the detection of the emitted light L2 from the portion of the radiation image forming layer 11 having a large accumulated energy is increased.

例えば、放射線像形成層11に歯の放射線像が記録される場合を考える。この場合、放射線像形成層11において歯の放射線像が記録されている部分、つまり、歯を透過した放射線が照射された部分からの発光光L2の強度は比較的小さい。よって、検出放射線像のうち歯が写る部分についてのセンサ41からの輝度値は比較的小さい。一方で、放射線像形成層11において放射線が直接照射された部分(直接照射部分ともいう)からの発光光L2の強度は比較的大きい。よって、検出放射線像のうち、放射線像形成層11の直接照射部分に相当する像についてセンサ41から出力される輝度値は比較的大きい。 For example, consider the case where a radiation image of teeth is recorded on the radiation image forming layer 11 . In this case, the intensity of the emitted light L2 from the portion where the radiation image of the tooth is recorded in the radiation image forming layer 11, that is, the portion irradiated with the radiation that has passed through the tooth is relatively small. Therefore, the luminance value from the sensor 41 for the portion of the detected radiation image where the tooth is reflected is relatively small. On the other hand, the intensity of the emitted light L2 from the portion directly irradiated with the radiation (also referred to as the directly irradiated portion) in the radiation image forming layer 11 is relatively high. Therefore, among the detected radiation images, the brightness value output from the sensor 41 for the image corresponding to the directly irradiated portion of the radiation image forming layer 11 is relatively large.

本例では、光学フィルタ42は、励起光L1を減衰させるものの、励起光L1をある程度は透過させる。したがって、センサ41は、イメージングプレート10が発する発光光L2だけではなく、イメージングプレート10での励起光L1の反射光もある程度検出する。よって、センサ41から出力される検出放射線像の輝度値には、検出された発光光L2の強度に応じた輝度値(発光光対応輝度値ともいう)と、検出された反射光に応じた輝度値(反射光対応輝度値ともいう)とが含まれる。発光光対応輝度値は、例えば、反射光対応輝度値の10倍以上の値となっている。よって、検出器40から出力される画像信号に基づく検出放射線像は、反射光の影響をあまり受けておらず、イメージングプレート10に記録されている放射線像を適切に表している。 In this example, the optical filter 42 attenuates the excitation light L1, but transmits the excitation light L1 to some extent. Therefore, the sensor 41 detects not only the emitted light L2 emitted by the imaging plate 10 but also the reflected light of the excitation light L1 on the imaging plate 10 to some extent. Therefore, the luminance value of the detected radiation image output from the sensor 41 includes a luminance value corresponding to the detected intensity of the emitted light L2 (also referred to as a luminance value corresponding to the emitted light) and a luminance corresponding to the detected reflected light. values (also referred to as luminance values corresponding to reflected light). The luminance value corresponding to emitted light is, for example, a value that is ten times or more than the luminance value corresponding to reflected light. Therefore, the detected radiation image based on the image signal output from the detector 40 is not greatly affected by the reflected light, and appropriately represents the radiation image recorded on the imaging plate 10 .

また、本例では、イメージングプレート10の放射線像形成層11においては、部分的に、放射線の照射に応じたエネルギーが蓄積されていない未露光部分が存在することがある。例えば、イメージングプレート10に対して撮影対象物越しに放射線が照射される場合、放射線を発する光源の位置ずれ等によって、放射線像形成層11において、本来は放射線が照射されるべき部分に対して放射線が照射されずに、部分的に未露光部分が発生することがある。この部分的な未露光部分はコーンカットと呼ばれることがある。また、放射線像形成層11において、放射線が照射された部分から意図せずに放射線像が消えてしまい、未露光部分が部分的に発生することがある。例えば、放射線像を記録するイメージングプレート10は、通常、周囲の光が照射されないように、カバーで覆われた上で保管される。しかしながら、イメージングプレート10が適切にカバーで覆われていない場合には、イメージングプレート10の保管中に周囲の光が放射線像形成層11の一部に照射され、当該一部に記録されていた放射線像が意図せずに消去されることがある。この場合にも、放射線像形成層11は、部分的に未露光部分を有することになる。 In this example, the radiation image forming layer 11 of the imaging plate 10 may partially have an unexposed portion where the energy corresponding to the irradiation of the radiation is not accumulated. For example, when the imaging plate 10 is irradiated with radiation through an object to be photographed, the position of the light source that emits the radiation may shift, causing the portion of the radiation image forming layer 11 to be irradiated with the radiation to be exposed to the radiation. is not irradiated, and partially unexposed areas may occur. This partial unexposed portion is sometimes called a cone cut. In addition, in the radiation image forming layer 11, the radiation image may unintentionally disappear from the radiation-irradiated portions, resulting in partially unexposed portions. For example, the imaging plate 10 for recording a radiographic image is usually stored with a cover so that it is not exposed to ambient light. However, if the imaging plate 10 is not properly covered with a cover, ambient light will irradiate a portion of the radiation image forming layer 11 during storage of the imaging plate 10, causing the radiation recorded in that portion to be exposed to radiation. Images may be erased unintentionally. In this case also, the radiation image forming layer 11 will partially have unexposed areas.

イメージングプレート10の未露光部分に励起光L1が照射されたとしても、未露光部分からは発光光L2は発せられない。したがって、励起光L1が未露光部分に照射された場合には、検出器40は、発光光L2を検出せずに、未露光部分での励起光L1の反射光を検出する。よって、検出器40が出力する画像信号には、未露光部分の反射光像、つまり、未露光部分からの励起光L1の反射光の検出に基づく反射光像を表す複数の画素の輝度値が含まれることがある。検出器40が発光光L2及び反射光の検出結果として出力する画像信号に基づく全体の像には、発光光L2の検出に基づく検出放射線像だけではなく、未露光部分の反射光像(未露光領域像ともいう)も含まれることがある。検出器40が出力する検出放射線像の輝度値は、例えば、検出器40が出力する未露光領域像の輝度値の10倍以上となっている。 Even if the unexposed portion of the imaging plate 10 is irradiated with the excitation light L1, the unexposed portion does not emit the emission light L2. Therefore, when the excitation light L1 is applied to the unexposed portion, the detector 40 detects the reflected light of the excitation light L1 at the unexposed portion without detecting the emitted light L2. Therefore, the image signal output by the detector 40 includes the luminance values of a plurality of pixels representing the reflected light image of the unexposed portion, that is, the reflected light image based on the detection of the reflected light of the excitation light L1 from the unexposed portion. may be included. The entire image based on the image signal output by the detector 40 as the detection result of the emitted light L2 and the reflected light includes not only the detected radiation image based on the detection of the emitted light L2 but also the reflected light image of the unexposed portion (unexposed image). Also called an area image) may also be included. The luminance value of the detected radiation image output by the detector 40 is, for example, ten times or more the luminance value of the unexposed area image output by the detector 40 .

また本例では、読取処理において、励起光L1は、イメージングプレート10だけではなく、保持部20のうちイメージングプレート10の外側の部分に対しても照射される。ここで、読取装置1において励起光L1が照射される対象物を照射対象物1200と呼ぶ。本例では、照射対象物1200は、保持部20と、保持部20に保持されたイメージングプレート10とで構成されている。また、照射対象物1200の支持面21a側の主面1200aを支持側主面1200aと呼ぶ。本例では、支持側主面1200aには、イメージングプレート10の放射線像形成層11の表面と、保持部20の固定部22の表面と、保持部20の支持板21の支持面21aのうちイメージングプレート10及び固定部22で覆われていない領域とが含まれる。また、支持側主面1200aにおいてイメージングプレート10が存在する領域R100をIP存在領域R100と呼ぶ。なお、照射対象物1200の支持側主面1200aとは反対側の主面は、支持板21の裏面21bと一致する。 In this example, in the reading process, not only the imaging plate 10 but also the portion of the holding unit 20 outside the imaging plate 10 is irradiated with the excitation light L1. Here, an object irradiated with the excitation light L1 in the reader 1 is called an irradiation object 1200 . In this example, the object to be irradiated 1200 is composed of the holding section 20 and the imaging plate 10 held by the holding section 20 . A main surface 1200a of the irradiation object 1200 on the support surface 21a side is called a support-side main surface 1200a. In this example, the main surface 1200a on the support side includes the surface of the radiation image forming layer 11 of the imaging plate 10, the surface of the fixed portion 22 of the holding portion 20, and the supporting surface 21a of the supporting plate 21 of the holding portion 20. The area not covered by the plate 10 and the fixed part 22 is included. A region R100 where the imaging plate 10 exists on the support-side main surface 1200a is called an IP existing region R100. Note that the main surface of the irradiation object 1200 on the side opposite to the support-side main surface 1200 a coincides with the back surface 21 b of the support plate 21 .

本例では、読取処理での支持側主面1200aに対する励起光L1の照射範囲(励起光照射範囲ともいう)R120は、IP存在領域R100を含みつつ、それよりも大きい範囲となっている。励起光照射範囲R120は、読取処理での励起光L1の走査範囲ともいえる。また、読取処理における検出器40の支持側主面1200aでの検出範囲R110も、IP存在領域R100を含みつつ、それよりも大きい範囲となっている。 In this example, the irradiation range (also referred to as excitation light irradiation range) R120 of the excitation light L1 with respect to the support-side main surface 1200a in the reading process is a range that includes the IP existence region R100 and is larger than it. The excitation light irradiation range R120 can also be said to be the scanning range of the excitation light L1 in the reading process. Further, the detection range R110 on the support-side main surface 1200a of the detector 40 in the reading process is also a range that includes the IP existence region R100 and is larger than it.

図7は励起光照射範囲R120、検出範囲R110及びIP存在領域R100の一例を示す概略図である。図7及び後述の図8及び9では、イメージングプレート10の記載は省略している。図7に示されるように、励起光照射範囲R120及び検出範囲R110のそれぞれは、IP存在領域R100を含みつつ、IP存在領域R100よりも大きい範囲となっている。そして、励起光照射範囲R120及び検出範囲R110は、例えば、互いに同じ大きさであり、かつ互いに同じ位置に存在する。なお、図7では、説明の便宜上、励起光照射範囲R120が検出範囲R110よりも若干大きく示されている。 FIG. 7 is a schematic diagram showing an example of an excitation light irradiation range R120, a detection range R110, and an IP existence region R100. The illustration of the imaging plate 10 is omitted in FIG. 7 and FIGS. 8 and 9 described later. As shown in FIG. 7, each of the excitation light irradiation range R120 and the detection range R110 includes the IP existence region R100 and is larger than the IP existence region R100. For example, the excitation light irradiation range R120 and the detection range R110 have the same size and are located at the same position. In addition, in FIG. 7, for convenience of explanation, the excitation light irradiation range R120 is shown slightly larger than the detection range R110.

読取処理では、光源30が主走査方向スキャンを繰り返し実行しつつ、イメージングプレート10を保持した保持部20が副走査方向DRsに移動することによって、励起光照射範囲R120に対して励起光L1がラスタスキャンされる。そして、センサ41は、検出範囲R110での励起光L1の照射位置に応じた輝度値を、励起光L1のラスタスキャンに応じて順次出力する。 In the reading process, the holding unit 20 holding the imaging plate 10 moves in the sub-scanning direction DRs while the light source 30 repeatedly scans in the main scanning direction. Scanned. Then, the sensor 41 sequentially outputs luminance values according to the irradiation position of the excitation light L1 in the detection range R110 according to the raster scan of the excitation light L1.

ここで、支持側主面1200aにおいて、IP存在領域R100の外側であり、かつ励起光照射範囲R120及び検出範囲R110の内側の領域をIP外側領域R130と呼ぶ。本例では、励起光照射範囲R120及び検出範囲R110が、IP存在領域R100を含みつつ、IP存在領域R100よりも大きい範囲となっていることから、センサ41は、IP外側領域R130からの励起光L1の反射光を検出する。IP外側領域R130には、例えば、固定部22の表面の少なくとも一部と、支持板21の支持面21aのうちイメージングプレート10及び固定部22で覆われていない領域の少なくとも一部とが含まれる。IP外側領域R130は、保持部20の表面、具体的には保持部20のイメージングプレート10側の主面に含まれる。 Here, on the support-side main surface 1200a, a region outside the IP existence region R100 and inside the excitation light irradiation range R120 and the detection range R110 is called an IP outside region R130. In this example, since the excitation light irradiation range R120 and the detection range R110 include the IP existence region R100 and are larger than the IP existence region R100, the sensor 41 detects the excitation light from the IP outer region R130. The reflected light of L1 is detected. The IP outer region R130 includes, for example, at least part of the surface of the fixing part 22 and at least part of the area of the support surface 21a of the support plate 21 that is not covered with the imaging plate 10 and the fixing part 22. . IP outer region R130 is included in the surface of holding portion 20, specifically, the main surface of holding portion 20 on the imaging plate 10 side.

IP外側領域R130に励起光L1が照射されたとしても、IP外側領域R130からは発光光L2は発せられない。したがって、検出器40は、励起光L1がIP外側領域R130に照射された場合、発光光L2を検出せずに、IP外側領域R130からの励起光L1の反射光を検出する。よって、読取処理において、検出器40が発光光L2及び反射光の検出結果として出力する画像信号には、IP外側領域R130の反射光像、つまり、IP外側領域R130からの励起光L1の反射光の検出に基づく反射光像を表す複数の画素の輝度値が含まれる。本例では、検出器40が出力する画像信号に基づく全体の像(取得全体像ともいう)には、検出放射線像だけではなく、IP外側領域R130の反射光像も含まれる。イメージングプレート10に未露光部分が含まれる場合には、取得全体像には、検出放射線像、未露光領域像及びIP外側領域R130の反射光像が含まれる。以後、IP外側領域R130の反射光像をIP外側領域像と呼ぶことがある。 Even if the IP outer region R130 is irradiated with the excitation light L1, the emission light L2 is not emitted from the IP outer region R130. Therefore, when the IP outer region R130 is irradiated with the excitation light L1, the detector 40 detects the reflected light of the excitation light L1 from the IP outer region R130 without detecting the emitted light L2. Therefore, in the reading process, the image signal output by the detector 40 as the detection result of the emitted light L2 and the reflected light includes the reflected light image of the IP outer region R130, that is, the reflected light of the excitation light L1 from the IP outer region R130. Intensity values of a plurality of pixels representing a reflected light image based on the detection of . In this example, the overall image based on the image signal output by the detector 40 (also referred to as an acquired overall image) includes not only the detected radiation image but also the reflected light image of the IP outer region R130. If the imaging plate 10 includes an unexposed portion, the acquired overall image includes the detected radiation image, the unexposed area image, and the reflected light image of the IP outer area R130. Hereinafter, the reflected light image of the IP outer region R130 may be referred to as an IP outer region image.

本例では、IP外側領域R130に対して、励起光L1が反射しにくくなる処理が行われている。例えば、IP外側領域R130には黒アルマイト処理が行われている。これにより、検出器40は、イメージングプレート10の未露光部分での励起光L1の反射光よりも、IP外側領域R130での励起光L1の反射光の方が検出しにくくなっている。本例では、黒アルマイト処理により、IP外側領域R130では、ほとんど励起光L1が反射しなくなっている。検出器40が出力する未露光領域像の輝度値は、例えば、検出器40が出力するIP外側領域像の輝度値の3倍以上となっている。なお、黒アルマイト処理は、保持部20の表面のうち、IP外側領域R130以外の領域に対しても行われてもよい。例えば、黒アルマイト処理は、保持部20の表面の全領域に行われてもよい。 In this example, the IP outer region R130 is subjected to a process that makes it difficult for the excitation light L1 to be reflected. For example, the IP outer region R130 is subjected to black alumite treatment. This makes it more difficult for the detector 40 to detect the reflected light of the excitation light L1 on the IP outer region R130 than the reflected light of the excitation light L1 on the unexposed portion of the imaging plate 10 . In this example, due to the black alumite treatment, the IP outer region R130 hardly reflects the excitation light L1. The luminance value of the unexposed area image output by the detector 40 is, for example, three times or more the luminance value of the IP outer area image output by the detector 40 . Note that the black alumite treatment may also be performed on a region other than the IP outer region R130 on the surface of the holding portion 20 . For example, the black alumite treatment may be performed on the entire surface area of the holding portion 20 .

励起光照射範囲R120、検出範囲R110及びIP存在領域R100の関係は上記の例に限られない。図8及び9は、励起光照射範囲R120、検出範囲R110及びIP存在領域R100の他の一例を示す概略図である。図8の例では、励起光照射範囲R120は、検出範囲R110及びIP存在領域R100を含みつつ、検出範囲R110及びIP存在領域R100よりも大きくなっている。図9の例では、検出範囲R110は、励起光照射範囲R120及びIP存在領域R100を含みつつ、励起光照射範囲R120及びIP存在領域R100よりも大きくなっている。 The relationship between the excitation light irradiation range R120, the detection range R110, and the IP existence region R100 is not limited to the above example. 8 and 9 are schematic diagrams showing other examples of the excitation light irradiation range R120, the detection range R110, and the IP existence region R100. In the example of FIG. 8, the excitation light irradiation range R120 includes the detection range R110 and the IP existence region R100, but is larger than the detection range R110 and the IP existence region R100. In the example of FIG. 9, the detection range R110 includes the excitation light irradiation range R120 and the IP existence region R100, but is larger than the excitation light irradiation range R120 and the IP existence region R100.

図9の例では、検出範囲R110には、支持側主面1200aにおける、励起光照射範囲R120以外の領域(照射範囲外領域ともいう)が含まれている。したがって、検出器40が出力する画像信号には、照射範囲外領域に対応する輝度値も含まれるが、当該輝度値は零となる。この場合、検出器40は、照射範囲外領域に対応する輝度値を含まない画像信号を出力してもよい。 In the example of FIG. 9, the detection range R110 includes a region other than the excitation light irradiation range R120 (also referred to as a non-irradiation range region) on the support-side main surface 1200a. Therefore, although the image signal output by the detector 40 also includes the brightness value corresponding to the area outside the irradiation range, the brightness value is zero. In this case, the detector 40 may output an image signal that does not include the luminance value corresponding to the non-irradiation area.

<消去用光源について>
本例では、図6に示されるように、消去用光源70と、それを制御する消去制御部87とで、イメージングプレート10から放射線像を消去する消去処理を行う消去部91が構成されている。消去部91を構成する消去用光源70及び消去制御部87は、一つのケースに収容されてユニット化されてもよいし、一つのケースに収容されていなくてもよい。消去用光源70は、イメージングプレート10から放射線像を消去するための消去光L3をイメージングプレート10に照射することが可能である。消去光L3は、例えば可視光である。消去光L3は、白色光であってもよいし、赤色の可視光であってもよいし、他の色の可視光であってもよい。消去用光源70は、LED(Light Emission Diode)であってもよいし、ハロゲンランプであってもよいし、他の光源であってもよい。
<About light source for erasing>
In this example, as shown in FIG. 6, an erasing light source 70 and an erasing control part 87 for controlling the erasing light source 70 constitute an erasing part 91 that performs an erasing process for erasing a radiation image from the imaging plate 10 . . The erasing light source 70 and the erasing control section 87 that constitute the erasing section 91 may be housed in one case to form a unit, or may not be housed in one case. The erasing light source 70 can irradiate the imaging plate 10 with erasing light L3 for erasing the radiation image from the imaging plate 10 . The erasing light L3 is, for example, visible light. The erasing light L3 may be white light, red visible light, or other colors of visible light. The erasing light source 70 may be an LED (Light Emission Diode), a halogen lamp, or another light source.

図4及び5に示されるように、消去用光源70は、例えば一度の照射で、イメージングプレート10の放射線像形成層11の全領域に消去光L3を照射することができる。消去処理では、放射線像形成層11に消去光L3が照射されることにより、放射線像形成層11から放射線像が消去される。 As shown in FIGS. 4 and 5, the erasing light source 70 can irradiate the entire area of the radiation image forming layer 11 of the imaging plate 10 with the erasing light L3, for example, in one irradiation. In the erasing process, the radiation image is erased from the radiation image forming layer 11 by irradiating the radiation image forming layer 11 with the erasing light L3.

駆動部50は、読取処理が終了すると、イメージングプレート10を保持する保持部20を消去位置まで移動させる。保持部20が消去位置まで移動すると、消去部91が消去処理を行う。消去処理では、消去用光源70が、消去制御部87による制御によって、イメージングプレート10の放射線像形成層11の全領域に対して消去光L3を照射する。これより、イメージングプレート10から放射線像が消去される。 After completing the reading process, the driving unit 50 moves the holding unit 20 holding the imaging plate 10 to the erasing position. When the holding section 20 moves to the erasing position, the erasing section 91 performs erasing processing. In the erasing process, the erasing light source 70 irradiates the entire region of the radiation image forming layer 11 of the imaging plate 10 with the erasing light L3 under the control of the erasing controller 87 . As a result, the radiation image is erased from the imaging plate 10 .

駆動部50は、イメージングプレート10から放射線像が消去されると、保持部20を排出位置まで移動させる。保持部20が排出位置まで移動すると、保持部20の各固定部分22aが接近位置から離間位置まで移動する。その後、放射線像が消去されたイメージングプレート10が取出口2bに排出される。以後、消去済みイメージングプレート10と言えば、放射線像が消去されたイメージングプレート10を意味する。 When the radiation image is erased from the imaging plate 10, the driving section 50 moves the holding section 20 to the discharge position. When the holding portion 20 moves to the ejection position, each fixed portion 22a of the holding portion 20 moves from the approach position to the separation position. After that, the imaging plate 10 from which the radiation image has been erased is ejected to the outlet 2b. Hereinafter, the erased imaging plate 10 means the imaging plate 10 from which the radiation image has been erased.

<画像処理部について>
制御部80の画像処理部81は、検出制御部85を通じて、センサ41から出力される画像信号を受け取る。画像処理部81は、センサ41からの画像信号に含まれる複数の輝度値のそれぞれに対して画素位置情報を対応付ける。ある輝度値に対応付けられる画素位置情報とは、取得全体像において、当該ある輝度値を有する画素の位置(画素位置ともいう)を示す情報である。
<About the image processing unit>
An image processing unit 81 of the control unit 80 receives image signals output from the sensor 41 through the detection control unit 85 . The image processing unit 81 associates pixel position information with each of a plurality of luminance values included in the image signal from the sensor 41 . The pixel position information associated with a certain luminance value is information indicating the position (also referred to as pixel position) of a pixel having the certain luminance value in the acquired overall image.

ここで、読取処理では、駆動部50は、主走査方向スキャンの繰り返しに合わせて保持部20を副走査方向DRsに移動する。具体的には、主走査方向スキャンが所定回数実行される間に、励起光照射範囲R120の全領域が励起光L1で照射されるように、駆動部50は保持部20を副走査方向DRsに移動する。そして、センサ41は、検出範囲R110での励起光L1の照射位置に応じた輝度値を、励起光L1のラスタスキャンに応じて順次出力する。読取処理では、読取装置1がこのように動作することから、励起光照射範囲R120と、検出範囲R110と、1回の主走査方向スキャンにかかる時間と、主走査方向スキャンの繰り返し周期と、読取処理での主走査方向スキャンの実行回数とが分かれば、センサ41があるタイミングで出力する輝度値が、取得全体像のどの位置の画素の輝度値であるのかが分かる。画像処理部81は、励起光照射範囲R120と、検出範囲R110と、1回の主走査方向スキャンにかかる時間と、主走査方向スキャンの繰り返し周期と、読取処理での主走査方向スキャンの実行回数とに基づいて、センサ41からの画像信号に含まれる複数の輝度値のそれぞれに対して画素位置情報を対応付ける。なお、検出制御部85が、センサ41からの画像信号に含まれる複数の輝度値のそれぞれに対して画素位置情報を対応付けてもよい。 Here, in the reading process, the driving unit 50 moves the holding unit 20 in the sub-scanning direction DRs in accordance with the repetition of scanning in the main scanning direction. Specifically, the driving unit 50 moves the holding unit 20 in the sub-scanning direction DRs so that the entire area of the excitation light irradiation range R120 is irradiated with the excitation light L1 while the scanning in the main scanning direction is performed a predetermined number of times. Moving. Then, the sensor 41 sequentially outputs luminance values according to the irradiation position of the excitation light L1 in the detection range R110 according to the raster scan of the excitation light L1. In the reading process, since the reading device 1 operates as described above, the excitation light irradiation range R120, the detection range R110, the time required for one scan in the main scanning direction, the repetition period of the scan in the main scanning direction, and the reading If the number of scans in the main scanning direction in the process is known, it is possible to know the luminance value of the pixel at which position in the acquired overall image the luminance value output by the sensor 41 at a certain timing. The image processing unit 81 stores the excitation light irradiation range R120, the detection range R110, the time required for one scan in the main scanning direction, the repetition period of the scan in the main scanning direction, and the number of times the scan in the main scanning direction is executed in the reading process. , the pixel position information is associated with each of the plurality of luminance values included in the image signal from the sensor 41 . Note that the detection control unit 85 may associate pixel position information with each of a plurality of luminance values included in the image signal from the sensor 41 .

また、画像処理部81は、センサ41からの画像信号に対して画像処理を行う。画像処理部81は、例えば、画像処理後の画像信号と、それに含まれる各輝度値に対応付けた画素位置情報とを表示制御部82に出力する。表示制御部82は、例えば、画像処理後の画像信号と、当該画像信号の各輝度値に対応付けられた画素位置情報とに基づいて、検出放射線像を含む取得全体像を表示部3に表示させる。 Also, the image processing unit 81 performs image processing on the image signal from the sensor 41 . The image processing unit 81 outputs, for example, an image signal after image processing and pixel position information associated with each luminance value included in the image signal to the display control unit 82 . The display control unit 82 displays, on the display unit 3, the obtained whole image including the detected radiographic image, based on the image signal after the image processing and the pixel position information associated with each luminance value of the image signal, for example. Let

画像処理部81が行う画像処理には輝度反転処理が含まれてもよい。輝度反転処理とは、輝度反転処理が行われる前の画像信号の各輝度値に対して、当該輝度値が大きいほど小さくなるような変換を行う処理である。ここで、輝度値が取り得る範囲の最大値を輝度最大値と呼ぶ。例えば、輝度反転処理が行われる前の画像信号に含まれるある輝度値を、輝度最大値から差し引いて得られる値が、変換後の当該ある輝度値となる。画像信号に対して輝度反転処理が行われることによって、画像処理後の画像信号では、画像処理前の画像信号とは異なり、イメージングプレート10において蓄積エネルギーが小さい部分からの発光光L2の検出に基づく放射線像の輝度値は大きくなり、イメージングプレート10において蓄積エネルギーが大きい部分からの発光光L2の検出に基づく放射線像の輝度値は小さくなる。また、画像処理後の画像信号では、未露光領域像の輝度値及びIP外側領域像の輝度値は、検出放射線像の輝度値よりも大きくなる。 The image processing performed by the image processing unit 81 may include brightness inversion processing. The brightness reversal process is a process of converting each brightness value of the image signal before the brightness reversal process so that the larger the brightness value, the smaller the brightness value. Here, the maximum value of the possible range of luminance values is called the maximum luminance value. For example, a value obtained by subtracting a certain luminance value included in the image signal before luminance inversion processing from the maximum luminance value becomes the certain luminance value after conversion. By performing luminance inversion processing on the image signal, the image signal after image processing differs from the image signal before image processing based on the detection of emitted light L2 from a portion of the imaging plate 10 where the accumulated energy is small. The luminance value of the radiation image increases, and the luminance value of the radiation image based on the detection of the emitted light L2 from the portion of the imaging plate 10 where the accumulated energy is large decreases. Further, in the image signal after image processing, the luminance value of the unexposed area image and the luminance value of the IP outer area image are larger than the luminance value of the detected radiographic image.

なお、画像処理部81が行う画像処理には、輝度反転処理が含まれなくてもよいし、輝度反転処理以外の処理が含まれてもよい。画像処理には、輝度反転処理以外の処理として、例えば、オフセット補正及び対数変換が含まれてもよい。 Note that the image processing performed by the image processing unit 81 may not include the luminance inversion processing, or may include processing other than the luminance inversion processing. Image processing may include, for example, offset correction and logarithmic conversion as processing other than luminance inversion processing.

図10及び11は、輝度反転処理が行われる前の画像信号に基づく取得全体像(反転前全体像ともいう)100aの一例を示す概略図である。図12及び13は、輝度反転処理が行われた後の画像信号に基づく取得全体像(反転後全体像ともいう)100bの一例を示す概略図である。図10~13では、反転前全体像100a及び反転後全体像100bがグレースケールで示されている。図10~13では、像の輝度値が大きいほど、その像は明るく(言い換えれば白く)示され、像の輝度値が小さいほど、その像は暗く(言い換えれば黒く)示されている。なお、読取装置1で得られる像を示す後述の図についても同様である。 10 and 11 are schematic diagrams showing an example of an acquired global image (also referred to as a pre-reversal global image) 100a based on the image signal before luminance reversal processing is performed. 12 and 13 are schematic diagrams showing an example of an acquired overall image (also referred to as an inverted overall image) 100b based on the image signal after luminance inversion processing has been performed. In FIGS. 10-13, the pre-inverted global image 100a and the post-inverted global image 100b are shown in grayscale. In FIGS. 10 to 13, the image appears brighter (in other words, whiter) as the luminance value of the image increases, and the image appears darker (in other words, blacker) as the luminance value of the image decreases. The same applies to later-described figures showing images obtained by the reading device 1. FIG.

図10には、発光光L2の検出に基づく放射線像(言い換えれば検出放射線像)101aとIP外側領域像102aとを含む反転前全体像100aが示されている。図11には、放射線像101aと、IP外側領域像102aと、未露光領域像103aとを含む反転前全体像100aが示されている。図12には、放射線像101bとIP外側領域像102bとを含む反転後全体像100bが示されている。図13には、放射線像101bと、IP外側領域像102bと、未露光領域像103bとを含む反転後全体像100bが示されている。本例では、センサ41の検出範囲R110が長方形であることから、図10~13に示されるように、取得全体像の形状は長方形となる。 FIG. 10 shows a pre-inversion whole image 100a including a radiation image (in other words, a detection radiation image) 101a based on detection of the emitted light L2 and an IP outer region image 102a. FIG. 11 shows a pre-reversal overall image 100a including a radiation image 101a, an IP outer area image 102a, and an unexposed area image 103a. FIG. 12 shows an inverted overall image 100b including a radiation image 101b and an IP outer region image 102b. FIG. 13 shows an inverted overall image 100b including a radiation image 101b, an IP outer area image 102b, and an unexposed area image 103b. In this example, since the detection range R110 of the sensor 41 is rectangular, the shape of the obtained whole image is rectangular as shown in FIGS.

表示制御部82は、画像処理後の画像信号に基づいて反転後全体像100bを表示部3に表示させる場合、例えば、図12及び13に示されるようなグレースケールで反転後全体像100bを表示部3に表示させる。図12及び13は、反転後全体像100bの表示例を示す図であるともいえる。また、表示制御部82は、輝度反転処理が行われる前の画像信号に基づいて反転前全体像100aを表示部3に表示させる場合、例えば、図10及び11に示されるようなグレースケールで反転前全体像100aを表示部3に表示させる。図10及び11は、反転前全体像100aの表示例を示す図であるともいえる。 When the display control unit 82 causes the display unit 3 to display the post-reversal overall image 100b based on the image signal after the image processing, the display control unit 82 displays the post-reversal overall image 100b in grayscale as shown in FIGS. 12 and 13, for example. Display in part 3. 12 and 13 can also be said to be diagrams showing display examples of the post-reversal overall image 100b. Further, when the display control unit 82 causes the display unit 3 to display the pre-inversion whole image 100a based on the image signal before the luminance inversion processing is performed, the display control unit 82, for example, inverts the image in a gray scale as shown in FIGS. The front whole image 100a is displayed on the display unit 3. FIG. 10 and 11 can also be said to be diagrams showing display examples of the pre-reversal whole image 100a.

<読取装置の動作の一例>
図14は読取装置1の動作の一例を示すフローチャートを示す図である。筐体2の挿入口2aから挿入されたイメージングプレート10が保持部20で保持され、操作部4に含まれるスタートボタンが操作されると、図14のステップs1が実行される。スタートボタンの操作は、図14に示される一連の処理の開始指示操作であるともいえる。
<Example of reading device operation>
FIG. 14 is a diagram showing a flowchart showing an example of the operation of the reading device 1. As shown in FIG. When the imaging plate 10 inserted from the insertion opening 2a of the housing 2 is held by the holding portion 20 and the start button included in the operation portion 4 is operated, step s1 in FIG. 14 is executed. It can be said that the operation of the start button is an instruction to start the series of processes shown in FIG.

ステップs1では、駆動部50が、駆動制御部83による制御によって、保持部20を読取開始位置に移動させる。次にステップs2において、イメージングプレート10から放射線像が読み取られる読取処理が行われる。次にステップs3において、駆動部50は、駆動制御部83による制御によって、保持部20を消去位置に移動させる。次にステップs4において、消去用光源70が、消去制御部87による制御によって、消去光L3をイメージングプレート10に照射することによって、イメージングプレート10から照射線像が消去される消去処理が行われる。次にステップs5において、駆動部50は、駆動制御部83による制御によって、保持部20を排出位置に移動させる。次にステップs6において、イメージングプレート10は筐体2の取出口2bに排出される。そしてステップs7において、表示部3は、表示制御部82による制御によって、取得全体像を表示する。ステップs7では、表示部3は、例えば、反転後全体像を図12及び13のようにグレースケール表示する。なお、ステップs7は、ステップs2の後であれば、いつでも実行されてもよい。例えば、ステップs7はステップs3とステップs4の間に実行されてもよい。 At step s1, the driving unit 50 moves the holding unit 20 to the reading start position under the control of the driving control unit 83. FIG. Next, in step s2, reading processing is performed to read a radiation image from the imaging plate 10. FIG. Next, in step s3, the driving section 50 moves the holding section 20 to the erasing position under the control of the driving control section 83. FIG. Next, in step s4, the erasing light source 70 irradiates the imaging plate 10 with the erasing light L3 under the control of the erasing control unit 87, thereby performing erasing processing in which the radiation image is erased from the imaging plate 10. FIG. Next, in step s5, the driving section 50 moves the holding section 20 to the ejection position under the control of the driving control section 83. As shown in FIG. Next, in step s6, the imaging plate 10 is ejected to the outlet 2b of the housing 2. FIG. Then, in step s7, the display unit 3 displays the obtained overall image under the control of the display control unit 82. FIG. In step s7, the display unit 3 displays the reversed whole image in grayscale as shown in FIGS. 12 and 13, for example. Note that step s7 may be executed at any time after step s2. For example, step s7 may be performed between steps s3 and s4.

<イメージングプレートの傾き角度の特定について>
画像処理部81は、例えば、イメージングプレート10の基準姿勢からの傾き角度(IP傾き角度ともいう)を特定する傾き角度特定処理を行ってもよい。画像処理部81は、傾き角度特定処理において、例えば、検出器40が出力する画像信号に基づいてIP傾き角度を特定する。画像処理部81はIP傾き角度を特定する特定部として機能する。以下に傾き角度特定処理の具体例について説明するが、傾き角度特定処理は下記の例に限られない。
<Identification of the tilt angle of the imaging plate>
The image processing unit 81 may perform, for example, an inclination angle specifying process of specifying an inclination angle (also referred to as an IP inclination angle) from the reference orientation of the imaging plate 10 . In the tilt angle identification process, the image processing unit 81 identifies the IP tilt angle, for example, based on the image signal output by the detector 40 . The image processing unit 81 functions as a specifying unit that specifies the IP tilt angle. A specific example of the tilt angle specifying process will be described below, but the tilt angle specifying process is not limited to the example below.

上述のように、本例の基準姿勢とは、イメージングプレート10の短手方向及び長手方向が主走査方向DRm及び副走査方向DRsにそれぞれ平行となるようなイメージングプレート10の姿勢である。保持部20がイメージングプレート10を適切に保持していない場合、保持部20で保持されたイメージングプレート10をその前面側から見ると、図15に示されるように、イメージングプレート10の長手方向(IP長手方向ともいう)が副走査方向DRsに対して傾いて、イメージングプレート10が基準姿勢に対して傾くことがある。言い換えれば、イメージングプレート10の短手方向(IP短手方向ともいう)が主走査方向DRmに対して傾いて、イメージングプレート10が基準姿勢に対して傾くことがある。図15では、基準姿勢のイメージングプレート10が破線で示されている。 As described above, the reference posture in this example is the posture of the imaging plate 10 in which the lateral direction and longitudinal direction of the imaging plate 10 are parallel to the main scanning direction DRm and the sub-scanning direction DRs, respectively. When the imaging plate 10 held by the holding part 20 is not properly held by the holding part 20, the imaging plate 10 held by the holding part 20 is viewed from the front side, as shown in FIG. (also referred to as the longitudinal direction) is tilted with respect to the sub-scanning direction DRs, and the imaging plate 10 may be tilted with respect to the reference posture. In other words, the lateral direction (also referred to as the IP lateral direction) of imaging plate 10 may be tilted with respect to main scanning direction DRm, and imaging plate 10 may be tilted with respect to the reference orientation. In FIG. 15, the imaging plate 10 in the reference posture is indicated by broken lines.

本例では、IP傾き角度、つまりイメージングプレート10の基準姿勢からの傾き角度は、副走査方向DRsに対するIP長手方向の傾き角度と一致する。言い換えれば、IP傾き角度は、主走査方向DRmに対するIP短手方向の傾き角度と一致する。 In this example, the IP tilt angle, that is, the tilt angle of the imaging plate 10 from the reference orientation matches the tilt angle of the IP longitudinal direction with respect to the sub-scanning direction DRs. In other words, the IP tilt angle matches the tilt angle of the IP lateral direction with respect to the main scanning direction DRm.

一方で、センサ41の検出範囲R110(図7等参照)の長手方向は、センサ41からの画像信号に基づく取得全体像の長手方向に対応する。本例では、検出範囲R110の長手方向は副走査方向DRsに平行であることから、取得全体像の長手方向は、副走査方向DRsに対応しているといえる。したがって、イメージングプレート10の姿勢が基準姿勢である場合、取得全体像の長手方向と、取得全体像のうちのイメージングプレート10に相当する部分(IP相当部分ともいう)の長手方向とは、互いに一致する。一方で、イメージングプレート10が基準姿勢に対して傾いている場合、取得全体像のIP相当部分の長手方向は、取得全体像の長手方向に対して傾くことになる。言い換えれば、イメージングプレート10が基準姿勢に対して傾いている場合、取得全体像に含まれるIP相当部分の短手方向は、取得全体像の短手方向に対して傾くことになる。 On the other hand, the longitudinal direction of the detection range R110 (see FIG. 7 and the like) of the sensor 41 corresponds to the longitudinal direction of the overall image acquired based on the image signal from the sensor 41 . In this example, since the longitudinal direction of the detection range R110 is parallel to the sub-scanning direction DRs, it can be said that the longitudinal direction of the obtained whole image corresponds to the sub-scanning direction DRs. Therefore, when the posture of the imaging plate 10 is the reference posture, the longitudinal direction of the acquired entire image and the longitudinal direction of the portion corresponding to the imaging plate 10 (also referred to as the IP corresponding portion) of the acquired entire image match each other. do. On the other hand, when the imaging plate 10 is tilted with respect to the reference posture, the longitudinal direction of the IP-corresponding portion of the acquired overall image is tilted with respect to the longitudinal direction of the acquired overall image. In other words, when the imaging plate 10 is tilted with respect to the reference posture, the widthwise direction of the portion corresponding to the IP included in the acquired overall image is tilted with respect to the widthwise direction of the acquired overall image.

図16は、イメージングプレート10が基準姿勢に対して傾いている場合に得られる反転前全体像100aの一例を示す図である。図16の例では、反転前全体像100aに含まれるIP相当部分105aの長手方向は、反転前全体像100aの長手方向に対して傾いている。反転前全体像100aの長手方向に対するIP相当部分105aの長手方向の傾き角度は、IP傾き角度と一致する。 FIG. 16 is a diagram showing an example of a pre-inversion whole image 100a obtained when the imaging plate 10 is tilted with respect to the reference posture. In the example of FIG. 16, the longitudinal direction of the IP-corresponding portion 105a included in the pre-reversal whole image 100a is inclined with respect to the longitudinal direction of the pre-reversal whole image 100a. The tilt angle of the IP corresponding portion 105a in the longitudinal direction with respect to the longitudinal direction of the whole image 100a before reversal matches the IP tilt angle.

このように、本例では、取得全体像の長手方向に対するIP相当部分の長手方向の傾き角度は、IP傾き角度と一致する。そこで、画像処理部81は、センサ41からの画像信号に基づいて、取得全体像の長手方向に対するIP相当部分の長手方向の傾き角度を求める。そして、画像処理部81は、求めた傾き角度をIP傾き角度とする。以下にこの画像処理部81の動作について詳細に説明する。 Thus, in this example, the tilt angle in the longitudinal direction of the portion corresponding to the IP with respect to the longitudinal direction of the obtained entire image matches the IP tilt angle. Therefore, based on the image signal from the sensor 41, the image processing unit 81 obtains the inclination angle of the portion corresponding to the IP in the longitudinal direction with respect to the longitudinal direction of the obtained entire image. Then, the image processing unit 81 sets the obtained tilt angle as the IP tilt angle. The operation of this image processing unit 81 will be described in detail below.

傾き角度特定処理において、画像処理部81は、輝度反転処理が行われる前の画像信号(反転前の画像信号ともいう)に基づく反転前全体像を二値化して二値化像を生成する。画像処理部81は、まず、反転前の画像信信号に含まれる、反転前全体像の各輝度値と、予め設定されたしきい値とを比較する。そして、画像処理部81は、反転前全体像の各輝度値について、しきい値以上の輝度値を“1”に置き換え、しきい値未満の輝度値を“0”に置き換える。これにより、反転前全体像が二値化されて二値化像が得られる。 In the tilt angle specifying process, the image processing unit 81 binarizes the pre-inversion whole image based on the image signal before the luminance inversion process (also referred to as the image signal before inversion) to generate a binarized image. The image processing unit 81 first compares each luminance value of the pre-inversion whole image, which is included in the pre-inversion image signal, with a preset threshold value. Then, the image processing unit 81 replaces luminance values equal to or greater than the threshold value with "1" and substitutes luminance values less than the threshold value with "0" for each luminance value of the pre-reversal whole image. As a result, the whole image before reversal is binarized to obtain a binarized image.

二値化で使用されるしきい値は、例えば、反転前の画像信号に含まれるIP外側領域像の輝度値よりも大きく、かつ反転前の画像信号に含まれる未露光領域像の輝度値よりも小さい値に設定される。例えば、反転前の画像信号に含まれるIP外側領域像の輝度値が1000とし、反転前の画像信号に含まれる未露光領域像の輝度値が3000である場合を考える。この場合、しきい値は、例えば2000に設定される。しきい値は、例えば、実稼働前の読取装置1で得られた反転前の画像信号に基づいて設定され、読取装置1の画像処理部81に予め記憶される。なお、反転前の画像信号に含まれる検出放射線像の輝度値は、反転前の画像信号に含まれる未露光領域像の輝度値よりも大きくなることから(図11参照)、しきい値は、反転前の画像信号に含まれる検出放射線像の輝度値よりも小さくなる。 The threshold value used in binarization is, for example, greater than the luminance value of the IP outer area image included in the image signal before inversion and more than the luminance value of the unexposed area image included in the image signal before inversion. is also set to a small value. For example, consider a case where the brightness value of the IP outer area image included in the image signal before inversion is 1000 and the brightness value of the unexposed area image included in the image signal before inversion is 3000. FIG. In this case, the threshold is set to 2000, for example. The threshold value is set based on, for example, an image signal before reversal obtained by the reading device 1 before actual operation, and is stored in advance in the image processing section 81 of the reading device 1 . Since the luminance value of the detected radiation image contained in the image signal before inversion is greater than the luminance value of the unexposed area image contained in the image signal before inversion (see FIG. 11), the threshold value is It is smaller than the luminance value of the detected radiation image included in the image signal before inversion.

しきい値が上記のように設定されることによって、二値化像では、IP外側領域に相当する部分の各輝度値は“0”となる。また、イメージングプレート10に未露光部分が含まれているか否かにかかわらず、二値化像では、イメージングプレート10に相当する部分の各輝度値は“1”となる。 By setting the threshold values as described above, each luminance value of the portion corresponding to the IP outer region becomes "0" in the binarized image. Further, regardless of whether or not the imaging plate 10 includes an unexposed portion, each luminance value of the portion corresponding to the imaging plate 10 is "1" in the binarized image.

図17は二値化像500の一例を示す概略図である。図17には、図16に示される反転前全体像100aを二値化して得られた二値化像500が示されている。図17では、二値化像500において、輝度値が“1”の領域(高輝度領域ともいう)501は白で示され、輝度値が“0”の領域(低輝度領域ともいう)502は黒で示されている。図17から理解できるように、二値化像500では、高輝度領域501がイメージングプレート10に相当し、低輝度領域502がIP外側領域に相当する。高輝度領域501の外形は、イメージングプレート10の外形に応じた形状となる。 FIG. 17 is a schematic diagram showing an example of a binarized image 500. As shown in FIG. FIG. 17 shows a binarized image 500 obtained by binarizing the pre-inversion whole image 100a shown in FIG. In FIG. 17, in a binarized image 500, an area 501 with a luminance value of "1" (also called a high luminance area) is shown in white, and an area 502 with a luminance value of "0" (also called a low luminance area) is shown in white. Shown in black. As can be understood from FIG. 17, in the binarized image 500, the high brightness area 501 corresponds to the imaging plate 10, and the low brightness area 502 corresponds to the IP outer area. The outer shape of the high-brightness region 501 has a shape corresponding to the outer shape of the imaging plate 10 .

ここで、二値化像500に含まれる高輝度領域501は、反転前全体像100aに含まれるIP相当部分105aに対応する。画像処理部81は、傾き角度特定処理において、生成した二値化像500に含まれる高輝度領域501を構成する複数の画素の位置を分析対象データとして主成分分析を行って、分析対象データについての第1主成分軸を求める。 Here, a high brightness area 501 included in the binarized image 500 corresponds to the IP equivalent portion 105a included in the pre-inversion whole image 100a. In the tilt angle specifying process, the image processing unit 81 performs principal component analysis on the positions of a plurality of pixels forming the high-brightness region 501 included in the generated binarized image 500 as data to be analyzed. Find the first principal component axis of

主成分分析において、画像処理部81は、二値化像500に含まれる高輝度領域501の重心501a(図17参照)を求める。そして、画像処理部81は、図17に示されるように、重心501aを原点とするXY座標系を二値化像500に対して設定する。このとき、X軸は反転前全体像100aの長手方向に平行とし、Y軸は反転前全体像100aの短手方向に平行とする。後述するように、画像処理部81は、XY座標系を重心501aを中心にして回転させる。本例では、XY座標系の右回りの回転角度をプラスとし、XY座標系の左回りの回転角度をマイナスとする。X軸が反転前全体像100aの長手方向に平行であり、かつY軸が反転前全体像100aの短手方向に平行であるXY座標系の姿勢を初期姿勢と呼ぶ。 In the principal component analysis, the image processing unit 81 obtains the center of gravity 501a (see FIG. 17) of the high brightness area 501 included in the binarized image 500. FIG. Then, the image processing unit 81 sets an XY coordinate system with the center of gravity 501a as the origin for the binarized image 500, as shown in FIG. At this time, the X-axis is parallel to the longitudinal direction of the pre-reversal overall image 100a, and the Y-axis is parallel to the lateral direction of the pre-reversal overall image 100a. As will be described later, the image processing unit 81 rotates the XY coordinate system around the center of gravity 501a. In this example, the clockwise rotation angle of the XY coordinate system is positive, and the counterclockwise rotation angle of the XY coordinate system is negative. The orientation of the XY coordinate system in which the X axis is parallel to the longitudinal direction of the pre-reversal overall image 100a and the Y axis is parallel to the lateral direction of the pre-reversal overall image 100a is called an initial posture.

画像処理部81は、初期姿勢のXY座標系を二値化像500に対して設定すると、高輝度領域501を構成する複数の画素のそれぞれについて、当該画素の位置510からY軸に下ろした垂線の長さLを求める。次に、画像処理部81は、高輝度領域501を構成する複数の画素についてそれぞれ求めた複数の長さLの分散を求める。この分散を、初期姿勢のときの分散と呼ぶ。 When the image processing unit 81 sets the XY coordinate system of the initial posture for the binarized image 500, for each of the plurality of pixels forming the high-brightness region 501, a vertical line drawn from the pixel position 510 to the Y axis Find the length L of Next, the image processing unit 81 obtains the variance of the plurality of lengths L obtained for the plurality of pixels forming the high-brightness region 501 . This variance is called the variance in the initial posture.

画像処理部81は、XY座標系を重心501aを中心にして初期姿勢から右回り520Rに例えば0.1度ずつ回転させ、XY座標系を0.1度回転させるたびに同様にして複数の長さLの分散を求める右回り処理を行う。右回り処理において、画像処理部81は、XY座標系を右回り520Rに最終的に例えば90度回転させる。また、画像処理部81は、XY座標系を重心501aを中心にして初期姿勢から左回り520Lに例えば0.1度ずつ回転させ、XY座標系を0.1度回転させるたびに同様にして複数の長さLの分散を求める左回り処理を行う。左回り処理において、画像処理部81は、XY座標系を左回り520Lに最終的に例えば90度回転させる。 The image processing unit 81 rotates the XY coordinate system about the center of gravity 501a clockwise 520R from the initial posture by 0.1 degrees, for example, and similarly rotates the XY coordinate system by 0.1 degrees. A clockwise process is performed to find the variance of L. In the clockwise processing, the image processing unit 81 finally rotates the XY coordinate system clockwise 520R, for example, by 90 degrees. Further, the image processing unit 81 rotates the XY coordinate system about the center of gravity 501a from the initial posture counterclockwise 520L, for example, by 0.1 degrees each time the XY coordinate system is rotated by 0.1 degrees. Perform counterclockwise processing to find the variance of length L of . In the counterclockwise process, the image processing unit 81 finally rotates the XY coordinate system counterclockwise 520L by, for example, 90 degrees.

画像処理部81は、右回り処理及び左回り処理を実行すると、右回り処理及び左回り処理において得られた複数の分散と初期姿勢のときの分散のうちの最小値を特定する。そして、画像処理部81は、特定した最小値が得られたときのXY座標系のY軸を第1主成分軸とする。第1主成分軸は、高輝度領域501を構成する複数の画素の位置から、それに下ろした垂線の長さの分散が最小となるような軸であると言える。以後、第1主成分軸に垂直であり、かつ重心501aを通る軸を、第2主成分軸と呼ぶことがある。また、右回り処理及び左回り処理において得られる複数の分散と初期姿勢のときの分散のうちの最小値が得られたときのXY座標系を、分散最小姿勢のXY座標系と呼ぶことがある。 After executing the clockwise and counterclockwise processing, the image processing unit 81 specifies the minimum value among the plurality of variances obtained in the clockwise and counterclockwise processing and the variance in the initial posture. Then, the image processing unit 81 sets the Y axis of the XY coordinate system when the specified minimum value is obtained as the first principal component axis. The first principal component axis can be said to be the axis that minimizes the variance of the lengths of perpendicular lines drawn from the positions of the plurality of pixels forming the high-brightness region 501 . Hereinafter, an axis that is perpendicular to the first principal component axis and that passes through the center of gravity 501a may be referred to as a second principal component axis. Also, the XY coordinate system in which the minimum value among the multiple variances obtained in the clockwise and counterclockwise processing and the variance in the initial posture is obtained is sometimes called the XY coordinate system of the minimum variance posture. .

図18は、図17に示される二値化像500から得られた第1主成分軸551を示す概略図である。図18には、初期姿勢のXY座標系のY軸が破線で示されている。図18に示されるように、第1主成分軸551は高輝度領域501の長手方向に一致する。画像処理部81は、第1主成分軸551を求めると、第1主成分軸551と一致するY軸を有するXY座標系、つまり分散最小姿勢のXY座標系についての初期姿勢からの回転角度αを求める。そして、画像処理部81は、求めた回転角度αを、取得全体像の長手方向に対するIP相当部分の長手方向の傾き角度αとする。初期姿勢のXY座標系のY軸は取得全体像の長手方向に対応し、第1主成分軸551(言い換えれば、分散最小姿勢のXY座標系のY軸)は取得全体像に含まれるIP相当部分の長手方向に対応する。したがって、回転角度αは、取得全体像の長手方向に対するIP相当部分の長手方向の傾き角度であると言える。分散最小姿勢のXY座標系が右回り処理において得られる場合には、回転角度αはプラスの値を示し、分散最小姿勢のXY座標系が左回り処理において得られる場合には、回転角度αはマイナスの値を示す。そして、分散最小姿勢のXY座標系が初期姿勢のXY座標系と一致する場合には、回転角度αは零となる。 FIG. 18 is a schematic diagram showing the first principal component axis 551 obtained from the binarized image 500 shown in FIG. In FIG. 18, the Y-axis of the XY coordinate system in the initial posture is indicated by a dashed line. As shown in FIG. 18 , the first principal component axis 551 coincides with the longitudinal direction of the high brightness region 501 . After obtaining the first principal component axis 551, the image processing unit 81 obtains the rotation angle α Ask for Then, the image processing unit 81 sets the obtained rotation angle α to the longitudinal direction inclination angle α of the portion corresponding to the IP with respect to the longitudinal direction of the obtained entire image. The Y axis of the XY coordinate system of the initial posture corresponds to the longitudinal direction of the acquired whole image, and the first principal component axis 551 (in other words, the Y axis of the XY coordinate system of the minimum variance posture) corresponds to the IP included in the acquired whole image. Corresponds to the longitudinal direction of the part. Therefore, it can be said that the rotation angle α is the inclination angle of the portion corresponding to the IP in the longitudinal direction with respect to the longitudinal direction of the acquired entire image. When the XY coordinate system of the minimum variance attitude is obtained in clockwise processing, the rotation angle α indicates a positive value, and when the XY coordinate system of the minimum variance attitude is obtained in counterclockwise processing, the rotation angle α is Indicates a negative value. Then, when the XY coordinate system of the minimum variance attitude matches the XY coordinate system of the initial attitude, the rotation angle α becomes zero.

画像処理部81は、以上のようにして、取得全体像の二値化像500から取得全体像の長手方向に対するIP相当部分の長手方向の傾き角度αを求めると、求めた傾き角度αをIP傾き角度αとする。イメージングプレート10をその前面側から平面視した場合、IP傾き角度αがプラスのときには、イメージングプレート10は基準姿勢に対して右回りに傾斜し、IP傾き角度αがマイナスのときは、イメージングプレート10は基準姿勢に対して左回りに傾斜している。以後、イメージングプレート10の傾きに関して、単に右回りと言えば、イメージングプレート10をその前面側から見たときの右回りを意味し、単に左回りと言えば、イメージングプレート10をその前面側から見たときの左回りを意味する。 When the image processing unit 81 obtains the tilt angle α in the longitudinal direction of the portion corresponding to the IP with respect to the longitudinal direction of the obtained whole image from the binarized image 500 of the obtained whole image as described above, the image processing unit 81 converts the obtained tilt angle α to the IP Let the tilt angle be α. When the imaging plate 10 is viewed from the front side, the imaging plate 10 tilts clockwise with respect to the reference posture when the IP tilt angle α is positive, and the imaging plate 10 tilts clockwise when the IP tilt angle α is negative. is inclined counterclockwise with respect to the reference posture. Hereinafter, with respect to the tilt of the imaging plate 10, the term "clockwise rotation" means the clockwise rotation when the imaging plate 10 is viewed from its front side, and the term "counterclockwise rotation" simply refers to the clockwise rotation when the imaging plate 10 is viewed from its front side. means counterclockwise rotation when

以上のような傾き角度特定処理は、上述の図14に示される一連の処理の中で実行されてもよいし、図14に示される処理とは別のタイミングで実行されてもよい。また、画像処理部81で求められたIP傾き角度は表示部3で表示されてもよい。このとき、表示部3は、IP傾き角度を、例えば上述のステップs7において取得全体像と同時に表示してもよいし、取得全体像を表示しないときに表示してもよい。 The tilt angle specifying process as described above may be executed during the series of processes shown in FIG. 14 described above, or may be executed at a timing different from the process shown in FIG. Also, the IP tilt angle obtained by the image processing unit 81 may be displayed on the display unit 3 . At this time, the display unit 3 may display the IP tilt angle at the same time as the obtained overall image in step s7 described above, or may display the obtained overall image when not displaying the obtained overall image.

このように、本例では、画像処理部81は、イメージングプレート10からの発光光L2及び反射光の検出結果としての画像信号に基づいてIP傾き角度を特定していることから、IP傾き角度を適切に特定することができる。 As described above, in this example, the image processing unit 81 identifies the IP tilt angle based on the image signal as the detection result of the emitted light L2 and the reflected light from the imaging plate 10. Therefore, the IP tilt angle is can be properly identified.

例えば、センサ41が反射光を検出できない場合であって、イメージングプレート10に未露光部分が含まれる場合を考える。この場合、センサ41からの画像信号に基づく反転前全体像に含まれる未露光領域像及びIP外側領域像の各輝度値は零となる。したがって、反転前全体像を二値化して得られる二値化像500では、未露光領域像及びIP外側領域像に相当する部分の輝度値はすべて“0”となり、未露光領域像及びIP外側領域像に相当する部分はすべて低輝度領域502となる。よって、イメージングプレート10に未露光部分が含まれる場合、二値化像500の高輝度領域501には、未露光部分に相当する部分が含まれなくなり、高輝度領域501は、反転前全体像に含まれるIP相当部分に対応しなくなる。つまり、イメージングプレート10に未露光部分が含まれる場合、高輝度領域501の外形は、イメージングプレート10の外形に応じた形状にならない。このため、画像処理部81は、高輝度領域501について主成分分析を行った場合、イメージングプレート10の長手方向に対応する第1主成分軸を求めることができず、取得全体像の長手方向に対するIP相当部分の長手方向の傾き角度を適切に求めることができない可能性がある。 For example, consider the case where the sensor 41 cannot detect reflected light and the imaging plate 10 includes an unexposed portion. In this case, the brightness values of the unexposed area image and the IP outer area image included in the pre-reversal whole image based on the image signal from the sensor 41 are zero. Therefore, in the binarized image 500 obtained by binarizing the whole image before reversal, the luminance values of the portions corresponding to the unexposed area image and the IP outside area image are all "0", and the unexposed area image and the IP outside area image are all "0". All the portions corresponding to the area image become the low luminance area 502 . Therefore, when the imaging plate 10 includes an unexposed portion, the high-brightness region 501 of the binarized image 500 does not include the portion corresponding to the unexposed portion, and the high-brightness region 501 is the whole image before inversion. It no longer corresponds to the included IP equivalent part. In other words, if the imaging plate 10 includes an unexposed portion, the outer shape of the high-brightness region 501 does not conform to the outer shape of the imaging plate 10 . Therefore, when the principal component analysis is performed on the high luminance region 501, the image processing unit 81 cannot obtain the first principal component axis corresponding to the longitudinal direction of the imaging plate 10. There is a possibility that the tilt angle in the longitudinal direction of the IP-corresponding portion cannot be obtained appropriately.

これに対して、本例では、センサ41は反射光をある程度検出することができ、画像処理部81は、イメージングプレート10からの発光光L2及び反射光の検出結果としての画像信号に基づく反転前全体像を二値化して二値化像500を生成している。そのため、二値化像500では、イメージングプレート10に未露光部分が含まれている場合であっても、図17及び18に示されるように、高輝度領域501は、反転前全体像に含まれるIP相当部分に対応するようになる。つまり、高輝度領域501の外形は、イメージングプレート10の外形の応じた形状となる。これにより、画像処理部81は、高輝度領域501について主成分分析を行った場合、イメージングプレート10の長手方向に対応する第1主成分軸を求めることができ、取得全体像の長手方向に対するIP相当部分の長手方向の傾き角度を適切に求めることができる。よって、画像処理部81はIP傾き角度を適切に特定することができる。 On the other hand, in this example, the sensor 41 can detect the reflected light to some extent, and the image processing unit 81 detects the emitted light L2 from the imaging plate 10 and the image signal as the detection result of the reflected light. A binarized image 500 is generated by binarizing the entire image. Therefore, in the binarized image 500, even if the imaging plate 10 includes an unexposed portion, as shown in FIGS. It comes to correspond to the IP equivalent part. That is, the outer shape of the high-brightness region 501 has a shape corresponding to the outer shape of the imaging plate 10 . As a result, the image processing unit 81 can obtain the first principal component axis corresponding to the longitudinal direction of the imaging plate 10 when principal component analysis is performed on the high luminance region 501, and the IP The inclination angle of the corresponding portion in the longitudinal direction can be obtained appropriately. Therefore, the image processing unit 81 can appropriately specify the IP tilt angle.

<イメージングプレートのサイズの特定について>
画像処理部81は、例えば、イメージングプレート10のサイズ(IPサイズともいう)を特定するサイズ特定処理を行ってもよい。画像処理部81は、サイズ特定処理において、例えば、検出器40が出力する画像信号に基づいてIPサイズを特定する。画像処理部81はIPサイズを特定する特定部として機能する。以下にサイズ特定処理の具体例について説明するが、サイズ特定処理は以下の例に限られない。
<Specifying the size of the imaging plate>
The image processing unit 81 may perform, for example, size identification processing for identifying the size (also referred to as IP size) of the imaging plate 10 . In the size identification process, the image processing unit 81 identifies the IP size, for example, based on the image signal output by the detector 40 . The image processing unit 81 functions as a specifying unit that specifies the IP size. A specific example of the size identification process will be described below, but the size identification process is not limited to the following example.

画像処理部81は、例えば、上記と同様にして、反転前の画像信号に基づく反転前全体像を二値化して二値化像500を生成する。そして、画像処理部81は、生成した二値化像500に基づいてIPサイズを特定する。例えば、画像処理部81は、イメージングプレート10の長手方向のサイズ(長手サイズともいう)と、イメージングプレート10の短手方向のサイズ(短手サイズともいう)とを数値で特定する。 For example, the image processing unit 81 binarizes the pre-inversion whole image based on the pre-inversion image signal to generate the binarized image 500 in the same manner as described above. The image processing unit 81 then identifies the IP size based on the generated binarized image 500 . For example, the image processing unit 81 numerically specifies the size of the imaging plate 10 in the longitudinal direction (also referred to as the longitudinal size) and the size of the imaging plate 10 in the lateral direction (also referred to as the lateral size).

画像処理部81は、IPサイズを特定する場合、上記と同様にして、二値化像500に含まれる高輝度領域501を構成する複数の画素の位置を分析対象データとして主成分分析を行って、分析対象データについての第1主成分軸551を求める。そして、画像処理部81は、第1主成分軸551に垂直であって、重心501aを通る第2主成分軸552を求める。 When specifying the IP size, the image processing unit 81 performs principal component analysis on the positions of the plurality of pixels forming the high-brightness region 501 included in the binarized image 500 as data to be analyzed in the same manner as described above. , the first principal component axis 551 for the data to be analyzed is obtained. Then, the image processing unit 81 obtains a second principal component axis 552 that is perpendicular to the first principal component axis 551 and passes through the center of gravity 501a.

図19は第1主成分軸551及び第2主成分軸552の一例を示す概略図である。図19には、上述の図10に示される反転前全体像100aを二値化して得られた二値化像500と、当該二値化像500に基づいて求められた第1主成分軸551及び第2主成分軸552とが示されている。第1主成分軸551は、イメージングプレート10に相当する高輝度領域501の長手方向と平行である。また、第2主成分軸552は高輝度領域501の短手方向と平行である。 FIG. 19 is a schematic diagram showing an example of the first principal component axis 551 and the second principal component axis 552. FIG. FIG. 19 shows a binarized image 500 obtained by binarizing the whole image 100a before reversal shown in FIG. and a second principal component axis 552 are shown. The first principal component axis 551 is parallel to the longitudinal direction of the high luminance region 501 corresponding to the imaging plate 10 . Also, the second principal component axis 552 is parallel to the short direction of the high luminance region 501 .

図19に示されるように、画像処理部81は、高輝度領域501の第1主成分軸551に沿った画素数(長手方向の画素数ともいう)N1を求める。また、画像処理部81は、高輝度領域501の第2主成分軸552に沿った画素数(短手方向の画素数ともいう)N2を求める。そして、画像処理部81は、長手方向の画素数N1に基づいてイメージングプレート10の長手サイズを求め、短手方向の画素数N2に基づいてイメージングプレート10の短手サイズを求める。 As shown in FIG. 19, the image processing unit 81 obtains the number of pixels (also referred to as the number of pixels in the longitudinal direction) N1 along the first principal component axis 551 of the high luminance region 501 . The image processing unit 81 also obtains the number of pixels along the second principal component axis 552 (also referred to as the number of pixels in the lateral direction) N2 of the high luminance area 501 . Then, the image processing unit 81 obtains the longitudinal size of the imaging plate 10 based on the number N1 of pixels in the longitudinal direction, and obtains the lateral size of the imaging plate 10 based on the number N2 of pixels in the lateral direction.

ここで、本例では、センサ41の検出範囲R110において一辺がMmmの正方形の領域が、取得全体像及び二値化像500の1画素に相当する。Mmmは例えば0.03mm程度である。画像処理部81は、Mmmに対して長手方向の画素数N1を掛け合わせて得られる長さを、イメージングプレート10の長手サイズとする。また、画像処理部81は、Mmmに対して短手方向の画素数N2を掛け合わせて得られる長さを、イメージングプレート10の短手サイズとする。以後、イメージングプレート10について画像処理部81が求めた長手サイズ及び短手サイズをそれぞれ特定長手サイズ及び特定短手サイズと呼ぶことがある。 Here, in this example, a square region with a side of M mm in the detection range R110 of the sensor 41 corresponds to one pixel of the acquired whole image and the binarized image 500 . Mmm is, for example, about 0.03 mm. The image processing unit 81 sets the length obtained by multiplying M mm by the number of pixels N1 in the longitudinal direction as the longitudinal size of the imaging plate 10 . In addition, the image processing unit 81 sets the length obtained by multiplying M mm by the number of pixels N2 in the short side direction as the short side size of the imaging plate 10 . Hereinafter, the lengthwise size and the widthwise size obtained by the image processing unit 81 for the imaging plate 10 may be referred to as the specific lengthwise size and the widthwise size, respectively.

画像処理部81は、サイズ特定処理において、イメージングプレート10の主面の面積(主面面積ともいう)を数値で特定してもよい。この場合、画像処理部81は、高輝度領域501を構成する複数の画素の総数に対して、Mmmの二乗を掛け合わせて得られる値を、イメージングプレート10の主面面積としてもよい。主面面積は、イメージングプレート10の前面の面積であるともいえるし、イメージングプレート10の裏面の面積であるともいえる。以後、イメージングプレート10について画像処理部81が求めた主面面積を特定主面面積あるいは特定面積と呼ぶことがある。 In the size identification process, the image processing section 81 may numerically identify the area of the main surface of the imaging plate 10 (also referred to as the main surface area). In this case, the image processing unit 81 may set the principal surface area of the imaging plate 10 to a value obtained by multiplying the total number of pixels forming the high-brightness region 501 by the square of Mmm. The principal surface area can be said to be the area of the front surface of the imaging plate 10 or the area of the rear surface of the imaging plate 10 . Hereinafter, the main surface area obtained by the image processing unit 81 for the imaging plate 10 may be referred to as a specific main surface area or a specific area.

図20及び21は、特定長手サイズ、特定短手サイズ及び特定主面面積の一例を示す図である。図20には、上述の図10に示される反転前全体像100aの二値化像500に基づいて特定された長手サイズ、短手サイズ及び主面面積が示されている。図21には、上述の図11に示される反転前全体像100aの二値化像500に基づいて特定された長手サイズ、短手サイズ及び主面面積が示されている。 20 and 21 are diagrams showing examples of the specific longitudinal size, the specific lateral size, and the specific main surface area. FIG. 20 shows the lengthwise size, widthwise size, and main surface area specified based on the binarized image 500 of the pre-reversal whole image 100a shown in FIG. 10 described above. FIG. 21 shows the lengthwise size, widthwise size, and main surface area specified based on the binarized image 500 of the pre-reversal whole image 100a shown in FIG. 11 described above.

ここで、図10及び11には、基準姿勢から若干傾いた状態のイメージングプレート10に対して励起光L1が照射されることによって得られた反転前全体像100aが示されている。図20には、図10に示される反転前全体像100aの二値化像500から特定されたIP傾き角度も示されており、図21には、図11に示される反転前全体像100aの二値化像500から特定されたIP傾き角度も示されている。 Here, FIGS. 10 and 11 show a pre-reversal whole image 100a obtained by irradiating the imaging plate 10 slightly tilted from the reference posture with the excitation light L1. FIG. 20 also shows the IP tilt angle specified from the binarized image 500 of the pre-reversal whole image 100a shown in FIG. 10, and FIG. The IP tilt angle identified from the binarized image 500 is also shown.

図20及び21から理解できるように、反転前全体像100aに未露光領域像103aが含まれない場合の特定長手サイズ、特定短手サイズ及び特定主面面積と、反転前全体像100aに未露光領域像103aが含まれる場合の特定長手サイズ、特定短手サイズ及び特定主面面積とは、ほぼ同じとなる。画像処理部81は、反転前全体像100aに未露光領域像103aが含まれているか否かにかかわらず、イメージングプレート10の長手サイズ、短手サイズ及び主面面積を適切に特定することができる。 As can be understood from FIGS. 20 and 21, when the unexposed area image 103a is not included in the pre-reversal overall image 100a, the specific longitudinal size, the specific lateral size, and the specific main surface area, and the pre-reversal overall image 100a are unexposed. When the area image 103a is included, the specific longitudinal size, the specific lateral size, and the specific main surface area are substantially the same. The image processing unit 81 can appropriately specify the longitudinal size, the lateral size, and the main surface area of the imaging plate 10 regardless of whether the unexposed area image 103a is included in the pre-reversal whole image 100a. .

画像処理部81は、サイズ特定処理において、イメージングプレート10のサイズの種類を特定してもよい。本例では、イメージングプレート10のサイズとして複数種類のサイズが用意されている。読取装置1において、保持部20は、複数種類のサイズのイメージングプレート10のそれぞれを保持することが可能である。そして、読取装置1は、複数種類のサイズのイメージングプレート10のそれぞれから放射線像を読み取ることができる。 The image processing unit 81 may specify the type of size of the imaging plate 10 in the size specifying process. In this example, a plurality of sizes are prepared as the size of the imaging plate 10 . In the reading device 1, the holding section 20 can hold each of the imaging plates 10 of different sizes. The reading device 1 can read radiation images from each of the imaging plates 10 of a plurality of sizes.

図22はイメージングプレート10のサイズの種類(IPサイズの種類ともいう)の一例を示す図である。IPサイズの種類として、例えば、サイズ0、サイズ1、サイズ2及びサイズ3の4種類が用意されている。ここで、各種類のサイズでのイメージングプレート10の短手サイズ及び長手サイズをそれぞれ公称短手サイズ及び公称長手サイズと呼ぶ。 FIG. 22 is a diagram showing an example of types of sizes of the imaging plate 10 (also referred to as types of IP sizes). As types of IP size, for example, four types of size 0, size 1, size 2, and size 3 are prepared. Here, the short side size and the long side size of the imaging plate 10 in each kind of size are called the nominal short side size and the nominal long side size, respectively.

サイズ0の公称短手サイズ及び公称長手サイズは、それぞれ22mm及び31mmとなっている。サイズ1の公称短手サイズ及び公称長手サイズは、それぞれ24mm及び40mmとなっている。サイズ2の公称短手サイズ及び公称長手サイズは、それぞれ31mm及び41mmとなっている。そして、サイズ3の公称手サイズ及び公称長手サイズは、それぞれ27mm及び54mmとなっている。なお、公称短手サイズと公称長手サイズを掛け合わせて得られる値を公称主面面積あるいは公称面積と呼ぶ。 The nominal short side size and nominal long side size of size 0 are 22 mm and 31 mm, respectively. The nominal short side size and nominal long side size of size 1 are 24 mm and 40 mm, respectively. The nominal short side size and nominal long side size of size 2 are 31 mm and 41 mm, respectively. The nominal hand size and nominal longitudinal size of size 3 are 27 mm and 54 mm, respectively. A value obtained by multiplying the nominal width size and the nominal length size is called a nominal main surface area or a nominal area.

画像処理部81は、例えば、イメージングプレート10の特定短手サイズ、特定長手サイズ及ぶ特定主面面積に基づいて、当該イメージングプレート10のサイズの種類を特定する。例えば、画像処理部81は、特定短手サイズがサイズ0の公称短手サイズと近く、特定長手サイズがサイズ0の公称長手サイズと近く、特定面積がサイズ0の公称面積と近い場合、IPサイズの種類がサイズ0であると判定する。 The image processing unit 81 identifies the type of size of the imaging plate 10 based on, for example, the specific lateral size, the specific longitudinal size, and the specific main surface area of the imaging plate 10 . For example, if the specific width size is close to the nominal width size of size 0, the specific length size is close to the nominal length size of size 0, and the specific area is close to the nominal size of size 0, the image processing unit 81 determines that the IP size type is size 0.

画像処理部81は、例えば、サイズ0の公称短手サイズよりも少し小さい第1しきい値と、サイズ0の公称短手サイズよりも少し大きい第2しきい値とを用いて、特定短手サイズがサイズ0の公称短手サイズと近いか否かを判定する。例えば、画像処理部81は、特定短手サイズが、第1しきい値よりも大きくかつ第2しきい値よりも小さい場合、特定短手サイズがサイズ0の公称短手サイズと近いと判定する。 For example, the image processing unit 81 uses a first threshold that is slightly smaller than the nominal short length size of size 0 and a second threshold that is slightly larger than the nominal short length size of size 0 to determine the specific short length. Determine whether the size is close to the nominal short side size of size 0. For example, when the specific short length size is larger than the first threshold value and smaller than the second threshold value, the image processing unit 81 determines that the specific short length size is close to the nominal short length size of size 0. .

また、画像処理部81は、例えば、サイズ0の公称長手サイズよりも少し小さい第3しきい値と、サイズ0の公称長手サイズよりも少し大きい第4しきい値とを用いて、特定長手サイズがサイズ0の公称長手サイズと近いか否かを判定する。例えば、画像処理部81は、特定長手サイズが、第3しきい値よりも大きくかつ第4しきい値よりも小さい場合、特定長手サイズがサイズ0の公称長手サイズと近いと判定する。 Further, the image processing unit 81 uses, for example, a third threshold that is slightly smaller than the nominal longitudinal size of size 0 and a fourth threshold that is slightly larger than the nominal longitudinal size of size 0, to determine the specified longitudinal size. is close to the nominal longitudinal size of size 0. For example, when the specific longitudinal size is larger than the third threshold value and smaller than the fourth threshold value, the image processing unit 81 determines that the specific longitudinal size is close to the nominal longitudinal size of size 0.

また、画像処理部81は、例えば、サイズ0の公称面積よりも少し小さい第5しきい値と、サイズ0の公称面積よりも少し大きい第6しきい値とを用いて、特定面積がサイズ0の公称面積と近いか否かを判定する。例えば、画像処理部81は、特定面積が、第5しきい値よりも大きくかつ第6しきい値よりも小さい場合、特定面積がサイズ0の公称面積と近いと判定する。 Further, the image processing unit 81 uses, for example, a fifth threshold that is slightly smaller than the nominal area of size 0 and a sixth threshold that is slightly larger than the nominal area of size 0, to determine whether the specific area is size 0. is close to the nominal area of For example, when the specific area is larger than the fifth threshold and smaller than the sixth threshold, the image processing section 81 determines that the specific area is close to the nominal area of size 0.

同様に、画像処理部81は、例えば、特定短手サイズがサイズ1の公称短手サイズと近く、特定長手サイズがサイズ1の公称長手サイズと近く、特定主面面積がサイズ1の公称主面面積と近い場合、IPサイズの種類がサイズ1であると判定する。 Similarly, the image processing unit 81 determines, for example, that the specific transverse size is close to the nominal transverse size of size 1, the specific longitudinal size is close to the nominal longitudinal size of size 1, and the specific principal surface area is the nominal principal surface of size 1. If it is close to the area, it is determined that the type of IP size is size 1.

同様に、画像処理部81は、例えば、特定短手サイズがサイズ2の公称短手サイズと近く、特定長手サイズがサイズ2の公称長手サイズと近く、特定主面面積がサイズ2の公称主面面積と近い場合、IPサイズの種類がサイズ2であると判定する。 Similarly, the image processing unit 81 determines, for example, that the specific transverse size is close to the nominal transverse size of size 2, the specific longitudinal size is close to the nominal longitudinal size of size 2, and the specific principal surface area is the nominal principal surface of size 2. If it is close to the area, it is determined that the type of IP size is size 2.

同様に、画像処理部81は、例えば、特定短手サイズがサイズ3の公称短手サイズと近く、特定長手サイズがサイズ3の公称長手サイズと近く、特定主面面積がサイズ3の公称主面面積と近い場合、IPサイズの種類がサイズ3であると判定する。 Similarly, the image processing unit 81 determines, for example, that the specific transverse size is close to the nominal transverse size of size 3, the specific longitudinal size is close to the nominal longitudinal size of size 3, and the specific principal surface area is the nominal principal surface of size 3. If it is close to the area, it is determined that the type of IP size is size 3.

なお、図10及び11には、サイズ2のイメージングプレート10に対して励起光L1が照射されることによって得られた反転前全体像100aが示されている。したがって、図21及び22に示される特定短手サイズ及び特定長手サイズは、サイズ2のイメージングプレート10の公称短手サイズ及び公称長手サイズにそれぞれ近い値となっている。よって、図10及び11に示される反転前全体像100aに基づいてIPサイズの種類が特定される場合、サイズ3が特定される。 10 and 11 show a pre-inversion whole image 100a obtained by irradiating the size 2 imaging plate 10 with the excitation light L1. Therefore, the specific short side size and specific long side size shown in FIGS. 21 and 22 are close to the nominal short side size and nominal long side size of the size 2 imaging plate 10, respectively. Therefore, when the type of IP size is specified based on the pre-reversal whole image 100a shown in FIGS. 10 and 11, size 3 is specified.

以上のようなサイズ特定処理は、上述の図14に示される一連の処理の中で実行されてもよいし、図14に示される処理とは別のタイミングで実行されてもよい。また、表示部3は、例えば、画像処理部81が特定した短手サイズ、長手サイズ、主面面積及びIPサイズの種類の少なくとも一つを表示してもよい。この場合、表示部3は、短手サイズ、長手サイズ、主面面積及びIPサイズの種類の少なくとも一つを、例えば上述のステップs7において取得全体像と同時に表示してもよいし、取得全体像を表示しないときに表示してもよい。また、表示部3は、短手サイズ、長手サイズ、主面面積及びIPサイズの種類の少なくとも一つを、IP傾き角度と同時に表示してもよいし、IP傾き角度を表示しないときに表示してもよい。また、表示部3は、短手サイズ、長手サイズ、主面面積及びIPサイズの種類の少なくとも二つを同時に表示してもよい。 The size specifying process as described above may be executed during the series of processes shown in FIG. 14 described above, or may be executed at a timing different from the process shown in FIG. In addition, the display unit 3 may display at least one of the short size, the long size, the main surface area, and the IP size specified by the image processing unit 81, for example. In this case, the display unit 3 may display at least one of the width size, length size, main surface area, and IP size at the same time as the acquired overall image in step s7 described above. may be displayed when is not displayed. In addition, the display unit 3 may display at least one of the width size, length size, main surface area, and IP size at the same time as the IP tilt angle, or may display it when the IP tilt angle is not displayed. may Moreover, the display unit 3 may simultaneously display at least two of the width size, length size, main surface area, and IP size.

このように、本例では、画像処理部81は、イメージングプレート10からの発光光L2及び反射光の検出結果としての画像信号に基づいてIPサイズを特定していることから、IP傾き角度を特定する場合と同様に、IPサイズを適切に特定することができる。上記のように、イメージングプレート10に未露光部分が含まれる場合であっても、二値化像500の高輝度領域501が、反転前全体像のIP相当部分に対応することから、画像処理部81は、イメージングプレート10の短手サイズ、長手サイズ及び主面面積とIPサイズの種類とを適切に特定することができる。 Thus, in this example, the image processing unit 81 identifies the IP size based on the image signal as the detection result of the emitted light L2 from the imaging plate 10 and the reflected light, and thus identifies the IP tilt angle. IP size can be appropriately specified as well. As described above, even if the imaging plate 10 includes an unexposed portion, the high-brightness region 501 of the binarized image 500 corresponds to the portion corresponding to the IP of the entire image before reversal. 81 can appropriately specify the width size, length size, main surface area, and type of IP size of the imaging plate 10 .

図23は、画像処理部81がIP傾き角度及びIPサイズを特定する場合の当該画像処理部81の一連の動作の一例を示すフローチャートである。図23に示される一連の処理は、上述の図14に示される一連の処理の中で実行されてもよいし、図14に示される処理とは別のタイミングで実行されてもよい。 FIG. 23 is a flowchart showing an example of a series of operations of the image processing section 81 when the image processing section 81 specifies the IP tilt angle and the IP size. The series of processes shown in FIG. 23 may be executed during the series of processes shown in FIG. 14 described above, or may be executed at a different timing than the processes shown in FIG.

図23に示されるように、ステップs11において、画像処理部81は、反転前の画像信号に基づく反転前全体像を二値化して二値化像500を生成する。次にステップs12において、画像処理部81は、上述のように、二値化像500に基づいてイメージングプレート10の主面面積を特定する。次にステップs13において、画像処理部81は、二値化像500に含まれる高輝度領域501を構成する複数の画素の位置を分析対象データとして主成分分析を行って、分析対象データについての第1主成分軸及び第2主成分軸を求める。 As shown in FIG. 23, in step s11, the image processing section 81 binarizes the pre-inversion whole image based on the pre-inversion image signal to generate a binarized image 500. As shown in FIG. Next, in step s12, the image processing section 81 identifies the main surface area of the imaging plate 10 based on the binarized image 500 as described above. Next, in step s13, the image processing unit 81 performs principal component analysis using the positions of a plurality of pixels forming the high-brightness region 501 included in the binarized image 500 as data to be analyzed. A first principal component axis and a second principal component axis are obtained.

次にステップs14において、画像処理部81は、上述のように、二値化像500、第1主成分軸及び第2主成分軸に基づいて、IP傾き角度と、イメージングプレート10の短手サイズ及び長手サイズを特定する。次にステップs15において、画像処理部81は、特定短手サイズ、特定長手サイズ及び特定面積に基づいて、IPサイズの種類がサイズ3であるか否かを判定する。ステップs15では、画像処理部81は、例えば、上述のように、特定短手サイズがサイズ3の公称短手サイズと近く、特定長手サイズがサイズ3の公称長手サイズと近く、特定面積がサイズ3の公称面積と近い場合、IPサイズの種類がサイズ3であると判定する。 Next, in step s14, the image processing unit 81 calculates the IP tilt angle and the width size of the imaging plate 10 based on the binarized image 500, the first principal component axis, and the second principal component axis, as described above. and specify the longitudinal size. Next, in step s15, the image processing unit 81 determines whether or not the type of IP size is size 3 based on the specific width size, the specific length size, and the specific area. In step s15, for example, the image processing unit 81 determines that the specific width size is close to the nominal width size of size 3, the specific length size is close to the nominal length size of size 3, and the specific area is size 3 If it is close to the nominal area of , it is determined that the type of IP size is size 3.

ステップs15においてYESと判定されると、図23に示される処理が終了する。一方で、ステップs15においてNOと判定されると、ステップs16が実行される。ステップs16において、画像処理部81は、特定短手サイズ、特定長手サイズ及び特定面積に基づいて、IPサイズの種類がサイズ2であるか否かを判定する。ステップs16では、画像処理部81は、例えば、上述のように、特定短手サイズがサイズ2の公称短手サイズと近く、特定長手サイズがサイズ2の公称長手サイズと近く、特定面積がサイズ2の公称面積と近い場合、IPサイズの種類がサイズ2であると判定する。 If the determination in step s15 is YES, the process shown in FIG. 23 ends. On the other hand, if NO is determined in step s15, step s16 is executed. In step s16, the image processing unit 81 determines whether the type of IP size is size 2 based on the specific width size, the specific length size, and the specific area. In step s16, the image processing unit 81, for example, as described above, determines that the specified lateral size is close to the nominal lateral size of size 2, the specified longitudinal size is close to the nominal longitudinal size of size 2, and the specified area is close to the nominal longitudinal size of size 2. If it is close to the nominal area of , it is determined that the type of IP size is size 2.

ステップs16においてYESと判定されると、図23に示される処理が終了する。一方で、ステップs16においてNOと判定されると、ステップs17が実行される。ステップs17において、画像処理部81は、特定短手サイズ、特定長手サイズ及び特定面積に基づいて、IPサイズの種類がサイズ1であるか否かを判定する。ステップs17では、画像処理部81は、例えば、上述のように、特定短手サイズがサイズ1の公称短手サイズと近く、特定長手サイズがサイズ1の公称長手サイズと近く、特定面積がサイズ1の公称面積と近い場合、IPサイズの種類がサイズ1であると判定する。 If YES is determined in step s16, the process shown in FIG. 23 ends. On the other hand, if NO is determined in step s16, step s17 is executed. In step s17, the image processing unit 81 determines whether the type of IP size is size 1 based on the specific width size, the specific length size, and the specific area. In step s17, the image processing unit 81, for example, as described above, determines that the specified lateral size is close to the nominal lateral size of size 1, the specified longitudinal size is close to the nominal longitudinal size of size 1, and the specified area is size 1. If it is close to the nominal area of , it is determined that the type of IP size is size 1.

ステップs17においてYESと判定されると、図23に示される処理が終了する。一方で、ステップs17においてNOと判定されると、ステップs18が実行される。ステップs18において、画像処理部81は、IPサイズの種類がサイズ0であると判定する。ステップs18の実行後、図23に示される処理が終了する。なお、ステップs18において、画像処理部81は、ステップs15~s17と同様に、特定短手サイズ、特定長手サイズ及び特定面積に基づいて、IPサイズの種類がサイズ0であるか否かを判定してもよい。 If YES is determined in step s17, the process shown in FIG. 23 is terminated. On the other hand, if NO is determined in step s17, step s18 is executed. In step s18, the image processing unit 81 determines that the type of IP size is size 0. After execution of step s18, the process shown in FIG. 23 ends. In step s18, the image processing unit 81 determines whether the type of IP size is size 0 based on the specific width size, length size, and area, as in steps s15 to s17. may

上記の例では、画像処理部81は、特定短手サイズ、特定長手サイズ及び特定面積に基づいてIPサイズの種類を特定しているが、特定短手サイズ、特定長手サイズ及び特定面積のいずれか一つに基づいて、IPサイズの種類を特定することも可能である。図22に示されるように、本例では、複数種類のサイズの間では、公称短手サイズは互いに異なり、公称長手サイズも互いに異なる。また、複数種類のサイズの間では、公称面積も互いに異なる。画像処理部81は、サイズ0~3のうち、特定短手サイズに最も近い公称短手サイズを有する種類を、イメージングプレート10のサイズの種類としてもよい。また、画像処理部81は、サイズ0~3のうち、特定長手サイズに最も近い公称長手サイズを有する種類を、イメージングプレート10のサイズの種類としてもよい。また、画像処理部81は、サイズ0~3のうち、特定面積に最も近い公称面積を有する種類を、イメージングプレート10のサイズの種類としてもよい。 In the above example, the image processing unit 81 identifies the type of IP size based on the specific width size, the specific length size, and the specific area. Based on one, it is also possible to specify the type of IP size. As shown in FIG. 22, in this example, the nominal width sizes are different from each other, and the nominal length sizes are also different from each other among a plurality of types of sizes. Also, the nominal areas are different between the plural kinds of sizes. The image processing unit 81 may set the size type of the imaging plate 10 to the type having the nominal short side size closest to the specific short side size among the sizes 0 to 3. FIG. Further, the image processing unit 81 may set the type of the imaging plate 10 having the nominal longitudinal size closest to the specific longitudinal size among sizes 0 to 3 as the size type of the imaging plate 10 . Further, the image processing unit 81 may set the type of the imaging plate 10 having a nominal area closest to the specific area among sizes 0 to 3 as the size type of the imaging plate 10 .

また、画像処理部81は、特定短手サイズ、特定長手サイズ及び特定面積のいずれか二つに基づいてIPサイズの種類を特定してもよい。例えば、画像処理部81は、特定短手サイズがサイズ1の公称短手サイズと近く、特定長手サイズがサイズ1の公称長手サイズと近い場合、IPサイズの種類がサイズ1であると判定してもよい。 Also, the image processing unit 81 may specify the type of IP size based on any two of the specified widthwise size, the specified lengthwise size, and the specified area. For example, when the specific width size is close to the nominal width size of size 1 and the specific length size is close to the nominal length size of size 1, the image processing unit 81 determines that the type of IP size is size 1. good too.

なお、サイズ特定処理では、イメージングプレート10の長手サイズが特定されなくてもよいし、イメージングプレート10の短手サイズが特定されなくてもよいし、イメージングプレート10の主面面積が特定されなくてもよい。また、サイズ特定処理では、イメージングプレート10のサイズの種類が特定されなくてもよい。 In the size specifying process, the longitudinal size of the imaging plate 10 may not be specified, the lateral size of the imaging plate 10 may not be specified, and the main surface area of the imaging plate 10 may not be specified. good too. Also, in the size identification process, the type of size of the imaging plate 10 may not be identified.

<消去済みイメージングプレートに対する励起光の照射>
読取装置1では、消去済みイメージングプレート10に対して光源30が励起光L1を照射し、検出器40が、消去済みイメージングプレート10からの励起光L1の反射光を検出して、イメージングプレート10が写る反射光像を取得してもよい。この場合、本例では、検出器40は、IP外側領域R130からの励起光L1の反射光も検出する。本例では、検出器40は、消去済みイメージングプレート10及びIP外側領域R130からの励起光L1の反射光を検出し、その検出結果としての画像信号を出力する。以下に、消去済みイメージングプレート10に対して励起光L1を照射する読取装置1の動作例について説明する。
<Irradiation of Excitation Light to Erased Imaging Plate>
In the reader 1, the light source 30 irradiates the erased imaging plate 10 with the excitation light L1, the detector 40 detects the reflected light of the excitation light L1 from the erased imaging plate 10, and the imaging plate 10 is A reflected light image may be acquired. In this case, in this example, the detector 40 also detects reflected light of the excitation light L1 from the IP outer region R130. In this example, the detector 40 detects reflected light of the excitation light L1 from the erased imaging plate 10 and the IP outer region R130, and outputs an image signal as the detection result. An example of the operation of the reading device 1 for irradiating the erased imaging plate 10 with the excitation light L1 will be described below.

以後、今まで説明してきた画像信号のように、放射線像を記録するイメージングプレート10が保持されている場合の発光光L2及び反射光の検出結果としての画像信号を発光時画像信号と呼ぶ。また、今まで説明してきた取得全体像のように、放射線像を含む全体の像、つまり発光時画像信号に基づく全体の像を、発光時全体像と呼ぶ。また、上述の反転前全体像及び反転後全体像を、反転前発光時全体像及び反転後発光時全体像とそれぞれ呼ぶ。 Hereinafter, an image signal obtained by detecting the emitted light L2 and the reflected light when the imaging plate 10 for recording a radiation image is held will be referred to as an image signal during emission, like the image signal described above. Further, like the acquired whole image described so far, the whole image including the radiographic image, that is, the whole image based on the image signal at the time of light emission is called the whole image at the time of light emission. In addition, the above-described pre-inversion whole image and post-inversion whole image are referred to as a pre-inversion luminous whole image and post-inversion luminous whole image, respectively.

また、消去済みイメージングプレート10が保持されている場合の光の反射光の検出結果としての画像信号を消去時画像信号と呼ぶ。また、消去時画像信号に基づく全体の像を消去時全体像と呼ぶ。本例では、消去時全体像には、イメージングプレート10の反射光像、つまりイメージングプレート10での励起光L1の反射光の検出に基づく反射光像だけではなく、IP外側領域像も含まれ、放射線像は含まれない。消去時全体像は、センサ41の検出範囲R110の反射光像であるともいえる。イメージングプレート10の反射光像をIP反射光像と呼ぶことがある。また、以後、検出器40が光の検出結果として出力する画像信号に基づく全体の像を取得全体像として読取装置1を説明する。以下の説明では、取得全体像は、発光時全体像及び消去時全体像を含む概念である。 Further, an image signal as a detection result of reflected light when the erased imaging plate 10 is held is called an erased image signal. Further, the entire image based on the erased image signal is referred to as an erased entire image. In this example, the entire image at the time of erasing includes not only the reflected light image of the imaging plate 10, that is, the reflected light image based on the detection of the reflected light of the excitation light L1 on the imaging plate 10, but also the IP outer area image, Radiographic images are not included. It can also be said that the erasing overall image is a reflected light image of the detection range R110 of the sensor 41 . A reflected light image of the imaging plate 10 is sometimes called an IP reflected light image. Further, hereinafter, the reader 1 will be described with the entire image based on the image signal output by the detector 40 as the light detection result being the acquired overall image. In the following description, the acquired overall image is a concept including the illuminated overall image and the erased overall image.

図24は本例の読取装置1の動作の一例を示すフローチャートである。操作部4に含まれるスタートボタンが操作されると、図24に示されるように、読取装置1は上述のステップs1~s4を実行する。ステップs2の読取処理では、検出器40は、発光光L2及び反射光の検出結果としての発光時画像信号を出力する。 FIG. 24 is a flow chart showing an example of the operation of the reader 1 of this example. When the start button included in the operation unit 4 is operated, the reader 1 executes the above steps s1 to s4 as shown in FIG. In the reading process of step s2, the detector 40 outputs a light emission image signal as a detection result of the light emission light L2 and the reflected light.

ステップs4の消去処理の後、ステップs21において、駆動部50が、消去済みイメージングプレート10を保持する保持部20を読取開始位置に移動する。次にステップs22が実行される。ステップs22では、光源30が消去済みイメージングプレート10の前面及びIP外側領域に対して励起光L1を照射する。そして、検出器40が、消去済みイメージングプレート10の前面及びIP外側領域からの励起光L1の反射光を検出し、その検出結果としての消去時画像信号を出力する。消去時画像信号は、例えば、発光時画像信号と同様にグレースケールの画像信号である。 After the erasing process in step s4, in step s21, the driving section 50 moves the holding section 20 holding the erased imaging plate 10 to the reading start position. Then step s22 is executed. In step s22, light source 30 irradiates excitation light L1 to the front surface and IP outer region of erased imaging plate 10. FIG. Then, the detector 40 detects the reflected light of the excitation light L1 from the front surface and IP outer region of the erased imaging plate 10, and outputs an erasing image signal as the detection result. The erasure image signal is, for example, a grayscale image signal similar to the light emission image signal.

ステップs22の後、上述のステップs5及びs6が実行されて、消去済みイメージングプレート10が筐体2の取出口2bに排出される。次にステップs27において、表示制御部82は、ステップs2で得られた発光時画像信号に基づく発光時全体像と、ステップs22で得られた消去時画像信号に基づく消去時全体像とを表示部3に同時にかつ別々に表示させる。ステップs27において、画像処理部81は、発光時全体像及び消去時全体像を例えばグレースケール表示する。 After step s22, steps s5 and s6 described above are performed to eject the erased imaging plate 10 to the outlet 2b of the housing 2. FIG. Next, in step s27, the display control unit 82 causes the display unit to display the entire image during light emission based on the image signal during light emission obtained in step s2 and the entire image during erasure based on the image signal during erasure obtained in step s22. 3 simultaneously and separately. In step s27, the image processing unit 81 displays, for example, a grayscale display of the whole image at the time of light emission and the whole image at the time of erasing.

なお、ステップs27は、ステップs22の後であれば、いつでも実行されてもよい。例えば、ステップs27はステップs22とステップs5の間に実行されてもよい。また、発光時全体像と消去時全体像とは同時に表示されてなくてもよい。また、ステップs27では、発光時全体像は表示されなくてもよい。上述のサイズ特定処理及び傾き角度特定処理の少なくとも一方は、図24の一連の処理の中で実行されてもよいし、図24の処理とは別のタイミングで実行されてもよい。 Note that step s27 may be executed at any time after step s22. For example, step s27 may be performed between steps s22 and s5. Further, the entire image during light emission and the entire image during erasing do not have to be displayed at the same time. Also, in step s27, the entire image during light emission may not be displayed. At least one of the size identification process and the inclination angle identification process described above may be executed during the series of processes in FIG. 24, or may be executed at a different timing than the process in FIG.

検出器40が出力する消去時画像信号には、IP反射光像を構成する複数の画素の輝度値と、IP外側領域像を構成する複数の画素の輝度値とが含まれる。消去時画像信号に含まれる輝度値は、検出器40が検出する反射光の強度が大きいほど大きい値を示す。したがって、例えば、消去済みイメージングプレート10のある領域での反射光の強度が大きい場合、消去時画像信号に含まれる、当該ある領域の反射光像の輝度は大きくなる。 The erased image signal output by the detector 40 includes the luminance values of a plurality of pixels forming the IP reflected light image and the luminance values of a plurality of pixels forming the IP outer region image. The luminance value included in the erased image signal indicates a larger value as the intensity of the reflected light detected by the detector 40 increases. Therefore, for example, when the intensity of the reflected light in a certain area of the erased imaging plate 10 is high, the brightness of the reflected light image of the certain area included in the erased image signal is high.

図25は消去時全体像200の一例を示す概略図である。図25に示されるように、消去時全体像200には、IP反射光像201及びIP外側領域像202が含まれる。図25の例では、IP反射光像201には、イメージングプレート10の前面が写っている。IP反射光像201は、消去時全体像200でのイメージングプレート10に相当する部分であることから、IP反射光像をIP相当部分ともいう。 FIG. 25 is a schematic diagram showing an example of an erasing overall image 200. As shown in FIG. As shown in FIG. 25 , the erased whole image 200 includes an IP reflected light image 201 and an IP outer area image 202 . In the example of FIG. 25 , the IP reflected light image 201 shows the front surface of the imaging plate 10 . Since the IP reflected light image 201 is a portion corresponding to the imaging plate 10 in the erased entire image 200, the IP reflected light image is also called an IP corresponding portion.

画像処理部81は、消去時画像信号に対して画像処理を行う。本例では、消去時画像信号に対する画像処理では、発光時画像信号に対する画像処理とは異なり、例えば輝度反転処理は行われない。したがって、画像処理後の消去時画像信号では、画像処理前の消去時画像信号と同様に、イメージングプレート10のある領域での反射光の強度が大きい場合、当該ある領域の反射光像の輝度値は大きくなる。一方で、イメージングプレート10のある領域での反射光の強度が小さい場合、当該ある領域の反射光像の輝度値は小さくなる。以後、輝度反転処理を含まない画像処理が行われた消去時画像信号に基づく消去時全体像200を、反転前消去時全体像200と呼ぶことがある。 The image processing unit 81 performs image processing on the erasing image signal. In this example, in the image processing for the erasure image signal, unlike the image processing for the light emission image signal, for example, luminance inversion processing is not performed. Therefore, in the erasing image signal after image processing, similarly to the erasing image signal before image processing, if the intensity of the reflected light in a certain area of the imaging plate 10 is high, the luminance value of the reflected light image in the certain area is becomes larger. On the other hand, when the intensity of the reflected light in a certain area of the imaging plate 10 is low, the luminance value of the reflected light image in the certain area is small. Hereinafter, the erased whole image 200 based on the erased image signal that has been subjected to image processing that does not include the luminance inversion process may be referred to as the erased whole image 200 before inversion.

ステップs27では、表示制御部82は、例えば、反転後発光時全体像100bと、反転前消去時全体像200とを表示部3にグレースケール表示させてもよい。この場合、表示部3は、上述の図12及び13に示されるようなグレースケールで反転後発光時全体像100bを表示し、上述の図25に示されるようなグレースケールで反転前消去時全体像200を表示してもよい。 In step s27, the display control unit 82 may cause the display unit 3 to display, for example, the post-reversal light emission entire image 100b and the pre-reversal erasing entire image 200 in grayscale. In this case, the display unit 3 displays the post-reversal light emitting overall image 100b in grayscale as shown in FIGS. Image 200 may be displayed.

図26及び27は、表示部3の表示面3aに、反転後発光時全体像100b及び反転前消去時全体像200が表示されている様子の一例を示す概略図である。図26には、イメージングプレート10に未露光部分が含まれない場合の反転後発光時全体像100b及び反転前消去時全体像200が示されている。図27には、イメージングプレート10に未露光部分が含まれる場合の反転後発光時全体像100b及び反転前消去時全体像200が示されている。 FIGS. 26 and 27 are schematic diagrams showing an example of how the post-reversal luminous image 100b and the pre-reversal erasing image 200 are displayed on the display surface 3a of the display unit 3. FIG. FIG. 26 shows an entire image 100b during light emission after reversal and an entire image 200 during erasure before reversal when the imaging plate 10 does not include an unexposed portion. FIG. 27 shows an entire image 100b during light emission after reversal and an entire image 200 during erasing before reversal when the imaging plate 10 includes an unexposed portion.

図26及び27に示されるように、表示部3は、反転後発光時全体像100b及び反転前消去時全体像200を、例えば、同じ大きさで表示してもよいし、横並びに表示してもよい。本例では、表示部3は、像の輝度値が大きいほど、その像を明るく表示することから、反転後発光時全体像100bでは、例えば、歯が写る部分及び未露光領域像103bが明るく表示される。また、反転前消去時全体像200では、イメージングプレート10が写る部分が明るく表示される。 As shown in FIGS. 26 and 27 , the display unit 3 may display the after-reversal luminescence entire image 100b and the pre-reversal erasing overall image 200 in the same size, for example, or may display them side by side. good too. In this example, the display unit 3 displays the image brighter as the luminance value of the image increases. Therefore, in the whole image 100b at the time of light emission after reversal, for example, the portion where the teeth appear and the unexposed area image 103b are displayed brightly. be done. In addition, in the pre-reversal erasing entire image 200, the portion where the imaging plate 10 is shown is displayed brightly.

また、図26及び27に示されるように、イメージングプレート10に未露光部分が含まれる場合の反転前消去時全体像200と、イメージングプレート10に未露光部分が含まれない場合の反転前消去時全体像200とは同じとなる。ユーザは、表示部3に表示される反転前消去時全体像200(言い換えれば消去時全体像)から、イメージングプレート10の外観を確認することができる。なお、反転後発光時全体像100b及び反転前消去時全体像200の表示方法は図26及び27の例に限られない。 Also, as shown in FIGS. 26 and 27, an entire image 200 upon erasing before reversal when the imaging plate 10 includes an unexposed portion, and an erased before reversing image 200 when the imaging plate 10 does not include an unexposed portion. The overall image 200 is the same. The user can confirm the appearance of the imaging plate 10 from the pre-reversal erasing whole image 200 (in other words, the erasing whole image) displayed on the display unit 3 . It should be noted that the method of displaying the post-reversal luminous image 100b and the pre-reversal erasing entire image 200 is not limited to the examples of FIGS.

上述の図24の例では、検出器40が、光源30からの励起光L1によって励起されたイメージングプレート10からの発光光L2を検出し、その検出結果としての発光時画像信号を出力する。その後、イメージングプレート10から放射線像が消去された後、消去済みイメージングプレート10に対して光源30から励起光L1が照射され、検出器40は、イメージングプレート10からの励起光L1の反射光を検出する。これにより、読取装置1は、同じ光源30及び同じ検出器40を使用して、イメージングプレート10に記録された放射線像とイメージングプレート10の反射光像の両方を容易に得ることができる。 In the example of FIG. 24 described above, the detector 40 detects the emitted light L2 from the imaging plate 10 excited by the excitation light L1 from the light source 30, and outputs an image signal during emission as the detection result. After that, after the radiation image is erased from the imaging plate 10, the erased imaging plate 10 is irradiated with the excitation light L1 from the light source 30, and the detector 40 detects the reflected light of the excitation light L1 from the imaging plate 10. do. Accordingly, the reader 1 can easily obtain both the radiation image recorded on the imaging plate 10 and the reflected light image of the imaging plate 10 using the same light source 30 and the same detector 40 .

また、図26及び27の例のように、発光時全体像と消去時全体像とが同時にかつ別々に表示される場合には、ユーザは、発光時全体像と消去時全体像とを見比べやすくなる。つまり、ユーザは、イメージングプレート10から読み取られた放射線像と、イメージングプレート10の外観とを見比べやすくなる。これにより、例えば、ユーザは、イメージングプレート10に未露光部分が含まれていることを容易に特定することができる。以下にこの点について説明する。 26 and 27, when the entire image at the time of lighting and the whole image at the time of erasing are displayed simultaneously and separately, the user can easily compare the whole image at the time of lighting and the whole image at the time of erasing. Become. In other words, the user can easily compare the radiation image read from the imaging plate 10 and the appearance of the imaging plate 10 . Thereby, for example, the user can easily specify that the imaging plate 10 includes an unexposed portion. This point will be explained below.

イメージングプレート10に未露光部分が含まれる場合、発光時全体像のうち当該未露光部分に相当する領域には放射線像が存在しない。しかしながら、ユーザは、当該領域には本来は放射線像が存在し、読取装置1の不具合のために当該領域に放射線像が存在しないのか、イメージングプレート10に未露光部分が含まれているために当該領域に放射線像が存在しないのか、発光時全体像の表示だけでは特定することが難しい。これに対して、図27の例のように、発光時全体像及び消去時全体像が同時にかつ別々に表示される場合には、ユーザは、発光時全体像の表示から、イメージングプレート10から読み取られた放射線像を確認し、消去時全体像の表示からイメージングプレート10外観を確認し、両者を比較することによって、イメージングプレート10に未露光部分が含まれていることを容易に特定することができる。また、ユーザは、イメージングプレート10での未露光部分の範囲も容易に特定することができる。 If the imaging plate 10 includes an unexposed portion, there is no radiation image in the region corresponding to the unexposed portion in the entire image during light emission. However, the user may suspect that a radiographic image originally exists in the area and that the radiographic image does not exist in the area due to a malfunction of the reading device 1 or that the imaging plate 10 includes an unexposed portion. It is difficult to determine whether or not there is a radiographic image in the region only by displaying the entire image during light emission. On the other hand, as in the example of FIG. 27, when the luminous whole image and the erased holistic image are displayed simultaneously and separately, the user can read from the imaging plate 10 from the display of the luminous whole image. By confirming the radiation image obtained, confirming the appearance of the imaging plate 10 from the display of the entire image at the time of erasing, and comparing the two, it is possible to easily specify that the imaging plate 10 includes an unexposed portion. can. Also, the user can easily specify the range of the unexposed portion on the imaging plate 10 .

上記の例では、画像処理部81は、発光時全体像に基づいてIP傾き角度を特定しているが、消去時全体像(言い換えれば、消去時画像信号に基づく反射光像)に基づいてIP傾き角度を特定してもよい。同様に、画像処理部81は、IPサイズを消去時全体像に基づいて特定してもよい。 In the above example, the image processing unit 81 specifies the IP tilt angle based on the entire image at the time of light emission. A tilt angle may be specified. Similarly, the image processing unit 81 may specify the IP size based on the erasing overall image.

画像処理部81は、発光時全体像に基づいてIP傾き角度及びIPサイズを特定する場合と同様にして、消去時全体像に基づいてIP傾き角度及びIPサイズを特定することができる。具体的には、画像処理部81は、反転前消去時全体像200を二値化して二値化像を生成する。この二値化像を第2の二値化像と呼ぶことがある。反転前消去時全体像200を二値化するときのしきい値は、例えば、反転前消去時全体像200に含まれるIP外側領域像202の輝度値よりも大きく、かつ反転前消去時全体像200に含まれるIP反射光像201の輝度値よりも小さく設定される。これにより、第2の二値化像は、反転前発光時全体像の二値化像と同様となり、第2の二値化像では、IP外側領域に相当する領域が低輝度領域となり、イメージングプレート10に相当する領域が高輝度領域となる。第2の二値化像の高輝度領域の外形は、イメージングプレート10に未露光部分が含まれている場合であっても、イメージングプレート10の外形に応じた形状となる。画像処理部81は、第2の二値化像に基づいて、上記と同様にして、IP傾き角度と、イメージングプレート10の短手サイズ、長手サイズ及び主面面積と、IPサイズの種類とを特定することができる。 The image processing unit 81 can specify the IP tilt angle and the IP size based on the erasing overall image in the same manner as the IP tilt angle and the IP size based on the emitting overall image. Specifically, the image processing unit 81 binarizes the pre-reversal erasing entire image 200 to generate a binarized image. This binarized image is sometimes called a second binarized image. The threshold value for binarizing the pre-reversal erased entire image 200 is, for example, greater than the luminance value of the IP outer region image 202 included in the pre-inverted erased entire image 200, and the pre-inverted erased entire image. 200 is set to be smaller than the luminance value of the IP reflected light image 201 included in 200 . As a result, the second binarized image becomes the same as the binarized image of the entire image during light emission before inversion, and in the second binarized image, the region corresponding to the IP outer region becomes a low luminance region, and imaging A region corresponding to the plate 10 becomes a high luminance region. The outline of the high-brightness region of the second binarized image has a shape corresponding to the outline of the imaging plate 10 even if the imaging plate 10 includes an unexposed portion. Based on the second binarized image, the image processing unit 81 determines the IP tilt angle, the widthwise size, the lengthwise size, the main surface area of the imaging plate 10, and the type of the IP size in the same manner as described above. can be specified.

図28は、図25に示される反転前消去時全体像200を二値化して得られる第2の二値化像に基づいて特定した、イメージングプレート10の短手サイズ、長手サイズ及び主面面積とIP傾き角度とを示す図である。図25に示される反転前消去時全体像200は、サイズ2のイメージングプレート10に対して励起光L1が照射された場合に得られる消去時全体像である。図28に示されるように、図25に示される反転前消去時全体像200から特定された短手サイズ及び長手サイズは、サイズ2のイメージングプレート10の公称短手サイズ及び公称長手サイズにそれぞれ近い値となっている。 FIG. 28 shows the lateral size, longitudinal size, and main surface area of the imaging plate 10 specified based on the second binarized image obtained by binarizing the pre-reversal erasing entire image 200 shown in FIG. and an IP tilt angle. A pre-reversal erasing overall image 200 shown in FIG. 25 is an erasing overall image obtained when the imaging plate 10 of size 2 is irradiated with the excitation light L1. As shown in FIG. 28, the short size and long size specified from the pre-reversal erasing entire image 200 shown in FIG. 25 are close to the nominal short size and long size of the size 2 imaging plate 10, respectively. value.

このように、IP傾き角度の特定に、イメージングプレート10の反射光像を表す消去時画像信号が使用される場合であっても、発光時画像信号が使用される場合と同様に、IP傾き角度を適切に特定することができる。また、IPサイズの特定に消去時画像信号が使用される場合であっても、発光時画像信号が使用される場合と同様に、IPサイズを適切に特定することができる。 As described above, even when the erasing image signal representing the reflected light image of the imaging plate 10 is used to specify the IP tilt angle, the IP tilt angle can be properly identified. Also, even when the erasure image signal is used to identify the IP size, the IP size can be appropriately identified in the same manner as when the light emission image signal is used.

<IP相当部分の傾きの補正について>
イメージングプレート10が基準姿勢から傾く場合には、図16等に示されるように、取得全体像においてIP相当部分が傾くことになる。詳細には、イメージングプレート10が基準姿勢から右回りに傾く場合には、IP相当部分の長手方向は、取得全体像において副走査方向DRsに対応する方向(図16では反転前全体像100aの長手方向)に対して右回りに傾くことになる。一方で、イメージングプレート10が基準姿勢から左回りに傾く場合には、IP相当部分の長手方向は、取得全体像において副走査方向DRsに対応する方向に対して左回りに傾くことになる。IP相当部分が傾いた状態で取得全体像が表示される場合、ユーザは、傾いたIP相当部分を見辛い可能性がある。
<Correction of inclination of IP equivalent part>
When the imaging plate 10 is tilted from the reference posture, as shown in FIG. 16 and the like, the portion corresponding to the IP is tilted in the acquired overall image. Specifically, when the imaging plate 10 is tilted clockwise from the reference posture, the longitudinal direction of the portion corresponding to the IP is the direction corresponding to the sub-scanning direction DRs in the acquired whole image (the longitudinal direction of the whole image 100a before reversal in FIG. direction). On the other hand, when the imaging plate 10 is tilted counterclockwise from the reference posture, the longitudinal direction of the portion corresponding to IP is tilted counterclockwise with respect to the direction corresponding to the sub-scanning direction DRs in the acquired whole image. If the entire acquired image is displayed with the IP equivalent portion tilted, the user may find it difficult to see the tilted IP equivalent portion.

そこで、画像処理部81は、IP傾き角度αに基づいて、取得全体像に対して、IP相当部分の傾きを補正する傾き補正処理を行ってもよい。補正対象の取得全体像が、発光光L2の検出に基づく発光時全体像である場合、傾き補正処理では、IP相当部分の傾きが補正されることによって、当該IP相当部分に含まれる放射線像の傾きが補正される。一方で、補正対象の取得全体像が、反射光の検出に基づく消去時全体像である場合、傾き補正処理では、イメージングプレート10が写るIP反射光像の傾きが補正される。画像処理部81は、輝度反転処理が行われる前の画像信号に基づく取得全体像に対して傾き補正処理を行ってもよいし、輝度反転処理が行われた後の画像信号に基づく取得全体像に対して傾き補正処理を行ってもよい。表示部3は、傾き補正処理後の取得全体像を表示してもよい。傾き補正処理は、図14の一連の処理の中で実行されてもよいし、図14の処理とは別のタイミングで実行されてもよい。また、傾き補正処理は、図24の一連の処理の中で実行されてもよいし、図24の処理とは別のタイミングで実行されてもよい。傾き補正処理は、イメージングプレート10の基準姿勢からの傾きに応じた、発光時全体像でのIP相当部分の傾きを補正する処理であるといえる。 Therefore, the image processing unit 81 may perform tilt correction processing for correcting the tilt of the portion corresponding to the IP on the obtained entire image based on the IP tilt angle α. When the acquired entire image to be corrected is the emitted entire image based on the detection of the emitted light L2, the tilt correction process corrects the tilt of the portion corresponding to the IP, thereby correcting the tilt of the portion corresponding to the IP. Tilt is corrected. On the other hand, when the acquired whole image to be corrected is the erased whole image based on the detection of the reflected light, the tilt correction process corrects the tilt of the IP reflected light image showing the imaging plate 10 . The image processing unit 81 may perform tilt correction processing on the acquired whole image based on the image signal before the brightness reversal processing is performed, or the acquired whole image based on the image signal after the brightness reversal processing is performed. may be subjected to tilt correction processing. The display unit 3 may display the acquired whole image after the tilt correction process. The tilt correction process may be performed during the series of processes in FIG. 14, or may be performed at a different timing from the process in FIG. Also, the tilt correction process may be executed during the series of processes in FIG. 24, or may be executed at a different timing from the process in FIG. The tilt correction process can be said to be a process of correcting the tilt of the portion corresponding to the IP in the entire image during light emission according to the tilt of the imaging plate 10 from the reference posture.

図29は傾き補正処理の一例を説明するための概略図である。図29では、傾き補正処理が行われる前の取得全体像250が上側に示され、傾き補正処理が行われた後の取得全体像250が下側に示されている。補正対象の取得全体像250には、IP相当部分251とIP外側領域像252とが含まれる。図29では、IP相当部分251の長手方向DR1が破線で示され、取得全体像250において副走査方向DRsに対応する方向DR2が一点鎖線で示されている。 FIG. 29 is a schematic diagram for explaining an example of tilt correction processing. In FIG. 29, the acquired whole image 250 before the tilt correction process is shown on the upper side, and the acquired whole image 250 after the tilt correction process is shown on the lower side. An acquired whole image 250 to be corrected includes an IP equivalent portion 251 and an IP outer area image 252 . In FIG. 29 , the longitudinal direction DR1 of the IP-corresponding portion 251 is indicated by a dashed line, and the direction DR2 corresponding to the sub-scanning direction DRs in the obtained overall image 250 is indicated by a dashed line.

傾き補正処理において、画像処理部81は、補正対象の取得全体像250に含まれるIP相当部分251の重心251aを求める。ここで、IP相当部分251の重心251aは、取得全体像250の二値化像の高輝度領域の重心と一致する。画像処理部81は、取得全体像250の二値化像を生成し、生成した二値化像の高輝度領域の重心を求めることによって、取得全体像250のIP相当部分251の重心251aを求めることができる。次に、画像処理部81は、求めた重心251aを中心にして取得全体像250をIP傾き角度αだけ回転させる。このとき、画像処理部81は、IP傾き角度αがプラスの場合、図29に示されるように、取得全体像250を左回り255LにIP傾き角度αだけ回転させる。一方で、IP傾き角度αがマイナスの場合、画像処理部81は、取得全体像250を右回りにIP傾き角度αだけ回転させる。これにより、IP相当部分251の傾きが補正されて、IP相当部分251の長手方向DR1は、取得全体像250において副走査方向DRsに対応する方向DR2に平行となる。 In the tilt correction process, the image processing unit 81 obtains the center of gravity 251a of the IP equivalent portion 251 included in the acquired entire image 250 to be corrected. Here, the center of gravity 251 a of the IP-corresponding portion 251 coincides with the center of gravity of the high-brightness region of the binarized image of the acquired overall image 250 . The image processing unit 81 generates a binarized image of the obtained overall image 250, and obtains the centroid 251a of the IP-corresponding portion 251 of the obtained overall image 250 by obtaining the centroid of the high luminance area of the generated binarized image. be able to. Next, the image processing unit 81 rotates the obtained entire image 250 by the IP tilt angle α around the obtained center of gravity 251a. At this time, if the IP tilt angle α is positive, the image processing unit 81 rotates the obtained entire image 250 counterclockwise 255L by the IP tilt angle α, as shown in FIG. On the other hand, when the IP tilt angle α is negative, the image processing unit 81 rotates the obtained whole image 250 clockwise by the IP tilt angle α. As a result, the inclination of the IP-corresponding portion 251 is corrected, and the longitudinal direction DR1 of the IP-corresponding portion 251 becomes parallel to the direction DR2 corresponding to the sub-scanning direction DRs in the acquired whole image 250 .

図30は、上述の図16に示される反転前発光時全体像100aに対して傾き補正処理が行われた様子の一例を示す概略図である。図16と図30とを比較して理解できるように、反転前発光時全体像100aに対する傾き補正処理によって、IP相当部分105aに含まれる放射線像101aの傾きが適切に補正されている。傾き補正処理が行われた反転前発光時全体像100aでのIP相当部分105aの姿勢は、イメージングプレート10の姿勢が基準姿勢である場合に得られる反転前発光時全体像100aでのIP相当部分105aの姿勢と同じとなる。表示部3は、傾き補正処理後の反転前発光時全体像100aを、例えば、図30のようなグレースケールで表示してもよい。以後、取得全体像が表示されることには、傾き補正処理後の取得全体像が表示されることも含まれる。 FIG. 30 is a schematic diagram showing an example of a state in which the tilt correction process is performed on the entire image 100a during light emission before reversal shown in FIG. 16 described above. As can be understood by comparing FIG. 16 and FIG. 30, the inclination of the radiation image 101a included in the IP-corresponding portion 105a is appropriately corrected by the inclination correction processing for the whole image 100a during light emission before reversal. The orientation of the IP-corresponding portion 105a in the entire image 100a during light emission before reversal in which the tilt correction processing is performed is the portion corresponding to the IP in the entire image 100a during light emission before reversal obtained when the orientation of the imaging plate 10 is the reference posture. It becomes the same as the posture of 105a. The display unit 3 may display the pre-reversal luminous whole image 100a after the tilt correction process, for example, in a gray scale as shown in FIG. Henceforth, the display of the acquired whole image includes the display of the acquired whole image after the tilt correction processing.

このように、画像処理部81が、IP傾き角度に基づいて取得全体像のIP相当部分の傾きを補正することによって、傾きが適切に補正されたIP相当部分を得ることができる。例えば、発光時全体像に対して傾き補正処理が行われる場合、傾きが適切に補正された放射線像を得ることができる。また、消去時全体像に対して傾き補正処理が行われる場合、傾きが適切に補正されたIP反射光像を得ることができる。 In this manner, the image processing unit 81 corrects the tilt of the IP-corresponding portion of the obtained entire image based on the IP tilt angle, thereby obtaining the IP-corresponding portion whose tilt is appropriately corrected. For example, when tilt correction processing is performed on the entire image during light emission, it is possible to obtain a radiographic image whose tilt is appropriately corrected. Further, when tilt correction processing is performed on the entire image at erasing, it is possible to obtain an IP reflected light image whose tilt is appropriately corrected.

<取得全体像に対する切出処理について>
画像処理部81は、放射線像を含む発光時全体像において切り出す対象の切出像をIP傾き角度及びIPサイズに基づいて決定し、決定した当該切出像を当該発光時全体像から切り出す切出処理を行ってもよい。この切出処理により、IP傾き角度及びIPサイズに応じた所望の切出像を発光時全体像から得ることができる。画像処理部81は切出処理を行う切り出し部として機能する。切出処理は、図14の一連の処理の中で実行されてもよいし、図14の処理とは別のタイミングで実行されてもよい。また、切出処理は、図24の一連の処理の中で実行されてもよいし、図24の処理とは別のタイミングで実行されてもよい。
<Regarding extraction processing for the acquired entire image>
The image processing unit 81 determines, based on the IP tilt angle and the IP size, a cutout image to be cut out from the whole image during luminescence including the radiographic image, and cuts out the determined cutout image from the whole image during luminescence. processing may be performed. By this clipping process, a desired clipped image corresponding to the IP tilt angle and IP size can be obtained from the entire image during light emission. The image processing unit 81 functions as a clipping unit that performs clipping processing. The extraction process may be performed during the series of processes in FIG. 14, or may be performed at a different timing from the process in FIG. Also, the extraction process may be executed during the series of processes in FIG. 24, or may be executed at a different timing from the process in FIG.

切出処理では、例えば、発光時全体像のIP相当部分が切出像として決定されてもよい。この場合、画像処理部81は、例えば、IPサイズの種類とIP傾き角度とに基づいて、発光時全体像のIP相当部分を切出像として決定する。以下に、画像処理部81が発光時全体像のIP相当部分を切出像として決定する際の当該画像処理部81の動作の一例について説明する。以後、画像処理部81が特定したIPサイズの種類を特定サイズZと呼ぶことがある。本例では、Zは0、1、2及び3のいずれかの値となる。 In the clipping process, for example, a portion corresponding to the IP of the entire image during light emission may be determined as the clipped image. In this case, the image processing unit 81 determines, as a cutout image, the portion corresponding to the IP of the whole image when the light is emitted, based on the type of IP size and the IP tilt angle, for example. An example of the operation of the image processing unit 81 when the image processing unit 81 determines the portion corresponding to the IP of the whole image when the light is emitted as the cutout image will be described below. Hereinafter, the type of IP size specified by the image processing unit 81 may be referred to as a specified size Z. In this example, Z is one of the values 0, 1, 2 and 3.

切出処理において、画像処理部81は、例えば、IPサイズの種類とIP傾き角度に基づいて、発光時全体像に対して切出枠を設定する。そして、画像処理部81は、発光時全体像での切出枠内の部分を、切出像として決定する。 In the clipping process, the image processing unit 81 sets a clipping frame for the whole image when the light is emitted based on, for example, the type of IP size and the IP tilt angle. Then, the image processing unit 81 determines the portion within the cut-out frame in the whole image when the light is emitted as the cut-out image.

切出枠の形状は、特定サイズZのイメージングプレート10の公称外形と相似形を成す。本例では、イメージングプレート10の外形は四隅が丸まった長方形であることから、切出枠の形状も四隅が丸まった長方形となる。そして、切出枠の短手方向のサイズは、特定サイズZのイメージングプレート10の公称短手サイズ(特定サイズZの公称短手サイズともいう)に応じた値となり、切出枠の長手方向のサイズは、特定サイズZのイメージングプレート10の公称長手サイズ(特定サイズZの公称長手サイズともいう)に応じた値となる。 The shape of the cutting frame is similar to the nominal outer shape of the imaging plate 10 of the specific size Z. FIG. In this example, since the outer shape of the imaging plate 10 is a rectangle with rounded corners, the shape of the cutting frame is also a rectangle with rounded corners. The size of the cutting frame in the transverse direction is a value corresponding to the nominal transverse size of the imaging plate 10 of the specific size Z (also referred to as the nominal transverse size of the specific size Z). The size is a value corresponding to the nominal longitudinal size of the imaging plate 10 of the specific size Z (also referred to as the nominal longitudinal size of the specific size Z).

ここで、画像処理部81は、IPサイズの各種類について、公称短手サイズ及び公称長手サイズのそれぞれが、取得全体像での何画素分に相当するかを予め把握している。画素のP1個分が特定サイズZの公称短手サイズに相当し、画素のP2個分が特定サイズZの公称長手サイズに相当するとき、画像処理部81は、切出枠の短手方向のサイズを画素のP1個分の長さに設定し、切出枠の長手方向のサイズを画素のP2個分の長さに設定する。例えば、P1=800、P2=1100とすると、切出枠の短手方向のサイズは画素800個分の長さに設定され、切出枠の長手方向のサイズは画素1100個分の長さに設定される。 Here, for each type of IP size, the image processing unit 81 grasps in advance how many pixels each of the nominal short side size and the nominal long side size corresponds to in the obtained whole image. When P1 pixels correspond to the nominal short side size of the specific size Z and P2 pixels correspond to the nominal longitudinal size of the specific size Z, the image processing unit 81 calculates the width of the clipping frame in the width direction. The size is set to the length of P1 pixels, and the size in the longitudinal direction of the clipping frame is set to the length of P2 pixels. For example, if P1=800 and P2=1100, the size of the clipping frame in the short direction is set to the length of 800 pixels, and the size of the clipping frame in the longitudinal direction is set to the length of 1100 pixels. set.

画像処理部81は、切出枠の外形及びサイズを決定すると、切出枠の中心が発光時全体像のIP相当部分の重心と一致し、かつ切出枠の長手方向及び短手方向が発光時全体像の長手方向及び短手方向にそれぞれ平行となるように、切出枠を発光時全体像上に配置する。なお、上述のように、発光時全体像のIP相当部分の重心は、当該発光時全体像の二値化像の高輝度領域の重心と一致する。 When the image processing unit 81 determines the outer shape and size of the clipping frame, the center of the clipping frame coincides with the center of gravity of the IP-corresponding portion of the whole image at the time of light emission, and the longitudinal direction and the width direction of the clipping frame are illuminated. The cut-out frame is arranged on the whole image when emitting light so as to be parallel to the longitudinal direction and the width direction of the whole image when emitting light. As described above, the center of gravity of the IP-corresponding portion of the whole image during light emission coincides with the center of gravity of the high-brightness region of the binarized image of the whole image during light emission.

次に、画像処理部81は、発光時全体像上に配置した切出枠を、IP相当部分の重心の回りにIP傾き角度だけ回転させる。このとき、画像処理部81は、IP傾き角度がプラスの場合には切出枠を右回りに回転させ、IP傾き角度がマイナスの場合には切出枠を左回りに回転させる。これにより、発光時全体像のうち切出枠内の部分がIP相当部分に一致する。画像処理部81は、発光時全体像のうち、IP傾き角度だけ回転させた切出枠内の部分を切出像に決定する。その後、画像処理部81は、決定した切出像を発光時全体像から切り出す。これにより、発光時全体像からIP相当部分が切り出されて、イメージングプレート10に相当する部分だけの像を得ることができる。切出処理は、反転前発光時全体像に対して行われてもよいし、反転後発光時全体像に対して行われてもよい。 Next, the image processing unit 81 rotates the clipping frame arranged on the entire image during light emission by the IP tilt angle around the center of gravity of the IP corresponding portion. At this time, the image processing unit 81 rotates the clipping frame clockwise when the IP tilt angle is positive, and rotates the clipping frame counterclockwise when the IP tilt angle is negative. As a result, the portion within the clipping frame of the entire image during light emission matches the portion corresponding to the IP. The image processing unit 81 determines, as a cut-out image, a portion within the cut-out frame rotated by the IP tilt angle in the entire image during light emission. After that, the image processing unit 81 cuts out the determined cutout image from the whole image at the time of light emission. As a result, the portion corresponding to the IP is cut out from the entire image during light emission, and an image of only the portion corresponding to the imaging plate 10 can be obtained. The cropping process may be performed on the whole image when the light is emitted before reversal, or may be performed on the whole image when the light is emitted after the reversal.

図31は、上述の図12に示される反転後発光時全体像100bに対して切出枠150が設定されている様子の一例を示す概略図である。図32は、図31の例において、反転後発光時全体像100bでの切出枠150内の切出像151が、反転後発光時全体像100bから切り出された様子の一例を示す概略図である。図32に示されるように、反転後発光時全体像100bからIP相当部分105bが適切に切り出されている。切出像151には、反転後発光時全体像100bに含まれる放射線像101bと同じ放射線像151aが含まれる。 FIG. 31 is a schematic diagram showing an example of how the cutout frame 150 is set for the whole image 100b at the time of light emission after reversal shown in FIG. 12 described above. FIG. 32 is a schematic diagram showing an example of how a clipped image 151 in the clipping frame 150 in the whole image 100b when emitting light after reversal is clipped from the whole image 100b when emitting light after reversal in the example of FIG. be. As shown in FIG. 32, the IP-corresponding portion 105b is appropriately cut out from the whole image 100b at the time of light emission after reversal. The cut-out image 151 includes a radiographic image 151a that is the same as the radiographic image 101b included in the post-reversal light emission entire image 100b.

図33は、上述の図13に示される反転後発光時全体像100bに対して切出枠150が設定されている様子の一例を示す概略図である。図34は、図33の例において、反転後発光時全体像100bでの切出枠150内の切出像151が反転後発光時全体像100bから切り出された様子の一例を示す概略図である。図34に示されるように、反転後発光時全体像100bが未露光領域像103bを含む場合であっても、反転後発光時全体像100bからIP相当部分105bが適切に切り出されている。切出像151には、反転後発光時全体像100bに含まれる放射線像101bと同じ放射線像151aが含まれるとともに、反転後発光時全体像100bに含まれる未露光領域像103bと同じ未露光領域像151bが含まれる。 FIG. 33 is a schematic diagram showing an example of how the cut-out frame 150 is set with respect to the whole image 100b at the time of light emission after reversal shown in FIG. 13 described above. FIG. 34 is a schematic diagram showing an example of how a clipped image 151 in the clipping frame 150 in the whole image 100b when emitting light after reversal is clipped from the whole image 100b when emitting light after reversal in the example of FIG. . As shown in FIG. 34, even when the post-reversal luminescence entire image 100b includes the unexposed area image 103b, the IP corresponding portion 105b is appropriately cut out from the post-reversal luminescence overall image 100b. The cut-out image 151 includes the same radiation image 151a as the radiation image 101b included in the post-reversal light emission overall image 100b, and the same unexposed area as the unexposed area image 103b included in the post-reversal light emission overall image 100b. Image 151b is included.

切出処理が行われる場合、表示部3は、発光時全体像から切り出された切出像151を表示してもよい。この場合、表示部3は、図32及び34のようなグレースケールで切出像151を表示してもよい。図32及び34は切出像151の表示例を示す概略図であるともいえる。切出像151が表示される場合、ユーザは、発光時全体像のうち必要な像だけを確認することができる。本例のように、発光時全体像からIP相当部分が切出像151として切り出されて表示される場合、ユーザは、発光時全体像のうち、必要なIP相当部分だけを確認することができる。これにより、ユーザは、例えば図34のような切出像151の表示を確認することによって、イメージングプレート10に未露光部分が含まれていることを容易に特定することができる。また、ユーザは、イメージングプレート10での未露光部分の範囲も容易に特定することができる。 When the clipping process is performed, the display unit 3 may display a clipped image 151 clipped from the whole image during light emission. In this case, the display unit 3 may display the clipped image 151 in grayscale as shown in FIGS. It can be said that FIGS. 32 and 34 are schematic diagrams showing display examples of the cut-out image 151. FIG. When the clipped image 151 is displayed, the user can confirm only a necessary image of the whole image during flash. As in this example, when the portion corresponding to the IP is cut out and displayed as the clipped image 151 from the whole image when the light is emitted, the user can check only the necessary portion corresponding to the IP in the whole image when the light is emitted. . Thereby, the user can easily specify that the imaging plate 10 includes an unexposed portion by confirming the display of the cutout image 151 as shown in FIG. 34, for example. Also, the user can easily specify the range of the unexposed portion on the imaging plate 10 .

表示部3は、発光時全体像から切り出された切出像151と消去時全体像200とを同時にかつ別々に表示してもよい。図35は、表示部3の表示面3aに切出像151と消去時全体像200がグレースケールで表示されている様子の一例を示す概略図である。図35には、未露光領域像151bを含む切出像151が示されている。図35に示されるように、表示部3は、切出像151及び消去時全体像200を、例えば、切出像151と消去時全体像200のIP反射光像(IP相当部分)201とが同じ大きさとなるように表示してもよい。また、表示部3は、切出像151及び消去時全体像200を、例えば横並びに表示してもよい。表示部3が切出像151と消去時全体像200とを同時にかつ別々に表示することによって、ユーザは、切出像151と消去時全体像200とを簡単に見比べることができる。これにより、ユーザは、例えば、消去時全体像200に含まれるIP反射光像201と切出像151とを比較することによって、発光時全体像から適切にIP相当部分が切り出されているか否かを容易に特定することができる。 The display unit 3 may simultaneously and separately display the clipped image 151 clipped from the entire image at the time of light emission and the overall image 200 at the time of erasure. FIG. 35 is a schematic diagram showing an example of a state in which the clipped image 151 and the erased whole image 200 are displayed in gray scale on the display surface 3a of the display section 3. As shown in FIG. FIG. 35 shows a cutout image 151 including an unexposed area image 151b. As shown in FIG. 35, the display unit 3 displays a cutout image 151 and an erased whole image 200, for example, an IP reflected light image (IP corresponding portion) 201 of the cutout image 151 and an erased whole image 200. You may display so that it may become the same size. Further, the display unit 3 may display the cut-out image 151 and the erased whole image 200 side by side, for example. The user can easily compare the cutout image 151 and the erased whole image 200 by simultaneously and separately displaying the cutout image 151 and the erased whole image 200 on the display unit 3 . Thereby, for example, the user can compare the IP reflected light image 201 and the clipped image 151 included in the entire image 200 at the time of erasing to determine whether or not the portion corresponding to the IP has been appropriately extracted from the overall image at the time of emission. can be easily identified.

画像処理部81は、上述の傾き補正処理と同様に、発光時全体像から切り出した切出像151の傾きをIP傾き角度に基づいて補正してもよい。これにより、例えば、補正後の切出像151が表示される場合、ユーザは切出像151を見やすくなる。以後、傾き補正処理には、切出像151の傾きを補正することも含まれるものとする。 The image processing unit 81 may correct the tilt of the cutout image 151 cut out from the entire image during light emission based on the IP tilt angle, in the same manner as in the tilt correction processing described above. As a result, for example, when the corrected cut-out image 151 is displayed, the user can easily see the cut-out image 151 . Hereinafter, it is assumed that the tilt correction processing also includes correcting the tilt of the cut-out image 151 .

画像処理部81は、例えば、発光時全体像に対する上述の傾き補正処理と同様にして切出像151の傾きを補正する。具体的には、画像処理部81は、まず、切出像151の重心を求める。切出像151の重心は、発光時全体像の二値化像の高輝度領域の重心と一致する。したがって、画像処理部81は、発光時全体像の二値化像の高輝度領域の重心を求めることによって、切出像151の重心を求めることができる。次に、画像処理部81は、求めた重心を中心にして切出像151をIP傾き角度だけ回転させる。このとき、画像処理部81は、IP傾き角度がプラスの場合、切出像151を左回りにIP傾き角度だけ回転させる。一方で、IP傾き角度がマイナスの場合、画像処理部81は、切出像151を右回りにIP傾き角度だけ回転させる。これにより、切出像151の傾きが補正される。よって、切出像151に含まれる、発光時画像信号に基づく放射線像の傾きが補正される。 The image processing unit 81 corrects the tilt of the cut-out image 151 in the same manner as the above-described tilt correction processing for the entire image during light emission, for example. Specifically, the image processing unit 81 first obtains the center of gravity of the cutout image 151 . The center of gravity of the clipped image 151 coincides with the center of gravity of the high-brightness region of the binarized image of the entire image during illumination. Therefore, the image processing unit 81 can obtain the center of gravity of the clipped image 151 by obtaining the center of gravity of the high-luminance region of the binarized image of the whole image when the light is emitted. Next, the image processing unit 81 rotates the cutout image 151 by the IP tilt angle around the obtained center of gravity. At this time, if the IP tilt angle is positive, the image processing unit 81 rotates the cutout image 151 counterclockwise by the IP tilt angle. On the other hand, when the IP tilt angle is negative, the image processing unit 81 rotates the cutout image 151 clockwise by the IP tilt angle. As a result, the tilt of the cutout image 151 is corrected. Therefore, the tilt of the radiographic image based on the image signal at the time of light emission, which is included in the cutout image 151, is corrected.

図36~38は、発光時全体像に対して切出処理が行われ、その後、切出像151に対して傾き補正処理が行われる様子の一例を示す概略図である。図36~38の例では、上述の図16に示される反転前発光時全体像100aに対して切出処理が行われている。図36に示されるように、画像処理部81は、上述のようにして切出枠150を反転前発光時全体像100aに設定する。次に、画像処理部81は、反転前発光時全体像100aでの切出枠150内の切出像151を、図37に示されるように、反転前発光時全体像100aから切り出す。その後、図38に示されるように、画像処理部81は、切り出した切出像151の傾きをIP傾き角度に基づいて補正する。これにより、イメージングプレート10の基準姿勢からの傾きに応じた切出像151の傾きが適切に補正される。傾きが補正された切出像151の姿勢は、イメージングプレート10の姿勢が基準姿勢である場合に得られる切出像151の姿勢と同じとなる。 FIGS. 36 to 38 are schematic diagrams showing an example of how the clipping process is performed on the whole image when the light is emitted, and then the tilt correction process is performed on the clipped image 151. FIG. In the examples of FIGS. 36 to 38, the cropping process is performed on the whole image 100a at the time of light emission before reversal shown in FIG. 16 described above. As shown in FIG. 36, the image processing unit 81 sets the clipping frame 150 to the whole image 100a during light emission before reversal as described above. Next, the image processing unit 81 cuts out a cutout image 151 within the cutout frame 150 in the whole image 100a during light emission before reversal, as shown in FIG. Thereafter, as shown in FIG. 38, the image processing unit 81 corrects the tilt of the clipped image 151 based on the IP tilt angle. As a result, the tilt of the cutout image 151 corresponding to the tilt of the imaging plate 10 from the reference posture is appropriately corrected. The orientation of the cut-out image 151 whose tilt has been corrected is the same as the orientation of the cut-out image 151 obtained when the orientation of the imaging plate 10 is the reference orientation.

上記の例では、画像処理部81は、発光時全体像のIP相当部分を切出像151としているが、IP相当部分の一部を切出像151としてもよい。以下にこの場合の画像処理部81の動作の一例について説明する。 In the above example, the image processing unit 81 uses the portion corresponding to the IP of the whole image when the light is emitted as the clipped image 151 . An example of the operation of the image processing section 81 in this case will be described below.

図39は、イメージングプレート10を保持する保持部20の他の例を示す概略図である。図39では、保持部20の固定部22が備える各固定部分22aが接近位置に存在する様子が示されている。図39に示される保持部20(保持部20Aともいう)では、各固定部分22aが接近位置に存在する場合、固定部22は、イメージングプレート10の周縁部10aを覆う重なり部分220を有する。各固定部分22aは、接近位置に存在する場合、イメージングプレート10の周縁部10aを覆う重なり部分220aを有する。固定部22の重なり部分220は、複数の固定部分22aの重なり部分220aで構成されている。 FIG. 39 is a schematic diagram showing another example of the holding section 20 that holds the imaging plate 10. As shown in FIG. FIG. 39 shows that each fixing portion 22a of the fixing portion 22 of the holding portion 20 exists at the approach position. In the holding portion 20 (also referred to as holding portion 20A) shown in FIG. 39, the holding portion 22 has an overlapping portion 220 that covers the peripheral portion 10a of the imaging plate 10 when each fixing portion 22a is in the approached position. Each fixed portion 22a has an overlapping portion 220a that covers the peripheral edge 10a of the imaging plate 10 when in the approximated position. The overlapping portion 220 of the fixing portion 22 is composed of overlapping portions 220a of a plurality of fixing portions 22a.

イメージングプレート10が保持部20Aで保持されている場合、イメージングプレート10の周縁部10aが固定部22の重なり部分220で覆われることから、読取装置1では、重なり部分220が写る発光時全体像が得られる。 When the imaging plate 10 is held by the holding portion 20A, the peripheral edge portion 10a of the imaging plate 10 is covered with the overlapping portion 220 of the fixing portion 22. Therefore, in the reading device 1, the entire image in which the overlapping portion 220 is reflected is captured. can get.

図40は、イメージングプレート10が保持部20Aで保持されている場合に得られる反転前発光時全体像100aの一例を示す概略図である。図40に示される反転前発光時全体像100aには、固定部22の重なり部分220の像120(重なり部分像120ともいう)が含まれている。重なり部分像120は、重なり部分220からの励起光L1の反射光の検出に基づく像である。重なり部分像120は、複数の固定部分22aの重なり部分220aの像120a(重なり部分像120aともいう)で構成されている。本例では、各固定部分22aの表面には、例えば黒アルマイト処理が行われている。したがって、反転前発光時全体像100aに含まれる重なり部分像120の輝度値は小さくなる。 FIG. 40 is a schematic diagram showing an example of an entire image 100a during light emission before reversal obtained when the imaging plate 10 is held by the holding portion 20A. An image 120 of the overlapping portion 220 of the fixing portion 22 (also referred to as an overlapping partial image 120) is included in the whole image 100a at the time of light emission before reversal shown in FIG. The overlapping partial image 120 is an image based on detection of the reflected light of the excitation light L<b>1 from the overlapping portion 220 . The overlapping partial image 120 is composed of images 120a (also referred to as overlapping partial images 120a) of overlapping portions 220a of a plurality of fixed portions 22a. In this example, the surface of each fixing portion 22a is subjected to black alumite treatment, for example. Therefore, the luminance value of the overlapping partial image 120 included in the whole image 100a during light emission before inversion is reduced.

画像処理部81は、重なり部分像120が発光時全体像に含まれる場合、発光時全体像において、重なり部分像120(言い換えれば複数の重なり部分像120a)を切出像151が含まないように、IP相当部分の一部を切出像151として決定してもよい。この場合、画像処理部81は、例えば、上記と同様にして、IPサイズの種類とIP傾き角度に基づいて切出枠150を発光時全体像に設定する。上述のようにして設定された切出枠150の外形は、イメージングプレート10の外形に応じた形状を成すため、この時点では、切出枠150内には重なり部分像120が含まれる。図41は、図40に示される反転前発光時全体像100aに対して上述のようにして切出枠150が設定された様子の一例を示す概略図である。反転前発光時全体像100aに設定された切出枠150内には、重なり部分像120を構成する複数の重なり部分像120aが含まれる。 When the overlapping partial image 120 is included in the luminous whole image, the image processing unit 81 controls the cutout image 151 not to include the overlapping partial image 120 (in other words, a plurality of overlapping partial images 120a) in the luminous whole image. , a portion corresponding to IP may be determined as the cutout image 151 . In this case, the image processing unit 81, for example, similarly to the above, sets the clipping frame 150 to the entire image during light emission based on the type of IP size and the IP tilt angle. Since the outer shape of the clipping frame 150 set as described above forms a shape corresponding to the outer shape of the imaging plate 10, the overlapping partial image 120 is included in the clipping frame 150 at this point. FIG. 41 is a schematic diagram showing an example of how the cutout frame 150 is set as described above with respect to the whole image 100a at the time of light emission before reversal shown in FIG. A plurality of overlapping partial images 120a forming an overlapping partial image 120 are included in the cutout frame 150 set in the whole image 100a during light emission before reversal.

画像処理部81は、上述のようにして切出枠150を発光時全体像に設定した後、切出枠150内に重なり部分像120が含まれないように、切出枠150を例えば相似形で縮小する。このとき、画像処理部81は、切出枠150内に重なり部分像120が含まれないように、かつ縮小後の切出枠150ができるだけ大きくなるように、切出枠150を相似形で縮小する。画像処理部81は、例えば、発光時全体像の二値化像に基づいて、発光時全体像での各重なり部分像120aの位置及び範囲を特定することができる。そして、画像処理部81は、各重なり部分像120aについて特定した位置及び範囲に基づいて、切出枠150内に重なり部分像120が含まれないように、かつ縮小後の切出枠150ができるだけ大きくなるように、切出枠150を相似形で縮小する。そして、画像処理部81は、発光時全体像において縮小後の切出枠150内の部分を切出像151として決定する。これにより、重なり部分像120が含まれず、かつIP相当部分105aの大部分が含まれるような切出像151が得られる。図42は、図41に示される切出枠150が縮小された様子の一例を示す概略図である。画像処理部81は、図42に示されるように、反転前発光時全体像100aにおいて縮小後の切出枠150内の部分を切出像151として決定する。 After setting the clipping frame 150 to the entire image during light emission as described above, the image processing unit 81 sets the clipping frame 150 to, for example, a similar shape so that the overlapping partial image 120 is not included in the clipping frame 150 . to zoom out. At this time, the image processing unit 81 reduces the clipping frame 150 in a similar shape so that the overlapping partial image 120 is not included in the clipping frame 150 and the clipping frame 150 after reduction is as large as possible. do. For example, the image processing unit 81 can specify the position and range of each overlapping partial image 120a in the luminous overall image based on the binarized image of the luminous overall image. Then, based on the position and range specified for each overlapping partial image 120a, the image processing unit 81 prevents the overlapped partial image 120 from being included in the clipping frame 150 and reduces the clipping frame 150 after reduction as much as possible. The clipping frame 150 is reduced in a similar shape so as to become larger. Then, the image processing unit 81 determines a portion within the reduced cutout frame 150 as the cutout image 151 in the entire image during light emission. As a result, a cutout image 151 that does not include the overlapping partial image 120 and includes most of the IP corresponding portion 105a is obtained. FIG. 42 is a schematic diagram showing an example of how the clipping frame 150 shown in FIG. 41 is reduced. As shown in FIG. 42 , the image processing unit 81 determines a portion within the reduced cutout frame 150 as the cutout image 151 in the entire image 100a during light emission before reversal.

画像処理部81は、切出像151を決定すると、発光時全体像から切出像151を切り出す。図43は、図42に示される切出像151が反転前全体像100aから切り出された様子の一例を示す概略図である。 After determining the cut-out image 151, the image processing unit 81 cuts out the cut-out image 151 from the whole image at the time of light emission. FIG. 43 is a schematic diagram showing an example of how the clipped image 151 shown in FIG. 42 is clipped from the pre-reversal whole image 100a.

このように、画像処理部81が、切出像151が重なり部分像120を含まないようにIP相当部分の一部を切出像151として決定する場合には、固定部22の重なり部分220が写らない切出像151を得ることができる。これにより、例えば、切出像151が表示される場合、ユーザは、イメージングプレート10に相当する部分だけを確認することができる。 As described above, when the image processing unit 81 determines a portion of the IP equivalent portion as the clipped image 151 so that the clipped image 151 does not include the overlapping partial image 120, the overlapping portion 220 of the fixing unit 22 is A clipped image 151 that is not captured can be obtained. Thereby, for example, when the clipped image 151 is displayed, the user can confirm only the portion corresponding to the imaging plate 10 .

なお、画像処理部81は、発光時全体像から、重なり部分220が写らない切出像151を切り出す場合であっても、上述のように、切り出した切出像151の傾きをIP傾き角度に基づいて補正してもよい。この場合、表示制御部82は、傾きが補正された切出像151を表示部3に表示させてもよい。 Note that even when the image processing unit 81 cuts out the clipped image 151 that does not include the overlapping portion 220 from the whole image during light emission, the tilt of the clipped image 151 is adjusted to the IP tilt angle as described above. can be corrected based on In this case, the display control unit 82 may cause the display unit 3 to display the cropped image 151 whose tilt has been corrected.

図44は、イメージングプレート10が保持部20Aで保持されている場合に得られる反転前発光時全体像100aの他の例を示す概略図である。図45~47は、図44に示される反転前発光時全体像100aに対して切出処理が行われ、その後、切出像151に対して傾き補正処理が行われる様子の一例を示す概略図である。画像処理部81は、上述のようにして、反転前発光時全体像100aに切出枠150を設定し、その後、図45に示されるように、切出枠150内に重なり部分像120が含まれないように、かつ縮小後の切出枠150ができるだけ大きくなるように、切出枠150を相似形で縮小する。次に、画像処理部81は、反転前発光時全体像100aでの切出枠150内の切出像151を、図46に示されるように、反転前発光時全体像100aから切り出す。その後、図47に示されるように、画像処理部81は、切り出した切出像151の傾きをIP傾き角度に基づいて補正する。これにより、イメージングプレート10の基準姿勢からの傾きに応じた切出像151の傾きが適切に補正される。 FIG. 44 is a schematic diagram showing another example of the whole image 100a at the time of light emission before reversal obtained when the imaging plate 10 is held by the holding portion 20A. FIGS. 45 to 47 are schematic diagrams showing an example of how the pre-reversal luminous whole image 100a shown in FIG. is. Image processing unit 81 sets clipping frame 150 in whole image 100a during light emission before reversal as described above, and then, as shown in FIG. The clipping frame 150 is reduced in a similar shape so that the clipping frame 150 after reduction is as large as possible. Next, the image processing unit 81 cuts out a clipped image 151 within the clipping frame 150 in the whole image 100a during light emission before reversal, as shown in FIG. Thereafter, as shown in FIG. 47, the image processing unit 81 corrects the tilt of the clipped image 151 based on the IP tilt angle. As a result, the tilt of the cutout image 151 corresponding to the tilt of the imaging plate 10 from the reference posture is appropriately corrected.

このように、画像処理部81は、IPサイズ及びIP傾き角度に基づいて、発光時全体像のIP相当部分の少なくとも一部を切出像として決定することから、IP相当部分の少なくとも一部を発光時全体像から適切に切り出すことができる。 In this way, the image processing unit 81 determines at least a portion of the portion corresponding to the IP of the entire image at the time of light emission as the cropped image based on the IP size and the IP tilt angle. It can be appropriately cut out from the whole image at the time of light emission.

画像処理部81は、発光時全体像に重なり部分像120が含まれない場合であっても、発光時全体像に設定した切出枠150を例えば相似形に縮小し、発光時全体像において縮小後の切出枠150内の部分を切出像151として決定してもよい。この場合であっても、発光時全体像でのIP相当部分の一部が切出像151として決定される。また、画像処理部81は、発光時全体像に設定した切出枠150を例えば相似形に拡大し、発光時全体像において拡大後の切出枠150内の部分を切出像151として決定してもよい。この場合、発光時全体像において、IP相当部分とその周囲の部分(例えば、IP外側領域像の一部あるいは重なり部分像120の少なくとも一部)とが切出像151として決定される。 Even if the overlapped partial image 120 is not included in the whole image when the light is emitted, the image processing unit 81 reduces the cutout frame 150 set in the whole image when the light is emitted to a similar shape, for example, and reduces the whole image when the light is emitted. A later portion within the cutout frame 150 may be determined as the cutout image 151 . Even in this case, a portion of the portion corresponding to the IP in the entire image during light emission is determined as the cutout image 151 . In addition, the image processing unit 81 enlarges the cropped frame 150 set in the entire image during lighting to a similar shape, for example, and determines a portion within the enlarged cropped frame 150 in the total image during lighting as the cropped image 151 . may In this case, the portion corresponding to the IP and its surrounding portion (for example, a portion of the IP outer region image or at least a portion of the overlapping partial image 120) are determined as the cutout image 151 in the entire image during light emission.

切出処理において、画像処理部81は、IP反射光像を含む消去時全体像において切り出す対象の切出像(第2切出像ともいう)をIP傾き角度及びIPサイズに基づいて決定し、決定した第2切出像を消去時全体像から切り出してもよい。この場合、画像処理部81は、消去時全体像のIP相当部分(言い換えればIP反射光像)の少なくとも一部を第2切出像として決定してもよい。また、画像処理部81は、消去時全体像に重なり部分220の像が含まれる場合には、第2切出像が重なり部分220の像を含まないように第2切出像を決定してもよい。また、表示制御部82は、消去時全体像から切り出された第2切出像を表示部3に表示させてもよい。この場合、表示部3は、第2切出像と、発光時全体像から切り出された切出像(第1切出像ともいう)151とを、同時にかつ別々に表示してもよい。また、画像処理部81は、IP傾き角度に基づいて、切り出した第2切出像の傾きを補正してもよい。また、表示制御部82は、傾きが補正された第2切出像を表示部3に表示させてもよい。この場合、表示部3は、傾きが補正された第2切出像と、傾きが補正された第1切出像とを同時にかつ別々に表示してもよい。 In the clipping process, the image processing unit 81 determines a clipped image (also referred to as a second clipped image) to be clipped from the whole image at erasure including the IP reflected light image based on the IP tilt angle and the IP size, The determined second cropped image may be cropped from the erased whole image. In this case, the image processing unit 81 may determine at least a portion of the IP-corresponding portion (in other words, IP reflected light image) of the erased entire image as the second cut-out image. Further, when the image of the overlapping portion 220 is included in the erased whole image, the image processing section 81 determines the second cut-out image so that the image of the overlapping portion 220 is not included in the second cut-out image. good too. Further, the display control unit 82 may cause the display unit 3 to display a second clipped image clipped from the entire image at the time of erasure. In this case, the display unit 3 may simultaneously and separately display the second cut-out image and the cut-out image (also referred to as the first cut-out image) 151 cut out from the whole image at the time of light emission. Further, the image processing unit 81 may correct the tilt of the second cropped image based on the IP tilt angle. Further, the display control unit 82 may cause the display unit 3 to display the second cropped image whose tilt has been corrected. In this case, the display unit 3 may display the tilt-corrected second cut-out image and the tilt-corrected first cut-out image simultaneously and separately.

なお、イメージングプレート10が基準姿勢からほとんど傾くことがない場合には、画像処理部81は、IP傾き角度を用いずに、IPサイズに基づいて第1切出像及び第2切出像を決定してもよい。この場合、切出処理では、IP傾き角度に応じて切出枠を回転させる処理が不要となる。以後、切出像を表示することには、傾きが補正された切出像を表示することも含まれる。 Note that when the imaging plate 10 hardly tilts from the reference posture, the image processing unit 81 determines the first cutout image and the second cutout image based on the IP size without using the IP tilt angle. You may In this case, in the clipping process, the process of rotating the clipping frame according to the IP tilt angle is not required. Henceforth, displaying a cut-out image also includes displaying a cut-out image whose tilt has been corrected.

<未露光領域像の特定について>
画像処理部81は、第1切出像151での未露光領域像あるいは発光時全体像での未露光領域像を特定する未露光特定処理を行ってもよい。未露光特定処理は、図14の一連の処理の中で実行されてもよいし、図14の処理とは別のタイミングで実行されてもよい。また、未露光特定処理は、図24の一連の処理の中で実行されてもよいし、図24の処理とは別のタイミングで実行されてもよい。画像処理部81は、未露光領域像を特定する特定部として機能する。
<Specification of unexposed area image>
The image processing unit 81 may perform an unexposed identification process of identifying an unexposed area image in the first cut-out image 151 or an unexposed area image in the entire image during light emission. The unexposed identification process may be executed during the series of processes in FIG. 14, or may be executed at a timing different from the process in FIG. Also, the unexposed identification process may be executed during the series of processes in FIG. 24, or may be executed at a timing different from the process in FIG. The image processing unit 81 functions as a specifying unit that specifies an unexposed area image.

画像処理部81は、図37及び43等の例のように、IP相当部分の少なくとも一部を第1切出像151に設定した場合、未露光特定処理において、例えば、第1切出像151を二値化して得られる二値化像を生成する。ここで、上述の図32及び34のように、反転後発光時全体像100bから切り出された第1切出像151を反転後第1切出像151と呼ぶ。また、上述の図43及び46のように、反転前発光時全体像100aから切り出された第1切出像151を反転前第1切出像151と呼ぶ。 When at least part of the IP corresponding portion is set to the first cut-out image 151 as in the examples of FIGS. is binarized to generate a binarized image. Here, as shown in FIGS. 32 and 34, the first cut-out image 151 cut out from the whole image 100b at the time of light emission after reversal is referred to as the first cut-out image 151 after reversal. 43 and 46, the first cutout image 151 cut out from the whole image 100a during light emission before reversal is referred to as the first cutout image 151 before reversal.

反転前第1切出像151の二値化で使用するしきい値は、例えば、反転前第1切出像151に含まれる放射線像の最小輝度値よりも小さく、かつ反転前第1切出像151に含まれる未露光領域像の輝度値よりも大きい値に設定される。例えば、反転前第1切出像151に含まれる放射線像の最小輝度値が10000とし、反転前第1切出像151に含まれる未露光領域像の輝度値が3000である場合を考える。この場合、しきい値は、例えば5000に設定される。これにより、IP相当部分の少なくとも一部である反転前第1切出像151の二値化像では、未露光領域像に相当する部分が低輝度領域となり、放射線像に相当する部分が高輝度領域となる。画像処理部81は、反転前第1切出像151の二値化像での低輝度領域を特定することによって、反転前第1切出像151での未露光領域像を適切に特定することができる。なお、イメージングプレート10に未露光部分が含まれない場合には、反転前第1切出像151の二値化像には低輝度領域は含まれない。 The threshold used in the binarization of the pre-inversion first cutout image 151 is, for example, smaller than the minimum luminance value of the radiation image included in the pre-inversion first cutout image 151 and It is set to a value greater than the luminance value of the unexposed area image included in the image 151 . For example, consider a case where the minimum luminance value of the radiation image included in the first cutout image 151 before inversion is 10000 and the luminance value of the unexposed area image included in the first cutout image 151 before inversion is 3000. FIG. In this case, the threshold is set to 5000, for example. As a result, in the binarized image of the pre-reversal first cutout image 151, which is at least a part of the IP corresponding portion, the portion corresponding to the unexposed area image becomes a low-luminance region, and the portion corresponding to the radiation image becomes a high-luminance region. area. The image processing unit 81 appropriately specifies the unexposed area image in the first cut-out image 151 before inversion by specifying the low-luminance region in the binarized image of the first cut-out image 151 before inversion. can be done. Note that when the imaging plate 10 does not include an unexposed portion, the binarized image of the pre-inversion first cutout image 151 does not include a low luminance region.

また、反転後第1切出像151の二値化で使用するしきい値は、例えば、反転後第1切出像151に含まれる放射線像の最大輝度値よりも大きく、かつ反転後第1切出像151に含まれる未露光領域像の輝度値よりも小さい値に設定される。これにより、IP相当部分の少なくとも一部である反転後第1切出像151の二値化像では、未露光領域像に相当する部分が高輝度領域となり、放射線像に相当する部分が低輝度領域となる。画像処理部81は、反転後第1切出像151の二値化像での高輝度領域を特定することによって、反転後第1切出像151での未露光領域像を適切に特定することができる。 In addition, the threshold value used in the binarization of the post-reversal first cut-out image 151 is, for example, greater than the maximum luminance value of the radiation image included in the post-reversal first cut-out image 151 and It is set to a value smaller than the luminance value of the unexposed area image included in the cutout image 151 . As a result, in the binarized image of the post-reversal first cutout image 151, which is at least part of the IP-corresponding portion, the portion corresponding to the unexposed area image becomes a high-brightness region, and the portion corresponding to the radiation image becomes a low-brightness region. area. The image processing unit 81 appropriately specifies the unexposed area image in the post-inversion first cut-out image 151 by specifying the high-brightness region in the binarized image of the post-inversion first cut-out image 151. can be done.

このように、画像処理部81は、発光時全体像からIP相当部分の少なくとも一部を第1切出像151として切り出した場合、第1切出像151での未露光領域像を適切に特定することができる。 In this way, when the image processing unit 81 cuts out at least part of the IP-corresponding portion as the first cut-out image 151 from the entire image during light emission, the image processing unit 81 appropriately specifies the unexposed area image in the first cut-out image 151. can do.

未露光特定処理において、画像処理部81は、IP外側領域像及び重なり部分像120の少なくとも一方を含む第1切出像151での未露光領域像を特定してもよい。この場合、画像処理部81は、第1切出像151を三値化して三値化像を生成する。以後、IP外側領域像及び重なり部分像120を特に区別する必要がない場合には、それぞれを低反射領域像と呼ぶことがある。 In the unexposed identification process, the image processing section 81 may identify an unexposed area image in the first cut-out image 151 including at least one of the IP outer area image and the overlapping partial image 120 . In this case, the image processing unit 81 ternarizes the first cut-out image 151 to generate a ternarized image. Hereinafter, when there is no particular need to distinguish between the IP outer area image and the overlapping partial image 120, they may be referred to as low-reflection area images.

画像処理部81は、まず、第1切出像151を構成する複数の画素のそれぞれの輝度値と、予め設定された下側しきい値と上側しきい値とを比較する。上側しきい値は下側しきい値よりも大きい値である。画像処理部81は、第1切出像151を構成する複数の画素のそれぞれの輝度値について、下側しきい値未満の輝度値を第1の値に置き換え、下側しきい値以上上側しきい値未満の輝度値を第2の値に置き換え、上側しきい値以上の輝度値を第3の値に置き換える。ここで、第3の値は第2の値よりも大きく、第2の値は第1の値よりも大きい。これにより、第1切出像151が三値化されて三値化像が得られる。以後、三値化像において、輝度値が第3の値である領域を高輝度領域と呼び、輝度値が第2の値である領域を中輝度領域と呼び、輝度値が第1の値である領域を低輝度領域と呼ぶことがある。 The image processing unit 81 first compares the luminance value of each of the plurality of pixels forming the first cut-out image 151 with preset lower and upper threshold values. The upper threshold is a value greater than the lower threshold. The image processing unit 81 replaces the luminance values of each of the plurality of pixels forming the first cut-out image 151 with the first value if the luminance values are less than the lower threshold value, and increases the luminance values above the lower threshold value. Luminance values below the threshold are replaced with a second value, and luminance values above the upper threshold are replaced with a third value. Here, the third value is greater than the second value, and the second value is greater than the first value. As a result, the first cut-out image 151 is ternarized to obtain a ternarized image. Hereinafter, in a ternary image, an area having a luminance value of the third value will be referred to as a high luminance area, an area having a luminance value of the second value will be referred to as an intermediate luminance area, and an area having a luminance value of the first value will be referred to as a medium luminance area. A certain area is sometimes called a low luminance area.

反転前第1切出像151の三値化で使用される下側第1しきい値は、例えば、反転前第1切出像151に含まれる低反射領域像の輝度値よりも大きく、かつ反転前第1切出像151に含まれる未露光領域像の輝度値よりも小さい値に設定される。反転前第1切出像151の三値化で使用される上側しきい値は、例えば、反転前第1切出像151に含まれる未露光領域像の輝度値よりも大きく、かつ反転前第1切出像151に含まれる放射線像の最小輝度値よりも小さい値に設定される。例えば、反転前第1切出像151に含まれる放射線像の最小輝度値が10000、反転前第1切出像151に含まれる未露光領域像の輝度値が3000、反転前第1切出像151に含まれる低反射領域像の輝度値が1000である場合を考える。この場合、下側しきい値は例えば2000に設定され、上側しきい値は例えば5000に設定される。これにより、反転前第1切出像151の三値化像では、低反射領域像に相当する部分が低輝度領域となり、未露光領域像に相当する部分が中輝度領域となり、放射線像に相当する部分が高輝度領域となる。画像処理部81は、反転前第1切出像151の三値化像での中輝度領域を特定することによって、反転前第1切出像151での未露光領域像を適切に特定することができる。なお、イメージングプレート10に未露光部分が含まれない場合には、反転前第1切出像151の三値化像には、中輝度領域は含まれない。 The lower first threshold value used in the ternarization of the pre-inversion first cutout image 151 is, for example, greater than the luminance value of the low-reflection area image included in the pre-inversion first cutout image 151, and It is set to a value smaller than the luminance value of the unexposed area image included in the first cut-out image 151 before inversion. The upper threshold value used in the ternarization of the pre-inversion first cut-out image 151 is, for example, greater than the luminance value of the unexposed area image included in the pre-inversion first cut-out image 151 and It is set to a value smaller than the minimum luminance value of the radiographic image included in one cut-out image 151 . For example, the minimum luminance value of the radiation image included in the first cut-out image before reversal 151 is 10000, the luminance value of the unexposed area image included in the first cut-out image before reversal 151 is 3000, and the first cut-out image before reversal is 10000. Consider a case where the luminance value of the low-reflection area image included in 151 is 1000. FIG. In this case, the lower threshold is set to 2000, for example, and the upper threshold is set to 5000, for example. As a result, in the ternary image of the first cut-out image 151 before reversal, the portion corresponding to the low-reflection area image becomes a low-luminance area, and the portion corresponding to the unexposed area image becomes a medium-luminance area, which corresponds to a radiation image. The area where the brightness is high is the high brightness area. The image processing unit 81 appropriately specifies an unexposed area image in the first cut-out image 151 before inversion by specifying a medium luminance region in the ternary image of the first cut-out image 151 before inversion. can be done. Note that when the imaging plate 10 does not include an unexposed portion, the ternary image of the first cut-out image 151 before inversion does not include the intermediate luminance region.

反転後第1切出像151の三値化で使用される下限しきい値は、例えば、反転後第1切出像151に含まれる放射線像の最大輝度値よりも大きく、かつ反転後第1切出像151に含まれる未露光領域像の輝度値よりも小さい値に設定される。反転後第1切出像151の三値化で使用される上限しきい値は、例えば、反転後第1切出像151に含まれる未露光領域像の輝度値よりも大きく、かつ反転後第1切出像151に含まれる低反射領域像の輝度値よりも小さい値に設定される。これにより、反転後第1切出像151の三値化像では、低反射領域像に相当する部分が高輝度領域となり、未露光領域像に相当する部分が中輝度領域となり、放射線像に相当する部分が低輝度領域となる。画像処理部81は、反転後第1切出像151の三値化像での中輝度領域を特定することによって、反転後第1切出像151での未露光領域像を適切に特定することができる。 The lower limit threshold used in the ternarization of the post-reversal first cutout image 151 is, for example, greater than the maximum luminance value of the radiation image included in the post-reversal first cutout image 151 and It is set to a value smaller than the luminance value of the unexposed area image included in the cutout image 151 . The upper threshold value used in the ternarization of the post-reversal first cut-out image 151 is, for example, greater than the luminance value of the unexposed area image included in the post-reversal first cut-out image 151, It is set to a value smaller than the luminance value of the low-reflection area image included in one cut-out image 151 . As a result, in the ternary image of the first cut-out image 151 after reversal, the portion corresponding to the low-reflection area image becomes a high-brightness area, and the portion corresponding to the unexposed area image becomes a medium-brightness area, which corresponds to a radiation image. The area where the The image processing unit 81 appropriately specifies an unexposed area image in the post-inversion first cut-out image 151 by specifying a medium luminance region in the ternary image of the post-inversion first cut-out image 151. can be done.

このように、画像処理部81は、低反射領域像を含む第1切出像151での未露光領域像を適切に特定することができる。 In this manner, the image processing section 81 can appropriately identify the unexposed area image in the first cut-out image 151 including the low-reflection area image.

未露光特定処理において、画像処理部81は、発光時全体像での未露光領域像を特定してもよい。この場合、画像処理部81は、低反射領域像を含む第1切出像151での未露光領域像を特定する場合と同様にして、発光時全体像を三値化して三値化像を生成する。反転前発光時全体像100aの三値化で使用される下限しきい値及び上限しきい値は、反転前第1切出像151の三値化で使用される下限しきい値及び上限しきい値と同様に設定される。画像処理部81は、反転前発光時全体像100aの三値化像での中輝度領域を特定することによって、反転前発光時全体像100aでの未露光領域像を適切に特定することができる。また、反転後発光時全体像100bの三値化で使用される下限しきい値及び上限しきい値は、反転後第1切出像151の三値化で使用される下限しきい値及び上限しきい値と同様に設定される。画像処理部81は、反転後発光時全体像100bの三値化像での中輝度領域を特定することによって、反転後発光時全体像100bでの未露光領域像を適切に特定することができる。 In the unexposed identification process, the image processing unit 81 may identify an unexposed area image in the entire image during light emission. In this case, the image processing unit 81 ternarizes the entire image during light emission to produce a ternarized image in the same manner as when specifying the unexposed area image in the first cut-out image 151 including the low-reflection area image. Generate. The lower threshold value and upper threshold value used in the ternarization of the pre-reversal luminous whole image 100a are the same as the lower threshold value and the upper threshold value used in the ternarization of the pre-reversal first cropped image 151. It is set in the same way as the value. The image processing unit 81 can appropriately specify an unexposed area image in the whole image 100a when emitting light before inversion by specifying a medium luminance area in the ternary image of the whole image 100a when emitting light before inversion. . In addition, the lower limit threshold and upper limit threshold used for ternarizing the post-reversal light emission entire image 100b are the same as the lower limit threshold and upper limit threshold used for ternarizing the post-reversal first cropped image 151. It is set similarly to the threshold. The image processing unit 81 can appropriately specify the unexposed area image in the post-reversal light emission overall image 100b by specifying the intermediate luminance region in the ternary image of the post-reversal light emission overall image 100b. .

画像処理部81が、第1切出像151あるいは発光時全体像において未露光領域像を特定した場合、表示制御部82は、第1切出像151あるいは発光時全体像において未露光領域像が存在することを通知する未露光通知情報161を表示部3に表示させてもよい。これにより、ユーザは、第1切出像151あるいは発光時全体像において未露光領域像が存在することを容易に認識することができる。よって、ユーザは、イメージングプレート10に未露光部分が含まれていることを容易に認識することができる。 When the image processing unit 81 specifies an unexposed area image in the first cut-out image 151 or the whole image when emitting light, the display control unit 82 determines whether the unexposed area image is in the first cut-out image 151 or the whole image when emitting light. The display unit 3 may display the unexposed notification information 161 that notifies the presence. This allows the user to easily recognize that there is an unexposed area image in the first cut-out image 151 or the whole image at the time of emission. Therefore, the user can easily recognize that the imaging plate 10 includes an unexposed portion.

図48及び49は、未露光通知情報161の表示例を示す概略図である。図48の例では、放射線像151a及び未露光領域像151bを含む第1切出像151と未露光通知情報161とが表示部3の表示面3aに表示されている。図49の例では、反転後発光時全体像100bと未露光通知情報161とが表示面3aに表示されている。図48の例では、未露光領域像151bの範囲を縁取る縁取り線1510が、第1切出像151において未露光領域像151bが存在することを通知する未露光通知情報161として表示されている。同様に、図49の例では、未露光領域像103bの範囲を縁取る縁取り線1030が、反転後発光時全体像100bにおいて未露光領域像103bが存在することを通知する未露光通知情報161として表示されている。縁取り線1510及び1030は、少なくとも一色でカラー表示されてもよい。 48 and 49 are schematic diagrams showing display examples of the non-exposure notification information 161. FIG. In the example of FIG. 48 , a first cut-out image 151 including a radiation image 151 a and an unexposed area image 151 b and unexposed notification information 161 are displayed on the display surface 3 a of the display section 3 . In the example of FIG. 49, the entire image 100b at the time of light emission after reversal and the non-exposure notification information 161 are displayed on the display surface 3a. In the example of FIG. 48, a fringing line 1510 bordering the range of the unexposed area image 151b is displayed as the unexposed notification information 161 for notifying that the unexposed area image 151b exists in the first cut-out image 151. . Similarly, in the example of FIG. 49, a border line 1030 bordering the range of the unexposed area image 103b is used as the unexposed notification information 161 for notifying that the unexposed area image 103b exists in the post-reversal light emitting overall image 100b. is displayed. Border lines 1510 and 1030 may be colored in at least one color.

未露光通知情報161は図48及び49の例には限られない。例えば、未露光領域像に対して付された斜線等のハッチングが未露光通知情報161として表示されてもよい。また、未露光領域像が少なくとも一色でカラー表示されることによって、未露光通知情報161が表示されてもよい。 The non-exposure notification information 161 is not limited to the examples in FIGS. For example, hatching such as oblique lines attached to the unexposed area image may be displayed as the unexposed notification information 161 . Further, the unexposed notification information 161 may be displayed by displaying the unexposed area image in at least one color.

また、図50に示されるように、第1切出像151を取り囲む枠状図形1511が未露光通知情報161として表示されてもよい。図50の例では、説明の便宜上、枠状図形1511にハッチングが示されているが、枠状図形1511にはハッチングが示されなくてもよいし、ハッチングが示されてもよい。また、枠状図形1511は、少なくとも一色でカラー表示されてもよい。同様に、発光時全体像において未露光領域像が特定された場合、当該発光時全体像を取り囲む枠状図形が未露光通知情報161として表示されてもよい。また、未露光通知情報161は文字及び記号の少なくとも一方で表示されてもよい。 Further, as shown in FIG. 50 , a frame-shaped figure 1511 surrounding the first cut-out image 151 may be displayed as the non-exposure notification information 161 . In the example of FIG. 50, the frame-shaped figure 1511 is hatched for convenience of explanation, but the frame-shaped figure 1511 may not be hatched or may be hatched. Also, the frame-shaped figure 1511 may be displayed in at least one color. Similarly, when an unexposed area image is identified in the entire image during light emission, a frame-shaped figure surrounding the overall image during light emission may be displayed as the unexposed notification information 161 . Also, the non-exposure notification information 161 may be displayed in at least one of characters and symbols.

なお、第1切出像151あるいは発光時全体像に未露光領域像が含まれない場合、つまり、画像処理部81が第1切出像151あるいは発光時全体像において未露光領域像を特定しなかった場合、表示制御部82は、第1切出像151あるいは発光時全体像において未露光領域像が存在しないことを通知する通知情報162を表示部3に表示させてもよい。これにより、ユーザは、イメージングプレート10に未露光部分が含まれていないことを容易に認識することができる。 If the first cut-out image 151 or the entire image during emission does not include the unexposed area image, that is, the image processing unit 81 specifies the unexposed area image in the first cut-out image 151 or the entire image during emission. If not, the display control unit 82 may cause the display unit 3 to display notification information 162 that notifies that there is no unexposed area image in the first cut-out image 151 or the whole image at the time of emission. Thereby, the user can easily recognize that the imaging plate 10 does not include an unexposed portion.

図51は、通知情報162の表示例を示す概略図である。図51には、第1切出像151に未露光領域像が存在しないことを通知する通知情報162の表示例が示されている。図51の例では、未露光領域像を含まない第1切出像151を取り囲む枠状図形1512が通知情報162として表示されている。図51の例では、説明の便宜上、枠状図形1512にハッチングが示されているが、枠状図形1512にはハッチングが示されなくてもよいし、ハッチングが示されてもよい。また、枠状図形1512は、少なくとも一色でカラー表示されてもよい。未露光通知情報161として図50の枠状図形1511が表示される場合には、未露光通知情報161としての枠状図形1511と、通知情報162としての枠状図形1512とは、互いに異なる態様で表示される。このとき、枠状図形1511と枠状図形1512は、互いに異なる色で表示されてもよい。また、枠状図形1511と枠状図形1512には、互いに異なるハッチングが示されてもよい。同様に、発光時全体像において未露光領域像が存在しない場合、当該発光時全体像を取り囲む枠状図形が通知情報162として表示されてもよい。また、通知情報162は文字及び記号の少なくとも一方で表示されてもよい。 FIG. 51 is a schematic diagram showing a display example of the notification information 162. As shown in FIG. FIG. 51 shows a display example of notification information 162 that notifies that there is no unexposed area image in the first cut-out image 151 . In the example of FIG. 51 , a frame-shaped figure 1512 surrounding the first cut-out image 151 that does not include the unexposed area image is displayed as the notification information 162 . In the example of FIG. 51, the frame-shaped figure 1512 is hatched for convenience of explanation, but the frame-shaped figure 1512 may not be hatched or may be hatched. Also, the frame-shaped figure 1512 may be displayed in at least one color. When the frame-shaped figure 1511 of FIG. 50 is displayed as the unexposed notification information 161, the frame-shaped figure 1511 as the unexposed notification information 161 and the frame-shaped figure 1512 as the notification information 162 are different from each other. Is displayed. At this time, the frame-shaped figure 1511 and the frame-shaped figure 1512 may be displayed in different colors. In addition, the frame-shaped figure 1511 and the frame-shaped figure 1512 may have different hatching. Similarly, when an unexposed area image does not exist in the whole image when the light is emitted, a frame-shaped figure surrounding the whole image when the light is emitted may be displayed as the notification information 162 . Also, the notification information 162 may be displayed using at least one of characters and symbols.

表示制御部82は、上述の図35に示されるように、第1切出像151と消去時全体像200とを同時にかつ別々に表示部3に表示させる場合であって、第1切出像151に未露光領域像が含まれる場合、図52に示されるように未露光通知情報161も一緒に表示部3に表示させてもよい。このとき、消去時全体像200の代わりに第2切出像が表示されてもよい。また、表示制御部82は、上述の図27に示されるように、発光時全体像と消去時全体像200とを同時にかつ別々に表示部3に表示させる場合であって、発光時全体像に未露光領域像が含まれる場合には、図53に示されるように未露光通知情報161も一緒に表示部3に表示させてもよい。このとき、消去時全体像200の代わりに第2切出像が表示されてもよい。 As shown in FIG. 35, the display control unit 82 causes the display unit 3 to simultaneously and separately display the first cut-out image 151 and the erased whole image 200. In this case, the first cut-out image When the unexposed area image is included in 151, the unexposed notification information 161 may be displayed together on the display unit 3 as shown in FIG. At this time, the second cropped image may be displayed instead of the erased whole image 200 . Further, as shown in FIG. 27 described above, the display control unit 82 causes the display unit 3 to simultaneously and separately display the entire image at the time of light emission and the overall image at the time of erasure 200. When an unexposed area image is included, unexposed notification information 161 may be displayed together on the display unit 3 as shown in FIG. At this time, the second cropped image may be displayed instead of the erased whole image 200 .

また、表示制御部82は、未露光領域像を含まない第1切出像151と消去時全体像200とを同時にかつ別々に表示部3に表示させる場合には、通知情報162も一緒に表示部3に表示させてもよい。このとき、消去時全体像200の代わりに第2切出像が表示されてもよい。同様に、表示制御部82は、未露光領域像を含まない発光時全体像と消去時全体像200とを同時にかつ別々に表示部3に表示させる場合には、通知情報162も一緒に表示部3に表示させてもよい。このとき、消去時全体像200の代わりに第2切出像が表示されてもよい。 In addition, when the display control unit 82 causes the display unit 3 to simultaneously and separately display the first cut-out image 151 not including the unexposed area image and the erased whole image 200, the notification information 162 is also displayed together. You may make it display on part 3. At this time, the second cropped image may be displayed instead of the erased whole image 200 . Similarly, when the display control unit 82 causes the display unit 3 to simultaneously and separately display the whole image at the time of emission and the whole image at the time of erasure 200, which do not include the unexposed area image, the notification information 162 is also displayed on the display unit. 3 may be displayed. At this time, the second cropped image may be displayed instead of the erased whole image 200 .

以上のように、本例に係る検出器40は、イメージングプレート10からの発光光L2だけではなく、イメージングプレート10からの励起光L1の反射光もある程度検出することができる。そのため、読取装置1は、発光光L2の検出に基づく放射線像と、反射光の検出に基づく反射光像(例えば未露光領域像など)とを得ることができる。よって、読取装置1の利便性が向上する。 As described above, the detector 40 according to this example can detect not only the emitted light L2 from the imaging plate 10 but also the reflected light of the excitation light L1 from the imaging plate 10 to some extent. Therefore, the reader 1 can obtain a radiation image based on detection of the emitted light L2 and a reflected light image (for example, an unexposed area image) based on detection of reflected light. Therefore, the convenience of the reading device 1 is improved.

例えば、読取装置1は、イメージングプレート10からの発光光L2の検出に基づく放射線像と、イメージングプレート10からの反射光の検出に基づく反射光像とを含む発光時全体像に基づいて、上述のように、IPサイズを適切に特定したり、IP傾き角度を適切に特定したりすることができる。 For example, the reading device 1 reads the above-described whole image at the time of emission including a radiographic image based on detection of the emitted light L2 from the imaging plate 10 and a reflected light image based on detection of the reflected light from the imaging plate 10. , the IP size can be appropriately specified, and the IP tilt angle can be specified appropriately.

また例えば、読取装置1は、上述の図26,27,35,52,53等に示されるように、イメージングプレート10からの発光光L2の検出に基づく放射線像と、イメージングプレート10からの反射光の検出に基づく反射光像とを同時にかつ別々に表示することによって、ユーザは、イメージングプレート10から読み取られた放射線像とイメージングプレート10の外観とを簡単に見比べることができる。これにより、ユーザは、例えば、イメージングプレート10に未露光部分が含まれていることを容易に特定することができる。 Further, for example, as shown in FIGS. By simultaneously and separately displaying the reflected light image based on the detection of , the user can easily compare the radiation image read from the imaging plate 10 and the appearance of the imaging plate 10 . Thereby, the user can easily specify, for example, that the imaging plate 10 includes an unexposed portion.

また、IP反射光像が表示される場合、ユーザは、IP反射光像の表示に基づいて、例えば、イメージングプレート10が、通常とは逆の裏向きに読取装置1に入れられて表裏逆にセットされたことを特定することができる。前述のように、イメージングプレート10の放射線像形成層11を設けた側の面を前面とし、前面の裏側の放射線像形成層11を設けない面を裏面とする。本例では、ユーザは、イメージングプレート10を、読取装置1に対して、原則表向きに入れるが、間違って裏向きに入れることもある。イメージングプレート10が表向きで入れられて正しくセットされた場合、保持部20の支持板21は、上述のように、イメージングプレート10の裏面を支持する。よって、上述のように、励起光L1は、イメージングプレート10の前面に、言い換えれば、イメージングプレート10の放射線像形成層11に正しく照射される。一方で、イメージングプレート10が誤って裏向き入れられて表裏逆にセットされた場合、支持板21はイメージングプレート10の前面、つまりイメージングプレート10の放射線像形成層11を支持することになる。よって、励起光L1は、イメージングプレート10の裏面に照射される。そして、検出器40は、イメージングプレート10の裏面及びIP外側領域R130からの励起光L1の反射光を検出し、その検出結果としての画像信号を出力する。 In addition, when the IP reflected light image is displayed, the user, for example, inserts the imaging plate 10 into the reading device 1 in the opposite direction to the normal side and turns it upside down based on the display of the IP reflected light image. It can be specified that it has been set. As described above, the surface of the imaging plate 10 on which the radiation image forming layer 11 is provided is the front surface, and the back surface of the imaging plate 10 on which the radiation image forming layer 11 is not provided is the back surface. In this example, the user puts the imaging plate 10 into the reading device 1 face up in principle, but may put it face down by mistake. When the imaging plate 10 is inserted face up and set correctly, the support plate 21 of the holding section 20 supports the back surface of the imaging plate 10 as described above. Therefore, as described above, the excitation light L1 is correctly applied to the front surface of the imaging plate 10 , in other words, the radiation image forming layer 11 of the imaging plate 10 . On the other hand, if the imaging plate 10 is erroneously inserted face down and set upside down, the support plate 21 will support the front surface of the imaging plate 10 , that is, the radiation image forming layer 11 of the imaging plate 10 . Therefore, the back surface of the imaging plate 10 is irradiated with the excitation light L1. The detector 40 detects reflected light of the excitation light L1 from the back surface of the imaging plate 10 and the IP outer region R130, and outputs an image signal as the detection result.

以後、イメージングプレート10が裏向きで読取装置1に入れられて表裏逆にセットされた場合のイメージングプレート10からの光の検出結果としての画像信号を裏投入時画像信号と呼ぶ。本実施形態では、イメージングプレート10からの反射光の検出結果として裏投入時画像信号を得る。また、裏投入時画像信号に基づく全体の像を裏投入時全体像と呼ぶ。裏投入時全体像には、放射線像が含まれず、例えば、イメージングプレート10の裏面が写るIP反射光像とIP外側領域像とが含まれる。また、支持板21がイメージングプレート10の前面を支持することを前面支持と呼び、支持板21がイメージングプレート10の裏面を支持することを裏面支持と呼ぶことがある。前面支持はイメージングプレート10の裏向きセットとなり、裏面支持はイメージングプレート10の表向きセットとなる。また、イメージングプレート10の裏向きセットの行為を裏投入と呼び、表向きセットの行為を表投入と呼ぶこととする。 Hereinafter, an image signal obtained as a result of detection of light from the imaging plate 10 when the imaging plate 10 is inserted into the reading device 1 upside down and set upside down is referred to as a back-up image signal. In this embodiment, an image signal at the time of reverse insertion is obtained as a result of detection of reflected light from the imaging plate 10 . Further, the overall image based on the back-up image signal is called a back-up overall image. The back-throwing overall image does not include a radiation image, but includes, for example, an IP reflected light image showing the back surface of the imaging plate 10 and an IP outer area image. Supporting the front surface of the imaging plate 10 by the support plate 21 is sometimes referred to as front support, and supporting the back surface of the imaging plate 10 by the support plate 21 is sometimes referred to as back support. The front support is the set of imaging plates 10 facing down, and the back support is the set of imaging plates 10 facing front. Also, the act of setting the imaging plate 10 face down is called back throwing, and the act of setting it face up is called face throwing.

上記の説明では、読取装置1に対して、イメージングプレート10が常に表向きで入れられて正しくセットされているものとしている。つまり、上記の説明では、イメージングプレート10が常に裏面支持されるものとしている。したがって、図14の処理の上記の説明では、ステップs2において放射線像を含む発光時全体像が得られて、ステップs7において放射線像を含む発光時全体像が表示されるという内容となっている。しかしながら、イメージングプレート10が読取装置1に対して裏向きで入れられた場合には、ステップs2で得られる取得全体像、言い換えればステップs2において検出器40が出力する画像信号に基づく全体の像は、イメージングプレート10の裏面が写る裏投入時全体像となる。つまり、ステップs2では、放射線像を含む発光時全体像ではなく、放射線像を含まない裏投入時全体像が得られる。したがって、イメージングプレート10が読取装置1に対して裏向きで入れられた場合、ステップs7では裏投入時全体像が表示される。ステップs2での読取処理では、イメージングプレート10が正しくセットされている場合には、イメージングプレート10から放射線像が読み取られ、イメージングプレート10が表裏逆にセットされている場合には、イメージングプレート10の裏面が写る裏投入時全体像が得られる。 In the above description, it is assumed that the imaging plate 10 is always inserted into the reading device 1 with its face up and set correctly. That is, in the above description, the imaging plate 10 is always supported on the back side. Therefore, in the above description of the process of FIG. 14, the whole image including the radiation image is obtained in step s2, and the whole image including the radiation image is displayed in step s7. However, if the imaging plate 10 is inserted face down into the reader 1, the overall acquired image obtained in step s2, in other words based on the image signal output by the detector 40 in step s2, is , the back side of the imaging plate 10 becomes a whole image at the time of reverse insertion. In other words, in step s2, a back-throwing overall image without a radiation image is obtained instead of a luminous overall image including a radiation image. Therefore, when the imaging plate 10 is inserted face down into the reading device 1, the whole image at the time of inserting the face down is displayed in step s7. In the reading process in step s2, the radiation image is read from the imaging plate 10 if the imaging plate 10 is set correctly, and if the imaging plate 10 is set upside down, the image of the imaging plate 10 is read. A full image can be obtained when the reverse side is reflected.

同様に、イメージングプレート10が読取装置1に対して裏向きで入れられた場合、上記の図24の処理では、ステップs2において裏投入時全体像が得られ、ステップs22において得られる消去時全体像は裏投入時全体像となる。したがって、イメージングプレート10が読取装置1に対して裏向きで入れられた場合、ステップs27では、2つの裏投入時全体像が表示される。イメージングプレート10の裏面が写る裏投入時全体像も、消去済みイメージングプレート10が保持部20で保持されているときに得られる消去時全体像も、放射線像は含まず、反射光像だけで構成されている。 Similarly, when the imaging plate 10 is inserted face down into the reader 1, in the processing of FIG. becomes the whole image when it is turned on from the back. Therefore, if the imaging plate 10 is inserted face down into the reader 1, in step s27 two rear-entry overviews are displayed. Neither a radiation image is included in the entire image at the time of reverse insertion, in which the back surface of the imaging plate 10 is reflected, nor the overall image at the time of erasure, which is obtained when the erased imaging plate 10 is held by the holding unit 20, but is composed only of a reflected light image. It is

図54はイメージングプレート10の裏面10yの一例を示す概略図である。本例では、イメージングプレート10の裏面10yには、当該裏面10yに特有の情報(裏面特有情報ともいう)600が視認可能に示されている。イメージングプレート10の裏面10yには少なくとも一つの裏面特有情報600が示されてもよい。 FIG. 54 is a schematic diagram showing an example of the back surface 10y of the imaging plate 10. FIG. In this example, on the back surface 10y of the imaging plate 10, information specific to the back surface 10y (also referred to as back surface specific information) 600 is visibly displayed. At least one back side specific information 600 may be indicated on the back side 10y of the imaging plate 10 .

裏面特有情報600は、イメージングプレート10の前面には示されない情報であるとも言える。また、裏面特有情報600は、イメージングプレート10の裏面を識別するための裏面識別情報あるいは裏面識別子であるとも言える。また、裏面特有情報600は、それが示されている面がイメージングプレート10の裏面10yであることを示す情報であるともいえる。 It can also be said that the back side specific information 600 is information that is not shown on the front side of the imaging plate 10 . In addition, the back side specific information 600 can also be said to be back side identification information or a back side identifier for identifying the back side of the imaging plate 10 . In addition, it can be said that the back surface specific information 600 is information indicating that the surface on which it is indicated is the back surface 10 y of the imaging plate 10 .

図54の例では、イメージングプレート10の裏面には複数の裏面特有情報600が示されている。複数の裏面特有情報600には、例えば、イメージングプレート10のサイズの種類を示す文字600aと、イメージングプレート10の製造会社を示す文字600bと、バーコード600cと、バーコード600dとが含まれる。バーコード600cとバーコード600dとは、互いに同じであってもよいし、互いに異なっていてもよい。バーコード600c及び600dの少なくとも一方は、例えば、イメージングプレート10のシリアル番号を示してもよい。 In the example of FIG. 54, a plurality of pieces of back-surface specific information 600 are shown on the back surface of the imaging plate 10 . The plurality of back side specific information 600 includes, for example, characters 600a indicating the type of size of the imaging plate 10, characters 600b indicating the manufacturer of the imaging plate 10, barcodes 600c, and barcodes 600d. The barcode 600c and the barcode 600d may be the same or different. At least one of barcodes 600c and 600d may indicate the serial number of imaging plate 10, for example.

図55は、図54に示されるイメージングプレート10が表裏逆にセットされた場合に得られる裏投入時全体像に含まれるIP反射光像301の一例を示す概略図である。IP反射光像301には、図54に示されるイメージングプレート10の裏面10yが写っている。 FIG. 55 is a schematic diagram showing an example of an IP reflected light image 301 included in the back-throwing overall image obtained when the imaging plate 10 shown in FIG. 54 is set upside down. IP reflected light image 301 shows back surface 10y of imaging plate 10 shown in FIG.

図55に示されるIP反射光像301には、複数の裏面特有情報600の像302が含まれる。裏面特有情報600の像302は、裏面特有情報600の反射光像ともいえる。複数の像302には、例えば、イメージングプレート10のサイズの種類を示す文字600aの像302aと、イメージングプレート10の製造会社を示す文字600bの像302bと、バーコード600cの像302cと、バーコード600dの像302dとが含まれる。 An IP reflected light image 301 shown in FIG. 55 includes images 302 of a plurality of back surface specific information 600 . The image 302 of the back surface specific information 600 can also be said to be a reflected light image of the back surface specific information 600 . The plurality of images 302 include, for example, an image 302a of characters 600a indicating the type of size of the imaging plate 10, an image 302b of characters 600b indicating the manufacturer of the imaging plate 10, an image 302c of the barcode 600c, and a barcode. 600d image 302d.

なお、イメージングプレート10の縁部領域であるフリンジ領域が、放射線像を得るための画像処理の対象から外されることがある。このフリンジ領域に、例えば幅が極めて小さいバーコードなどの裏面特有情報600が示されてもよい。 Note that the fringe area, which is the edge area of the imaging plate 10, may be excluded from the image processing targets for obtaining the radiographic image. Back side specific information 600 may be shown in this fringe area, for example a very narrow bar code.

表示部3が裏投入時全体像を表示する場合、ユーザは、表示される裏投入時全体像に含まれるIP反射光像301に基づいて、イメージングプレート10が裏向きに読取装置1に入れられたこと、つまりイメージングプレート10が表裏逆にセットされたことを特定することができる。具体的には、ユーザは、表示されるIP反射光像301に含まれる、裏面特有情報600の像302(裏面特有像302ともいう)を認識することによって、イメージングプレート10が裏向きに読取装置1に入れられたこと、つまりイメージングプレート10が表裏逆にセットされたことを特定することができる。このようにして、ユーザは、イメージングプレート10が読取装置1に正しく挿入されなかったことを認識することができる。 When the display unit 3 displays the back-loaded whole image, the user inserts the imaging plate 10 face down into the reading device 1 based on the IP reflected light image 301 included in the displayed back-loaded whole image. That is, it can be specified that the imaging plate 10 has been set upside down. Specifically, the user recognizes the image 302 of the back surface specific information 600 (also referred to as the back surface specific image 302) included in the displayed IP reflected light image 301, so that the imaging plate 10 is turned face down by the reader. 1, that is, the imaging plate 10 is set upside down. In this way, the user can recognize that the imaging plate 10 has not been properly inserted into the reader 1 .

なお、見方を変えれば、ユーザは、表示部3に表示されるIP反射光像に、裏面特有像302が含まれないことを認識することによって、イメージングプレート10が正しく表向きに読取装置1に入れられたこと、つまりイメージングプレート10が正しくセットされたことを特定することができるともいえる。 From a different point of view, the user recognizes that the IP reflected light image displayed on the display unit 3 does not include the back surface specific image 302, so that the imaging plate 10 can be properly inserted into the reading device 1 with the front side up. It can also be said that it is possible to specify that the imaging plate 10 has been correctly set.

イメージングプレート10の裏面に示される裏面特有情報600は上記の限りではない。例えば、イメージングプレート10の裏面には、裏面特有情報600として二次元バーコードが示されてもよい。また、イメージングプレート10の裏面の四隅の少なくとも一つには、裏面特有情報600としての文字、記号あるいは図形が示されてもよい。また、イメージングプレート10の裏面には、イメージングプレート10の裏面を識別するためだけの必要最小限の裏面特有情報600が示されてもよい。 The back surface specific information 600 shown on the back surface of the imaging plate 10 is not limited to the above. For example, the back surface of the imaging plate 10 may have a two-dimensional barcode as the back surface specific information 600 . At least one of the four corners of the back surface of the imaging plate 10 may have characters, symbols, or graphics as the back surface specific information 600 . In addition, the minimum necessary back surface specific information 600 only for identifying the back surface of the imaging plate 10 may be indicated on the back surface of the imaging plate 10 .

画像処理部81は、消去時全体像から、IP反射光像の少なくとも一部を含む第2切出像を切り出す場合と同様に、裏投入時全体像から、IP反射光像301の少なくとも一部を切出像として切り出してもよい。この場合、表示制御部82は、裏投入時全体像から切り出されたIP反射光像301の少なくとも一部を表示部3に表示させてもよい。これにより、ユーザは、表示されるIP反射光像301の少なくとも一部に基づいて、イメージングプレート10が誤って裏向きに読取装置1に入れられたことを特定することができる。 The image processing unit 81 cuts out at least a part of the IP reflected light image 301 from the entire image at the time of turning on, similarly to the case where the second cutout image including at least part of the IP reflected light image is cut out from the whole image at the time of erasure. may be cut out as a cut-out image. In this case, the display control unit 82 may cause the display unit 3 to display at least a part of the IP reflected light image 301 cut out from the entire image at the time of back throw. Thereby, the user can identify that the imaging plate 10 has been mistakenly put into the reader 1 face down based on at least a part of the IP reflected light image 301 that is displayed.

上記の例では、イメージングプレート10が裏向きに読取装置1に入れられたことをユーザが特定するために、イメージングプレート10の裏面に示される裏面特有情報が使用されているが、イメージングプレート10の前面に示される、当該前面に特有の情報(前面特有情報ともいう)が使用されてもよい。イメージングプレート10の前面には、少なくとも一つの前面特有情報が視認可能に示されてもよい。前面特有情報は、イメージングプレート10の裏面には示されない情報であるとも言える。また、前面特有情報は、イメージングプレート10の前面を識別するための前面識別情報あるいは前面識別子であるとも言える。また、前面特有情報は、それが示されている面がイメージングプレート10の前面であることを示す情報であるともいえる。 In the above example, the back side-specific information shown on the back side of the imaging plate 10 is used for the user to identify that the imaging plate 10 has been placed face down into the reader 1, but the imaging plate 10 Information specific to the front surface (also referred to as front surface specific information) shown on the front surface may be used. At least one front surface specific information may be visibly indicated on the front surface of the imaging plate 10 . It can also be said that the front surface specific information is information that is not shown on the back surface of the imaging plate 10 . In addition, the front surface specific information can also be said to be front surface identification information or a front surface identifier for identifying the front surface of the imaging plate 10 . The front surface specific information can also be said to be information indicating that the surface on which it is indicated is the front surface of the imaging plate 10 .

イメージングプレート10が表向きで読取装置1に入れられてセットされた場合のイメージングプレート10からの光の検出結果としての画像信号を表投入時画像信号と呼んでよい。また、表投入時画像信号に基づく全体の像を表投入時全体像と呼んでよい。 An image signal obtained as a result of detection of light from the imaging plate 10 when the imaging plate 10 is inserted into the reading device 1 with the front facing up may be referred to as an image signal at the time of front loading. Further, the overall image based on the front-side-up image signal may be called the front-side-up overall image.

イメージングプレート10が読取装置1に入れられてセットされた場合のイメージングプレート10からの光の検出結果としての画像信号を投入時画像信号と呼んでよく、投入時画像信号に基づく全体の像を投入時全体像と呼んでよい。表投入時画像信号と裏投入時画像信号はそれぞれ投入時画像信号の例であり、表投入時全体像と裏投入時全体像はそれぞれ投入時全体像の例である。 An image signal obtained as a result of detection of light from the imaging plate 10 when the imaging plate 10 is inserted and set in the reading device 1 may be referred to as an input image signal, and an entire image based on the input image signal is input. You can call it the time big picture. The front-side input image signal and the rear-side input image signal are examples of the input-time image signal, and the front-side input overall image and the back-side input overall image are examples of the input overall image.

投入時画像信号を得るためにイメージングプレート10に照射する光は、必ずしも励起光L1でなくともよい。例えば、イメージングプレート10の裏面に励起の能力の無い光を照射して、反射光を検出して裏面特有情報600の像を得たならば裏面と判定するようにしてもよい。この場合、裏面判定をしない場合に、改めて励起光L1の照射による読取処理を開始するようにしてよい。 The light with which the imaging plate 10 is irradiated to obtain the input image signal does not necessarily have to be the excitation light L1. For example, the rear surface of the imaging plate 10 may be irradiated with light having no excitation capability, and the reflected light may be detected to obtain an image of the rear surface specific information 600, which may be determined as the rear surface. In this case, when the back surface determination is not performed, the reading process by irradiating the excitation light L1 may be started again.

図56は、前面特有情報1000が前面10xに示されたイメージングプレート10の一例を示す概略図である。図56の例では、イメージングプレート10の前面10xに一つの前面特有情報1000が示されている。前面特有情報1000は例えば文字である。前面特有情報1000は、イメージングプレート10の製造会社を示す文字、例えば、イメージングプレート10の製造会社の名前の頭文字であってもよい。 FIG. 56 is a schematic diagram showing an example of an imaging plate 10 with front surface specific information 1000 shown on the front surface 10x. In the example of FIG. 56, one piece of front surface specific information 1000 is shown on the front surface 10x of the imaging plate 10. FIG. The front face specific information 1000 is, for example, characters. The front-side specific information 1000 may be letters indicating the manufacturer of the imaging plate 10 , eg, initials of the name of the manufacturer of the imaging plate 10 .

イメージングプレート10の前面10xでは、放射線像形成層11が、前面特有情報1000を避けて設けられる。本例では、イメージングプレート10からの発光光L2及び反射光の検出に基づく発光時全体像には、前面特有情報1000の反射光像が含まれる。ユーザは、例えば、表示部3に表示される取得全体像あるいは切出像に、前面特有情報1000の像(つまり反射光像)が含まれないことを確認することによって、イメージングプレート10が誤って裏向きに読取装置1に入れられこと、つまりイメージングプレート10が表裏逆にセットされたことを特定することができる。また、ユーザは、表示部3に表示される取得全体像あるいは切出像に、前面特有情報1000の像が含まれることを確認することによって、イメージングプレート10が正しく表向きに読取装置1に入れられたこと、つまりイメージングプレート10が正しくセットされたことを特定することができる。 On the front surface 10x of the imaging plate 10, the radiation imaging layer 11 is provided avoiding the front surface specific information 1000. FIG. In this example, the reflected light image of the front surface specific information 1000 is included in the emitted light L2 from the imaging plate 10 and the whole image at the time of light emission based on the detection of the reflected light. The user, for example, confirms that the image of the front-surface-specific information 1000 (that is, the reflected light image) is not included in the acquired whole image or the cut-out image displayed on the display unit 3, so that the imaging plate 10 is mistakenly detected. It is possible to specify that the imaging plate 10 has been placed face down into the reader 1, that is, that the imaging plate 10 has been set upside down. Also, the user confirms that the image of the front-surface-specific information 1000 is included in the acquired whole image or the cut-out image displayed on the display unit 3, so that the imaging plate 10 can be inserted into the reading device 1 with the correct face up. That is, it can be specified that the imaging plate 10 has been set correctly.

なお、前面特有情報1000は図56の例に限られない。また、図57に示されるように、イメージングプレート10の前面10xには複数の前面特有情報1000が示されてもよい。図57の例では、イメージングプレート10の前面10xには、同じ2つの前面特有情報1000が示されているが、互いに異なる2つの前面特有情報1000が示されてもよい。また、イメージングプレート10の前面には、イメージングプレート10の前面10xを識別するためだけの必要最小限の前面特有情報1000が示されてもよい。また、イメージングプレート10の前面に前面特有情報1000が示されるとともに、イメージングプレート10の裏面に裏面特有情報が示されてもよい。 Note that the front surface specific information 1000 is not limited to the example in FIG. Also, as shown in FIG. 57, a plurality of front surface specific information 1000 may be indicated on the front surface 10x of the imaging plate 10. FIG. In the example of FIG. 57, the same two pieces of front surface-specific information 1000 are shown on the front surface 10x of the imaging plate 10, but two different pieces of front surface-specific information 1000 may be shown. Also, the front surface of the imaging plate 10 may display the minimum required front surface specific information 1000 only for identifying the front surface 10x of the imaging plate 10 . Further, the front surface specific information 1000 may be displayed on the front surface of the imaging plate 10 and the rear surface specific information may be displayed on the rear surface of the imaging plate 10 .

また、イメージングプレート10の縁部領域であるフリンジ領域が、放射線像を得るための画像処理の対象から外されることがある。このフリンジ領域に、例えば幅が極めて小さいバーコードなどの前面特有情報1000が示されてもよい。 In addition, the fringe area, which is the edge area of the imaging plate 10, may not be subject to image processing for obtaining a radiographic image. Front-side specific information 1000 may be shown in this fringe area, for example a very small width barcode.

また、イメージングプレート10が裏向きに読取装置1に入れられたこと、つまりイメージングプレート10が表裏逆にセットされたことをユーザが特定するための凸部12がイメージングプレート10に設けられてもよい。図58は、イメージングプレート10に凸部12が設けられた様子の一例を示す図である。図58には、イメージングプレート10を表向きセットした状態で、イメージングプレート10の前面10x側が示されている。図58の例では、イメージングプレート10の周縁に凸部12が設けられている。凸部12は、イメージングプレート10の周縁を構成する4辺のうちの一辺において中央部を避けて設けられている。図58の例では、凸部12は、イメージングプレート10の短辺において中央部を避けて設けられている。凸部12の表面には、放射線像形成層11が形成されておらず、黒アルマイト処理も行われていない。凸部12の表面では、例えば、イメージングプレート10の表面と同程度に励起光L1が反射される。イメージングプレート10が表裏逆にセットされているか否かにかかわらず、検出器40から出力される画像信号に基づく取得全体像には、凸部12の反射光像が含まれる。なお、凸部12は、イメージングプレート10の長辺に設けられてもよい。 Further, the imaging plate 10 may be provided with a convex portion 12 for the user to specify that the imaging plate 10 has been inserted into the reader 1 face down, that is, that the imaging plate 10 has been set upside down. . FIG. 58 is a diagram showing an example of how the projections 12 are provided on the imaging plate 10 . FIG. 58 shows the front surface 10x side of the imaging plate 10 with the imaging plate 10 set face up. In the example of FIG. 58, the projections 12 are provided on the periphery of the imaging plate 10 . The convex portion 12 is provided on one side of the four sides forming the peripheral edge of the imaging plate 10, avoiding the central portion. In the example of FIG. 58, the projections 12 are provided on the short sides of the imaging plate 10 so as to avoid the central portion. The radiation image forming layer 11 is not formed on the surface of the convex portion 12, and black alumite treatment is not performed. The surface of the convex portion 12 reflects the excitation light L1 to the same extent as the surface of the imaging plate 10, for example. Regardless of whether the imaging plate 10 is set upside down or not, the reflected light image of the convex portion 12 is included in the acquired overall image based on the image signal output from the detector 40 . Note that the convex portions 12 may be provided on the long sides of the imaging plate 10 .

このように、凸部12が、イメージングプレート10の一辺において中央部を避けて設けられていることにより、イメージングプレート10が裏面支持されている場合と、イメージングプレート10が前面支持されている場合とで、イメージングプレート10を光源30側から見たときの凸部12の位置が常に異なるようになる。 In this way, since the convex portion 12 is provided on one side of the imaging plate 10 so as to avoid the central portion, the imaging plate 10 can be supported on the back side or the front side of the imaging plate 10. Therefore, the positions of the projections 12 are always different when the imaging plate 10 is viewed from the light source 30 side.

図59は、図58と同様に、イメージングプレート10を前面10x側から見た様子の一例を示す概略図である。図59には、図58に示されるイメージングプレート10をその主面に平行に180度回転させた様子が示されている。図60及び61は、イメージングプレート10を裏向きセットした状態で、イメージングプレート10をその裏面10y側から見た様子の一例を示す概略図である。図61には、図60に示されるイメージングプレート10がその主面に平行に180度回転させた様子が示されている。 FIG. 59 is a schematic diagram showing an example of the imaging plate 10 viewed from the front surface 10x side, similar to FIG. FIG. 59 shows the imaging plate 10 shown in FIG. 58 rotated 180 degrees parallel to its main surface. 60 and 61 are schematic diagrams showing an example of the imaging plate 10 viewed from the rear surface 10y side with the imaging plate 10 set face down. FIG. 61 shows the imaging plate 10 shown in FIG. 60 rotated 180 degrees parallel to its main surface.

図58~61に示されるように、イメージングプレート10を前面10x側から見た場合の凸部12の位置と、イメージングプレート10を裏面10y側から見た場合の凸部12の位置とは、必ず異なる。図58及び59に示されるように、イメージングプレート10を前面10x側から見た場合、凸部12は、それが設けられた一辺の反時計回り方向の隣の辺(図58では下側の辺)よりも時計回り方向の隣の辺(図58では上側の辺)に近い位置に存在する。これに対して、図60及び61に示されるように、イメージングプレート10を裏面10y側から見た場合、凸部12は、それが設けられた一辺の時計回りの隣の辺(図60では上側の辺)よりも反時計回り方向の隣の辺(図60では下側の辺)に近い位置に存在する。 As shown in FIGS. 58 to 61, the positions of the convex portions 12 when the imaging plate 10 is viewed from the front surface 10x side and the positions of the convex portions 12 when the imaging plate 10 is viewed from the rear surface 10y side are always different. different. As shown in FIGS. 58 and 59, when the imaging plate 10 is viewed from the front surface 10x side, the convex portion 12 is located on the counterclockwise adjacent side of the side on which it is provided (the lower side in FIG. 58). ) to the next side in the clockwise direction (upper side in FIG. 58). On the other hand, as shown in FIGS. 60 and 61, when the imaging plate 10 is viewed from the rear surface 10y side, the protrusions 12 are located on the side clockwise next to the side on which the protrusions 12 are provided (upper side in FIG. 60). 60) is closer to the next side in the counterclockwise direction (lower side in FIG. 60).

このように、凸部12が、イメージングプレート10の一辺において中央部を避けて設けられる場合、イメージングプレート10を前面10x側から見た場合と、イメージングプレート10を裏面10y側から見た場合とでは、凸部12の位置は必ず異なるようになる。したがって、イメージングプレート10が裏面支持されている場合と、イメージングプレート10が前面支持されている場合とでは、イメージングプレート10を光源30側から見たときの凸部12の位置は必ず異なるようになる。言い換えれば、イメージングプレート10が表裏逆にセットされている場合と、イメージングプレート10が正しくセットされている場合とでは、イメージングプレート10を光源30側から見たときの凸部12の位置は必ず異なるようになる。よって、イメージングプレート10が裏面支持されている場合に得られる発光時全体像あるいは消去時全体像での凸部12の像(つまり反射光像)の位置と、イメージングプレート10が前面支持されている場合に得られる裏投入時全体像での凸部12の像(つまり反射光像)の位置とは常に異なる。これにより、ユーザは、表示部3に表示される取得全体像での凸部12の像の位置を確認することによって、イメージングプレート10が前面支持されていること、つまり、イメージングプレート10が裏向きに読取装置1に入れられたことを容易に特定することができる。言い換えれば、ユーザは、表示部3に表示される取得全体像に写る凸部12の位置を確認することによって、イメージングプレート10が表裏逆にセットされたことを容易に特定することができる。見方を変えれば、ユーザは、表示部3に表示される取得全体像に写る凸部12の位置を確認することによって、イメージングプレート10が正しくセットされたことを容易に特定することができる。 In this way, when the convex portion 12 is provided on one side of the imaging plate 10 so as to avoid the central portion, the imaging plate 10 is viewed from the front surface 10x side and the imaging plate 10 is viewed from the rear surface 10y side. , the positions of the convex portions 12 are always different. Therefore, the positions of the projections 12 when the imaging plate 10 is viewed from the light source 30 side are always different between when the imaging plate 10 is supported on the back side and when the imaging plate 10 is supported on the front side. . In other words, the positions of the projections 12 when the imaging plate 10 is viewed from the light source 30 side are always different between when the imaging plate 10 is set upside down and when the imaging plate 10 is set correctly. become. Therefore, the position of the image of the convex portion 12 (that is, the reflected light image) in the overall image during light emission or the overall image during erasing obtained when the imaging plate 10 is supported on the back surface and the image of the imaging plate 10 supported on the front surface. The position of the image of the convex portion 12 (that is, the reflected light image) in the whole image at the time of reverse throwing obtained in the case is always different. As a result, the user can confirm that the imaging plate 10 is supported from the front surface by confirming the position of the image of the convex portion 12 in the acquired entire image displayed on the display unit 3, that is, the imaging plate 10 is facing backward. It is possible to easily specify that the document has been inserted into the reading device 1 at this time. In other words, the user can easily identify that the imaging plate 10 is set upside down by confirming the position of the convex portion 12 appearing in the acquired overall image displayed on the display unit 3 . From a different point of view, the user can easily identify that the imaging plate 10 has been correctly set by confirming the position of the convex portion 12 appearing in the acquired overall image displayed on the display unit 3 .

なお、凸部12は、図62に示されるように、イメージングプレート10に対して着脱可能であってもよい。 Note that the convex portion 12 may be detachable from the imaging plate 10 as shown in FIG.

また、イメージングプレート10の周縁には複数の凸部12が設けられてよい。図63及び64は、イメージングプレート10の周縁に2つの凸部12が設けられている様子の一例を示す概略図である。図63にはイメージングプレート10を前面10x側から見た様子が示されており、図64にはイメージングプレート10を裏面10y側から見た様子が示されている。図63及び64の例では、2つの凸部12は、イメージングプレート10の互いに対向する2つの辺にそれぞれ設けられている。また、2つの凸部12は、イメージングプレート10を前面10x側(あるいは裏面10y側)から見た場合、前面10x(あるいは裏面10y)の中心に対して点対称の位置に存在する。2つの凸部12が、図63及び64に示されるようにイメージングプレート10の周縁に設けられる場合であっても、イメージングプレート10が裏面支持されている場合に得られる発光時全体像あるいは消去時全体像での凸部12の像の位置と、イメージングプレート10が前面支持されている場合に得られる裏投入時全体像での凸部12の像の位置とは常に異なるようになる。よって、ユーザは、表示部3に表示される取得全体像での凸部12の像の位置を確認することによって、イメージングプレート10が裏向きに読取装置1に入れられたこと、つまりイメージングプレート10が表裏逆にセットされたことを容易に特定することができる。また、ユーザは、表示部3に表示される取得全体像での凸部12の像の位置を確認することによって、イメージングプレート10が表向きに読取装置1に入れられたこと、つまりイメージングプレート10が正しくセットされたことを容易に特定することができる。 Also, a plurality of projections 12 may be provided on the periphery of the imaging plate 10 . FIGS. 63 and 64 are schematic diagrams showing an example of how two projections 12 are provided on the periphery of the imaging plate 10. FIG. FIG. 63 shows the imaging plate 10 viewed from the front surface 10x side, and FIG. 64 shows the imaging plate 10 viewed from the rear surface 10y side. In the examples of FIGS. 63 and 64, the two convex portions 12 are provided on two sides of the imaging plate 10 facing each other. When the imaging plate 10 is viewed from the front surface 10x side (or the rear surface 10y side), the two convex portions 12 are positioned point-symmetrically with respect to the center of the front surface 10x (or the rear surface 10y). Even when the two projections 12 are provided on the periphery of the imaging plate 10 as shown in FIGS. The position of the image of the projections 12 in the whole image is always different from the position of the image of the projections 12 in the whole image when the imaging plate 10 is back-loaded when the imaging plate 10 is supported from the front side. Therefore, by confirming the position of the image of the convex portion 12 in the acquired whole image displayed on the display unit 3, the user can confirm that the imaging plate 10 has been inserted into the reading device 1 face down, that is, the imaging plate 10 is set upside down. Also, by confirming the position of the image of the convex portion 12 in the acquired overall image displayed on the display unit 3, the user can confirm that the imaging plate 10 has been inserted into the reading device 1 face up, that is, that the imaging plate 10 has Correct setting can be easily identified.

なお、2つの凸部12のそれぞれは、図65に示されるように、イメージングプレート10に対して着脱可能であってもよい。また、2つの凸部12の一方だけが、イメージングプレート10に対して着脱可能であってもよい。また、イメージングプレート10に少なくとも一つの凸部12が設けられる場合に、イメージングプレート10の前面10xに前面特有情報が示されてもよいし、イメージングプレート10の裏面10yに裏面特有情報が示されてもよい。 Note that each of the two convex portions 12 may be detachable from the imaging plate 10 as shown in FIG. 65 . Also, only one of the two protrusions 12 may be detachable from the imaging plate 10 . Further, when the imaging plate 10 is provided with at least one protrusion 12, the front surface specific information may be indicated on the front surface 10x of the imaging plate 10, and the rear surface specific information may be indicated on the rear surface 10y of the imaging plate 10. good too.

画像処理部81は、検出器40の検出結果に基づいて、イメージングプレート10が表裏逆にセットされているか否かを判定する判定処理を行ってもよい。この場合、画像処理部81は、イメージングプレート10が表裏逆にセットされているか否かを判定する判定部として機能する。判定処理は、イメージングプレート10が裏向きに読取装置1に入れられたか否かを判定する処理であるともいえる。 The image processing unit 81 may perform determination processing for determining whether or not the imaging plate 10 is set upside down based on the detection result of the detector 40 . In this case, the image processing unit 81 functions as a determination unit that determines whether the imaging plate 10 is set upside down. The determination process can also be said to be a process of determining whether or not the imaging plate 10 has been inserted into the reading device 1 face down.

図66は画像処理部81が判定処理を行う場合の読取装置1の動作の一例を示すフローチャートである。筐体2の挿入口2aから挿入されたイメージングプレート10が保持部20で保持された後、つまり読取装置1内でイメージングプレート10がセットされた後、操作部4に含まれるスタートボタンが操作されると、上述のステップs1及びs2が実行される。ステップs1の開始時点では、イメージングプレート10が正しくセットされているのか、表裏逆にセットされているのか読取装置1では不明である。 FIG. 66 is a flow chart showing an example of the operation of the reading device 1 when the image processing section 81 performs determination processing. After the imaging plate 10 inserted from the insertion opening 2a of the housing 2 is held by the holding portion 20, that is, after the imaging plate 10 is set in the reading device 1, the start button included in the operation portion 4 is operated. Then, steps s1 and s2 described above are executed. At the start of step s1, the reading device 1 does not know whether the imaging plate 10 is set correctly or is set upside down.

ステップs2の読取処理が終了すると、ステップs201において、画像処理部81は判定処理を実行する。この判定処理において、画像処理部81は、ステップs2の読取処理において検出器40が出力した画像信号に基づいて、イメージングプレート10が表裏逆にセットされているか否かを判定する。 When the reading process of step s2 ends, the image processing section 81 executes determination processing in step s201. In this determination process, the image processing unit 81 determines whether or not the imaging plate 10 is set upside down based on the image signal output by the detector 40 in the reading process of step s2.

ここで、上述の図54の例のように、イメージングプレート10の裏面に裏面特有情報600が示されている場合を考える。この場合、画像処理部81は、ステップs2で得られた画像信号に基づく取得全体像に、裏面特有情報600の像302(つまり裏面特有像302)が含まれているか否かを判定する。画像処理部81は、取得全体像に、例えばバーコード600cの像302cが含まれているか否かを判定する。そして、画像処理部81は、ステップs2で得られた取得全体像に裏面特有像302が含まれていると判定すると、イメージングプレート10が表裏逆にセットされていると判定する。一方で、画像処理部81は、ステップs2で得られた取得全体像に裏面特有像302が含まれていないと判定すると、イメージングプレート10が表裏逆にセットされていないと判定する。つまり、画像処理部81は、イメージングプレート10が正しくセットされていると判定する。 Here, as in the example of FIG. 54 described above, consider the case where the back surface specific information 600 is indicated on the back surface of the imaging plate 10 . In this case, the image processing unit 81 determines whether or not the image 302 of the back surface specific information 600 (that is, the back surface specific image 302) is included in the acquired overall image based on the image signal obtained in step s2. The image processing unit 81 determines whether or not, for example, the image 302c of the barcode 600c is included in the obtained overall image. Then, when the image processing unit 81 determines that the back-side specific image 302 is included in the obtained overall image obtained in step s2, the image processing unit 81 determines that the imaging plate 10 is set upside down. On the other hand, if the image processing unit 81 determines that the rear surface specific image 302 is not included in the acquired overall image obtained in step s2, it determines that the imaging plate 10 is not set upside down. That is, the image processing section 81 determines that the imaging plate 10 is set correctly.

他の例として、上述の図56及び57のように、イメージングプレート10の前面に前面特有情報1000が示されている場合を考える。この場合、画像処理部81は、ステップs2で得られた取得全体像に前面特有情報1000の像が含まれているか否かを判定する。そして、画像処理部81は、取得全体像に前面特有情報1000の像が含まれていると判定すると、イメージングプレート10が表裏逆にセットされていないと判定する。一方で、画像処理部81は、取得全体像に前面特有情報1000の像が含まれていないと判定すると、イメージングプレート10が表裏逆にセットされていると判定する。 As another example, consider the case where the front surface specific information 1000 is shown on the front surface of the imaging plate 10, as in FIGS. 56 and 57 above. In this case, the image processing unit 81 determines whether or not the image of the front surface specific information 1000 is included in the obtained overall image obtained in step s2. When the image processing unit 81 determines that the image of the front surface specific information 1000 is included in the obtained overall image, the image processing unit 81 determines that the imaging plate 10 is not set upside down. On the other hand, when the image processing unit 81 determines that the acquired entire image does not include the image of the front surface specific information 1000, the image processing unit 81 determines that the imaging plate 10 is set upside down.

他の例として、上述の図58~64の例のように、イメージングプレート10の周縁に、イメージングプレート10が表裏逆にセットされているか否かを判定するための少なくとも一つの凸部12が設けられている場合を考える。この場合、画像処理部81は、ステップs2で得られた取得全体像での凸部12の像の位置を確認する。そして、画像処理部81は、取得全体像での凸部12の像の位置に基づいて、イメージングプレート10が表裏逆にセットされているか否かを判定する。上述のように、イメージングプレート10が裏面支持されている場合に得られる取得全体像での凸部12の像の位置と、イメージングプレート10が前面支持されている場合に得られる取得全体像での凸部12の像の位置とは常に異なる。これにより、画像処理部81は、取得全体像での凸部12の像の位置に基づいて、イメージングプレート10が表裏逆にセットされているか否かを判定することができる。画像処理部81は、例えば、取得全体像を二値化することによって得られる二値化像に基づいて、取得全体像での凸部12の像の位置を特定することができる。 As another example, as in the examples of FIGS. 58 to 64 described above, at least one convex portion 12 is provided on the peripheral edge of the imaging plate 10 for determining whether the imaging plate 10 is set upside down. Consider the case where In this case, the image processing unit 81 confirms the position of the image of the convex portion 12 in the acquired whole image obtained in step s2. Then, the image processing unit 81 determines whether or not the imaging plate 10 is set upside down based on the position of the image of the convex portion 12 in the obtained overall image. As described above, the position of the image of the convex portion 12 in the acquired overall image obtained when the imaging plate 10 is supported on the back side and the acquired overall image obtained when the imaging plate 10 is supported on the front side. The position of the image of the convex portion 12 is always different. Thereby, the image processing unit 81 can determine whether or not the imaging plate 10 is set upside down based on the position of the image of the convex portion 12 in the acquired entire image. The image processing unit 81 can specify the position of the image of the convex portion 12 in the acquired overall image, for example, based on the binarized image obtained by binarizing the acquired overall image.

ステップs201において、イメージングプレート10が表裏逆にセットされていないと判定されると、上述のステップs3及びs4が実行される。ステップs4の後は、上述の図14の例のようにステップs5,s6,s7が実行されてもよいし、上述の図24の例のようにステップs21,s22,s5,s6,s27が実行されてもよい。 If it is determined in step s201 that the imaging plate 10 is not set upside down, steps s3 and s4 described above are executed. After step s4, steps s5, s6, and s7 may be executed as in the example of FIG. 14 described above, or steps s21, s22, s5, s6, and s27 may be executed as in the example of FIG. may be

一方でステップs201において、イメージングプレート10が表裏逆にセットされていると判定されると、ステップs202が実行される。ステップs202では、読取装置1はユーザに警告を通知する。この場合、表示制御部82が警告情報650を表示部3に表示させることによって、ユーザに警告が通知されてもよい。この場合、表示部3はユーザに警告を通知する通知部として機能する。 On the other hand, if it is determined in step s201 that the imaging plate 10 is set upside down, step s202 is executed. At step s202, the reader 1 notifies the user of a warning. In this case, the user may be notified of the warning by causing the display control unit 82 to display the warning information 650 on the display unit 3 . In this case, the display unit 3 functions as a notification unit that notifies the user of a warning.

図67は警告情報650の表示例を示す概略図である。図67の例では、警告情報650には、イメージングプレート10が表裏逆にセットされていることをユーザに通知する通知情報650aと、イメージングプレート10を表向きで入れ直すことをユーザに指示する指示情報650bとが含まれている。指示情報650bは、イメージングプレート10を正しくセットすることをユーザに指示する指示情報であるともいえる。 FIG. 67 is a schematic diagram showing a display example of warning information 650. As shown in FIG. In the example of FIG. 67, the warning information 650 includes notification information 650a for notifying the user that the imaging plate 10 is set upside down, and instruction information 650b for instructing the user to reinsert the imaging plate 10 face up. and are included. The instruction information 650b can also be said to be instruction information for instructing the user to set the imaging plate 10 correctly.

なお、警告情報650は上記の例に限られない。また、読取装置1は、情報表示以外の手段でユーザに警告を通知してもよい。例えば、読取装置1は、スピーカ等の、音を筐体2の外側に出力する音出力手段を備える場合、当該音出力手段から所定の警告音を出力させることによってユーザに警告を通知してもよい。この場合、当該音出力手段は、ユーザに警告を通知する通知部として機能する。また、読取装置1は、LED等の、筐体2の外部に光を出力する発光部を備える場合には、当該発光部を発光させることによってユーザに警告を通知してもよい。この場合、当該発光部は、ユーザに警告を通知する通知部として機能する。 Note that the warning information 650 is not limited to the above example. Further, the reading device 1 may notify the user of the warning by means other than the information display. For example, if the reading device 1 includes sound output means for outputting sound to the outside of the housing 2, such as a speaker, the warning may be notified to the user by outputting a predetermined warning sound from the sound output means. good. In this case, the sound output means functions as a notification section that notifies the user of a warning. Further, when the reading device 1 is provided with a light-emitting unit that outputs light to the outside of the housing 2, such as an LED, the warning may be notified to the user by causing the light-emitting unit to emit light. In this case, the light emitting unit functions as a notification unit that notifies the user of a warning.

ユーザは、読取装置1から警告が通知されると、例えば、操作部4に含まれる排出ボタンを操作する。操作部4が排出ボタンの操作を受け付けると、読取装置1では、上述のステップs5及びs6が実行されて、放射線像が消去されていないイメージングプレート10が取出口2bに排出される。その後、ユーザは、読取装置1から排出されたイメージングプレート10を再度読取装置1に入れる。その後、操作部4のスタートボタンが操作されると、図66の一連の処理が再度実行される。 When the reading device 1 notifies the user of the warning, the user operates, for example, an ejection button included in the operation unit 4 . When the operation unit 4 accepts the operation of the ejection button, the above-described steps s5 and s6 are executed in the reader 1, and the imaging plate 10 whose radiation image has not been erased is ejected to the ejection port 2b. After that, the user puts the imaging plate 10 ejected from the reader 1 into the reader 1 again. After that, when the start button of the operation unit 4 is operated, the series of processes in FIG. 66 are executed again.

読取装置1は、ステップs202において、ユーザに警告を通知するとともに、ステップs2で取得された取得全体像(つまり裏投入時全体像)を表示部3に表示してもよい。この場合、表示部3は、例えば、警告情報650と裏投入時全体像とを同時にかつ別々に表示してもよい。 In step s202, the reading device 1 may notify the user of a warning and display on the display unit 3 the obtained whole image (that is, the whole image at the time of reverse insertion) acquired in step s2. In this case, the display unit 3 may, for example, display the warning information 650 and the whole image at the time of reverse insertion simultaneously and separately.

このように、画像処理部81は、検出器40の検出結果に基づいてイメージングプレートが表裏逆にセットされているか否かを判定することができる。これにより、判定結果に基づいて、イメージングプレート10から放射線像がより確実に読み取られるようにすることができる。例えば、上記の例のように、判定結果に応じて警告がユーザに通知されることによって、ユーザに対して、イメージングプレート10を読取装置1に正しくセットするように促すことができる。これにより、イメージングプレート10から放射線像がより確実に読み取られるようにすることができる。 Thus, the image processing unit 81 can determine whether the imaging plate is set upside down based on the detection result of the detector 40 . Thereby, it is possible to more reliably read the radiation image from the imaging plate 10 based on the determination result. For example, as in the above example, by notifying the user of a warning according to the determination result, the user can be urged to correctly set the imaging plate 10 on the reading device 1 . This makes it possible to more reliably read the radiation image from the imaging plate 10 .

また、図66の例では、イメージングプレートが表裏逆にセットされていると判定されたとき、消去処理が実行されずに警告がユーザに通知される。さらに具体的には、図66の例は、イメージングプレートが表裏逆にセットされていると判定されなければ、消去処理が実行されるが、イメージングプレートが表裏逆にセットされていると判定されたときは消去処理が実行されないようになっていて、さらに、警告がユーザに通知されるようになっている。図66の例では、イメージングプレートが表裏逆にセットされていると判定されたとき、イメージングプレート10に消去光L3が照射されずに警告がユーザに通知される。これにより、イメージングプレートが表裏逆にセットされていると判定されたとき、ユーザに警告をすぐに通知することができる。ステップs202の警告通知は、ステップs3とステップs4の間に実行されてもよいし、ステップs4の後に実行されてもよい。 Further, in the example of FIG. 66, when it is determined that the imaging plate is set upside down, a warning is sent to the user without executing the erasing process. More specifically, in the example of FIG. 66, the erasing process is executed unless it is determined that the imaging plate is set upside down, but it is determined that the imaging plate is set upside down. When the deletion process is not executed, a warning is sent to the user. In the example of FIG. 66, when it is determined that the imaging plate is set upside down, the erasing light L3 is not applied to the imaging plate 10 and a warning is notified to the user. Accordingly, when it is determined that the imaging plate is set upside down, a warning can be immediately sent to the user. The warning notification of step s202 may be performed between steps s3 and s4, or may be performed after step s4.

また、消去処理には消去光L3のイメージングプレート10への照射が伴う。仮にイメージングプレート10が表裏逆にセットされている状態で消去光L3を照射すると、イメージングプレート10が潜像として記録する放射線像に悪影響を及ぼす場合がある。例えば、支持板21とイメージングプレート10との間に隙間がある場合、その隙間から消去光L3が入り込んでイメージングプレート10が記録する放射線像が部分的に消去されたり薄められたりすることがある。また、消去光L3の照射によってイメージングプレート10に熱が発生して検出信号に悪影響が生じることなどが考えられる。また、消去処理の時間が余分にかかるというロスもある。イメージングプレートが表裏逆にセットされているときに消去処理を実行しないことには、これらの悪影響及びロスを防ぐ意味がある。 In addition, the erasing process is accompanied by irradiation of the imaging plate 10 with the erasing light L3. If the erasing light L3 is irradiated while the imaging plate 10 is set upside down, the radiation image recorded as a latent image on the imaging plate 10 may be adversely affected. For example, if there is a gap between the support plate 21 and the imaging plate 10, the erasing light L3 may enter through the gap, partially erasing or weakening the radiation image recorded by the imaging plate 10. Further, it is conceivable that heat is generated in the imaging plate 10 by the irradiation of the erasing light L3, which adversely affects the detection signal. There is also a loss in that the erasing process takes extra time. Not executing the erasing process when the imaging plate is set upside down has a meaning of preventing these adverse effects and losses.

また、図54の例のように、イメージングプレート10の裏面に、少なくとも一つの裏面特有情報600が示される場合には、イメージングプレート10が表裏逆にセットされているか否かを容易に判定することができる。 Also, as in the example of FIG. 54, when at least one back surface specific information 600 is indicated on the back surface of the imaging plate 10, it is possible to easily determine whether the imaging plate 10 is set upside down. can be done.

また、図56及び57の例のように、イメージングプレート10の前面に、少なくとも一つの前面特有情報1000が示される場合には、イメージングプレート10が表裏逆にセットされているか否かを容易に判定することができる。 56 and 57, when at least one piece of front surface specific information 1000 is displayed on the front surface of the imaging plate 10, it is easy to determine whether the imaging plate 10 is set upside down. can do.

また、図58~65の例のように、イメージングプレート10の周縁に、イメージングプレート10が表裏逆にセットされているか否かを判定するための少なくとも一つの凸部12が設けられる場合には、イメージングプレート10が表裏逆にセットされているか否かを容易に判定することができる。 58 to 65, when at least one protrusion 12 for determining whether or not the imaging plate 10 is set upside down is provided on the peripheral edge of the imaging plate 10, It can be easily determined whether the imaging plate 10 is set upside down.

上記の例では、読取装置1は、イメージングプレート10が表裏逆にセットされていると判定した場合、ユーザの指示に応じてイメージングプレート10を排出しているが、ユーザの指示なく自動でイメージングプレート10を排出してもよい。例えば、ステップs202の後、ステップs3が実行されてもよい。この場合、消去処理が実行された後に、上述のステップs5及びs6が実行されてイメージングプレート10が自動的に排出される。 In the above example, when the reader 1 determines that the imaging plate 10 is set upside down, it ejects the imaging plate 10 according to the user's instruction. 10 may be discharged. For example, after step s202, step s3 may be performed. In this case, after the erasing process is performed, steps s5 and s6 described above are performed to automatically eject the imaging plate 10 .

また、図68に示されるように、ステップs202の後にステップs205及びs206が順次実行されてもよい。ステップs205では、上述のステップs5と同様に、保持部20が排出位置まで移動させられる。ステップs206では、上述のステップs6同様に、イメージングプレート10が取出口2bに排出される。これにより、イメージングプレート10が表裏逆にセットされていると判定された場合、イメージングプレート10が自動に排出される。つまり、イメージングプレート10が表裏逆にセットされていると判定されたことに応じて、イメージングプレート10が排出される。 Also, as shown in FIG. 68, steps s205 and s206 may be sequentially executed after step s202. In step s205, the holding part 20 is moved to the ejection position as in step s5 described above. At step s206, the imaging plate 10 is ejected to the outlet 2b in the same manner as at step s6 described above. Thereby, when it is determined that the imaging plate 10 is set upside down, the imaging plate 10 is automatically ejected. That is, the imaging plate 10 is ejected in response to determination that the imaging plate 10 is set upside down.

このように、イメージングプレート10が表裏逆にセットされていると判定されたときに、イメージングプレート10が排出されることによって、読取装置1に対する、イメージングプレート10の排出を指示するユーザ操作が不要となる。よって、読取装置1の利便性が向上する。また、イメージングプレート10が排出されることによって、イメージングプレート10を再度セットするようにユーザを促すことができる。 In this manner, when it is determined that the imaging plate 10 is set upside down, the imaging plate 10 is ejected, thereby eliminating the need for the user to instruct the reader 1 to eject the imaging plate 10. Become. Therefore, the convenience of the reading device 1 is improved. In addition, by ejecting the imaging plate 10, the user can be prompted to set the imaging plate 10 again.

また、図68の例では、イメージングプレートが表裏逆にセットされていると判定されたとき、消去処理が実行されずにイメージングプレート10が排出されている。これにより、イメージングプレートが表裏逆にセットされていると判定されたとき、イメージングプレート10をすぐに排出することができる。 Further, in the example of FIG. 68, when it is determined that the imaging plate is set upside down, the imaging plate 10 is ejected without executing the erasing process. Thereby, when it is determined that the imaging plate is set upside down, the imaging plate 10 can be ejected immediately.

なお、ステップs201でYESと判定された後、ステップs202が実行されずにステップs205及びs206が実行されてもよい。つまり、イメージングプレート10が表示逆にセットされていると判定された場合、ユーザに警告が通知されることなく、イメージングプレート10が排出されてもよい。また、ステップs202は、ステップs205及びs206の後に実行されてもよいし、ステップs205及びs206の間に実行されてもよい。 In addition, after it is determined as YES in step s201, steps s205 and s206 may be executed without executing step s202. That is, if it is determined that the imaging plate 10 is set upside down, the imaging plate 10 may be ejected without warning the user. Also, step s202 may be performed after steps s205 and s206, or between steps s205 and s206.

図54の例のように、イメージングプレート10の裏面に複数の裏面特有情報600が示されている場合、イメージングプレート10がセットされるときのイメージングプレートの姿勢が一定とならない場合であっても、イメージングプレート10が表裏逆にセットされていることをすぐに特定することが可能となる。以下にこの点について説明する。 As in the example of FIG. 54, when a plurality of pieces of back surface specific information 600 are indicated on the back surface of the imaging plate 10, even if the posture of the imaging plate when the imaging plate 10 is set is not constant, It is possible to immediately identify that the imaging plate 10 is set upside down. This point will be explained below.

読取処理では、上述のように、光源30が励起光L1をイメージングプレート10上で主走査方向DRmに走査する主走査方向スキャンを繰り返し実行する走査処理を行っている間に、駆動部50がイメージングプレート10を保持した保持部20を副走査方向DRsに移動させる。これにより、イメージングプレート10に対して励起光L1がラスタスキャンされる。読取処理の開始は、光源30の走査処理の開始であるともいえる。 In the reading process, as described above, while the light source 30 performs the scanning process in which the excitation light L1 scans the imaging plate 10 in the main scanning direction DRm repeatedly in the main scanning direction, the driving unit 50 performs imaging. The holder 20 holding the plate 10 is moved in the sub-scanning direction DRs. As a result, the imaging plate 10 is raster-scanned with the excitation light L1. It can be said that the start of the reading process is the start of the scanning process of the light source 30 .

図69及び70は、裏面10yに複数の裏面特有情報600が示されているイメージングプレート10が表裏逆にセットされている様子の一例を示す概略図である。図69及び70の例では、イメージングプレート10の裏面10yにバーコード600c及び600dだけが示されている。バーコード600c及び600dは、イメージングプレート10の裏面10yの長手方向の両端部にそれぞれ設けられている。また、図69及び70では、走査処理(言い換えればラスタスキャン)での励起光L1のイメージングプレート10に対する走査方向DRrが示されている。図70の例では、図69の例と比較して、イメージングプレート10がその主面に平行に180度回転した状態でセットされている。 69 and 70 are schematic diagrams showing an example of how the imaging plate 10 having a plurality of pieces of back side specific information 600 indicated on the back side 10y is set upside down. In the examples of FIGS. 69 and 70, only barcodes 600c and 600d are shown on back surface 10y of imaging plate 10. FIG. The barcodes 600c and 600d are provided on both longitudinal ends of the rear surface 10y of the imaging plate 10, respectively. 69 and 70 also show the scanning direction DRr of the excitation light L1 with respect to the imaging plate 10 in scanning processing (in other words, raster scanning). In the example of FIG. 70, compared with the example of FIG. 69, the imaging plate 10 is set in a state rotated 180 degrees parallel to its main surface.

ここで、イメージングプレート10の長手方向の両側において、ラスタスキャンが開始する側を走査前方側と呼び、ラスタスキャンが終了する側を走査後方側と呼ぶ。イメージングプレート10の走査前方側は図69及び70の左側となり、イメージングプレート10の走査後方側は図69及び70の右側となる。図69及び70の例では、イメージングプレート10の裏面10yの走査前方側の端部及び走査後方側の端部のそれぞれに裏面特有情報600が示されている。本例では、イメージングプレート10は、図69及び71に示されるように、その長手方向の両端部の一方が走査前方側に位置するようにセットされることもあれば、当該両端部の他方が走査前方側に位置するようにセットされることもある。 Here, on both sides in the longitudinal direction of the imaging plate 10, the side where raster scanning starts is called the scanning front side, and the side where raster scanning ends is called the scanning rear side. The scanning front side of the imaging plate 10 is on the left side of FIGS. 69 and 70, and the scanning back side of the imaging plate 10 is on the right side of FIGS. In the examples of FIGS. 69 and 70 , back surface specific information 600 is shown at the scanning front end and the scanning back end of the back surface 10 y of the imaging plate 10 . In this example, as shown in FIGS. 69 and 71, the imaging plate 10 may be set so that one of its longitudinal ends is located on the scanning front side, or the other of the longitudinal ends is located on the scanning front side. It may also be set to be located on the scanning front side.

上述のように、本例に係る読取処理では、イメージングプレート10が副走査方向DRsに移動している間に主走査方向スキャンが繰り返し実行される。これにより、図69及び70の走査方向DRrに示されるように、イメージングプレート10に対して、その長手方向に交差する方向の励起光L1の走査(単位走査ともいう)が、走査前方側から走査後方側に向けて繰り返し行われる。図69及び70において、走査方向DRrを示す複数本の矢印のうちの一本の矢印が単位走査を表している。 As described above, in the reading process according to this example, scanning in the main scanning direction is repeatedly performed while the imaging plate 10 is moving in the sub-scanning direction DRs. As a result, as shown in the scanning direction DRr in FIGS. 69 and 70, the imaging plate 10 is scanned with the excitation light L1 in a direction intersecting the longitudinal direction (also referred to as unit scanning) from the scanning front side. Repeat backwards. In FIGS. 69 and 70, one arrow out of a plurality of arrows indicating the scanning direction DRr represents a unit scan.

図69に示されるようにバーコード600cが走査前方側に位置するようにイメージングプレート10がセットされている場合、ステップs2の読取処理の前半で、バーコード600cの像が得られる。また、図70に示されるようにバーコード600dが走査前方側に位置するようにイメージングプレート10がセットされている場に、読取処理の前半で、バーコード600dの像が得られる。これにより、画像処理部81は、上述のステップs201において、読取処理で得られた取得全体像の全体ではなく、当該取得全体像における、読取処理の前半で得られた像だけを確認することによって、当該取得全体像に裏面特有情報600の像が含まれているか否かを判定することができる。画像処理部81は、取得全体像のうち読取処理の前半で得られた像に裏面特有情報600の像が含まれている場合、イメージングプレート10が表裏逆にセットされていると判定する。一方で、画像処理部81は、取得全体像のうち読取処理の前半で得られた像に裏面特有情報600の像が含まれていない場合、イメージングプレート10が表裏逆にセットされていないと判定する。 When the imaging plate 10 is set so that the bar code 600c is positioned on the scanning front side as shown in FIG. 69, an image of the bar code 600c is obtained in the first half of the reading process in step s2. Further, when the imaging plate 10 is set so that the barcode 600d is positioned on the scanning front side as shown in FIG. 70, an image of the barcode 600d is obtained in the first half of the reading process. As a result, in step s201 described above, the image processing unit 81 confirms only the image obtained in the first half of the reading process in the obtained overall image instead of the entire obtained whole image obtained in the reading process. , it can be determined whether or not the image of the back surface specific information 600 is included in the obtained overall image. The image processing unit 81 determines that the imaging plate 10 is set upside down when the image of the back side specific information 600 is included in the image obtained in the first half of the reading process out of the overall acquired image. On the other hand, the image processing unit 81 determines that the imaging plate 10 is not set upside down if the image obtained in the first half of the reading process does not include the image of the back surface specific information 600 among the overall acquired images. do.

これに対して、例えばバーコード600cがイメージングプレート10の裏面10yに示されていない場合を考える。この場合、イメージングプレート10が図69の姿勢でセットされているときには読取処理の前半でバーコード600cの像が得られる。しかしながら、イメージングプレート10が図70の姿勢でセットされているときには、読取処理の後半にバーコード600cの像が得られる。よって、画像処理部81は、イメージングプレート10が図69の姿勢でセットされた場合であっても、図70の姿勢でセットされた場合にも、イメージングプレート10が表裏逆にセットされていることを特定するためには、取得全体像の全体を確認して、それに裏面特有情報600の像が含まれているか否かを判定する必要がある。 On the other hand, consider the case where the barcode 600c is not shown on the back surface 10y of the imaging plate 10, for example. In this case, when the imaging plate 10 is set in the attitude shown in FIG. 69, an image of the bar code 600c is obtained in the first half of the reading process. However, when the imaging plate 10 is set in the attitude shown in FIG. 70, an image of the bar code 600c is obtained in the latter half of the reading process. Therefore, the image processing unit 81 determines that the imaging plate 10 is set upside down regardless of whether the imaging plate 10 is set in the posture shown in FIG. 69 or in the posture shown in FIG. In order to identify , it is necessary to check the entire acquired overall image and determine whether or not the image of the back surface specific information 600 is included in it.

このように、イメージングプレート10の裏面に複数の裏面特有情報600が示されることによって、イメージングプレート10がセットされるときのイメージングプレートの姿勢が一定とならない場合であっても、画像処理部81は、取得全体像の一部だけを確認することによって、当該取得全体像に裏面特有情報600の像が含まれているか否かを判定することが可能となる。これにより、画像処理部81は、取得全体像に裏面特有情報600の像が含まれているか否かをすぐに判定することができる。よって、画像処理部81は、イメージングプレート10が表裏逆にセットされていることをすぐに特定することができる。その結果、読取装置1は、例えば、ユーザにすぐに警告を通知したり、イメージングプレート10をすぐに排出したりすることができる。 In this way, by indicating a plurality of pieces of back surface specific information 600 on the back surface of the imaging plate 10, even if the posture of the imaging plate 10 is not constant when the imaging plate 10 is set, the image processing unit 81 , it is possible to determine whether or not the image of the back surface specific information 600 is included in the acquired overall image by checking only a part of the acquired overall image. Thereby, the image processing section 81 can immediately determine whether or not the image of the back-side specific information 600 is included in the obtained overall image. Therefore, the image processing section 81 can immediately identify that the imaging plate 10 is set upside down. As a result, the reader 1 can immediately notify the user of a warning or eject the imaging plate 10 immediately, for example.

また、図69及び70の例のように、イメージングプレート10の裏面の走査前方側の端部及び走査後方側の端部のそれぞれに裏面特有情報600が示される場合には、イメージングプレート10が図69の姿勢でセットされている場合であっても、図70の姿勢でセットされている場合であっても、画像処理部81は、取得全体像うち、読取処理の早い段階で得られた像だけを確認することによって、当該取得全体像に裏面特有情報600の像が含まれているか否かを判定することが可能となる。これにより、画像処理部81は、イメージングプレート10が表裏逆にセットされていることをすぐに特定することができる。なお、イメージングプレート10の裏面に示される裏面特有情報600の数は一つであってもよい。また、イメージングプレート10の裏面において裏面特有情報600が示される位置は上記の例に限られない。 69 and 70, when the rear surface specific information 600 is indicated at each of the scanning front end and the scanning rear end of the rear surface of the imaging plate 10, the imaging plate 10 is shown in FIG. 69 or in the posture shown in FIG. It is possible to determine whether or not the image of the back-side specific information 600 is included in the acquired overall image by checking only the . Thereby, the image processing section 81 can immediately identify that the imaging plate 10 is set upside down. It should be noted that the number of pieces of back surface specific information 600 shown on the back surface of the imaging plate 10 may be one. Further, the position where the back surface specific information 600 is indicated on the back surface of the imaging plate 10 is not limited to the above example.

図57の例のように、イメージングプレート10の前面に複数の前面特有情報1000が示されている場合も同様に、イメージングプレート10がセットされるときのイメージングプレート10の姿勢が一定とならない場合であっても、イメージングプレート10が表裏逆にセットされていることをすぐに特定することが可能となる。 Similarly, when a plurality of front surface specific information 1000 are shown on the front surface of the imaging plate 10 as in the example of FIG. 57, the posture of the imaging plate 10 when it is set may not be constant. Even if there is, it is possible to immediately identify that the imaging plate 10 is set upside down.

図71及び72は、前面10xに複数の前面特有情報1000が示されているイメージングプレート10が正常にセットされている様子の一例を示す概略図である。図71及び72の例では、イメージングプレート10の前面10xに、前面特有情報1000としての文字1000a及び1000bが示されている。文字1000a及び1000bは、イメージングプレート10の前面10xの走査前方側の端部及び走査後方側の端部にそれぞれ示されている。図72の例では、図71の例と比較して、イメージングプレート10がその主面に平行に180度回転した状態でセットされている。 71 and 72 are schematic diagrams showing an example of how the imaging plate 10 with a plurality of front surface specific information 1000 indicated on the front surface 10x is normally set. In the examples of FIGS. 71 and 72, characters 1000a and 1000b as the front surface specific information 1000 are shown on the front surface 10x of the imaging plate 10. FIG. The characters 1000a and 1000b are shown at the scan front end and the scan back end of the front surface 10x of the imaging plate 10, respectively. In the example of FIG. 72, compared with the example of FIG. 71, the imaging plate 10 is set in a state rotated 180 degrees parallel to its main surface.

図71に示されるように文字1000aが走査前方側に位置するようにイメージングプレート10がセットされている場合、読取処理の前半で、文字1000aの像が得られる。また、図72に示されるように文字1000bが走査前方側に位置するようにイメージングプレート10がセットされている場合に、読取処理の前半で、文字1000bの像が得られる。これにより、画像処理部81は、ステップs201において、読取処理で得られた取得全体像のうち、読取処理の前半で得られた像だけを確認することによって、当該取得全体像に前面特有情報1000の像が含まれているか否かを判定することができる。画像処理部81は、取得全体のうち読取処理の前半で得られた像に前面特有情報1000の像が含まれていない場合には、イメージングプレート10が表裏逆にセットされていると判定することができる。 When the imaging plate 10 is set so that the character 1000a is located on the scanning front side as shown in FIG. 71, an image of the character 1000a is obtained in the first half of the reading process. Also, when the imaging plate 10 is set so that the characters 1000b are located on the scanning front side as shown in FIG. 72, an image of the characters 1000b is obtained in the first half of the reading process. As a result, in step s201, the image processing unit 81 confirms only the image obtained in the first half of the reading process among the obtained overall images obtained in the reading process. image is included. The image processing unit 81 determines that the imaging plate 10 is set upside down when the image obtained in the first half of the reading process of the entire acquisition does not include the image of the front surface specific information 1000. can be done.

このように、イメージングプレート10の前面に複数の前面特有情報1000が示されることによって、イメージングプレート10がセットされる場合のイメージングプレート10の姿勢が一定とならない場合であっても、画像処理部81は、取得全体像の一部だけを確認することによって、当該取得全体像に前面特有情報1000の像が含まれているか否かを判定することが可能となる。これにより、画像処理部81は、イメージングプレート10が表裏逆にセットされていることをすぐに特定することができる。 In this way, by displaying a plurality of pieces of front surface specific information 1000 on the front surface of the imaging plate 10, even if the posture of the imaging plate 10 when the imaging plate 10 is set is not constant, the image processing unit 81 can determine whether or not the image of the front surface specific information 1000 is included in the acquired overall image by confirming only a part of the acquired overall image. Thereby, the image processing section 81 can immediately identify that the imaging plate 10 is set upside down.

また、図71及び72の例のように、イメージングプレート10の前面の走査前方側の端部及び走査後方側の端部のそれぞれに前面特有情報1000が示される場合には、イメージングプレート10が図71の姿勢でセットされている場合であっても、図72の姿勢でセットされている場合であっても、画像処理部81は、取得全体像うち、読取処理の早い段階で得られた像だけを確認することによって、当該取得全体像に前面特有情報1000の像が含まれているか否かを判定することが可能となる。これにより、画像処理部81は、イメージングプレート10が表裏逆にセットされていることをすぐに特定することができる。 71 and 72, when the front surface specific information 1000 is indicated at each of the scanning front end and the scanning rear end of the front surface of the imaging plate 10, the imaging plate 10 is shown in FIG. 71 or in the posture shown in FIG. It is possible to determine whether or not the image of the front surface specific information 1000 is included in the obtained overall image by checking only the . Thereby, the image processing section 81 can immediately identify that the imaging plate 10 is set upside down.

また、図71及び72の例では、セットされているイメージングプレート10の前面10xの走査前方側の端部において、その中央よりもラスタスキャンの単位走査の開始側に前面特有情報1000が示されている。これにより、画像処理部81は、取得全体像のより少ない部分だけを確認することによって、当該取得全体像に前面特有情報1000の像が含まれているか否かを判定することが可能となる。よって、画像処理部81は、イメージングプレート10が表裏逆にセットされていることをよりすぐに特定することができる。 In the examples of FIGS. 71 and 72, the front surface specific information 1000 is shown on the start side of the raster scan unit scan from the center at the end of the front surface 10x of the set imaging plate 10 on the scanning front side. there is Accordingly, the image processing unit 81 can determine whether or not the image of the front surface specific information 1000 is included in the acquired overall image by checking only a smaller portion of the acquired overall image. Therefore, the image processing section 81 can more quickly identify that the imaging plate 10 is set upside down.

なお、イメージングプレート10の前面において前面特有情報1000が示される位置は上記の例に限られない。また、イメージングプレート10の裏面の走査前方側の端部において、その中央よりもラスタスキャンの単位走査の開始側に裏面特有情報600が示されてもよい。これにより、画像処理部81は、取得全体像のより少ない部分だけを確認することによって、当該取得全体像に裏面特有情報600の像が含まれているか否かを判定することが可能となる。これにより、画像処理部81は、イメージングプレート10が表裏逆にセットされていることをよりすぐに特定することができる。 Note that the position where the front surface specific information 1000 is indicated on the front surface of the imaging plate 10 is not limited to the above example. Further, the rear surface specific information 600 may be indicated on the start side of the unit scan of the raster scan from the center of the scanning front side end portion of the rear surface of the imaging plate 10 . Accordingly, the image processing unit 81 can determine whether or not the image of the back surface specific information 600 is included in the acquired overall image by checking only a smaller portion of the acquired overall image. Thereby, the image processing section 81 can more quickly identify that the imaging plate 10 is set upside down.

図63~65の例のように、イメージングプレート10の周縁に複数の凸部12が設けられている場合も同様に、イメージングプレート10がセットされるときのイメージングプレート10の姿勢が一定ではない場合であっても、画像処理部81は、イメージングプレート10が表裏逆にセットされていることをすぐに特定することができる。 63 to 65, when a plurality of projections 12 are provided on the periphery of the imaging plate 10, similarly, when the posture of the imaging plate 10 when the imaging plate 10 is set is not constant. Even so, the image processing unit 81 can immediately identify that the imaging plate 10 is set upside down.

図73及び74は、複数の凸部12が設けられたイメージングプレート10が表裏逆にセットされている様子の一例を示す概略図である。図73及び74の例では、イメージングプレート10の周縁に凸部12a及び12bが設けられている。凸部12a及び12bは、イメージングプレート10の周縁の走査前方側の短辺及び走査後方側の短辺にそれぞれ設けられている。図74の例では、図73の例と比較して、イメージングプレート10がその主面に平行に180度回転した状態でセットされている。 FIGS. 73 and 74 are schematic diagrams showing an example of how the imaging plate 10 provided with a plurality of projections 12 is set upside down. In the examples of FIGS. 73 and 74, the peripheral edges of the imaging plate 10 are provided with convex portions 12a and 12b. The projections 12a and 12b are provided on the short side of the scanning front side and the short side of the scanning rear side of the periphery of the imaging plate 10, respectively. In the example of FIG. 74, compared with the example of FIG. 73, the imaging plate 10 is set in a state rotated 180 degrees parallel to its main surface.

図73に示されるように凸部12aが走査前方側に位置するようにイメージングプレート10がセットされている場合、読取処理の前半で凸部12aの像が得られる。また、図74に示されるように凸部12bが走査前方側に位置するようにイメージングプレート10がセットされている場合、読取処理の前半で凸部12bの像が得らえる。これにより、画像処理部81は、ステップs201において、読取処理で得られた取得全体像のうち、読取処理の前半で得られた像だけを確認することによって、当該取得全体像に凸部12の像が含まれているか否かを判定することができる。画像処理部81は、取得全体像のうち読取処理の前半で得られた像に凸部12の像が含まれる場合、読取処理の前半で得られた象での凸部12の像の位置に基づいて、イメージングプレート10に対する凸部12の位置を特定する。そして、画像処理部81は、特定した凸部12の位置が、イメージングプレート10が前面支持されているときの凸部12の位置(例えば図73,74参照)と一致すれば、イメージングプレート10が表裏逆にセットされていると判定する。一方で、画像処理部81は、特定した凸部12の位置が、イメージングプレート10が前面支持されているときの凸部12の位置と一致しなければ、イメージングプレート10が表裏逆にセットされていないと判定する。 As shown in FIG. 73, when the imaging plate 10 is set so that the convex portion 12a is located on the scanning front side, an image of the convex portion 12a is obtained in the first half of the reading process. When the imaging plate 10 is set so that the convex portion 12b is located on the scanning front side as shown in FIG. 74, an image of the convex portion 12b is obtained in the first half of the reading process. As a result, in step s201, the image processing unit 81 confirms only the image obtained in the first half of the reading process among the obtained overall images obtained in the reading process. It can be determined whether the image is included. When the image of the convex portion 12 is included in the image obtained in the first half of the reading process of the acquired overall image, the image processing unit 81 performs the image processing on the position of the image of the convex portion 12 in the image obtained in the first half of the reading process. Based on this, the position of the convex portion 12 with respect to the imaging plate 10 is specified. Then, if the position of the identified convex portion 12 matches the position of the convex portion 12 when the imaging plate 10 is supported from the front (for example, see FIGS. 73 and 74), the image processing section 81 determines that the imaging plate 10 is It is determined that it is set upside down. On the other hand, if the identified position of the convex portion 12 does not match the position of the convex portion 12 when the imaging plate 10 is supported from the front side, the image processing section 81 determines that the imaging plate 10 is set upside down. judge not.

このように、イメージングプレート10の周縁に複数の凸部12が設けられることによって、イメージングプレート10がセットされるときのイメージングプレート10の姿勢が一定とはならない場合であっても、画像処理部81は、取得全体像の一部の像だけを確認することによって、当該取得全体像に凸部12の像が含まれているか否かを判定することができる。これにより、画像処理部81は、イメージングプレート10が表裏逆にセットされていることをすぐに特定することができる。 In this way, by providing a plurality of protrusions 12 on the peripheral edge of the imaging plate 10, even if the posture of the imaging plate 10 when the imaging plate 10 is set is not constant, the image processing unit 81 can determine whether or not the image of the convex portion 12 is included in the obtained overall image by confirming only a partial image of the obtained overall image. Thereby, the image processing section 81 can immediately identify that the imaging plate 10 is set upside down.

また、図73及び74の例のように、イメージングプレート10の周縁の走査前方側の辺及び走査後方側の辺のそれぞれに凸部12が設けられる場合には、イメージングプレート10が図73の姿勢でセットされている場合であっても、図74の姿勢でセットされている場合であっても、画像処理部81は、取得全体像うち、読取処理の早い段階で得られた像だけを確認することによって、当該取得全体像に凸部12の像が含まれているか否かを判定することが可能となる。これにより、画像処理部81は、イメージングプレート10が表裏逆にセットされていることをすぐに特定することができる。 73 and 74, when convex portions 12 are provided on the scanning front side and the scanning rear side of the periphery of the imaging plate 10, respectively, the imaging plate 10 is in the posture shown in FIG. 74, the image processing unit 81 confirms only the image obtained in the early stage of the reading process among the obtained whole images. By doing so, it becomes possible to determine whether or not the image of the convex portion 12 is included in the obtained overall image. Thereby, the image processing section 81 can immediately identify that the imaging plate 10 is set upside down.

また、図74及び74の例では、イメージングプレート10の周縁の走査前方側の辺において、その中央よりもラスタスキャンの単位走査の開始側に凸部12が設けられている。これにより、画像処理部81は、取得全体像のより少ない部分だけを確認することによって、当該取得全体像に凸部12の像が含まれているか否かを判定することが可能となる。よって、画像処理部81は、イメージングプレート10が表裏逆にセットされていることをよりすぐに特定することができる。なお、イメージングプレート10の周縁において凸部12が設けられる位置は上記の例に限られない。 In the examples of FIGS. 74 and 74, on the side of the peripheral edge of the imaging plate 10 on the scanning front side, the convex portion 12 is provided on the starting side of the unit scan of the raster scan from the center thereof. Accordingly, the image processing unit 81 can determine whether or not the image of the convex portion 12 is included in the acquired overall image by checking only a smaller portion of the acquired overall image. Therefore, the image processing section 81 can more quickly identify that the imaging plate 10 is set upside down. In addition, the position where the convex portion 12 is provided on the peripheral edge of the imaging plate 10 is not limited to the above example.

上記の例では、ステップs2の読取処理が終了した後に判定処理が実行されているが、読取処理と判定処理が並行に実行されてもよい。図75はこの場合の読取装置1の動作の一例を示すフローチャートである。操作部4のスタートボタンが操作されてステップs1が実行されると、ステップs211において読取処理が開始する。 In the above example, the determination process is executed after the reading process of step s2 is finished, but the reading process and the determination process may be executed in parallel. FIG. 75 is a flow chart showing an example of the operation of the reader 1 in this case. When the start button of the operation unit 4 is operated and step s1 is executed, reading processing is started in step s211.

読取処理が開始すると、言い換えれば走査処理が開始すると、ステップs212において、画像処理部81は、ラスタスキャンに応じて検出器40から順次出力される輝度値に基づいて、イメージングプレート10が表裏逆にセットされていることを特定できるか否かを判定する。具体的には、画像処理部81は、読取処理が開始してから現在までに検出器40が出力した複数の輝度値(言い換えれば複数の画素信号あるいは複数の画素値)に基づいて、イメージングプレート10が表裏逆にセットされていることを特定できるか否かを判定する。ステップs212は、例えば、検出器40から1つの輝度値が出力されるたびに実行されてもよいし、複数の輝度値が出力されるたびに実行されてもよい。また、ステップs212は、例えば、励起光L1のラスタスキャンが1行分あるいは数行分行われるたびに実行されてもよい。 When the reading process starts, in other words, when the scanning process starts, in step s212, the image processing unit 81 turns the imaging plate 10 upside down based on the luminance values sequentially output from the detector 40 according to raster scanning. It is determined whether or not it is possible to specify that it has been set. Specifically, the image processing unit 81 performs image processing on the imaging plate based on a plurality of luminance values (in other words, a plurality of pixel signals or a plurality of pixel values) output by the detector 40 from the start of the reading process to the present. 10 is set upside down. Step s212 may be executed, for example, each time one luminance value is output from the detector 40, or each time a plurality of luminance values are output. Further, step s212 may be executed, for example, each time the excitation light L1 is raster-scanned for one line or several lines.

ここで、イメージングプレート10の裏面に裏面特有情報600が示されている場合を考える。この場合、画像処理部81は、ステップs212において、読取処理が開始してから現在までに検出器40が出力した複数の輝度値で表される像(判定対象像ともいう)に、裏面特有情報600の像302(つまり裏面特有像302)が含まれているか否かを判定する。判定対象像を構成する複数の画素の輝度値は、読取処理が開始してから現在までに検出器40が出力した複数の輝度値で構成される。判定対象像は、読取処理の完了で得られる取得全体像の少なくとも一部となる。画像処理部81は、判定対象像に裏面特有像302が含まれると判定すると、イメージングプレート10が表裏逆にセットされていることを特定できたと判定する。つまり、画像処理部81は、イメージングプレート10が表裏逆にセットされていると判定する。一方で、画像処理部81は、判定対象像に裏面特有像302が含まれていないと判定すると、イメージングプレート10が表裏逆にセットされていることが特定できなかったと判定する。 Now, consider the case where the back surface specific information 600 is indicated on the back surface of the imaging plate 10 . In this case, in step s212, the image processing unit 81 adds back-side-specific information 600 image 302 (i.e. back side specific image 302) is included. The luminance values of the plurality of pixels forming the image to be determined are composed of the plurality of luminance values output by the detector 40 from the start of the reading process to the present. The determination target image is at least a part of the acquired overall image obtained upon completion of the reading process. When the image processing unit 81 determines that the back surface specific image 302 is included in the image to be determined, the image processing unit 81 determines that the imaging plate 10 is set upside down. That is, the image processing unit 81 determines that the imaging plate 10 is set upside down. On the other hand, if the image processing unit 81 determines that the back surface specific image 302 is not included in the image to be determined, the image processing unit 81 determines that the imaging plate 10 is set upside down could not be specified.

他の例として、イメージングプレート10の前面に、例えば上述の図71及び72に示されるように2つの前面特有情報1000が示されている場合を考える。この場合、画像処理部81は、ステップs212において、判定対象像に前面特有情報1000の像が含まれているか否かを判定する。画像処理部81は、判定対象像に前面特有情報1000の像が含まれていると判定した場合、イメージングプレート10が表裏逆にセットされていることが特定できなかったと判定する。一方で、画像処理部81は、判定対象像に前面特有情報1000が含まれていないと判定した場合、判定対象像が例えば取得全体像の半分に相当するか否かを判定する。画像処理部81は、判定対象像が取得全体像の半分に相当すると判定すると、イメージングプレート10が表裏逆にセットされていることが特定できたと判定する。一方で、画像処理部81は、判定対象像が取得全体像の半分に相当しないと判定すると、言い換えれば、判定対象像が取得全体像の半分未満であると判定すると、イメージングプレート10が表裏逆にセットされていることが特定できなかったと判定する。 As another example, consider the case where the front surface of the imaging plate 10 is indicated with two front surface specific information 1000, for example as shown in FIGS. 71 and 72 above. In this case, in step s212, the image processing unit 81 determines whether or not the image of the front surface specific information 1000 is included in the image to be determined. When the image processing unit 81 determines that the image of the front surface specific information 1000 is included in the image to be determined, the image processing unit 81 determines that the imaging plate 10 is set upside down could not be identified. On the other hand, when determining that the determination target image does not include the front surface specific information 1000, the image processing unit 81 determines whether the determination target image corresponds to, for example, half of the obtained overall image. When the image processing unit 81 determines that the image to be determined corresponds to half of the acquired entire image, the image processing unit 81 determines that the imaging plate 10 has been set upside down. On the other hand, when the image processing unit 81 determines that the image to be determined does not correspond to half of the entire obtained image, in other words, when determining that the image to be determined is less than half of the entire obtained image, the imaging plate 10 is turned upside down. It is determined that it was not possible to identify that the

ここで、判定対象像に前面特有情報1000の像が含まれておらず、かつ判定対象像が取得全体像の半分に相当するということは、取得全体像のうち読取処理の前半半分で得られた像に前面特有情報1000の像が含まれていないことを意味する。よって、画像処理部81は、取得全体像のうち読取処理の前半半分で得られた像に前面特有情報1000の像が含まれていない場合、イメージングプレート10が表裏逆にセットされていることが特定できたと判定すると言える。 Here, the fact that the determination target image does not include the image of the front surface specific information 1000 and that the determination target image corresponds to half of the obtained overall image is obtained in the first half of the reading process of the obtained overall image. It means that the image of the front surface specific information 1000 is not included in the image. Therefore, if the image obtained in the first half of the reading process does not include the image of the front surface specific information 1000, the image processing unit 81 determines that the imaging plate 10 is set upside down. It can be said that it is judged that it has been identified.

他の例として、イメージングプレート10の周縁に凸部12が設けられている場合を考える。この場合、画像処理部81は、ステップs212において、判定対象像に凸部12の像が含まれているか否かを判定する。画像処理部81は、判定対象像に凸部12の像が含まれると判定すると、その対象判定像での凸部12の像の位置に基づいて、イメージングプレート10に対する凸部12の位置を特定する。そして、画像処理部81は、特定した凸部12の位置が、イメージングプレート10が前面支持されているときの凸部12の位置(例えば図73及び74参照)と一致すれば、イメージングプレート10が表裏逆にセットされていることを特定できたと判定する。一方で、画像処理部81は、特定した凸部12の位置が、イメージングプレート10が前面支持されているときの凸部12の位置と一致しなければ、イメージングプレート10が表裏逆にセットされていることを特定できなかったと判定する。言い換えれば、画像処理部81は、特定した凸部12の位置が、イメージングプレート10が裏面支持されているときの凸部12の位置(例えば図63参照)と一致すれば、イメージングプレート10が表裏逆にセットされていることを特定できなかったと判定する。 As another example, consider the case where the imaging plate 10 has a convex portion 12 on its peripheral edge. In this case, in step s212, the image processing unit 81 determines whether or not the image of the convex portion 12 is included in the determination target image. When the image processing unit 81 determines that the image of the convex portion 12 is included in the determination target image, the image processing unit 81 specifies the position of the convex portion 12 with respect to the imaging plate 10 based on the position of the image of the convex portion 12 in the target determination image. do. Then, if the position of the identified convex portion 12 matches the position of the convex portion 12 when the imaging plate 10 is supported from the front (for example, see FIGS. 73 and 74), the image processing section 81 determines that the imaging plate 10 is It is determined that it has been identified that the front and back sides are set upside down. On the other hand, if the identified positions of the convex portions 12 do not match the positions of the convex portions 12 when the imaging plate 10 is supported from the front side, the image processing section 81 determines that the imaging plate 10 is set upside down. It is determined that it was not possible to identify the presence of In other words, if the identified positions of the convex portions 12 match the positions of the convex portions 12 when the imaging plate 10 is supported on the back surface (see, for example, FIG. 63), the image processing unit 81 determines whether the imaging plate 10 is on the front or back side. Conversely, it is determined that it was not possible to identify that it was set.

ステップs212において、画像処理部81が、イメージングプレート10が表裏逆にセットされていることを特定できたと判定すると、言い換えれば、画像処理部81が、イメージングプレート10が表裏逆にセットされていると判定すると、ステップs214が実行される。ステップs214では、読取処理を中止する。つまり、発光制御部86が光源30に走査処理を中止させ、駆動制御部83が駆動部50に保持部20の移動を中止させる。これにより、走査処理が無駄に継続することを回避することができる。ステップs214の後、上述のステップs202,s205,s206が順次実行されて、ユーザに対する警告の通知とイメージングプレート10の排出とが行われる。 In step s212, when the image processing unit 81 determines that the imaging plate 10 has been set upside down, in other words, the image processing unit 81 determines that the imaging plate 10 has been set upside down. Once determined, step s214 is executed. At step s214, the reading process is stopped. That is, the light emission control section 86 causes the light source 30 to stop scanning, and the drive control section 83 causes the drive section 50 to stop moving the holding section 20 . This makes it possible to avoid unnecessary continuation of the scanning process. After step s214, steps s202, s205, and s206 described above are sequentially executed to notify the user of a warning and eject the imaging plate 10. FIG.

一方で、ステップs212において、画像処理部81が、イメージングプレート10が表裏逆にセットされていることを特定できなかったと判定すると、ステップs213が実行される。ステップs213では、画像処理部81が、読取処理が終了した否か(言い換えれば完了したか否か)を判定する。画像処理部81は、例えば、発光制御部86から走査処理が終了したことが通知されることによって、読取処理が終了した否かを判定することができる。 On the other hand, if the image processing unit 81 determines in step s212 that it cannot identify that the imaging plate 10 is set upside down, step s213 is executed. In step s213, the image processing unit 81 determines whether or not the reading process has been completed (in other words, whether or not it has been completed). For example, the image processing unit 81 can determine whether or not the reading process has been completed by being notified by the light emission control unit 86 that the scanning process has been completed.

ステップs213において、画像処理部81は、読取処理が終了していないと判定すると、ステップs212を再度実行する。その後、読取装置1は同様に動作する。一方で、画像処理部81は、読取処理が終了したと判定すると、ステップs215において、イメージングプレート10が正しくセットされていると判定する。つまり、イメージングプレート10が表裏逆にセットされていることを画像処理部81が特定できずに読取処理が終了すると、画像処理部81はイメージングプレート10が正しくセットされていると判定する。その後、上述のステップs3及びステップs4が実行されて、イメージングプレート10から放射線像が消去される。ステップs4の後は、上述の図14の例のようにステップs5,s6,s7が実行されてもよいし、上述の図24の例のようにステップs21,s22,s5,s6,s27が実行されてもよい。 When the image processing unit 81 determines in step s213 that the reading process has not ended, it executes step s212 again. After that, the reading device 1 operates in the same way. On the other hand, when the image processing unit 81 determines that the reading process has ended, it determines in step s215 that the imaging plate 10 is correctly set. That is, when the image processing unit 81 cannot identify that the imaging plate 10 is set upside down and the reading process ends, the image processing unit 81 determines that the imaging plate 10 is correctly set. Thereafter, steps s3 and s4 described above are performed to erase the radiation image from the imaging plate 10. FIG. After step s4, steps s5, s6, and s7 may be executed as in the example of FIG. 14 described above, or steps s21, s22, s5, s6, and s27 may be executed as in the example of FIG. may be

なお、イメージングプレート10の前面に前面特有情報1000が示される場合、ステップs212において判定対象像に前面特有情報1000の像が含まれると判定されたときには、イメージングプレート10は正しくセットされていることになる。したがって、ステップs212において判定対象像に前面特有情報1000の像が含まれると判定された後は、読取処理が終了するまでステップs212が実行されなくてもよい。 In the case where the front surface specific information 1000 is shown on the front surface of the imaging plate 10, the imaging plate 10 is correctly set when it is determined in step s212 that the image of the front surface specific information 1000 is included in the image to be determined. Become. Therefore, after it is determined in step s212 that the image of the front surface specific information 1000 is included in the determination target image, step s212 does not have to be executed until the reading process is completed.

また、イメージングプレート10の周縁に凸部12が設けられている場合、ステップs212においてNOと判定されたときには、イメージングプレート10は正しくセットされていることになる。したがって、イメージングプレート10の周縁に凸部12が設けられている場合、ステップs212において一度NOと判定された後は、読取処理が終了するまでステップs212が実行されなくてもよい。 In addition, when the convex portion 12 is provided on the peripheral edge of the imaging plate 10, the imaging plate 10 is correctly set when it is determined as NO in step s212. Therefore, when the convex portion 12 is provided on the peripheral edge of the imaging plate 10, step s212 does not have to be executed until the reading process is completed after the determination of NO is once made in step s212.

また、ステップs202の後に、ステップs205及びs206が実行されなくてもよい。また、ステップs212でYESと判定されたとき、ステップs202が実行されずにステップs205及び206が実行されてもよい。また、ステップs202は、ステップs205及びs206の間に実行されてもよいし、ステップs205及びs206の後に実行されてもよい。 Also, steps s205 and s206 may not be performed after step s202. Moreover, when it is determined as YES in step s212, steps s205 and s206 may be executed without executing step s202. Also, step s202 may be performed between steps s205 and s206, or after steps s205 and s206.

図75の例では、読取処理の間に、イメージングプレート10が表裏逆にセットされていると判定されたとき、読取処理が中止されてユーザに警告が通知される。言い換えれば、イメージングプレート10上で励起光L1が走査される走査処理の間に、イメージングプレート10が表裏逆にセットされていると判定されたとき、当該走査処理が中止されてユーザに警告が通知される。これにより、ユーザにすぐに警告を通知することができる。よって、ユーザは、イメージングプレート10が表裏逆にセットされていることをすぐに知ることができる。その結果、ユーザはイメージングプレート10をすぐにセットし直すことができる。 In the example of FIG. 75, when it is determined that the imaging plate 10 is set upside down during the reading process, the reading process is stopped and a warning is given to the user. In other words, when it is determined that the imaging plate 10 is set upside down during the scanning process of scanning the imaging plate 10 with the excitation light L1, the scanning process is stopped and a warning is given to the user. be done. As a result, the user can be immediately notified of the warning. Therefore, the user can immediately know that the imaging plate 10 is set upside down. As a result, the user can quickly reset the imaging plate 10 .

また、図75の例では、読取処理の間に、イメージングプレートが表裏逆にセットされていると判定されたとき、読取処理が中止されてイメージングプレート10が排出される。これにより、イメージングプレート10をすぐに排出してユーザにイメージングプレート10を再度セットするように促すことができる。 Further, in the example of FIG. 75, when it is determined that the imaging plate is set upside down during the reading process, the reading process is stopped and the imaging plate 10 is ejected. As a result, the imaging plate 10 can be ejected immediately and the user can be urged to set the imaging plate 10 again.

また、図54の例のように、イメージングプレート10の裏面に複数の裏面特有情報600が示されている場合、イメージングプレート10がセットされるときのイメージングプレート10の姿勢が一定とならない場合であっても、検出器40の検出結果から、裏面特有情報600の像を含む対象判定像をすぐに得ることができる。例えば、上述の図69に示されるようにバーコード600cが走査前方側に位置するようにイメージングプレート10がセットされている場合、読取処理の早い段階で、バーコード600cの像を含む対象判定像が得られる。また、上述の図70に示されるようにバーコード600dが走査前方側に位置するようにイメージングプレート10がセットされている場合、読取処理の早い段階で、バーコード600dの像を含む判定対象像を得ることができる。よって、画像処理部81は、検出器40の検出結果から裏面特有情報600の像をすぐに得ることができる。これにより、画像処理部81は、読取処理が開始してからすぐに、イメージングプレート10が表裏逆にセットされていることを特定することができる。その結果、イメージングプレート10が表裏逆にセットされている場合に読取処理をすぐに中止することができる。 54, when a plurality of pieces of back surface specific information 600 are indicated on the back surface of the imaging plate 10, the posture of the imaging plate 10 when the imaging plate 10 is set may not be constant. However, the object determination image including the image of the back surface specific information 600 can be immediately obtained from the detection result of the detector 40 . For example, when the imaging plate 10 is set so that the barcode 600c is positioned on the scanning front side as shown in FIG. is obtained. Further, when the imaging plate 10 is set so that the barcode 600d is positioned on the scanning front side as shown in FIG. can be obtained. Therefore, the image processing section 81 can immediately obtain the image of the back surface specific information 600 from the detection result of the detector 40 . Accordingly, the image processing unit 81 can immediately identify that the imaging plate 10 is set upside down immediately after the reading process is started. As a result, the reading process can be stopped immediately when the imaging plate 10 is set upside down.

また、図57の例のように、イメージングプレート10の前面に複数の前面特有情報1000が示されている場合も同様に、イメージングプレート10がセットされるときのイメージングプレート10の姿勢が一定とならない場合であっても、イメージングプレート10が表裏逆にセットされていることをすぐに特定することができる。上記のステップs212では、画像処理部81は、取得全体像のうち読取処理の前半半分で得られた像に前面特有情報1000の像が含まれていない場合、イメージングプレート10が表裏逆にセットされていると判定している。複数の前面特有情報1000が図71及び72のように配置されている場合には、画像処理部81は、取得全体像のうち読取処理の前半3分の1で得られた像に前面特有情報1000の像が含まれていない場合、イメージングプレート10が表裏逆にセットされていると判定してもよい。これにより、読取処理が開始してからすぐに、イメージングプレート10が表裏逆にセットされていることを特定することができる。 Similarly, when a plurality of pieces of front surface specific information 1000 are shown on the front surface of the imaging plate 10 as in the example of FIG. Even in this case, it is possible to immediately identify that the imaging plate 10 is set upside down. In step s212, the image processing unit 81 sets the imaging plate 10 upside down if the image obtained in the first half of the reading process does not include the image of the front-surface-specific information 1000, out of the acquired entire image. It is determined that 71 and 72, the image processing unit 81 assigns the front surface-specific information to the image obtained in the first third of the reading process out of the acquired entire image. If 1000 images are not included, it may be determined that the imaging plate 10 is set upside down. This makes it possible to identify that the imaging plate 10 is set upside down immediately after the reading process is started.

また、図63~65の例のように、イメージングプレート10の周縁に複数の凸部12が設けられている場合も同様に、イメージングプレート10がセットされるときのイメージングプレート10の姿勢が一定とならない場合であっても、イメージングプレート10が表裏逆にセットされていることをすぐに特定することができる。 63 to 65, when a plurality of projections 12 are provided on the peripheral edge of the imaging plate 10, the posture of the imaging plate 10 when the imaging plate 10 is set is also fixed. Even if this is not the case, it is possible to immediately identify that the imaging plate 10 is set upside down.

なお、図75の例において、ステップs212でYESと判定されたとき、読取処理が中止されずに読取処理が終了した後にステップs202が実行されてもよい。 In the example of FIG. 75, when YES is determined in step s212, step s202 may be executed after the reading process is completed without stopping the reading process.

上記の例では、読取処理での検出器40の検出結果に基づいて、イメージングプレート10が表裏逆にセットされているか否かが判定されているが、消去処理が実行された後の検出器40の検出結果に基づいて、イメージングプレート10が表裏逆にセットされているか否かが判定されてもよい。図76はこの場合の読取装置1の動作の一例を示すフローチャートである。操作部4のスタートボタンが操作されると、上述の図24と同様に、ステップs1,s2,s3,s4,s21が順次実行される。繰り返しになるが、ステップs4はイメージングプレート10に消去光L3を照射して放射線像を消去する処理である。 In the above example, it is determined whether or not the imaging plate 10 is set upside down based on the detection result of the detector 40 in the reading process. , it may be determined whether or not the imaging plate 10 is set upside down. FIG. 76 is a flow chart showing an example of the operation of the reader 1 in this case. When the start button of the operation unit 4 is operated, steps s1, s2, s3, s4, and s21 are sequentially executed as in FIG. 24 described above. Again, step s4 is a process of irradiating the imaging plate 10 with the erasing light L3 to erase the radiation image.

次にステップs221において、読取装置1は、走査処理と検出器40の光の検出が行われる走査検出処理を実行する。走査検出処理は、消去処理したイメージングプレート10を走査する処理である。走査検出処理では、読取装置1は、走査処理を行っている間に、イメージングプレート10を保持した保持部20を副走査方向DRsに移動させる。これにより、イメージングプレート10に対して励起光L1がラスタスキャンされる。そして、走査検出処理では、ラスタスキャン中に、検出器40がイメージングプレート10及びIP外側領域からの励起光L1の反射光を検出し、その検出結果としての消去時画像信号を出力する。ステップs221は、図24のステップs22と同様の処理である。 Next, in step s221, the reading device 1 executes scanning detection processing in which scanning processing and light detection by the detector 40 are performed. The scanning detection process is a process of scanning the imaging plate 10 that has been erased. In the scanning detection process, the reader 1 moves the holding part 20 holding the imaging plate 10 in the sub-scanning direction DRs while performing the scanning process. Thereby, the imaging plate 10 is raster-scanned with the excitation light L1. In the scanning detection process, the detector 40 detects the reflected light of the excitation light L1 from the imaging plate 10 and the IP outer region during raster scanning, and outputs an erasing image signal as the detection result. Step s221 is the same process as step s22 in FIG.

走査検出処理が終了すると、ステップs222において、画像処理部81はステップs221において検出器40が出力する消去時画像信号に基づいて、イメージングプレート10が表裏逆にセットされているか否かを判定する判定処理を行う。言い換えれば、画像処理部81は、走査検出処理で得られた消去時全体像に基づいて判定処理を行う。ステップs222での判定処理は、上述のステップs201での判定処理と同様である。 When the scanning detection process ends, in step s222, the image processing unit 81 determines whether or not the imaging plate 10 is set upside down, based on the erasing image signal output by the detector 40 in step s221. process. In other words, the image processing unit 81 performs determination processing based on the erasing whole image obtained by the scanning detection processing. The determination process in step s222 is the same as the determination process in step s201 described above.

ここで、ステップs2の読取処理で得られた取得全体像には、判定処理では不要な放射線像が含まれることがある。したがって、ステップs2で得られた取得全体像が判定処理で使用される場合、画像処理部81は、裏面特有情報の像、前面特有情報の像あるいは凸部12の像が取得全体像に含まれるか否かを判定しにくい可能性がある。これにより、読取処理で得られた取得全体像が判定処理で使用される場合、画像処理部81は、イメージングプレート10が表裏逆にセットされているか否かを判定しにくいことがある。これに対して、ステップs221で得られる消去時全体像には、判定処理では不要な放射線像は含まれない。よって、消去時全体像が判定処理で使用される場合には、画像処理部81は、イメージングプレート10が表裏逆にセットされているか否かを判定し易くなる。特に前面特有情報が使用される場合、紛れ込まされる可能性がある放射線像が消去されているので、効果が大きい。 Here, the acquired whole image obtained in the reading process of step s2 may include a radiographic image that is unnecessary in the determination process. Therefore, when the obtained overall image obtained in step s2 is used in the determination process, the image processing unit 81 determines whether the image of the back surface specific information, the image of the front surface specific information, or the image of the convex portion 12 is included in the obtained overall image. It may be difficult to determine whether As a result, when the acquired whole image obtained in the reading process is used in the determination process, it may be difficult for the image processing section 81 to determine whether the imaging plate 10 is set upside down. On the other hand, the erased whole image obtained in step s221 does not include radiation images that are unnecessary in the determination process. Therefore, when the erased whole image is used in the determination process, the image processing unit 81 can easily determine whether the imaging plate 10 is set upside down. Especially when the front surface specific information is used, the effect is great because the radiographic image that may be mixed in is erased.

ステップs222においてイメージングプレート10が表裏逆にセットされていると判定されると、上述の図68で行ったステップs202,s205,s206が順次実行される。一方で、ステップs222においてイメージングプレート10が表裏逆にセットされていないと判定されると、上述の図24で行ったステップs5,s6,s27が順次実行される。 If it is determined in step s222 that the imaging plate 10 is set upside down, steps s202, s205 and s206 described above with reference to FIG. 68 are sequentially executed. On the other hand, if it is determined in step s222 that the imaging plate 10 is not set upside down, steps s5, s6 and s27 described above with reference to FIG. 24 are sequentially executed.

なお、ステップs202の後に、ステップs205及びs206が実行されなくてもよい。また、ステップs222でYESと判定されたとき、ステップs202が実行されずにステップs205及び206が実行されてもよい。また、ステップs202は、ステップs205及びs206の間に実行されてもよいし、ステップs205及びs206の後に実行されてもよい。 Note that steps s205 and s206 may not be executed after step s202. Alternatively, when the determination in step s222 is YES, steps s205 and s206 may be executed without executing step s202. Also, step s202 may be performed between steps s205 and s206, or after steps s205 and s206.

図76の例では、走査検出処理が終了した後に判定処理が実行されているが、走査検出処理と判定処理が並行に実行されてもよい。図77はこの場合の読取装置1の動作の一例を示すフローチャートである。操作部4のスタートボタンが操作された後、ステップs1,s2,s3が実行され、その後、ステップs4,s21が実行される。 In the example of FIG. 76, the determination process is executed after the scanning detection process ends, but the scanning detection process and the determination process may be executed in parallel. FIG. 77 is a flow chart showing an example of the operation of the reader 1 in this case. After the start button of the operation unit 4 is operated, steps s1, s2 and s3 are executed, and then steps s4 and s21 are executed.

ステップs21の後、ステップs231において走査検出処理が開始する。走査検出処理が開始すると、ステップs232において、画像処理部81は、ラスタスキャンに応じて検出器40から順次出力される輝度値に基づいて、イメージングプレート10が表裏逆にセットされていることを特定できるか否かを判定する。ステップs232の処理は上述のステップs212と同様である。 After step s21, the scan detection process begins in step s231. When the scanning detection process starts, in step s232, the image processing unit 81 identifies that the imaging plate 10 is set upside down based on the luminance values sequentially output from the detector 40 according to raster scanning. Determine if it is possible. The processing of step s232 is the same as that of step s212 described above.

ステップ232において、画像処理部81が、イメージングプレート10が表裏逆にセットされていることを特定できたと判定すると、言い換えれば、画像処理部81が、イメージングプレート10が表裏逆にセットされていると判定すると、ステップs234が実行される。ステップs234では、走査検出処理が中止する。これにより、走査処理及び保持部20の移動が中止する。その後、ステップs202,s205,s206が順次実行される。 In step 232, when the image processing unit 81 determines that the imaging plate 10 has been set upside down, in other words, the image processing unit 81 determines that the imaging plate 10 has been set upside down. Once determined, step s234 is executed. At step s234, the scan detection process stops. Thereby, the scanning process and the movement of the holding unit 20 are stopped. After that, steps s202, s205 and s206 are sequentially executed.

一方で、ステップ232において、画像処理部81が、イメージングプレート10が表裏逆にセットされていることを特定できなかったと判定すると、ステップs233が実行される。ステップs233では、画像処理部81が、走査検出処理が終了した否かを判定する。画像処理部81は、例えば、発光制御部86から走査処理が終了したことが通知されることによって、走査検出処理が終了した否かを判定することができる。 On the other hand, if the image processing section 81 determines in step 232 that it cannot identify that the imaging plate 10 is set upside down, step s233 is executed. At step s233, the image processing unit 81 determines whether or not the scanning detection process has ended. For example, the image processing unit 81 can determine whether or not the scanning detection processing has ended by being notified by the light emission control unit 86 that the scanning processing has ended.

ステップs233において、画像処理部81は、走査検出処理が終了していないと判定すると、ステップ232を再度実行する。その後、読取装置1は同様に動作する。一方で、画像処理部81は、走査検出処理が終了したと判定すると、ステップs235において、イメージングプレート10が正しくセットされていると判定する。その後、ステップs5,s6,s27が順次実行される。 In step s233, when the image processing unit 81 determines that the scanning detection process has not ended, it executes step 232 again. After that, the reading device 1 operates in the same way. On the other hand, when the image processing section 81 determines that the scanning detection process has ended, it determines in step s235 that the imaging plate 10 is correctly set. After that, steps s5, s6 and s27 are sequentially executed.

なお、ステップs202の後に、ステップs205及びs206が実行されなくてもよい。また、ステップs232でYESと判定されたとき、ステップs202が実行されずにステップs205及び206が実行されてもよい。また、ステップs202は、ステップs205及びs206の間に実行されてもよいし、ステップs205及びs206の後に実行されてもよい。 Note that steps s205 and s206 may not be executed after step s202. Alternatively, when the determination in step s232 is YES, steps s205 and s206 may be executed without executing step s202. Also, step s202 may be performed between steps s205 and s206, or after steps s205 and s206.

また、イメージングプレート10の前面に前面特有情報1000が示される場合であって、消去時全体像を得る必要がない場合には、ステップs232において判定対象像に前面特有情報1000の像が含まれると判定されたとき、走査検出処理が中止されてステップs235が実行されてもよい。また、イメージングプレート10の周縁に凸部12が設けられている場合であって、消去時全体像を得る必要がない場合には、ステップs232においてNOと一度判定されると、走査検出処理が中止されてステップs235が実行されてもよい。 If the front surface specific information 1000 is shown on the front surface of the imaging plate 10 and it is not necessary to obtain the entire image at the time of erasing, it is determined in step s232 that the image of the front surface specific information 1000 is included in the image to be determined. When so, the scan detection process may be discontinued and step s235 may be executed. In addition, in the case where the convex portion 12 is provided on the peripheral edge of the imaging plate 10 and it is not necessary to obtain the entire image at the time of erasing, once NO is determined in step s232, the scanning detection process is stopped. and step s235 may be executed.

図77の例では、図75の例と同様に、走査処理の間にイメージングプレート10が表裏逆にセットされていると判定されたとき、当該走査処理が中止されてユーザに警告が通知される。これにより、ユーザにすぐに警告を通知することができる。また、図77の例では、走査処理の間にイメージングプレートが表裏逆にセットされていると判定されたとき、当該走査処理が中止されてイメージングプレート10が排出される。これにより、イメージングプレート10をすぐに排出することができる。 In the example of FIG. 77, similar to the example of FIG. 75, when it is determined that the imaging plate 10 is set upside down during the scanning process, the scanning process is stopped and a warning is given to the user. . As a result, the user can be immediately notified of the warning. Further, in the example of FIG. 77, when it is determined that the imaging plate is set upside down during the scanning process, the scanning process is stopped and the imaging plate 10 is ejected. Thereby, the imaging plate 10 can be ejected immediately.

なお、図77の例において、ステップs232でYESと判定されたとき、走査検出処理が中止されずに走査検出処理が終了した後にステップs202が実行されてもよい。 In the example of FIG. 77, when YES is determined in step s232, step s202 may be executed after the scanning detection process is completed without stopping the scanning detection process.

<読取装置の他の構成例>
上記の例では、保持部20が移動しているが、保持部20は移動しなくてもよい。この場合、保持部20が停止した状態で、光源30、検出器40及び消去用光源70が移動することによって、読取装置1では上記と同様の処理が実現される。また、光源30、検出器40及び消去用光源70と、保持部20とが移動してもよい。
<Another configuration example of the reader>
Although the holding part 20 is moved in the above example, the holding part 20 does not have to be moved. In this case, by moving the light source 30, the detector 40, and the erasing light source 70 while the holding unit 20 is stopped, the reader 1 realizes the same processing as described above. Further, the light source 30, the detector 40, the erasing light source 70, and the holding section 20 may move.

また、読取装置1は複数の光源を備えてもよい。図78は2つの光源を備える読取装置1(読取装置1Aともいう)の構成例を示す概略図である。 Moreover, the reading device 1 may include a plurality of light sources. FIG. 78 is a schematic diagram showing a configuration example of a reading device 1 (also referred to as reading device 1A) having two light sources.

図78に示されるように、読取装置1Aは、上述の光源30と、それとは別の光源130とを備えている。光源130は、保持部20に保持されたイメージングプレート10あるは評価用部材900に対して照射光L11を照射することが可能である。光源130は、例えば光源30と同じ構成を有しており、照射光L11を主走査方向DRmに走査することが可能である。照射光L11は例えば可視光のレーザ光である。照射光L11の波長は、励起光L1の波長と同じであってもよいし、異なっていてもよい。光源130は、光源30と同様に、発光制御部86によって制御される。 As shown in FIG. 78, the reading device 1A includes the light source 30 described above and a light source 130 separate therefrom. The light source 130 can irradiate the imaging plate 10 or the evaluation member 900 held by the holding section 20 with the irradiation light L11. The light source 130 has, for example, the same configuration as the light source 30, and can scan the irradiation light L11 in the main scanning direction DRm. The irradiation light L11 is, for example, visible laser light. The wavelength of the irradiation light L11 may be the same as or different from the wavelength of the excitation light L1. Light source 130 is controlled by light emission controller 86 in the same manner as light source 30 .

光源130は、例えば、上述の図24のステップs22及び走査検出処理で使用されてもよい。この場合、ステップs22等では、光源30でなく光源130が、イメージングプレート10及びIP外側領域に対して照射光L11を照射する。ステップs22等では、光源130は、光源30と同様に、発光制御部86による制御によって、照射光L11をイメージングプレート10及びIP外側領域上で主走査方向DRmに走査する処理を繰り返し実行する。一方で、ステップs22等において、駆動部50は、上述の読取処理と同様に、イメージングプレート10を保持した保持部20を、副走査方向DRsに移動させる。保持部20が副走査方向DRsに移動している間に、照射光L11を主走査方向DRmに走査する処理が繰り返し実行されることにより、励起光L1と同様に、照射光L11がイメージングプレート10及びIP外側領域に対してラスタスキャンされる。ステップs22等では、イメージングプレート10に対して照射光L11がラスタスキャンされる間、検出器40が、イメージングプレート10からの照射光L11の反射光を検出し、その検出結果としての消去時画像信号を出力する。この消去時画像信号に基づく消去時全体像は、励起光L1の反射光の検出に基づく上述の消去時全体像と同様に、IP反射光像及びIP外側領域像を含み、放射線像を含まない。図24のステップs27等では、照射光L11の反射光の検出に基づく消去時全体像が表示される。読取装置1Aは、励起光L1の反射光の検出に基づく消去時全体像と同様に、照射光L11の反射光の検出に基づく消去時全体像を使用することができる。例えば、読取装置1Aは、照射光L11の反射光の検出に基づく消去時全体像に基づいてIP傾き角度を特定してもよいし、IPサイズを特定してもよい。 Light source 130 may be used, for example, in step s22 of FIG. 24 and the scan detection process described above. In this case, in step s22 and the like, the light source 130, not the light source 30, irradiates the imaging plate 10 and the IP outer region with the irradiation light L11. In step s22 and the like, the light source 130 repeats the process of scanning the imaging plate 10 and the IP outer region in the main scanning direction DRm with the irradiation light L11 under the control of the light emission control unit 86 in the same manner as the light source 30 . On the other hand, in step s22 and the like, the driving section 50 moves the holding section 20 holding the imaging plate 10 in the sub-scanning direction DRs, as in the reading process described above. While the holding unit 20 is moving in the sub-scanning direction DRs, the process of scanning the irradiation light L11 in the main scanning direction DRm is repeatedly executed, so that the irradiation light L11 reaches the imaging plate 10 in the same manner as the excitation light L1. and IP outer regions. In step s22 and the like, while the imaging plate 10 is being raster-scanned with the irradiation light L11, the detector 40 detects the reflected light of the irradiation light L11 from the imaging plate 10, and the erasing image signal as the detection result. to output The erasing overall image based on the erasing image signal includes the IP reflected light image and the IP outer region image, and does not include the radiation image, similar to the above-described erasing overall image based on the detection of the reflected light of the excitation light L1. . In step s27 and the like in FIG. 24, an erasing overall image is displayed based on the detection of the reflected light of the irradiation light L11. The reading device 1A can use the erasing overall image based on the detection of the reflected light of the irradiation light L11 as well as the erasing overall image based on the detection of the reflected light of the excitation light L1. For example, the reading device 1A may specify the IP tilt angle or the IP size based on the erasing overall image based on the detection of the reflected light of the irradiation light L11.

なお、イメージングプレート10が裏向きで読取装置1Aに入れられた場合に図24の処理が読取装置1Aで実行される場合、ステップs22では、励起光L1の反射光の検出に基づく上述の裏投入時全体像と同様の、照射光L11の反射光の検出に基づく裏投入時全体像が得られる。ユーザは、読取装置1Aの表示部3に表示される裏投入時全体像に基づいて、イメージングプレート10が裏向きで読取装置1Aに入れられたことを特定することができる。 24 is executed in the reading device 1A when the imaging plate 10 is placed face down in the reading device 1A, in step s22, the above-described reverse insertion based on the detection of the reflected light of the excitation light L1 is performed. An overall image at the time of back throwing based on detection of the reflected light of the irradiation light L11 is obtained, similar to the overall image at the time. The user can identify that the imaging plate 10 has been inserted face down into the reader 1A based on the whole image at the time of reverse insertion displayed on the display unit 3 of the reader 1A.

読取装置1は複数の検出器を備えてもよい。図79は2つの検出器と1つの光源を備える読取装置1(読取装置1Bともいう)の構成例を示す概略図である。 The reader 1 may comprise multiple detectors. FIG. 79 is a schematic diagram showing a configuration example of a reading device 1 (also referred to as reading device 1B) having two detectors and one light source.

図79に示されるように、読取装置1Bは、上述の検出器40と、検出器40とは別の検出器140とを備えている。また、読取装置1Bは、光源30を備えており、光源130は備えていない。検出器140は、例えば、検出器40と同様の構成を有している。検出器140は、検出器40と同様に、イメージングプレート10からの発光光L2を検出することができる。また、検出器140は、検出器40と同様に、イメージングプレート10からの励起光L1の反射光と、IP外側領域からの励起光L1の反射光とを検出することができる。 As shown in FIG. 79, the reading device 1B includes the detector 40 described above and a detector 140 different from the detector 40 . Further, the reading device 1B has the light source 30 and does not have the light source 130 . Detector 140 has, for example, the same configuration as detector 40 . Detector 140 can detect emitted light L2 from imaging plate 10 in the same manner as detector 40 . Further, like the detector 40, the detector 140 can detect reflected light of the excitation light L1 from the imaging plate 10 and reflected light of the excitation light L1 from the IP outer region.

検出器140は、例えば、上述の図24のステップs22及び走査検出処理で使用されてもよい。この場合、読取装置1Bでは、ステップs22等において、光源30が、イメージングプレート10及びIP外側領域に対してラスタスキャンしている間、検出器140が、イメージングプレート10及びIP外側領域からの励起光L1の反射光を検出し、その検出結果としての消去時画像信号を出力する。この消去時画像信号に基づく消去時全体像は、今まで説明した消去時全体像と同様に、IP反射光像及びIP外側領域像を含み、放射線像を含まない。読取装置1Bは、ステップs22等で取得された消去時全体像に基づいて、IP傾き角度の特定等の各種処理を行うことができる。 Detector 140 may be used, for example, in step s22 of FIG. 24 and the scanning detection process described above. In this case, in the reading device 1B, in step s22 or the like, while the light source 30 is raster-scanning the imaging plate 10 and the IP outer region, the detector 140 detects excitation light from the imaging plate 10 and the IP outer region. The reflected light of L1 is detected, and an erasing image signal is output as the detection result. The erased whole image based on the erased image signal includes the IP reflected light image and the IP outer region image, but does not contain the radiation image, like the erased whole image described so far. The reading device 1B can perform various processes such as identification of the IP tilt angle based on the erased whole image acquired in step s22 or the like.

なお、イメージングプレート10が裏向きで読取装置1Bに入れられた場合に図24の処理が読取装置1Bで実行される場合、ステップs22では、今まで説明した裏投入時全体像と同様の、イメージングプレート10の裏面が写る裏投入時全体像が得られる。 24 is executed by the reading device 1B when the imaging plate 10 is placed face down into the reading device 1B, in step s22, imaging is performed in the same manner as the whole image when the plate is inserted upside down. A back-throwing overall image is obtained in which the back side of the plate 10 is reflected.

読取装置1は複数の検出器と複数の光源とを備えてもよい。図80は検出器40及び140と光源30及び130を備える読取装置1(読取装置1Cともいう)の構成例を示す概略図である。 The reader 1 may comprise multiple detectors and multiple light sources. FIG. 80 is a schematic diagram showing a configuration example of a reading device 1 (also referred to as reading device 1C) including detectors 40 and 140 and light sources 30 and 130. In FIG.

読取装置1Cは、検出器140及び光源130を、例えば、上述の図24のステップs22及び走査検出処理で使用してもよい。この場合、読取装置1Cでは、ステップs22等において、光源130が、イメージングプレート10及びIP外側領域に対してラスタスキャンしている間、検出器140が、イメージングプレート10及びIP外側領域からの照射光L11の反射光を検出し、その検出結果としての消去時画像信号を出力する。この消去時画像信号に基づく消去時全体像は、今まで説明した消去時全体像と同様に、IP反射光像及びIP外側領域像を含み、放射線像を含まない。なお、イメージングプレート10が裏向きで読取装置1Cに入れられた場合に図24の処理が読取装置1Cで実行されるとき、ステップs22では、イメージングプレート10の裏面が写る取得全体像が得られる。 The reader 1C may use the detector 140 and the light source 130, for example, in step s22 of FIG. 24 and the scanning detection process described above. In this case, in the reading device 1C, in step s22 and the like, while the light source 130 is raster-scanning the imaging plate 10 and the IP outer region, the detector 140 detects the irradiation light from the imaging plate 10 and the IP outer region. The reflected light of L11 is detected, and an erasing image signal is output as the detection result. The erased whole image based on the erased image signal includes the IP reflected light image and the IP outer region image, but does not contain the radiation image, like the erased whole image described so far. When the processing of FIG. 24 is executed in the reader 1C when the imaging plate 10 is placed face down in the reader 1C, in step s22, an acquired whole image showing the back surface of the imaging plate 10 is obtained.

読取装置1A及び1Cでは、光源130は、可視光以外の光を照射光L11として出力してもよい。例えば、照射光L11は、赤外線であってもよいし、紫外線であってもよい。この場合、検出器40及び検出器140としては、赤外線あるいは紫外線を検出できる検出器が採用される。また、光源130が出力する照射光L11は、イメージングプレート10の放射線像形成層11を励起させることができない光であってもよい。つまり、放射線像を記録する放射線像形成層11に照射光L11が照射された場合であっても、放射線像形成層11から発光光L2が出力されてなくてもよい。 In the readers 1A and 1C, the light source 130 may output light other than visible light as the irradiation light L11. For example, the irradiation light L11 may be infrared rays or ultraviolet rays. In this case, a detector capable of detecting infrared rays or ultraviolet rays is employed as the detector 40 and the detector 140 . Further, the irradiation light L11 output by the light source 130 may be light that cannot excite the radiation image forming layer 11 of the imaging plate 10 . That is, even when the radiation image forming layer 11 for recording a radiation image is irradiated with the irradiation light L11, the radiation image forming layer 11 does not need to emit the emission light L2.

読取装置1A及び1Cにおいて、照射光L11が放射線像形成層11を励起させない場合には、イメージングプレート10が表裏逆にセットされているか否かの判定処理は、読取処理の前に実行されてもよい。この場合、画像処理部81は、検出器40が、イメージングプレート10からの照射光L11の反射光の検出結果として出力する画像信号に基づいて、イメージングプレート10が表裏逆にセットされているか否かを判定することができる。 In the reading devices 1A and 1C, if the irradiation light L11 does not excite the radiation image forming layer 11, the process of determining whether the imaging plate 10 is set upside down may be executed before the reading process. good. In this case, the image processing unit 81 determines whether the imaging plate 10 is set upside down based on the image signal output by the detector 40 as the detection result of the reflected light of the irradiation light L11 from the imaging plate 10. can be determined.

また、読取装置1B及び1Cでは、照射光L11の反射光を検出する検出器140は、例えば、カメラで使用されるCCDセンサあるいはCMOSセンサを備えてもよい。CCDはCharge Coupled Deviceの略語であり、CMOSは、Complementary Metal Oxide Semiconductorの略語である。 Moreover, in the reading devices 1B and 1C, the detector 140 that detects the reflected light of the irradiation light L11 may include, for example, a CCD sensor or a CMOS sensor used in cameras. CCD is an abbreviation for Charge Coupled Device, and CMOS is an abbreviation for Complementary Metal Oxide Semiconductor.

また、読取装置1Cでは、光源130は、照射光L11を走査するのではなく、消去用光源70のように、1度の照射でイメージングプレート10の全範囲を照射光L11で照射してもよい。この場合、検出器140は、例えば、カメラで使用されるCCDセンサあるいはCMOSセンサを備えてもよい。 Further, in the reading device 1C, the light source 130 may irradiate the entire range of the imaging plate 10 with the irradiation light L11 in one irradiation, like the erasing light source 70, instead of scanning the irradiation light L11. . In this case, detector 140 may comprise, for example, a CCD sensor or a CMOS sensor used in cameras.

また、読取装置1A,1B,1Cでは、検出器40は、励起光L1の反射光を検出できなくてもよい。この場合、検出器40の光学フィルタ42は、励起光L1を透過させなくてもよい。また、読取装置1Cでは、検出器40は、照射光L11の反射光を検出できなくてもよい。この場合、検出器40の光学フィルタ42は、照射光L11を透過させなくてもよい。 Further, in the readers 1A, 1B, and 1C, the detector 40 may not be able to detect the reflected light of the excitation light L1. In this case, the optical filter 42 of the detector 40 does not have to transmit the excitation light L1. Further, in the reading device 1C, the detector 40 may not be able to detect the reflected light of the irradiation light L11. In this case, the optical filter 42 of the detector 40 does not have to transmit the irradiation light L11.

検出器40が励起光L1の反射光を検出しない場合に取得される発光時全体像では、イメージングプレート10に未露光部分が含まれるとき、未露光領域像の輝度値と、IP外側領域像の輝度値とは同じような値となる。よって、イメージングプレート10に未露光部分が含まれる場合、画像処理部81は、上記のような二値化像を用いる方法では、発光時全体像に基づいてIP傾き角度及びIPサイズを特定することが難しくなる。しかしながら、イメージングプレート10に未露光部分が含まれる場合であっても、画像処理部81は、検出器140が出力する消去時画像信号に基づく消去時全体像に基づいて、IP傾き角度及びIPサイズを上記のようにして適切に特定することができる。 In the whole image during light emission acquired when the detector 40 does not detect the reflected light of the excitation light L1, when the imaging plate 10 includes an unexposed portion, the luminance value of the unexposed area image and the IP outer area image It becomes a value similar to the brightness value. Therefore, when the imaging plate 10 includes an unexposed portion, the image processing unit 81, in the method using the binarized image as described above, specifies the IP tilt angle and the IP size based on the entire image during light emission. becomes difficult. However, even if the imaging plate 10 includes an unexposed portion, the image processing unit 81 calculates the IP tilt angle and the IP size based on the erased whole image based on the erased image signal output by the detector 140. can be adequately identified as described above.

また、検出器40が励起光L1の反射光を検出しない場合、イメージングプレート10に励起光L1が照射されるときの検出器40の検出結果からは、裏面特有情報600、前面特有情報1000あるいは凸部12の反射光像を得ることはできない。このような場合、読取装置1Aでは、検出器40での照射光L11の反射光の検出結果から、裏面特有情報600、前面特有情報1000あるいは凸部12の反射光像を得ることができることから、当該検出結果に基づいて、イメージングプレート10が表裏逆にセットされているか否かを判定することができる。また、読取装置1Bでは、検出器140での励起光L1の反射光の検出結果に基づいて、イメージングプレート10が表裏逆にセットされているか否かを判定することができる。また、読取装置1Cでは、検出器140での照射光L11の反射光の検出結果に基づいて、イメージングプレート10が表裏逆にセットされているか否かを判定することができる。 Further, when the detector 40 does not detect the reflected light of the excitation light L1, the detection result of the detector 40 when the imaging plate 10 is irradiated with the excitation light L1 is the back surface specific information 600, the front surface specific information 1000, or the convex A reflected light image of the portion 12 cannot be obtained. In such a case, the reader 1A can obtain the back surface specific information 600, the front surface specific information 1000, or the reflected light image of the convex portion 12 from the detection result of the reflected light of the irradiation light L11 by the detector 40. Based on the detection result, it can be determined whether or not the imaging plate 10 is set upside down. Further, in the reading device 1B, based on the detection result of the reflected light of the excitation light L1 by the detector 140, it is possible to determine whether or not the imaging plate 10 is set upside down. Further, in the reading device 1C, based on the detection result of the reflected light of the irradiation light L11 by the detector 140, it is possible to determine whether or not the imaging plate 10 is set upside down.

また、読取装置1B及び1Cでは、検出器140は、発光光L2を検出できなくてもよい。この場合、読取装置1B及び1Cは、イメージングプレート10から放射線像を消去することなくIP反射光像を得ることができる。例えば、読取装置1Bは、上述のステップs2の読取処理において、検出器40及び140を同時に動作させてもよい。この場合、検出器40での発光光L2の検出と、検出器14でのイメージングプレート10からの励起光L1の反射光の検出とが並行に行われる。検出器140が出力する画像信号に基づく全体の像は、消去時全体像と同様の像となり、IP反射光像及びIP外側領域像を含み、放射線像を含まない。また、読取装置1Cは、上述のステップs2の読取処理において、光源30及び130を同時に動作させるとともに検出器40及び140を同時に動作させてもよい。この場合、検出器40での発光光L2の検出と、検出器140でのイメージングプレート10からの照射光L11の反射光の検出とが並行に行われる。この場合も、検出器140が出力する画像信号に基づく全体の像は、消去時全体像と同様の像となり、IP反射光像及びIP外側領域像を含み、放射線像を含まない。このように、読取処理の中で、発光光L2の検出に基づく放射線像だけではなく、励起光L1あるいは照射光L11の反射光の検出に基づく反射光像を得ることによって、図24のステップs21及びs22の処理が不要となる。つまり、上述の図14の一連の処理の中で、発光光L2の検出に基づく放射線像と、励起光L1あるいは照射光L11の反射光の検出に基づく反射光像とを得ることができる。よって、読取装置1の動作を簡素化することができる。 Further, in the readers 1B and 1C, the detector 140 does not have to be able to detect the emitted light L2. In this case, the readers 1B and 1C can obtain the IP reflected light image without erasing the radiation image from the imaging plate 10. FIG. For example, the reading device 1B may simultaneously operate the detectors 40 and 140 in the reading process of step s2 described above. In this case, the detection of the emitted light L2 by the detector 40 and the detection of the reflected light of the excitation light L1 from the imaging plate 10 by the detector 14 are performed in parallel. The overall image based on the image signal output by the detector 140 is the same image as the erasing overall image, and includes the IP reflected light image and the IP outer area image, but does not include the radiation image. Further, the reading device 1C may simultaneously operate the light sources 30 and 130 and simultaneously operate the detectors 40 and 140 in the reading process of step s2 described above. In this case, the detection of the emitted light L2 by the detector 40 and the detection of the reflected light of the irradiation light L11 from the imaging plate 10 by the detector 140 are performed in parallel. Also in this case, the overall image based on the image signal output by the detector 140 is the same image as the erasing overall image, and includes the IP reflected light image and the IP outer region image, but does not include the radiation image. In this manner, in the reading process, not only the radiation image based on the detection of the emitted light L2 but also the reflected light image based on the detection of the reflected light of the excitation light L1 or the irradiation light L11 is obtained. and the processing of s22 becomes unnecessary. That is, in the series of processes shown in FIG. 14 described above, it is possible to obtain a radiographic image based on the detection of the emitted light L2 and a reflected light image based on the detection of the reflected light of the excitation light L1 or the irradiation light L11. Therefore, the operation of the reading device 1 can be simplified.

上述の図2~6の例あるいは図79の例では、イメージングプレート10から放射線像を読み出すための光源と、イメージングプレート10の反射光像を得るための光源とが共通化されている。言い換えれば、イメージングプレート10から放射線像を読み出すための光源が、イメージングプレート10の反射光像を得るための光源として機能している。これにより、読取装置1の構成を簡素化することができる。 2 to 6 or the example of FIG. 79, the light source for reading the radiation image from the imaging plate 10 and the light source for obtaining the reflected light image of the imaging plate 10 are shared. In other words, the light source for reading out the radiation image from the imaging plate 10 functions as the light source for obtaining the reflected light image of the imaging plate 10 . Thereby, the configuration of the reading device 1 can be simplified.

また、上述の図2~6の例あるいは図79の例では、イメージングプレート10の反射光像を得るための光が、イメージングプレート10から放射線像を読み出すための励起光として機能していると言える。これにより、イメージングプレート10の反射光像を得るための光をイメージングプレート10に照射する光源とは別に、イメージングプレート10に励起光を照射する光源を設ける必要がない。よって、読取装置1の構成を簡素化することができる。 2 to 6 or FIG. 79, it can be said that the light for obtaining the reflected light image of the imaging plate 10 functions as the excitation light for reading out the radiation image from the imaging plate 10. . Accordingly, it is not necessary to provide a light source for irradiating the imaging plate 10 with excitation light in addition to the light source for irradiating the imaging plate 10 with the light for obtaining the reflected light image of the imaging plate 10 . Therefore, the configuration of the reading device 1 can be simplified.

また、上述の図2~6の例あるいは図78の例では、発光光L2を検出する検出器と、光の反射光を検出する検出器とが共通化されている。言い換えれば、発光光L2を検出する検出器が、光の反射光を検出する検出器として機能している。これにより、読取装置1の構成を簡素化することができる。 Further, in the examples of FIGS. 2 to 6 or the example of FIG. 78, the detector for detecting the emitted light L2 and the detector for detecting the reflected light are shared. In other words, the detector that detects the emitted light L2 functions as a detector that detects reflected light. Thereby, the configuration of the reading device 1 can be simplified.

また、上述の図2~6の例あるいは図78の例では、光の反射光を検出する検出器が、発光光L2を検出しているとも言える。これにより、光の反射光を検出する検出器とは別に、発光光L2を検出する検出器を設ける必要がない。よって、読取装置の構成を簡素化することができる。 Further, in the examples of FIGS. 2 to 6 or the example of FIG. 78, it can be said that the detector that detects the reflected light of the light detects the emitted light L2. Accordingly, it is not necessary to provide a detector for detecting the emitted light L2 separately from the detector for detecting the reflected light. Therefore, the configuration of the reader can be simplified.

上記の例の読取装置1では、ACアダプタ5以外の複数の構成が、筐体2で一体化されていたが、一体化されていなくてもよい。例えば、読取装置1は、筐体2に設けられた表示部3とは別に、あるいは表示部3の代わりに、筐体2の外側に位置する表示部13を備えてもよい。図81は、筐体2表示面の外側に表示部13を備える読取装置1(読取装置1Dともいう)の構成の一例を示す概略図である。表示部13は表示装置13ともいえる。 In the reading device 1 of the above example, a plurality of components other than the AC adapter 5 are integrated in the housing 2, but they do not have to be integrated. For example, the reading device 1 may include a display section 13 positioned outside the housing 2 separately from the display section 3 provided in the housing 2 or instead of the display section 3 . FIG. 81 is a schematic diagram showing an example of a configuration of a reader 1 (also referred to as a reader 1D) having a display section 13 outside the display surface of the housing 2. As shown in FIG. The display unit 13 can also be called the display device 13 .

表示部13は、例えば、液晶表示装置あるいは有機EL表示装置であり、文字、記号、図形及び画像などの各種情報を表示することが可能である。表示部13は、筐体2内の制御部80の表示制御部82によって制御される。表示制御部82は、例えば、筐体2内のインタフェース部95を通じて、表示部13を制御することができる。インタフェース部95と表示部13との間の通信は、USBに準拠してもよいし、DisplayPortに準拠してもよいし、HDMI(High-Definition Multimedia Interface)(登録商標)に準拠してもよい。また、インタフェース部95は、表示部13と有線接続されてもよいし、無線接続されてもよい。表示部13は、取得全体像を表示してもよいし、切出像を表示してもよい。なお、図81の例では、読取装置1Dの筐体2に表示部3が設けられているが、表示部3は設けられなくてもよい。また、読取装置1Dは、図78~80に示されるように、複数の光源を備えてもよいし、複数の検出器を備えてもよい。 The display unit 13 is, for example, a liquid crystal display device or an organic EL display device, and is capable of displaying various information such as characters, symbols, graphics, and images. The display unit 13 is controlled by a display control unit 82 of a control unit 80 inside the housing 2 . The display control unit 82 can control the display unit 13 through the interface unit 95 inside the housing 2, for example. Communication between the interface unit 95 and the display unit 13 may conform to USB, DisplayPort, or HDMI (High-Definition Multimedia Interface) (registered trademark). . Further, the interface unit 95 may be wired or wirelessly connected to the display unit 13 . The display unit 13 may display an acquired whole image or may display a clipped image. In addition, in the example of FIG. 81, the display unit 3 is provided in the housing 2 of the reading device 1D, but the display unit 3 may not be provided. Further, the reading device 1D may include a plurality of light sources or a plurality of detectors, as shown in FIGS. 78-80.

図82及び83は、読取装置1の構成の他の一例を示す概略図である。図82及び83に示される読取装置1(読取装置1Eともいう)では、読取装置1Eの機能の一部を有するコンピュータ装置950が筐体2の外側に設けられている。図83に示されるように、コンピュータ装置950は、例えば、上述の表示部3、画像処理部81及び表示制御部82を備える。コンピュータ装置950は、例えば、パーソナルコンピュータ(汎用コンピュータともいう)であってもよい。この場合、コンピュータ装置950は、ノート型であってもよいし、デスクトップ型であってもよい。以後、読取装置1Eにおいて、筐体2と、筐体2によって一体化された複数の構成と、ACアダプタ5とをまとめて読取装置本体9と呼ぶことがある。 82 and 83 are schematic diagrams showing another example of the configuration of the reading device 1. FIG. 82 and 83, a computer device 950 having part of the functions of the reader 1E is provided outside the housing 2 in the reader 1 (also referred to as the reader 1E) shown in FIGS. As shown in FIG. 83, the computer device 950 includes, for example, the display section 3, the image processing section 81, and the display control section 82 described above. Computing device 950 may be, for example, a personal computer (also called a general purpose computer). In this case, the computer device 950 may be of a notebook type or a desktop type. Hereinafter, in the reading device 1E, the housing 2, a plurality of components integrated by the housing 2, and the AC adapter 5 may be collectively referred to as a reading device main body 9. FIG.

コンピュータ装置950は、読取装置本体9と通信することが可能である。コンピュータ装置950は、例えば、画像処理部81及び表示制御部82を有する制御部951と、読取装置本体9と通信するインタフェース部952とを備える。また、コンピュータ装置950は、ユーザからの操作を受け付ける操作部953を備える。 The computer device 950 can communicate with the reader main body 9 . The computer device 950 includes, for example, a control section 951 having an image processing section 81 and a display control section 82 and an interface section 952 communicating with the reading device main body 9 . The computer device 950 also includes an operation unit 953 that receives operations from the user.

制御部951は、コンピュータ装置950の動作を統合的に管理することが可能であり、制御回路ともいえる。制御部951は、例えば、表示部3及びインタフェース部952を制御することができる。また、制御部951は、操作部953が受け付けたユーザ操作に応じた処理を行うことができる。 The control unit 951 can integrally manage the operation of the computer device 950, and can be called a control circuit. The control unit 951 can control the display unit 3 and the interface unit 952, for example. Further, the control unit 951 can perform processing according to user operations received by the operation unit 953 .

制御部951は、例えば、少なくとも一つのプロセッサと、記憶部とを備え、一種のコンピュータ装置であるといえる。制御部951が備える少なくとも一つのプロセッサには、CPUが含まれてもよいし、CPU以外のプロセッサが含まれてもよい。制御部951では、少なくとも一つのプロセッサが記憶部(記憶回路ともいう)内のプログラムを実行することによって、各種機能が実現される。制御部951では、少なくとも一つのプロセッサが記憶部内のプログラムを実行することによって、機能ブロックとして、上述の画像処理部81及び表示制御部82が形成される。 The control unit 951 can be said to be a kind of computer device including, for example, at least one processor and a storage unit. At least one processor included in the control unit 951 may include a CPU, or may include a processor other than the CPU. In the control portion 951, various functions are realized by at least one processor executing a program in a storage portion (also referred to as a storage circuit). In the control unit 951, the image processing unit 81 and the display control unit 82 described above are formed as functional blocks by at least one processor executing a program in the storage unit.

操作部953は、例えば、キーボード及びマウスを備える。操作部953は、ユーザのタッチ操作を検出するタッチセンサを備えてもよい。操作部953がタッチセンサを備える場合、当該タッチセンサと表示部3とで、表示機能及びタッチ検出機能を有するタッチパネルディスプレイが構成されてもよい。 The operation unit 953 has, for example, a keyboard and a mouse. The operation unit 953 may include a touch sensor that detects a user's touch operation. When the operation unit 953 includes a touch sensor, the touch sensor and the display unit 3 may constitute a touch panel display having a display function and a touch detection function.

インタフェース部952は、読取装置本体9のインタフェース部95と通信することが可能である。インタフェース部952と読取装置本体9のインタフェース部95との間の通信は、イーサネットに準拠してもよいし、USBに準拠してもよいし、WiFiに準拠してもよいし、他の規格に準拠してもよい。インタフェース部952は、インタフェース部95と有線通信を行ってもよいし、無線通信を行ってもよい。インタフェース部952は、インタフェース回路ともいえるし、通信部ともいえるし、通信回路ともいえる。コンピュータ装置950の制御部951と、読取装置本体9の制御部80とは、インタフェース部952及びインタフェース部95を通じて、互いに情報のやり取りを行うことができる。 The interface section 952 can communicate with the interface section 95 of the reader body 9 . Communication between the interface unit 952 and the interface unit 95 of the reader body 9 may conform to Ethernet, USB, WiFi, or other standards. May comply. The interface unit 952 may perform wired communication with the interface unit 95, or may perform wireless communication. The interface unit 952 can be called an interface circuit, a communication unit, or a communication circuit. The control section 951 of the computer device 950 and the control section 80 of the reading device main body 9 can exchange information with each other through the interface section 952 and the interface section 95 .

読取装置1Eでは、コンピュータ装置950の制御部951と読取装置本体9の制御部80とが協働することによって、制御部80が行っていた上述の各種処理が実行される。読取装置1Eでは、検出制御部85が、検出器40が出力する画像信号をインタフェース部95に出力する。インタフェース部95は、入力された画像信号をインタフェース部952に出力する。インタフェース部952は、入力された画像信号を制御部951に入力する。画像処理部81は、制御部951に入力された画像信号に対して上述の画像処理を行う。そして、画像処理部81は、画像処理後の画像信号に基づいて、上述の傾き角度特定処理を実行したり、サイズ特定処理を実行したり、切出処理を実行したりする。また、表示制御部82は、画像処理後の画像信号に基づいて、例えば、取得全体像を表示部3に表示させる。 In the reader 1E, the control section 951 of the computer device 950 and the control section 80 of the reading device main body 9 work together to execute the above-described various processes that were performed by the control section 80 . In the reading device 1</b>E, the detection control section 85 outputs the image signal output by the detector 40 to the interface section 95 . The interface section 95 outputs the input image signal to the interface section 952 . The interface unit 952 inputs the input image signal to the control unit 951 . The image processing unit 81 performs the image processing described above on the image signal input to the control unit 951 . Then, the image processing unit 81 executes the above-described tilt angle specifying process, size specifying process, and clipping process based on the image signal after the image processing. Further, the display control unit 82 causes the display unit 3 to display, for example, an acquired overall image based on the image signal after image processing.

コンピュータ装置950の操作部953は、読取装置本体9の操作部4が受け付ける複数のユーザ操作の少なくとも一部を受け付けてもよい。例えば、操作部953は、図14の一連の処理の開始を指示するユーザ操作を受け付けてもよいし、図23の一連の処理の開始を指示するユーザ操作を受け付けてもよいし、図24の一連の処理の開始を指示するユーザ操作を受け付けてもよいし、図66,68,75~78の一連の処理の開始を指示するユーザ操作を受け付けてもよい。この場合、制御部951は、操作部953が受け付けたユーザ操作をインタフェース部952を通じて読取装置本体9に通知する。読取装置本体9では、制御部80が、インタフェース部95を通じて制御部951からの通知を受け取り、操作部953が受け付けたユーザ操作に応じた処理を実行する。 The operation unit 953 of the computer device 950 may receive at least some of the user operations received by the operation unit 4 of the reader main body 9 . For example, the operation unit 953 may accept a user operation instructing the start of the series of processes in FIG. 14, may accept a user operation instructing the start of the series of processes in FIG. A user operation instructing the start of a series of processes may be accepted, or a user operation instructing the start of the series of processes shown in FIGS. In this case, the control unit 951 notifies the reader main body 9 of the user operation received by the operation unit 953 through the interface unit 952 . In the reading device main body 9 , the control unit 80 receives the notification from the control unit 951 through the interface unit 95 and executes processing according to the user's operation received by the operation unit 953 .

また、操作部953は、操作部4が受け付けないユーザ操作を受け付けてもよいし、操作部4は、操作部953が受け付けないユーザ操作を受け付けてもよい。また、操作部953が受け付けたユーザ操作と、操作部4が受け付けたユーザ操作が競合する場合、読取装置1Eでは、例えば、読取装置本体9が受け付けたユーザ操作に応じた処理が優先的に実行されてもよい。 Further, the operation unit 953 may accept user operations that the operation unit 4 does not accept, and the operation unit 4 may accept user operations that the operation unit 953 does not accept. Further, when the user operation received by the operation unit 953 conflicts with the user operation received by the operation unit 4, in the reading device 1E, for example, processing according to the user operation received by the reading device main body 9 is preferentially executed. may be

なお、読取装置1Eは、上述の図1等に示されるように、筐体2に設けられた表示部を備えてもよい。また、読取装置1Eは、図78~80に示されるように、複数の光源を備えてもよいし、複数の検出器を備えてもよい。また、読取装置1Eは、操作部4及び953のどちらか一方を備えなくてもよい。また、読取装置1Eでは、読取装置本体9の制御部80が、コンピュータ装置950の画像処理部81が行う複数の処理の一部を代わりに実行してもよい。例えば、制御部80は、検出器40からの画像信号に対する画像処理を実行し、画像処理後の画像信号が画像処理部81に入力されてもよい。 Note that the reading device 1E may include a display section provided in the housing 2, as shown in FIG. 1 and the like described above. Further, the reading device 1E may be provided with a plurality of light sources or a plurality of detectors, as shown in FIGS. 78-80. Further, the reading device 1E does not have to include either one of the operation units 4 and 953 . Further, in the reading device 1E, the control section 80 of the reading device main body 9 may instead execute some of the processes performed by the image processing section 81 of the computer device 950 . For example, the control unit 80 may perform image processing on the image signal from the detector 40 and the image signal after image processing may be input to the image processing unit 81 .

以上のように、読取装置1は詳細に説明されたが、上記した説明は、全ての局面において例示であって、この開示がそれに限定されるものではない。また、上述した各種変形例は、相互に矛盾しない限り組み合わせて適用可能である。そして、例示されていない無数の変形例が、この開示の範囲から外れることなく想定され得るものと解される。 Although the reader 1 has been described in detail as above, the above description is illustrative in all aspects, and the present disclosure is not limited thereto. Moreover, the various modifications described above can be applied in combination as long as they do not contradict each other. And it is understood that numerous variations not illustrated can be envisioned without departing from the scope of this disclosure.

1,1A,1B,1C,1D,1E 読取装置
10 イメージングプレート
12,12a,12b 凸部
30,130 光源
40,140 検出器
81 画像処理部
101a,101b,151a 放射線像
600 裏面特有情報
600a,600b,1000a,100b 文字
600c,600d バーコード
1000 前面特有情報
L1 励起光
L2 発光光
L3 消去光
L11 照射光
1, 1A, 1B, 1C, 1D, 1E Reader 10 Imaging Plate 12, 12a, 12b Convex Part 30, 130 Light Source 40, 140 Detector 81 Image Processing Section 101a, 101b, 151a Radiation Image 600 Back Side Specific Information 600a, 600b , 1000a, 100b Characters 600c, 600d Barcode 1000 Front-specific information L1 Excitation light L2 Emission light L3 Erasure light L11 Irradiation light

Claims (18)

イメージングプレートから放射線像を読み取る読取装置であって、
前記イメージングプレートに光を照射する光源と、
前記イメージングプレートからの前記光の反射光を検出する検出器と、
前記検出器の検出結果に基づいて、前記イメージングプレートが表裏逆にセットされているか否かを判定する判定部と
を備える、読取装置。
A reading device for reading a radiographic image from an imaging plate,
a light source that irradiates the imaging plate with light;
a detector that detects reflected light of the light from the imaging plate;
and a determination unit that determines whether or not the imaging plate is set upside down based on the detection result of the detector.
請求項1に記載の読取装置であって、
前記光は、前記イメージングプレートから放射線像を読み取るために前記イメージングプレートを励起させる励起光として機能する、読取装置。
The reader according to claim 1, wherein
The reading device, wherein the light functions as excitation light that excites the imaging plate to read the radiation image from the imaging plate.
請求項1または請求項2に記載の読取装置であって、
前記検出器は、励起光による前記イメージングプレートからの発光光を検出する、読取装置。
The reader according to claim 1 or claim 2,
The reader, wherein the detector detects light emitted from the imaging plate by excitation light.
請求項1から請求項3のいずれか一つに記載の読取装置であって、
前記イメージングプレートの裏面には、少なくとも一つの裏面特有情報が示されている、読取装置。
The reader according to any one of claims 1 to 3,
A reader, wherein the back side of the imaging plate is marked with at least one back side specific information.
請求項4に記載の読取装置であって、
前記光源は、前記イメージングプレート上で前記光を走査し、
前記イメージングプレートの前記裏面には、複数の裏面特有情報が示されている、読取装置。
A reading device according to claim 4,
the light source scans the light over the imaging plate;
A reader, wherein the back side of the imaging plate is marked with a plurality of back side specific information.
請求項1から請求項5のいずれか一つに記載の読取装置であって、
前記イメージングプレートの前面には、少なくとも一つの前面特有情報が示されている、読取装置。
The reader according to any one of claims 1 to 5,
The reader, wherein the front surface of the imaging plate is marked with at least one front surface specific information.
請求項6に記載の読取装置であって、
前記光源は、前記イメージングプレート上で前記光を走査し、
前記イメージングプレートの前記前面には、複数の前面特有情報が示されている、読取装置。
A reader according to claim 6, wherein
the light source scans the light over the imaging plate;
The reader, wherein the front surface of the imaging plate is marked with a plurality of front surface specific information.
請求項1から請求項7のいずれか一つに記載の読取装置であって、
前記イメージングプレートの周縁に、前記イメージングプレートが表裏逆にセットされているか否かを判定するための少なくとも一つの凸部が設けられている、読取装置。
The reader according to any one of claims 1 to 7,
The reading device, wherein at least one convex portion is provided on the peripheral edge of the imaging plate for determining whether the imaging plate is set upside down.
請求項8に記載の読取装置であって、
前記光源は、前記イメージングプレート上で前記光を走査し、
前記イメージングプレートの周縁に、前記イメージングプレートが表裏逆にセットされているか否かを判定するための複数の凸部が設けられている、読取装置。
A reader according to claim 8, wherein
the light source scans the light over the imaging plate;
The reading device, wherein a plurality of projections for determining whether or not the imaging plate is set upside down are provided on the periphery of the imaging plate.
請求項1から請求項9のいずれか一つに記載の読取装置であって、
前記イメージングプレートが表裏逆にセットされていると判定されたとき、ユーザに警告を通知する、読取装置。
The reader according to any one of claims 1 to 9,
A reader that alerts a user when it is determined that the imaging plate is set upside down.
請求項1から請求項10のいずれか一つに記載の読取装置であって、
前記イメージングプレートが表裏逆にセットされていないと判定されたとき、前記放射線像が読み取られた前記イメージングプレートに対して、前記放射線像を消去するための消去光を照射し、
前記イメージングプレートが表裏逆にセットされていると判定されたとき、前記イメージングプレートに前記消去光を照射しない、読取装置。
The reader according to any one of claims 1 to 10,
when it is determined that the imaging plate is not set upside down, irradiating the imaging plate from which the radiation image has been read with erasing light for erasing the radiation image;
A reader that does not irradiate the imaging plate with the erasing light when it is determined that the imaging plate is set upside down.
請求項1から請求項11のいずれか一つに記載の読取装置であって、
前記光源は、前記イメージングプレート上で前記光を走査する走査処理を実行し、
前記走査処理の間に、前記イメージングプレートが表裏逆にセットされていると判定されたとき、前記走査処理を中止する、読取装置。
The reader according to any one of claims 1 to 11,
The light source performs a scanning process of scanning the light on the imaging plate,
A reader that stops the scanning process when it is determined during the scanning process that the imaging plate is set upside down.
請求項1から請求項10のいずれか一つに記載の読取装置であって、
前記イメージングプレートが表裏逆にセットされていると判定されたとき、前記イメージングプレートを排出する、読取装置。
The reader according to any one of claims 1 to 10,
A reader that ejects the imaging plate when it is determined that the imaging plate is set upside down.
請求項13に記載の読取装置であって、
前記イメージングプレートが表裏逆にセットされていないと判定されたとき、前記放射線像が読み取られた前記イメージングプレートに対して、前記放射線像を消去するための消去光を照射し、
前記イメージングプレートが表裏逆にセットされていると判定されたとき、前記イメージングプレートに前記消去光を照射せずに前記イメージングプレートを排出する、読取装置。
14. A reader according to claim 13, comprising:
when it is determined that the imaging plate is not set upside down, irradiating the imaging plate from which the radiation image has been read with erasing light for erasing the radiation image;
A reader that ejects the imaging plate without irradiating the imaging plate with the erasing light when it is determined that the imaging plate is set upside down.
請求項13または請求項14に記載の読取装置であって、
前記光源は、前記イメージングプレート上で前記光を走査する走査処理を実行し、
前記走査処理の間に、前記イメージングプレートが表裏逆にセットされていると判定されたとき、前記走査処理を中止して前記イメージングプレートを排出する、読取装置。
15. The reader according to claim 13 or 14,
The light source performs a scanning process of scanning the light on the imaging plate,
A reader that stops the scanning process and ejects the imaging plate when it is determined during the scanning process that the imaging plate is set upside down.
イメージングプレートから放射線像を読み取る読取装置であって、前記イメージングプレートに光を照射する光源と、前記イメージングプレートからの前記光の反射光を検出する検出器とを備える読取装置を制御するためのプログラムであって、
前記読取装置に、
前記検出器の検出結果に基づいて、前記イメージングプレートが表裏逆にセットされているか否かを判定させるためのプログラム。
A program for controlling a reading device for reading a radiation image from an imaging plate, the reading device comprising a light source for irradiating the imaging plate with light and a detector for detecting reflected light of the light from the imaging plate. and
to the reader,
A program for determining whether or not the imaging plate is set upside down based on the detection result of the detector.
請求項16に記載のプログラムであって、
前記読取装置に、
前記イメージングプレートが表裏逆にセットされていると判定されたとき、前記ユーザに警告を通知させるためのプログラム。
17. The program according to claim 16,
to the reader,
A program for notifying the user of a warning when it is determined that the imaging plate is set upside down.
請求項16または請求項17に記載のプログラムであって、
前記読取装置に、
前記イメージングプレートが表裏逆にセットされていると判定されたとき、前記イメージングプレートを排出させるためのプログラム。
The program according to claim 16 or 17,
to the reader,
A program for ejecting the imaging plate when it is determined that the imaging plate is set upside down.
JP2021189734A 2021-11-22 2021-11-22 Reading device and program Pending JP2023076349A (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2021189734A JP2023076349A (en) 2021-11-22 2021-11-22 Reading device and program
US18/055,901 US20230164279A1 (en) 2021-11-22 2022-11-16 Reading apparatus
EP22208546.6A EP4209809A1 (en) 2021-11-22 2022-11-21 Radiography image reading apparatus
CN202211467076.6A CN116148283A (en) 2021-11-22 2022-11-22 Reading device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021189734A JP2023076349A (en) 2021-11-22 2021-11-22 Reading device and program

Publications (1)

Publication Number Publication Date
JP2023076349A true JP2023076349A (en) 2023-06-01

Family

ID=86548059

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021189734A Pending JP2023076349A (en) 2021-11-22 2021-11-22 Reading device and program

Country Status (1)

Country Link
JP (1) JP2023076349A (en)

Similar Documents

Publication Publication Date Title
CN107122690A (en) With flash of light correction sight and the terminal alternately illuminated
US9219838B2 (en) Overhead image reading apparatus
JP2005084890A (en) Optical information reader
JP5180054B2 (en) Image reading apparatus, image reading system, and contour detection method
US8441702B2 (en) Scanning and capturing digital images using residue detection
JP2023076349A (en) Reading device and program
US7973984B2 (en) Image reading apparatus
US7057200B2 (en) Storage phosphor erase
JP7457085B2 (en) reading device
JP2009145846A (en) Projection type image display apparatus
JP2023076350A (en) Reading device
JP2023076397A (en) Reading device and program
EP4209809A1 (en) Radiography image reading apparatus
JP4650138B2 (en) Optical information reader
JP2008249783A (en) Image display device and method, and screen
JP4630477B2 (en) Image signal processing method
US20210286094A1 (en) System and method for providing imaging parameters
US20240089390A1 (en) Image processing apparatus, non-transitory computer readable medium storing program, and image processing method
US8796643B2 (en) Radiographic image erasing device
TWI753131B (en) detection device
CN216955698U (en) Fluorescence development regional reinforcing means
US11403474B2 (en) Imaging method, imaging device, method for distinguishing imaging object, and storage medium
JP2008185352A (en) Color identification apparatus and method
JP2023128739A (en) Radiographic image reading device and program
JP2021117108A (en) Control device, control method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230407

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240220

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20240418