WO2021049478A1 - 検像装置、コンソール及び放射線撮影システム - Google Patents

検像装置、コンソール及び放射線撮影システム Download PDF

Info

Publication number
WO2021049478A1
WO2021049478A1 PCT/JP2020/033918 JP2020033918W WO2021049478A1 WO 2021049478 A1 WO2021049478 A1 WO 2021049478A1 JP 2020033918 W JP2020033918 W JP 2020033918W WO 2021049478 A1 WO2021049478 A1 WO 2021049478A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
radiation
subject
imaging
marker
Prior art date
Application number
PCT/JP2020/033918
Other languages
English (en)
French (fr)
Inventor
泰樹 原田
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2021545542A priority Critical patent/JP7362750B2/ja
Priority to CN202080064012.4A priority patent/CN114423349A/zh
Priority to EP20863897.3A priority patent/EP4029450A4/en
Publication of WO2021049478A1 publication Critical patent/WO2021049478A1/ja
Priority to US17/689,990 priority patent/US20220198663A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/44Constructional features of apparatus for radiation diagnosis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/44Constructional features of apparatus for radiation diagnosis
    • A61B6/4494Means for identifying the diagnostic device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/467Arrangements for interfacing with the operator or the patient characterised by special input means
    • A61B6/468Arrangements for interfacing with the operator or the patient characterised by special input means allowing annotation or message recording
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/54Control of apparatus or devices for radiation diagnosis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/60Rotation of whole images or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20132Image cropping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection

Definitions

  • the present invention relates to an image inspection device, a console, and a radiography system.
  • an image inspection step for confirming whether or not the obtained radiographic image is suitable for diagnosis or the like is usually carried out.
  • image loss determination for determining imaging failure (that is, necessity of re-imaging), adjustment of density and contrast, adjustment of the angle of the subject in the radiographic image, trimming to cut out a part related to diagnosis, etc.
  • steps such as superimposing markers indicating the shooting direction and / or laterality of the subject reflected in the radiographic image.
  • Patent Document 1 a device that automatically determines copying loss using a preview image in which the image quality of a radiation image is reduced. Further, there is also known a device that automatically adjusts the contrast by automatically determining the window level (WL (window level)) and the window width (WW (window width)) (Patent Document 2).
  • a marker indicating the shooting direction and / or laterality of the subject may not be directly determined from the radiographic image of the subject. In this case, it is necessary to make a judgment by comparing the captured radiographic image with the menu or order related to the imaging, and input the content of the marker, so that the workload is heavy.
  • the present invention reduces the workload of the image detection process by automatically and accurately superimposing markers indicating the shooting direction and / or laterality of the subject on the radiation image, the console, and radiation.
  • the purpose is to provide a photography system.
  • the present invention is an image detection device including a processor, in which the processor acquires a radiation image obtained by photographing a subject using radiation and recognizes an imaging condition related to the imaging direction and / or laterality of the subject reflected in the radiation image. Then, using the recognition result, a marker indicating the shooting direction and / or laterality of the subject reflected in the radiation image is superimposed on the radiation image.
  • the processor acquires a photographing menu related to the acquisition of a radiation image and recognizes the imaging conditions by using the imaging menu and the radiation image.
  • the processor acquires a camera image of the subject by a method different from that of radiography before obtaining the radiological image, and recognizes the imaging conditions using the camera image.
  • the processor recognizes the position where the marker should be superimposed on the radiation image by using the radiation image, and superimposes or moves the marker on the recognized position.
  • the processor may superimpose a marker on the radiation image determined to be unnecessary for re-imaging in the imaging loss determination by using the recognition result. preferable.
  • the processor adjusts the density and / or contrast of the radiographic image, it is preferable to superimpose the marker on the radiographic image whose density and / or contrast is adjusted by using the recognition result.
  • the processor adjusts the angle of the subject in the radiation image, it is preferable to superimpose the marker on the radiation image in which the angle of the subject is adjusted by using the recognition result.
  • the processor When the processor performs a trimming process for cutting out a part of a radiation image, it is preferable to superimpose a marker on the radiation image after the trimming process by using the recognition result.
  • the processor preferably displays the history of the image detection process including the marker superimposition process.
  • the processor accepts a redo instruction for at least a part of the image inspection process including the marker superimposition process, and when the redo instruction is received, the processor redoes the image inspection process in addition to the redo instruction, and at least the redo instruction. It is preferable that the image inspection step performed after the image inspection step received is automatically re-executed according to the result of the image inspection step instructed to redo.
  • the present invention is a console, which controls a radiation imaging system including a radiation generation unit that generates radiation and a radiation imaging unit that photographs a subject using radiation, and also includes an image detection device.
  • the present invention is also a radiography system, which includes a console.
  • the present invention is a radiography system, which includes a radiation generating unit that generates radiation, a radiation imaging unit that photographs a subject using radiation, and a processor, and the processor uses the radiation imaging unit.
  • the imaging conditions related to the imaging direction and / or laterality of the subject reflected in the obtained radiation image are recognized, and the recognition result is used to add a marker indicating the imaging direction and / or laterality of the subject reflected in the radiation image to the radiation image.
  • a radiography system which includes a radiation generating unit that generates radiation, a radiation imaging unit that photographs a subject using radiation, and a processor, and the processor uses the radiation imaging unit.
  • the imaging conditions related to the imaging direction and / or laterality of the subject reflected in the obtained radiation image are recognized, and the recognition result is used to add a marker indicating the imaging direction and / or laterality of the subject reflected in the radiation image to the radiation image.
  • superimpose superimpose.
  • the imaging device, console, and radiographic imaging system of the present invention reduce the workload of the imaging process by automatically and accurately superimposing markers indicating the imaging direction and / or laterality of the subject on the radiographic image. it can.
  • the image inspection device of the present invention is used in the image inspection process of a radiation image obtained by photographing a subject using radiation.
  • the image inspection step is performed, for example, by the radiologist who performed the imaging.
  • the image inspection device may be installed in, for example, an imaging examination room of the radiology department, or may be installed in a place other than the radiology department.
  • the image inspection device 10 constitutes a radiography system 20.
  • the radiation imaging system 20 includes a radiation source 21, a radiation imaging unit 22, a camera 23, a console 24, an image detection device 10, and the like, which are radiation generation units.
  • the console 24 is the main control device (so-called computer) of the radiography system 20, and is, for example, a personal computer or a computer such as a workstation in which an application program for executing a predetermined function is installed.
  • the image detector 10 is also, for example, a personal computer or a computer such as a workstation in which an application program for executing a predetermined function is installed.
  • the computer of the console 24 also executes the function of the image detector 10.
  • the console 24 includes an image detector 10.
  • the image inspection device 10 may be a computer common to the computer of the console 24 as in the present embodiment, or may be a computer other than the console 24, and the form is not limited. Therefore, the image inspection device 10 may be included in other devices or the like, or may be a single device.
  • the radiation source 21 generates radiation Ra used for radiography.
  • the radiation source 21 is an X-ray source that generates X-rays. Therefore, the radiation imaging system 20 is an X-ray imaging system that acquires an X-ray image of the subject Obj by photographing the subject Obj using X-rays.
  • the subject Obj is, for example, a person.
  • the radiation photographing unit 22 photographs the subject Obj using the radiation Ra generated by the radiation source 21.
  • the radiation photographing unit 22 includes a so-called radiation detector, and is, for example, an FPD (Flat Panel Detector).
  • the FPD outputs a radiation image of the subject Obj by detecting the radiation Ra transmitted through the subject Obj and converting it into an electric signal.
  • a grid (not shown) can be used together if necessary.
  • the grid is a device for removing scattered radiation components of radiation, for example, a stationary Lisholm blender, a mobile Bucky blender, or the like.
  • the radiography unit 22 includes one radiation detector, and outputs one radiographic image by one irradiation of radiation Ra.
  • the radiation detector included in the radiography unit 22 may be either an indirect conversion type radiation detector or a direct conversion type radiation detector.
  • the indirect conversion type radiation detector is a detection that indirectly obtains an electric signal by converting radiation Ra into visible light using a scintillator made of CsI (cesium iodide) or the like and photoelectrically converting the visible light. It is a vessel.
  • the direct conversion type radiation detector is a detector that directly converts radiation Ra into an electric signal using a scintillator made of amorphous selenium or the like.
  • the radiation detector included in the radiation photographing unit 22 may be a PSS (Penetration Side Sampling) type radiation detector or an ISS (Irradiation Side Sampling) type radiation detector.
  • the PSS method is a method in which a scintillator is arranged on the subject Obj side with respect to a TFT (Thin Film Transistor) that reads out an electric signal.
  • the ISS method is a method in which the scintillator and the TFT are arranged in the order of the TFT and the scintillator from the subject Obj side.
  • the camera 23 photographs the subject Obj arranged with respect to the radiation photographing unit 22 by using visible light, infrared light, or the like (light having a wavelength or energy distribution different from that of radiation Ra). More specifically, the camera 23 is, for example, a digital camera or a digital video camera. Further, the imaging range SR of the camera 23 includes at least the irradiation range of radiation Ra.
  • an image captured by the camera 23 (including a moving image which is a collection of still images; hereinafter referred to as a camera image) is recognized as the direction and / or laterality of the subject Obj in radiographic imaging. Used for. The camera image and the like will be described later.
  • the console 24 is the main control device (so-called computer) of the radiological imaging system 20, for example, the control of the radiological imaging system 20, RIS (Radiology Information Systems) 31, HIS (Hospital Information Systems) 32, or other external system. Communicate with each other.
  • the console 24 acquires an imaging order from RIS31 or HIS32, and acquires a radiographic image output from the radiographic imaging unit 22 and transmits it to each unit.
  • the console 24 includes a shooting menu setting unit 25, an operation unit 26, and an image detection device 10.
  • the shooting menu setting unit 25 acquires a shooting order by manual input or from RIS31, HIS32, or other external system. Then, a shooting menu is set according to the acquired shooting order.
  • the imaging order 33 is a request for radiological imaging, and is, for example, information for specifying an order such as "order ID" and information for specifying a subject Obj such as "subject ID" (subject Obj). The identification number of the subject, etc.), and information for specifying the photographing portion and the photographing direction of the subject Obj such as the “shooting menu” are included.
  • the shooting menu is a menu that represents specific shooting items, and is set according to the shooting order. For example, when the shooting order is "request for shooting one chest front (P ⁇ A) and one chest front (A ⁇ P) of a specific subject Obj", the shooting menu setting unit 25 sets the shooting menu setting unit 25 for the specific subject Obj. , "Chest front (P ⁇ A)” and “Chest front (A ⁇ P)” are set as shooting menus.
  • the "front chest (P ⁇ A)” is a menu in which the chest of the subject Obj is photographed from the front by irradiating the radiation Ra from the rear surface (Posterior) to the front surface (Anterior) of the subject Obj.
  • front chest (A ⁇ P) is a menu for irradiating radiation Ra from the front surface to the rear surface of the subject Obj to photograph the chest of the subject Obj from the front.
  • the “order ID” is "OD0001”
  • the "subject ID” is "H500”
  • the “shooting menu” is "front chest / standing / P ⁇ A”. ..
  • the operation unit 26 is, for example, a keyboard and / or a pointing device used for setting input of imaging conditions and the like and operating the radiation source 21 and the radiation imaging unit 22.
  • the operation unit 26 can be configured with a touch panel.
  • the shooting menu can be set or changed by the operation of the operation unit 26.
  • the image inspection device 10 may have a communication function, and may be able to communicate with each other with the shooting menu setting unit 25 or the operation unit 26 of the console 24, an external device, or the like. Therefore, data and the like may be transmitted and received between the shooting menu setting unit 25 or the operation unit 26 of the console 24, or the external device or the like and the image detection device 10.
  • the image inspection device 10 includes a radiographic image acquisition unit 11 and an image inspection processing unit 12.
  • programs related to the radiation image acquisition unit 11, the image detection processing unit 12, and the like are incorporated in a memory (not shown).
  • the functions of the radiation image acquisition unit 11 and the image detection processing unit 12 are realized by operating the program by a control unit (not shown) configured by a processor.
  • the image detection processing unit 12 includes a photographing condition recognition unit 13 and a marker superimposing unit 14.
  • the radiation image acquisition unit 11 acquires the radiation image 16 via the photographing menu setting unit 25 included in the console 24.
  • the shooting condition recognition unit 13 recognizes shooting conditions related to the shooting direction and / or laterality of the subject captured in the radiation image 16.
  • the marker superimposing unit 14 superimposes a marker indicating the photographing direction and / or the laterality of the subject reflected in the radiation image 16 on the radiation image 16 by using the recognition result of the imaging condition recognition unit 13 or the like.
  • the radiographic image 16 on which the marker is superimposed is sent to the image server 15 or the like.
  • the radiation image acquisition unit 11 acquires the radiation image 16 output by the radiation imaging unit 22 through, for example, the imaging menu setting unit 25.
  • the radiographic image 16 acquired here may be not only a medical image suitable for diagnosis but also a medical image unsuitable for diagnosis for various reasons. In addition, it may be difficult to determine the shooting direction and / or laterality of the subject. Therefore, an image inspection step is performed on the radiographic image 16 in order to obtain a medical image suitable for diagnosis.
  • the image inspection step may include a plurality of steps.
  • the image inspection step includes image loss determination for determining a shooting failure, adjustment of density and contrast, adjustment of the angle of the subject reflected in the radiation image, trimming to cut out a portion related to diagnosis, and radiation image. It includes five steps of superimposing markers indicating the shooting direction and / or laterality of the subject reflected in the image.
  • the radiographic image 16 for which the image inspection step has been completed is used for diagnosis and the like.
  • the radiation image 16 acquired by the radiation image acquisition unit 11 is sent to the imaging condition recognition unit 13 of the image detection processing unit 12.
  • the shooting condition recognition unit 13 automates the step of superimposing the shooting direction and / or the marker indicating the laterality of the subject reflected in the radiation image 16 in the image inspection step, and therefore, the shooting direction of the subject reflected in the radiation image 16 Recognize shooting conditions related to and / or laterality (hereinafter referred to as directional shooting conditions).
  • the directional imaging condition is a condition for superimposing a marker indicating the imaging direction and / or laterality of the subject reflected in the radiation image 16 on the radiation image 16.
  • the marker superimposing unit 14 superimposes the marker on the radiation image 16 based on the recognition result in which the photographing condition recognition unit 13 recognizes which is the direction photographing condition of the subject reflected in the radiation image 16.
  • the shooting direction of the subject reflected in the radiation image 16 refers to the direction of the subject when the subject is arranged with respect to the radiation photographing unit 22.
  • the subject is a person, it is the orientation of the patient or the orientation of the patient.
  • the laterality of the subject reflected in the radiation image 16 is a distinction between the one in which the right side portion of the subject is photographed and the one in which the left side portion is photographed.
  • the patient orientation is described in the DICOM (Digital Imaging and Communications in Medicine) standard ("Annex A: Explanation of patient orientation").
  • the subject is a person
  • the radiation source 21 is in front of the paper surface of FIGS. 5 and 6, and the radiation photographing unit 22 is in the depth direction of the paper surface.
  • the front of the chest of Obj is photographed in a standing position
  • the front of the subject Obj is arranged so as to face the radiography unit 22 in the “front of the chest (P ⁇ A)”. is there.
  • the patient orientation is "F" (Foot, foot) in the lower direction of the paper, and "R" (Right, right) in the right direction of the paper.
  • F Froot, foot
  • R Light, right
  • the shooting direction is “P ⁇ A” in the case of case 41 shown in FIG. 5, and in the case of case 42 shown in FIG. Is "A ⁇ P".
  • the subject is a person
  • the radiation source 21 is in front of the paper surface of FIGS. 7 and 8
  • the radiation photographing unit 22 is in the depth direction of the paper surface, and the human hand is present.
  • the left hand is placed in the direction in which the palm faces the radiation imaging unit 22, that is, in the pronation position
  • the right hand is placed. Is arranged in the direction in which the palm faces the radiography unit 22, that is, in the pronation position.
  • the photographing direction is “P ⁇ A”.
  • the patient orientation is "H” (Head, head) in the lower direction of the paper surface and "L” (Left, left) in the right side direction of the paper surface
  • FIG. 8 In the case of Case 44 shown in (1), the patient orientation is "H” (Head) in the lower direction of the paper surface and "L” in the right side direction of the paper surface.
  • the direction shooting condition of the subject reflected in the radiation image 16 is "P ⁇ A" in the case of case 43, the laterality is left or left hand, and in the case of case 44, the shooting direction is "".
  • P ⁇ A laterality is right or right hand.
  • a known method can be used as long as the method can recognize the directional imaging condition of the subject captured in the radiation image 16. ..
  • a known image analysis technique, image recognition technique, image processing technique, or the like can be used. Specifically, for example, a method of extracting and using feature points by image processing of the radial image 16 or machine learning. The method according to the above can be used.
  • the imaging menu related to the imaging of the radiation image 16 may be acquired, and the direction imaging conditions may be recognized using the imaging menu and the radiation image 16.
  • the image inspection device 10 may include a shooting menu acquisition unit 17.
  • the imaging menu acquisition unit 17 acquires the imaging menu 17a related to imaging on the radiation image 16 via the imaging menu setting unit 25 included in the console 24 of the radiation imaging system 20 connected to the image detection device 10. Then, the shooting direction of the subject or the laterality of the subject included in the shooting menu 17a is acquired. At this time, the directional shooting condition is recognized from the subject reflected in the radiation image 16 and compared with the shooting direction of the subject included in the shooting menu 17a or the laterality of the subject, and then the directional shooting condition of the radiation image 16 is set.
  • the shooting condition recognition The unit 13 recognizes that the shooting direction is “P ⁇ A” among the direction shooting conditions.
  • the image detection device 10 may include a camera image acquisition unit 18 that acquires a camera image 18a.
  • the radiography system 20 includes a camera 23 that acquires a camera image 18a.
  • the camera 23 is controlled by the console 24.
  • the camera image acquisition unit 18 included in the image inspection device 10 acquires the camera image 18a acquired by the camera 23.
  • the shooting condition recognition unit 13 recognizes the direction shooting condition of the subject Obj by using the acquired camera image 18a.
  • the camera 23 is a digital video camera, and the subject Obj is photographed using visible light.
  • the camera image 18a includes a part or all of the subject Obj to the extent that the recognition process can be performed.
  • the arrangement of the camera 23 is arbitrary as long as the direction photographing condition of the subject can be recognized by using the camera image 18a, but in the present embodiment, the camera 23 is provided substantially integrally with the radiation source 21. This is because the subject Obj is arranged in the irradiation range of the radiation Ra, and the image is taken reliably without excess or deficiency to the extent that the above recognition process can be performed.
  • the shooting condition recognition unit 13 As a method for the shooting condition recognition unit 13 to recognize the directional shooting condition of the subject Obj using the camera image 18a, a known method is used as long as it can recognize the directional shooting condition of the subject captured in the camera image 18a. Can be done. For example, a method of using correspondence information in which the camera image 18a and the directional shooting condition of the subject captured in the camera image 18a are associated in advance can be mentioned. That is, the directional shooting conditions of the acquired camera image 18a are estimated using the corresponding information in which the camera image 18a and the directional shooting conditions of the subject reflected in the radiation image 16 are associated in advance, and the estimated directional shooting conditions are determined. It can be used as a recognition result of the direction shooting condition of the camera image 18a.
  • a known image analysis technique, an image recognition technique, an image processing technique, or the like more specifically, for example, a method of extracting and using feature points by image processing of the camera image 18a, or a machine.
  • a learning method or the like can be used.
  • the directional shooting conditions can be acquired. Therefore, in addition to before radiography, it may be during radiography or after radiography.
  • the acquisition of the radiation image 16 and the acquisition of the camera image 18a should not be separated in time as much as possible so that the directional imaging condition of the subject in the radiation image 16 and the directional imaging condition of the subject in the camera image 18a do not differ. Although it is preferable, it is sufficient if the directional imaging conditions can be obtained, and the time rigor does not matter.
  • the recognition of the direction imaging condition of the subject reflected in the radiation image 16 may be the final recognition result by combining a plurality of the recognition results by the methods and the like described above.
  • the result of the image analysis of the radiation image 16, the result of the image analysis of the camera image 18a, and the result from the photographing menu 17a may be compared and used as the final recognition result.
  • the marker superimposing unit 14 superimposes a marker representing the directional imaging condition of the subject Obj reflected in the radiation image 16 on the radiation image 16 by using the recognition result in which the imaging condition recognition unit 13 recognizes the directional imaging condition.
  • a commonly used marker representing the direction imaging condition of the subject of the radiation image 16 is used. For example, “A ⁇ P" or “AP”, “P ⁇ A” or “PA”, “standing”, “supine” or “sideways”, “R” or “L”, or “right hand” Or “left hand” or the like.
  • the position on the radiographic image 16 on which the marker is superimposed (hereinafter referred to as the marker superimposition position) is a position where the doctor can easily recognize the marker when diagnosing with the radiographic image 16 and does not pose a problem in the diagnosis. Is more preferable. Therefore, the marker superimposition position may be set in advance at any of the four corners of the radiation image 16 or the like, or may be determined for each radiation image 16. Further, the number of superimposed markers may be one or a plurality. When there are a plurality of markers, the marker superimposition positions may be the same or different.
  • the marker superimposing unit 14 has the upper left end portion 55 and the upper left end portion 55 toward the radiation image 51 according to the recognition result of the imaging condition recognition unit 13 in the radiation image 51 acquired in the case 41.
  • “R, P ⁇ A” and “standing”, which are markers indicating the shooting direction and / or laterality of the subject reflected in the radiation image 51, are superimposed on each of the upper right end portions 56.
  • the shooting direction and the shooting direction of the subject reflected in the radiation image 52 are shown in the upper left end portion 55 and the upper right end portion 56, respectively.
  • the imaging condition recognition unit 13 may include a position recognition unit 61, such as when the position of the marker is determined for each radiation image 16 and superimposed.
  • the position recognition unit 61 recognizes the position where the marker superimposing unit 14 should superimpose the marker on the radiation image 16 by using the radiation image 16.
  • the marker superimposing unit 14 superimposes or moves the marker on the position recognized by the position recognition unit 61.
  • the position recognition unit 61 can recognize the position on the radiation image 16 so that there is no problem when the doctor makes a diagnosis using the radiation image 16 and the doctor does not overlook the marker. preferable. Therefore, the position recognition unit 61 can recognize various positions depending on the subject or the like reflected in the radiation image 16.
  • the positions recognized by the position recognition unit 61 may be, for example, the four corners of the radiation image 16 or the parts of the radiation image 16 where the subject is not captured.
  • the position recognition unit 61 As a method for the position recognition unit 61 to recognize the position on which the marker should be superimposed using the radiation image 16, a known method can be used as long as it can recognize the subject reflected in the radiation image 16. For example, there is a method of using correspondence information in which the imaging menu 17a, the radiation image 16, and the position where the marker should be superimposed are associated in advance. That is, the position where the marker should be superposed is estimated by using the radiation image 16 and the corresponding information, and the estimated marker superimposition position is set as the marker superimposition position recognized by the position recognition unit 61.
  • a known image analysis technique, image recognition technique, image processing technique, or the like can be used. Specifically, for example, a method of extracting and using feature points by image processing of the radial image 16 or machine learning. The method according to the above can be used.
  • a learning model may be generated and this learning model may be used as correspondence information. For example, after estimating the position where the marker should be superimposed using the radiation image 16 and the corresponding information, the estimation result is evaluated, and the evaluation information is given to the position where the estimated marker should be superimposed. Then, a learning model is generated from the correspondence information in which the photographing menu 17a, the radiation image 16, and the position where the marker should be superimposed are associated with each other when the evaluation information above a certain level is given.
  • the radiographic image 16 in this corresponding information is preferably a radiographic image 16 that is not photographed.
  • the radiation image 16 and the position where the marker should be superimposed are associated in advance, and further by generating a learning model and using this as the correspondence information, for example, the radiation image 16
  • the marker can be superimposed on the optimum marker superimposition position according to each shooting menu 17a, instead of simply setting the portion where the subject Obj is not captured as the marker superimposition position.
  • a photographing menu 17a, a camera image 18a, or the like may be used in addition to the radiation image 16.
  • the radiation image 16 acquired in the case 41 when the radiation image 16 acquired in the case 41 is used and the marker superimposing portion 14 recognizes the upper right end portion 56 and the lower left end portion 57 as the positions to be superposed on the markers, the radiation image 58 is displayed. , The lower left end portion 57 is superposed with the directional imaging condition “R, P ⁇ A”, and the upper right end portion 56 is superposed with the directional imaging condition “standing”. Even in the radiation image 51 on which the marker is already superimposed by the marker superimposing unit 14, when the position recognition unit 61 recognizes the position, the marker superimposed on the radiation image 51 may be moved and superimposed in some cases. May be good.
  • the position recognition unit 61 when a marker is superimposed on the upper left end portion 55 and the upper right end portion 56 as in the radiation image 51 (see FIG. 11), the position recognition unit 61 superimposes the lower left end portion 57 on the marker. After recognizing the position, the marker superimposing portion 14 moves the marker of the upper left end portion 55 from the upper left end portion 55 to the position of the lower left end portion 57.
  • a marker indicating the imaging direction and / or laterality of the subject can be automatically superimposed on the radiographic image. Further, in performing the image inspection step of superimposing the marker, human error or the like is suppressed, and the recognition result of the imaging condition recognition unit 13 or the like can be used to accurately superimpose the marker on the radiation image 16. Therefore, the workload of the image inspection process can be reduced.
  • a copying loss determination for determining the failure of imaging or the necessity of reimaging of a radiographic image may be performed.
  • the imaging condition recognition unit recognizes the imaging conditions for a radiation image determined to be unnecessary for re-imaging in the photo-loss determination.
  • the marker superimposing unit superimposes the marker on the radiographic image that is determined not to require re-imaging in the copying loss determination.
  • the marker superimposing unit 14 determines that re-imaging is not necessary in the photo-loss determination.
  • the markers are superimposed on the radiation image 16 by using the recognition result by the imaging condition recognition unit 13.
  • the imaging condition recognition unit 13 recognizes the imaging conditions of the radiation image 16 that is determined to be unnecessary for re-imaging in the imaging loss determination before or after the acquisition of the radiation image 16.
  • imaging may fail due to a patient's positioning error, patient's body movement or insufficiency of inspiration, imaging condition setting error, foreign body detection, etc. (called image loss).
  • image loss a known image analysis technique, image recognition technique, image processing technique, or the like can be used.
  • the determination is performed using a learned model or the like learned about the radiation image 51 acquired in advance in the past. By using the trained model, it is possible to make a judgment based on the criteria determined by learning. Moreover, the determination result can be obtained in a short time.
  • an algorithm or a library having a good judgment result for image processing can be used. Further, an algorithm or a library that gives a good determination result for the radiation image 51 may be constructed and used.
  • the learning data a radiation image 51 acquired in advance with at least information on whether or not the image is lost is used.
  • the radiographic image 51 may be provided with any information from imaging data, patient data, and the like, which are incidental information related to the radiological image 51.
  • the feature amount may be selected according to the type of the radiation image 51 or the like, and the radiation image 51 to which the feature amount information is added may be used.
  • the trained model In addition to the trained model, other well-known machine learning technology or image processing technology other than machine learning technology may be used as long as the judgment can be made according to a certain standard. Further, there may be a plurality of image processing techniques other than the trained model and the machine learning technique, and a preferable one may be used depending on the type of the site or the like of the radiation image 51 or the accuracy of the determination result.
  • the criteria for determination may be set in advance.
  • the standard is set to be strict or loose depending on the purpose of the radiographic image 51. More specifically, for example, in the radiographic image 51, a threshold value is set in advance for the deviation of the drawing of the point portion in determining whether or not the imaging is successful in accordance with the imaging menu, and the value of this threshold value.
  • the standard can be tightened by making the value smaller, while the standard can be made looser by making the value of this threshold value larger. Therefore, a desired criterion can be set according to the medical institution. In addition, even within the same medical institution, for each clinical department such as emergency department, internal medicine, or surgery, or even for the same internal medicine, for each imaging area, or for educational purposes for the operator to judge copying loss, etc. Judgment criteria can be set differently depending on the purpose and the like. Further, the setting of the determination standard may be changeable.
  • a step of adjusting the density and / or contrast of the radiographic image may be performed.
  • the imaging condition recognition unit recognizes the imaging conditions for the radiation image whose density and / or contrast is adjusted, and the marker superimposition unit is the density. And / or superimpose the marker on the contrast-adjusted radiographic image.
  • the marker superimposition unit 14 recognizes the imaging conditions for the radiation image 16 for which the density and / or contrast is adjusted.
  • the markers are superimposed by using the recognition result by the unit 13.
  • the imaging condition recognition unit 13 recognizes the imaging conditions of the radiation image 16 whose density and / or contrast is adjusted before or after the acquisition of the radiation image 16.
  • the density and / or contrast adjustment a known image analysis technique, image recognition technique, image processing technique, or the like can be used.
  • the density and / or the density set by using a known conversion function or the like for the radiation image 16 and / or Adjust to contrast.
  • the density and / contrast may be set to be adjusted for each subject Obj, shooting menu, or other information reflected in the radiation image 16.
  • a step of adjusting the angle of the subject reflected in the radiographic image may be performed.
  • the shooting condition recognition unit recognizes the shooting conditions for the radiation image in which the angle of the subject is adjusted, and the marker superimposing unit determines the angle of the subject. The marker is superimposed on the adjusted radiographic image.
  • the marker superimposing unit 14 uses the imaging condition recognition unit 13 for the radiation image 16 for which the angle of the subject is adjusted. The markers are superimposed by using the recognition result.
  • the imaging condition recognition unit 13 recognizes the imaging conditions of the radiation image 16 whose subject angle is adjusted before or after the acquisition of the radiation image 16.
  • the step of adjusting the angle of the subject reflected in the radiation image 16 is a step of rotating the radiation image 16 by an arbitrary angle.
  • the step of adjusting the angle of the subject can be performed.
  • the subject can be a radiographic image 16 in which the subject is easily examined by a doctor.
  • a known image analysis technique, image recognition technique, image processing technique, or the like can be used in the step of adjusting the angle of the subject Obj reflected in the radiation image 16, and an appropriate subject is recognized after recognizing the subject reflected in the radiation image 16.
  • the radiographic image 16 is rotated by a specific angle so as to be in the direction of.
  • the positional relationship between the subject Obj and the sensor panel which is the radiation image acquisition unit 11 is recognized by a known image recognition technique, and the angle of the subject reflected in the radiation image 16 can be determined. You may adjust.
  • the following four cases can be mentioned as the positional relationship between the subject Obj and the sensor panel. The first is the case where the sensor panel is in the normal orientation and the subject Obj is in the normal orientation. In this case, since the subject Obj captured in the radiation image 16 is captured in the normal direction, the step of adjusting the angle of the subject Obj is not performed. The second is the case where the sensor panel is in an abnormal orientation and the subject Obj is in a normal orientation.
  • the radiation image 16 is corrected so that the sensor panel is in the normal direction.
  • the angle adjustment step of the subject Obj can be performed with reference to the sensor panel having the correct orientation.
  • the third is the case where the sensor panel is in the normal orientation and the subject Obj is in the abnormal orientation.
  • the angle of the subject Obj may be adjusted with reference to the sensor panel.
  • the fourth is a combination of the second and the third. That is, neither the sensor panel and / or the subject Obj is normal.
  • a reference such as the normal orientation of the sensor panel may be set, and the angle of the subject of the radiation image 16 may be adjusted accordingly.
  • the normal orientation refers to the orientation normally used in the radiation image 16 in which the subject Obj is captured.
  • the orientation refers to a three-dimensional direction including a depth direction with respect to the radiation image 16 in addition to a vertical or horizontal two-dimensional direction with respect to the radiation image 16. Therefore, the case where the subject Obj is obliquely reflected in the depth direction of the radiation image 16 is also included.
  • the step of adjusting the angle of the subject reflected in the radiation image 16 is performed by using a machine learning technique. That is, the sensor panel captured in the radiation image 16 whose angle is desired to be adjusted by using the corresponding information in which the shape of the sensor panel in the camera image 18a, the information on the normal orientation of the sensor panel, and the radiation image 16 are associated in advance. By comparing the shape of the subject with the corresponding information, the angle of the subject may be adjusted so that the subject Obj shown in the radiation image 16 is aligned with the normal orientation of the sensor panel. Further, as the corresponding information, the information that the radiation image 16 of the specific portion in the imaging order is acquired may also be used. By creating a trained model using these corresponding information, the angle of the subject in the radiation image 16 can be automatically adjusted according to the imaging order.
  • the image 81 before subject angle adjustment which is a radiation image without the image detection step, is photographed in the direction in which the fingertip faces downward.
  • the subject angle adjustment 83 that is, the rotation process is automatically performed.
  • the subject angle pre-adjustment image 81 is the subject angle-adjusted post-image 82 in the orientation normally used by the doctor, that is, the left-hand subject angle-adjusted post-image 82 taken in the direction in which the fingertips face upward.
  • a trimming process step of cutting out a portion related to diagnosis of a radiographic image or the like may be performed.
  • the imaging condition recognition unit recognizes the imaging conditions for the radiation image after the trimming process, and the imaging condition recognition unit recognizes the radiation after the trimming process.
  • the portion related to the diagnosis of the radiographic image include a region of interest related to the diagnosis, a portion excluding a portion where the radiographic image is unclear due to lack of X-rays and cannot be used for the diagnosis, and the like.
  • the marker superimposing unit 14 recognizes the radiation image 16 after the trimming processing by the imaging condition recognition unit 13.
  • the markers are superimposed by using.
  • the imaging condition recognition unit 13 recognizes the imaging conditions of the radiation image 16 after the trimming process before or after the acquisition of the radiation image 16.
  • the boundary of the irradiation field of radiation is determined, and the trimming frame is set based on the boundary information of this irradiation field.
  • irradiation is performed due to the influence of scattered radiation. This is because the boundary of the irradiation field may be erroneously recognized when the boundary of the field is not clear or when there is a steep change in concentration due to an artificial object in the body.
  • the trimming process by the machine learning technique there is a method of generating a trained model by using the correspondence information in which the imaging menu and the radiation image 16 which is not photographed are associated in advance.
  • the size of the radiation image 16 is not changed, that is, enlarged or reduced. Enlargement or reduction can be performed after the trimming process.
  • the trimming process for example, when the central portion of the front chest image is designated by the photographing menu, the designated portion is recognized with respect to the pre-trimming process image 84 which is a radiation image. Then, the trimming process 86 is automatically performed. As described above, the trained model is generated, and using this trained model as the corresponding information, it is estimated and determined whether or not the trimming process is performed on the image 84 before the trimming process, or which part is to be trimmed. Therefore, it is possible to more correctly recognize the irradiation field boundary or the portion set in the imaging menu and perform an appropriate trimming process. The trimming process 86 results in a post-trimming image 85, which is a radiation image as specified in the photographing menu.
  • the copying loss determination, the density and / or contrast adjustment, and the adjustment of the subject angle are performed in the first image inspection step 91 (FIG. 17), and the first image inspection step 91 is performed first.
  • the first image inspection step 91 it is preferable to first perform the copying loss determination.
  • the density and / or contrast adjustment and / or the angle adjustment of the subject in the first image inspection step 91 can be adjusted regardless of the previous or the following. You can go either one or both.
  • the trimming process is performed after the first image inspection step 91. Further, the marker superimposition step is performed after the trimming process step. Moreover, neither step may be performed or may be performed.
  • the radiographic image 16 is first subjected to a imaging loss determination, and then either or both of density and / or contrast adjustment and subject angle adjustment are performed in no particular order, and then Then, a trimming process is performed, and finally a marker superimposition process is performed.
  • the image inspection device 10 may include an image inspection history display unit that displays the history of the image inspection process including the marker superimposition processing by the marker superimposition unit 14. As shown in FIG. 20, the image inspection device 10 may include an image detection history display unit 92.
  • the image inspection history display unit 92 displays as a history a series of steps of all the image inspection steps performed on the radiographic image 16. Therefore, the image inspection history display unit 92 can grasp, for example, which process was performed in what order and how even if a plurality of image inspection steps were automatically performed on the radiation image 16. .. It is also possible to grasp the type of image inspection step that was not performed on the radiographic image 16.
  • the image inspection device 10 may include a re-examination reception unit 93 that receives an instruction to redo at least a part of the image inspection process including the marker superimposition processing by the marker superimposition unit 14. Further, when the re-examination reception unit 93 receives an instruction to redo, in addition to redoing the image-taking process that has been instructed to redo, at least the image-taking process that is performed after the image-taking process that has been instructed to redo is redoed. An image inspection control unit 94 that automatically re-executes according to the result of the image inspection step instructed may be provided.
  • the re-examination receiving unit 93 receives an instruction to redo at least a part of the image-taking history displayed on the image-taking history display unit 92. Since various image inspection processes have a priority to perform the process, when a redo instruction is given, the executed steps are sequentially released up to the process in which the redo instruction is given. Then, the image inspection process is redone upon receiving the instruction to redo. After that, the image inspection control unit 94 automatically re-executes the image inspection process that was performed after the image inspection process that was instructed to be redone.
  • the image inspection history 95 is displayed by the image detection history display unit 92.
  • the image detection history 95 is, for example, a table displaying a search history, and a large heading "search history” and a mode display 97 "automatic re-examination mode" are displayed on the first row.
  • the mode display 97 displays either an "automatic re-estimation mode” in which automatic re-estimation is performed or a “manual mode” in which re-evaluation is not automatically performed.
  • headings such as "(initial image)", “photo loss”, “density”, “contrast”, and “angle adjustment” are displayed as “imaging processing", and correspondingly, "contents of processing" are displayed.
  • the density can be adjusted by pressing the "Redo” button. Is performed, and then the subsequent processing is performed.
  • the image inspection device 10 a plurality of image inspection steps can be automatically performed. Further, it is possible to set not to perform each of the plurality of image inspection steps. In addition, each image inspection step can obtain an accurate image inspection result by using a machine learning technique or the like. Therefore, the radiography system 20 including the image detection device 10 and the image detection device 10 having the above configuration more accurately superimposes a marker indicating the shooting direction and / or laterality of the subject on the radiation image, for example, a radiation image. It is possible to prevent an erroneous addition of a marker for the shooting direction and / or laterality of the subject in the above. Further, since the correct marker is automatically superimposed on the radiographic image, the workload of the image inspection process can be greatly reduced.
  • the radiation image acquisition unit 11 acquires the radiation image 16 (step ST100).
  • the copying loss determination unit 71 determines the copying loss (step ST110). If the image is lost (NO in step ST110), the radiographic image is acquired again. Only the ones that did not cause a copy loss proceed to the next image inspection step (YES in step ST110).
  • the density adjustment unit 72 adjusts the density and / or contrast (step ST120). In some cases, the adjustment may not be performed.
  • the subject angle adjusting unit 73 adjusts the subject angle (step ST130).
  • the trimming processing unit 75 performs a trimming process (step ST140).
  • the imaging condition recognition unit 13 recognizes the imaging condition or acquires the recognition result of the imaging condition obtained before acquiring the radiographic image (step ST150). Based on the recognition result, the marker superimposing unit 14 superimposes the marker on the radiation image 16 that has undergone the image inspection process so far (step ST160). If there is an image inspection history display (YES in step ST170), the image inspection history is displayed (step ST180), and if there is a redo, the image detection process is automatically redone (NO in step ST190), and the process is redone. If not (YES in step ST190), the process ends. Even if there is no image inspection history (NO in step ST170), the process ends.
  • the hardware structure of the processing unit that executes various processes is as follows.
  • the circuit configuration is changed after manufacturing the CPU (Central Processing Unit), FPGA (Field Programmable Gate Array), etc., which are general-purpose processors that execute software (programs) and function as various processing units. It includes a programmable logic device (PLD), which is a possible processor, and a dedicated electric circuit (Graphical Processing Unit: GPU), which is a processor having a circuit configuration designed exclusively for executing various processes. ..
  • PLD programmable logic device
  • GPU dedicated electric circuit
  • One processing unit may be composed of one of these various processors, or a combination of two or more processors of the same type or different types (for example, a plurality of FPGAs, a combination of a CPU and an FPGA, a GPU and the like. It may be composed of a combination of CPUs). Further, a plurality of processing units may be configured by one processor. As an example of configuring a plurality of processing units with one processor, first, as represented by a computer such as a client or a server, one processor is configured by a combination of one or more CPUs and software. There is a form in which this processor functions as a plurality of processing units.
  • SoC System On Chip
  • a processor that realizes the functions of the entire system including a plurality of processing units with one IC (Integrated Circuit) chip is used.
  • the various processing units are configured by using one or more of the above-mentioned various processors as a hardware-like structure.
  • the hardware structure of these various processors is, more specifically, an electric circuit (circuitry) in which circuit elements such as semiconductor elements are combined.
  • the processor acquires a radiation image obtained by photographing a subject using radiation, recognizes an imaging condition relating to an imaging direction and / or laterality of the subject reflected in the radiation image, and uses the recognition result.
  • This is an image detection device that superimposes a marker indicating the photographing direction and / or laterality of the subject reflected in the radiographic image on the radiological image.
  • the present invention is not limited to the above-described embodiment, and various configurations can be adopted as long as the gist of the present invention is not deviated. Further, the present invention extends to a storage medium for storing a program in addition to the program.
  • Imaging device 11 Radiation image acquisition unit 12 Image detection processing unit 13 Imaging condition recognition unit 14 Marker superimposition unit 15 Image server 16, 51, 52, 53, 54, 58 Radiation image 17 Imaging menu acquisition unit 17a Imaging menu 18 Camera image Acquisition unit 18a Camera image 20 Radiation imaging system 21 Radiation source 22 Radiation imaging unit 23 Camera 24 Console 25 Imaging menu setting unit 26 Operation unit 31 RIS 32 HIS 33 Shooting orders 41, 42, 43, 44 Case 55 Upper left end 56 Upper right end 57 Lower left end 61 Position recognition unit 71 Image loss determination unit 72 Density adjustment unit 73 Subject angle adjustment unit 74 First image detection processing unit 75 Trimming processing unit 81 Image before subject angle adjustment 82 Image after subject angle adjustment 83 Subject angle adjustment 84 Image before trimming processing Image after trimming processing 86 Trimming processing 91 First image inspection process 92 Image detection history display unit 93 Image detection control unit 95 Image detection history 96 Cursor 97 Mode display Obj Subject Ra Radiation SR Imaging range F Foot direction R Right direction H Head direction L Left direction ST100 to ST190 Steps

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Surgery (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

被写体の撮影方向及び/または側性等を示すマーカーを、自動的かつ正確に放射線画像に重畳することにより、検像工程の作業負荷を軽減する検像装置、コンソール及び放射線撮影システムを提供する。 検像装置(10)は、放射線を用いて被写体を撮影した放射線画像(16)を取得する放射線画像取得部(11)と、放射線画像(16)に写る被写体の撮影方向及び/または側性に係る撮影条件を認識する撮影条件認識部(13)と、撮影条件認識部(13)の認識結果を用いて、放射線画像(16)に写る被写体の撮影方向及び/または側性を表すマーカーを放射線画像(16)に重畳するマーカー重畳部(14)とを備える。

Description

検像装置、コンソール及び放射線撮影システム
 本発明は、検像装置、コンソール及び放射線撮影システムに関する。
 医療分野においては、X線等の放射線によって被写体を撮影した放射線画像を用いる診断等が普及している。放射線撮影においては、通常、得られた放射線画像が診断等に適しているか否かを確認する検像工程(いわゆるQA(Quality Assurance)工程)を実施する。検像工程は、例えば、撮影の失敗(すなわち再撮影の要否)を判断する写損判定、濃度及びコントラスト等の調節、放射線画像に写る被写体の角度の調節、診断等に係る部分を切り出すトリミング、並びに、放射線画像に写る被写体の撮影方向及び/または側性等を示すマーカーの重畳、といった複数の工程からなる。
 近年においては、放射線画像の画質を落としたプレビュー画像を用いて写損判定を自動で行う装置が知られている(特許文献1)。また、ウィンドウレベル(WL(window level))及びウィンドウ幅(WW(window width))を自動的に決定することにより、自動的にコントラストを調節する装置も知られている(特許文献2)。
特開2013-102851号公報 特開平8-96125号公報
 検像工程は、撮影した放射線画像の全部に対して行う必要があるため、放射線撮影を行う放射線技師または医師の作業負荷となっていた。このため、検像工程を自動化し、放射線技師等の作業負荷を軽減することが望まれている。
 特に、被写体の撮影方向及び/または側性等を示すマーカーは、その内容を撮影した放射線画像だけから直接的に判断できない場合がある。この場合、撮影した放射線画像とその撮影に係るメニューまたはオーダー等と照らし合わせて判断し、マーカーの内容を入力する必要があるため、作業負荷が大きかった。
 そこで、本発明は、被写体の撮影方向及び/または側性等を示すマーカーを、自動的かつ正確に放射線画像に重畳することにより、検像工程の作業負荷を軽減する検像装置、コンソール及び放射線撮影システムを提供することを目的とする。
 本発明は、プロセッサを備える検像装置であって、プロセッサは、放射線を用いて被写体を撮影した放射線画像を取得し、放射線画像に写る被写体の撮影方向及び/または側性に係る撮影条件を認識し、認識結果を用いて、放射線画像に写る被写体の撮影方向及び/または側性を表すマーカーを、放射線画像に重畳する。
 プロセッサは、放射線画像の撮影に係る撮影メニューを取得し、撮影メニューと放射線画像とを用いて、撮影条件を認識することが好ましい。
 プロセッサは、放射線画像を得る放射線撮影前に放射線撮影とは異なる方法で被写体を撮影したカメラ画像を取得し、カメラ画像を用いて撮影条件を認識することが好ましい。
 プロセッサは、放射線画像を用いて、放射線画像にマーカーを重畳すべき位置を認識し、認識した位置にマーカーを重畳または移動することが好ましい。
 プロセッサは、放射線画像について再撮影の要否を判定する写損判定を行う場合、写損判定において再撮影が不要と判定された放射線画像について、認識結果を用いることにより、マーカーを重畳することが好ましい。
 プロセッサは、放射線画像の濃度及び/またはコントラストを調節する場合、濃度及び/またはコントラストを調節した放射線画像について、認識結果を用いることにより、マーカーを重畳することが好ましい。
 プロセッサは、放射線画像内において被写体の角度を調節する場合、被写体の角度を調節した放射線画像について、認識結果を用いることにより、マーカーを重畳することが好ましい。
 プロセッサは、放射線画像の一部を切り出すトリミング処理を行う場合、トリミング処理後の放射線画像について、認識結果を用いることにより、マーカーを重畳することが好ましい。
 プロセッサは、マーカーの重畳処理を含む検像工程の履歴を表示することが好ましい。
 プロセッサは、マーカーの重畳処理を含む検像工程の少なくとも一部について、やり直しの指示を受け付け、やり直しの指示を受けた場合、やり直しの指示を受けた検像工程のやり直しに加え、少なくともやり直しの指示を受けた検像工程の後に行う検像工程を、やり直しの指示を受けた検像工程の結果に合わせて自動的に再実行することが好ましい。
 また、本発明は、コンソールであって、放射線を発生する放射線発生部と、放射線を用いて被写体を撮影する放射線撮影部とを備える放射線撮影システムの制御を行い、かつ、検像装置を備える。また、本発明は、放射線撮影システムであって、コンソールを備える。
 また、本発明は、放射線撮影システムであって、放射線を発生する放射線発生部と、放射線を用いて被写体を撮影する放射線撮影部と、プロセッサと、を備え、プロセッサは、放射線撮影部を用いて得た放射線画像に写る被写体の撮影方向及び/または側性に係る撮影条件を認識し、認識結果を用いて、放射線画像に写る被写体の撮影方向及び/または側性を表すマーカーを、放射線画像に重畳する。
 本発明の検像装置、コンソール及び放射線撮影システムは、被写体の撮影方向及び/または側性等を示すマーカーを、自動的かつ正確に放射線画像に重畳することにより、検像工程の作業負荷を軽減できる。
放射線撮影システムの構成を説明する説明図である。 コンソールの機能を示すブロック図である。 撮影オーダー及び撮影メニューを説明する説明図である。 撮影条件認識部を備える検像装置の機能を示すブロック図である。 被写体の撮影方向(P→A)を説明する説明図である。 被写体の撮影方向(A→P)を説明する説明図である。 被写体の側性(左手)を説明する説明図である。 被写体の側性(右手)を説明する説明図である。 撮影メニュー取得部を備える検像装置の機能を示すブロック図である。 カメラ画像取得部を備える検像装置の機能を示すブロック図である。 ケース41におけるマーカー重畳位置を説明する画像図である。 ケース42におけるマーカー重畳位置を説明する画像図である。 ケース43におけるマーカー重畳位置を説明する画像図である。 ケース44におけるマーカー重畳位置を説明する画像図である。 撮影条件認識部の機能を示すブロック図である。 マーカー重畳位置の変更を説明する画像図である。 各種の検像工程を備える検像装置の機能を示すブロック図である。 被写体の角度を調節する工程を説明する説明図である。 トリミング処理工程を説明する説明図である。 検像履歴表示部等を備える検像装置の機能を示すブロック図である。 検像履歴表示を説明する説明図である。 検像装置による検像工程の流れを示すフローチャートである。
 本発明の検像装置は、放射線を用いて被写体を撮影した放射線画像の検像工程において使用する。検像工程は、例えば、撮影を行った放射線技師が実施する。検像装置は、例えば、放射線科の画像検査室等に設置してもよいし、放射線科以外の場所に設置してもよい。
 図1に示すように、検像装置10は、放射線撮影システム20を構成する。放射線撮影システム20は、放射線発生部である放射線源21、放射線撮影部22、カメラ23、コンソール24、及び、検像装置10等、を備える。
 コンソール24は放射線撮影システム20の主制御装置(いわゆるコンピュータ)であり、例えば、所定の機能を実行するためのアプリケーションプログラムがインストールされたパーソナルコンピュータ、又はワークステーション等のコンピュータである。検像装置10も、例えば、所定の機能を実行するためのアプリケーションプログラムがインストールされたパーソナルコンピュータ、又はワークステーション等のコンピュータである。本実施形態では、コンソール24のコンピュータが、検像装置10の機能も実行する。この場合、コンソール24は、検像装置10を備える。なお、検像装置10は、本実施形態のようにコンソール24のコンピュータと共通のコンピュータであってもよいし、コンソール24以外のコンピュータであってもよく、形態は問わない。したがって、検像装置10は、他の装置等に含まれるものであってもよいし、単体の装置であってもよい。
 放射線源21は、放射線撮影に用いる放射線Raを発生する。本実施形態においては、放射線源21はX線を発生するX線源である。したがって、放射線撮影システム20はX線を用いて被写体Objを撮影することにより、被写体ObjのX線画像を取得するX線撮影システムである。被写体Objは例えば人である。
 放射線撮影部22は、放射線源21が発生した放射線Raを用いて被写体Objを撮影する。放射線撮影部22はいわゆる放射線検出器を含み、例えばFPD(Flat Panel Detector)である。FPDは、被写体Objを透過した放射線Raを検出して電気信号に変換することにより、被写体Objの放射線画像を出力する。放射線撮影部22を用いた撮影においては、必要に応じてグリッド(図示しない)を併用できる。グリッドは、放射線の散乱線成分を除去する装置であり、例えば、静止型のリスホルムブレンデ、または、移動型のブッキーブレンデ等である。本実施形態においては、放射線撮影部22は1つの放射線検出器を含み、1回の放射線Raの照射によって1枚の放射線画像を出力する。
 放射線撮影部22が含む放射線検出器は、間接変換型の放射線検出器または直接変換型の放射線検出器のいずれでもよい。間接変換型の放射線検出器とは、CsI(ヨウ化セシウム)等からなるシンチレータを用いて放射線Raを可視光に変換し、その可視光を光電変換することにより、間接的に電気信号を得る検出器である。直接変換型の放射線検出器とは、アモルファスセレン等からなるシンチレータを用いて放射線Raを直接的に電気信号に変換する検出器である。また、放射線撮影部22が含む放射線検出器は、それぞれPSS(Penetration Side Sampling)方式の放射線検出器でもよく、ISS(Irradiation Side Sampling)方式の放射線検出器でもよい。PSS方式とは、電気信号の読み出しを行うTFT(Thin Film Transistor)に対してシンチレータを被写体Obj側に配置する方式である。ISS方式とは、PSS方式とは逆に、シンチレータとTFTを、被写体Obj側からTFT、シンチレータの順に配置する方式である。
 カメラ23は、放射線撮影部22に対して配置した被写体Objを、可視光または赤外光等(放射線Raとは波長またはエネルギー分布が異なる光)を用いて撮影する。より具体的には、カメラ23は、例えばデジタルカメラまたはデジタルビデオカメラである。また、カメラ23の撮影範囲SRは、少なくとも放射線Raの照射範囲を含む。放射線撮影システム20においては、カメラ23を用いて撮影した画像(静止画の集合体である動画を含む。以下、カメラ画像という)を、放射線撮影における被写体Objの方向及び/または側性の認識等に使用する。カメラ画像等については、後に説明する。
 コンソール24は放射線撮影システム20の主制御装置(いわゆるコンピュータ)であり、例えば、放射線撮影システム20の制御、又はRIS(Radiology Information Systems)31、HIS(Hospital Information Systems)32、もしくはその他の外部システム等との相互通信を行う。コンソール24は、RIS31又はHIS32から撮影オーダーを取得し、また、放射線撮影部22から出力された放射線画像を取得して各部に送信する。
 図2に示すように、コンソール24は、撮影メニュー設定部25、操作部26、及び検像装置10を備える。撮影メニュー設定部25は、手動入力により、または、RIS31、HIS32、もしくはその他の外部システム等から撮影オーダーを取得する。そして、取得した撮影オーダーに応じた撮影メニューを設定する。図3に示すように、撮影オーダー33とは、放射線撮影の依頼であって、例えば、「オーダーID」等のオーダーを特定する情報、「被写体ID」等の被写体Objを特定する情報(被写体Objである被検者の識別番号等)、並びに、「撮影メニュー」等の被写体Objの撮影部位及び撮影方向を特定する情報等を含む。
 撮影メニューとは、具体的な撮影項目を表すメニューであり、撮影オーダーに応じて設定する。例えば、撮影オーダーが「特定の被写体Objの胸部正面(P→A)及び胸部正面(A→P)各1枚の撮影依頼」である場合、撮影メニュー設定部25は、その特定の被写体Objについて、「胸部正面(P→A)」及び「胸部正面(A→P)」を撮影メニューとして設定する。「胸部正面(P→A)」は、被写体Objの後面(Posterior)から前面(Anterior)に向けて放射線Raを照射して、被写体Objの胸部を正面から撮影するメニューである。また、「胸部正面(A→P)」は、被写体Objの前面から後面に向けて放射線Raを照射して、被写体Objの胸部を正面から撮影するメニューである。図3では、「撮影オーダー」は、「オーダーID」が「OD0001」であり、「被写体ID」が「H500」であり、「撮影メニュー」が「胸部正面/立位/P→A」である。
 操作部26は、撮影条件等の設定入力、放射線源21及び放射線撮影部22の操作に用いる、例えばキーボード及び/またはポインティングデバイス等である。操作部26はタッチパネルで構成することができる。また、操作部26による操作により、撮影メニューの設定、又は変更等を行うことができる。
 検像装置10は、通信機能を備えていてもよく、コンソール24の撮影メニュー設定部25若しくは操作部26と、又は外部の装置等と互いに通信可能であってもよい。したがって、コンソール24の撮影メニュー設定部25若しくは操作部26と、又は外部の装置等と検像装置10とはデータ等の送受信が可能であってもよい。
 図4に示すように、検像装置10は、放射線画像取得部11、及び検像処理部12を備える。検像装置10には、放射線画像取得部11、及び検像処理部12等に関するプログラムがメモリ(図示せず)に組み込まれている。プロセッサによって構成される制御部(図示せず)によってそのプログラムが動作することで、放射線画像取得部11及び検像処理部12の機能が実現する。検像処理部12は、撮影条件認識部13、及びマーカー重畳部14を備える。放射線画像取得部11は、コンソール24に含まれる撮影メニュー設定部25を介して放射線画像16を取得する。撮影条件認識部13は、放射線画像16に写る被写体の撮影方向及び/または側性に係る撮影条件を認識する。マーカー重畳部14は、撮影条件認識部13の認識結果等を用いて、放射線画像16に写る被写体の撮影方向及び/または側性を表すマーカーを放射線画像16に重畳する。マーカーが重畳された放射線画像16は、画像サーバ15等に送られる。
 以下、検像装置10の各部等について、詳細に説明する。放射線画像取得部11は、放射線撮影部22が出力した放射線画像16を、例えば、撮影メニュー設定部25を通じて取得する。ここで取得した放射線画像16は、診断に適した医用画像のみならず、種々の理由で診断に適さない医用画像である場合もある。また、被写体の撮影方向及び/または側性が判断しにくい場合がある。したがって、診断に適した医用画像とするために、放射線画像16に対し、検像工程を実施する。検像工程は、複数の工程を含んでも良い。
 本実施形態において、検像工程は、撮影の失敗を判断する写損判定、濃度及びコントラスト等の調節、放射線画像に写る被写体の角度の調節、診断等に係る部分を切り出すトリミング、並びに、放射線画像に写る被写体の撮影方向及び/または側性等を示すマーカーの重畳、との5つの工程を含む。検像工程が完了した放射線画像16を、診断等のために供する。
 放射線画像取得部11が取得した放射線画像16は、検像処理部12の撮影条件認識部13に送られる。撮影条件認識部13は、検像工程のうち、放射線画像16に写る被写体の撮影方向及び/または側性等を示すマーカーの重畳の工程を自動化するために、放射線画像16に写る被写体の撮影方向及び/または側性に係る撮影条件(以下、方向撮影条件という)を認識する。方向撮影条件は、放射線画像16に、放射線画像16に写る被写体の撮影方向及び/または側性を表すマーカーを重畳するための条件である。撮影条件認識部13が、放射線画像16に写る被写体の方向撮影条件がいずれであるかを認識した認識結果に基づき、マーカー重畳部14が、放射線画像16にマーカーを重畳する。
 放射線画像16に写る被写体の撮影方向とは、被写体を放射線撮影部22に対して配置する際の被写体の向きをいう。被写体が人である場合は、患者の向き、又は患者方位である。放射線画像16に写る被写体の側性とは、被写体の右側部分を撮影したものか、又は左側部分を撮影したものかの区別である。なお、患者方位については、DICOM(Digital Imaging and Communications in Medicine)規格に記載がある(「附属書A 患者方位の説明」)。
 方向撮影条件について、例えば、図5及び図6に示すように、被写体が人であり、図5及び図6の紙面手前に放射線源21があり、紙面奥行方向に放射線撮影部22があり、被写体Objの胸部正面を立位にて撮影する際、図5に示すケース41の場合は、被写体Objの前面を放射線撮影部22と対面する向きで配置する、「胸部正面(P→A)」である。患者方位としては、紙面下側方向が「F」(Foot、足)、紙面右側方向が「R」(Right、右)である。一方、図6に示すケース42の場合は、被写体Objを放射線撮影部22と背中で面する向きで配置する、「胸部正面(A→P)」である。患者方位としては、紙面下側方向が「F」(Foot、足)、紙面右側方向が「L」(Left、左)である。以上のとおり、胸部正面像の放射線画像16に写る被写体の方向撮影条件のうち、撮影方向は、図5に示すケース41の場合は「P→A」であり、図6に示すケース42の場合は「A→P」である。
 また、図7及び図8に示すように、例えば、被写体が人であり、図7及び図8の紙面手前に放射線源21があり、紙面奥行方向に放射線撮影部22があり、人の手を被写体Objとして撮影する際、図7に示すケース43の場合は、左手を、手のひらが放射線撮影部22と対面する向き、すなわち回内位で配置し、図8に示すケース44の場合は、右手を、手のひらが放射線撮影部22と対面する向き、すなわち回内位で配置する。したがって、ケース43及びケース44では、被写体Objの後面から前面に向けて放射線Raを照射して、被写体Objを正面から撮影するので、撮影方向は「P→A」である。なお、図7に示すケース43の場合は、患者方位としては、紙面下側方向が「H」(Head、頭)、紙面右側方向が「L」(Left、左)であり、一方、図8に示すケース44の場合は、患者方位としては、紙面下側方向が「H」(Head、頭)、紙面右側方向が「L」である。以上のとおり、放射線画像16に写る被写体の方向撮影条件は、ケース43の場合、撮影方向は「P→A」、側性は、左又は左手であり、ケース44の場合は、撮影方向は「P→A」、側性は、右又は右手である。
 撮影条件認識部13が、放射線画像16に写る被写体の方向撮影条件を認識する方法としては、放射線画像16に写る被写体の方向撮影条件を認識できる方法であれば、公知の方法を用いることができる。例えば、放射線画像16と、この放射線画像16に写る被写体の方向撮影条件とを、予め対応付けた対応情報を用いる方法が挙げられる。すなわち、放射線画像取得部11が取得した放射線画像16の方向撮影条件を、放射線画像16と対応情報とを用いて推測し、この推測した方向撮影条件を放射線画像16の方向撮影条件の認識結果とする。推測においては、公知の画像解析技術、画像認識技術又は画像処理技術等を用いることができ、具体的には、例えば、放射線画像16の画像処理により特徴点を抽出して用いる方法、又は機械学習による方法等を用いることができる。
 また、放射線画像16の撮影に係る撮影メニューを取得し、撮影メニューと放射線画像16とを用いて方向撮影条件を認識してもよい。図9に示すように、検像装置10は、撮影メニュー取得部17を備えてもよい。撮影メニュー取得部17は、検像装置10と接続する放射線撮影システム20のコンソール24に含まれる撮影メニュー設定部25を介して、放射線画像16に撮影に係る撮影メニュー17aを取得する。そして、この撮影メニュー17aが含む被写体の撮影方向又は被写体の側性を取得する。この際に、放射線画像16に写る被写体から方向撮影条件を認識し、撮影メニュー17aが含む被写体の撮影方向又は被写体の側性と比較した上で、放射線画像16の方向撮影条件とする。例えば、撮影メニュー17aが「胸部正面/立位/P→A」であり、放射線画像16に写る被写体の方向撮影条件が「P→A」と認識された場合(図3参照)、撮影条件認識部13は、方向撮影条件のうち、撮影方向を「P→A」であると認識する。
 また、放射線画像16を得る放射線撮影前に、放射線撮影とは異なる方法で被写体Objを撮影したカメラ画像を取得し、カメラ画像を用いて方向撮影条件を認識してもよい。図10に示すように、検像装置10は、カメラ画像18aを取得するカメラ画像取得部18を備えてもよい。放射線撮影システム20は、カメラ画像18aを取得するカメラ23を備える。カメラ23は、コンソール24により制御される。カメラ23により取得されたカメラ画像18aを、検像装置10が備えるカメラ画像取得部18が取得する。撮影条件認識部13は、取得されたカメラ画像18aを用いて、被写体Objの方向撮影条件を認識する。
 本実施形態においては、カメラ23はデジタルビデオカメラであり、可視光を用いて被写体Objを撮影する。カメラ画像18aを用いて被写体の方向撮影条件を認識するため、カメラ画像18aは、当該認識処理が行える程度に被写体Objの一部または全部を含む。カメラ23の配置は、カメラ画像18aを用いて被写体の方向撮影条件を認識できる範囲内であれば任意であるが、本実施形態においては、放射線源21とほぼ一体に設けている。被写体Objは放射線Raの照射範囲に配置しており、上記認識処理を行える程度に過不足なく確実に撮影するためである。
 撮影条件認識部13が、カメラ画像18aを用いて被写体Objの方向撮影条件を認識する方法としては、カメラ画像18aに写る被写体の方向撮影条件を認識できる方法であれば、公知の方法を用いることができる。例えば、カメラ画像18aと、このカメラ画像18aに写る被写体の方向撮影条件とを、予め対応付けた対応情報を用いる方法が挙げられる。すなわち、取得したカメラ画像18aの方向撮影条件を、カメラ画像18aとこの放射線画像16に写る被写体の方向撮影条件とを予め対応付けた対応情報とを用いて推測し、推測した方向撮影条件を、カメラ画像18aの方向撮影条件の認識結果とすることができる。カメラ画像18aの対比等においては、公知の画像解析技術、画像認識技術又は画像処理技術等、より具体的には、例えば、カメラ画像18aの画像処理により特徴点を抽出して用いる方法、又は機械学習による方法等を用いることができる。
 なお、カメラ画像18aの取得については、方向撮影条件が取得できればよい。したがって、放射線撮影の前の他、放射線撮影時又は放射線撮影後であってもよい。放射線画像16における被写体の方向撮影条件と、カメラ画像18aにおける被写体の方向撮影条件とが異なることがないように、なるべく放射線画像16の取得とカメラ画像18aの取得とが時間的に離れないことが好ましいが、方向撮影条件が取得できれば良く、時間的な厳密性は問わない。
 放射線画像16に写る被写体の方向撮影条件の認識は、上記に挙げた方法等により認識した結果を複数組み合わせて最終的な認識結果としてもよい。例えば、放射線画像16の画像分析による結果と、カメラ画像18aの画像分析による結果と、撮影メニュー17aからの結果とを、全て比較した上で最終的な認識結果としてもよい。認識する手段を複数組み合わせることにより、より正確に放射線画像16に写る被写体の方向撮影条件の認識結果を得ることができる。
 マーカー重畳部14は、撮影条件認識部13が方向撮影条件を認識した認識結果を用いて、放射線画像16に写る被写体Objの方向撮影条件を表すマーカーを、放射線画像16に重畳する。重畳するマーカーは、放射線画像16の被写体の方向撮影条件を表す、一般的に用いられるものを使用する。例えば、「A→P」若しくは「AP」、「P→A」若しくは「PA」、「立位」、「背臥位」若しくは「側臥位」、「R」若しくは「L」、又は「右手」若しくは「左手」等である。
 マーカーを重畳する放射線画像16上の位置(以下、マーカー重畳位置という)は、医師が放射線画像16により診断等する際に、医師がマーカーを認識しやすく、かつ、診断に際し問題とならない位置であるほど好ましい。したがって、マーカー重畳位置は、放射線画像16の四隅のいずれか等に予め設定してもよいし、放射線画像16毎に決定してもよい。また、重畳するマーカーは一つでも複数であってもよい。マーカーが複数の場合のマーカー重畳位置は、同じであっても異なる複数であってもよい。
 例えば、図11に示すように、ケース41では、マーカー重畳部14は、ケース41において取得した放射線画像51において、撮影条件認識部13の認識結果により、放射線画像51の向かって上左端部55及び上右端部56のそれぞれに、放射線画像51に写る被写体の撮影方向及び/又は側性を表すマーカーである「R、P→A」及び「立位」を重畳する。また、例えば、図12に示すように、ケース42では、ケース42において取得した放射線画像52において同様に、上左端部55及び上右端部56のそれぞれに、放射線画像52に写る被写体の撮影方向及び/又は側性を表すマーカーである「R、A→P」及び「立位」を重畳する。
 また、例えば、図13に示すように、ケース43では、ケース43において取得した放射線画像53において、同様に、上左端部55及び下左端部57のそれぞれに、放射線画像53に写る被写体の撮影方向及び/又は側性を表すマーカーである「P→A」及び左手を示す「L」を重畳する。また、例えば、図14に示すように、ケース44では、ケース44において取得した放射線画像54において、同様に、上左端部55及び下左端部57のそれぞれに、放射線画像54に写る被写体の撮影方向及び/又は側性を表すマーカーである「P→A」及び右手を示す「R」を重畳する。
 マーカーの位置を放射線画像16毎に決定して重畳する場合等、図15に示すように、撮影条件認識部13は、位置認識部61を備えても良い。位置認識部61は、放射線画像16を用いて、マーカー重畳部14が放射線画像16にマーカーを重畳すべき位置を認識する。マーカー重畳部14は、位置認識部61が認識した位置にマーカーを重畳又は移動する。
 位置認識部61は、放射線画像16を用いて医師が診断等する際に、問題となることがなく、かつ、医師がマーカーを見落とすことがないような放射線画像16上の位置を認識することが好ましい。したがって、位置認識部61は、放射線画像16に写る被写体等により、種々の位置を認識しうる。位置認識部61が認識する位置は、例えば、放射線画像16の四隅である場合、又は放射線画像16上の被写体が写っていない部分である場合等がある。
 位置認識部61が放射線画像16を用いてマーカーを重畳すべき位置を認識する方法としては、放射線画像16に写る被写体を認識できる方法であれば、公知の方法を用いることができる。例えば、撮影メニュー17aと放射線画像16とマーカーを重畳すべき位置とを予め対応付けた対応情報を用いる方法が挙げられる。すなわち、マーカーを重畳すべき位置を、放射線画像16と対応情報とを用いて推測し、この推測したマーカー重畳位置を、位置認識部61が認識したマーカー重畳位置とする。推測においては、公知の画像解析技術、画像認識技術又は画像処理技術等を用いることができ、具体的には、例えば、放射線画像16の画像処理により特徴点を抽出して用いる方法、又は機械学習による方法等を用いることができる。
 機械学習による方法としては、学習モデルを生成し、この学習モデルを対応情報として用いてもよい。例えば、放射線画像16と対応情報とを用いてマーカーを重畳すべき位置を推測した後に、推測結果に対して評価を行い、推測されたマーカーを重畳すべき位置に評価の情報を付与する。そして、一定以上の評価情報が付与された場合の撮影メニュー17aと放射線画像16とマーカーを重畳すべき位置とを対応付けた対応情報により、学習モデルを生成する。なお、この対応情報における放射線画像16は、写損でない放射線画像16であることが好ましい。
 撮影メニュー17aと放射線画像16とマーカーを重畳すべき位置とを予め対応付けた対応情報を用いることにより、さらには、学習モデルを生成し、これを対応情報とすることにより、例えば、放射線画像16において、単に被写体Objが写っていない箇所をマーカー重畳位置とするのではなく、各撮影メニュー17aに応じて最適なマーカー重畳位置にマーカーを重畳することができる。なお、位置認識部61が放射線画像16を用いてマーカーを重畳すべき位置を認識する方法においては、放射線画像16に加え、撮影メニュー17a及びカメラ画像18a等を用いてもよい。
 図16に示すように、ケース41において取得した放射線画像16を用いて、マーカー重畳部14がマーカー重畳すべき位置として、上右端部56と下左端部57とを認識した場合、放射線画像58は、下左端部57に、方向撮影条件である「R、P→A」が重畳され、上右端部56に、方向撮影条件である「立位」が重畳された放射線画像となる。なお、すでにマーカー重畳部14により、マーカーが重畳された放射線画像51においても、位置認識部61が位置を認識した際に、場合によっては、放射線画像51に重畳したマーカーを移動して重畳してもよい。例えば、ケース41において、放射線画像51(図11参照)のように、上左端部55と上右端部56とにマーカーが重畳されている場合、位置認識部61が、下左端部57をマーカー重畳位置と認識した後は、マーカー重畳部14は、上左端部55のマーカーを上左端部55から下左端部57の位置に移動する。
 以上のように、検像装置または放射線撮影システムによれば、被写体の撮影方向及び/または側性等を示すマーカーを、自動的に放射線画像に重畳することができる。また、マーカーを重畳する検像工程を行うにあたり、人為的なミス等が抑制され、撮影条件認識部13の認識結果等を用いて、正確に放射線画像16に重畳することができる。したがって、検像工程の作業負荷を軽減できる。
 なお、検像工程として、放射線画像について撮影の失敗又は再撮影の要否を判定する写損判定を行ってもよい。放射線画像について再撮影の要否を判定する写損判定を行う写損判定部を備える場合、撮影条件認識部は、写損判定において再撮影が不要と判定された放射線画像について前記撮影条件を認識し、かつ、マーカー重畳部は、写損判定において再撮影が不要と判定された放射線画像に前記マーカーを重畳する。
 図17に示すように、検像処理部12が、放射線画像16について写損判定を行う写損判定部71を備える場合、マーカー重畳部14は、写損判定において再撮影が不要と判定された放射線画像16について、撮影条件認識部13による認識結果を用いることによりマーカーを重畳する。撮影条件認識部13は、写損判定において再撮影が不要と判定された放射線画像16について、放射線画像16の取得前又は取得後に、撮影条件を認識する。
 放射線画像の撮影では、患者のポジショニングミス、患者の体動若しくは吸気不十分、撮影条件の設定ミス、又は異物検出等が原因で、撮影に失敗すること(写損という)がある。写損判定の方法としては、公知の画像解析技術、画像認識技術又は画像処理技術等を用いることができる。本実施形態では、例えば、予め過去に取得した放射線画像51に関して学習した学習済みモデル等を用いて判定を行う。学習済みモデルを用いることにより、学習により決定される基準により判定を行うことができる。また、判定結果を短時間で得ることもできる。
 学習済みモデルは、例えば、画像処理について判定結果が良好であるアルゴリズム、又はライブラリ等を用いることができる。また、放射線画像51について判定結果が良好となるアルゴリズム、又はライブラリを構築して用いても良い。なお、学習データとしては、予め過去に取得した放射線画像51に、少なくとも写損か否かの情報を付与したものを用いる。他にも、放射線画像51に、この放射線画像51関する付帯情報である撮影データ、又は患者データ等の中から、いずれかの情報を付与したものを用いても良い。また、放射線画像51の種類等により特徴量を選択し、放射線画像51に特徴量の情報を付与したものを用いても良い。
 一定の基準により判定が可能なものであれば、学習済みモデルの他にも、その他の周知の機械学習技術、又は機械学習技術以外の画像処理技術を用いても良い。また、学習済みモデル、及び機械学習技術以外の画像処理技術は複数であってもよく、放射線画像51の部位等の種類により、又は判定結果の精度等により、好ましいものを使い分けても良い。判定の基準は、予め設定してもよい。例えば、放射線画像51の目的に応じて、基準を厳しく、又は甘く設定する。より具体的には、例えば、放射線画像51において、撮影メニューに対応して、成功した撮影か否かの判断において、ポイントとなる部分の描画のずれに対し、予め閾値を設け、この閾値の値をより小さくすることにより基準を厳しくでき、一方、この閾値の値をより大きくすることにより基準を甘くして、設定できる。したがって、医療機関に応じて所望の判定基準を設定することができる。また、同じ医療機関内でも、救急科、内科、若しくは外科等の診療科毎に、又は同じ内科であっても、撮影領域毎に、又はオペレータによる写損の判断基準のための教育目的等の目的毎等により、判定基準を異ならせて設定することができる。また、判定の基準の設定は、変更可能であってもよい。
 また、検像工程として、放射線画像の濃度及び/又はコントラスト等を調節する工程を行ってもよい。放射線画像の濃度及び/またはコントラストを調節する濃度等調節部を備える場合、撮影条件認識部は、濃度及び/またはコントラストを調節した放射線画像について撮影条件を認識し、かつ、マーカー重畳部は、濃度及び/またはコントラストを調節した放射線画像にマーカーを重畳する。
 図17に示すように、放射線画像16の濃度及び/又はコントラストを調節する濃度等調節部72を備える場合、マーカー重畳部14は、濃度及び/又はコントラストを調節した放射線画像16について、撮影条件認識部13による認識結果を用いることにより、マーカーを重畳する。なお、撮影条件認識部13は、濃度及び/又はコントラストを調節した放射線画像16について、放射線画像16の取得前又は取得後に、撮影条件を認識する。
 濃度及び/又はコントラスト調節は、公知の画像解析技術、画像認識技術又は画像処理技術等を用いることができ、例えば、放射線画像16に対して公知の変換関数等を用いて、設定した濃度及び/コントラストに調節する。なお、濃度及び/コントラストは、放射線画像16に写る被写体Obj、撮影メニュー、又はその他の情報毎に、調節する値を設定しても良い。
 また、検像工程として、放射線画像に写る被写体の角度を調節する工程を行っても良い。放射線画像内において被写体の角度を調節する被写体角度調節部を備える場合、撮影条件認識部は、被写体の角度を調節した放射線画像について撮影条件を認識し、かつ、マーカー重畳部は、被写体の角度を調節した放射線画像に前記マーカーを重畳する。
 図17に示すように、放射線画像16内において被写体の角度を調節する被写体角度調節部73を備える場合、マーカー重畳部14は、被写体の角度を調節した放射線画像16について、撮影条件認識部13による認識結果を用いることにより、マーカーを重畳する。撮影条件認識部13は、被写体の角度を調節した放射線画像16について、放射線画像16の取得前又は取得後に、撮影条件を認識する。
 放射線画像16に写る被写体の角度を調節する工程は、放射線画像16を任意角度回転する工程である。これにより、例えば、撮影時の患者の状態により、特定の部位を被写体とする放射線画像16において、通常と異なる撮影方向により撮影した放射線画像16であっても、被写体の角度を調節する工程により、被写体が医師が診察等しやすい方向で写った放射線画像16とすることができる。
 放射線画像16に写る被写体Objの角度を調節する工程は、公知の画像解析技術、画像認識技術又は画像処理技術等を用いることができ、放射線画像16に写る被写体を認識したうえで、適切な被写体の方向となるように、放射線画像16を特定角度回転する。
 また、例えば、カメラ画像18aを用いることにより、被写体Objと放射線画像取得部11であるセンサパネルとの位置関係を、公知の画像認識技術により認識することにより、放射線画像16に写る被写体の角度を調節してもよい。被写体Objとセンサパネルとの位置関係としては、次の4つの場合が挙げられる。第1に、センサパネルが正常な向きであり、被写体Objが正常な向きの場合である。この場合は、放射線画像16に写る被写体Objは正常な向きで写るため、被写体Objの角度を調節する工程は行わない。第2に、センサパネルが正常でない向きであり、被写体Objが正常な向きの場合である。この場合は、センサパネルを正常となる向きに放射線画像16を正す。これにより、まずは、正しい向きであるセンサパネルを基準として、被写体Objの角度の調節工程を行うことができる。第3は、センサパネルが正常な向きであり、被写体Objが正常でない向きの場合である。この場合は、センサパネルを基準として、被写体Objの角度の調節を行えばよい。第4は、第2及び第3の組み合わせである。すなわち、センサパネル及び/又は被写体Objが、どちらも正常ではない場合である。この場合は、例えば、センサパネルを正常な向きにする等の基準を設定し、それに合わせて放射線画像16の被写体の角度を調節してもよい。なお、正常な向きとは、被写体Objが写る放射線画像16において、通常用いられる向きをいう。向きとは、放射線画像16に対して縦又は横の2次元方向の向きに加え、放射線画像16に対して奥行き方向も含む3次元方向をいう。したがって、被写体Objが放射線画像16の奥行方向に斜めに写るような向きの場合も含む。
 なお、放射線画像16に写る被写体の角度を調節する工程は、機械学習の技術を用いて行うことが好ましい。すなわち、カメラ画像18aにおけるセンサパネルの形状と、このセンサパネルの正常な向きの情報と、放射線画像16とを、予め対応付けた対応情報を用いて、角度を調節したい放射線画像16に写るセンサパネルの形状と対応情報とを比較することにより、放射線画像16に写る被写体Objを、センサパネルの正常な向きに合わせて、被写体の角度を調節してもよい。また、対応情報として、撮影オーダーにおける特定部位の放射線画像16を取得するとの情報も合わせて使用してもよい。これらの対応情報を用いた学習済みモデルを作成することにより、撮影オーダーに合わせて、自動的に、放射線画像16において被写体の角度を調節することができる。
 図18に示すように、放射線画像に写る被写体の角度を調節する工程の一例として、例えば、検像工程を行わない放射線画像である被写体角度調節前画像81が、指先が下を向く方向で撮影された左手の画像であった場合、自動的に、被写体角度調節83、すなわち回転処理が行われる。その結果、被写体角度調節前画像81は、医師が通常診察する場合に使用する向きの被写体角度調節後画像82、すなわち、指先が上を向く方向で撮影された左手の被写体角度調節後画像82となる。
 また、検像工程として、放射線画像の診断等に係る部分を切り出すトリミング処理工程を行ってもよい。放射線画像の一部を切り出すトリミング処理を行うトリミング処理部を備える場合、撮影条件認識部は、トリミング処理後の放射線画像について撮影条件を認識し、かつ、撮影条件認識部は、トリミング処理後の放射線画像にマーカーを重畳する。放射線画像の診断等に係る部分としては、診断に係る関心領域、又は、X線があたらなかったために放射線画像が不鮮明であって診断に使用できない部分を除いた部分等が挙げられる。
 図17に示すように、放射線画像16の一部を切り出すトリミング処理を行うトリミング処理部75を備える場合、マーカー重畳部14は、トリミング処理後の放射線画像16について、撮影条件認識部13による認識結果を用いることにより、マーカーを重畳する。撮影条件認識部13は、トリミング処理後の放射線画像16について、放射線画像16の取得前又は取得後に、撮影条件を認識する。
 トリミング処理は、公知の画像解析技術、画像認識技術又は画像処理技術等を用いることができるが、機械学習の技術を用いて行うことが好ましい。機械学習以外の画像解析技術等では、放射線画像16において、放射線の照射野の境界を決定し、この照射野の境界情報により、トリミング枠を設定する方法が行われるが、散乱線の影響で照射野の境界がはっきりしない場合、又は体内の人工物により急峻な濃度変化がある場合等において、照射野境界を誤認識する場合があるためである。
 機械学習の技術によりトリミング処理を行う方法としては、撮影メニューと写損でない放射線画像16とを予め対応させた対応情報を用いて、学習済みモデルを生成する方法が挙げられる。なお、ここで行うトリミング処理では、放射線画像16のサイズの変更、すなわち、拡大又は縮小等は行わない。拡大又は縮小等は、トリミング処理の後に行うことができる。
 図19に示すように、トリミング処理の一例として、例えば、撮影メニューにより、胸部正面画像の中心部が指定されている場合、放射線画像であるトリミング処理前画像84に対して、指定の部分を認識して、自動的にトリミング処理86を行う。上記のとおり、学習済みモデルを生成し、この学習済みモデルを対応情報として、トリミング処理前画像84に対してトリミング処理を行うか否か、またはどの部分をトリミング処理するかを推測して決定するため、照射野境界、又は、撮影メニューに設定された部位を、より正しく認識して、適切なトリミング処理を行うことができる。トリミング処理86により、撮影メニューに指定されたとおりの放射線画像であるトリミング処理後画像85となる。
 なお、写損判定、濃度及び/又はコントラスト調節、及び被写体の角度の調節は、第1検像工程91(図17)とし、第1検像工程91を先に行う。第1検像工程91内では、最初に写損判定を行うことが好ましい。写損判定において写損とされなかった放射線画像16に対して、第1検像工程91内の、濃度及び/又はコントラスト調節及び/又は被写体の角度の調節を、先後を問わず、また、一つでも両方でも、行って良い。トリミング処理工程は、第1検像工程91の後に行う。また、マーカー重畳工程は、トリミング処理工程の後に行う。また、いずれの工程も、行っても行わなくてもよい。例えば、好ましくは、放射線画像16は、検像工程として、最初に写損判定を行い、次に、濃度及び/又はコントラスト調節と被写体の角度の調節とのいずれか又は両方を順不同で行い、次に、トリミング処理工程を行い、最後にマーカー重畳処理を行う。
 なお、検像装置10は、マーカー重畳部14によるマーカーの重畳処理を含む検像工程の履歴を表示する検像履歴表示部を備えても良い。図20に示すように、検像装置10は、検像履歴表示部92を備えてもよい。検像履歴表示部92は、放射線画像16に対して行われたすべての検像工程の一連の流れを履歴として表示する。したがって、検像履歴表示部92により、例えば、放射線画像16に対して自動で複数の検像工程が行われても、どの工程がどの順でどのように行われたのかを把握することができる。また、放射線画像16に対して行われなかった検像工程の種類も把握することができる。
 また、検像装置10は、マーカー重畳部14によるマーカーの重畳処理を含む検像工程の少なくとも一部について、やり直しの指示を受け付ける再検像受付部93を備えても良い。さらに、再検像受付部93がやり直しの指示を受けた場合、やり直しの指示を受けた検像工程のやり直しに加え、少なくともやり直しの指示を受けた検像工程の後に行う検像工程を、やり直しの指示を受けた検像工程の結果に合わせて自動的に再実行する検像制御部94を備えても良い。
 再検像受付部93は、検像履歴表示部92に表示される検像履歴のうち、少なくとも一部についてやり直しの指示を受け付ける。各種の検像工程は、工程を行う優先順位があるため、やり直しの指示があった場合、やり直しの指示があった工程まで、実行された工程を順に解除していく。そして、やり直しの指示を受けた検像工程のやり直しがされる。その後、検像制御部94により、やり直し時指示を受けた検像工程の後に行われていた検像工程が自動的に再実行される。
 図21に示すように、検像履歴表示部92により検像履歴95が表示される。検像履歴95は、例えば、検索履歴を表示したテーブルであり、一行目に「検索履歴」との大見出しと、「自動再検像モード」とのモード表示97が表示される。モード表示97は、自動再検像がされる「自動再検像モード」と、自動で再検像がされない「手動モード」とのいずれかを表示する。次に、「検像処理」として「(初期画像)」、「写損」、「濃度」、「コントラスト」、「角度調節」等の見出しが表示され、これに対応して、「処理の内容」として、「写損でない」、「調節なし」、「調節あり、500/1」等の内容が表示される。同様に、これに対応する「画像」として、それぞれの検像処理をした際の放射線画像16のサムネイル画像が表示される。「UNDO」として、「維持」と「やり直し」のボタンがそれぞれ表示される。「維持」のボタンをオンにして、色を反転させた検像工程は、自動的に再検像がされる場合であっても、再検像がされない。「やり直し」ボタンを反転させた検像工程は、それ以降の検像工程を含めて、自動で再検像がなされる。なお、「自動再検像モード」に選択されている際に、検像処理の「濃度」において処理の内容が「調節なし」であった場合、「やり直し」のボタンを押すことにより、濃度の調節を行ってからその後の処理が行われる。
 以上のとおり、検像装置10によれば、複数の検像工程を自動で行うことができる。また、複数の検像工程のそれぞれを、行わない設定が可能である。また、それぞれの検像工程は、機械学習の技術を用いる等により、正確な検像結果とすることができる。したがって、上記構成の検像装置10及び検像装置10を備える放射線撮影システム20により、被写体の撮影方向及び/または側性等を示すマーカーを、より正確に放射線画像に重畳し、例えば、放射線画像における被写体の撮影方向及び/または側性のマーカーを間違って付与することを防ぐことができる。さらに、放射線画像に、正しいマーカーを自動的に放射線画像に重畳するため、検像工程の作業負荷を大きく軽減することができる。
 次に、上記構成による作用について、図22のフローチャートを参照して説明する。まず、放射線画像取得部11が、放射線画像16を取得する(ステップST100)。最初に、写損判定部71が、写損の判定を行う(ステップST110)。写損になった場合(ステップST110でNO)、再び放射線画像取得を行う。写損にならなかったもののみ、次の検像工程に進む(ステップST110でYES)。まず、濃度等調節部72が、濃度及び/又はコントラストの調節を行う(ステップST120)。調節は、場合により、行わない場合もある。次に、被写体角度調節部73が、被写体角度調節を行う(ステップST130)。次に、これらの検像工程が終わったら、トリミング処理部75がトリミング処理を行う(ステップST140)。次に、撮影条件認識部13が、撮影条件を認識するか、又は、放射線画像取得前に得ていた撮影条件の認識結果を取得する(ステップST150)。認識結果に基づき、マーカー重畳部14が、これまでの検像処理を経た放射線画像16に対して、マーカーを重畳する(ステップST160)。検像履歴表示がある場合は(ステップST170でYES)、検像履歴が表示され(ステップST180)、やり直しがある場合は自動的に検像工程のやり直しがされ(ステップST190でNO)、やり直しがない場合は(ステップST190でYES)終了となる。検像履歴がない場合も(ステップST170でNO)終了となる。
 上記実施形態において、放射線画像取得部11、撮影メニュー取得部17、カメラ画像取得部18、写損判定部71、濃度等調節部72、被写体角度調節部73、トリミング処理部75,撮影条件認識部13、マーカー重畳部14、検像履歴表示部92、再検像受付部93、又は検像制御部94等といった各種の処理を実行する処理部(processing unit)のハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。各種のプロセッサには、ソフトウエア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA (Field Programmable Gate Array) などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、各種の処理を実行するために専用に設計された回路構成を有するプロセッサである専用電気回路(Graphical Processing Unit:GPU)などが含まれる。
 1つの処理部は、これら各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合せ(例えば、複数のFPGAや、CPUとFPGAの組み合わせ、GPUとCPUの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントやサーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウエアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)などに代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。
 さらに、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子などの回路素子を組み合わせた形態の電気回路(circuitry)である。本発明の他の態様は、プロセッサが、放射線を用いて被写体を撮影した放射線画像を取得し、放射線画像に写る被写体の撮影方向及び/または側性に係る撮影条件を認識し、認識結果を用いて、放射線画像に写る被写体の撮影方向及び/または側性を表すマーカーを、放射線画像に重畳する、検像装置である。
 本発明は、上記実施形態に限らず、本発明の要旨を逸脱しない限り種々の構成を採用し得ることはもちろんである。さらに、本発明は、プログラムに加えて、プログラムを記憶する記憶媒体にもおよぶ。
10 検像装置
11 放射線画像取得部
12 検像処理部
13 撮影条件認識部
14 マーカー重畳部
15 画像サーバ
16、51、52、53、54、58 放射線画像
17 撮影メニュー取得部
17a 撮影メニュー
18 カメラ画像取得部
18a カメラ画像
20 放射線撮影システム
21 放射線源
22 放射線撮影部
23 カメラ
24 コンソール
25 撮影メニュー設定部
26 操作部
31 RIS
32 HIS
33 撮影オーダー
41、42、43、44 ケース
55 上左端部
56 上右端部
57 下左端部
61 位置認識部
71 写損判定部
72 濃度等調節部
73 被写体角度調節部
74 第1検像処理部
75 トリミング処理部
81 被写体角度調節前画像
82 被写体角度調節後画像
83 被写体角度調節
84 トリミング処理前画像
85 トリミング処理後画像
86 トリミング処理
91 第1検像工程
92 検像履歴表示部
93 再検像受付部
94 検像制御部
95 検像履歴
96 カーソル
97 モード表示
Obj 被写体
Ra 放射線
SR 撮影範囲
F 足方向
R 右方向
H 頭方向
L 左方向
ST100~ST190 ステップ

Claims (13)

  1.  プロセッサを備える検像装置であって、
     前記プロセッサは、
     放射線を用いて被写体を撮影した放射線画像を取得し、
     前記放射線画像に写る前記被写体の撮影方向及び/または側性に係る撮影条件を認識し、
     前記認識結果を用いて、前記放射線画像に写る前記被写体の撮影方向及び/または側性を表すマーカーを、前記放射線画像に重畳する検像装置。
  2.  前記プロセッサは、前記放射線画像の撮影に係る撮影メニューを取得し、
     前記撮影メニューと前記放射線画像とを用いて、前記撮影条件を認識する請求項1に記載の検像装置。
  3.  前記プロセッサは、前記放射線画像を得る放射線撮影前に前記放射線撮影とは異なる方法で前記被写体を撮影したカメラ画像を取得し、
     前記カメラ画像を用いて前記撮影条件を認識する請求項1に記載の検像装置。
  4.  前記プロセッサは、前記放射線画像を用いて、前記放射線画像に前記マーカーを重畳すべき位置を認識し、
     前記認識した位置に前記マーカーを重畳または移動する請求項1ないし3のいずれか1項に記載の検像装置。
  5.  前記プロセッサは、前記放射線画像について再撮影の要否を判定する写損判定を行う場合、
     前記写損判定において再撮影が不要と判定された前記放射線画像について、前記認識結果を用いることにより、前記マーカーを重畳する請求項1ないし4のいずれか1項に記載の検像装置。
  6.  前記プロセッサは、前記放射線画像の濃度及び/またはコントラストを調節する場合、
     濃度及び/またはコントラストを調節した前記放射線画像について、前記認識結果を用いることにより、前記マーカーを重畳する請求項1ないし5のいずれか1項に記載の検像装置。
  7.  前記プロセッサは、前記放射線画像内において前記被写体の角度を調節する場合、
     前記被写体の角度を調節した前記放射線画像について、前記認識結果を用いることにより、前記マーカーを重畳する請求項1ないし6のいずれか1項に記載の検像装置。
  8.  前記プロセッサは、前記放射線画像の一部を切り出すトリミング処理を行う場合、
     前記トリミング処理後の前記放射線画像について、前記認識結果を用いることにより、前記マーカーを重畳する請求項1ないし7のいずれか1項に記載の検像装置。
  9.  前記プロセッサは、前記マーカーの重畳処理を含む検像工程の履歴を表示する請求項1ないし8のいずれか1項に記載の検像装置。
  10.  前記プロセッサは、前記マーカーの重畳処理を含む検像工程の少なくとも一部について、やり直しの指示を受け付け、
     前記やり直しの指示を受けた場合、前記やり直しの指示を受けた前記検像工程のやり直しに加え、少なくとも前記やり直しの指示を受けた前記検像工程の後に行う前記検像工程を、前記やり直しの指示を受けた前記検像工程の結果に合わせて自動的に再実行する請求項1ないし9のいずれか1項に記載の検像装置。
  11.  放射線を発生する放射線発生部と、前記放射線を用いて被写体を撮影する放射線撮影部とを備える放射線撮影システムの制御を行い、かつ、請求項1ないし10のいずれか1項に記載の検像装置を備えるコンソール。
  12.  請求項11に記載のコンソールを備える放射線撮影システム。
  13.  放射線を発生する放射線発生部と、
     前記放射線を用いて被写体を撮影する放射線撮影部と、
     プロセッサと、
     を備え、
     前記プロセッサは、
     前記放射線撮影部を用いて得た放射線画像に写る前記被写体の撮影方向及び/または側性に係る撮影条件を認識し、
     前記認識結果を用いて、前記放射線画像に写る前記被写体の撮影方向及び/または側性を表すマーカーを、前記放射線画像に重畳する放射線撮影システム。
     
PCT/JP2020/033918 2019-09-10 2020-09-08 検像装置、コンソール及び放射線撮影システム WO2021049478A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2021545542A JP7362750B2 (ja) 2019-09-10 2020-09-08 検像装置、コンソール及び放射線撮影システム
CN202080064012.4A CN114423349A (zh) 2019-09-10 2020-09-08 图像检测装置、控制台及放射线摄影系统
EP20863897.3A EP4029450A4 (en) 2019-09-10 2020-09-08 IMAGE TESTING DEVICE, CONSOLE AND RADIATION IMAGING SYSTEM
US17/689,990 US20220198663A1 (en) 2019-09-10 2022-03-09 Image inspection device, console, and radiographic system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-164437 2019-09-10
JP2019164437 2019-09-10

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/689,990 Continuation US20220198663A1 (en) 2019-09-10 2022-03-09 Image inspection device, console, and radiographic system

Publications (1)

Publication Number Publication Date
WO2021049478A1 true WO2021049478A1 (ja) 2021-03-18

Family

ID=74865678

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/033918 WO2021049478A1 (ja) 2019-09-10 2020-09-08 検像装置、コンソール及び放射線撮影システム

Country Status (5)

Country Link
US (1) US20220198663A1 (ja)
EP (1) EP4029450A4 (ja)
JP (1) JP7362750B2 (ja)
CN (1) CN114423349A (ja)
WO (1) WO2021049478A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024096039A1 (ja) * 2022-11-04 2024-05-10 キヤノン株式会社 情報処理装置、放射線撮影システム、情報処理方法、及びプログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114979487B (zh) * 2022-05-27 2024-06-18 联想(北京)有限公司 图像处理方法、装置及电子设备和存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0896125A (ja) 1994-09-29 1996-04-12 Shimadzu Corp 医療用画像表示装置
JP2004337291A (ja) * 2003-05-14 2004-12-02 Konica Minolta Medical & Graphic Inc 画像出力情報設定方法および画像出力情報設定装置ならびに画像出力情報設定プログラム
JP2008161532A (ja) * 2006-12-28 2008-07-17 Konica Minolta Medical & Graphic Inc 医用画像表示装置及びプログラム
JP2013102851A (ja) 2011-11-11 2013-05-30 Konica Minolta Medical & Graphic Inc 医用画像撮影システム、医用画像処理装置及びプログラム
JP2013220319A (ja) * 2012-04-19 2013-10-28 Fujifilm Corp 画像処理装置、方法及びプログラム
WO2018160615A1 (en) * 2017-02-28 2018-09-07 Dong Yonghua Medical imaging apparatus comprising primary module and supplemental module and process thereof
JP2019055004A (ja) * 2017-09-21 2019-04-11 キヤノンメディカルシステムズ株式会社 X線コンピュータ断層撮影装置、造影剤注入器及び管理装置
JP2019122724A (ja) * 2018-01-19 2019-07-25 キヤノン株式会社 放射線撮影装置、転送制御方法及びプログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6055326A (en) * 1997-06-16 2000-04-25 Lockheed Martin Management Method for orienting electronic medical images
JP3619027B2 (ja) * 1998-09-30 2005-02-09 キヤノン株式会社 X線撮影装置、x線撮影システム、x線画像処理方法、及びコンピュータ読み取り可能な記録媒体
JP3758893B2 (ja) * 1999-04-03 2006-03-22 コニカミノルタホールディングス株式会社 画像診断支援装置
JP4234301B2 (ja) * 1999-05-10 2009-03-04 富士フイルム株式会社 画像処理方法および装置並びに記録媒体
US8617152B2 (en) * 2004-11-15 2013-12-31 Medtronic Ablation Frontiers Llc Ablation system with feedback
US7783008B2 (en) * 2007-03-30 2010-08-24 General Electric Company Digital radiograph patient positioning system and method
JP5403812B2 (ja) * 2009-12-04 2014-01-29 ナカシマメディカル株式会社 大腿骨骨折治療用手術器具
US8737705B2 (en) * 2011-09-01 2014-05-27 General Electric Company Method and apparatus for determining a subjects orientation
JP6397018B2 (ja) * 2013-11-25 2018-09-26 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 視野角最適化機能を持つ医療ビューイングシステム
WO2016079047A1 (en) * 2014-11-19 2016-05-26 Koninklijke Philips N.V. X-ray pre-exposure control device
KR102336170B1 (ko) * 2016-01-08 2021-12-08 삼성전자주식회사 엑스선 영상 장치 및 그 제어 방법
DE102018212389B3 (de) * 2018-07-25 2020-01-02 Siemens Healthcare Gmbh Verfahren zum Betrieb einer Röntgeneinrichtung, Röntgeneinrichtung, Computerprogramm und elektronisch lesbares Speichermedium

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0896125A (ja) 1994-09-29 1996-04-12 Shimadzu Corp 医療用画像表示装置
JP2004337291A (ja) * 2003-05-14 2004-12-02 Konica Minolta Medical & Graphic Inc 画像出力情報設定方法および画像出力情報設定装置ならびに画像出力情報設定プログラム
JP2008161532A (ja) * 2006-12-28 2008-07-17 Konica Minolta Medical & Graphic Inc 医用画像表示装置及びプログラム
JP2013102851A (ja) 2011-11-11 2013-05-30 Konica Minolta Medical & Graphic Inc 医用画像撮影システム、医用画像処理装置及びプログラム
JP2013220319A (ja) * 2012-04-19 2013-10-28 Fujifilm Corp 画像処理装置、方法及びプログラム
WO2018160615A1 (en) * 2017-02-28 2018-09-07 Dong Yonghua Medical imaging apparatus comprising primary module and supplemental module and process thereof
JP2019055004A (ja) * 2017-09-21 2019-04-11 キヤノンメディカルシステムズ株式会社 X線コンピュータ断層撮影装置、造影剤注入器及び管理装置
JP2019122724A (ja) * 2018-01-19 2019-07-25 キヤノン株式会社 放射線撮影装置、転送制御方法及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024096039A1 (ja) * 2022-11-04 2024-05-10 キヤノン株式会社 情報処理装置、放射線撮影システム、情報処理方法、及びプログラム

Also Published As

Publication number Publication date
EP4029450A1 (en) 2022-07-20
CN114423349A (zh) 2022-04-29
JP7362750B2 (ja) 2023-10-17
JPWO2021049478A1 (ja) 2021-03-18
US20220198663A1 (en) 2022-06-23
EP4029450A4 (en) 2022-11-02

Similar Documents

Publication Publication Date Title
EP3453330B1 (en) Virtual positioning image for use in imaging
US20180140270A1 (en) Methods and systems for patient scan setup
JP4484462B2 (ja) 医療用診断または治療装置における患者の位置決め方法および装置
US20150297157A1 (en) X-ray computed-tomography apparatus and imaging-condition-setting support apparatus
US10918346B2 (en) Virtual positioning image for use in imaging
US20220198663A1 (en) Image inspection device, console, and radiographic system
JP6276020B2 (ja) スカウト画像の自動スキャンおよび位置決め装置
WO2014156796A1 (ja) 放射線撮影装置、放射線撮影方法、放射線撮影制御プログラム
JP6351011B2 (ja) 位置決め装置及び位置決め装置の作動方法
US11559273B2 (en) Mammography apparatus and program
JP6345468B2 (ja) 医用画像診断装置
WO2018108923A1 (en) X-ray apparatus having a composite field of view
JP2023106605A (ja) コンソール装置、放射線撮影装置、コンソール装置の作動方法、及びコンソール装置用プログラム
US20170347985A1 (en) Generation of a three-dimensional reconstruction of a body part by an x-ray machine
US20190117183A1 (en) Device for imaging an object
JP2021164641A (ja) マンモグラフィにおけるユーザおよび/または患者の経験の改善のための方法およびシステム
US7856080B2 (en) Method for determining a defined position of a patient couch in a C-arm computed tomography system, and C-arm computed tomography system
US11937965B2 (en) Radiographic system
JP6824641B2 (ja) X線ct装置
JP7404857B2 (ja) 画像判定装置、画像判定方法及びプログラム
JP6548713B2 (ja) 医用画像診断装置
WO2022022723A1 (zh) 一种医学操作的相关参数的确定方法以及系统
JP7353949B2 (ja) 放射線撮影システム、放射線撮影方法、医用画像撮影システムおよびプログラム
US20230309939A1 (en) System and Method for Training Sensor-Guided X-Ray Mammography System
WO2021124982A1 (ja) 放射線撮影制御装置、画像処理装置、放射線撮影制御方法、画像処理方法、プログラムおよび放射線撮影システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20863897

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021545542

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2020863897

Country of ref document: EP

Effective date: 20220411