WO2024117042A1 - 画像処理装置、放射線撮影システム、画像処理方法、及びプログラム - Google Patents

画像処理装置、放射線撮影システム、画像処理方法、及びプログラム Download PDF

Info

Publication number
WO2024117042A1
WO2024117042A1 PCT/JP2023/042206 JP2023042206W WO2024117042A1 WO 2024117042 A1 WO2024117042 A1 WO 2024117042A1 JP 2023042206 W JP2023042206 W JP 2023042206W WO 2024117042 A1 WO2024117042 A1 WO 2024117042A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
image processing
radiation
subject
optical
Prior art date
Application number
PCT/JP2023/042206
Other languages
English (en)
French (fr)
Inventor
悠真 細谷
Original Assignee
キヤノン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by キヤノン株式会社 filed Critical キヤノン株式会社
Publication of WO2024117042A1 publication Critical patent/WO2024117042A1/ja

Links

Definitions

  • This disclosure relates to an image processing device, a radiography system, an image processing method, and a program.
  • radiography systems that use radiation for imaging are known.
  • systems have become widespread in which a radiation generating device irradiates radiation, a radiography device detects the radiation that has entered through a subject, and a digital radiography image is generated and displayed based on the detected radiation.
  • the user can check the image immediately after radiography by checking the displayed radiography image.
  • the use of a digitalized radiography system improves the workflow compared to conventional imaging methods that use film, and allows imaging to be performed in a faster cycle.
  • the patient and the radiation imaging device When taking images using such a radiation imaging system, it is necessary to position the patient and the radiation imaging device, including instructing the patient's posture, according to the imaging conditions (imaged area, distance between the X-ray tube and detector, etc.) previously set in the radiation imaging system. Specifically, the patient is moved between the radiation generator and the radiation imaging device, and positioning is performed so that the patient's imaged area is included in the area irradiated with radiation (irradiation field). Once positioning is complete, the user, such as a doctor or radiologist, leaves the patient and operates the X-ray exposure in the control room.
  • the imaging conditions imaged area, distance between the X-ray tube and detector, etc.
  • Patent Document 1 discloses a technology in which a television camera is attached to the stand of the X-ray CT scanner, and the camera image captured by the camera during shooting with the X-ray CT scanner is displayed on a monitor.
  • radiation images output by radiation imaging devices are set to have a constant orientation, and users such as doctors and radiologists position the patient while anticipating the orientation of the output radiation image.
  • users such as doctors and radiologists position the patient while anticipating the orientation of the output radiation image.
  • optical images obtained by optical cameras look different depending on the patient's orientation and position, and so the images can be difficult for users to confirm. In such cases, the patient must be moved or the image must be adjusted.
  • one of the objectives of one embodiment of the present disclosure is to perform image processing on at least one of the optical image and the radiation image so that the optical image and the radiation image correspond to each other.
  • An image processing device includes an acquisition unit that acquires an optical image obtained by optically photographing a subject and a radiographic image obtained by radiographically photographing the subject, and an image processing unit that performs image processing including at least one of a rotation process, an extraction process, and a scaling process on at least one of the optical image and the radiographic image so that the optical image and the radiographic image correspond to each other.
  • FIG. 1 shows an example of a schematic configuration of a radiation imaging system according to a first embodiment.
  • 4 shows an example of a setting screen for an imaging protocol according to the first embodiment.
  • 4 is a flowchart showing image processing according to the first embodiment.
  • FIG. 2 is a diagram for explaining image processing according to the first embodiment.
  • 5 is a flowchart showing a shooting process according to the first embodiment.
  • 10 shows an example of a schematic configuration of a radiation imaging system according to a second embodiment.
  • 10 is a flowchart showing a shooting process according to a second embodiment.
  • 13 shows an example of a schematic configuration of a radiation imaging system according to a third embodiment. 13 shows an example of an optical image capturing protocol setting screen according to the third embodiment.
  • 13 shows an example of an imaging protocol setting screen for a radiographic image according to the third embodiment.
  • 13 is a flowchart showing a preparation process for photographing an optical image according to the third embodiment.
  • 13 is a flowchart showing radiographic image capturing preparation processing according to the third embodiment.
  • 13 is a flowchart showing a shooting process according to a third embodiment.
  • 13 shows an example of a display screen according to the fourth embodiment.
  • 13 is a flowchart showing a shooting process according to a fourth embodiment.
  • radiation can include, for example, electromagnetic radiation such as X-rays and gamma rays, as well as particulate radiation such as alpha rays, beta rays, particle beams, proton beams, heavy ion beams, and meson beams.
  • electromagnetic radiation such as X-rays and gamma rays
  • particulate radiation such as alpha rays, beta rays, particle beams, proton beams, heavy ion beams, and meson beams.
  • a machine learning model refers to a learning model based on a machine learning algorithm.
  • machine learning algorithms include nearest neighbor methods, naive Bayes methods, decision trees, and support vector machines.
  • deep learning which uses a neural network to generate features and connection weighting coefficients for learning.
  • Algorithms using decision trees include methods using gradient boosting, such as LightGBM and XGBoost.
  • teacher data refers to learning data, and is composed of pairs of input data and output data.
  • the output data of the learning data is also called correct answer data.
  • a trained model refers to a model that has been trained (learned) in advance using appropriate teacher data (learning data) for a machine learning model that follows any machine learning algorithm, such as deep learning.
  • learning data teacher data
  • a trained model has been obtained in advance using appropriate learning data, this does not mean that no further learning is performed, and additional learning can also be performed. Additional learning can also be performed after the device is installed at the site of use.
  • FIG. 1 a radiation imaging system, an image processing device, and an image processing method for capturing and displaying medical images according to a first embodiment of the present disclosure will be described with reference to FIGS. 1 to 5.
  • FIG. 1 a radiation imaging system, an image processing device, and an image processing method for capturing and displaying medical images according to a first embodiment of the present disclosure will be described with reference to FIGS. 1 to 5.
  • FIG. 1 a radiation imaging system, an image processing device, and an image processing method for capturing and displaying medical images according to a first embodiment of the present disclosure will be described with reference to FIGS. 1 to 5.
  • ⁇ Configuration of Radiation Imaging System> 1 shows an example of a schematic configuration of a radiation imaging system according to the present embodiment provided in an imaging room.
  • the radiation imaging system according to the present embodiment includes a control device 100, a radiation imaging device 110, a radiation generating device 120, a tube 121, a camera 130, a display unit 150, and an operation unit 160.
  • the control device 100, the radiation imaging device 110, the radiation generating device 120, and the camera 130 are connected to each other via an arbitrary network 140.
  • the network 140 may be configured, for example, as a LAN (Local Area Network) or a WAN (Wide Area Network).
  • the network 140 may be a wired network or a wireless network. These devices may also be directly connected without going through the network 140.
  • the control device 100, the display unit 150, and the operation unit 160 may be disposed in an operation room partitioned within the shooting room or in an operation room provided separately from the shooting room.
  • the control device 100 can be constructed with an information processing device such as a computer, and can function as an example of an image processing device that can control various types of photography and perform image processing of the photographed images.
  • the computer is equipped with, for example, a main control unit such as a CPU, and storage units such as a ROM (Read Only Memory) and a RAM (Random Access Memory).
  • the control device 100 communicates with the radiation imaging device 110 to control radiation imaging, and can acquire radiation images captured by the radiation imaging device 110.
  • the control device 100 also communicates with the radiation generating device 120 to control the radiation generating device 120, and can acquire information from the radiation generating device 120 regarding irradiation of radiation.
  • the control device 100 also communicates with the camera 130 to control the camera 130, and can acquire images captured by the camera 130.
  • the radiation imaging device 110 transitions to a state in which imaging is possible in response to an instruction from the control device 100, performs radiation imaging in synchronization with the radiation generating device 120, and can generate an image based on radiation irradiated from a tube 121, which is an example of a radiation source.
  • the radiation imaging device 110 can include any radiation detector that detects radiation and outputs a corresponding signal, and the radiation detector can be configured using, for example, an FPD (Flat Panel Detector).
  • the radiation detector can be an indirect conversion type detector that converts radiation into visible light using a scintillator or the like and then converts the visible light into an electrical signal using an optical sensor, or it can be a direct conversion type detector that directly converts incident radiation into an electrical signal.
  • the number of radiation imaging devices 110 is not limited to one, and multiple radiation imaging devices can be used.
  • the radiation generating device 120 detects a radiation irradiation instruction from a user, and generates radiation from the tube 121 based on the irradiation conditions set by a user input device (not shown) that accepts user operations such as an operation panel.
  • the radiation irradiated from the tube 121 passes through the subject while being attenuated, and enters the radiation imaging device 110.
  • Camera 130 functions as an example of an optical imaging device that captures images in response to instructions from control device 100 and acquires optical images.
  • camera 130 is attached to tube 121, captures images in the direction of radiation emission from tube 121, and has an imaging range equivalent to that of a radiation image.
  • tube 121 may be a device that includes the tube itself, which is an example of a radiation source, and camera 130 may be attached to that device.
  • the display unit 150 and the operation unit 160 are connected to the control device 100.
  • the display unit 150 includes any display, such as a liquid crystal display, and displays various information regarding the subject, such as subject information and imaging protocols, as well as various images, such as radiation images and optical images, under the control of the control device 100.
  • the operation unit 160 includes input devices for inputting operation information for operating the control device 100, such as a keyboard and a mouse.
  • the display unit 150 may be configured with a touch panel display, in which case the display unit 150 can also serve as the operation unit 160.
  • the control device 100 includes an acquisition unit 101, a selection unit 102, an image processing unit 103, a control unit 104, a display control unit 105, and a storage unit 106.
  • the acquisition unit 101 can acquire optical images of a subject optically captured by the camera 130 and radiographic images of a subject captured by radiographic imaging device 110.
  • the acquisition unit 101 can also acquire operation information by a user, subject information, imaging protocols related to imaging, and the like, input via the operation unit 160.
  • the acquisition unit 101 may acquire these images and information from an imaging device or server (not shown) connected to the control device 100 via any network.
  • the acquisition unit 101 may also acquire these images and information stored in the storage unit 106.
  • the selection unit 102 can select an imaging protocol for imaging the subject from a plurality of imaging protocols stored in the storage unit 106 based on the user's operation information acquired by the acquisition unit 101.
  • the imaging protocol may be set for each imaging body part, or may be set for each combination of imaging body part and imaging conditions, etc.
  • an imaging protocol set for each imaging body part will be described as an example.
  • the image processing unit 103 can perform image processing on the optical image and radiation image acquired by the acquisition unit 101 so that the optical image and radiation image correspond to each other.
  • image processing may include, for example, image rotation processing, extraction processing (cutout processing), and enlargement/reduction processing.
  • the optical image and radiation image correspond to each other is not limited to a case where the direction, angle, size, etc. of the subject in the optical image and radiation image are the same, but may be a case where the user can easily confirm the correspondence between the subjects in the optical image and radiation image. Therefore, the direction, angle, size, etc. of the subject in the optical image and radiation image may be different from each other as long as the user can easily confirm the correspondence between the subjects in the optical image and radiation image. Details of image processing by the image processing unit 103 will be described later.
  • the control unit 104 controls the radiation imaging device 110, the radiation generating device 120, the camera 130, and a network device (not shown) connected to the network 140.
  • the control unit 104 can also control the overall operation of the control device 100.
  • the display control unit 105 can control the display of the display unit 150.
  • the display control unit 105 can display, for example, subject information, shooting conditions, parameters set by the user, optical images, radiation images, shooting protocols, and settings related to image processing on the display unit 150.
  • the display control unit 105 can display any display or GUI, such as a button or slider for accepting user operations, on the display unit 150 according to the desired configuration.
  • the storage unit 106 can store optical images and radiation images processed by the control device 100, as well as various data.
  • the storage unit 106 can also store subject information, shooting conditions, parameters set by the user, and the like.
  • the storage unit 106 can also store various control programs for implementing the various functions of the control device 100.
  • the storage unit 106 may be configured, for example, with any storage medium, such as an optical disk or memory.
  • the control device 100 may be configured as a general computer, or may be configured as a computer dedicated to the radiation imaging system.
  • the control device 100 may be, for example, a personal computer (PC), and a desktop PC, a notebook PC, or a tablet PC (portable information terminal), etc. may be used.
  • the control device 100 may be configured as a cloud-type computer in which some of the components are located in an external device.
  • the acquisition unit 101, the selection unit 102, the image processing unit 103, the control unit 104, and the display control unit 105 may be configured as software modules executed by the processor of the control device 100. Furthermore, each of these components may be configured as a circuit that performs a specific function, such as an ASIC, or an independent device.
  • FIG. 1 is merely an example and may be modified as appropriate according to the desired configuration.
  • various devices are connected to the control device 100 via a network 140, but the control device 100 does not need to be connected to such devices, and the control device 100 may obtain various images from a server (not shown) or the like.
  • each device may exist multiple times on the network.
  • the imaging preparation process is performed as a preparation stage before the imaging process is performed.
  • the imaging preparation process does not need to be performed for each examination, and may be omitted as appropriate when using settings from a previous examination, etc.
  • Fig. 2 shows an example of an imaging protocol setting screen 200 according to this embodiment.
  • the imaging protocol setting screen 200 can be displayed by the display unit 150 under the control of the display control unit 105.
  • the user operates the operation unit 160 to set an imaging protocol on the imaging protocol setting screen 200 as shown in Fig. 2.
  • the orientation of the subject in the optical image and radiation image when the optical image and radiation image are displayed on the display unit 150 can be set.
  • the user can set the orientation of the subject in the optical image and radiation image via the operation unit 160 by specifying the radio button 201 corresponding to the orientation 202 of the subject to be displayed and pressing the OK button 203.
  • the imaging protocol set in this manner is stored in the memory unit 106.
  • the image processing unit 103 performs image processing on the optical image and the radiation image based on the imaging protocol set in this way so as to correspond to the set orientation.
  • the image processing according to this embodiment will be described below.
  • Fig. 3 is a flowchart showing an example of the procedure of the image processing of the optical image according to the present embodiment.
  • the image processing unit 103 recognizes the orientation of the subject in the optical image, and performs image processing on the optical image so that the subject in the optical image faces the orientation of the subject set in association with the shooting protocol.
  • the subject is the left hand will be described, similar to the setting of the shooting protocol.
  • the image processing unit 103 estimates the positions of the fingertips, bases of the fingers, and wrist of the left hand, which is the subject in the optical image acquired by the camera 130. For example, when an optical image of a left hand 400 as shown in FIG. 4 is acquired, the image processing unit 103 estimates the positions of the fingertips (403, 405, 407, 409, 411), bases of the fingers (402, 404, 406, 408, 410), and wrist (401).
  • the coordinate system for these positions is the screen coordinate system, and in the example of FIG. 4, the top left corner of the screen on which the optical image is displayed is set as the origin of the coordinate system.
  • the coordinate system may be set arbitrarily according to the desired configuration.
  • the image processing unit 103 may estimate the position of the fingertips, etc., by performing rule-based processing on the optical image based on regularities, etc. related to the structure of the subject. For example, the image processing unit 103 may perform a known edge extraction process, etc. on the optical image to extract feature points, and estimate the position of the fingertips, etc., based on the feature points and regularities, etc. related to the structure of the hand.
  • the image processing unit 103 may also estimate the positions of the fingertips, etc. from the optical image using a trained model obtained by machine learning.
  • the trained model may be obtained using trained data that uses the optical image as input data and includes information indicating the positions of the fingertips, base of the fingers, and wrist in the optical image as output data.
  • the information indicating the positions of the fingertips, base of the fingers, and wrist in the optical image may be generated by a doctor or the like in association with the optical image, and may be generated as a label image to which, for example, coordinates indicating the position of each part or labels indicating each part in the optical image are attached.
  • the control device 100 When a trained model is used, the control device 100 functions as an example of a learning unit that trains a trained model used for recognition processing of the fingertip position, etc., but the image processing unit 103 may use a trained model trained by another learning device, etc.
  • the GPU can perform efficient calculations by processing more data in parallel. For this reason, when learning is performed multiple times using a machine learning algorithm such as deep learning, it is effective to perform processing with the GPU. Therefore, in this embodiment, a GPU may be used in addition to a CPU for processing by the control device 100 that functions as an example of a learning unit. Specifically, when a learning program including a trained model is executed, learning can be performed by the CPU and GPU working together to perform calculations.
  • the processing of the learning unit calculations may be performed only by the CPU or the GPU. Also, the estimation processing according to this embodiment may be realized using a GPU, as in the learning unit. Note that, when the trained model is provided in an external device, the control device 100 does not have to function as a learning unit.
  • the learning unit may also include an error detection unit and an update unit, both of which are not shown.
  • the error detection unit obtains the error between correct data and output data output from the output layer of the neural network in response to input data input to the input layer.
  • the error detection unit may use a loss function to calculate the error between the output data from the neural network and correct data.
  • the update unit updates the connection weighting coefficients between the nodes of the neural network, etc., based on the error obtained by the error detection unit, so as to reduce the error.
  • This update unit updates the connection weighting coefficients, etc., using, for example, an error backpropagation method.
  • the error backpropagation method is a method of adjusting the connection weighting coefficients between the nodes of each neural network so as to reduce the above-mentioned error.
  • machine learning model for example, FCN (Fully Convolutional Network) or SegNet can be used.
  • machine learning model for object recognition for example, RCNN (Region CNN), fastRCNN, or fasterRCNN can be used.
  • YOLO You Only Look Once
  • SSD Single Shot Detector, or Single Shot MultiBox Detector
  • the image processing unit 103 obtains the position of the fingertip that is farthest from the position of the wrist 401. Specifically, the image processing unit 103 obtains the distance between two points on the wrist 401 and the fingertips 403, 405, 407, 409, and 411, and obtains the position of the fingertip with the largest value. In the example shown in FIG. 4, the image processing unit 103 obtains the position of the fingertip 407 as the position of the fingertip that is farthest from the position of the wrist 401.
  • step S302 the image processing unit 103 obtains the position of the midpoint between the position of the fingertip 407 and the position of the wrist 401 acquired in step S301. Specifically, the image processing unit 103 adds the X coordinate of the wrist 401 and the X coordinate of the fingertip 407, divides the result by 2, and determines the X coordinate of the midpoint. The image processing unit 103 also adds the Y coordinate of the wrist 401 and the Y coordinate of the fingertip 407, and divides the result by 2, and determines the Y coordinate of the midpoint. In the example shown in FIG. 4, the image processing unit 103 obtains the position of the midpoint 412 as the position of the midpoint between the position of the fingertip 407 and the position of the wrist 401 acquired in step S301.
  • step S303 the image processing unit 103 obtains the position of the finger base closest to the position of the midpoint 412 obtained in step S302. Specifically, the image processing unit 103 obtains the distance between the midpoint 412 and the finger bases 402, 404, 406, 408, and 410, and obtains the position of the finger base with the smallest distance value. In the example shown in FIG. 4, the image processing unit 103 obtains the position of the finger base 406 as the position of the finger base closest to the position of the midpoint 412 obtained in step S302.
  • step S304 the image processing unit 103 obtains the position of the midpoint between the position of the base of the finger 406 and the position of the wrist 401 obtained in step S303. Specifically, the image processing unit 103 adds the X coordinate of the wrist 401 and the X coordinate of the base of the finger 406, divides the result by 2, and determines the X coordinate of the midpoint. Also, the image processing unit 103 adds the Y coordinate of the wrist 401 and the Y coordinate of the base of the finger 406, and divides the result by 2, and determines the Y coordinate of the midpoint. In the example shown in FIG. 4, the image processing unit 103 obtains the position of the midpoint 413 as the position of the midpoint between the position of the base of the finger 406 and the position of the wrist 401 obtained in step S303.
  • step S305 the optical image is rotated around the position of the midpoint 413 acquired in step S304 as an axis according to the orientation of the subject set in the above-mentioned photographing preparation process.
  • the orientation of the subject for which the Y coordinate of the fingertip 407 acquired in step S301 is closest to 0 (smallest) can be set to the orientation of "finger direction up”
  • the orientation of the subject for which the Y coordinate is largest can be set to the orientation of "finger direction down”.
  • the orientation of the subject for which the X coordinate of the fingertip 407 acquired in step S301 is closest to 0 (smallest) can be set to "finger direction left", and the orientation of the subject for which the X coordinate is largest can be set to "finger direction right”.
  • the image processing unit 103 ends the image processing.
  • the image processing of the radiographic image according to this embodiment may be the same as the image processing of the optical image. Therefore, except that the processing target is changed from an optical image to a radiographic image, the image processing unit 103 performs the same processing as the processing of steps S300 to S305 described above on the radiographic image. More specifically, the image processing unit 103 recognizes the orientation of the subject in the radiographic image, and performs image processing on the radiographic image so that the subject in the radiographic image faces the orientation of the subject set in association with the imaging protocol. Note that the details of each step are the same as those of steps S300 to S305 described above, and therefore will not be described.
  • the trained model can be generated using the radiographic image as training data.
  • the trained model in this case may be obtained using training data including the radiographic image as input data and information indicating the positions of the fingertips, the base of the fingers, and the wrist in the radiographic image as output data.
  • the information indicating the positions of the fingertips, the base of the fingers, and the wrist in the radiographic image may be generated by a doctor or the like in association with the radiographic image, and may be generated as a label image to which, for example, coordinates indicating the position of each part or labels indicating each part in the radiographic image are attached.
  • control device 100 functions as an example of a training unit that trains a trained model for estimating the positions of the fingertips, etc. of the subject, but the image processing unit 103 may use a trained model trained by another training device or the like.
  • the image processing unit 103 may recognize the orientation of the subject from the optical image using a trained model that uses training data including, as input data, information indicating the orientation of the subject in the optical image and, as output data, an optical image.
  • the image processing unit 103 may recognize the orientation of the subject from the radiographic image using a trained model that uses, as input data, a radiographic image and, as output data, an information indicating the orientation of the subject in the radiographic image.
  • the control device 100 functions as an example of a learning unit that learns a trained model for recognizing the orientation of the subject, but the image processing unit 103 may use a trained model that has been trained by another learning device or the like.
  • the method of determining the rotation axis of the image is not limited to the above method.
  • the image processing unit 103 may determine the center of the image as the rotation axis of the image.
  • image processing may involve identifying the orientation of the subject as described above and rotating the image so that the orientation of the subject in the image is a specified orientation, rotating the image by a preset numerical rotation angle, or extracting a portion of the image.
  • Image processing may also include a process for enlarging or reducing the image.
  • the image processing applied to the optical image and the radiographic image does not have to be the same.
  • rotation and enlargement processing may be set as the image processing for the optical image, and only rotation processing may be set as the image processing for the radiographic image.
  • the image processing for the optical image and the image processing for the radiographic image can be processing that makes the appearance of the optical image and the radiographic image correspond to each other after image processing.
  • FIG. 5 is a flowchart showing an example of the procedure for the imaging process according to this embodiment.
  • the acquisition unit 101 acquires operation information from the user input via the operation unit 160, and selects an imaging protocol based on the operation information.
  • an imaging protocol for the left hand is selected will be described.
  • the examination of the subject is started by selecting the imaging protocol.
  • step S501 the user positions the subject so that the left hand of the patient, who is the subject, is captured in the optical image and the radiation image.
  • the subject may be positioned in an imaging position such as standing, lying, or sitting according to the desired imaging conditions.
  • step S502 the control unit 104 controls the image capture by the camera 130, and the acquisition unit 101 acquires an optical image including a subject from the camera 130.
  • the acquisition unit 101 acquires an optical image of the patient's positioned left hand.
  • the image processing unit 103 determines the image processing to be performed on the optical image based on the shooting protocol selected in step S500. Specifically, the image processing unit 103 determines the image processing based on the shooting protocol set in the shooting preparation process, which is stored in the storage unit 106, as the image processing to be performed on the optical image. In the example described above, the image processing unit 103 determines the image processing to be performed on the optical image based on the shooting protocol setting for the left hand, so that the fingertips of the left hand in the optical image face up.
  • step S504 the image processing unit 103 applies the image processing determined in step S503 to the optical image acquired in step S502.
  • the image processing unit 103 executes image processing to rotate the optical image so that the fingertips of the left hand in the optical image point upwards, according to the procedure described in steps S300 to S305.
  • step S505 the display control unit 105 causes the display unit 150 to display the optical image that has been subjected to image processing. This allows the user to check whether there is a problem with the subject's positioning. If there is no problem with the subject's positioning, the user can input an instruction to perform radiography to the control device 100, for example by pressing a radiation irradiation switch (not shown).
  • step S506 the control unit 104 controls the radiation generating device 120 in accordance with the input instructions for radiography, causes the tube 121 to irradiate radiation toward the subject, and causes the radiography device 110 to detect the radiation that has passed through the subject.
  • the acquisition unit 101 then acquires a radiographic image including the subject that has been captured by the radiography device 110. In the example described above, the acquisition unit 101 acquires a radiographic image of the patient's left hand.
  • step S507 the image processing unit 103 determines the image processing to be performed on the radiographic image based on the imaging protocol selected in step S500, similar to step S503. Specifically, the image processing unit 103 determines the image processing to be performed on the radiographic image based on the imaging protocol set in the imaging preparation process, which is stored in the storage unit 106. In the example described above, the image processing unit 103 determines the image processing to be performed on the radiographic image based on the imaging protocol setting for the left hand, so that the fingertips of the left hand in the radiographic image face up.
  • step S508 the image processing unit 103 applies the image processing determined in step S507 to the radiographic image acquired in step S506.
  • the image processing unit 103 executes image processing to rotate the radiographic image so that the fingertips of the left hand in the radiographic image face up, using a procedure similar to that described in steps S300 to S305.
  • step S509 the display control unit 105 causes the display unit 150 to display the processed radiographic image. This allows the user to check the optical image and the radiographic image in a manner in which they correspond to each other, and easily determine whether the subject was properly positioned during radiography.
  • the control device 100 ends the imaging process when the processing in step S509 is completed.
  • an imaging protocol for the left hand has been described, but the imaging protocol that can be selected is not limited to this.
  • imaging protocols for the right hand, left foot, right foot, chest, head, or abdomen may be selected.
  • the imaging preparation process can set the orientation of the subject in the optical image and radiation image when the optical image and radiation image are displayed on the display unit 150.
  • a trained model for recognizing the orientation of the subject and the part of the subject may be prepared for each imaging part or each imaging protocol.
  • the image processing unit 103 can select a trained model according to the imaging part or imaging protocol and use it for image processing.
  • the radiation imaging system includes a camera 130 that functions as an example of an optical imaging device that optically images a subject, a radiation imaging device 110 that radiographs the subject, and a control device 100 that functions as an example of an image processing device.
  • the control device 100 includes an acquisition unit 101 and an image processing unit 103.
  • the acquisition unit 101 acquires an optical image obtained by optically imaging the subject and a radiographic image obtained by radiographically imaging the subject.
  • the image processing unit 103 performs image processing on the optical image and the radiographic image, including at least one of a rotation process, an extraction process, and a scaling process, so that the optical image and the radiographic image correspond to each other.
  • control device 100 can perform image processing on the optical image and the radiation image so that the optical image and the radiation image correspond to each other.
  • the control device 100 can match the appearance of the optical image and the radiation image, providing an image that is easy for the user to confirm, reducing the need for the patient to move and the need for tasks such as adjusting the image, and reducing the burden on the patient and the user.
  • the control device 100 further includes a selection unit 102 that selects an imaging protocol for imaging the subject.
  • the image processing unit 103 can execute image processing on the optical image and the radiation image according to the imaging protocol so that the optical image and the radiation image correspond to each other. In this case, by performing image processing according to the imaging protocol, the control device 100 can perform image processing that is more in line with the purpose and procedure of imaging, and can provide an image that is easier for the user to confirm.
  • the image processing unit 103 can recognize the orientation of the subject in the optical image, and perform image processing on the optical image so that the subject in the optical image faces a predetermined direction. Furthermore, the image processing unit 103 can recognize the orientation of the subject in the radiation image, and perform image processing on the radiation image so that the subject in the radiation image faces a predetermined direction. With this configuration, the control device 100 can perform image processing so that the subject in the image faces a desired direction regardless of the patient's orientation. Therefore, the control device 100 can reduce the need for the patient to move or the need for work such as adjusting the image, which are caused by the difficulty in checking the optical image when positioning the subject, and can reduce the burden on the patient and user. Furthermore, the control device 100 can perform image processing so that the subject faces a desired direction, and can improve the convenience of the radiation imaging system.
  • the image processing unit 103 can estimate the positions of the subject's fingertips and wrist in the optical image and the radiation image. In this case, the image processing unit 103 can recognize the orientation of the subject in the optical image based on the positions of the subject's fingertips and wrist in the optical image. Furthermore, the image processing unit 103 can recognize the orientation of the subject in the radiation image based on the positions of the subject's fingertips and wrist in the radiation image. With this configuration, the image processing unit 103 can recognize the orientation of the subject in the optical image and the radiation image.
  • the image processing unit 103 can further estimate the positions of the bases of the subject's fingers in the optical image and the radiation image.
  • the image processing unit 103 can obtain a rotation axis for the optical image based on the positions of the subject's fingertips, bases of the fingers, and wrist in the optical image, and perform rotation processing on the optical image around the rotation axis.
  • the image processing unit 103 can also obtain a rotation axis for the radiation image based on the positions of the subject's fingertips, bases of the fingers, and wrist in the radiation image, and perform rotation processing on the radiation image around the rotation axis.
  • the control device 100 can determine a more appropriate rotation axis for an image showing a hand, and perform rotation processing.
  • the image processing unit 103 can also recognize the orientation of the subject in the acquired optical image by using the output from a trained model obtained by inputting the acquired optical image into a trained model obtained using training data including an optical image and information indicating the orientation of the subject in the optical image.
  • the image processing unit 103 can also recognize the orientation of the subject in the acquired radiographic image by using the output from a trained model obtained by inputting the acquired radiographic image into a trained model obtained using training data including a radiographic image and information indicating the orientation of the subject in the radiographic image. Even with this configuration, the image processing unit 103 can recognize the orientation of the subject in the optical image or the radiographic image.
  • the acquisition unit 101 acquires an optical image and a radiological image.
  • an optical image acquisition unit that acquires an optical image and a radiological image acquisition unit that acquires a radiological image may be provided separately.
  • the acquisition unit 101 may be provided as a component that encompasses the optical image acquisition unit and the radiological image acquisition unit.
  • the image processing unit 103 performs image processing on the optical image and the radiological image.
  • an optical image processing unit that performs image processing on the optical image and a radiological image processing unit that performs image processing on the radiological image may be provided separately.
  • the image processing unit 103 may be provided as a component that encompasses the optical image processing unit and the radiological image processing unit.
  • the acquisition unit 101 acquires radiographic images and optical images from the radiographic imaging device 110 and the camera 130.
  • the acquisition unit 101 may acquire these images from an imaging device or a server (not shown) connected to the control device 100 via an arbitrary network.
  • the radiographic images and optical images may be acquired at different times as long as the subject is in the same imaging posture.
  • the image processing unit 103 performs rotation processing on the optical image and the radiation image based on the setting of the subject's orientation associated with the imaging protocol.
  • the image processing unit 103 may perform image processing on at least one of the optical image and the radiation image so that one of the subject's orientation in the optical image and the subject's orientation in the radiation image faces the other.
  • the other image may be an image that has not been subjected to image processing, or may be an image that has been subjected to image processing such as rotation processing based on the setting of the subject's orientation associated with the imaging protocol.
  • the image processing unit 103 may recognize the orientation of the subject in the optical image and the radiation image, and perform image processing such as rotation processing on the radiation image so that the orientation of the subject in the radiation image matches the orientation of the subject in the optical image.
  • the image processing unit 103 may recognize the orientation of the subject in the optical image and the radiation image, and perform image processing such as rotation processing on the optical image so that the orientation of the subject in the optical image matches the orientation of the subject in the radiation image.
  • the image processing of the optical image and the display processing of the optical image after image processing may be performed after the radiation image is acquired.
  • control device 100 can match the appearance of the optical image and the radiation image, providing an image that is easy for the user to confirm, reducing the need for the patient to move or the need for tasks such as adjusting the image, thereby reducing the burden on the patient and the user.
  • the method for recognizing the orientation of the subject in the optical image and the radiation image may be the same as the method described above.
  • Second Embodiment In the first embodiment, image processing is always applied to optical images and radiation images. In contrast, in the second embodiment of the present disclosure, an example in which image processing is performed based on specific conditions will be described.
  • a radiation imaging system, an image processing device, and an image processing method according to this embodiment will be described with reference to Figs. 6 and 7. Note that a description of the same configuration, functions, and operations as those of the first embodiment will be omitted, and the differences between this embodiment and the first embodiment will be mainly described.
  • a control device 600 according to this embodiment includes a part recognition unit 607 and a part comparison unit 608 in addition to the configuration of the control device 100 according to the first embodiment.
  • the part recognition unit 607 recognizes the photographed parts that appear in the optical image acquired by the camera 130.
  • the part recognition unit 607 may recognize the photographed parts that appear in the optical image by any known method.
  • the part recognition unit 607 may recognize the photographed parts that appear in the optical image by rule-based processing based on regularities regarding the structure of the subject.
  • the part recognition unit 607 may, for example, perform known edge extraction processing or the like on the optical image to extract feature points, and recognize the photographed parts based on the feature points and regularities regarding the structure of each photographed part.
  • the body part recognition unit 607 may recognize the photographed part shown in the optical image using a trained model obtained by machine learning.
  • the trained model may be obtained using training data including the optical image as input data and information indicating the photographed part shown in the optical image as output data.
  • the information indicating the photographed part in the optical image may be generated, for example, by a doctor in association with the optical image.
  • the control device 600 functions as an example of a learning unit that trains the trained model used in the recognition process of the photographed part, but the body part recognition unit 607 may use a trained model that has been trained by another learning device, etc.
  • the part comparison unit 608 compares the imaging part recognized by the part recognition unit 607 with the part information indicating the imaging part associated with the imaging protocol.
  • Fig. 7 is a flowchart showing an example of the procedure of the photographing process according to this embodiment. Note that the photographing preparation process according to this embodiment is similar to the photographing preparation process according to the first embodiment, and therefore the description thereof will be omitted.
  • steps S700 to S702 are similar to the processing of steps S500 to S502 according to the first embodiment, and therefore a description thereof will be omitted.
  • the acquisition unit 101 acquires an optical image in step S702
  • the processing proceeds to step S703.
  • the part recognition unit 607 recognizes the photographed part of the subject shown in the optical image, and outputs the recognition result to the part comparison unit 608.
  • step S704 the part comparison unit 608 acquires part information associated with the imaging protocol selected in step S700 from the storage unit 106.
  • the part comparison unit 608 may acquire the part information associated with the imaging protocol from an external storage device such as a server (not shown) connected to the control device 600.
  • step S705 the part comparison unit 608 compares the part to be photographed recognized in step S703 with the part information acquired in step S704, and determines whether they match. If it is determined in step S705 that the part to be photographed and the part information match, the process proceeds to step S706.
  • the processes in steps S706 to S712 are similar to those in steps S503 to S509 in the first embodiment, and therefore will not be described.
  • step S713 the display control unit 105 causes the display unit 150 to display a warning such as a dialogue notifying the user that the imaging site and the site information in the imaging protocol do not match.
  • the warning may include, for example, a prompt to correct the subject's posture or change the imaging site.
  • the imaging process according to this embodiment ends. Therefore, in this embodiment, if the imaging site and the site information do not match, the image processing unit 103 does not perform image processing on the optical image and the imaging process ends. Also, in this case, the acquisition unit 101 does not acquire a radiation image and the imaging process ends.
  • the control device 600 includes a body part recognition unit 607 and a body part comparison unit 608.
  • the body part recognition unit 607 functions as an example of a recognition unit that recognizes the photographed body part of the subject from the optical image.
  • the body part comparison unit 608 functions as an example of a determination unit that determines whether the recognized photographed body part matches body part information indicating the photographed body part of the subject associated with the photographing protocol. If it is determined that the recognized photographed body part does not match the body part information, the image processing unit 103 does not perform image processing on the optical image.
  • the control device 600 can reduce the processing load by not performing image processing when the imaging part shown in the optical image is different from the imaging part to be imaged. Furthermore, when it is determined that the recognized imaging part does not match the part information, the acquisition unit 101 does not acquire a radiographic image. With this configuration, when the imaging part shown in the optical image is different from the imaging part to be imaged, radiography is not performed, thereby preventing unnecessary radiation exposure of the subject.
  • the control device 600 also includes a display control unit 105 that displays a warning on the display unit 150 when it is determined that the recognized imaging area does not match the area information. In this case, the user can realign the subject based on the warning, improving the workflow.
  • the part recognition unit 607 can recognize the part of the subject's body in the acquired optical image by inputting the acquired optical image into a trained model obtained using training data including the optical image and information indicating the part of the subject's body that is photographed in the optical image, and using the output from the trained model.
  • the control device 600 can obtain highly accurate recognition results and perform more accurate determination processing regarding the part of the subject that is photographed.
  • the part recognition unit 607 can use an optical image that shows the entire image of the subject to improve the accuracy of the recognition process of the photographed part.
  • an optical image that focuses on the photographed part may be desired.
  • different optical images may be used for the optical image used by the part recognition unit 607 and the optical image processed by the image processing unit 103 and displayed on the display unit 150 by the display control unit 105.
  • the image processing unit 103 may perform image processing on the optical image used by the part recognition unit 607 to extract the area of the photographed part in the optical image.
  • image processing is performed on the optical image and the radiation image based on the analysis results of the images acquired by the camera 130 and the radiation imaging device 110.
  • image processing is performed on the optical image and the radiation image so that they appear in a preset manner without analyzing the images.
  • the optical imaging device maintains the same state from the imaging preparation process to the imaging process.
  • the radiation imaging device may be positioned at a different angle from the imaging preparation process to the imaging process, and image processing is performed on the radiation image based on angle information of the radiation imaging device.
  • ⁇ Configuration of Radiation Imaging System> 8 shows an example of a schematic configuration of a radiation imaging system according to this embodiment.
  • An angle detection unit 111 is additionally provided in a radiation imaging apparatus 110 according to this embodiment.
  • the angle detection unit 111 can measure the roll, pitch, and yaw angles of the radiation imaging apparatus 110, and can transmit the measurement results to a control device 800 or the like via a network 140.
  • the angle detection unit 111 can include an angle sensor, an acceleration sensor, or other means.
  • the angle detection unit 111 may also include a combination of these.
  • the control device 800 includes the configuration of the control device 100 according to the first embodiment, and is provided with an angle comparison unit 807.
  • the angle comparison unit 807 can compare the detection angle detected by the angle detection unit 111 with the setting angle of the radiation imaging device 110 associated with the imaging protocol.
  • Fig. 9 shows an example of a setting screen for an imaging protocol related to an optical image according to this embodiment.
  • Fig. 10 shows an example of a setting screen for an imaging protocol related to a radiological image according to this embodiment.
  • Fig. 11 is a flowchart showing an example of a procedure for imaging preparation processing related to an optical image according to this embodiment.
  • Fig. 12 is a flowchart showing an example of a procedure for imaging preparation processing related to a radiological image according to this embodiment.
  • the imaging preparation processing related to this embodiment will be described with reference to each setting screen and flowchart.
  • step S1100 the acquisition unit 101 acquires operation information input by the user via the operation unit 160, and the display control unit 105 displays the optical image imaging protocol setting screen 900 on the display unit 150 based on the operation information.
  • the setting of the imaging protocol for the left hand will be taken as an example.
  • the image processing to be applied to the optical image acquired using the camera 130 can be set in advance.
  • step S1101 the user positions the phantom (model) of the subject so that it appears in the optical image.
  • the user positions the phantom of the left hand.
  • step S1102 the control unit 104 controls the image capture by the camera 130, and the acquisition unit 101 acquires an optical image including the phantom from the camera 130.
  • the acquisition unit 101 acquires an optical image capturing a positioned left hand phantom.
  • step S1103 the display control unit 105 causes the display unit 150 to display the acquired optical image. At this time, the display control unit 105 causes the acquired optical image to be displayed in the optical image display area 901 on the imaging protocol setting screen 900.
  • step S1104 the user checks the optical image displayed in the optical image display area 901, and while looking at the image of the phantom captured in the optical image, presses the right rotation button 902 or left rotation button 903 until the desired display is achieved.
  • the acquisition unit 101 acquires operation information by the user, and the image processing unit 103 performs a rotation process on the optical image based on the operation information, adjusting the angle of the optical image.
  • the display control unit 105 causes the optical image, which is updated at any time based on the operation information, to be displayed in the optical image display area 901.
  • step S1105 the control device 800 determines whether the angle adjustment is complete. If the acquisition unit 101 acquires operation information indicating that the OK button 904 has been pressed, the control device 800 determines that the angle adjustment is complete. If it is determined in step S1105 that the angle adjustment is complete, the process proceeds to step S1106. On the other hand, if the acquisition unit 101 does not acquire operation information indicating that the OK button 904 has been pressed in step S1105, the control device 800 determines that the angle adjustment is not complete, and returns the process to step S1104.
  • step S1106 the control device 800 associates the rotation angle of the optical image when the angle adjustment is completed with the imaging protocol and stores it in the storage unit 106.
  • the control device 800 ends the processing for setting the imaging protocol for the optical image, which is the imaging preparation processing.
  • step S1200 the acquisition unit 101 acquires operation information input by the user via the operation unit 160, and the display control unit 105 displays the radiography protocol setting screen 1000 for radiography on the display unit 150 based on the operation information.
  • the setting of the radiography protocol for the left hand is taken as an example.
  • the radiography image processing to be applied to the radiography image acquired using the radiography device 110 can be set in advance.
  • the set radiography image processing can be stored in the storage unit 106 in association with the optical image processing described above.
  • step S1201 the user positions the phantom so that the phantom of the subject is captured in the radiation image.
  • the user positions the phantom of the left hand.
  • step S1202 the control unit 104 controls the radiation generating device 120 in accordance with the input instructions for radiography to irradiate the subject with radiation from the tube 121 and to cause the radiography device 110 to detect the radiation that has passed through the subject.
  • the acquisition unit 101 acquires a radiography image including the phantom that has been captured by the radiography device 110. In the example described above, the acquisition unit 101 acquires a radiography image of a left-hand phantom.
  • step S1203 the display control unit 105 causes the display unit 150 to display the acquired radiographic image. At this time, the display control unit 105 causes the acquired radiographic image to be displayed in the radiographic image display area 1001 on the imaging protocol setting screen 1000.
  • step S1204 the user checks the radiation image displayed in the radiation image display area 1001, and while viewing the image of the phantom captured in the radiation image, presses the right rotation button 1002 or left rotation button 1003 until the desired display is achieved.
  • the acquisition unit 101 acquires operation information by the user, and the image processing unit 103 performs rotation processing on the radiation image based on the operation information, and adjusts the angle of the radiation image.
  • the display control unit 105 causes the radiation image, which is updated from time to time based on the operation information, to be displayed in the radiation image display area 1001.
  • step S1205 the control device 800 determines whether the angle adjustment is complete. If the acquisition unit 101 acquires operation information indicating that the OK button 1004 has been pressed, the control device 800 determines that the angle adjustment is complete. If it is determined in step S1205 that the angle adjustment is complete, the process proceeds to step S1206. On the other hand, if the acquisition unit 101 does not acquire operation information indicating that the OK button 1004 has been pressed in step S1205, the control device 800 determines that the angle adjustment is not complete, and returns the process to step S1204.
  • step S1206 the control device 800 associates the rotation angle of the radiographic image when the angle adjustment is completed with the imaging protocol and stores it in the storage unit 106. This allows the image processing of the radiographic image to be stored in the storage unit 106 in association with the image processing of the optical image.
  • step S1207 the angle detection unit 111 associates the angle (yaw, pitch, and roll angles) of the radiation imaging device 110 detected when the angle adjustment is completed with the imaging protocol and stores it in the storage unit 106.
  • the control device 800 ends the processing for setting the imaging protocol for the radiation image, which is the imaging preparation processing.
  • Fig. 13 is a flowchart showing an example of the procedure of the image capturing process according to this embodiment.
  • steps S1300 to S1302 according to this embodiment is similar to the processing of steps S500 to S502 according to the first embodiment, and therefore will not be described.
  • the acquisition unit 101 acquires an optical image in step S1302, the processing proceeds to step S1303.
  • the image processing unit 103 determines the image processing to be performed on the optical image based on the shooting protocol selected in step S1300. Specifically, the image processing unit 103 determines the image processing based on the shooting protocol of the optical image set in the shooting preparation processing stored in the storage unit 106 as the image processing to be performed on the optical image. In the example described above, the image processing unit 103 determines the image processing to rotate the optical image by the rotation angle adjusted in the shooting preparation processing and stored in association with the shooting protocol, based on the setting of the shooting protocol for the left hand.
  • step S1304 the image processing unit 103 performs the image processing determined in step S1303 on the optical image acquired in step S1302.
  • image processing is performed to rotate the optical image by the rotation angle adjusted in the shooting preparation process.
  • steps S1305 and S1306 are similar to the processing of steps S505 and S506 in the first embodiment, and therefore will not be described.
  • the acquisition unit 101 acquires a radiological image in step S1306, the processing proceeds to step S1307.
  • step S1307 the acquisition unit 101 acquires, from the angle detection unit 111 of the radiation imaging device 110, the detection angles (yaw, pitch, and roll angles) of the radiation imaging device 110 detected when capturing the radiation image acquired in step S1306.
  • step S1308 the angle comparison unit 807 acquires the angle (set angle) of the radiation imaging device 110 that was acquired from the angle detection unit 111 in step S1207 of the imaging preparation process and that was stored in association with the imaging protocol.
  • step S1309 the angle comparison unit 807 compares the detection angle acquired in step S1307 with the set angle acquired in step S1308. More specifically, the angle comparison unit 807 compares the angle of the radiation imaging device 110 when capturing the radiation image acquired in the imaging process with the angle of the radiation imaging device 110 when the angle adjustment is completed in the imaging preparation process.
  • step S1310 the image processing unit 103 determines the image processing to be performed on the radiation image based on the imaging protocol selected in step S1300 and the comparison result of the angle obtained in step S1309. Specifically, the image processing unit 103 adjusts the image processing based on the imaging protocol of the radiation image set in the imaging preparation process stored in the storage unit 106 in accordance with the angle comparison result, and determines it as the image processing to be performed on the radiation image. In the example of this description, the image processing unit 103 adjusts the rotation angle adjusted in the imaging preparation process and stored in association with the imaging protocol based on the setting of the imaging protocol for the left hand in accordance with the angle comparison result obtained in step S1309. Thereafter, the image processing unit 103 determines the image processing to be performed on the radiation image to rotate the radiation image by the rotation angle adjusted in accordance with the angle comparison result.
  • the rotation angle adjustment process for image processing will be described.
  • the yaw angle will be taken as an example when the roll axis is the x-axis, the pitch axis is the y-axis, and the yaw axis is the z-axis.
  • the downward direction of the z-axis is positive
  • the clockwise direction of the yaw angle is the positive direction.
  • the angle of the radiation imaging device 110 stored in the memory unit 106 in the imaging preparation process is taken as 0 degrees, which is the reference point
  • the yaw angle of the radiation imaging device 110 detected by the angle detection unit 111 when the radiation image is acquired in the imaging process is +90 degrees.
  • the radiation imaging device 110 will have rotated 90 degrees in the clockwise direction from the state in the imaging preparation process (reference point) when the radiation image is acquired.
  • step S1309 the angle comparison unit 807 obtains information that the yaw angle has rotated +90 degrees as a comparison result. Therefore, in step S1310, the image processing unit 103 adjusts the yaw angle of the rotation angle set in the imaging preparation process to rotate it further by -90 degrees in order to compensate for the change from the reference point of the radiation imaging device 110. After that, the image processing unit 103 determines the image processing for the radiation image to be the image processing for rotating the radiation image by the adjusted rotation angle.
  • the yaw angle is given as an example, but any of the yaw angle, roll angle, and pitch angle may be used depending on the imaging method, such as upright imaging or supine imaging.
  • the image processing unit 103 may determine image processing that rotates the radiographic image by the rotation angle adjusted in the imaging preparation processing and stored in association with the imaging protocol.
  • step S1311 the image processing unit 103 performs the image processing determined in step S1310 on the radiographic image acquired in step S1306.
  • image processing is performed to rotate the radiographic image by the rotation angle determined and adjusted in step S1310.
  • step S1312 the display control unit 105 causes the display unit 150 to display the radiographic image that has been subjected to image processing.
  • the control device 800 ends the imaging process.
  • the image processing unit 103 determines the image processing of the radiographic image based on the angle comparison result by the angle comparison unit 807 in step S1310, and applies the determined image processing to the radiographic image in step S1311.
  • image processing for rotating the radiographic image by a rotation angle stored in association with the imaging protocol may be determined.
  • the image processing unit 103 can further apply rotation processing based on the angle comparison result to the radiographic image rotated by the rotation angle stored in association with the imaging protocol in step S1311.
  • the acquisition unit 101 acquires a detection angle, which is an example of orientation information indicating the orientation of the radiation imaging device 110 that captures a radiation image. Furthermore, the image processing unit 103 adjusts image processing for the radiation image based on the orientation information. More specifically, the image processing unit 103 adjusts image processing for the radiation image according to a comparison result between the acquired orientation information and a set angle, which is an example of information indicating the orientation of the radiation imaging device 110 regarding image processing for the radiation image.
  • the control device 800 can adjust image processing even if the physical angle of the radiation imaging device 110 when capturing a radiation image differs from the angle of the radiation imaging device 110 stored when the image processing was set. Therefore, the control device 800 can compensate for such a difference in the angle of the radiation imaging device 110 and provide an optical image and a radiation image in a manner in which the optical image and the radiation image correspond to each other.
  • the configuration of the radiation imaging system according to this embodiment is the same as that of the radiation imaging system according to the first embodiment.
  • the acquisition unit 101 can acquire operation information from a user input via the operation unit 160 regarding image processing of the optical image and the radiation image.
  • the image processing unit 103 can perform any image processing on the optical image and the radiation image based on the operation information acquired by the acquisition unit 101.
  • Fig. 14 shows an example of a photographing display screen according to this embodiment.
  • Fig. 15 is a flowchart showing an example of the procedure of the photographing process according to this embodiment.
  • steps S1500 to S1502 in this embodiment is similar to the processing of steps S500 to S502 in the first embodiment, so a description thereof will be omitted.
  • the acquisition unit 101 acquires an optical image in step S1502, the processing proceeds to step S1503.
  • an example of selecting an imaging protocol for the left hand will be described here.
  • step S1503 the display control unit 105 causes the optical image acquired by the acquisition unit 101 to be displayed on the display screen 1400 of the display unit 150. At this time, the display control unit 105 causes the acquired optical image to be displayed in the image display area 1401 on the display screen 1400.
  • step S1504 the acquisition unit 101 acquires operation information in which the user adjusts the rotation angle of the optical image by pressing the right rotation button 1402 or the left rotation button 1403 while checking the optical image displayed in the image display area 1401 so that the desired image display is achieved.
  • the acquisition unit 101 also acquires operation information of the rotation angle of the optical image when the user presses the operation confirmation button 1404 after the optical image display has become the desired image display, as final operation information.
  • the acquisition unit 101 stores the adjusted rotation angle corresponding to the final operation information in the storage unit 106.
  • step S1505 the acquisition unit 101 acquires a radiological image, similar to step S506 in the first embodiment.
  • the process proceeds to step S1506.
  • step S1506 the image processing unit 103 performs image processing on the radiographic image to rotate the radiographic image so that the optical image and the radiographic image correspond to each other, based on the rotation angle stored in the storage unit 106 in step S1504.
  • the image processing unit 103 may perform image processing on the radiographic image similar to the image processing performed on the optical image in step S1504. Note that if the misalignment in appearance between the optical image and the radiographic image acquired by the radiation system, for example the angular misalignment between their respective imaging ranges, is known, the image processing unit 103 may adjust the rotation angle to compensate for the misalignment when performing rotation processing on the radiographic image.
  • step S1507 the display control unit 105 causes the display unit 150 to display the processed radiographic image.
  • the control device 100 ends the imaging process.
  • the image processing unit 103 performs rotation processing of the radiographic image based on the rotation angle corresponding to the operation information.
  • the image processing according to this embodiment is not limited to this.
  • the image processing unit 103 may recognize the orientation of the subject in the optical image from the optical image with the adjusted rotation angle by processing similar to that of the first embodiment, and store the orientation of the subject in the storage unit 106.
  • the image processing unit 103 recognizes the orientation of the subject in the radiographic image by processing similar to that of the first embodiment. Thereafter, the image processing unit 103 can perform rotation processing on the radiographic image so that the subject in the radiographic image faces the orientation of the subject stored in the storage unit 106 in step S1504.
  • image processing based on the image processing performed on the optical image is applied to the radiation image.
  • the image processing unit 103 may apply image processing based on the image processing content for the radiation image to the optical image.
  • the image processing unit 103 acquires operation information when the user adjusts the rotation angle of the radiation image while checking the radiation image, and can apply rotation processing based on the rotation angle corresponding to the operation information to the optical image.
  • the image processing unit 103 may recognize the orientation of the subject from the radiation image with the adjusted rotation angle, and perform rotation processing of the optical image so that the subject in the optical image faces in that direction.
  • the acquisition unit 101 acquires operation information related to one of the image processing of the optical image and the image processing of the radiographic image. Furthermore, the image processing unit 103 determines one of the image processing of the optical image and the image processing of the radiographic image based on the operation information. Furthermore, the image processing unit 103 determines the other of the image processing of the optical image and the image processing of the radiographic image based on the one of the image processing of the optical image and the image processing of the radiographic image determined based on the operation information. Even with this configuration, the control device 100 can match the appearance of the optical image and the radiographic image. Therefore, the control device 100 provides an image that is easy for the user to confirm, reducing the need for the patient to move and the need for tasks such as adjusting the image, thereby reducing the burden on the patient and the user.
  • the acquisition unit 101 acquires operation information from the user input via the operation unit 160 regarding image processing of optical images and radiographic images.
  • an acquisition unit that acquires operation information from the user regarding image processing of optical images and an acquisition unit that acquires operation information from the user regarding image processing of radiographic images may be provided separately.
  • the acquisition unit 101 may be provided as a component that encompasses these acquisition units.
  • the image processing unit 103 performed image processing on the optical image and the radiation image based on the operation information acquired by the acquisition unit 101.
  • an image processing unit that performs image processing on the optical image based on operation information related to the image processing of the optical image, and an image processing unit that performs image processing on the radiation image based on operation information related to the image processing of the radiation image may be provided separately.
  • the image processing unit 103 may be provided as a component that encompasses these image processing units.
  • the rotation angle adjusted in step S1504 can be stored in the storage unit 106 as information indicating image processing in association with the imaging protocol selected in step S1500.
  • the image processing unit 103 may apply image processing to the optical image and radiation image obtained in the subsequent imaging processing based on the information indicating image processing stored in the storage unit 106.
  • the display control unit 105 may display a warning such as a dialogue on the display unit 150 to inform the user that the previously executed image processing will be applied.
  • the orientation of the subject in the image with the adjusted rotation angle may be stored in the storage unit 106 as information indicating image processing in association with the imaging protocol selected in step S1500.
  • control device 100 further includes a memory unit 106 that stores information indicating the determined image processing of the optical image and the image processing of the radiation image. Furthermore, the image processing unit 103 performs image processing on the optical image and the radiation image acquired after the acquired optical image and the radiation image based on the stored information. In such a case, the image processing that has been adjusted once can be applied to subsequent image processing, improving the convenience of the control device 100.
  • the layout and display format of various images and buttons on the setting screens and display screens displayed on the display unit 150 may be arbitrary.
  • the display control unit 105 can cause the display unit 150 to display optical images and radiographic images.
  • the control device 100 can more efficiently assist the user in checking both the optical image and the radiographic image and determining whether the subject is properly aligned.
  • image processing can be performed on at least one of the optical image and the radiation image so that the optical image and the radiation image correspond to each other.
  • the trained models for recognizing the orientation of the subject and the body part of the subject mentioned above are thought to extract the brightness value of the input data image, the order and inclination of light and dark areas, position, distribution, continuity, etc. as part of the features and use them in the inference process.
  • the above-mentioned trained model for recognizing the orientation of the subject and the trained model for recognizing the part of the body to be photographed can be provided in the control device 100.
  • the trained model may be configured, for example, as a software module executed by a processor such as a CPU, MPU, GPU, or FPGA, or may be configured as a circuit that performs a specific function such as an ASIC.
  • the inference device may be provided in another device such as a server connected to the control device 100.
  • the control device 100 can use the trained model by connecting to a server or the like equipped with the trained model via any network such as the Internet.
  • the server equipped with the trained model may be, for example, a cloud server, a fog server, or an edge server.
  • the reliability of the network may be improved by configuring the network to use radio waves in a dedicated wavelength band that is assigned exclusively to the facility, site, area, or the like.
  • the network may also be configured using wireless communication that is capable of high speed, large capacity, low latency, and multiple simultaneous connections.
  • the present disclosure can also be realized by a process in which a program for implementing one or more functions of the above-described embodiments and modifications is provided to a system or device via a network or a storage medium, and one or more processors in the computer of the system or device read and execute the program. It can also be realized by a circuit (e.g., an ASIC) for implementing one or more functions.
  • a computer may have one or more processors or circuits, and may include separate computers or a network of separate processors or circuits for reading and executing computer-executable instructions.
  • the processor or circuitry may include a central processing unit (CPU), a microprocessing unit (MPU), a graphics processing unit (GPU), an application specific integrated circuit (ASIC), or a field programmable gateway (FPGA).
  • the processor or circuitry may also include a digital signal processor (DSP), a data flow processor (DFP), or a neural processing unit (NPU).
  • DSP digital signal processor
  • DFP data flow processor
  • NPU neural processing unit

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)

Abstract

被写体を光学撮影した光学画像と、該被写体を放射線撮影した放射線画像とを取得する取得部と、光学画像及び放射線画像が互いに対応するように、光学画像及び放射線画像の少なくとも一方に対して、回転処理、抽出処理、及び拡縮処理のうち少なくとも一つを含む画像処理を実行する画像処理部とを備える画像処理装置が提供される。

Description

画像処理装置、放射線撮影システム、画像処理方法、及びプログラム
 本開示は、画像処理装置、放射線撮影システム、画像処理方法、及びプログラムに関する。
 医療分野において、放射線を撮影に利用した放射線撮影システムが知られている。近年、放射線撮影システムのデジタル化により、放射線発生装置が放射線を照射し、放射線撮影装置が被写体を介して入射した放射線を検知し、検知した放射線に基づいてデジタル放射線画像が生成され、表示されるシステムが普及している。このようなシステムでは、ユーザは表示された放射線画像を確認することで、放射線撮影直後の画像確認を行うことができる。このため、デジタル化された放射線撮影システムを用いることで、従来のフィルムを用いた撮影方法に比べワークフローが改善され、早いサイクルで撮影を行うことができる。
 このような放射線撮影システムによる撮影では、予め放射線撮影システムに設定した撮影条件(撮影部位や、X線管球と検出器との距離等)に合わせて、患者の姿勢の指示を含む、患者と放射線撮影装置の位置決めを行う必要がある。具体的には、患者を放射線発生装置及び放射線撮影装置間に移動させ、放射線が照射される領域(照射野)に患者の撮影部位が含まれるように位置決めが行われる。位置決めが完了すると、医師や放射線技師等のユーザは、患者から一旦離れて、操作室でX線の曝射の操作を行う。
 しかしながら、ユーザが操作室で操作を行う際には、ユーザは患者から離れているため、位置決めが維持された状態であるかを容易に確認することができないという問題があった。これに対し、特許文献1では、X線CT装置の架台にテレビカメラを取り付け、X線CT装置の撮影時にカメラで撮影したカメラ映像をモニタ上に表示する技術が開示されている。
特開2009-119281号公報
 一般に、放射線撮影装置により出力される放射線画像は向きが一定となるよう設定されており、医師や放射線技師等のユーザは出力される放射線画像の向きを想定し、患者の位置決めを行っている。しかしながら、光学式カメラで得られる光学画像は、患者の向きや位置によって見え方が変化するため、ユーザからは確認しにくい画像になってしまう場合がある。このような場合には、患者に動いてもらうか、画像を調整する等の作業が生じてしまう。
 そこで、本開示の一実施態様では、光学画像及び放射線画像が互いに対応するように、光学画像及び放射線画像の少なくとも一方に画像処理を行うことを目的の一つとする。
 本開示の一実施態様に係る画像処理装置は、被写体を光学撮影した光学画像と、該被写体を放射線撮影した放射線画像とを取得する取得部と、前記光学画像及び前記放射線画像が互いに対応するように、前記光学画像及び前記放射線画像の少なくとも一方に対して、回転処理、抽出処理、及び拡縮処理のうち少なくとも一つを含む画像処理を実行する画像処理部とを備える。
 本開示のさらなる特徴が、添付の図面を参照して以下の例示的な実施形態の説明から明らかになる。
第1の実施形態に係る放射線撮影システムの概略構成の一例を示す。 第1の実施形態に係る撮影プロトコルの設定画面の一例を示す。 第1の実施形態に係る画像処理を示すフローチャートである。 第1の実施形態に係る画像処理を説明するための図である。 第1の実施形態に係る撮影処理を示すフローチャートである。 第2の実施形態に係る放射線撮影システムの概略構成の一例を示す。 第2の実施形態に係る撮影処理を示すフローチャートである。 第3の実施形態に係る放射線撮影システムの概略構成の一例を示す。 第3の実施形態に係る光学画像の撮影プロトコル設定画面の一例を示す。 第3の実施形態に係る放射線画像の撮影プロトコル設定画面の一例を示す。 第3の実施形態に係る光学画像の撮影準備処理を示すフローチャートである。 第3の実施形態に係る放射線画像の撮影準備処理を示すフローチャートである。 第3の実施形態に係る撮影処理を示すフローチャートである。 第4の実施形態に係る表示画面の一例を示す。 第4の実施形態に係る撮影処理を示すフローチャートである。
 以下、本開示を実施するための例示的な実施形態を、図面を参照して詳細に説明する。ただし、以下の実施形態で説明する寸法、材料、形状、及び構成要素の相対的な位置等は任意であり、本開示が適用される装置の構成又は様々な条件に応じて変更できる。また、図面において、同一であるか又は機能的に類似している要素を示すために図面間で同じ参照符号を用いる。
 なお、以下において、放射線という用語は、例えば、X線及びγ線等の電磁放射線、並びにα線、β線、粒子線、陽子線、重イオン線、及び中間子線等の粒子放射線を含むことができる。
 また、機械学習モデルとは、機械学習アルゴリズムによる学習モデルをいう。機械学習の具体的なアルゴリズムとしては、最近傍法、ナイーブベイズ法、決定木、サポートベクターマシンなどが挙げられる。また、ニューラルネットワークを利用して、学習するための特徴量、結合重み付け係数を自ら生成する深層学習(ディープラーニング)も挙げられる。また、決定木を用いたアルゴリズムとして、LightGBMやXGBoostのように勾配ブースティングを用いた手法も挙げられる。適宜、上記アルゴリズムのうち利用できるものを用いて以下の実施形態及び変形例に適用することができる。また、教師データとは、学習データのことをいい、入力データ及び出力データのペアで構成される。また、学習データの出力データのことを正解データともいう。
 さらに、学習済モデルとは、ディープラーニング等の任意の機械学習アルゴリズムに従った機械学習モデルに対して、事前に適切な教師データ(学習データ)を用いてトレーニング(学習)を行ったモデルをいう。ただし、学習済モデルは、事前に適切な学習データを用いて得ているが、それ以上の学習を行わないものではなく、追加の学習を行うこともできるものとする。追加学習は、装置が使用先に設置された後も行われることができる。
(第1の実施形態)
 以下、図1乃至図5を参照して、本開示の第1の実施形態に係る、医用画像を撮影して表示する放射線撮影システム、画像処理装置、及び画像処理方法について説明する。
<放射線撮影システムの構成>
 図1は、撮影室内に設けられた、本実施形態に係る放射線撮影システムの概略構成の一例を示す。本実施形態に係る放射線撮影システムには、制御装置100、放射線撮影装置110、放射線発生装置120、管球121、カメラ130、表示部150、及び操作部160が設けられている。制御装置100、放射線撮影装置110、放射線発生装置120、及びカメラ130は、任意のネットワーク140を介して、互いに接続されている。
 ここで、ネットワーク140は、例えば、LAN(Local Area Network)やWAN(Wide Area Network)等で構成されてよい。なお、ネットワーク140は、有線ネットワークでも無線ネットワークでもよい。また、これらの装置は、ネットワーク140を介さず直接接続されていてもよい。なお、制御装置100、表示部150、及び操作部160は、撮影室内で区画分けされた操作室や撮影室とは別に設けられた操作室に配置されてもよい。
 制御装置100は、コンピュータなどの情報処理装置で構築されることができ、各種撮影の制御及び撮影された画像の画像処理等を行うことができる画像処理装置の一例として機能することができる。コンピュータには、例えば、CPU等の主制御部、並びにROM(Read Only Memory)及びRAM(Random Access Memory)等の記憶部が具備される。
 制御装置100は、放射線撮影装置110と通信して放射線撮影を制御するとともに、放射線撮影装置110が撮影した放射線画像を取得することができる。また、制御装置100は、放射線発生装置120と通信し、放射線発生装置120を制御するとともに、放射線を照射した際の情報を放射線発生装置120から取得することができる。さらに、制御装置100は、カメラ130と通信し、カメラ130を制御するとともに、カメラ130が撮影した画像を取得することができる。
 放射線撮影装置110は、制御装置100からの指示により撮影可能状態へと遷移し、放射線発生装置120と同期を取りながら放射線撮影を実施し、線源の一例である管球121から照射された放射線に基づき画像を生成することができる。放射線撮影装置110は、放射線を検出して、対応する信号を出力する任意の放射線検出器を含むことができ、放射線検出器は、例えば、FPD(Flat Panel Detector)等を用いて構成されることができる。また、放射線検出器は、シンチレータ等を用いて放射線を一旦可視光に変換し、光センサ等により可視光を電気信号に変換するような間接変換型の検出器であってもよいし、入射した放射線を電気信号に直接変換する直接変換型の検出器であってもよい。なお、放射線撮影装置110の台数は一台に限定されるものではなく、複数台の放射線撮影装置が用いられてもよい。
 放射線発生装置120は、ユーザによる放射線照射指示を検知し、操作パネルなどのユーザ操作を受け付けるユーザ入力装置(不図示)により設定された照射条件を元に、管球121より放射線を発生させる装置である。管球121から照射された放射線は、被写体を減衰しながら透過し、放射線撮影装置110に入射する。
 カメラ130は、制御装置100からの指示により撮影を行い、光学画像を取得する光学撮影装置の一例として機能する。なお、本実施形態では、カメラ130は管球121に取り付けられ、管球121の放射線発生方向の撮影を行い、放射線画像と同等の撮影範囲を持つものとする。なお、管球121は線源の一例である管球自体を含む装置であってよく、カメラ130は当該装置に取り付けられてもよい、
 表示部150及び操作部160は、制御装置100に接続されている。表示部150は、例えば、液晶ディスプレイ等の任意のディスプレイを含み、制御装置100の制御に従い、被写体に関する被写体情報や撮影プロトコル等の各種情報、及び放射線画像や光学画像等の各種画像等を表示する。操作部160は、制御装置100を操作する操作情報を入力するための入力機器を含み、例えばキーボードとマウスを含む。なお、表示部150はタッチパネル式のディスプレイにより構成されてもよく、この場合には表示部150は操作部160として兼用されることができる。
 次に、制御装置100の構成について説明する。制御装置100には、取得部101、選択部102、画像処理部103、制御部104、表示制御部105、及び記憶部106が設けられている。
 取得部101は、カメラ130により被写体を光学撮影した光学画像及び放射線撮影装置110により被写体を放射線撮影した放射線画像を取得することができる。また、取得部101は、操作部160を介して入力された、ユーザによる操作情報や被写体情報、撮影に関する撮影プロトコル等を取得することができる。なお、取得部101は、制御装置100に任意のネットワークを介して接続された不図示の撮影装置やサーバ等からこれら画像や情報等を取得してもよい。また、取得部101は、記憶部106に記憶されたこれら画像や情報等を取得してもよい。
 選択部102は、取得部101によって取得されたユーザによる操作情報に基づいて、記憶部106に記憶される複数の撮影プロトコルから、被写体の撮影に関する撮影プロトコルを選択することができる。ここで、撮影プロトコルは、例えば、撮影部位毎に設定されていてもよいし、撮影部位及び撮影条件等の組み合わせ毎に設定されていてもよい。本実施形態では、説明の簡略化のため、撮影部位毎に設定された撮影プロトコルを例として説明する。
 画像処理部103は、取得部101により取得された光学画像及び放射線画像に対して、光学画像及び放射線画像が互いに対応するように、画像処理を行うことができる。ここで、画像処理としては、例えば、画像の回転処理、抽出処理(切り出し処理)、及び拡縮処理等が含まれてよい。なお、光学画像及び放射線画像が互いに対応するとは、光学画像及び放射線画像における被写体の方向や角度、サイズ等が同一である態様に限られず、ユーザが光学画像及び放射線画像における被写体を対応付けて確認しやすい態様であればよい。そのため、ユーザが光学画像及び放射線画像における被写体を対応付けて確認しやすい態様であれば、光学画像及び放射線画像における被写体の方向や角度、サイズ等は互いに異なっていてもよい。画像処理部103による画像処理の詳細については後述する。
 制御部104は、放射線撮影装置110、放射線発生装置120、カメラ130、及びネットワーク140に接続する不図示のネットワーク装置等を制御する。また、制御部104は、制御装置100の全体的な動作を制御することができる。
 表示制御部105は、表示部150の表示を制御することができる。表示制御部105は、例えば、被写体情報、撮影条件、ユーザによって設定されたパラメータ、光学画像、放射線画像、撮影プロトコル、及び画像処理に関する設定等を表示部150に表示させることができる。また、表示制御部105は、所望の構成に応じて、ユーザの操作を受け付けるためのボタンやスライダ等の任意の表示やGUI等を表示部150に表示させることができる。
 記憶部106は、制御装置100により処理された光学画像及び放射線画像、並びに各種データ等を記憶することができる。また、記憶部106は、被写体情報、撮影条件、及びユーザによって設定されたパラメータ等を記憶することができる。さらに、記憶部106は、制御装置100における各機能を実現するための各種制御プログラム等を記憶することもできる。記憶部106は、例えば、光学ディスクやメモリ等の任意の記憶媒体によって構成されてよい。
 なお、制御装置100は、一般的なコンピュータによって構成されてもよいし、放射線撮影システム専用のコンピュータによって構成されてもよい。また、制御装置100は、例えば、パーソナルコンピュータ(PC)であってもよく、デスクトップPC、ノート型PC、又はタブレット型PC(携帯型の情報端末)等が用いられてもよい。さらに、制御装置100は、一部の構成要素が外部装置に配置されるようなクラウド型のコンピュータとして構成されてもよい。
 また、取得部101、選択部102、画像処理部103、制御部104、及び表示制御部105は、制御装置100のプロセッサにより実行されるソフトウェアモジュールで構成されてよい。さらに、これら各構成要素は、ASIC等の特定の機能を果たす回路や独立した装置等によって構成されてもよい。
 なお、図1に示す構成は、あくまで一例であり、所望の構成に応じて適宜変更されてよい。例えば、図1では、制御装置100に対してネットワーク140を介して各種装置が接続されているが、制御装置100は、このような装置と接続される必要はなく、制御装置100は各種画像を不図示のサーバ等から取得してもよい。また、各装置はネットワーク上に複数存在してもよい。
 次に、図2乃至図5を参照して、本実施形態に係る放射線撮影システムによる検査の流れに沿って、本実施形態に係る撮影準備処理及び撮影処理について説明する。本実施形態では、撮影処理を行う前の準備段階として、撮影準備処理を行うものとする。ただし、撮影準備処理は検査毎に行われる必要はなく、過去の検査の設定等を用いる場合には適宜省略されてもよい。
<撮影準備処理>
 まず、図2乃至図4を参照して、本実施形態に係る撮影準備処理及び画像処理について説明する。図2は、本実施形態に係る撮影プロトコル設定画面200の一例を示す。撮影プロトコル設定画面200は、表示制御部105の制御に従って表示部150によって表示されることができる。本実施形態に係る撮影準備処理では、ユーザは操作部160を操作し、図2に示すような撮影プロトコル設定画面200で撮影プロトコルの設定を行う。
 ここでは、説明の便宜上、左手の撮影プロトコルの設定を行う例について説明する。左手の撮影プロトコル設定画面200では、光学画像と放射線画像を表示部150に表示する際の、光学画像及び放射線画像における被写体の向きを設定することができる。ユーザは、操作部160を介して、表示する被写体の向き202に対応するラジオボタン201を指定し、OKボタン203を押下することで、光学画像及び放射線画像における被写体の向きを設定することができる。このように設定された撮影プロトコルは、記憶部106に記憶される。
 本実施形態に係る撮影処理では、このように設定された撮影プロトコルに基づいて、画像処理部103が、設定された向きに対応するように、光学画像及び放射線画像に画像処理を施す。以下、本実施形態に係る画像処理について説明する。
[光学画像の画像処理]
 ここでは、図3及び図4を参照して、光学画像の画像処理について説明する。図3は、本実施形態に係る光学画像の画像処理の手順の一例を示すフローチャートである。本実施形態に係る光学画像の画像処理では、画像処理部103は、光学画像における被写体の向きを認識し、光学画像における被写体が、撮影プロトコルに関連付けて設定された被写体の向きを向くように光学画像に画像処理を施す。以下、撮影プロトコルの設定と同様に、被写体が左手である例について説明する。
 まず、ステップS300において、画像処理部103は、カメラ130により取得された光学画像における被写体である左手の指先、指の付け根、及び手首の位置を推定する。例えば、図4に示すような左手400の光学画像が取得された場合、画像処理部103は、指先(403,405,407,409,411)、指の付け根(402,404,406,408,410)、及び手首(401)の位置を推定する。なお、これらの位置に関する座標系はスクリーン座標系とし、図4の例では、光学画像が表示されるスクリーンの左上を座標系の原点とする。なお、座標系に関しては所望の構成に応じて任意に設定されてよい。
 ここで、画像処理部103は、光学画像に対して、被写体の構造に関する規則性等に基づいたルールベースの処理により指先等の位置を推定してよい。例えば、画像処理部103は、光学画像に対して公知のエッジ抽出処理等を行って特徴点を抽出し、当該特徴点及び手の構造に関する規則性等に基づいて指先等の位置を推定してよい。
 また、画像処理部103は、機械学習により得られた学習済モデルを用いて、光学画像から指先等の位置を推定してもよい。なお、この場合の学習済モデルは、光学画像を入力データとし、光学画像における指先、指の付け根、及び手首の位置を示す情報を出力データとして含む学習データを用いて得られてよい。光学画像における指先、指の付け根、及び手首の位置を示す情報は、例えば、医師等によって光学画像に対応付けて生成されてよく、例えば、各部位の位置を示す座標や光学画像における各部位を示すラベルが付されたラベル画像として生成されてよい。
 学習済モデルを用いる場合には、制御装置100が、指先の位置等の認識処理に用いる学習済モデルの学習を行う学習部の一例として機能するが、画像処理部103は、他の学習装置等により学習が行われた学習済モデルを用いてもよい。なお、GPUは、データをより多く並列処理することで効率的な演算を行うことができる。このため、ディープラーニングのような機械学習アルゴリズムを用いて複数回に渡り学習を行う場合には、GPUで処理を行うことが有効である。そこで、本実施形態では、学習部の一例として機能する制御装置100による処理には、CPUに加えてGPUを用いてもよい。具体的には、学習モデルを含む学習プログラムを実行する場合に、CPUとGPUが協働して演算を行うことで学習を行うことができる。なお、学習部の処理では、CPU又はGPUのみにより演算が行われてもよい。また、本実施形態に係る推定処理についても、学習部と同様にGPUを用いて実現してもよい。なお、学習済モデルが外部装置に設けられている場合には、制御装置100は学習部として機能しなくてもよい。
 また、学習部は、不図示の誤差検出部と更新部とを備えてもよい。誤差検出部は、入力層に入力される入力データに応じてニューラルネットワークの出力層から出力される出力データと、正解データとの誤差を得る。誤差検出部は、損失関数を用いて、ニューラルネットワークからの出力データと正解データとの誤差を計算するようにしてもよい。また、更新部は、誤差検出部で得られた誤差に基づいて、その誤差が小さくなるように、ニューラルネットワークのノード間の結合重み付け係数等を更新する。この更新部は、例えば、誤差逆伝播法を用いて、結合重み付け係数等を更新する。誤差逆伝播法は、上記の誤差が小さくなるように、各ニューラルネットワークのノード間の結合重み付け係数等を調整する手法である。
 なお、本実施形態に係る機械学習モデルとしては、例えば、FCN(Fully Convolutional Network)、又はSegNet等を用いることもできる。また、物体認識を行う機械学習モデルとしては、例えば、RCNN(Region CNN)、fastRCNN、又はfasterRCNNを用いることができる。さらに、領域単位で物体認識を行う機械学習モデルとして、YOLO(You Only Look Once)、又はSSD(Single Shot Detector、あるいはSingle Shot MultiBox Detector)を用いることもできる。
 次に、ステップS301において、画像処理部103は、手首401の位置から最も離れている指先の位置を取得する。具体的には、画像処理部103は、指先403,405,407,409,411と手首401の2点間の距離を求め、最も値が大きい指先の位置を取得する。図4に示す例では、画像処理部103は、手首401の位置から最も離れている指先の位置として、指先407の位置を取得する。
 ステップS302において、画像処理部103は、ステップS301で取得した指先407の位置と手首401の位置との中点の位置を求める。具体的には、画像処理部103は、手首401のX座標と指先407のX座標を加算し、加算結果を2で割った値を中点のX座標とする。また、画像処理部103は、手首401のY座標と指先407のY座標を加算し、加算結果を2で割った値を中点のY座標とする。図4に示す例では、画像処理部103は、ステップS301で取得した指先407の位置と手首401の位置との中点の位置として、中点412の位置を取得する。
 ステップS303において、画像処理部103は、ステップS302で求めた中点412の位置から最も近い指の付け根の位置を取得する。具体的には、画像処理部103は、中点412と指の付け根402,404,406,408,410との2点間の距離を求め、距離の値が最も小さい指の付け根の位置を取得する。図4に示す例では、画像処理部103は、ステップS302で求めた中点412の位置から最も近い指の付け根の位置として、指の付け根406の位置を取得する。
 ステップS304では、画像処理部103は、ステップS303で取得した指の付け根406の位置と手首401の位置との中点の位置を求める。具体的には、画像処理部103は、手首401のX座標と指の付け根406のX座標を加算し、加算結果を2で割った値を中点のX座標とする。また、手首401のY座標と指の付け根406のY座標を加算し、加算結果を2で割った値を中点のY座標とする。図4に示す例では、画像処理部103は、ステップS303で取得した指の付け根406の位置と手首401の位置との中点の位置として、中点413の位置を取得する。
 ステップS305では、ステップS304で取得した中点413の位置を軸として、前述の撮影準備処理において設定された被写体の向きに従って光学画像を回転させる。なお、光学画像を回転させるときには、ステップS301で取得した指先407のY座標が最も0に近くなる(最も小さくなる)被写体の向きを「指の方向が上」の向きとし、Y座標が最も大きくなる被写体の向きを「指の方向が下」の向きとすることができる。また、ステップS301で取得した指先407のX座標が最も0に近くなる(最も小さくなる)被写体の向きを「指の方向が左」、X座標が最も大きくなる被写体の向きを「指の方向が右」とすることができる。画像処理部103は、ステップS305における処理が終了したら、画像処理を終了する。
[放射線画像の画像処理]
 本実施形態に係る放射線画像の画像処理は、光学画像の画像処理と同様の処理であってよい。そのため、処理対象が光学画像から放射線画像となる点を除き、上記ステップS300~ステップS305の処理と同様の処理を画像処理部103が放射線画像に対して行う。より具体的には、画像処理部103は、放射線画像における被写体の向きを認識し、放射線画像における被写体が、撮影プロトコルに関連付けて設定された被写体の向きを向くように放射線画像に画像処理を施す。なお、各ステップの詳細は、上記ステップS300~ステップS305と同様であるため説明を省略する。
 なお、画像処理部103が機械学習により得られた学習済モデルを用いて放射線画像から指先等の位置を推定する場合の学習済モデルは、放射線画像を学習データに用いて生成されることができる。具体的には、この場合の学習済モデルは、放射線画像を入力データとし、放射線画像における指先、指の付け根、及び手首の位置を示す情報を出力データとして含む学習データを用いて得られてよい。放射線画像における指先、指の付け根、及び手首の位置を示す情報は、例えば、医師等によって放射線画像に対応付けて生成されてよく、例えば、各部位の位置を示す座標や放射線画像における各部位を示すラベルが付されたラベル画像として生成されてよい。なお、この場合も、制御装置100が、被写体の指先等の位置を推定するための学習済モデルの学習を行う学習部の一例として機能するが、画像処理部103は、他の学習装置等により学習が行われた学習済モデルを用いてもよい。
 なお、本実施形態に係る被写体の向きを推定・認識する処理の具体的な方法は上記の方法に限られず、公知の任意の方法が用いられてよい。例えば、画像処理部103は、光学画像を入力データとし、光学画像における被写体の向きを示す情報を出力データとして含む学習データを用いた学習済モデルを用いて、光学画像から被写体の向きを認識してもよい。同様に、画像処理部103は、放射線画像を入力データとし、放射線画像における被写体の向きを示す情報を出力データとして含む学習データを用いた学習済モデルを用いて、放射線画像から被写体の向きを認識してもよい。なお、これらの場合も、制御装置100が、被写体の向きを認識するための学習済モデルの学習を行う学習部の一例として機能するが、画像処理部103は、他の学習装置等により学習が行われた学習済モデルを用いてもよい。
 また、画像の回転軸を決定する方法も上記の方法に限られない。例えば、画像処理部103は、画像の中心を画像の回転軸として決定してもよい。
 なお、画像処理とは、上記で説明したように被写体の向きを識別し、画像内の被写体の向きが指定した向きとなるように画像を回転させるようなものや、予め回転角度を数値指定し回転させるもの、画像の一部の抽出を行うものであってもよい。また、画像処理には、画像の拡縮を行う処理が含まれてもよい。
 なお、光学画像と放射線画像に施す画像処理は同一の内容でなくてもよい。例えば、光学画像の画像処理として回転処理と拡大処理を設定しておき、放射線画像の画像処理として回転処理のみを設定してもよい。ただし、光学画像に対する画像処理と放射線画像に対する画像処理は、画像処理が施された光学画像及び放射線画像の見え方を互いに対応させるような処理とすることができる。
<撮影処理>
 以下、図5を参照して、本実施形態に係る撮影処理を行う手順を説明する。図5は、本実施形態の撮影処理の手順の一例を示すフローチャートである。まず、ステップS500において、取得部101は、操作部160を介して入力されたユーザからの操作情報を取得し、操作情報に基づいて撮影プロトコルを選択する。以下では、左手用の撮影プロトコルが選択された例について説明する。本実施形態では、撮影プロトコルが選択されることで、被写体の検査が開始される。
 続いて、ステップS501において、ユーザは、被写体である患者の左手が光学画像及び放射線画像に写るように、被写体のポジショニングを行う。なお、被写体のポジショニングは、所望の撮影条件に応じた立位、臥位、又は座位等の撮影体位で行われてよい。
 ステップS502では、制御部104がカメラ130による撮影を制御し、取得部101がカメラ130から被写体を含む光学画像を取得する。当該説明の例では、取得部101は、ポジショニングされた患者の左手を撮影した光学画像を取得する。
 ステップS503では、画像処理部103は、光学画像に対して行う画像処理を、ステップS500で選択された撮影プロトコルに基づいて決定する。具体的には、画像処理部103は、記憶部106に記憶されている、撮影準備処理において設定された撮影プロトコルに基づく画像処理を、光学画像に対して実行する画像処理として決定する。当該説明の例では、画像処理部103は、左手の撮影プロトコルの設定に基づいて、光学画像における左手の指先が上を向くように、光学画像を回転させる画像処理を決定する。
 ステップS504では、画像処理部103は、ステップS502で取得された光学画像に対して、ステップS503で決定された画像処理を施す。当該説明の例では、画像処理部103は、ステップS300~ステップS305で説明した手順により、光学画像における左手の指先が上を向くように、光学画像を回転させる画像処理を実行する。
 ステップS505において、表示制御部105は、画像処理が施された光学画像を表示部150に表示させる。これにより、ユーザは被写体のポジショニングに問題がないかを確認することができる。ユーザは、被写体のポジショニングに問題が無ければ、放射線照射スイッチ(不図示)の押下等により、放射線撮影の指示を制御装置100に入力することができる。
 ステップS506では、制御部104は、入力された放射線撮影の指示に従い、放射線発生装置120を制御し、管球121により被写体に向けて放射線を照射させ、放射線撮影装置110により当該被写体を透過した放射線を検出させる。その後、取得部101は、放射線撮影装置110により撮影された、被写体を含む放射線画像を取得する。当該説明の例では、取得部101は、患者の左手を撮影した放射線画像を取得する。
 ステップS507では、画像処理部103は、ステップS503と同様に、放射線画像に対して行う画像処理を、ステップS500で選択された撮影プロトコルに基づいて決定する。具体的には、画像処理部103は、記憶部106に記憶されている、撮影準備処理において設定された撮影プロトコルに基づく画像処理を、放射線画像に対して実行する画像処理として決定する。当該説明の例では、画像処理部103は、左手の撮影プロトコルの設定に基づいて、放射線画像における左手の指先が上を向くように、放射線画像を回転させる画像処理を決定する。
 ステップS508では、画像処理部103は、ステップS506で取得された放射線画像に対して、ステップS507で決定された画像処理を施す。当該説明の例では、画像処理部103は、ステップS300~ステップS305で説明した手順と同様の手順により、放射線画像における左手の指先が上を向くように、放射線画像を回転させる画像処理を実行する。
 ステップS509では、表示制御部105が、画像処理を施された放射線画像を表示部150に表示させる。これにより、ユーザは、光学画像及び放射線画像が互いに対応する態様で光学画像及び放射線画像を確認し、放射線撮影時の被写体の位置決めが適切に行われていたかを容易に判断することができる。制御装置100は、ステップS509における処理が終了したら撮影処理を終了する。
 ここでは、左手用の撮影プロトコルを例に説明したが、選択される撮影プロトコルは、これに限定されない。例えば、右手、左足、右足、胸部、頭部、又は腹部などの撮影プロトコルが選択されてもよい。これらの撮影プロトコルについても、撮影準備処理により、光学画像と放射線画像を表示部150に表示する際の、光学画像及び放射線画像における被写体の向きを設定することができる。なお、被写体の向きや被写体の部位を認識するための学習済モデルは、撮影部位毎や撮影プロトコル毎に用意されてもよい。この場合、画像処理部103は、撮影部位や撮影プロトコルに応じて学習済モデルを選択して画像処理に用いることができる。
 上記のように、本実施形態に係る放射線撮影システムは、被写体を光学撮影する光学撮影装置の一例として機能するカメラ130と、被写体を放射線撮影する放射線撮影装置110と、画像処理装置の一例として機能する制御装置100とを備える。制御装置100は、取得部101と、画像処理部103とを備える。取得部101は、被写体を光学撮影した光学画像と、該被写体を放射線撮影した放射線画像とを取得する。画像処理部103は、光学画像及び放射線画像が互いに対応するように、光学画像及び放射線画像に対して、回転処理、抽出処理、及び拡縮処理のうち少なくとも一つを含む画像処理を実行する。
 このような構成により、本実施形態に係る制御装置100は、光学画像及び放射線画像が互いに対応するように、光学画像及び放射線画像に画像処理を行うことができる。そのため、制御装置100は、光学画像と放射線画像の見え方を対応させることができ、ユーザが確認しやすい画像を提供して、患者に動いてもらう必要性や画像を調整する等の作業の必要性を低減させ、患者とユーザの負担を軽減することができる。
 また、制御装置100は、被写体の撮影に関する撮影プロトコルを選択する選択部102を更に備える。画像処理部103は、光学画像及び放射線画像が互いに対応するように、光学画像及び放射線画像に対して、撮影プロトコルに応じた画像処理を実行することができる。この場合には、制御装置100は、撮影プロトコルに応じた画像処理を行うことで、より撮影の目的や手順に即した画像処理を行うことができ、ユーザがより確認し易い画像を提供することができる。
 さらに、画像処理部103は、光学画像における被写体の向きを認識し、光学画像における被写体が所定の向きを向くように、光学画像に対して画像処理を実行することができる。また、画像処理部103は、放射線画像における被写体の向きを認識し、放射線画像における被写体が所定の向きを向くように、放射線画像に対して画像処理を実行することができる。このような構成によれば、制御装置100は、患者の向きによらず画像における被写体が所望の向きを向くように画像処理を行うことができる。そのため、制御装置100は、被写体の位置決めの際に光学画像が確認しづらいことに起因した、患者に動いてもらう必要性や画像を調整する等の作業の必要性を低減させ、患者とユーザの負担を軽減することができる。また、制御装置100は、被写体が所望の向きを向くように画像処理を行うことができるため、放射線撮影システムの利便性を向上させることができる。
 また、画像処理部103は、被写体が人の手である場合には、光学画像及び放射線画像における被写体の指先及び手首の位置を推定することができる。この場合、画像処理部103は、光学画像における被写体の指先及び手首の位置に基づいて、光学画像における被写体の向きを認識することができる。さらに、画像処理部103は、放射線画像における被写体の指先及び手首の位置に基づいて、放射線画像における被写体の向きを認識することができる。このような構成により、画像処理部103は、光学画像や放射線画像における被写体の向きを認識することができる。
 さらに、画像処理部103は、被写体が人の手である場合には、光学画像及び放射線画像における被写体の指の付け根の位置を更に推定することができる。この場合には、画像処理部103は、光学画像における被写体の指先、指の付け根、及び手首の位置に基づいて、光学画像の回転軸を取得し、該回転軸を中心として光学画像に対して回転処理を行うことができる。また、画像処理部103は、放射線画像における被写体の指先、指の付け根、及び手首の位置に基づいて、放射線画像の回転軸を取得し、該回転軸を中心として放射線画像に対して回転処理を行うことができる。このような構成によれば、制御装置100は、手を写す画像についてより適切な回転軸を決定し、回転処理を行うことができる。
 また、画像処理部103は、光学画像と、光学画像における被写体の向きを示す情報とを含む学習データを用いて得た学習済モデルに取得した光学画像を入力して得た該学習済モデルからの出力を用いて、取得した光学画像における被写体の向きを認識できる。さらに、画像処理部103は、放射線画像と、放射線画像における被写体の向きを示す情報とを含む学習データを用いて得た学習済モデルに取得した放射線画像を入力して得た該学習済モデルからの出力を用いて、取得した放射線画像における被写体の向きを認識できる。このような構成でも、画像処理部103は、光学画像や放射線画像における被写体の向きを認識することができる。
 なお、本実施形態では、取得部101が、光学画像及び放射線画像を取得した。これに対し、光学画像を取得する光学画像取得部と、放射線画像を取得する放射線画像取得部を別々に設けてもよい。この場合、取得部101は、光学画像取得部及び放射線画像取得部を包括する構成要素として設けられてよい。同様に、画像処理部103は、光学画像及び放射線画像に対して画像処理を行った。これに対し、光学画像に対して画像処理を行う光学画像処理部と、放射線画像に対して画像処理を行う放射線画像処理部とを別々に設けてもよい。この場合、画像処理部103は、光学画像処理部及び放射線画像処理部を包括する構成要素として設けられてよい。
 また、本実施形態では、取得部101は、放射線撮影装置110やカメラ130から放射線画像や光学画像を取得した。これに対し、取得部101は、制御装置100に任意のネットワークを介して接続された不図示の撮影装置やサーバ等からこれら画像等を取得してもよい。この場合、放射線画像及び光学画像は、被写体が同じ撮影姿勢をとっている限り、それぞれ取得時間が前後してもよい。
 なお、本実施形態では、画像処理部103は、撮影プロトコルに関連付けられた被写体の向きの設定に基づいて、光学画像及び放射線画像の回転処理を行った。これに対して、画像処理部103は、光学画像における被写体の向き及び放射線画像における被写体の向きのうち一方の向きが他方の向きを向くように、光学画像及び放射線画像の少なくとも一方に対して画像処理を行ってもよい。ここで、当該他方の画像は、画像処理が行われていない画像であってもよいし、撮影プロトコルに関連付けられた被写体の向きの設定に基づいて回転処理等の画像処理が行われた画像であってもよい。
 例えば、画像処理部103は、光学画像及び放射線画像における被写体の向きを認識し、放射線画像における被写体の向きが光学画像における被写体の向きを向くように、放射線画像に対して回転処理等の画像処理を行ってもよい。同様に、画像処理部103は、光学画像及び放射線画像における被写体の向きを認識し、光学画像における被写体の向きが放射線画像における被写体の向きを向くように、光学画像に対して回転処理等の画像処理を行ってもよい。この場合、光学画像の画像処理及び画像処理後の光学画像の表示処理は、放射線画像の取得後に行われてよい。
 上記のような構成でも、制御装置100は、光学画像と放射線画像の見え方を対応させることができ、ユーザが確認しやすい画像を提供して、患者に動いてもらう必要性や画像を調整する等の作業の必要性を低減させ、患者とユーザの負担を軽減することができる。なお、光学画像及び放射線画像における被写体の向きの認識方法は、上述した方法と同様の方法であってよい。
(第2の実施形態)
 第1の実施形態では、光学画像及び放射線画像に対して画像処理を常に適用していた。これに対し、本開示の第2の実施形態では、特定の条件に基づいて画像処理を行う例について説明する。以下、図6及び図7を参照して、本実施形態に係る放射線撮影システム、画像処理装置、及び画像処理方法について説明する。なお、第1の実施形態と同様の構成、機能、及び動作についての説明は省略し、主に本実施形態と第1の実施形態の差異について説明する。
<放射線撮影システムの構成>
 図6は、本実施形態に係る放射線撮影システムの概略構成の一例を示す。本実施形態に係る制御装置600には、第1の実施形態に係る制御装置100の構成に加えて、部位認識部607及び部位比較部608が設けられている。
 部位認識部607は、カメラ130により取得された光学画像に写る撮影部位を認識する。部位認識部607は、公知の任意の方法により光学画像に写る撮影部位を認識してよい。例えば、部位認識部607は、被写体の構造に関する規則性等に基づいたルールベースの処理により、光学画像に写る撮影部位を認識してよい。この場合、部位認識部607は、例えば、光学画像に対して公知のエッジ抽出処理等を行って特徴点を抽出し、当該特徴点及び各撮影部位の構造に関する規則性等に基づいて撮影部位を認識してよい。
 また、部位認識部607は、機械学習により得られた学習済モデルを用いて、光学画像に写る撮影部位を認識してよい。この場合の学習済モデルは、光学画像を入力データとし、光学画像に写る撮影部位を示す情報を出力データとして含む学習データを用いて得られてよい。光学画像における撮影部位を示す情報は、例えば、医師等によって光学画像に対応付けて生成されてよい。なお、学習済モデルを用いる場合には、制御装置600が、撮影部位の認識処理に用いる学習済モデルの学習を行う学習部の一例として機能するが、部位認識部607は、他の学習装置等により学習が行われた学習済モデルを用いてもよい。
 部位比較部608は、部位認識部607で認識した撮影部位と、撮影プロトコルに関連付けられた撮影部位を示す部位情報とを比較する。
<撮影処理>
 次に、図7を参照して、本実施形態に係る撮影処理の手順について説明する。図7は本実施形態の撮影処理の手順の一例を示すフローチャートである。なお、本実施形態に係る撮影準備処理は、第1の実施形態に係る撮影準備処理と同様であるため、説明を省略する。
 本実施形態に係るステップS700~ステップS702の処理は、第1の実施形態に係るステップS500~ステップS502の処理と同様であるため、説明を省略する。ステップS702において、取得部101が光学画像を取得すると、処理はステップS703に移行する。ステップS703では、部位認識部607が、光学画像に写る被写体の撮影部位を認識し、認識結果を部位比較部608に出力する。
 ステップS704において、部位比較部608は、ステップS700で選択された撮影プロトコルに関連付けられた部位情報を記憶部106から取得する。なお、部位比較部608は、撮影プロトコルに関連付けられた部位情報を、制御装置600に接続された不図示のサーバ等の外部記憶装置から取得してもよい。
 ステップS705において、部位比較部608は、ステップS703で認識された撮影部位と、ステップS704で取得した部位情報を比較し、これらが一致するか否かを判定する。ステップS705において、撮影部位と部位情報が一致すると判定された場合には、処理はステップS706に移行する。ステップS706~ステップS712の処理は、第1の実施形態に係るステップS503~ステップS509の処理と同様であるため、説明を省略する。
 一方で、ステップS705において、撮影部位と部位情報が一致しないと判定された場合には、処理はステップS713に移行する。ステップS713では、表示制御部105が、表示部150に撮影部位と撮影プロトコルの部位情報が一致しない旨を伝えるダイアログ等の警告を表示させる。警告には、例えば、被写体の姿勢の修正や撮影部位の変更を促す旨が含まれてよい。ステップS713で警告が表示されると、本実施形態に係る撮影処理が終了する。そのため、本実施形態では、撮影部位と部位情報が一致していない場合には、画像処理部103が光学画像に対して画像処理を実行せずに、撮影処理が終了する。また、この場合には、取得部101が放射線画像を取得せずに、撮影処理が終了する。
 上記のように、本実施形態に係る制御装置600は、部位認識部607と、部位比較部608とを備える。部位認識部607は、光学画像から被写体の撮影部位を認識する認識部の一例として機能する。部位比較部608は、認識された撮影部位と撮影プロトコルに関連付けられた被写体の撮影部位を示す部位情報とが一致するかを判定する判定部の一例として機能する。画像処理部103は、認識された撮影部位と部位情報が一致しないと判定された場合に、光学画像に対して、画像処理を実行しない。
 このような構成によれば、制御装置600は、光学画像に写っている撮影部位が、撮影対象となる撮影部位と異なる場合に、画像処理を行わないことで、処理の負荷を低減させることができる。また、認識された撮影部位と部位情報が一致しないと判定された場合に、取得部101は放射線画像を取得しない。このような構成によれば、光学画像に写っている撮影部位が、撮影対象となる撮影部位と異なる場合には、放射線撮影を行わないことで、被写体の不必要な放射線被ばくを防止することができる。
 また、制御装置600は、認識された撮影部位と部位情報とが一致しないと判定された場合に、表示部150に警告を表示させる表示制御部105を更に備える。この場合、ユーザは警告に基づいて、被写体の位置合わせを再度行うことができ、ワークフローを改善できる。
 なお、部位認識部607は、光学画像と、光学画像における被写体の撮影部位を示す情報とを含む学習データを用いて得た学習済モデルに取得した光学画像を入力して得た該学習済モデルからの出力を用いて、取得した光学画像における被写体の撮影部位を認識することができる。この場合には、制御装置600は、精度の高い認識結果を取得することができ、より正確な撮影部位に関する判定処理を行うことができる。
 なお、撮影部位の認識処理に関しては、光学画像に含まれる特徴部を多くすることで、認識処理の精度を高められると期待できる。そのため、部位認識部607は撮影部位の認識処理の精度を上げるために被写体の全体像が写った光学画像を用いることができる。これに対し、ユーザが光学画像を確認する際には、撮影部位にフォーカスした光学画像が望まれる場合がある。このため、部位認識部607で用いる光学画像と、画像処理部103で処理し、表示制御部105が表示部150に表示させる光学画像とで別々の光学画像を用いてもよい。また、画像処理部103が、部位認識部607で用いた光学画像に対して、光学画像における撮影部位の領域を抽出する画像処理を行ってもよい。
(第3の実施形態)
 第1の実施形態では、カメラ130及び放射線撮影装置110により取得された画像の解析結果に基づいて、光学画像及び放射線画像に対して画像処理を実行した。これに対して、本開示の第3の実施形態では、画像を解析することなく、予め設定された見え方となるように光学画像及び放射線画像に対して画像処理を実行する例について説明する。なお、本実施形態では、光学撮影装置は、撮影準備処理から撮影処理まで同じ状態を維持するものとする。一方で、放射線撮影装置は、撮影準備処理から撮影処理までの間で角度を変えた配置が行われてもよいものとし、放射線画像については、放射線撮影装置の角度情報に基づく画像処理を行うものとする。
 以下、図8乃至図13を参照して、本実施形態に係る放射線撮影システム、画像処理装置、及び画像処理方法について説明する。なお、第1の実施形態と同様の構成、機能、及び動作についての説明は省略し、主に本実施形態と第1の実施形態との差異について説明する。
<放射線撮影システムの構成>
 図8は、本実施形態に係る放射線撮影システムの概略構成の一例を示す。本実施形態に係る放射線撮影装置110には、角度検知部111が追加で設けられている。角度検知部111は、放射線撮影装置110のロール・ピッチ・ヨーの角度を計測でき、ネットワーク140を介して計測結果を制御装置800等に送信することができる。角度検知部111は、角度センサ、加速度センサ又はその他手段を含むことができる。また、角度検知部111は、それらを組み合わせたものを含んでもよい。
 本実施形態に係る制御装置800には、第1の実施形態に係る制御装置100の構成に加えて、角度比較部807が設けられている。角度比較部807は、角度検知部111によって検知された検知角度と、撮影プロトコルに関連付けられた放射線撮影装置110の設定角度とを比較することができる。
<撮影準備処理>
 図9は、本実施形態に係る光学画像に関する撮影プロトコルの設定画面の一例を示す。図10は、本実施形態に係る放射線画像に関する撮影プロトコルの設定画面の一例を示す。また、図11は、本実施形態に係る光学画像に関する撮影準備処理の手順の一例を示すフローチャートである。図12は、本実施形態に係る放射線画像に関する撮影準備処理の手順の一例を示すフローチャートである。以下、各設定画面及びフローチャートを参照し、本実施形態に係る撮影準備処理について説明を行う。
 まず、図9及び図11を参照して、光学画像の撮影プロトコルに関する設定を行う撮影準備処理について説明する。ステップS1100では、取得部101が、操作部160を介して入力されたユーザによる操作情報を取得し、表示制御部105が、操作情報に基づいて、光学画像の撮影プロトコル設定画面900を表示部150に表示させる。ここでは、説明の便宜上、左手の撮影プロトコルの設定を例に挙げる。光学画像の撮影プロトコル設定画面900では、撮影プロトコルを選択し検査を開始した際に、カメラ130を用いて取得された光学画像に施す画像処理を予め設定することができる。
 ステップS1101では、ユーザが、光学画像に被写体のファントム(模型)が写るように、ファントムのポジショニングを行う。当該説明の例では、ユーザは左手のファントムのポジショニングを行う。
 ステップS1102では、制御部104がカメラ130による撮影を制御し、取得部101がカメラ130からファントムを含む光学画像を取得する。当該説明の例では、取得部101は、ポジショニングされた左手のファントムを撮影した光学画像を取得する。
 ステップS1103では、表示制御部105が、取得された光学画像を表示部150に表示させる。この際、表示制御部105は、撮影プロトコル設定画面900における光学画像表示領域901に、取得された光学画像を表示させる。
 ステップS1104では、ユーザが光学画像表示領域901に表示された光学画像を確認し、光学画像に写ったファントムの像を見ながら、所望の表示になるように右回転ボタン902又は左回転ボタン903を押す。取得部101は、当該ユーザによる操作情報を取得し、画像処理部103は操作情報に基づいて光学画像に対して回転処理を行い、光学画像の角度調整を行う。表示制御部105は、操作情報に基づいて随時更新される光学画像を光学画像表示領域901に表示させる。
 ステップS1105では、制御装置800は、角度調整が完了したか否かを判定する。制御装置800は、取得部101によって、OKボタン904が押下されたことを示す操作情報が取得されたら、角度調整が完了したと判定する。ステップS1105において、角度調整が完了したと判定された場合には、処理はステップS1106に移行する。一方で、ステップS1105において、取得部101によって、OKボタン904が押下されたことを示す操作情報が取得されない場合には、制御装置800は、角度調整が完了していないと判定して、処理をステップS1104に戻す。
 ステップS1106では、制御装置800は、角度調整が完了した際の光学画像の回転角度を撮影プロトコルと関連付けて記憶部106に記憶させる。制御装置800は、ステップS1106における処理が終了したら、撮影準備処理である光学画像の撮影プロトコルの設定処理を終了する。
 次に、図10及び図12を参照して、放射線画像の撮影プロトコルに関する設定を行う撮影準備処理について説明する。ステップS1200では、取得部101が、操作部160を介して入力されたユーザによる操作情報を取得し、表示制御部105が、操作情報に基づいて、放射線画像の撮影プロトコル設定画面1000を表示部150に表示させる。ここでは、説明の便宜上、左手の撮影プロトコルの設定を例に挙げる。放射線画像の撮影プロトコル設定画面1000では、撮影プロトコルを選択し検査を開始した際に、放射線撮影装置110を用いて取得された放射線画像に施す放射線画像処理を予め設定することができる。なお、当該設定された放射線画像処理は、前述の光学画像処理と対応づけて記憶部106に記憶させることができる。
 ステップS1201では、ユーザが、放射線画像に被写体のファントムが写るように、ファントムのポジショニングを行う。当該説明の例では、ユーザは左手のファントムのポジショニングを行う。
 ステップS1202では、制御部104は、入力された放射線撮影の指示に従い、放射線発生装置120を制御して、管球121により被写体に向けて放射線を照射させ、放射線撮影装置110により当該被写体を透過した放射線を検出させる。その後、取得部101は、放射線撮影装置110により撮影された、ファントムを含む放射線画像を取得する。当該説明の例では、取得部101は、左手のファントムを撮影した放射線画像を取得する。
 ステップS1203では、表示制御部105が、取得された放射線画像を表示部150に表示させる。この際、表示制御部105は、撮影プロトコル設定画面1000における放射線画像表示領域1001に、取得された放射線画像を表示させる。
 ステップS1204では、ユーザが放射線画像表示領域1001に表示された放射線画像を確認し、放射線画像に写ったファントムの像を見ながら、所望の表示になるように右回転ボタン1002又は左回転ボタン1003を押す。取得部101は、当該ユーザによる操作情報を取得し、画像処理部103は操作情報に基づいて放射線画像に対して回転処理を行い、放射線画像の角度調整を行う。表示制御部105は、操作情報に基づいて随時更新される放射線画像を放射線画像表示領域1001に表示させる。
 ステップS1205では、制御装置800は、角度調整が完了したか否かを判定する。制御装置800は、取得部101によって、OKボタン1004が押下されたことを示す操作情報が取得されたら、角度調整が完了したと判定する。ステップS1205において、角度調整が完了したと判定された場合には、処理はステップS1206に移行する。一方で、ステップS1205において、取得部101によって、OKボタン1004が押下されたことを示す操作情報が取得されない場合には、制御装置800は、角度調整が完了していないと判定して、処理をステップS1204に戻す。
 ステップS1206において、制御装置800は、角度調整が完了した際の放射線画像の回転角度を撮影プロトコルと関連付けて記憶部106に記憶させる。これにより、放射線画像の画像処理は、光学画像の画像処理と対応付けて記憶部106に記憶されることができる。
 ステップS1207において、角度検知部111は、角度調整が完了した際に検知した放射線撮影装置110の角度(ヨー・ピッチ・ロール角)を撮影プロトコルと関連付けて記憶部106に記憶させる。制御装置800は、ステップS1207における処理が終了したら、撮影準備処理である放射線画像の撮影プロトコルの設定処理を終了する。
<撮影処理>
 次に、図13を参照して、本実施形態に係る撮影処理の手順について説明する。図13は本実施形態の撮影処理の手順の一例を示すフローチャートである。
 本実施形態に係るステップS1300~ステップS1302の処理は、第1の実施形態に係るステップS500~ステップS502の処理と同様であるため、説明を省略する。ステップS1302において、取得部101が光学画像を取得すると、処理はステップS1303に移行する。
 ステップS1303では、画像処理部103は、光学画像に対して行う画像処理を、ステップS1300で選択された撮影プロトコルに基づいて決定する。具体的には、画像処理部103は、記憶部106に記憶されている、撮影準備処理において設定された光学画像の撮影プロトコルに基づく画像処理を、光学画像に対して実行する画像処理として決定する。当該説明の例では、画像処理部103は、左手の撮影プロトコルの設定に基づいて、撮影準備処理において調整され、撮影プロトコルに関連付けて記憶された回転角度だけ、光学画像を回転させる画像処理を決定する。
 ステップS1304では、画像処理部103は、ステップS1302で取得された光学画像に対して、ステップS1303で決定された画像処理を施す。当該説明の例では、撮影準備処理において調整された回転角度だけ、光学画像を回転させる画像処理を実行する。
 ステップS1305及びステップS1306の処理は、第1の実施形態に係るステップS505及びステップS506の処理と同様であるため、説明を省略する。ステップS1306において、取得部101が放射線画像を取得すると、処理はステップS1307に移行する。
 ステップS1307では、取得部101が、放射線撮影装置110の角度検知部111から、ステップS1306で取得された放射線画像を撮影した際に検知した放射線撮影装置110の検知角度(ヨー・ピッチ・ロール角)を取得する。
 ステップS1308では、角度比較部807が、撮影準備処理におけるステップS1207において角度検知部111から取得され、撮影プロトコルに関連付けて記憶された、放射線撮影装置110の角度(設定角度)を取得する。
 ステップS1309では、角度比較部807が、ステップS1307で取得された検知角度とステップS1308で取得した設定角度とを比較する。より具体的には、角度比較部807は、撮影処理において取得された放射線画像の撮影時の放射線撮影装置110の角度と、撮影準備処理において角度調整が完了した際の放射線撮影装置110の角度とを比較する。
 ステップS1310では、画像処理部103は、放射線画像に対して行う画像処理を、ステップS1300で選択された撮影プロトコルと、ステップS1309で得られた角度の比較結果とに基づいて決定する。具体的には、画像処理部103は、記憶部106に記憶されている、撮影準備処理において設定された放射線画像の撮影プロトコルに基づく画像処理を、上記角度の比較結果に応じて調整し、放射線画像に対して実行する画像処理として決定する。当該説明の例では、画像処理部103は、左手の撮影プロトコルの設定に基づいて、撮影準備処理において調整され、撮影プロトコルに関連付けて記憶された回転角度を、ステップS1309で得られた角度の比較結果に応じて調整する。その後、画像処理部103は、角度の比較結果に応じて調整された回転角度だけ、放射線画像を回転させる画像処理を放射線画像に対して実行する画像処理として決定する。
 ここで、本実施形態に係る画像処理に関する回転角度の調整処理について説明する。まず、例えば臥位撮影において、ロール軸をx軸、ピッチ軸をy軸、ヨー軸をz軸とした場合のヨー角を例に挙げる。ここで、z軸は下方向を正とし、ヨー角の時計回りの方向を正方向とする。また、撮影準備処理において記憶部106に記憶された放射線撮影装置110の角度を基準点である0度とし、撮影処理において放射線画像を取得した際に角度検知部111により検知された放射線撮影装置110のヨー角が+90度とする。この場合、放射線撮影装置110は、撮影準備処理(基準点)の状態から放射線画像取得時には時計回りの方向に90度だけ回転していることになる。
 この場合には、ステップS1309において、角度比較部807は比較結果としてヨー角について+90度回転しているという情報を得る。そのため、ステップS1310において、画像処理部103は、放射線撮影装置110の基準点からの変化を補償するために、撮影準備処理において設定された回転角度のヨー角について、更に-90度だけ回転させるように調整する。その後、画像処理部103は、調整した回転角度だけ放射線画像を回転させる画像処理を放射線画像に対する画像処理として決定する。ここでは、ヨー角を例に挙げたが、例えば立位撮影や臥位撮影といった撮影方法に応じてヨー角、ロール角、及びピッチ角のいずれかを利用してもよい。
 なお、ステップS1309における角度の比較結果で、角度に変化がない場合には、画像処理部103は、撮影準備処理において調整され、撮影プロトコルに関連付けて記憶された回転角度だけ、放射線画像を回転させる画像処理を決定してよい。
 ステップS1311において、画像処理部103は、ステップS1306で取得された放射線画像に対して、ステップS1310で決定された画像処理を施す。当該説明の例では、ステップS1310で決定・調整された回転角度だけ、放射線画像を回転させる画像処理を実行する。
 ステップS1312では、表示制御部105が、画像処理を施された放射線画像を表示部150に表示させる。制御装置800は、ステップS1312における処理が終了したら撮影処理を終了する。
 なお、本実施形態では、画像処理部103は、ステップS1310において、角度比較部807による角度の比較結果に基づいて、放射線画像の画像処理を決定し、ステップS1311において、決定された画像処理を放射線画像に対して施した。これに対して、ステップS1310では、撮影プロトコルに関連付けて記憶された回転角度だけ放射線画像を回転させる画像処理を決定してもよい。この場合、画像処理部103は、ステップS1311で、撮影プロトコルに関連付けて記憶された回転角度だけ回転させた放射線画像に対して、更に角度の比較結果に基づいた回転処理を施すことができる。
 上記のように、本実施形態に係る取得部101は、放射線画像を撮影する放射線撮影装置110の向きを示す向き情報の一例である検知角度を取得する。また、画像処理部103は、向き情報に基づいて、放射線画像に対する画像処理を調整する。より具体的には、画像処理部103は、取得した向き情報と、放射線画像に対する画像処理に関する放射線撮影装置110の向きを示す情報の一例である設定角度との比較結果に応じて、放射線画像に対する画像処理を調整する。
 このような構成により、本実施形態に係る制御装置800は、放射線画像の撮影時の放射線撮影装置110の物理的な角度が、画像処理を設定した際に記憶した放射線撮影装置110の角度と異なっている場合であっても、画像処理を調整することができる。そのため、制御装置800は、このような放射線撮影装置110の角度の差を補償して、光学画像及び放射線画像が互いに対応する態様で、光学画像と放射線画像を提供することができる。
(第4の実施形態)
 第1の実施形態では、撮影時に光学画像及び放射線画像に施す画像処理を、予め設定した内容に従い実施していた。これに対して、本開示の第4の実施形態では、撮影時にユーザが手動で行った画像操作の操作情報を取得し、取得した操作情報に基づいて画像処理を行う例を説明する。以下、図14及び図15を参照して、本実施形態に係る放射線撮影システム、画像処理装置、及び画像処理方法について説明する。なお、第1の実施形態と同様の構成、機能、及び動作についての説明は省略し、主に本実施形態と第1の実施形態との差異について説明する。
<放射線撮影システムの構成>
 本実施形態に係る放射線撮影システムの構成は、第1の実施形態に係る放射線撮影システムと同様である。ただし、取得部101は、光学画像及び放射線画像の画像処理について、操作部160を介して入力されたユーザからの操作情報を取得することができる。また、画像処理部103は、取得部101が取得した操作情報に基づいて、光学画像及び放射線画像に対して、任意の画像処理を行うことができる。
<撮影処理>
 次に、図14及び図15を参照して、本実施形態に係る撮影処理について説明する。なお、本実施形態では、撮影時に画像処理に関する操作情報を取得するため、第1の実施形態で実施したような撮影準備処理を実施しない。図14は、本実施形態に係る撮影表示画面の一例を示す。また、図15は、本実施形態に係る撮影処理の手順の一例を示すフローチャートである。
 本実施態様に係るステップS1500~ステップS1502の処理は、第1の実施形態に係るステップS500~ステップS502の処理と同様であるため、説明を省略する。ステップS1502において、取得部101が光学画像を取得すると、処理はステップS1503に移行する。ここでは、説明の便宜上、左手の撮影プロトコルを選択する例について説明する。
 ステップS1503では、表示制御部105が、取得部101で取得された光学画像を表示部150の表示画面1400に表示させる。この際、表示制御部105は、表示画面1400における画像表示領域1401に、取得された光学画像を表示させる。
 ステップS1504において、取得部101は、ユーザが画像表示領域1401に表示された光学画像を確認しながら、所望の画像表示になるように右回転ボタン1402又は左回転ボタン1403を押して光学画像の回転角度を調節した操作情報を取得する。また、取得部101は、光学画像の表示が所望の画像表示になった後に、ユーザが操作確定ボタン1404を押下した際の、光学画像の回転角度の操作情報を最終的な操作情報として取得する。取得部101は、最終的な操作情報に対応する調節された回転角度を記憶部106に記憶させる。
 ステップS1505では、取得部101が、第1の実施形態に係るステップS506と同様に、放射線画像を取得する。ステップS1505において、取得部101が放射線画像を取得すると、処理はステップS1506に移行する。
 ステップS1506では、画像処理部103が、ステップS1504で記憶部106に記憶させた回転角度に基づいて、光学画像と放射線画像が互いに対応するように、放射線画像に対して放射線画像を回転させる画像処理を施す。ここで、画像処理部103は、ステップS1504において光学画像に対して施した画像処理と同様の画像処理を放射線画像に対して施してもよい。なお、放射線システムで取得される光学画像と放射線画像の見え方のずれ、例えば、互いの撮影範囲の角度ずれが既知である場合、画像処理部103は、放射線画像の回転処理を行う際に、当該ずれを補償するように回転角度を調整して、回転処理を行ってもよい。
 ステップS1507において、表示制御部105は、画像処理が施された放射線画像を表示部150に表示させる。制御装置100は、ステップS1507における処理が終了したら撮影処理を終了する。
 なお、本実施形態では、画像処理部103は、操作情報に対応する回転角度に基づいて、放射線画像の回転処理を行った。しかしながら、本実施形態に係る画像処理はこれに限られない。例えば、画像処理部103は、ステップS1504において、回転角度を調節した光学画像から、第1の実施形態と同様の処理により、光学画像における被写体の向きを認識し、当該被写体の向きを記憶部106に記憶させてもよい。この場合、画像処理部103は、ステップS1506において、第1の実施形態と同様の処理により、放射線画像における被写体の向きを認識する。その後、画像処理部103は、放射線画像の被写体がステップS1504で記憶部106に記憶させた被写体の向きを向くように、放射線画像に対して回転処理を行うことができる。
 また、本実施形態では、光学画像に対する画像処理に基づく画像処理を放射線画像に適用した。これに対し、画像処理部103が、放射線画像に対する画像処理内容に基づく画像処理を光学画像に適用してもよい。この場合には、画像処理部103は、ユーザが放射線画像を確認しながら放射線画像について回転角度を調節した際の操作情報を取得し、当該操作情報に対応する回転角度に基づく回転処理を光学画像に適用することができる。また、上記のように、画像処理部103は、回転角度を調節した放射線画像から被写体の向きを認識し、光学画像における被写体が当該向きを向くように光学画像の回転処理を行ってもよい。
 上記のように、本実施形態に係る取得部101は、光学画像の画像処理及び放射線画像の画像処理の一方に関する操作情報を取得する。また、画像処理部103は、操作情報に基づいて、光学画像の画像処理及び放射線画像の画像処理の一方を決定する。また、画像処理部103は、操作情報に基づいて決定された光学画像の画像処理及び放射線画像の画像処理の一方に基づいて、光学画像の画像処理及び放射線画像の画像処理の他方を決定する。このような構成であっても、制御装置100は、光学画像と放射線画像の見え方を対応させることができる。そのため、制御装置100は、ユーザが確認しやすい画像を提供して、患者に動いてもらう必要性や画像を調整する等の作業の必要性を低減させ、患者とユーザの負担を軽減することができる。
 なお、本実施形態では、取得部101が、光学画像及び放射線画像の画像処理について、操作部160を介して入力されたユーザからの操作情報を取得した。これに対して、光学画像の画像処理についてユーザからの操作情報を取得する取得部と、放射線画像の画像処理についてユーザからの操作情報を取得する取得部とを別々に設けてもよい。この場合、取得部101は、これら取得部を包括する構成要素として設けられてよい。
 同様に、本実施形態では、画像処理部103が、取得部101が取得した操作情報に基づいて、光学画像及び放射線画像に対して、画像処理を行った。これに対して、光学画像の画像処理に関する操作情報に基づいて、光学画像に対して画像処理を行う画像処理部と、放射線画像の画像処理に関する操作情報に基づいて、放射線画像に対して画像処理を行う画像処理部とを別々に設けてもよい。この場合、画像処理部103は、これら画像処理部を包括する構成要素として設けられてよい。
(変形例)
 ステップS1504で調節された回転角度は、画像処理を示す情報として、ステップS1500で選択した撮影プロトコルに関連付けて記憶部106に記憶されることができる。この場合には、画像処理部103は、画像処理を示す情報が関連付けられた撮影プロトコルで撮影処理を行う際には、以降の撮影処理で得られる光学画像及び放射線画像に対して記憶部106に記憶された画像処理を示す情報に基づいて画像処理を適用してもよい。その際、画像処理を適用する前に、表示制御部105が表示部150に前に実行された画像処理を適用する旨を伝えるダイアログ等の警告を表示させてもよい。なお、上述のように、回転角度が調節された画像における被写体の向きが、画像処理を示す情報として、ステップS1500で選択した撮影プロトコルに関連付けて記憶部106に記憶されてもよい。
 上記のように、本変形例に係る制御装置100は、決定された光学画像の画像処理及び放射線画像の画像処理を示す情報を記憶する記憶部106を更に備える。また、画像処理部103は、記憶された情報に基づいて、取得された光学画像及び放射線画像よりも後に取得された光学画像及び放射線画像に対して、画像処理を行う。このような場合には、一度調節した画像処理を以降の画像処理に適用することができ、制御装置100の利便性を向上させることができる。
 なお、上記実施形態1乃至4で述べた設定画面や表示画面は一例である。そのため、表示部150に表示される設定画面や表示画面における各種画像やボタン等の配置や表示態様は任意であってよい。例えば、表示制御部105は、光学画像及び放射線画像を表示部150に表示させることができる。この場合には、制御装置100は、ユーザが光学画像及び放射線画像の両方を確認し、被写体の位置合わせの適否を判断することをより効率的に支援することができる。
 上記実施態様1乃至4によれば、光学画像及び放射線画像が互いに対応するように、光学画像及び放射線画像の少なくとも一方に画像処理を行うことができる。
 なお、上述した被写体の向き等の認識用の学習済モデルや撮影部位の認識用の学習済モデル等は、入力データの画像の輝度値の大小、明部と暗部の順番や傾き、位置、分布、連続性等を特徴量の一部として抽出して、推論処理に用いているものと考えらえる。
 また、上述した被写体の向き等の認識用の学習済モデルや撮影部位の認識用の学習済モデル等は制御装置100に設けられることができる。学習済モデルは、例えば、CPUや、MPU、GPU、FPGA等のプロセッサによって実行されるソフトウェアモジュール等で構成されてもよいし、ASIC等の特定の機能を果たす回路等によって構成されてもよい。また、推論器は、制御装置100と接続される別のサーバ等の装置に設けられてもよい。この場合には、制御装置100は、インターネット等の任意のネットワークを介して学習済モデルを備えるサーバ等に接続することで、学習済モデルを用いることができる。ここで、学習済モデルを備えるサーバは、例えば、クラウドサーバや、フォグサーバ、エッジサーバ等であってよい。なお、施設内や、施設が含まれる敷地内、複数の施設が含まれる地域内等のネットワークを無線通信可能に構成する場合には、例えば、施設や、敷地、地域等に限定で割り当てられた専用の波長帯域の電波を用いるように構成することで、ネットワークの信頼性を向上させてもよい。また、高速や、大容量、低遅延、多数同時接続が可能な無線通信によりネットワークが構成されてもよい。
 (その他の実施例)
 本開示は、上述の実施形態及び変形例の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。コンピュータは、1つ又は複数のプロセッサ若しくは回路を有し、コンピュータ実行可能命令を読み出し実行するために、分離した複数のコンピュータ又は分離した複数のプロセッサ若しくは回路のネットワークを含みうる。
 プロセッサ又は回路は、中央演算処理装置(CPU)、マイクロプロセッシングユニット(MPU)、グラフィクスプロセッシングユニット(GPU)、特定用途向け集積回路(ASIC)、又はフィールドプログラマブルゲートウェイ(FPGA)を含みうる。また、プロセッサ又は回路は、デジタルシグナルプロセッサ(DSP)、データフロープロセッサ(DFP)、又はニューラルプロセッシングユニット(NPU)を含みうる。
 本開示は上記実施の形態に制限されるものではなく、本開示の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、本開示の範囲を公にするために以下の請求項を添付する。
 本願は、2022年11月30日提出の日本国特許出願特願2022-191028を基礎として優先権を主張するものであり、その記載内容の全てをここに援用する。

Claims (20)

  1.  被写体を光学撮影した光学画像と、該被写体を放射線撮影した放射線画像とを取得する取得部と、
     前記光学画像及び前記放射線画像が互いに対応するように、前記光学画像及び前記放射線画像の少なくとも一方に対して、回転処理、抽出処理、及び拡縮処理のうち少なくとも一つを含む画像処理を実行する画像処理部と、
    を備える画像処理装置。
  2.  前記被写体の撮影に関する撮影プロトコルを選択する選択部を更に備え、
     前記画像処理部は、前記光学画像及び前記放射線画像が互いに対応するように、前記光学画像及び前記放射線画像に対して、前記撮影プロトコルに応じた前記画像処理を実行する、請求項1に記載の画像処理装置。
  3.  前記光学画像を用いて前記被写体の撮影部位を認識する認識部と、
     前記認識された撮影部位と前記撮影プロトコルに関連付けられた前記被写体の撮影部位を示す部位情報とが一致するかを判定する判定部と、を更に備え、
     前記認識された撮影部位と前記部位情報とが一致しないと判定された場合に、前記画像処理部は、前記光学画像に対して、前記画像処理を実行しない、請求項2に記載の画像処理装置。
  4.  前記認識された撮影部位と前記部位情報とが一致しないと判定された場合に、前記取得部は前記放射線画像を取得しない、請求項3に記載の画像処理装置。
  5.  前記認識された撮影部位と前記部位情報とが一致しないと判定された場合に、表示部に警告を表示させる表示制御部を更に備える、請求項3に記載の画像処理装置。
  6.  前記認識部は、前記画像処理が実行された光学画像の撮影範囲よりも広い撮影範囲を有する光学画像を用いて前記被写体の撮影部位を認識する、請求項3に記載の画像処理装置。
  7.  前記認識部は、光学画像と、光学画像における被写体の撮影部位を示す情報とを含む学習データを用いて得た学習済モデルに前記取得した光学画像を入力して得た該学習済モデルからの出力を用いて、前記取得した光学画像における前記被写体の撮影部位を認識する、請求項3に記載の画像処理装置。
  8.  前記画像処理部は、
      前記光学画像における前記被写体の向きを認識し、前記光学画像における被写体が所定の向きを向くように、前記光学画像に対して前記画像処理を実行し、
      前記放射線画像における前記被写体の向きを認識し、前記放射線画像における被写体が所定の向きを向くように、前記放射線画像に対して前記画像処理を実行する、請求項1に記載の画像処理装置。
  9.  前記画像処理部は、前記被写体が人の手である場合には、
      前記光学画像及び前記放射線画像における前記被写体の指先及び手首の位置を推定し、
      前記光学画像における前記被写体の指先及び手首の位置に基づいて、前記光学画像における前記被写体の向きを認識し、
      前記放射線画像における前記被写体の指先及び手首の位置に基づいて、前記放射線画像における前記被写体の向きを認識する、請求項8に記載の画像処理装置。
  10.  前記画像処理部は、前記被写体が人の手である場合には、
      前記光学画像及び前記放射線画像における前記被写体の指の付け根の位置を更に推定し、
      前記光学画像における前記被写体の指先、指の付け根、及び手首の位置に基づいて、前記光学画像の回転軸を取得し、該回転軸を中心として前記光学画像に対して前記回転処理を行い、
      前記放射線画像における前記被写体の指先、指の付け根、及び手首の位置に基づいて、前記放射線画像の回転軸を取得し、該回転軸を中心として前記放射線画像に対して前記回転処理を行う、請求項9に記載の画像処理装置。
  11.  前記画像処理部は、
      光学画像と、光学画像における被写体の向きを示す情報とを含む学習データを用いて得た学習済モデルに前記取得した光学画像を入力して得た該学習済モデルからの出力を用いて、前記取得した光学画像における前記被写体の向きを認識し、
      放射線画像と、放射線画像における被写体の向きを示す情報とを含む学習データを用いて得た学習済モデルに前記取得した放射線画像を入力して得た該学習済モデルからの出力を用いて、前記取得した放射線画像における前記被写体の向きを認識する、請求項8に記載の画像処理装置。
  12.  前記取得部は、前記光学画像の画像処理及び前記放射線画像の画像処理の一方に関する操作情報を取得し、
     前記画像処理部は、前記操作情報に基づいて、前記光学画像の画像処理及び前記放射線画像の画像処理の一方を決定する、請求項1に記載の画像処理装置。
  13.  前記画像処理部は、前記操作情報に基づいて決定された前記光学画像の画像処理及び前記放射線画像の画像処理の一方に基づいて、前記光学画像の画像処理及び前記放射線画像の画像処理の他方を決定する、請求項12に記載の画像処理装置。
  14.  前記決定された光学画像の画像処理及び放射線画像の画像処理を示す情報を記憶する記憶部を更に備え、
     前記画像処理部は、前記記憶された情報に基づいて、前記取得された光学画像及び放射線画像よりも後に取得された光学画像及び放射線画像に対して、前記画像処理を行う、請求項13に記載の画像処理装置。
  15.  前記取得部は、前記放射線画像を撮影する放射線撮影装置の向きを示す向き情報を取得し、
     前記画像処理部は、前記向き情報に基づいて、前記放射線画像に対する前記画像処理を調整する、請求項1に記載の画像処理装置。
  16.  前記画像処理部は、前記取得した向き情報と、前記放射線画像に対する画像処理に関する前記放射線撮影装置の向きを示す情報との比較結果に応じて、前記放射線画像に対する前記画像処理を調整する、請求項15に記載の画像処理装置。
  17.  前記画像処理部は、前記光学画像における前記被写体の向き及び前記放射線画像における前記被写体の向きのうち一方の向きが他方の向きを向くように、前記光学画像及び前記放射線画像の少なくとも一方に対して前記画像処理を実行する、請求項1に記載の画像処理装置。
  18.  被写体を光学撮影する光学撮影装置と、
     前記被写体を放射線撮影する放射線撮影装置と、
     請求項1乃至17のいずれか一項に記載の画像処理装置と、
    を備える、放射線撮影システム。
  19.  被写体を光学撮影した光学画像と、該被写体を放射線撮影した放射線画像とを取得することと、
     前記光学画像及び前記放射線画像が互いに対応するように、前記光学画像及び前記放射線画像の少なくとも一方に対して、回転処理、抽出処理、及び拡縮処理のうち少なくとも一つを含む画像処理を実行することと、
    を含む画像処理方法。
  20.  コンピュータによって実行されると、該コンピュータに請求項19に記載の画像処理方法の各工程を実行させるプログラム。
PCT/JP2023/042206 2022-11-30 2023-11-24 画像処理装置、放射線撮影システム、画像処理方法、及びプログラム WO2024117042A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022191028A JP2024078582A (ja) 2022-11-30 2022-11-30 画像処理装置、放射線撮影システム、画像処理方法、及びプログラム
JP2022-191028 2022-11-30

Publications (1)

Publication Number Publication Date
WO2024117042A1 true WO2024117042A1 (ja) 2024-06-06

Family

ID=91324072

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/042206 WO2024117042A1 (ja) 2022-11-30 2023-11-24 画像処理装置、放射線撮影システム、画像処理方法、及びプログラム

Country Status (2)

Country Link
JP (1) JP2024078582A (ja)
WO (1) WO2024117042A1 (ja)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003265460A (ja) * 2002-03-15 2003-09-24 Toshiba Corp 検査室の被検体観察装置
JP2004321457A (ja) * 2003-04-24 2004-11-18 Konica Minolta Medical & Graphic Inc 画像処理条件決定方法および画像処理条件決定装置
JP2012029894A (ja) * 2010-07-30 2012-02-16 Fujifilm Corp 放射線画像撮影システム及び放射線画像撮影方法
US20180182091A1 (en) * 2014-05-02 2018-06-28 Etreat Medical Diagnostics Inc. Method and system for imaging and analysis of anatomical features
JP2018161397A (ja) * 2017-03-27 2018-10-18 国立大学法人 東京大学 診断画像処理装置、評価支援方法及びプログラム
JP2019033829A (ja) * 2017-08-10 2019-03-07 富士フイルム株式会社 画像処理装置とその作動方法および作動プログラム
JP2019097769A (ja) * 2017-11-30 2019-06-24 キヤノンメディカルシステムズ株式会社 X線診断装置、位置合わせ情報作成装置、およびx線診断システム
US20190206052A1 (en) * 2017-12-29 2019-07-04 Shenzhen Institutes Of Advanced Technology Chinese Academy Of Sciences Carpal segmentation and recognition method and system, terminal and readable storage medium
JP2021097727A (ja) * 2019-12-19 2021-07-01 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP2021194388A (ja) * 2020-06-18 2021-12-27 コニカミノルタ株式会社 放射線画像撮影システム、プログラム及び画像処理方法

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003265460A (ja) * 2002-03-15 2003-09-24 Toshiba Corp 検査室の被検体観察装置
JP2004321457A (ja) * 2003-04-24 2004-11-18 Konica Minolta Medical & Graphic Inc 画像処理条件決定方法および画像処理条件決定装置
JP2012029894A (ja) * 2010-07-30 2012-02-16 Fujifilm Corp 放射線画像撮影システム及び放射線画像撮影方法
US20180182091A1 (en) * 2014-05-02 2018-06-28 Etreat Medical Diagnostics Inc. Method and system for imaging and analysis of anatomical features
JP2018161397A (ja) * 2017-03-27 2018-10-18 国立大学法人 東京大学 診断画像処理装置、評価支援方法及びプログラム
JP2019033829A (ja) * 2017-08-10 2019-03-07 富士フイルム株式会社 画像処理装置とその作動方法および作動プログラム
JP2019097769A (ja) * 2017-11-30 2019-06-24 キヤノンメディカルシステムズ株式会社 X線診断装置、位置合わせ情報作成装置、およびx線診断システム
US20190206052A1 (en) * 2017-12-29 2019-07-04 Shenzhen Institutes Of Advanced Technology Chinese Academy Of Sciences Carpal segmentation and recognition method and system, terminal and readable storage medium
JP2021097727A (ja) * 2019-12-19 2021-07-01 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP2021194388A (ja) * 2020-06-18 2021-12-27 コニカミノルタ株式会社 放射線画像撮影システム、プログラム及び画像処理方法

Also Published As

Publication number Publication date
JP2024078582A (ja) 2024-06-11

Similar Documents

Publication Publication Date Title
KR102175394B1 (ko) 의용 장치, 및 의용 장치의 제어 방법
EP3501600B1 (en) Medical apparatus and method
US10825190B2 (en) Dynamic image processing apparatus for aligning frame images obtained by photographing dynamic state of chest based on movement of lung-field region
JP6276020B2 (ja) スカウト画像の自動スキャンおよび位置決め装置
US20120050327A1 (en) Image processing apparatus and method
JP2024038298A (ja) 放射線撮影制御装置、放射線撮影制御方法、プログラムおよび放射線撮影システム
JP7363878B2 (ja) 放射線画像表示装置および画像表示方法
US20220028075A1 (en) Radiography apparatus and radiography system
CN1671325B (zh) 医用图像诊断装置
JP6870765B1 (ja) 動態品質管理装置、動態品質管理プログラム及び動態品質管理方法
WO2024117042A1 (ja) 画像処理装置、放射線撮影システム、画像処理方法、及びプログラム
US10217214B2 (en) Radiographic image processing device, system, program, and method to reduce a load of a processing operation of a user
US20220058800A1 (en) Image failure determination supporting apparatus and storage medium
JP2008220555A (ja) 放射線撮像装置、放射線撮像方法、及びプログラム
CN113380385A (zh) 一种图像显示方法、装置、设备及存储介质
CN114067994A (zh) 一种目标部位的方位标记方法及系统
WO2024095999A1 (ja) 情報処理装置、放射線撮影システム、情報処理方法、及びプログラム
JP7211172B2 (ja) 動態画像解析システム及び動態画像処理装置
JP2003339685A (ja) 表示装置、画像処理装置、画像処理システム、表示方法、及び記憶媒体
WO2024096039A1 (ja) 情報処理装置、放射線撮影システム、情報処理方法、及びプログラム
US20240090864A1 (en) Radiographic imaging support system, radiographic imaging support method, and recording medium
WO2021124982A1 (ja) 放射線撮影制御装置、画像処理装置、放射線撮影制御方法、画像処理方法、プログラムおよび放射線撮影システム
US20230218259A1 (en) Condition determination device, non-transitory recording medium, and condition determination method
JP6860050B2 (ja) 放射線撮影システム、撮影制御装置、放射線撮影方法及び放射線撮影プログラム
US20220183650A1 (en) Radiation imaging system, radiation imaging method, and recording medium