WO2015046381A1 - 画像処理装置、画像処理システム、画像処理プログラム、及び画像処理方法 - Google Patents

画像処理装置、画像処理システム、画像処理プログラム、及び画像処理方法 Download PDF

Info

Publication number
WO2015046381A1
WO2015046381A1 PCT/JP2014/075531 JP2014075531W WO2015046381A1 WO 2015046381 A1 WO2015046381 A1 WO 2015046381A1 JP 2014075531 W JP2014075531 W JP 2014075531W WO 2015046381 A1 WO2015046381 A1 WO 2015046381A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
processing
unit
image processing
processing operation
Prior art date
Application number
PCT/JP2014/075531
Other languages
English (en)
French (fr)
Inventor
泰樹 原田
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to EP14847198.0A priority Critical patent/EP3050505B1/en
Publication of WO2015046381A1 publication Critical patent/WO2015046381A1/ja
Priority to US15/057,131 priority patent/US10217214B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image

Definitions

  • the present invention relates to an image processing apparatus, an image processing system, an image processing program, and an image processing method.
  • the present invention relates to an image processing apparatus, an image processing system, an image processing program, and an image processing method used particularly for image processing of radiographic images.
  • a radiographic image taken by a radiographic imaging apparatus is often used for examination, diagnosis, examination, and the like, and the load on users who are doctors, technicians, and the like who interpret radiographic images is increasing.
  • the user generally performs image processing on a radiographic image, but similarly, the load of image processing is increasing.
  • Japanese Patent Application Laid-Open No. 2005-301492 discloses an image processing history acquisition technique that allows image processing operation history to be displayed, thereby easily performing image processing again. Is described. Further, for example, Japanese Patent Laid-Open No. 2006-271800 describes a technique for improving the interpretation efficiency by displaying an image in which different image processing conditions are applied to a selected image.
  • the present invention provides an image processing apparatus, an image processing system, an image processing program, and an image processing method that can reduce the load of a user's processing operation.
  • An image processing apparatus of the present invention is an image processing apparatus that generates a plurality of different images that have been subjected to different image processing from an original image that is a radiation image, and receives and accepts one or more processing operations on the original image.
  • a first generation unit that performs a first image process on the original image in accordance with the processed operation and generates a first image; and a transfer process selected from the received processing operation is reflected on the original image, and then the first image is reflected on the original image.
  • a second generation unit that generates a second image by performing a second image process different from the image process, or generates a second image by reflecting the takeover process after performing the second image process on the original image; .
  • An image processing apparatus performs a first image analysis process on an original image that is a radiation image, thereby generating a first image and a 1 for the first image generated by the first generation unit.
  • An image processing unit that receives the above processing operation and performs image processing according to the received processing operation on the first image, and a second image analysis process that is different from the first image analysis process on the original image
  • a second generation unit that reflects the handover process selected from the processing operations on the original image or the second image before the second image to be the handover destination is generated.
  • the image processing apparatus of the present invention includes a takeover process setting unit that sets whether or not the process operation is a takeover process, and the second generation unit uses the process operation set by the takeover process setting unit as the takeover process. You may choose.
  • the image processing apparatus further includes a display control unit that causes the display unit to display the takeover process, and the second generation unit is performed according to information representing the takeover process displayed on the display unit by the display control unit.
  • An instruction receiving unit that receives the received instruction may be provided, and the takeover process according to the instruction received by the instruction receiving unit may be reflected in the takeover destination.
  • the display control unit may display only the processing operation selected as the takeover process by the second generation unit among the processing operations on the display unit.
  • the display control unit may cause the display unit to display a display for setting a processing operation that is not selected by the second generation unit among the processing operations as a takeover process.
  • the image processing apparatus of the present invention includes an operation detection unit that detects at least one of an operation time, an operation amount, and an operation count in which a processing operation is performed for each processing operation, and the second generation unit A processing operation in which at least one of the operation time, the operation amount, and the number of operations detected by the detection unit is equal to or greater than a predetermined threshold may be selected as the takeover process.
  • the operation detection unit may add at least one of the detected operation time, operation amount, and number of operations for each type. .
  • the image processing apparatus of the present invention acquires an original image that is a radiation image, and performs image processing with different processing conditions, thereby generating a first image and a second image, and a generation unit that generates the first image and the second image.
  • a first image processing unit that receives a processing operation for the first image and performs image processing corresponding to the received processing operation on one image, and a processing operation received by the first image processing unit, and is selected
  • a second image processing unit that performs two-image processing on the second image.
  • the image processing apparatus of the present invention acquires an original image that is a radiation image, and performs image processing with different processing conditions, thereby generating a first image and a second image, and a generation unit that generates the first image and the second image.
  • a first image processing unit that receives a processing operation for the first image and performs a first image processing corresponding to the received processing operation on the first image; and a processing operation for the second image that accepts the processing operation according to the received processing operation
  • a second image processing unit that performs the second image processing on the second image, and a second image processing unit that performs a takeover process selected from the processing operations received by the first image processing unit and inherited for the second image.
  • a reflecting unit that reflects the second image on which the second image processing has been performed.
  • the image processing apparatus of the present invention acquires an original image that is a radiation image, and performs a first image analysis process, thereby generating a first image and a first generation unit generated by the first generation unit.
  • a first image processing unit that receives a processing operation for one image and performs a first image processing corresponding to the received processing operation on the first image; and a processing operation that is received by the first image processing unit; and A reflection unit for reflecting the takeover process to be taken over to the original image to the original image, and a second image analysis process for the original image on which the takeover process is reflected by the reflection unit to generate a second image.
  • a second image processing unit that receives a processing operation on the second image and performs a second image processing corresponding to the received processing operation on the second image.
  • the image processing apparatus of the present invention acquires an original image that is a radiation image, and performs a first image analysis process, thereby generating a first image and a first generation unit generated by the first generation unit.
  • a first image processing unit that accepts a processing operation for one image and performs first image processing on the image according to the accepted processing operation; and a second image that accepts a processing operation for the second image and accepts the processing operation for the second image.
  • a second image processing unit that performs image processing on the original image, and a handover process to be taken over for the original image are selected from processing operations accepted by the first image processing unit, and the selected handover process is performed by the second image processing unit.
  • the image processing apparatus acquires an original image that is a radiographic image, and performs a first image process, thereby generating a first image, and a first generation unit generated by the first generation unit.
  • a first image processing unit that accepts a processing operation on an image and performs a first image processing on the first image according to the accepted processing operation; and a first image processing unit that accepts a processing operation on the second image and accepts the processing operation on the second image.
  • a second image processing unit that performs two-image processing on the original image, and a second image analysis process on the original image that has been subjected to the second image processing by the second image processing unit, thereby generating a second image
  • the second generation unit and the processing operation received by the first image processing unit are selected from the handover operation to be taken over for the second image, and the selected handover process is reflected in the second image generated by the second generation unit.
  • a reflecting unit to be provided.
  • An image processing system of the present invention includes the image processing device of the present invention, a display unit that displays an image that has been subjected to image processing by the image processing device, and an operation unit that performs processing operations on the image processing device. .
  • the image processing program of the present invention is for causing a computer to function as each part of the image processing apparatus of the present invention.
  • An image processing method of the present invention is an image processing method of an image processing apparatus that generates a plurality of different images that have been subjected to different image processing from an original image that is a radiographic image.
  • One or more processing operations are received, the first image processing according to the received processing operations is performed on the original image to generate a first image, and the second generation unit performs a takeover process selected from the processing operations.
  • a second image processing different from the first image processing is performed after reflecting in the original image to generate a second image, or the second image processing is performed on the original image and then the takeover processing is reflected in the second image processing.
  • the image processing method of the present invention generates a first image by applying a first image analysis process to an original image, which is a radiation image, by a first generation unit, and is generated by the first generation unit by an image processing unit.
  • One or more processing operations on the first image are received, image processing according to the received processing operation is performed on the first image, and the second image analysis is performed on the original image by the second generation unit, which is different from the first image analysis processing.
  • a second image is generated, and the takeover process selected from the processing operations is reflected in the original image or the second image before the second image to be taken over is generated.
  • FIG. 1 is a schematic configuration diagram of an example of a radiographic image capturing system according to the present embodiment.
  • the radiation image capturing system 10 includes a radiation image capturing device 12, a radiation irradiation device 16, and a console 20.
  • the console 20 and the radiographic imaging device 12 and the radiation irradiation device 16 are connected by at least one of wired and wireless.
  • the radiation irradiation device 16 has a function of irradiating the subject 18 with radiation (for example, X-ray (X-ray) or the like).
  • the radiographic imaging device 12 includes a radiation detector 14 that detects radiation irradiated from the radiation irradiation device 16 and transmitted through the subject 18.
  • the radiation detector 14 of this Embodiment is not specifically limited.
  • the radiation detector 14 may be an indirect conversion type radiation detector that converts light converted from radiation into electric charge.
  • the radiation detector 14 may be a direct conversion type radiation detector that directly converts radiation into electric charges.
  • the console 20 captures a radiographic image by an operation of a user such as a doctor or a radiographer based on an instruction (imaging menu) input from an external system (for example, RIS: Radiology Information System: radiation information system). It has a function.
  • the console 20 of the present embodiment has a function of acquiring a radiographic image from the radiographic imaging device 12 and outputting it to a PACS (Picture Archiving and Communication System) 22.
  • PACS Picture Archiving and Communication System
  • the radiation carrying the image information is transmitted through the subject 18 irradiated from the radiation irradiating device 16 and positioned at the imaging position at the timing based on the control of the console 20.
  • the radiation detector 14 of the imaging device 12 is irradiated.
  • the radiographic imaging device 12 detects the radiation irradiated by the radiation detector 14, generates a radiographic image corresponding to the detected radiation, and outputs it to the console 20.
  • the captured radiographic image is output from the console 20 to the PACS 22 which is an example of an image processing system, and is managed by the PACS 22.
  • the image processing apparatus is provided in the console 20 and has a function of performing image processing of a radiation image.
  • a plurality of types of images such as “original image (details will be described later) and“ purpose A image (details will be described later) ”, since the images are based on irradiated radiation, ".
  • FIG. 2 is an example of a schematic configuration diagram of the console 20 for explaining the image processing function.
  • the image processing apparatus may be provided in the PACS 22.
  • image processing includes conversion of image quality, rotation, inversion, marker overlay, comment entry, and the like, and general processing performed on images (various images including radiation images). That means.
  • the console 20 of the present embodiment is configured as a server computer, and includes a control unit 30, a display driver 32, a display 34, an operation input detection unit 36, an operation panel 38, an I / O (Input / Output) unit 40, I A / F (Interface) unit 42 and an I / F unit 44 are provided.
  • a control unit 30 includes a control unit 30, a display driver 32, a display 34, an operation input detection unit 36, an operation panel 38, an I / O (Input / Output) unit 40, I A / F (Interface) unit 42 and an I / F unit 44 are provided.
  • the control unit 30 has a function of controlling the operation of the entire console 20, and includes a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and a storage unit.
  • the CPU has a function of controlling the operation of the entire console 20.
  • Various programs including image processing programs used by the CPU are stored in advance in the ROM.
  • the RAM has a function of temporarily storing various data.
  • the storage unit is, for example, an HDD (Hard Disk Disk Drive), and has a function of storing and holding various data.
  • the storage unit has a function of storing definitions of types of processing operations, definitions of takeover conditions, and the like, details of which will be described later.
  • the console 20 has a function of performing image processing on various images.
  • the display driver 32 has a function of controlling the display of various information on the display 34.
  • the display 34 according to the present embodiment has a function of displaying an imaging menu, a captured radiation image, and the like.
  • the operation input detection unit 36 has a function of detecting an operation state and processing operation with respect to the operation panel 38.
  • the operation panel 38 is used by the user to input processing operations related to radiographic image capturing and image processing of the captured radiographic image.
  • the operation panel 38 includes, for example, a touch panel, a touch pen, a plurality of keys, a mouse, and the like. When the operation panel 38 is a touch panel, it may be the same as the display 34.
  • the I / O unit 40 and the I / F unit 42 have a function of transmitting and receiving various types of information to and from the radiation image processing device 50 of the PACS 22 by wireless communication or the like.
  • the I / F unit 44 has a function of transmitting and receiving various types of information between the radiographic image capturing apparatus 12 and the RIS.
  • the control unit 30, the display driver 32, the operation input detection unit 36, and the I / O unit 40 are connected to each other via a bus 46 such as a system bus or a control bus so that information can be exchanged. Therefore, the control unit 30 can respectively control display of various information on the display 34 via the display driver 32 and control transmission / reception of various information to / from the PACS 22 via the I / F unit 42.
  • the PACS 22 of the present embodiment includes a radiation image processing device 50, a radiation image interpretation device 52, and a storage unit 54.
  • the radiological image processing apparatus 50 has a function of controlling the storage of the radiographic image received from the radiographic image capturing apparatus 12 in the storage unit 54 based on an instruction from the console 20.
  • the radiation image processing device 50 controls display of various images on the radiation image interpretation device 52.
  • the radiation image processing apparatus 50 includes a control unit 60, an I / F unit 62, and a storage unit 64.
  • the control unit 60 has a function of controlling the entire PACS 22.
  • the control unit 60 includes a CPU, a ROM, a RAM, and a storage unit.
  • the CPU has a function of controlling the operation of the PACS 22.
  • Various programs used by the CPU are stored in advance in the ROM.
  • the RAM has a function of temporarily storing various data.
  • the storage unit is an HDD or the like, and has a function of storing and holding various data.
  • the storage unit 64 has a function of storing the radiation image output from the console 20.
  • An example of the storage unit 64 is an HDD.
  • the I / F unit 62 has a function of transmitting and receiving various information to and from the console 20 by wireless communication or the like.
  • the control unit 60 and the storage unit 64 are connected to each other via a bus 66 such as a system bus or a control bus so that information can be exchanged.
  • a bus 66 such as a system bus or a control bus so that information can be exchanged.
  • the storage unit 54 of the present embodiment has a function of storing a radiographic image, various images image-processed by the radiographic image processing apparatus 50, and information related to the various images.
  • An example of the storage unit 54 is an HDD.
  • the radiological image interpretation device 52 of the present embodiment is a device having a function for a radiographer to interpret radiographic images and various images image-processed by the radiographic image processing device 50, and is not particularly limited. Interpretation viewer, console, tablet terminal and the like.
  • the radiographic image interpretation apparatus 52 of the present embodiment is a personal computer.
  • the radiographic image interpretation device 85 is similar to the console 20 and the radiographic image processing device 50, and includes a CPU, ROM, RAM, storage unit, display driver, display 58, operation input detection unit, operation panel 56, I / O unit, and I / F section is provided. In FIG. 2, only the display 58 and the operation panel 56 are shown in the above configuration, and other descriptions are omitted in order to avoid complicated description.
  • a plurality of radiographic images having different purposes can be acquired by one imaging.
  • “single imaging” means one imaging (series) set by the imaging menu or the user, and the number of radiographic images to be captured is one. There are also cases where there are multiple sheets.
  • “single shooting” may be either a still image or a moving image.
  • multipurpose imaging capturing a plurality of radiation images having different purposes by one imaging is referred to as “multipurpose imaging”.
  • a plurality of images having different purposes refers to radiographic images that are used for examination purposes and different examinations / diagnosis by radiographers such as doctors, although they are not particularly limited.
  • a radiographic image obtained by general chest radiography in a health examination and a radiographic image for pneumoconiosis examination are included.
  • a normal radiographic image for general examination and an image for special use can be mentioned.
  • the special use image include, but are not particularly limited to, an artifact confirmation image, a catheter emphasized image, and a gauze emphasized image.
  • the console 20 of the present embodiment performs a different image process on the original image using the radiographic image obtained by one shooting as an original image when multipurpose shooting is instructed by the shooting menu or the user.
  • a plurality of radiation images having different purposes are generated.
  • the “original image” refers to a predetermined image process that is uniformly applied to all radiographic images regardless of the purpose for the radiographic image captured by the radiographic image capturing device 12. Refers to the applied radiographic image.
  • an identifier for distinguishing the two is associated with each radiographic image (including the original image), and is displayed on the display 34 in accordance with the setting or the user's request.
  • the identifier is not particularly limited as long as the user can recognize how the radiographic image is captured, and may be any of a mark, a number, a name, and the like.
  • FIG. 3 shows an example of the flow of image processing (processing operation) according to the basic form in the console 20 of the present embodiment.
  • FIG. 4 shows a flowchart of an example of image processing executed by the control unit 30 of the console 20 of the present embodiment.
  • the control unit 30 executes the image processing program stored in the ROM, thereby functioning as each unit of the present invention and executing the image processing shown in FIG.
  • the console 20 displays various images on the display 34.
  • step S10 the control unit 30 acquires an original image.
  • the control part 30 acquires the radiographic image image
  • the control unit 30 receives the processed image selected by the user. Specifically, in the present embodiment, the control unit 30 receives whether the user performs the processing operation for either the purpose A image or the purpose B image. Note that if it is predetermined that the user performs the processing operation for the purpose A image or the purpose B image, the process of step S12 may be omitted.
  • the control unit 30 displays the processed image (original image) on the display 34.
  • the “processed image” refers to an image that is a target of a user's processing operation, and in this step, refers to an original image.
  • various displays for the user to perform the processing operation are displayed on the display 34 together with the processed image.
  • the user performs a plurality of processing operations to generate the purpose A image.
  • the user performs two types of processing operations, that is, a processing operation only for the purpose A and a processing operation that is taken over and reflected to generate the purpose B image. Do.
  • step S16 the control unit 30 determines whether or not there is a processing operation. The process waits until there is a processing operation. On the other hand, when the operation input detection unit 36 detects a processing operation, the process proceeds to step S18.
  • step S18 the control unit 30 performs image processing according to the processing operation detected by the operation input detection unit 36, and causes the display 34 to display an image after the image processing.
  • step S20 the control unit 30 determines whether or not to end the processing operation. If not, the process returns to step S16 to repeat this process. On the other hand, when the process ends, the process proceeds to step S22.
  • the control unit 30 performs image processing A on the original image according to the processing operation A, generates a purpose A first image, and displays the first image on the display 34. Further, the control unit 30 performs image processing AA on the first purpose A image according to the processing operation AA, generates a second purpose A image, and displays the second image on the display 34. Further, the control unit 30 performs the image processing AAA on the second purpose A image in accordance with the processing operation AAA, generates the purpose A image, and displays it on the display 34. Therefore, if the determination in step S20 is affirmative, the purpose A image is displayed on the display 34.
  • step S22 the control unit 30 associates the image information of the purpose A image with the contents of the image processing (A, AA, and AAA) performed for generating the purpose A image, and stores them in the control unit 30. Store in the department.
  • the control unit 30 reflects the processing operation (takeover processing) set in the takeover item on the original image to generate the first purpose B image.
  • the processing operation AA is taken over for the original image. Therefore, the control unit 30 reflects the processing operation AA in the original image and generates the first purpose B image.
  • control unit 30 causes the display 34 to display the first purpose B image.
  • step S28 the control unit 30 determines whether there is a processing operation. If there is no processing operation, the process enters a standby state. On the other hand, if there is a processing operation, the process proceeds to step S30 to perform image processing according to the processing operation.
  • step S32 the control unit 30 determines whether or not to end the processing operation. If the processing operation is not terminated, the process returns to step S28 and the processing operation is repeated. On the other hand, when ending the processing operation, the process proceeds to step S34.
  • the control unit 30 generates the purpose B by performing the image processing B on the first purpose B image in accordance with the processing operation B.
  • step S34 the purpose B image is displayed on the display 34.
  • the control unit 30 associates the image information of the purpose B image with the contents of the image processing (processing operation AA and processing operation B) performed for generating the purpose B image.
  • the image processing is terminated.
  • each output destination for example, the radiation image processing device 50 of the PACS 22). Or the radiographic image interpretation device 52).
  • AA among the processing operations performed by the user to generate the purpose A image is taken over as the processing operation for generating the purpose B image, but the processing operation to take over is not limited.
  • the processing operation to be taken over may be processing operation A or processing operation AAA.
  • the image processing AA corresponding to the processing operation AA is performed as the image processing for generating the target B image, and then the image processing B corresponding to the processing operation B is performed.
  • the order of (processing operations) is not limited to this.
  • FIG. 5 shows another example of the flow of image processing (processing operation) according to the basic form in the console 20 of the present embodiment.
  • the control unit 30 performs image processing on the original image according to the processing operation B, and generates a first purpose B image. Thereafter, the control unit 30 performs the image processing AA corresponding to the processing operation AA inherited from the processing operation for generating the purpose A image on the purpose B first image to generate the purpose B image.
  • step S24 of the image processing shown in FIG. 4 and steps 28 to S32 may be interchanged.
  • the control unit 30 of the console 20 performs image processing on the original image in accordance with the user's processing operation, and one of the target images (the target A image in the above specific example). Is generated. Then, the control unit 30 takes over the processing operation for generating one target image as the processing operation for generating the other target image (the target B image in the above specific example), and reflects the succeeding processing operation. Image processing. Furthermore, the control unit 30 performs image processing according to the processing operation performed by the user to generate the other target image, and generates the other target image.
  • FIG. 6 shows an example of the flow of image processing (processing operation) according to the application form in the console 20 of the present embodiment.
  • FIG. 7 shows a flowchart of an example of image processing executed by the control unit 30 of the console 20 of the present embodiment.
  • the control unit 30 executes the image processing program stored in the ROM, thereby functioning as each unit of the present invention and executing the image processing shown in FIG.
  • image analysis processing refers to image processing that is automatically performed by the console 20 (without a user instruction).
  • step S100 the control unit 30 acquires an original image.
  • the control unit 30 performs an image analysis process A to generate a first purpose A image.
  • the control unit 30 performs an image analysis process B to generate a first purpose B image.
  • the image analysis processing A and the image analysis processing B are image analysis processing predetermined in order to generate the purpose A image and the purpose B image from the original image.
  • the image analysis processing A and the image analysis processing B are not particularly limited except that they are determined according to the purpose.
  • the image analysis processing A and the image analysis processing B may be image processing of completely different types, or may be image processing of the same type (for example, gradation processing) but different parameters.
  • control unit 30 causes the display 34 to display the purpose A first image and the purpose B first image.
  • the console 20 causes the user to select which image is to be processed by performing display.
  • FIG. 8 shows an example of display of the purpose A first image and the purpose B first image.
  • An end button 74 is displayed. The user selects an image to be processed by checking either the check box 72A or the check box 72B.
  • FIG. 8 shows a state where the check box 72A is checked and the purpose A first image is selected. The selection by the user is completed when the end button 74 is buttoned down by the user.
  • the purpose A first image 70A and the purpose B first image 70B are displayed.
  • the check box 72A and the check box 72B may be displayed without displaying the images.
  • step S108 the control unit 30 receives the processed image (any one of the purpose A first image 70A and the purpose B first image 70B) selected by the user. If it is predetermined that the user performs the processing operation on either the purpose A first image or the purpose B second image, the processing in steps S106 and S108 may be omitted.
  • the control unit 30 displays the processed image on the display 34.
  • the control unit 30 causes the display 34 to perform various displays for the user to perform the processing operation together with the processing image.
  • the processed image is the purpose A first image 70A will be described.
  • FIG. 10 shows an example of various displays for the user to perform the processed image and the processing operation in the present embodiment.
  • a purpose A first image 70A an end button 74, a processing operation selection unit 76, and a parameter display unit 78 are displayed.
  • icons corresponding to various processing operations for the user to select the type of processing operation are displayed on the processing operation selection unit 76.
  • the processing operation selection unit 76 illustrated in FIG. 10 displays icons for selecting rotation, movement, enlargement, trimming, and a histogram representing density, luminance, and the like.
  • the user selects a processing operation from the processing operation selection unit 76 using the operation panel 38, and performs the processing operation on the purpose A first image 70A.
  • the parameter display section 78 displays the degree of processing operation (parameter) performed by the user.
  • the processing operation performed by the user is not limited to the example shown in FIG.
  • the user takes over two types of processing operations for the purpose A first image 70A, the processing operation only for the purpose A, and the processing operation for reflecting the processing to the image for the purpose B (the purpose B first image 70B).
  • the processing operation is performed.
  • the processing operation only for the purpose A is referred to as “processing operation A”
  • the image processing performed by the console 20 by the processing operation A is referred to as “image processing A”.
  • the processing operation to be taken over for the image for the purpose B is referred to as “processing operation C”
  • image processing performed by the console 20 by the processing operation C is referred to as “image processing C”.
  • step S112 the control unit 30 performs operation image processing for performing image processing according to the user's processing operation.
  • FIG. 9 shows a flowchart of an example of the operation image processing performed in step S112.
  • step S200 the control unit 30 determines whether or not a processing operation has been started.
  • a processing operation is selected by the processing operation selection unit 76 and some operation is performed on the purpose A first image 70A
  • the processing operation is started when the mouse button down of the operation panel 38 is detected on the first purpose A image 70A.
  • the process enters a standby state.
  • the process proceeds to step S202.
  • step S202 the control unit 30 starts counting at least one of the operation time, the operation amount, and the number of operations by a counter (not shown). What is necessary is just to predetermine the measurement rule which defined which is counted how for every kind of operation. Note that the measurement rule may be set or selected by the user, and is not particularly limited.
  • step S204 the control unit 30 performs image processing corresponding to the processing operation on the purpose A first image 70A, and causes the display 34 to display the purpose A first image 70A (processed image) subjected to the image processing. That is, images corresponding to the processing operations performed by the user are sequentially generated and sequentially displayed instead of the purpose A first image 70A of the display 34 shown in FIG.
  • step S206 the control unit 30 determines whether or not the processing operation has been completed.
  • the control unit 30 detects the start of the processing operation in response to the mouse button down of the operation panel 38 performed by the user, it is determined that the time of the button up is determined as the end of the processing operation. . If not completed, the process returns to step S204 to repeat the process. On the other hand, if the process is completed, the process proceeds to step S208, and the count is stopped in step S208.
  • the control unit 30 stores the type of processing operation and the count value in the storage unit in the control unit 30 in association with each other.
  • processing operations for rotating an image are 15 degree right rotation (1 second), 10 degree left rotation (10 seconds), 15 degree right rotation (5 seconds), and 30 degree right rotation. The case where it is performed 4 times (0.5 seconds) will be described.
  • As the processing contents “15 degrees right rotation 1 second”, “10 degrees left rotation 10 seconds”, “15 degrees right rotation 5 seconds”, and “30 degrees right rotation 0.5 seconds” are stored.
  • a specific example is a case where the user performs a processing operation for adding a mark for 20 seconds, adding a comment for 10 seconds, and correcting the density for 1 hour.
  • three types of “mark addition 20 seconds”, “comment addition 10 seconds”, and “density correction 1 hour” are stored.
  • step S212 the control unit 30 determines whether or not the processing operation by the user has been completed. In the present embodiment, when the control unit 30 detects that the end button 74 displayed on the display 34 shown in FIG. If not completed, the process returns to step S200, and the control unit 30 repeats the processes of steps S200 to S210 for a new processing operation. On the other hand, when the control unit 30 detects that the end button 74 has been instructed by the user, the operation image processing is ended, and the process proceeds to step S114 of the image processing (see FIG. 7).
  • step S114 the control unit 30 displays the purpose A image on the display 34 and confirms the user with the purpose A image.
  • FIG. 11 shows an example of the display of the purpose A image for confirmation in the present embodiment.
  • a purpose A image, an end button 74, and a correction button 75 are displayed.
  • the generation of the purpose A image is completed by detecting that the end button 74 has been pressed down.
  • the console 20 of the present embodiment although not shown in FIG. 7, when the control unit 30 detects that the correction button 75 has been pressed down, the process of step S ⁇ b> 112 is performed again, and the purpose A image is displayed. Make corrections.
  • step S116 the control unit 30 associates the image information of the purpose A image with the contents of the image processing (including image analysis processing) performed for generating the purpose A image, and stores the information in the control unit 30.
  • image processing including image analysis processing
  • the control unit 30 performs a handover item setting process for setting a processing operation to be taken over for the purpose B first image 70B among the processing operations performed on the purpose A first image 70A.
  • FIG. 12 shows a flowchart of an example of the takeover item setting process of the present embodiment.
  • step S300 the control unit 30 adds up the count values of the processing operations of the same type made on the purpose A first image 70A image.
  • the count values of the processing operations of the same type are added up from the processing contents stored by the processing of step S116.
  • the type of processing operation is determined in advance, and the definition of the type of processing operation is stored in the storage unit 64 in advance. Note that the definition of the type of processing operation may be set or selected by the user. In the above specific example when “rotation” is defined as the type of processing operation, since four processing operations with the type of processing operation “rotation” are stored, the count value (here, the frequency) is set. Add up and turn right 50 degrees to 16.5 seconds.
  • the control unit 30 compares the count value with the threshold value.
  • a processing operation that satisfies one of the takeover conditions of a processing operation requiring a long time, a processing operation having a large operation amount, and a processing operation having a large number of operations is troublesome. Is determined as the processing operation, and the processing operation for the purpose B first image 70B is taken over.
  • a takeover condition (threshold) that rotation is 10 seconds or more, mark addition is 30 seconds or more, comment addition is 1 minute or more, and density correction is not taken over. It is stored in the storage unit in the unit 30. Note that the definition of the takeover condition may be set or selectable by the user.
  • step S302 the control unit 30 compares the threshold value, which is a takeover condition, with the count value, and in the next step S304, the control unit 30 sets a processing operation (for each type) with the count value equal to or greater than the threshold value as the takeover item.
  • a setting storage unit (not shown) for storing settings is provided in the control unit 30, and setting of the takeover item is performed by storing the settings in the setting storage unit. Is called.
  • the rotation count value is equal to or greater than the threshold value, and other processing operations (mark addition, comment addition, and density correction) are less than the threshold value or are not inherited. Therefore, only rotation is set as the inheritance item.
  • mark addition, comment addition, and density correction correspond to the processing operation A
  • rotation corresponds to the processing operation C.
  • the control unit 30 creates a list of handover items and displays the list on the display 34.
  • FIG. 13 shows an example of a display of a list of transfer items in the present embodiment.
  • the method of displaying the list of transfer items is not particularly limited as long as the user can confirm the transfer items and the user can set the transfer items.
  • a list of types of processing operations performed by the user is displayed, and the check box indicates which of the takeover items set in step S304 is indicated.
  • the user unchecks the check box for processing operations that do not need to be inherited among the inherited items that are checked, and checks the check box for processing operations that require inheritance among those that are not checked You can set takeover items by checking the box.
  • a list of types of processing operations performed by the user is displayed, and the check box indicates which of the takeover items set in step S304 is indicated. Yes. Furthermore, in the case shown in FIG. 13 (2), it is impossible for the user to change the takeover items that have already been set (checked). The user can set a takeover item by checking a check box for a processing operation requiring takeover among takeover items that are not checked.
  • step S304 only the takeover items set in step S304 are displayed.
  • the user can set a takeover item by unchecking a check box for a processing operation that does not require takeover among the takeover items that are checked.
  • step S304 only the process operation that is not the takeover item set in step S304, that is, the process operation item that is not taken over is displayed.
  • the user can set a processing operation that is not to be taken over as a takeover item by checking the check box.
  • step S308 the control unit 30 determines whether or not the takeover item has been changed by the user.
  • the control unit 30 determines that the takeover item has been changed when an instruction to the check box is detected. . If the takeover item has not been changed, the takeover item setting process is terminated, and the process proceeds to step S120 of the image process (see FIG. 7). On the other hand, if the takeover item is changed, the process proceeds to step S310.
  • step S310 the control unit 30 changes the setting stored in the setting storage unit in the control unit 30 in accordance with the change detected in step S308, and then ends the takeover item setting process and performs image processing ( The process proceeds to step S120 of FIG.
  • step S120 the control unit 30 causes the console 20 to reflect the processing operation (takeover process) set in the takeover item to the purpose B first image 70B to generate the purpose B second image.
  • the control unit 30 since the rotation has been taken over, rotates the target B first image 70B (50 degrees to the right) to generate the target B second image.
  • control unit 30 causes the display 34 to display the second purpose B image.
  • control unit 30 displays the takeover item on the display 34.
  • FIG. 14 shows an example of the display of the purpose B second image and the transfer item.
  • the control unit 30 determines whether there is a change in the takeover item.
  • the takeover item can be changed.
  • the user can change the inherited item by removing the check from the check box of the inherited item. It may be possible to change the display so that items of other processing operations (processing operation A) performed on the first image 70A of purpose A are displayed, and processing operations that are not set in the takeover item are taken over.
  • step S130 If there is no change in the takeover item and the end of the end button 74 is detected, the control unit 30 proceeds to step S130. On the other hand, if there is a change in the takeover item, the process proceeds to step S128. In step S128, an image corresponding to the change is generated.
  • the control unit 30 displays the processed image on the display 34.
  • the display 34 is caused to display various displays for the user to perform the processing operation together with the processed image as in step S110.
  • the purpose name is changed to purpose B, and the processed image is displayed as the purpose B second image 79B (or the image generated in step S128). I do.
  • step S132 the control unit 30 determines whether there is a processing operation. If there is no processing operation, the process enters a standby state. On the other hand, if there is a processing operation, the process proceeds to step S134, and the control unit 30 performs image processing according to the processing operation. In this step, similarly to step S204 of the operation image processing, images corresponding to the processing operation performed by the user are sequentially generated and sequentially displayed on the display 34.
  • step S136 the control unit 30 determines whether or not to end the processing operation. In the present embodiment, when the button down of the end button 74 is detected, it is determined that the processing operation is ended. If not, the process returns to step S132 to repeat the processing operation. On the other hand, when ending the processing operation, the process proceeds to step S138.
  • step S138 the control unit 30 displays the purpose B image on the display 34 and causes the user to confirm the purpose B image, as in step S114.
  • FIG. 15 shows an example of the display of the purpose B image for confirmation in the present embodiment.
  • the purpose B image, the end button 74, and the correction button 75 are displayed.
  • the generation of the purpose B image is completed by detecting that the end button 74 has been pressed down.
  • the processing from step S132 to step S136 is performed again, and the target B image is displayed. Make corrections.
  • the control unit 30 associates the image information of the purpose B image with the contents of the image processing (including image analysis processing) performed for generating the purpose B image. After the image is stored in the storage unit, the image processing is terminated.
  • each output destination for example, the radiation image processing device 50 of the PACS 22). Or the radiographic image interpretation device 52).
  • the console 20, and the PACS 22 of the present embodiment have substantially the same configuration and operation as the radiographic imaging system 10, the console 20, and the PACS 22 of the first embodiment, Will not be described in detail.
  • the timing at which the processing operation set as the takeover item is reflected in another image is different from the application mode of the first embodiment.
  • FIG. 16 shows an example of the flow of image processing (processing operation) in the control unit 30 of the console 20 of the present embodiment.
  • processing operation processing operation
  • the image processing (processing operation) for generating the purpose A image is the same as the application form of the first embodiment (see FIG. 6).
  • the console 20 performs image analysis processing B on the original image to generate the first purpose B image, and then the processing operation B (purpose B image by the user).
  • the processing operation that is not performed for the generation of the purpose A image) is performed, and the second purpose B image is generated.
  • the console 20 reflects the processing operation C, which is the inherited processing operation, on the second target B image to generate the target B image.
  • FIG. 17 shows a flowchart of an example of image processing executed by the control unit 30 of the console 20 of the present embodiment.
  • the timings of the processing operation B and the processing operation C are interchanged with the application mode of the first embodiment, so that the application mode of the first embodiment is shown in FIG.
  • the processing corresponding to step S120 to step S128 of the image processing is performed between step S136 and step S138.
  • control unit 30 of the present embodiment completes the generation of the purpose A image and sets the takeover item from step S100 to step S118 in the same manner as in the application form of the first embodiment.
  • control unit 30 of the present embodiment after step S118, the process proceeds to step S130.
  • the control unit 30 according to the present embodiment performs the image processing B according to the user's processing operation B by performing the image processing B according to the user's processing operation B in the same manner as the application of the first embodiment from step S130 to step S136. Generate an image.
  • steps S137-1 to S137-5 correspond to steps S120 to S128 of the image processing according to the application form of the first embodiment, respectively. That is, in the control unit 30 according to the present embodiment, the processing operation C that is the takeover process for the image that has been subjected to the image processing B according to the processing operation B by the processing of steps S137-1 to S137-3. Is reflected, and the purpose B image is generated, and the takeover item is displayed on the display 34 together with the purpose B image.
  • step S137-4 and step S137-5 the control unit 30 determines whether or not there is a change in the takeover item. If there is no change in the takeover item, the generation of the purpose B image is completed, and therefore, the step S138. Proceed to On the other hand, if there is a change in the takeover item, generation of the purpose B image is completed by generating an image corresponding to the change, and the process proceeds to step S138.
  • step S138 and step S140 are the same as the application form of the first embodiment.
  • the control unit 30 displays the purpose B image on the display 34 and allows the user to confirm the purpose B image.
  • step S140 the control unit 30 associates the image information of the purpose B image with the content of the image processing (including image analysis processing) performed for generating the purpose B image, and stores the information in the control unit 30. Then, the image processing is terminated.
  • the console 20, and the PACS 22 of the present embodiment have substantially the same configuration and operation as the radiographic imaging system 10, the console 20, and the PACS 22 of the above-described embodiments, Detailed description will be omitted.
  • an image on which a user performs a processing operation including a processing operation that is a takeover process is determined in advance, and the timing at which an image analysis process is performed on an image on which the user has not performed a processing operation is This is different from the application form of the first embodiment.
  • FIG. 18 shows an example of the flow of image processing (processing operation) in the control unit 30 of the console 20 of the present embodiment.
  • processing operation processing operation
  • the image processing (processing operation) for generating the purpose A image is the same as the application form of the first embodiment (see FIG. 7).
  • the control unit 30 of the console 20 reflects the processing operation C, which is the processing operation inherited from the original image, to display the target B first image.
  • the image analysis processing B is performed on the first purpose B image to generate the second purpose B image, and then the processing operation B is performed by the user to generate the purpose B image.
  • FIG. 19 shows a flowchart of an example of image processing executed by the control unit 30 of the console 20 of the present embodiment.
  • the image processing according to the present embodiment is preliminarily determined to perform processing operations including a processing operation to be a takeover process on an image for purpose A (purpose A first image).
  • the processing of step S106 and step S108 of the image processing according to the application form of the first embodiment is not provided.
  • the image processing of the first embodiment since the timing of the image analysis processing B is different from the application mode of the first embodiment, as shown in FIG. 19, the image processing of the first embodiment ( The process corresponding to step S104 of FIG. 7 is performed between step S120 and step S122.
  • control unit 30 of the present embodiment completes the generation of the purpose A image in the same manner as in the application mode of the first embodiment except that the process proceeds from step S102 to step S110 after step S102 from step S100 to step S118. At the same time, take over items are set.
  • step S120 subsequent to step S118 the processing operation C that is the takeover process is reflected on the original image to generate the first purpose B image.
  • step S121 corresponds to step S104 of the application form of the first embodiment.
  • the control unit 30 performs image analysis processing B on the first purpose B image to generate a second purpose B image.
  • step S122 to step S140 is the same as the application form of the first embodiment.
  • the control unit 30 After confirming the takeover item, the control unit 30 performs the image processing according to the user's processing operation B to generate the purpose B image, and then ends the main image processing.
  • step S121 is not limited to the present embodiment, and may be performed before step S130. Further, in the image processing of the present embodiment, after performing the image analysis processing B, the image processing according to the processing operation B is performed, but the order is reversed and the image processing according to the processing operation B is performed. Then, the image analysis process B may be performed.
  • the console 20, and the PACS 22 of the present embodiment have substantially the same configuration and operation as the radiographic imaging system 10, the console 20, and the PACS 22 of the above-described embodiments, Detailed description will be omitted.
  • the timing of the processing operation B (image processing B) and the image analysis processing B is replaced with the application form of the first embodiment.
  • FIG. 20 shows an example of the flow of image processing (processing operation) in the control unit 30 of the console 20 of the present embodiment.
  • processing operation processing operation
  • the image processing (processing operation) for generating the purpose A image is the same as the application form of the first embodiment (see FIG. 7).
  • the image processing (processing operation) for generating the purpose B image the user performs the processing operation B on the original image to generate the first purpose B image.
  • the processing operation C which is the processing operation taken over by the control unit 30, is reflected in the first purpose B image to generate the second purpose B image.
  • the control unit 30 performs image analysis processing B on the second purpose B image to generate a purpose B image.
  • FIG. 21 shows a flowchart of an example of image processing executed by the control unit 30 of the console 20 of the present embodiment.
  • the timing of the image analysis processing B and the processing operation B is replaced with the application mode of the first embodiment. Therefore, as shown in FIG. 21, the image of the first embodiment Processes corresponding to steps S120 to S128 of the process (see FIG. 7) are performed between steps S136 and S138. Moreover, the process corresponding to step S104 is performed before step S138.
  • processing operations including a processing operation to be a takeover process are performed in advance on an image for purpose A (purpose A first image) as in the third embodiment. It is stipulated. Therefore, as shown in FIG. 20, the processing of step S106 and step S108 of the image processing (see FIG. 7) according to the application form of the first embodiment is not provided.
  • control unit 30 of the present embodiment completes the generation of the purpose A image in the same manner as in the application mode of the first embodiment except that the process proceeds from step S102 to step S110 after step S102 from step S100 to step S118. At the same time, take over items are set.
  • control unit 30 of the present embodiment after step S118, the process proceeds to step S130.
  • the control unit 30 according to the present embodiment performs the image processing B according to the user's processing operation B by performing the image processing B according to the user's processing operation B in the same manner as the application of the first embodiment from step S130 to step S136. Generate an image.
  • steps S137-1 to S137-5 are the same as the processes in steps S137-1 to S137-5 of the image processing of the second embodiment, respectively.
  • the control unit 30 reflects the processing operation C, which is the takeover process, on the image that has been subjected to the image processing B according to the processing operation B, generates a second purpose B image, and takes it together with the second purpose B image.
  • the item is displayed on the display 34. Further, the control unit 30 determines whether there is a change in the takeover item. If there is no change in the takeover item, the control unit 30 proceeds to step S137-6. If there is a change in the takeover item, the control unit 30 responds to the change. The generated image is generated, and the process proceeds to step S137-6.
  • Step S137-6 corresponds to step S104 of the application form of the first embodiment.
  • the control unit 30 performs image analysis processing B on the second purpose B image to generate a purpose B image.
  • step S138 and step S140 are the same as the application form of the first embodiment.
  • the control unit 30 displays the purpose B image on the display 34 and allows the user to confirm the purpose B image.
  • step S140 the control unit 30 associates the image information of the purpose B image with the content of the image processing (including image analysis processing) performed for generating the purpose B image, and stores the information in the control unit 30. Then, the image processing is terminated.
  • the console 20, and the PACS 22 of the present embodiment have substantially the same configuration and operation as the radiographic imaging system 10, the console 20, and the PACS 22 of the above-described embodiments, Detailed description will be omitted.
  • the timings of the image analysis processing B and the processing operation B are interchanged with those of the fourth embodiment.
  • FIG. 22 shows an example of the flow of image processing (processing operation) in the control unit 30 of the console 20 of the present embodiment.
  • processing operation processing operation
  • the image processing (processing operation) for generating the purpose A image is the same as that in the fourth embodiment (see FIG. 20).
  • the image processing (processing operation) for generating the purpose B image the user performs the processing operation B on the original image to generate the first purpose B image.
  • the control unit 30 performs image analysis processing B on the first purpose B image to generate a second purpose B image.
  • the control unit 30 reflects the processing operation C, which is the inherited processing operation, on the second target B image, and generates a target B image.
  • FIG. 23 shows a flowchart of an example of image processing executed by the control unit 30 of the console 20 of the present embodiment.
  • the timing of the image analysis processing B and processing operation C is replaced with that of the fourth embodiment. Therefore, as shown in FIG. 23, the image processing of the fourth embodiment (FIG. 21) is performed before step S137-1.
  • the control unit 30 of the present embodiment completes the generation of the purpose A image and sets the takeover item in the same manner as in the fourth embodiment from step S100 to step S136, and further performs processing operation B.
  • the target B first image element is generated by performing corresponding image processing.
  • step S136 the process proceeds to step S137-0.
  • step S137-0 the control unit 30 performs image analysis processing B on the first purpose B image to generate a second purpose B image.
  • steps S137-1 to S137-5 are the same as the processes in steps S137-1 to S137-5 of the image processing of the fourth embodiment.
  • the control unit 30 reflects the processing operation C, which is the takeover process, for the second purpose B image, generates the purpose B image, and displays the takeover item on the display 34 together with the purpose B image. Furthermore, the control unit 30 determines whether or not there is a change in the takeover item. If there is no change in the takeover item, the control unit 30 proceeds to step S138. If there is a change in the takeover item, the image corresponding to the change is made. Is generated, and the process proceeds to step S138.
  • step S138 and step S140 are also the same as in the fourth embodiment.
  • the control unit 30 displays the purpose B image on the display 34 and allows the user to confirm the purpose B image.
  • step S140 the control unit 30 associates the image information of the purpose B image with the content of the image processing (including image analysis processing) performed for generating the purpose B image, and stores the information in the control unit 30. Then, the image processing is terminated.
  • the control unit 30 of the console 20 performs image processing corresponding to the user's processing operation on the original image, and one target image (the target A image in the above specific example). Is generated. Then, the control unit 30 takes over the processing operation for generating one target image as the processing operation for generating the other target image (the target B image in the above specific example), and reflects the succeeding processing operation. Image processing. Furthermore, the control unit 30 performs image processing according to the processing operation performed by the user to generate the other target image, and generates the other target image.
  • the control unit 30 of the console 20 of each of the above embodiments acquires the original image of the radiographic image acquired from the radiographic image capturing device 12.
  • the control unit 30 performs a predetermined image analysis process A to generate an image for the purpose A, and performs an image analysis process B to generate an image for the purpose B whose purpose is different from the purpose A.
  • the control unit 30 detects the processing operation performed by the user on the image for the purpose A, and generates an image for the purpose A by performing image processing according to the processing operation. Set the processing operation corresponding to the definition of the takeover condition as the takeover process.
  • the control unit 30 reflects the takeover process on the image for the purpose B. Further, the control unit 30 detects the processing operation performed by the user on the image for the purpose B and performs image processing according to the processing operation, thereby generating an image for the purpose B.
  • control unit 30 of the console 20 Since the control unit 30 of the console 20 according to each embodiment generates a plurality of images having different purposes from one original image, it is possible to reduce the exposure dose of the subject 18 and the restraint time. Moreover, according to each said embodiment, suppression of the deterioration of the tube used as the radiation irradiation source of the radiation irradiation apparatus 16 and reduction of the radiographer's imaging work can be aimed at.
  • control unit 30 of the console 20 of each of the above embodiments can take over the processing operation performed by the user for the image for one purpose for the image for the other purpose, 1 It is possible to reduce the trouble of performing the processing operation for each image, and to reduce the load of the processing operation of the user. According to each of the above-described embodiments, since the same processing operation is taken over, the processing operation desired to be performed on both target images in the same manner does not require fine adjustment, so that the processing operation load is reduced.
  • control unit 30 of the console 20 automatically determines a processing operation that takes time and sets it to the handover process, the processing load on the user is reduced.
  • control unit 30 of the console 20 of the present embodiment displays a list of takeover items and can set the takeover items by the user, only the processing operation desired by the user can be set as the takeover processing. Therefore, according to each of the above-described embodiments, it is possible to suppress the processing operation that the user does not want as the takeover process, and the occurrence of re-execution of the processing operation is suppressed.
  • control unit 30 of the console 20 of each of the above embodiments can define the type of processing operation and set it as a takeover process for each type, when the user sets the processing operation, Easy selection. Further, the image processing load of the control unit 30 of the console 20 is reduced.
  • the case where an image for one purpose (purpose A image) is generated and then the image for the other purpose (purpose B image) is generated is not limited.
  • the control unit 30 may switch to the other image in accordance with a user instruction or the like, and perform the processing operation on the other switched image.
  • the display and processing operations of both images may be switched between each other.
  • the control unit 30 may reflect the image on the other image.
  • image processing for each image may be stored in association with both images, or the original image and each image may be stored.
  • Image processing may be stored in association with each other.
  • control unit 30 displays both images at the same time and performs a predetermined takeover process or a processing operation instructed by the user as a takeover process on any of the images. You may reflect and display.
  • control unit 30 of the console 20 performs image processing.
  • all or some image processing may be performed by other devices.
  • image processing may be performed by the radiation image processing apparatus 50 of the PACS 22.
  • the image information of the purpose A image and the contents of the image processing (including image analysis processing) performed for generating the purpose A image are stored in association with each other, and Image information and the contents of image processing (including image analysis processing) performed for generating the purpose B image are stored in association with each other. In addition to these, it may be stored in association with the original image. Also, the image information (including image analysis processing) and the generation of the purpose B image are performed without generating the image information of the purpose A image and the image information of the purpose B image.
  • the image processing (including the image analysis processing) applied to may be stored in association with each other.
  • a recording medium such as a CD-ROM (Compact Disk Read Only Memory) or a USB (Universal Serial Bus) memory, It may be acquired from an external device or the like and stored.
  • the radiation of the present invention is not particularly limited, and X-rays, ⁇ -rays, and the like can be applied.
  • the configuration, operation, and the like of the radiographic image capturing system 10, the console 20, and the PACS 22 described in the above embodiments are examples, and can be changed according to the situation without departing from the gist of the present invention. Needless to say.

Landscapes

  • Engineering & Computer Science (AREA)
  • Quality & Reliability (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

 本発明は、ユーザの処理操作の負荷を軽減させることができる。すなわち、コンソールは、放射線画像撮影装置から取得した原画像を取得する。コンソールは、画像解析処理Aを施して目的Aのための画像を生成すると共に、画像解析処理Bを施して目的Bのための画像を生成する。コンソールは、目的Aのための画像に対してユーザが行った処理操作を検出して画像処理を施すことにより、目的Aのための画像を生成すると共に、予め定められた引継条件の定義に該当する処理操作を引継処理として設定する。コンソールは、引継処理を目的Bのための画像に反映させる。さらにコンソールは、目的Bのための画像に対してユーザが行った処理操作を検出して画像処理を施すことにより、目的Bのための画像を生成する。

Description

画像処理装置、画像処理システム、画像処理プログラム、及び画像処理方法
 本発明は、画像処理装置、画像処理システム、画像処理プログラム、及び画像処理方法に係る。本発明は、特に放射線画像の画像処理に用いられる画像処理装置、画像処理システム、画像処理プログラム、及び画像処理方法に関する。
 近年、放射線画像撮影装置により撮影された放射線画像を検査、診断、及び診察等に用いることが多くなり、放射線画像を読影する医師や技師等であるユーザの負荷が増加している。またユーザは、放射線画像に対して画像処理を行うのが一般的であるが、同様に画像処理の負荷が増加している。
 画像処理の負荷を軽減するための技術として、例えば、特開2005-301492号公報には、画像処理操作履歴を表示することにより、画像処理のやり直しを簡便に行うことができる画像処理履歴取得技術が記載されている。また例えば、特開2006-271800号公報には、選択された画像に対して異なる画像処理条件を適用した画像を表示させることにより、読影効率を向上させる技術が記載されている。
 近年、1つの被写体(例えば被検体の撮影部位)に対して目的が異なる複数の放射線画像を撮影して取得することが行われている。複数の放射線画像に対してそれぞれ画像処理を施す場合、画像処理を施させるために、ユーザが行う処理操作の負荷がさらに増加する。しかしながら、特開2005-301492号公報及び特開2006-271800号公報に記載の技術では、目的が異なる複数の放射線画像に対する処理操作の負荷を低減させることは困難であった。
 本発明は、ユーザの処理操作の負荷を軽減させることができる、画像処理装置、画像処理システム、画像処理プログラム、及び画像処理方法を提供する。
 本発明の画像処理装置は、放射線画像である原画像から、異なる画像処理が施された異なる複数の画像を生成する画像処理装置であって、原画像に対する1以上の処理操作を受け付けて、受け付けた処理操作に応じた第1画像処理を原画像に施して第1画像を生成する第1生成部と、受け付けた処理操作の中から選択された引継処理を原画像に反映させてから第1画像処理と異なる第2画像処理を施して第2画像を生成する、または、原画像に対して第2画像処理を施してから引継処理を反映させて第2画像を生成する第2生成部と、を備える。
 本発明の画像処理装置は、放射線画像である原画像に第1画像解析処理を施すことにより、第1画像を生成する第1生成部と、第1生成部で生成された第1画像に対する1以上の処理操作を受け付けて、受け付けた処理操作に応じた画像処理を第1画像に施す画像処理部と、原画像に第1画像解析処理と異なる第2画像解析処理を施すことにより第2画像を生成し、処理操作の中から選択された引継処理を、引継先となる第2画像が生成される前の原画像または第2画像に反映させる第2生成部と、を備える。
 また、本発明の画像処理装置は、処理操作を引継処理とするか否かを設定する引継処理設定部を備え、第2生成部は、引継処理設定部により設定された処理操作を引継処理として選択してもよい。
 また、本発明の画像処理装置は、引継処理を表示部に表示させる表示制御部を備え、第2生成部は、表示制御部により表示部に表示された引継処理を表す情報に応じて行われた指示を受け付ける指示受付部を備え、指示受付部で受け付けた指示に応じた引継処理を引継先に反映させてもよい。
 また、本発明の画像処理装置は、表示制御部は、処理操作のうち、第2生成部により引継処理として選択された処理操作のみを表示部に表示させてもよい。
 また、本発明の画像処理装置は、表示制御部は、処理操作のうち、第2生成部により非選択された処理操作を引継処理として設定させる表示を表示部に表示させてもよい。
 また、本発明の画像処理装置は、処理操作毎に処理操作が行われている操作時間、操作量、及び操作回数の少なくとも一つを検出する操作検出部を備え、第2生成部は、操作検出部で検出された操作時間、操作量、及び操作回数の少なくとも一つが予め定められた閾値以上の処理操作を引継処理として選択してもよい。
 また、本発明の画像処理装置は、操作検出部は、処理操作が複数種類有る場合は、検出された操作時間、操作量、及び操作回数の少なくとも一つを、種類毎に合算してもよい。
 本発明の画像処理装置は、放射線画像である原画像を取得して、処理条件の異なる画像処理を施すことにより、第1画像及び第2画像を生成する生成部と、生成部で生成された第1画像に対する処理操作を受け付けて、受け付けた処理操作に応じた画像処理を1つの画像に施す第1画像処理部と、第1画像処理部で受け付けた処理操作の中から選択され、かつ第2画像に対して引き継ぐ引継処理を引継先となる第2画像に反映させる反映部と、反映部により引継処理が反映された第2画像に対する処理操作を受け付けて、受け付けた処理操作に応じた第2画像処理を第2画像に施す第2画像処理部と、を備える。
 本発明の画像処理装置は、放射線画像である原画像を取得して、処理条件の異なる画像処理を施すことにより、第1画像及び第2画像を生成する生成部と、生成部で生成された第1画像に対する処理操作を受け付けて、受け付けた処理操作に応じた第1画像処理を第1画像に施す第1画像処理部と、第2画像に対する処理操作を受け付けて、受け付けた処理操作に応じた第2画像処理を第2画像に施す第2画像処理部と、第1画像処理部で受け付けた処理操作の中から選択され、かつ第2画像に対して引き継ぐ引継処理を第2画像処理部により第2画像処理が施された第2画像に反映させる反映部と、備える。
 本発明の画像処理装置は、放射線画像である原画像を取得して、第1画像解析処理を施すことにより、第1画像を生成する第1生成部と、第1生成部で生成された第1画像に対する処理操作を受け付けて、受け付けた処理操作に応じた第1画像処理を第1画像に施す第1画像処理部と、第1画像処理部で受け付けた処理操作の中から選択され、かつ原画像に対して引き継ぐ引継処理を原画像に反映させる反映部と、反映部により引継処理が反映された原画像に対して、第2画像解析処理を施すことにより、第2画像を生成する第2生成部と、第2画像に対する処理操作を受け付けて、受け付けた処理操作に応じた第2画像処理を第2画像に施す第2画像処理部と、を備える。
 本発明の画像処理装置は、放射線画像である原画像を取得して、第1画像解析処理を施すことにより、第1画像を生成する第1生成部と、第1生成部で生成された第1画像に対する処理操作を受け付けて、受け付けた処理操作に応じた第1画像処理を画像に施す第1画像処理部と、第2画像に対する処理操作を受け付けて、受け付けた処理操作に応じた第2画像処理を原画像に施す第2画像処理部と、第1画像処理部で受け付けた処理操作から、原画像に対して引き継ぐ引継処理を選択し、選択した引継処理を第2画像処理部により第2画像処理が施された原画像に反映させる反映部と、反映部により引継処理が反映された原画像に対して、第2画像解析処理を施すことにより、第2画像を生成する第2生成部と、を備える。
 本発明の画像処理装置は、放射線画像である原画像を取得して、第1画像処理を施すことにより、第1画像を生成する第1生成部と、第1生成部で生成された第1画像に対する処理操作を受け付けて、受け付けた処理操作に応じた第1画像処理を第1画像に施す第1画像処理部と、第2画像に対する処理操作を受け付けて、受け付けた処理操作に応じた第2画像処理を原画像に施す第2画像処理部と、第2画像処理部により第2画像処理が施された原画像に対して、第2画像解析処理を施すことにより、第2画像を生成する第2生成部と、第1画像処理部で受け付けた処理操作から、第2画像に対して引き継ぐ引継処理を選択し、選択した引継処理を第2生成部により生成された第2画像に反映させる反映部と、を備える。
 本発明の画像処理システムは、本発明の画像処理装置と、画像処理装置により画像処理が施された画像を表示する表示部と、画像処理装置に対して処理操作を行う操作部と、を備える。
 本発明の画像処理プログラムは、本発明の画像処理装置の各部としてコンピュータを機能させるためのものである。
 本発明の画像処理方法は、放射線画像である原画像から、異なる画像処理が施された異なる複数の画像を生成する画像処理装置の画像処理方法であって、第1生成部により、原画像に対する1以上の処理操作を受け付けて、受け付けた処理操作に応じた第1画像処理を原画像に施して第1画像を生成し、第2生成部により、処理操作の中から選択された引継処理を原画像に反映させてから第1画像処理と異なる第2画像処理を施して第2画像を生成する、または、原画像に対して第2画像処理を施してから引継処理を反映させて第2画像を生成する。
 本発明の画像処理法は、第1生成部により、放射線画像である原画像に第1画像解析処理を施すことにより、第1画像を生成し、画像処理部により、第1生成部で生成された第1画像に対する1以上の処理操作を受け付けて、受け付けた処理操作に応じた画像処理を第1画像に施し、第2生成部により、原画像に第1画像解析処理と異なる第2画像解析処理を施すことにより第2画像を生成し、処理操作の中から選択された引継処理を、引継先となる第2画像が生成される前の原画像または第2画像に反映させる。
 上記本発明によれば、ユーザの処理操作の負荷を軽減させることができる。
第1の実施の形態に係る放射線画像撮影システムの一例の概略構成を示す概略構成図である。 第1の実施の形態に係るコンソール及びPACSの一例の概略構成図である。 第1の実施の形態の基本形態に係るコンソールにおける画像処理(処理操作)の流れの一例を示す説明図である。 第1の実施の形態の基本形態に係るコンソールの制御部によって実行される画像処理の一例のフローチャートである。 第1の実施の形態の基本形態に係るコンソールにおける画像処理(処理操作)の流れのその他の一例を示す説明図である。 第1の実施の形態の応用形態に係るコンソールにおける画像処理(処理操作)の流れの一例を示す説明図である。 第1の実施の形態の応用形態に係るコンソールの制御部によって実行される画像処理の一例のフローチャートである。 第1の実施の形態に係る目的A第1画像及び目的B第1画像の表示の一例を示す説明図である。 第1の実施の形態の応用形態に係る画像処理で行われる操作画像処理の一例のフローチャートである。 第1の実施の形態の応用形態における処理画像及び処理操作をユーザが行うための各種表示の一例を示す説明図である。 第1の実施の形態の応用形態における確認用の目的A画像の表示の一例を示した説明図である。 第1の実施の形態の応用形態に係る引継項目設定処理の一例のフローチャートである。 第1の実施の形態の応用形態における引継項目の一覧の表示の一例を示す説明図である。 第1の実施の形態の応用形態における目的B第2画像及び引継項目の表示の一例を示す説明図である。 第1の実施の形態の応用形態における確認用の目的B画像の表示の一例を示した説明図である。 第2の実施の形態に係るコンソールにおける画像処理(処理操作)の流れの一例を示す説明図である。 第2の実施の形態のコンソールの制御部によって実行される画像処理の一例のフローチャートである。 第3の実施の形態に係るコンソールにおける画像処理(処理操作)の流れの一例を示す説明図である。 第3の実施の形態のコンソールの制御部によって実行される画像処理の一例のフローチャートである。 第4の実施の形態に係るコンソールにおける画像処理(処理操作)の流れの一例を示す説明図である。 第4の実施の形態のコンソールの制御部によって実行される画像処理の一例のフローチャートである。 第5の実施の形態に係るコンソールにおける画像処理(処理操作)の流れの一例を示す説明図である。 第5の実施の形態のコンソールの制御部によって実行される画像処理の一例のフローチャートである。
 以下、各図面を参照して本実施の形態の一例について説明する。
 [第1の実施の形態]
 まず、本実施の形態の画像処理装置として機能するコンソールにより放射線画像の画像処理を行う放射線画像撮影システムの概略構成について説明する。図1は、本実施の形態の放射線画像撮影システムの一例の概略構成図である。
 放射線画像撮影システム10は、放射線画像撮影装置12と、放射線照射装置16と、コンソール20と、を備えている。コンソール20と放射線画像撮影装置12及び放射線照射装置16とは、有線及び無線の少なくとも一方により接続されている。
 放射線照射装置16は、放射線(例えばエックス線(X線)等)を被検体18に照射する機能を有している。放射線画像撮影装置12は、放射線照射装置16から照射され、被検体18を透過した放射線を検出する放射線検出器14を備えている。本実施の形態の放射線検出器14は、特に限定されない。例えば、放射線検出器14は、放射線を変換した光を電荷に変換する間接変換方式の放射線検出器であってもよい。また、例えば、放射線検出器14は、放射線を直接電荷に変換する直接変換方式の放射線検出器であってもよい。
 コンソール20は、外部のシステム(例えば、RIS:Radiology Information System:放射線情報システム)から入力された指示(撮影メニュー)に基づいて、医師や放射線技師等であるユーザの操作により放射線画像の撮影を行う機能を有している。また、本実施の形態のコンソール20は、放射線画像撮影装置12から放射線画像を取得し、PACS(Picture Archiving and Communication System:画像保存通信システム)22に出力する機能を有している。
 放射線画像の撮影を行う際は、コンソール20の制御に基づいたタイミングによって、放射線照射装置16から照射され撮影位置に位置している被検体18を透過することで画像情報を担持した放射線が放射線画像撮影装置12の放射線検出器14に照射される。放射線画像撮影装置12は、放射線検出器14により照射された放射線を検出し、検出された放射線に応じた放射線画像を生成して、コンソール20に出力する。撮影された放射線画像は、コンソール20から画像処理システムの一例であるPACS22に出力され、PACS22によって管理される。
 本実施の形態の画像処理装置は、コンソール20に備えられており、放射線画像の画像処理を行う機能を有している。なお、以下では、「原画像(詳細後述」や「目的A画像(詳細後述)」等、複数種類の画像について総称する場合は、照射された放射線に基づいた画像であることから、「放射線画像」と総称する。
 図2は、画像処理機能を説明するためのコンソール20の概略構成図の一例である。なお、画像処理装置はPACS22に備えられていてもよい。また、本実施の形態において「画像処理」とは、画質の変換、回転、反転、マーカ重畳、及びコメント記入等を含み、画像(放射線画像を含む各種画像)に対して施される処理全般のことをいう。
 本実施の形態のコンソール20は、サーバー・コンピュータとして構成されており、制御部30、ディスプレイドライバ32、ディスプレイ34、操作入力検出部36、操作パネル38、I/O(Input Output)部40、I/F(Interface)部42、及びI/F部44を備えている。
 制御部30は、コンソール20全体の動作を制御する機能を有しており、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、及び記憶部を備えている。CPUは、コンソール20全体の動作を制御する機能を有している。ROMには、CPUで使用される画像処理プログラムを含む各種プログラム等が予め記憶されている。RAMは、各種データを一時的に記憶する機能を有している。記憶部は、例えば、HDD(Hard Disk Drive)であり、各種データを記憶して保持する機能を有している。記憶部は、詳細を後述する処理操作の種類の定義や引継ぎ条件の定義等を記憶する機能を有している。また、コンソール20は、各種画像に対して画像処理を施す機能を有している。
 ディスプレイドライバ32は、ディスプレイ34への各種情報の表示を制御する機能を有している。本実施の形態のディスプレイ34は、撮影メニューや撮影された放射線画像等を表示する機能を有している。操作入力検出部36は、操作パネル38に対する操作状態や処理操作を検出する機能を有している。操作パネル38は、放射線画像の撮影や撮影された放射線画像の画像処理に関する処理操作を、ユーザが入力するために用いられる。本実施の形態では操作パネル38は、例えば、タッチパネル、タッチペン、複数のキー、及びマウス等を含んでいる。なお、操作パネル38をタッチパネルとする場合は、ディスプレイ34と同一としてもよい。
 また、I/O部40及びI/F部42は、無線通信等により、PACS22の放射線画像処理装置50との間で各種情報の送受信を行う機能を有している。また、I/F部44は、放射線画像撮影装置12及びRISとの間で、各種情報の送受信を行う機能を有している。
 制御部30、ディスプレイドライバ32、操作入力検出部36及びI/O部40は、システムバスやコントロールバス等のバス46を介して相互に情報等の授受が可能に接続されている。従って、制御部30は、ディスプレイドライバ32を介したディスプレイ34への各種情報の表示の制御、及びI/F部42を介したPACS22との各種情報の送受信の制御を各々行うことができる。
 本実施の形態のPACS22は、放射線画像処理装置50、放射線画像読影装置52、及び記憶部54を備えている。
 本実施の形態の放射線画像処理装置50は、コンソール20からの指示に基づいて、放射線画像撮影装置12から受信した放射線画像の記憶部54への記憶を制御する機能を有している。放射線画像処理装置50は、放射線画像読影装置52への各種画像の表示を制御している。
 本実施の形態の放射線画像処理装置50は、制御部60、I/F部62、及び記憶部64を備えている。
 制御部60は、PACS22全体を制御する機能を有している。制御部60は、CPU、ROM、RAM、及び記憶部を備えている。CPUは、PACS22の動作を制御する機能を有している。ROMには、CPUで使用される各種プログラム等が予め記憶されている。RAMは、各種データを一時的に記憶する機能を有している。記憶部は、HDD等であり、各種データを記憶して保持する機能を有している。
 記憶部64は、コンソール20から出力された放射線画像を記憶する機能を有している。記憶部64としては、例えば、HDD等が挙げられる。
 I/F部62は、無線通信等により、コンソール20との間で各種情報の送受信を行う機能を有している。
 制御部60、及び記憶部64は、システムバスやコントロールバス等のバス66を介して相互に情報等の授受が可能に接続されている。
 本実施の形態の記憶部54は、放射線画像や、放射線画像処理装置50によって画像処理された各種画像、及び各種画像に関係する情報を記憶する機能を有している。記憶部54としては、例えば、HDD等が挙げられる。
 また、本実施の形態の放射線画像読影装置52は、放射線画像や放射線画像処理装置50によって画像処理された各種画像を読影者が読影するための機能を有する装置であり、特に限定されないが、いわゆる、読影ビューワやコンソール、及びタブレット端末等が挙げられる。本実施の形態の放射線画像読影装置52は、パーソナル・コンピュータである。放射線画像読影装置85は、コンソール20や放射線画像処理装置50と同様に、CPU、ROM、RAM、記憶部、ディスプレイドライバ、ディスプレイ58、操作入力検出部、操作パネル56、I/O部、及びI/F部を備えている。なお、図2では、記載が煩雑になるのを避けるため、上記構成のうち、ディスプレイ58及び操作パネル56のみを示し、他の記載を省略している。
 本実施の形態の放射線画像撮影システム10では、1回の撮影により目的が異なる複数の放射線画像を取得することができる。なお、本実施の形態において「1回の撮影」とは、撮影メニューまたはユーザにより設定された1回分(一連)の撮影のことをいい、撮影される放射線画像の枚数は、1枚である場合もあるし、複数枚である場合もある。また、本実施の形態において「1回の撮影」とは、静止画及び動画のいずれであってもよい。なお、以下では、1回の撮影により目的が異なる複数の放射線画像を撮影することを「多目的撮影」という。
 本実施の形態において「目的が異なる複数の画像」とは、特に限定されないが、検査の目的や、医師等の読影者が異なる診察・診断に用いるための放射線画像のことをいう。例えば、健康診断における一般の胸部放射線撮影による放射線画像と、塵肺検査用の放射線画像とが挙げられる。また例えば、通常の一般検診用の放射線画像と、特殊用途用画像とが挙げられる。特殊用途用画像としては、人工物の確認用画像、カテーテル強調画像、及びガーゼ強調画像等が挙げられるが特に限定されない。
 本実施の形態のコンソール20は、撮影メニューまたはユーザにより多目的撮影が指示された場合、1回の撮影によって得られた放射線画像を原画像として、原画像に対して異なる画像処理を施すことにより、目的が異なる複数の放射線画像を生成する。なお、本実施の形態において「原画像」とは、放射線画像撮影装置12で撮影された放射線画像に対して、目的に関係なく一律に全ての放射線画像に施すことが予め定められた画像処理を施した放射線画像のことをいう。
 なお、多目的撮影によって生成された目的が異なる複数の放射線画像と、多目的撮影の原画像と、多目的撮影ではない撮影(1回の撮影によって得られた画像から1種類の放射線画像を生成する場合の撮影)によって生成された放射線画像とは、放射線画像の見た目では判別がつかない懸念がある。本実施の形態では、両者を区別するための識別子を各放射線画像(原画像も含む)に対応付けておき、設定やユーザの所望に応じてディスプレイ34に表示させるようにしている。識別子は、放射線画像がどのように撮影されたいずれの画像であるかについてユーザが認識できるものであれば特に限定されず、マーク、番号、及び名称等のいずれであってもよい。
 以下、図面を参照して本実施の形態のコンソール20の、多目的撮影における画像処理について説明する。なお、以下では、具体的一例として、多目的撮影により一般の胸部放射線撮影用の画像(目的A画像)と、塵肺検査用の画像(目的B画像)とを生成する場合について説明する。
 まず、コンソール20の多目的撮影における画像処理の基本形態について説明する。
 図3には、本実施の形態のコンソール20における基本形態に係る画像処理(処理操作)の流れの一例を示す。また、図4には、本実施の形態のコンソール20の制御部30によって実行される画像処理の一例のフローチャートを示す。本実施の形態のコンソール20では、制御部30がROMに記憶されている画像処理プログラムを実行することにより、本発明の各部として機能して図4に示した画像処理を実行する。
 なお、本実施の形態では、ユーザが、コンソール20の操作パネル38により処理操作を行う場合について説明する。以下の画像処理においてコンソール20は、各種画像をディスプレイ34に表示させる。
 ステップS10では、制御部30が、原画像を取得する。本実施の形態では、制御部30が、放射線画像撮影装置12から放射線検出器14で撮影された放射線画像を原画像として取得する。
 次のステップS12では、制御部30はユーザにより選択された処理画像を受け付ける。具体的には、本実施の形態では、制御部30は、目的A画像及び目的B画像のいずれのためにユーザが処理操作を行うかを受け付ける。なお、目的A画像及び目的B画像のいずれのめにユーザが処理操作を施すかが予め定められている場合は、ステップS12の処理を省略すればよい。
 次のステップS14では、制御部30は、処理画像(原画像)をディスプレイ34に表示させる。なお、「処理画像」とは、ユーザの処理操作の対象となる画像をいい、本ステップでは、原画像のことをいう。本実施の形態では、処理画像と共に、処理操作をユーザが行うための各種表示をディスプレイ34に行わせる。なお、以下では説明の便宜上、処理画像である原画像に対してユーザが処理操作を行い、目的A画像を生成する場合について説明する。
 ユーザは、目的A画像を生成するために複数の処理操作を行うが、目的Aのためのみの処理操作、及び目的B画像の生成のために引き継いで反映させる処理操作の2種類の処理操作を行う。
 次のステップS16では、制御部30は、処理操作が有るか否かを判断する。処理操作が有るまで、待機状態となり、一方、操作入力検出部36が、処理操作を検出した場合等は、ステップS18へ進む。
 ステップS18では、制御部30は、操作入力検出部36が検出した処理操作に応じた、画像処理を行い、画像処理後の画像をディスプレイ34に表示させる。
 次のステップS20では、制御部30は、処理操作を終了するか否かを判断する。終了しない場合は、ステップS16に戻り、本処理を繰り返す。一方、終了する場合は、ステップS22へ進む。
 図3に示した具体的一例では、目的A画像を生成するために、原画像に対して、ユーザは、処理操作A、AA、及びAAAの3種類を行っている。そのため、制御部30は、処理操作Aに応じて原画像に対して画像処理Aを行い目的A第1画像を生成してディスプレイ34に表示する。さらに、制御部30は、処理操作AAに応じて目的A第1画像に対して画像処理AAを行い、目的A第2画像を生成してディスプレイ34に表示する。さらに、制御部30は、処理操作AAAに応じて目的A第2画像に対して画像処理AAAを行い、目的A画像を生成してディスプレイ34に表示する。従って、ステップS20で肯定された場合は、ディスプレイ34には、目的A画像が表示された状態になる。
 ステップS22では、制御部30は、目的A画像の画像情報と、目的A画像の生成のために施した画像処理(A、AA、及びAAA)の内容とを対応付けて制御部30内の記憶部に記憶させる。
 次のステップS24では、制御部30は、引継項目に設定された処理操作(引継処理)を原画像に反映させて、目的B第1画像を生成する。図3に示した具体的一例では、目的B画像を生成するために、原画像に対して、処理操作AAを引き継いでいる。そのため、制御部30は、原画像に処理操作AAを反映させて目的B第1画像を生成する。
 次のステップS26では、制御部30は、目的B第1画像をディスプレイ34に表示させる。
 次のステップS28では、制御部30は、処理操作の有無を判断する。処理操作が無い場合は待機状態となる、一方、処理操作が有った場合は、ステップS30に進み、処理操作に応じた画像処理を施す。
 次のステップS32では、制御部30は、処理操作を終了するか否か判断する。処理操作を終了しない場合は、ステップS28に戻り、処理操作を繰り返す。一方、処理操作を終了する場合は、ステップS34へ進む。図3に示した具体的一例では、目的B画像を生成するために、目的B第1画像に対して、ユーザは、処理操作Bを行っている。そのため、制御部30は、処理操作Bに応じて目的B第1画像に対して画像処理Bを行い目的Bを生成する。
 ステップS34では、ディスプレイ34に目的B画像を表示させる。次のステップS36では、制御部30は、目的B画像の画像情報と、目的B画像の生成のために施した画像処理(処理操作AA、及び処理操作B)の内容とを対応付けて制御部30内の記憶部に記憶させた後、本画像処理を終了する。なお、画像処理により生成された目的A画像、及び目的B画像の出力先がそれぞれ予め定められている場合、またはユーザにより指定された場合は、各々出力先(例えば、PACS22の放射線画像処理装置50や放射線画像読影装置52等)に出力させればよい。
 なお、上記基本形態では、目的A画像を生成するためにユーザにより行われた処理操作のうちAAを、目的B画像を生成するための処理操作として引き継いだが、引き継ぐ処理操作は、限定されない。引き継ぐ処理操作は、処理操作Aであってもよいし、処理操作AAAであってもよい。
 なお、上記基本形態では、目的B画像を生成するための画像処理として、処理操作AAに応じた画像処理AAを行った後に、処理操作Bに応じた画像処理Bを行っているが、画像処理(処理操作)の順番は、これに限らない。
 図5には、本実施の形態のコンソール20における基本形態に係る画像処理(処理操作)の流れのその他の一例を示す。図5に示した場合では、まず、制御部30は、原画像に上記処理操作Bに応じて画像処理を行い、目的B第1画像を生成する。その後、制御部30は、目的A画像を生成するための処理操作から引き継がれた処理操作AAに応じた画像処理AAを目的B第1画像に対して行い、目的B画像を生成する。この場合の制御部30で行われる画像処理の流れとしては、例えば、図4に示した画像処理のステップS24と、ステップ28~S32とを入れ替えればよい。
 このように、本実施の形態の基本形態では、コンソール20の制御部30は、原画像にユーザの処理操作に応じた画像処理を行い、一方の目的画像(上記具体例では、目的A画像)を生成する。そして、制御部30は、一方の目的画像を生成するための処理操作を他方の目的画像(上記具体例では、目的B画像)を生成するための処理操作として引継ぎ、引き継いだ処理操作を反映させて画像処理を行う。さらに、制御部30は、他方の目的画像を生成するためにユーザが行った処理操作に応じた画像処理を行い他方の目的画像を生成する。
 次に、本実施の形態の応用形態に係る画像処理について説明する。図6には、本実施の形態のコンソール20における応用形態に係る画像処理(処理操作)の流れの一例を示す。また、図7には、本実施の形態のコンソール20の制御部30によって実行される画像処理の一例のフローチャートを示す。本実施の形態のコンソール20では、制御部30がROMに記憶されている画像処理プログラムを実行することにより、本発明の各部として機能して図7に示した画像処理を実行する。なお、本実施の形態において「画像解析処理」とは、コンソール20が自動的に(ユーザの指示無く)施す画像処理のことをいう。
 ステップS100では、制御部30は、原画像を取得する。
 次のステップS102では、制御部30は、画像解析処理Aを行って、目的A第1画像を生成する。また、次のステップS104では、制御部30は、画像解析処理Bを行って、目的B第1画像を生成する。本実施の形態において画像解析処理A及び画像解析処理Bは、原画像から目的A画像及び目的B画像を生成するために、予め定められた画像解析処理である。なお、画像解析処理A及び画像解析処理Bは、目的に応じて定められる他は、特に限定されない。例えば、画像解析処理A及び画像解析処理Bは、全く種類が異なる画像処理であってもよいし、同一種類(例えば階調処理)であるがパラメータが異なる画像処理であってもよい。
 次のステップS106では、制御部30は、目的A第1画像及び目的B第1画像をディスプレイ34に表示させる。コンソール20は、表示を行うことにより、いずれの画像に対して処理操作を行うかユーザに選択させる。
 図8には、目的A第1画像及び目的B第1画像の表示の一例を示す。図5に示した一例では、目的A第1画像70A、目的B第1画像70B、目的A第1画像を選択するためのチェックボックス72A、目的B第1画像を選択するためのチェックボックス72B、終了ボタン74が表示される。ユーザはチェックボックス72A及びチェックボックス72Bのいずれかをチェックすることにより、処理操作を行う画像を選択する。図8では、チェックボックス72Aがチェックされ、目的A第1画像が選択された状態を示している。ユーザによる選択は、終了ボタン74がユーザによりボタンダウンされることにより完了する。
 なお、本実施の形態では、目的A第1画像70A及び目的B第1画像70Bを表示させたが、画像を表示せずにチェックボックス72A及びチェックボックス72Bを表示させてもよい。
 ステップS108では、制御部30は、ユーザにより選択された処理画像(目的A第1画像70A及び目的B第1画像70Bのいずれか)を受け付ける。なお、目的A第1画像及び目的B第2画像のいずれに対してユーザが処理操作を施すかが予め定められている場合は、ステップS106及びステップS108の処理を省略すればよい。
 次のステップS110では、制御部30は、処理画像をディスプレイ34に表示させる。なお、本実施の形態では、制御部30は、処理画像と共に、処理操作をユーザが行うための各種表示をディスプレイ34に行わせる。なお、以下では説明の便宜上、処理画像を目的A第1画像70Aとした場合について説明する。
 図10には、本実施の形態における処理画像及び処理操作をユーザが行うための各種表示の一例を示す。図10に示した一例では、目的A第1画像70Aと、終了ボタン74と、処理操作選択部76と、パラメータ表示部78と、が表示されている。また、図10に示した一例では、処理操作選択部76に、ユーザが処理操作の種類を選択するための各種処理操作に応じたアイコンが表示される。図10に示した一例の処理操作選択部76には、回転、移動、拡大、トリミング、及び濃度や輝度等を表すヒストグラム等を選択するためのアイコンが表示されている。ユーザは、操作パネル38により処理操作選択部76から処理操作を選択し、目的A第1画像70A上で処理操作を行う。パラメータ表示部78には、ユーザが行った処理操作の度合い(パラメータ)が表示される。なお、ユーザが行う処理操作は図10に示した一例に限定されない。
 ユーザは、目的A第1画像70Aに対して、目的Aのためのみの処理操作、及び目的Bのための画像(目的B第1画像70B)にも処理を引き継いで反映させる処理操作の2種類の処理操作を行う。本実施の形態では、2種類の処理操作を区別する場合は、目的Aのためのみの処理操作を「処理操作A」、処理操作Aによりコンソール20が施す画像処理を「画像処理A」という。また、目的Bのための画像に対して引き継ぐ処理操作を「処理操作C」、処理操作Cによりコンソール20が施す画像処理を「画像処理C」という。
 次のステップS112では、制御部30は、ユーザの処理操作に応じた画像処理を施す操作画像処理を行う。ステップS112で行われる操作画像処理の一例のフローチャートを図9に示す。
 ステップS200では、制御部30は、処理操作が開始されたか否か判断する。本実施の形態では、例えば、処理操作選択部76で処理操作が選択され、目的A第1画像70A上で何らかの操作が行われた場合に、処理操作が開始されたと判断する。具体的一例としては、目的A第1画像70A上で、操作パネル38のマウスのボタンダウンを検出した場合に処理操作が開始されたと判断することが挙げられる。処理操作が開始されていない場合は待機状態となり、処理操作が開始されるとステップS202へ進む。
 ステップS202では、制御部30は、操作時間、操作量、及び操作回数の少なくとも一つのカウントを図示を省略したカウンタにより開始する。いずれをどのようにカウントするかを定義した計測ルールは操作の種類毎に予め定めておけばよい。なお、計測ルールは、ユーザにより設定または選択が可能であってもよく、特に限定されない。
 ステップS204では、制御部30は、処理操作に応じた画像処理を目的A第1画像70Aに施し、画像処理を施された目的A第1画像70A(処理画像)をディスプレイ34に表示させる。すなわち、ユーザが行う処理操作に応じた画像が順次生成され、図10に示したディスプレイ34の目的A第1画像70Aに替わり順次表示されていく。
 次のステップS206では、制御部30は、処理操作が終了したか否か判断する。具体的一例としては、ユーザ行った操作パネル38のマウスのボタンダウンを受けて制御部30が処理操作の開始を検出した場合は、ボタンアップの時点を処理操作の終了として判断することが挙げられる。終了していない場合は、ステップS204に戻り処理を繰り返す。一方、終了した場合は、ステップS208へ進み、ステップS208では、カウントを停止する。
 次のステップS210では、制御部30は、処理操作の種類とカウント値とを対応付けて制御部30内の記憶部に記憶させる。本実施の形態では、具体的一例として画像を回転する処理操作を、15度右回転(1秒)、10度左回転(10秒)、15度右回転(5秒)、及び30度右回転(0.5秒)の4回行った場合を挙げる。処理内容としては、「15度右回転1秒」、「10度左回転10秒」、「15度右回転5秒」、及び「30度右回転0.5秒」の4つが記憶される。また、さらにユーザが処理操作として、マークの追加を20秒、コメント追加を10秒、濃度補正を1時間行った場合を具体的一例とする。処理内容としては、「マーク追加20秒」、「コメント追加10秒」、及び「濃度補正1時間」の3種類が記憶される。
 次のステップS212では、制御部30は、ユーザによる処理操作が終了されたか否か判断する。本実施の形態では、図10に示したディスプレイ34に表示された終了ボタン74がユーザにより指示されたことを制御部30が検出した場合に、終了すると判断する。終了しない場合は、ステップS200に戻り、新たな処理操作について制御部30は、ステップS200~ステップS210の処理を繰り返す。一方、終了ボタン74がユーザにより指示されたことを制御部30が検出した場合は、本操作画像処理を終了し、画像処理(図7参照)のステップS114へ進む。
 本実施の形態では、操作画像処理の終了により、目的A画像の生成が終了するため、ステップS114では、制御部30は、ディスプレイ34に目的A画像を表示させて、ユーザに目的A画像を確認させる。図11には、本実施の形態における確認用の目的A画像の表示の一例を示す。図11に示した一例では、目的A画像と、終了ボタン74と、修正ボタン75と、が表示されている。本実施の形態の制御部30では、終了ボタン74がボタンダウンされたことを検出することにより、目的A画像の生成を完了する。また、本実施の形態のコンソール20では、図7では記載を省略したが修正ボタン75がボタンダウンされたことを制御部30が検出した場合は、ステップS112の処理を再び行って、目的A画像の修正を行う。
 終了ボタン74がボタンダウンされたことを制御部30が検出するとステップS116へ進む。ステップS116では、制御部30は、目的A画像の画像情報と、目的A画像の生成のために施した画像処理(画像解析処理を含む)の内容とを対応付けて制御部30内の記憶部に記憶させる。
 次のステップS118では、制御部30は、目的A第1画像70Aに施した処理操作のうち、目的B第1画像70Bに対して引き継ぐ処理操作を設定する引継項目設定処理を行う。図12には、本実施の形態の引継項目設定処理の一例のフローチャートを示す。
 ステップS300では、制御部30は、目的A第1画像70A画像に対してなされた種類が同一の処理操作のカウント値を合算する。本実施の形態では、ステップS116の処理により記憶させた処理内容のうちから種類が同一の処理操作のカウント値を合算する。
 処理操作の種類は予め定められており、処理操作の種類の定義は、予め記憶部64に記憶されている。なお、処理操作の種類の定義は、ユーザによる設定、または選択が可能であってもよい。処理操作の種類として「回転」が定義されている際の上記具体的一例では、処理操作の種類が「回転」である処理操作が4つ記憶されているため、カウント値(ここでは度数)を合算し、50度右回転を16.5秒とする。
 次のステップS302では、制御部30は、カウント値と閾値とを比較する。本実施の形態の制御部30では、処理操作の種類毎に、時間を要する処理操作、操作量が多い処理操作、及び操作回数が多い処理操作のいずれか1つの引継ぎ条件に当てはまる処理操作を手間がかかる処理操作であると判別して目的B第1画像70Bに対する処理操作として引き継ぐ。
 本実施の形態では、具体的一例として、引継ぎの条件(閾値)として回転が10秒以上、マーク追加は30秒以上、コメント追加は1分以上、濃度補正は引き継がないことが予め定義され、制御部30内の記憶部に記憶されている。なお、引継ぎの条件の定義は、ユーザによる設定、または選択が可能であってもよい。
 ステップS302では、制御部30は、引継ぎ条件である閾値とカウント値とを比較し、次のステップS304では、制御部30は、カウント値が閾値以上の処理操作(種類毎)を引継項目として設定する。なお、本実施の形態のコンソール20では、制御部30内に設定を記憶する設定記憶部(図示省略)が設けられており、設定記憶部に設定を記憶させることにより、引継項目の設定が行われる。本実施の形態では、回転のカウント値が閾値以上であり、他の処理操作(マーク追加、コメント追加、及び濃度補正)は閾値未満、または引き継がないため、回転のみを引継項目として設定する。図7に例示した画像処理の流れにおいては、マーク追加、コメント追加、及び濃度補正が処理操作Aに対応し、回転が処理操作Cに対応する。
 次のステップS306では、制御部30は、引継項目の一覧を作成し、ディスプレイ34に表示させる。図13には、本実施の形態における引継項目の一覧の表示の一例を示す。引継項目の一覧の表示の仕方は、ユーザに、引継項目を確認させることができればよく、さらに、ユーザが引継項目の設定を行うことができればよく、特に限定されない。
 図13(1)に例示した引継項目一覧では、ユーザが行った処理操作の種類一覧を表示し、ステップS304で設定した引継項目がいずれであるかをチェックボックスにチェックすることにより示している。ユーザは、チェックされている引継項目のうち引継ぎが不要である処理操作に対しては、チェックボックスのチェックを外し、チェックされていない引継項目のうち引継ぎを要する処理操作に対しては、チェックボックスにチェックを行うことにより引継項目の設定を行える。
 また、図13(2)に例示した引継項目一覧では、ユーザが行った処理操作の種類一覧を表示し、ステップS304で設定した引継項目がいずれであるかをチェックボックスにチェックすることにより示している。さらに、図13(2)に示した場合では、既に設定(チェック)されている引継項目についてはユーザによる変更が不可能となっている。ユーザは、チェックされていない引継項目のうち引継ぎを要する処理操作に対しては、チェックボックスにチェックを行うことにより引継項目の設定を行える。
 また、図13(3)に例示した引継項目一覧では、ステップS304で設定した引継項目のみを表示している。ユーザは、チェックされている引継項目のうち引継ぎが不要である処理操作に対しては、チェックボックスのチェックを外すことにより引継項目の設定を行える。
 また、図13(4)に例示した引継項目一覧では、ステップS304で設定した引継項目ではない処理操作、すなわち引き継がない処理操作の項目のみを表示している。ユーザは、チェックボックスにチェックを行うことにより、引き継がないとされている処理操作を引継項目に設定することができる。
 次のステップS308では、制御部30は、ユーザにより引継項目の変更が有ったか否か判断する。本実施の形態では、図13に例示した引継項目の一覧の表示のいずれかを行っているため、チェックボックスへの指示を検出した場合に、制御部30は、引継項目が変更されたと判断する。引継項目が変更されなかった場合は、本引継項目設定処理を終了し、画像処理(図7参照)のステップS120へ進む。一方、引継項目が変更された場合は、ステップS310へ進む。
 ステップS310では、制御部30は、ステップS308で検出した変更に応じて、制御部30内の設定記憶部に記憶されている設定を変更した後、本引継項目設定処理を終了し、画像処理(図7参照)のステップS120へ進む。
 ステップS120では、制御部30は、コンソール20は、引継項目に設定された処理操作(引継処理)を目的B第1画像70Bに反映させて、目的B第2画像を生成する。本実施の形態では、制御部30は、回転が引き継がれたため、目的B第1画像70Bを回転(右50度)させて目的B第2画像を生成する。
 次のステップS122では、制御部30は、目的B第2画像をディスプレイ34に表示させる。次の、ステップS124では、制御部30は、引継項目をディスプレイ34に表示させる。図14には、目的B第2画像及び引継項目の表示の一例を示す。
 次のステップS126では、制御部30は、引継項目の変更が有るか否か判断する。本実施の形態では、引継項目の変更が可能である。例えば、図14に例示した表示では、引き継がない方がよいと判断した処理操作があった場合、ユーザが、引継がれた項目のチェックボックスからチェックを外すことにより、引継項目の変更を行える。なお、目的A第1画像70Aに対して行った他の処理操作(処理操作A)の項目を表示させ、引継項目に設定されていなかった処理操作を引き継がせるよう変更可能であってもよい。
 制御部30は、引継項目の変更が無く、終了ボタン74のボタンダウンを検出した場合は、ステップS130へ進む。一方、引継項目の変更が有った場合は、ステップS128に進む。ステップS128では、変更に応じた画像を生成する。
 次のステップS130では、制御部30は、処理画像をディスプレイ34に表示させる。本ステップでは、上記ステップS110と同様に処理画像と共に、処理操作をユーザが行うための各種表示をディスプレイ34に行わせる。本実施の形態では、具体的一例として図10に例示した表示において、目的名を目的Bに変更し、処理画像を目的B第2画像79B(または、ステップS128で生成された画像)とした表示を行う。
 ユーザは、表示に応じて、上述した目的A第1画像70Aにおける処理操作と同様に、目的B画像のための処理操作を行う。次のステップS132では、制御部30は、処理操作の有無を判断する。処理操作が無い場合は待機状態となる、一方、処理操作が有った場合は、ステップS134に進み、制御部30は、処理操作に応じた画像処理を施す。本ステップでは、上記操作画像処理のステップS204と同様に、ユーザが行う処理操作に応じた画像が順次生成され、ディスプレイ34に順次表示されていく。
 次のステップS136では、制御部30は、処理操作を終了するか否か判断する。本実施の形態では、終了ボタン74のボタンダウンを検出した場合に、処理操作を終了すると判断する。終了しない場合は、ステップS132に戻り、処理操作を繰り返す。一方、処理操作を終了する場合は、ステップS138へ進む。
 ステップS138では、制御部30は、上記ステップS114と同様に、ディスプレイ34に目的B画像を表示させて、ユーザに目的B画像を確認させる。図15には、本実施の形態における確認用の目的B画像の表示の一例を示す。図15に示した一例では、目的B画像と、終了ボタン74と、修正ボタン75と、が表示されている。本実施の形態の制御部30では、終了ボタン74がボタンダウンされたことを検出することにより、目的B画像の生成を完了する。また、本実施の形態の制御部30では、図7では記載を省略したが修正ボタン75がボタンダウンされたことを検出した場合は、ステップS132~ステップS136の処理を再び行って、目的B画像の修正を行う。
 次のステップS140では、制御部30は、目的B画像の画像情報と、目的B画像の生成のために施した画像処理(画像解析処理を含む)の内容とを対応付けて制御部30内の記憶部に記憶させた後、本画像処理を終了する。なお、画像処理により生成された目的A画像、及び目的B画像の出力先がそれぞれ予め定められている場合、またはユーザにより指定された場合は、各々出力先(例えば、PACS22の放射線画像処理装置50や放射線画像読影装置52等)に出力させればよい。
 [第2の実施の形態]
 本実施の形態の放射線画像撮影システム10、コンソール20、及びPACS22は、第1の実施の形態の放射線画像撮影システム10、コンソール20、及びPACS22と略同様の構成及び動作であるため、同一部分については、詳細な説明を省略する。
 放射線画像撮影システム10、コンソール20、及びPACS22の構成は、第1の実施の形態と同一であるため、本実施の形態では説明を省略する。
 本実施の形態のコンソール20では、引継項目として設定された処理操作を他の画像(ユーザが処理操作を行わなかった画像)に反映させるタイミングが、第1の実施の形態の応用形態と異なる。
 図16には、本実施の形態のコンソール20の制御部30における画像処理(処理操作)の流れの一例を示す。なお、本実施の形態においても説明の便宜上、ユーザが目的Aのための画像(目的A第1画像)に対して行った処理操作を目的Bのための画像に対して引き継ぐ場合について説明する。
 本実施の形態では、図16に示すように、目的A画像を生成するための画像処理(処理操作)は、第1の実施の形態の応用形態と同様(図6参照)である。一方、目的B画像を生成するための画像処理(処理操作)では、コンソール20が原画像に画像解析処理Bを施し、目的B第1画像を生成した後、ユーザにより処理操作B(目的B画像の生成に対して行われ、目的A画像の生成に対しては行われない処理操作)が行われて目的B第2画像が生成される。引き継がれた処理操作である処理操作Cをコンソール20が目的B第2画像に反映させて目的B画像を生成する。
 図17には、本実施の形態のコンソール20の制御部30によって実行される画像処理の一例のフローチャートを示す。本実施の形態の画像処理は、処理操作B及び処理操作Cのタイミングが第1の実施の形態の応用形態と入れ替わっているため、図17に示すように、第1の実施の形態の応用形態に係る画像処理(図7参照)のステップS120~ステップS128に対応する処理がステップS136とステップS138との間で行われる。
 本実施の形態の制御部30は、ステップS100~ステップS118までは、第1の実施の形態の応用形態と同様にして、目的A画像の生成を完了すると共に、引継項目の設定を行う。
 本実施の形態の制御部30では、ステップS118の次は、ステップS130へ進む。本実施の形態の制御部30は、ステップS130~ステップS136までは、第1の実施の形態の応用形態と同様にして、ユーザの処理操作Bに応じた画像処理Bを施して目的B第2画像の生成を行う。
 次のステップS137-1~ステップS137-5の各処理は、それぞれ、第1の実施の形態の応用形態に係る画像処理のステップS120~ステップS128に対応している。すなわち、本実施の形態の制御部30では、ステップS137-1~ステップS137-3の各処理により、処理操作Bに応じた画像処理Bが施された画像に対して引継処理となる処理操作Cを反映させて、目的B画像を生成し、目的B画像と共に引継項目をディスプレイ34に表示させる。
 さらにステップS137-4及びステップS137-5では、制御部30は、引継項目の変更が有るか否か判断して、引継項目の変更が無い場合は、目的B画像の生成が完了したため、ステップS138へ進む。一方、引継項目の変更が有った場合は、変更に応じた画像を生成することにより目的B画像の生成が完了したため、ステップS138へ進む。
 次のステップS138及びステップS140は、第1の実施の形態の応用形態と同様である。ステップS138では、制御部30は、目的B画像をディスプレイ34に表示させてユーザに目的B画像を確認させる。ステップS140では、制御部30は、目的B画像の画像情報と、目的B画像の生成のために施した画像処理(画像解析処理を含む)の内容とを対応付けて制御部30内の記憶部に記憶させた後、本画像処理を終了する。
 [第3の実施の形態]
 本実施の形態の放射線画像撮影システム10、コンソール20、及びPACS22は、上記各実施の形態の放射線画像撮影システム10、コンソール20、及びPACS22と略同様の構成及び動作であるため、同一部分については、詳細な説明を省略する。
 放射線画像撮影システム10、コンソール20、及びPACS22の構成は、第1の実施の形態と同一であるため、本実施の形態では説明を省略する。
 本実施の形態のコンソール20では、ユーザが引継処理となる処理操作を含む処理操作を施す画像が予め定められており、ユーザが処理操作を行わなかった画像に画像解析処理を施すタイミングが、第1の実施の形態の応用形態と異なる。
 図18には、本実施の形態のコンソール20の制御部30における画像処理(処理操作)の流れの一例を示す。なお、本実施の形態においても説明の便宜上、ユーザが目的Aのための画像(目的A第1画像)に対して行った処理操作を目的Bのための画像に対して引き継ぐ場合について説明する。
 本実施の形態では、図18に示すように、目的A画像を生成するための画像処理(処理操作)は、第1の実施の形態の応用形態と同様(図7参照)である。一方、目的B画像を生成するための画像処理(処理操作)では、コンソール20の制御部30が原画像に対して引き継がれた処理操作である処理操作Cを反映させて目的B第1画像を生成する。目的B第1画像に対して画像解析処理Bを施し、目的B第2画像を生成した後、ユーザにより処理操作Bが行われて目的B画像が生成される。
 図19には、本実施の形態のコンソール20の制御部30によって実行される画像処理の一例のフローチャートを示す。本実施の形態の画像処理は、予め目的Aのための画像(目的A第1画像)に対して引継処理となる処理操作を含む処理操作を行うことが定められているため、図19に示すように、第1の実施の形態の応用形態に係る画像処理(図7参照)のステップS106及びステップS108の処理が設けられていない。また、本実施の形態の画像処理は、画像解析処理Bのタイミングが第1の実施の形態の応用形態と異なっているため、図19に示すように、第1の実施の形態の画像処理(図7参照)のステップS104に対応する処理がステップS120とステップS122との間で行われる。
 本実施の形態の制御部30は、、ステップS100~ステップS118までは、ステップS102の後にステップS110へ進む他は第1の実施の形態の応用形態と同様にして、目的A画像の生成を完了すると共に、引継項目の設定を行う。
 本実施の形態の制御部30では、ステップS118の次のステップS120では、原画像に対して引継処理となる処理操作Cを反映させて、目的B第1画像を生成する。
 次のステップS121は、第1の実施の形態の応用形態のステップS104に対応している。ステップS121では、制御部30は、目的B第1画像に対して画像解析処理Bを行って、目的B第2画像を生成する。
 以降のステップS122~ステップS140の各処理は、第1の実施の形態の応用形態と同様である。制御部30は、引継項目の確認を行った後、ユーザの処理操作Bに応じた画像処理を施すことにより、目的B画像を生成した後、本画像処理を終了する。
 なお、画像解析処理B(ステップS121)を行うタイミングは本実施の形態に限らず、ステップS130の前に行ってもよい。また、本実施の形態の画像処理では、画像解析処理Bを施した後に、処理操作Bに応じた画像処理を施しているが、順番を逆にして、処理操作Bに応じた画像処理を施した後、画像解析処理Bを施してもよい。
 [第4の実施の形態]
 本実施の形態の放射線画像撮影システム10、コンソール20、及びPACS22は、上記各実施の形態の放射線画像撮影システム10、コンソール20、及びPACS22と略同様の構成及び動作であるため、同一部分については、詳細な説明を省略する。
 放射線画像撮影システム10、コンソール20、及びPACS22の構成は、第1の実施の形態と同一であるため、本実施の形態では説明を省略する。
 本実施の形態のコンソール20では、処理操作B(画像処理B)と画像解析処理Bとのタイミングが、第1の実施の形態の応用形態と入れ替わっている。
 図20には、本実施の形態のコンソール20の制御部30における画像処理(処理操作)の流れの一例を示す。なお、本実施の形態においても説明の便宜上、ユーザが目的Aのための画像(目的A第1画像)に対して行った処理操作を目的Bのための画像に対して引き継ぐ場合について説明する。
 本実施の形態では、図20に示すように、目的A画像を生成するための画像処理(処理操作)は、第1の実施の形態の応用形態と同様(図7参照)である。一方、目的B画像を生成するための画像処理(処理操作)では、原画像に対してユーザにより処理操作Bが行われて目的B第1画像が生成される。制御部30が引き継がれた処理操作である処理操作Cを目的B第1画像に反映させて目的B第2画像を生成する。さらに制御部30は、目的B第2画像に画像解析処理Bを施し、目的B画像を生成する。
 図21には、本実施の形態のコンソール20の制御部30によって実行される画像処理の一例のフローチャートを示す。本実施の形態の画像処理は、画像解析処理B及び処理操作Bのタイミングが第1の実施の形態の応用形態と入れ替わっているため、図21に示すように、第1の実施の形態の画像処理(図7参照)のステップS120~ステップS128に対応する処理がステップS136とステップS138との間で行われる。また、ステップS104に対応する処理がステップS138の前に行われる。
 また、本実施の形態の画像処理は、上記第3の実施の形態と同様に予め目的Aのための画像(目的A第1画像)に対して引継処理となる処理操作を含む処理操作を行うことが定められている。そのため、図20に示すように、第1の実施の形態の応用形態に係る画像処理(図7参照)のステップS106及びステップS108の処理が設けられていない。
 本実施の形態の制御部30は、ステップS100~ステップS118までは、ステップS102の後にステップS110へ進む他は第1の実施の形態の応用形態と同様にして、目的A画像の生成を完了すると共に、引継項目の設定を行う。
 本実施の形態の制御部30では、ステップS118の次は、ステップS130へ進む。本実施の形態の制御部30は、ステップS130~ステップS136までは、第1の実施の形態の応用形態と同様にして、ユーザの処理操作Bに応じた画像処理Bを施して目的B第2画像の生成を行う。
 次のステップS137-1~ステップS137-5の各処理は、それぞれ、上記第2の実施の形態の画像処理のステップS137-1~ステップS137-5の各処理と同様である。
 制御部30は、処理操作Bに応じた画像処理Bが施された画像に対して引継処理となる処理操作Cを反映させて、目的B第2画像を生成し、目的B第2画像と共に引継項目をディスプレイ34に表示させる。さらに、制御部30は、引継項目の変更が有るか否か判断して、引継項目の変更が無い場合は、ステップS137-6へ進み、引継項目の変更が有った場合は、変更に応じた画像を生成して、ステップS137-6へ進む。
 ステップS137-6は、第1の実施の形態の応用形態のステップS104に対応している。ステップS137-6では、制御部30は、目的B第2画像に対して画像解析処理Bを行って、目的B画像を生成する。
 次のステップS138及びステップS140は、第1の実施の形態の応用形態と同様である。ステップS138では、制御部30は、目的B画像をディスプレイ34に表示させてユーザに目的B画像を確認させる。ステップS140では、制御部30は、目的B画像の画像情報と、目的B画像の生成のために施した画像処理(画像解析処理を含む)の内容とを対応付けて制御部30内の記憶部に記憶させた後、本画像処理を終了する。
 [第5の実施の形態]
 本実施の形態の放射線画像撮影システム10、コンソール20、及びPACS22は、上記各実施の形態の放射線画像撮影システム10、コンソール20、及びPACS22と略同様の構成及び動作であるため、同一部分については、詳細な説明を省略する。
 放射線画像撮影システム10、コンソール20、及びPACS22の構成は、第1の実施の形態と同一であるため、本実施の形態では説明を省略する。
 本実施の形態のコンソール20の制御部30では、画像解析処理Bと処理操作B(画像処理B)とのタイミングが、第4の実施の形態と入れ替わっている。
 図22には、本実施の形態のコンソール20の制御部30における画像処理(処理操作)の流れの一例を示す。なお、本実施の形態においても説明の便宜上、ユーザが目的Aのための画像(目的A第1画像)に対して行った処理操作を目的Bのための画像に対して引き継ぐ場合について説明する。
 本実施の形態では、図22に示すように、目的A画像を生成するための画像処理(処理操作)は、第4の実施の形態と同様(図20参照)である。一方、目的B画像を生成するための画像処理(処理操作)では、原画像に対してユーザにより処理操作Bが行われて目的B第1画像が生成される。その後、制御部30は、目的B第1画像に画像解析処理Bを施し、目的B第2画像を生成する。さらに、制御部30が、引き継がれた処理操作である処理操作Cを目的B第2画像に反映させて目的B画像を生成する。
 図23には、本実施の形態のコンソール20の制御部30によって実行される画像処理の一例のフローチャートを示す。本実施の形態の画像処理は、画像解析処理B及び処理操作Cのタイミングが第4の実施の形態と入れ替わっているため、図23に示すように、第4の実施の形態の画像処理(図21参照)のステップS137-6に対応する処理がステップS137-1の前に行われる。
 本実施の形態の制御部30は、ステップS100~ステップS136まで、第4の実施の形態と同様にして、目的A画像の生成を完了すると共に、引継項目の設定を行い、さらに処理操作Bに応じた画像処理を施して目的B第1画像素生成する。
 本実施の形態の制御部30では、ステップS136の次は、ステップS137-0へ進む。ステップS137-0では、制御部30は、目的B第1画像に対して画像解析処理Bを行って、目的B第2画像を生成する。
 次のステップS137-1~ステップS137-5の各処理は、それぞれ、上記第4の実施の形態の画像処理のステップS137-1~ステップS137-5の各処理と同様である。
 制御部30は、目的B第2画像に対して引継処理となる処理操作Cを反映させて、目的B画像を生成し、目的B画像と共に引継項目をディスプレイ34に表示させる。さらに、制御部30は、引継項目の変更が有るか否か判断して、引継項目の変更が無い場合は、ステップS138へ進み、引継項目の変更が有った場合は、変更に応じた画像を生成して、ステップS138へ進む。
 次のステップS138及びステップS140も、第4の実施の形態と同様である。ステップS138では、制御部30は、目的B画像をディスプレイ34に表示させてユーザに目的B画像を確認させる。ステップS140では、制御部30は、目的B画像の画像情報と、目的B画像の生成のために施した画像処理(画像解析処理を含む)の内容とを対応付けて制御部30内の記憶部に記憶させた後、本画像処理を終了する。
 以上説明したように、本発明の基本形態では、コンソール20の制御部30は、原画像にユーザの処理操作に応じた画像処理を行い、一方の目的画像(上記具体例では、目的A画像)を生成する。そして、制御部30は、一方の目的画像を生成するための処理操作を他方の目的画像(上記具体例では、目的B画像)を生成するための処理操作として引継ぎ、引き継いだ処理操作を反映させて画像処理を行う。さらに、制御部30は、他方の目的画像を生成するためにユーザが行った処理操作に応じた画像処理を行い他方の目的画像を生成する。
 また、以上説明したように、上記各実施の形態のコンソール20の制御部30では、放射線画像撮影装置12から取得した放射線画像の原画像を取得する。制御部30は、予め定められた画像解析処理Aを施して目的Aのための画像を生成すると共に、画像解析処理Bを施して目的Aとは目的が異なる目的Bのための画像を生成する。制御部30は、目的Aのための画像に対してユーザが行った処理操作を検出し、処理操作に応じた画像処理を施すことにより、目的Aのための画像を生成すると共に、予め定められた引継条件の定義に該当する処理操作を引継処理として設定する。制御部30は、引継処理を目的Bのための画像に反映させる。さらに制御部30は、目的Bのための画像に対してユーザが行った処理操作を検出し処理操作に応じた画像処理を施すことにより、目的Bのための画像を生成する。
 上記各実施の形態のコンソール20の制御部30では、1つの原画像から目的が異なる複数の画像を生成するため、被検体18の被曝量の低減、拘束時間の低減を図ることができる。また、上記各実施の形態によれば、放射線照射装置16の放射線照射源となる管球の劣化の抑制や放射線技師の撮影作業の低減を図ることができる。
 また、上記各実施の形態のコンソール20の制御部30では、一方の目的のための画像に対してユーザが行った処理操作を他の目的のための画像に対して引き継ぐことができるため、1画像ずつ処理操作を行う手間を削減することができ、ユーザの処理操作の負荷を軽減することができる。上記各実施の形態によれば、同じ処理操作を引き継ぐため、両方の目的の画像に対して同様に施したい処理操作については、微調整を要しなくなるため、処理操作の負荷が軽減される。
 また、本実施の形態のコンソール20の制御部30では、手間が掛かる処理操作を自動的に判別して引継処理に設定するため、ユーザの処理負荷が低減される。
 また、本実施の形態のコンソール20の制御部30では、引継項目の一覧を表示し、ユーザにより引継項目の設定が行えるため、ユーザの希望する処理操作のみを引継処理とすることができる。従って、上記各実施の形態によれば、ユーザが望まない処理操作を引継処理としてしまうことを抑制し、処理操作のやり直しの発生が抑制される。
 また、上記各実施の形態のコンソール20の制御部30では、処理操作の種類を定義し、種類毎に引継処理として設定することができるため、ユーザが処理操作の設定を行う際、処理操作の選択を容易に行える。また、コンソール20の制御部30の画像処理の負荷が低減される。
 なお、上記各実施の形態では、一方の目的用の画像(目的A画像)を生成した後に、他方の目的用の画像(目的B画像)を生成する場合について説明したが限定されない。
 例えば、制御部30は、一方の画像を生成(処理操作)中に、ユーザの指示等に応じて他方の画像に切り換えて、切り換えた他方の画像に対して処理操作を行うようにしてもよく、両方の画像の表示及び処理操作を相互に切り換えて行えるようにしてもよい。この場合、制御部30は、予め定められた引継処理、またはユーザから引継処理として指示された処理操作を一方の画像に行った場合、他方の画像に対して反映させるようにすればよい。なお、このように両方の画像を相互に切り換えて表示及び処理操作を行う場合は、両方の画像に対応付けて各画像に対する画像処理を記憶させておいてもよいし、原画像と各画像に対する画像処理とを対応付けて記憶させておいてもよい。
 また例えば、制御部30は、両方の画像を同時に表示させ、予め定められた引継処理、またはユーザから引継処理として指示された処理操作をいずれかの画像に行った場合、他の画像に対して反映させて表示させてもよい。
 なお、上記各実施の形態では、コンソール20の制御部30が画像処理を行う場合について説明したが、その他の装置で全部の画像処理、または一部の画像処理を行うようにしてもよい。例えば、PACS22の放射線画像処理装置50により、画像処理を行うようにしてもよい。
 また、上記各実施の形態では、目的A画像の画像情報と目的A画像の生成のために施した画像処理(画像解析処理を含む)の内容とを対応付けて記憶させると共に、目的B画像の画像情報と目的B画像の生成のために施した画像処理(画像解析処理を含む)の内容とを対応付けて記憶させている。これらに加えて、さらに、原画像と対応付けて記憶させておもよい。また、目的A画像の画像情報及び目的B画像の画像情報は記憶させず、原画像と目的A画像の生成のために施した画像処理(画像解析処理を含む)及び目的B画像の生成のために施した画像処理(画像解析処理を含む)とを対応付けて記憶させるようにしてもよい。
 また、上記各実施の形態では、予め画像処理プログラムが制御部30に記憶されている場合について説明したが、CD-ROM(Compact Disk ReadOnly Memory)やUSB(Universal Serial Bus)メモリ等の記録媒体や、外部装置等から取得して、記憶させてもよい。
 また、上記各実施の形態では、目的が異なる複数の画像として2種類の画像を生成する場合について説明したが、3種類以上の画像を生成してもよい。
 また、本実施の形態では、本発明の放射線は、特に限定されず、X線やγ線等を適用することができる。
 また、上記各実施の形態で説明した放射線画像撮影システム10、コンソール20、及びPACS22等の構成、動作等は一例であり、本発明の主旨を逸脱しない範囲内において状況に応じて変更可能であることは言うまでもない。
 日本出願2014-195139の開示は、その全体が参照により本明細書に取り込まれる。
 本明細書に記載された全ての文献、特許出願、及び技術規格は、個々の文献、特許出願、及び技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。

Claims (17)

  1.  放射線画像である原画像から、異なる画像処理が施された異なる複数の画像を生成する画像処理装置であって、
     前記原画像に対する1以上の処理操作を受け付けて、受け付けた処理操作に応じた第1画像処理を前記原画像に施して第1画像を生成する第1生成部と、
     前記受け付けた処理操作の中から選択された引継処理を前記原画像に反映させてから前記第1画像処理と異なる第2画像処理を施して第2画像を生成する、または、原画像に対して前記第2画像処理を施してから前記引継処理を反映させて前記第2画像を生成する第2生成部と、
     を備えた画像処理装置。
  2.  放射線画像である原画像に第1画像解析処理を施すことにより、第1画像を生成する第1生成部と、
     前記第1生成部で生成された前記第1画像に対する1以上の処理操作を受け付けて、受け付けた処理操作に応じた画像処理を前記第1画像に施す画像処理部と、
     前記原画像に前記第1画像解析処理と異なる第2画像解析処理を施すことにより第2画像を生成し、前記処理操作の中から選択された引継処理を、引継先となる前記第2画像が生成される前の前記原画像または前記第2画像に反映させる第2生成部と、
     を備えた画像処理装置。
  3.  前記処理操作を引継処理とするか否かを設定する引継処理設定部を備え、
     前記第2生成部は、前記引継処理設定部により設定された処理操作を引継処理として選択する、
     請求項1または請求項2に記載の画像処理装置。
  4.  前記引継処理を表示部に表示させる表示制御部を備え、
     前記第2生成部は、前記表示制御部により前記表示部に表示された前記引継処理を表す情報に応じて行われた指示を受け付ける指示受付部を備え、前記指示受付部で受け付けた指示に応じた引継処理を引継先に反映させる、
     請求項3に記載の画像処理装置。
  5.  前記表示制御部は、前記処理操作のうち、前記第2生成部により引継処理として選択された処理操作のみを前記表示部に表示させる、
     請求項4に記載の画像処理装置。
  6.  前記表示制御部は、前記処理操作のうち、前記第2生成部により非選択された処理操作を引継処理として設定させる表示を前記表示部に表示させる、
     請求項4に記載の画像処理装置。
  7.  前記処理操作毎に処理操作が行われている操作時間、操作量、及び操作回数の少なくとも一つを検出する操作検出部を備え、
     前記第2生成部は、前記操作検出部で検出された操作時間、操作量、及び操作回数の少なくとも一つが予め定められた閾値以上の処理操作を引継処理として選択する、
     請求項1から請求項6のいずれか1項に記載の画像処理装置。
  8.  前記操作検出部は、前記処理操作が複数種類有る場合は、検出された操作時間、操作量、及び操作回数の少なくとも一つを、種類毎に合算する、
     請求項7に記載の画像処理装置。
  9.  放射線画像である原画像を取得して、処理条件の異なる画像処理を施すことにより、第1画像及び第2画像を生成する生成部と、
     前記生成部で生成された前記第1画像に対する処理操作を受け付けて、受け付けた処理操作に応じた画像処理を前記1つの画像に施す第1画像処理部と、
     前記第1画像処理部で受け付けた処理操作の中から選択され、かつ前記第2画像に対して引き継ぐ引継処理を引継先となる前記第2画像に反映させる反映部と、
     前記反映部により引継処理が反映された前記第2画像に対する処理操作を受け付けて、受け付けた処理操作に応じた第2画像処理を前記第2画像に施す第2画像処理部と、
     を備えた画像処理装置。
  10.  放射線画像である原画像を取得して、処理条件の異なる画像処理を施すことにより、第1画像及び第2画像を生成する生成部と、
     前記生成部で生成された前記第1画像に対する処理操作を受け付けて、受け付けた処理操作に応じた第1画像処理を前記第1画像に施す第1画像処理部と、
     前記第2画像に対する処理操作を受け付けて、受け付けた処理操作に応じた第2画像処理を前記第2画像に施す第2画像処理部と、
     前記第1画像処理部で受け付けた処理操作の中から選択され、かつ前記第2画像に対して引き継ぐ引継処理を前記第2画像処理部により前記第2画像処理が施された前記第2画像に反映させる反映部と、
     を備えた画像処理装置。
  11.  放射線画像である原画像を取得して、第1画像解析処理を施すことにより、第1画像を生成する第1生成部と、
     前記第1生成部で生成された前記第1画像に対する処理操作を受け付けて、受け付けた処理操作に応じた第1画像処理を前記第1画像に施す第1画像処理部と、
     前記第1画像処理部で受け付けた処理操作の中から選択され、かつ前記原画像に対して引き継ぐ引継処理を前記原画像に反映させる反映部と、
     前記反映部により引継処理が反映された前記原画像に対して、第2画像解析処理を施すことにより、第2画像を生成する第2生成部と、
     前記第2画像に対する処理操作を受け付けて、受け付けた処理操作に応じた第2画像処理を前記第2画像に施す第2画像処理部と、
     を備えた画像処理装置。
  12.  放射線画像である原画像を取得して、第1画像解析処理を施すことにより、第1画像を生成する第1生成部と、
     前記第1生成部で生成された前記第1画像に対する処理操作を受け付けて、受け付けた処理操作に応じた第1画像処理を前記第1画像に施す第1画像処理部と、
     第2画像に対する処理操作を受け付けて、受け付けた処理操作に応じた第2画像処理を前記原画像に施す第2画像処理部と、
     前記第1画像処理部で受け付けた処理操作から、前記原画像に対して引き継ぐ引継処理を選択し、選択した引継処理を前記第2画像処理部により前記第2画像処理が施された前記原画像に反映させる反映部と、
     前記反映部により引継処理が反映された前記原画像に対して、第2画像解析処理を施すことにより、前記第2画像を生成する第2生成部と、
     を備えた画像処理装置。
  13.  放射線画像である原画像を取得して、第1画像処理を施すことにより、第1画像を生成する第1生成部と、
     前記第1生成部で生成された前記第1画像に対する処理操作を受け付けて、受け付けた処理操作に応じた第1画像処理を前記第1画像に施す第1画像処理部と、
     第2画像に対する処理操作を受け付けて、受け付けた処理操作に応じた第2画像処理を前記原画像に施す第2画像処理部と、
     前記第2画像処理部により前記第2画像処理が施された前記原画像に対して、第2画像解析処理を施すことにより、前記第2画像を生成する第2生成部と、
     前記第1画像処理部で受け付けた処理操作から、前記第2画像に対して引き継ぐ引継処理を選択し、選択した引継処理を前記第2生成部により生成された前記第2画像に反映させる反映部と、
     を備えた画像処理装置。
  14.  前記請求項1から前記請求項13のいずれか1項に記載の画像処理装置と、
     前記画像処理装置により画像処理が施された画像を表示する表示部と、
     前記画像処理装置に対して処理操作を行う操作部と、
     を備えた画像処理システム。
  15.  前記請求項1から前記請求項13のいずれか1項に記載の画像処理装置の各部としてコンピュータを機能させるための画像処理プログラム。
  16.  放射線画像である原画像から、異なる画像処理が施された異なる複数の画像を生成する画像処理装置の画像処理方法であって、
     第1生成部により、前記原画像に対する1以上の処理操作を受け付けて、受け付けた処理操作に応じた第1画像処理を前記原画像に施して第1画像を生成し、
     第2生成部により、前記処理操作の中から選択された引継処理を前記原画像に反映させてから前記第1画像処理と異なる第2画像処理を施して第2画像を生成する、または、原画像に対して前記第2画像処理を施してから前記引継処理を反映させて前記第2画像を生成する、
     画像処理方法。
  17.  第1生成部により、放射線画像である原画像に第1画像解析処理を施すことにより、第1画像を生成し、
     画像処理部により、前記第1生成部で生成された前記第1画像に対する1以上の処理操作を受け付けて、受け付けた処理操作に応じた画像処理を前記第1画像に施し、
     第2生成部により、前記原画像に前記第1画像解析処理と異なる第2画像解析処理を施すことにより第2画像を生成し、前記処理操作の中から選択された引継処理を、引継先となる前記第2画像が生成される前の前記原画像または前記第2画像に反映させる、
     画像処理方法。
PCT/JP2014/075531 2013-09-25 2014-09-25 画像処理装置、画像処理システム、画像処理プログラム、及び画像処理方法 WO2015046381A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP14847198.0A EP3050505B1 (en) 2013-09-25 2014-09-25 Image processing device, image processing system, image processing program, and image processing method
US15/057,131 US10217214B2 (en) 2013-09-25 2016-03-01 Radiographic image processing device, system, program, and method to reduce a load of a processing operation of a user

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2013198552 2013-09-25
JP2013-198552 2013-09-25
JP2014195139A JP6033267B2 (ja) 2013-09-25 2014-09-25 画像処理装置、画像処理システム、画像処理プログラム、及び画像処理方法
JP2014-195139 2014-09-25

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/057,131 Continuation US10217214B2 (en) 2013-09-25 2016-03-01 Radiographic image processing device, system, program, and method to reduce a load of a processing operation of a user

Publications (1)

Publication Number Publication Date
WO2015046381A1 true WO2015046381A1 (ja) 2015-04-02

Family

ID=52743507

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/075531 WO2015046381A1 (ja) 2013-09-25 2014-09-25 画像処理装置、画像処理システム、画像処理プログラム、及び画像処理方法

Country Status (3)

Country Link
US (1) US10217214B2 (ja)
JP (1) JP6033267B2 (ja)
WO (1) WO2015046381A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7094691B2 (ja) * 2017-11-22 2022-07-04 キヤノン株式会社 放射線撮影システム、放射線撮影方法、制御装置及びプログラム
JP6897656B2 (ja) * 2018-11-22 2021-07-07 コニカミノルタ株式会社 画像表示制御システム、画像表示システム、画像解析装置、画像表示制御プログラム及び画像表示制御方法
WO2020174543A1 (ja) * 2019-02-25 2020-09-03 株式会社島津製作所 X線撮影装置、画像処理方法および画像処理プログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004290329A (ja) * 2003-03-26 2004-10-21 Konica Minolta Holdings Inc 医用画像処理装置、医用ネットワークシステム及び医用画像処理装置のためのプログラム
JP2005301492A (ja) 2004-04-08 2005-10-27 Olympus Corp 画像履歴処理プログラム、画像履歴処理方法、画像履歴処理装置及び記録媒体
US20060117270A1 (en) * 2004-11-29 2006-06-01 Canon, U.S.A., Inc. Display parameter adjustment
JP2006271800A (ja) 2005-03-30 2006-10-12 Konica Minolta Medical & Graphic Inc 画像処理装置、画像処理方法及び画像処理プログラム
JP2014195139A (ja) 2013-03-28 2014-10-09 Kddi Corp 遷移制御装置及び方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5982953A (en) * 1994-09-02 1999-11-09 Konica Corporation Image displaying apparatus of a processed image from temporally sequential images
US7068826B2 (en) * 2002-01-28 2006-06-27 Ge Medical Systems Global Technology Company, Llc Automatic selection of the log-subtraction decomposition parameters for dual energy chest radiography
JP2004053584A (ja) * 2002-05-30 2004-02-19 Canon Inc 画像補正装置及び方法
JP2006085259A (ja) * 2004-09-14 2006-03-30 Konica Minolta Photo Imaging Inc 画像処理装置、画像処理方法およびプログラム
JP2007312960A (ja) * 2006-05-25 2007-12-06 Hitachi Medical Corp 複合医用画像診断装置、又は医用画像診断装置を備えた治療装置
US20080025583A1 (en) * 2006-07-27 2008-01-31 General Electric Company System and method for on-demand visual enhancement of clinical conitions in images
WO2009078297A1 (ja) * 2007-12-19 2009-06-25 Konica Minolta Medical & Graphic, Inc. 動態画像処理システム
JPWO2009104459A1 (ja) * 2008-02-19 2011-06-23 コニカミノルタエムジー株式会社 小規模施設用診断支援装置及びプログラム
BRPI0917748A2 (pt) * 2008-12-18 2019-11-19 Koninl Philips Electronics Nv sistema de processamento de imagem, estação de trabalho médico da imagem latente, método de geração de uma visualização de uma imagem médica e produto de programa de computador
JP6004704B2 (ja) * 2012-03-30 2016-10-12 キヤノン株式会社 医療用検査装置および方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004290329A (ja) * 2003-03-26 2004-10-21 Konica Minolta Holdings Inc 医用画像処理装置、医用ネットワークシステム及び医用画像処理装置のためのプログラム
JP2005301492A (ja) 2004-04-08 2005-10-27 Olympus Corp 画像履歴処理プログラム、画像履歴処理方法、画像履歴処理装置及び記録媒体
US20060117270A1 (en) * 2004-11-29 2006-06-01 Canon, U.S.A., Inc. Display parameter adjustment
JP2006271800A (ja) 2005-03-30 2006-10-12 Konica Minolta Medical & Graphic Inc 画像処理装置、画像処理方法及び画像処理プログラム
JP2014195139A (ja) 2013-03-28 2014-10-09 Kddi Corp 遷移制御装置及び方法

Also Published As

Publication number Publication date
US10217214B2 (en) 2019-02-26
US20160180523A1 (en) 2016-06-23
JP6033267B2 (ja) 2016-11-30
JP2015085189A (ja) 2015-05-07

Similar Documents

Publication Publication Date Title
US10342507B2 (en) Control apparatus, X-ray imaging system, control system, control method, and computer-readable memory
US10630879B2 (en) Imaging control device, imaging apparatus, imaging control system, image display apparatus, imaging control method, information processing method, and program
US8744156B2 (en) Photographic information processing apparatus and photographic information processing method
US11763930B2 (en) Information processing apparatus, radiographing apparatus, radiographing system, information processing method, and storage medium
US11047809B2 (en) Radiation imaging system, radiation imaging method, control apparatus, and computer-readable medium
JP2021121401A (ja) 放射線撮影装置、放射線撮影システム、放射線撮影方法、及びプログラム
JP6033267B2 (ja) 画像処理装置、画像処理システム、画像処理プログラム、及び画像処理方法
WO2017141498A1 (ja) 放射線画像撮影システム、医用画像出力システムおよび出力装置
WO2020036012A1 (ja) 情報処理装置、放射線撮影装置及びそれらの制御方法
JP7094691B2 (ja) 放射線撮影システム、放射線撮影方法、制御装置及びプログラム
US9313868B2 (en) Radiography control apparatus and radiography control method
US10512442B2 (en) Image processing apparatus, image processing method, and image processing system
JP2015195832A (ja) 制御装置、制御方法及びプログラム
JP2015188738A (ja) 画像処理装置、画像処理方法及びプログラム
JP2008154893A (ja) X線撮影装置
US11538187B2 (en) Radiographic system, radiographic method, and storage medium
JP5474249B2 (ja) 放射線画像処理装置、放射線撮影システム、放射線撮影システムの制御装置、放射線画像処理装置の制御方法、放射線撮影システムの制御方法及びプログラム
EP3050505B1 (en) Image processing device, image processing system, image processing program, and image processing method
WO2015046382A1 (ja) 画像処理装置、画像処理システム、画像処理プログラム、及び画像処理方法
US20230005105A1 (en) Radiation imaging system, image processing method, and storage medium
JP2013039198A (ja) X線撮影装制御置および方法
US11298094B2 (en) Radiography system, portable information terminal, radiography method, and computer-readable storage medium
JP4882932B2 (ja) 画像処理装置および画像処理プログラム
JP5894649B2 (ja) 画像処理装置、画像処理システム、画像処理方法およびプログラム
JP6234490B2 (ja) X線撮影制御装置、情報処理装置、情報処理方法、プログラム、及び記録媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14847198

Country of ref document: EP

Kind code of ref document: A1

REEP Request for entry into the european phase

Ref document number: 2014847198

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2014847198

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE