WO2009125624A1 - 小規模施設用医用画像処理装置、医用画像処理方法及びプログラム - Google Patents

小規模施設用医用画像処理装置、医用画像処理方法及びプログラム Download PDF

Info

Publication number
WO2009125624A1
WO2009125624A1 PCT/JP2009/052889 JP2009052889W WO2009125624A1 WO 2009125624 A1 WO2009125624 A1 WO 2009125624A1 JP 2009052889 W JP2009052889 W JP 2009052889W WO 2009125624 A1 WO2009125624 A1 WO 2009125624A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
image processing
image data
processed
display
Prior art date
Application number
PCT/JP2009/052889
Other languages
English (en)
French (fr)
Inventor
大介 梶
Original Assignee
コニカミノルタエムジー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by コニカミノルタエムジー株式会社 filed Critical コニカミノルタエムジー株式会社
Publication of WO2009125624A1 publication Critical patent/WO2009125624A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/92Dynamic range modification of images or parts thereof based on global image properties
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Definitions

  • the present invention relates to a medical image processing apparatus for a small-scale facility, a medical image processing method, and a program used in a small-scale medical facility.
  • diagnosis was performed by outputting a photographed image of a patient on a film and interpreting the image output on the film.
  • the images used for diagnosis are required to be stored as past diagnostic data by law, and the film of the images used for diagnosis is stored in a sachet together with the patient's chart.
  • captured image data is made into a database to facilitate and speed up the search.
  • a large-capacity recording medium is provided, image processing is performed on a single captured image data with a plurality of types of image processing parameters, and image data of each processed image is stored, thereby enabling image display. We are trying to speed up.
  • Image generation devices that generate captured image data and monitors and imagers that output captured images are manufactured by various manufacturers. Each manufacturer, DICOM (Digital Imaging and Communications Communications in Medicine) and HL-7 (Health Level 7 Seven) Therefore, data compatibility (affinity) is maintained and the quality of images used for diagnosis is maintained at a certain level.
  • DICOM Digital Imaging and Communications Communications in Medicine
  • HL-7 Health Level 7 Seven
  • the number of installed image generation devices is small, the assistant positions the patient, the doctor notifies the positioning completion, and the doctor controls the X-ray exposure switch, or the patient is positioned.
  • doctors themselves perform all operations including the above.
  • the number of imaging parts and the number of patients are limited, and the number of images generated is much smaller than that of a large hospital or the like.
  • image processing is performed on one captured image data with a plurality of types of image processing parameters, and each processed image is displayed. If stored, the storage device needs a certain amount of capacity, which is very expensive, which is not preferable.
  • An object of the present invention is necessary for storing image data while ensuring reproducibility of an image used for diagnosis in a small-scale facility that performs image processing on a captured image data of a patient and displays the image on a monitor for diagnosis. It is possible to suppress the capacity of the storage means.
  • a medical image processing apparatus for a small-scale facility includes: Receiving means for receiving photographed image data from an image generation device for photographing a patient and generating photographed image data; Image processing means for performing image processing on the captured image data received by the receiving means; Display means for displaying a processed image based on processed image data processed by the image processing means; Confirmation instruction means for inputting an instruction to confirm the processed image displayed on the display means as an image used for diagnosis; Control means for associating and storing the captured image data corresponding to the processed image instructed for confirmation and the image processing parameter used for generating the processed image instructed for confirmation in the image processing means in the storage means When, Is provided.
  • the medical image processing apparatus for small-scale facilities is Comprising a part recognizing means for recognizing a photographing part by analyzing the photographed image data received by the receiving means;
  • the image processing unit preferably performs image processing on the captured image data using an image processing parameter determined in advance according to the imaging region recognized by the region recognition unit.
  • the medical image processing apparatus for small-scale facilities is Image processing condition input means for inputting an image processing condition for the processed image before the confirmation instruction displayed on the display means;
  • the image processing means performs image processing by changing the image processing parameter based on the image processing condition input by the image processing condition input means,
  • the control means causes the display means to display a processed image obtained by performing image processing using the changed image processing parameter.
  • the medical image processing apparatus for small-scale facilities is Comprising display condition input means for inputting display conditions in the display means;
  • the control means controls the upper limit of the luminance value when displaying an image on the display means based on the display condition input by the display condition input means, and the processed and instructed to be confirmed as an image used for the diagnosis
  • the captured image data corresponding to the image, the image processing parameters used for generating the processed image instructed by the image processing unit, and the input display condition are associated with each other and stored in the storage unit. It is preferable to make it.
  • the control means extracts reference photographed image data corresponding to the patient from the photographed image data stored in the storage means, and determines the image based on the extracted reference photographed image data.
  • the image processing parameter associated with the reference captured image data is changed to the image processing parameter of the processed image that has been instructed to be fixed, and the image It is preferable to cause the processing means to perform image processing.
  • the medical image processing apparatus for small-scale facilities is Storing instruction means for inputting an instruction to store the changed image processing parameter in association with the captured image data for reference; It is preferable that the control unit further stores the changed image processing parameter in the storage unit in association with the reference captured image data for which the storage instruction is input by the storage instruction unit.
  • a medical image processing method in a medical image processing apparatus for a small-scale facility Receiving captured image data by receiving means from an image generating device that images a patient and generates captured image data; Performing image processing by image processing means on the captured image data received by the receiving means; Displaying a processed image by a display unit based on the processed image data processed by the image processing unit; A step of inputting an instruction to confirm the processed image displayed on the display means as an image used for diagnosis by an operation means; The control means associates the captured image data corresponding to the processed image instructed with the confirmation with the image processing parameter used for generating the processed image instructed with the image processing means in the storage means.
  • Memorizing process including.
  • the program is Computer Receiving means for receiving photographed image data from an image generating device for photographing a patient and generating photographed image data; Image processing means for performing image processing on the captured image data received by the receiving means; Display means for displaying a processed image based on processed image data image-processed by the image processing means; Confirmation instruction means for inputting an instruction to confirm the processed image displayed on the display means as an image used for diagnosis, Control means for associating and storing the captured image data corresponding to the processed image instructed for confirmation and the image processing parameter used for generating the processed image instructed for confirmation in the image processing means in the storage means , To function as.
  • the present invention it is necessary to store image data while ensuring reproducibility of an image used for diagnosis in a small-scale facility that performs image processing on a captured image data of a patient and displays the image on a monitor for diagnosis. It is possible to reduce the capacity of the storage means.
  • FIG. 1 It is a figure which shows the example of whole structure of the small-scale diagnosis system in embodiment of this invention. It is a figure which shows the example of arrangement
  • FIG. 9A shows an example of the lookup table LUT2 created when the adjustment for reducing the contrast is performed when the lookup table read in accordance with the imaging region in step S102 in FIG. 8 is the LUT1 shown in FIG. 9A.
  • FIG. 6 is a diagram illustrating an example of a lookup table LUT3.
  • FIG. 1 shows a system configuration of a small-scale diagnosis system 1 according to the embodiment of the present invention.
  • FIG. 2 shows an arrangement example of each apparatus in a medical facility when the small-scale diagnosis system 1 is applied.
  • the small-scale diagnosis system 1 is a system that is applied to a small-scale facility such as a practitioner or a clinic.
  • a small-scale facility such as a practitioner or a clinic.
  • an ultrasonic diagnostic apparatus 2a, an endoscope apparatus 2b, and a CR apparatus that are image generation apparatuses 2 2c, the medical image management apparatus 3, and the reception apparatus 4.
  • the image generation device 2, the medical image management device 3, and the reception device 4 are connected to a communication network (hereinafter simply referred to as “network”) 5 such as a LAN (Local Area Network) via a switching hub (not shown), for example.
  • the medical image management apparatus 3 is preferably a WS (workstation) provided in an examination room where a doctor is resident.
  • the WS that operates as the medical image management apparatus 3 may be configured to control activation of each image generation apparatus 2, processing conditions, and the like.
  • DICOM Digital Image and Communications in Medicine
  • DICOM MWM Mode Worklist Management
  • DICOM MPPS DICOM MPPS
  • Modality Performed Procedure Step is used.
  • each device is arranged as shown in FIG. That is, when entering the entrance 10, there are a reception 11 and a waiting room 12 for receiving a patient.
  • the receptionist 11 is arranged with a counter person in charge, and the person in charge gives a reception number tag printed with a reception number for distinguishing individual patients in the order of reception, for example.
  • the reception device 11 is provided with a reception device 4. The person in charge listens to the patient's name and the like, and inputs a correspondence between the reception number and patient information such as the patient's name to the reception device 4.
  • an examination room 13 where a doctor examines and diagnoses a patient across a door or the like.
  • a medical image management apparatus 3 that displays a captured image obtained by photographing a diagnosis target part of a patient for diagnosis by a doctor is disposed on a consultation desk (not shown) in the examination room 13.
  • an ultrasound diagnostic apparatus 2a and the like that are less necessary to be performed in a space isolated from the viewpoint of privacy and the like are installed.
  • an X-ray imaging room 15 for performing X-ray imaging is provided on the opposite side of the examination room 13 across the corridor 14.
  • a CR device 2 c including an imaging device 22 and a reading device 23 is disposed in the X-ray imaging room 15.
  • an examination room 16 is provided next to the X-ray imaging room 15, and an endoscope apparatus 2 b and the like are disposed in the examination room 16.
  • the image generation device 2 performs imaging using a patient's diagnosis target site such as the ultrasonic diagnostic device 2a, the endoscope device 2b, and the CR device 2c, and digitally converts the captured image to obtain the captured image data. It is a device to generate.
  • the ultrasonic diagnostic apparatus 2a is an ultrasonic probe that outputs ultrasonic waves, and an electronic device that is connected to the ultrasonic probe and converts sound waves (echo signals) received by the ultrasonic probe into image data of a captured image of the internal tissue. (Both not shown).
  • the ultrasonic diagnostic apparatus 2a sends an ultrasonic wave from the ultrasonic probe into the body, receives the sound wave (echo signal) reflected by the body tissue again by the ultrasonic probe, and uses the electronic device to capture a captured image corresponding to the echo signal. It is designed to generate.
  • the ultrasonic diagnostic apparatus 2 a is connected to a conversion device 21 that is a conversion means (converter) that performs conversion from an analog signal to a digital signal.
  • the ultrasonic diagnostic apparatus 2 a is connected to the network 5 via the conversion device 21. It is connected to the.
  • the conversion device 21 has a function of converting an image signal in a format not conforming to the DICOM standard generated by the ultrasound diagnostic apparatus 2a into image data in a format conforming to the DICOM standard. For example, an image generated by the ultrasonic diagnostic apparatus 2a is converted from an analog signal to a digital signal, and a UID (unique ID) for specifying image data in the small-scale diagnosis system 1 is attached to the image data.
  • UID unique ID
  • the UID is composed of identification information (hereinafter referred to as “device ID”) of each device constituting the small-scale diagnosis system 1, numbers indicating imaging (inspection) date and time, and the like.
  • device ID includes information indicating the type of the image generation device 2.
  • the conversion device 21 is provided with an input operation unit 21a composed of, for example, a numeric keypad, a keyboard, and a touch panel.
  • the input operation unit 21a is a device for inputting patient information of a patient to be imaged.
  • the conversion device 21 attaches the input patient information to the image data to be photographed together with the above-described UID.
  • Information (header information) related to image data attached to the image data is referred to as accompanying information.
  • the configuration of the input operation unit 21a is not limited to the one shown here. For example, a card reader that reads information written on a card by inserting a card or a barcode reader that reads a barcode may be used. Good.
  • the endoscope device 2b is a device in which a small photographing device is provided at the distal end portion of a flexible tube (none is shown).
  • the photographing apparatus is composed of an objective optical system including, for example, an optical lens, an imaging unit disposed at an imaging position of the objective optical system, and an LED (Light Emitting ⁇ Diode) or the like, and illumination necessary for imaging (Not shown).
  • the imaging unit includes, for example, a solid-state imaging device such as a CCD (Charge-Coupled Device) or a CMOS (Complementary Metal-Oxide-Semiconductor), and photoelectrically converts it into an electrical signal having an amount corresponding to the amount of incident light when the light is incident. .
  • the objective optical system is configured to condense an area illuminated by the illuminating unit with an optical lens and form an image on a solid-state imaging device included in the imaging unit, and light incident on the solid-state imaging device is photoelectrically converted. As a result, the image data of the captured image is output as an electrical signal.
  • the imaging device 22 constituting the CR device 2c has a radiation (X-ray) source (not shown), and irradiates the diagnosis target region of the patient to capture a still image.
  • a cassette containing a radiation image conversion plate having a stimulable phosphor sheet that accumulates radiation energy, for example, is arranged in an irradiation region of radiation irradiated from the radiation source.
  • the radiation dose according to the radiation transmittance distribution of the diagnostic target part with respect to the radiation dose from the source accumulates in the photostimulable phosphor layer of the photostimulable phosphor sheet installed in the cassette, and this stimulable phosphor
  • the radiation image information of the diagnostic target part is recorded on the layer.
  • the reading device 23 irradiates the stimulable phosphor sheet of the cassette loaded in the device with excitation light, and is thereby emitted from the sheet.
  • the photostimulated light is photoelectrically converted, and the obtained image signal is A / D converted to generate photographed image data.
  • the CR device 2c may be an integrated device in which the photographing device 22 and the reading device 23 are integrated.
  • the reading device 23 of the endoscope device 2b and the CR device 2c is a device that complies with the DICOM standard, and transmits captured image data to the medical image management device 3 in the DICOM format.
  • the reading device 23 of the endoscope apparatus 2b and the CR apparatus 2c has a function of assigning the above-described UID to the generated captured image data, and attaches the assigned UID to the captured image data.
  • the reading device 23 of the endoscope device 2b and the CR device 2c is also provided with an input operation unit including a keyboard, a touch panel, and the like.
  • the input operation unit is a device for inputting patient information of a patient to be imaged.
  • the reading device 23 of the endoscope device 2b and the CR device 2c attaches the input patient information to the medical image management device 3 together with the above-described UID. Send.
  • the configuration of the input operation unit is not limited to that shown here.
  • a card reader that reads information written on the card by inserting a card or a barcode reader that reads a barcode may be used. .
  • the medical image management apparatus 3 is a medical image processing apparatus for a small-scale facility that is installed in, for example, the examination room 13 and allows a doctor to display a captured image and perform an image interpretation diagnosis.
  • the medical image management apparatus 3 is used for a general PC (Personal Computer).
  • the monitor display unit
  • the monitor may be provided with a higher definition monitor.
  • the medical image management apparatus 3 includes a CPU 31, a RAM 32, a storage unit 33, an input unit 34, a display unit 35, a communication unit 36, an audio output unit 37, and the like. 38 is connected.
  • the CPU 31 reads out various programs such as system programs and processing programs stored in the storage unit 33, expands them in the RAM 32, executes various processes including later-described diagnosis support processing according to the expanded programs, and performs medical image processing. Each part of the management apparatus 3 is controlled.
  • the CPU 31 functions as a control unit and an image processing unit.
  • the RAM 32 forms a work area for temporarily storing various programs, input or output data, parameters, and the like that can be executed by the CPU 31 read from the storage unit 33 in various processes controlled by the CPU 31.
  • the storage unit 33 includes an HDD (Hard Disk Drive), a semiconductor nonvolatile memory, or the like.
  • the storage unit 33 stores various programs that can be executed by the CPU 31 and parameters and data necessary for each program.
  • the storage unit 33 stores image processing parameters predetermined for each imaging region in association with the imaging region.
  • the imaging region is a region of the subject to be imaged (for example, chest bones, lungs, abdomen, etc.), as well as an imaging mode (for example, imaging direction such as front, oblique position, and supine, standing, etc.) (Condition)).
  • the image processing performed on the captured image data is, for example, gradation conversion processing, frequency emphasis processing, enlargement / reduction processing, and the like.
  • the storage unit 33 stores predetermined image processing types for each imaging region. Predetermined image processing parameters are stored in association with each other.
  • the image processing parameter is, for example, a gradation conversion table used for gradation conversion processing (a table that defines a relationship between an input pixel value and an output pixel value (luminance value), hereinafter referred to as a look-up table).
  • a gradation conversion table used for gradation conversion processing a table that defines a relationship between an input pixel value and an output pixel value (luminance value), hereinafter referred to as a look-up table.
  • Examples include the degree of enhancement used in the frequency enhancement process, the enlargement / reduction ratio of the enlargement / reduction process, and the reduction ratio.
  • the storage unit 33 includes an image DB (Data Base) 331 that stores captured image data transmitted from the image generation device 2.
  • the image DB 331 includes an image information table 331a that stores information related to captured image data stored in the image DB 331.
  • FIG. 4 shows a data storage example of the image information table 331a.
  • the image information table 331a includes “record number”, “UID”, “patient ID”, “patient name”,... “File storage location”, “image processing parameter 1”, “observation”. Fields such as “use level 1”, “image processing parameter 2”, “observation use level 2” “date 2”... “Image processing parameter n”, “observation use level n”, “date n”, etc. Stores UID, patient information (patient ID, patient name,...), File storage location, image processing parameter, observation use level, etc. relating to one captured image data transmitted from the image generating device 2 as one record information. .
  • the “record number” field is an area for storing a number assigned to identify a record in the image DB 331.
  • the “UID” field is an area for storing a UID for specifying captured image data in the small-scale diagnosis system 1.
  • the “patient ID” field is an area for storing a patient ID for identifying a patient who is a subject.
  • the “patient name” field is an area for storing name information of a patient who is a subject.
  • the “file storage location” field is an area for storing information indicating the file storage location of the captured image data.
  • the “image processing parameter 1” field is an area for storing image processing parameters used when the captured image data is converted into a diagnostic image.
  • the “observation use level 1” field is an area for storing information indicating the observation use level of the monitor of the display unit 35 when the diagnostic image is confirmed.
  • the “image processing parameter 2” to “image processing parameter n” fields generate the processed image when instructed to store the processed image that has been processed with an image processing parameter different from the diagnostic image. This is an area where additional image processing parameters are stored.
  • the observation use level 2” to “observation use level n” fields the observation use levels at the time when an instruction to save the processed image processed by “image processing parameter 2” to “image processing parameter n” is given, respectively. This is an area for storing the indicated information.
  • the “Date 2” to “Date n” fields are areas for storing the date and time when an instruction to save processed images that have been subjected to image processing using “Image processing parameter 2” to “Image processing parameter n” is given.
  • the captured image data refers to image data (image data that has not been subjected to image processing) received from the image generation apparatus 2 via the communication unit 36, and the captured image is displayed based on the captured image data.
  • An image Further, processed image data refers to image data obtained by subjecting captured image data to image processing, and a processed image refers to an image displayed based on the processed image data.
  • the diagnostic image refers to an image used when a doctor performs an interpretation diagnosis, and is one of processed images created by performing image processing on captured image data transmitted from the image generation device 2. .
  • the observation use level is a value indicating what percentage of the maximum luminance value that can be displayed by the monitor of the display unit 35 is displayed as the maximum luminance value of the monitor at the time of image observation.
  • the captured image data is associated with patient information and a UID for identifying the image, and the patient information, the type of the image generation device 2, the imaging date, and the like can be searched as key information. Is stored in the storage unit 33.
  • the input unit 34 includes a keyboard having cursor keys, numeric input keys, various function keys, and the like, a pointing device such as a mouse, a power key, and the like. An operation signal from the mouse is output to the CPU 31 as an input signal.
  • the display unit 35 includes, for example, a monitor such as a CRT (Cathode Ray Tube) or an LCD (Liquid Crystal Display), and displays various screens according to instructions of a display signal input from the CPU 31.
  • a monitor such as a CRT (Cathode Ray Tube) or an LCD (Liquid Crystal Display)
  • LCD Liquid Crystal Display
  • the display unit 35 is described as being an LCD monitor.
  • the communication unit 36 includes a network interface and the like, and is a communication unit that transmits and receives data to and from an external device connected to the network 5 via a switching hub.
  • the audio output unit 37 outputs a beep sound or the like according to an instruction from the CPU 31.
  • the reception apparatus 4 is a computer apparatus for performing reception registration, accounting calculation, insurance score calculation, etc. of the patient who has visited the hospital.
  • the accepting device 4 includes a storage unit configured by a CPU, a ROM, a RAM, an input unit configured by a keyboard and a mouse, a display unit configured by a CRT, an LCD, and the like, and each device connected to the network 5
  • the communication unit (not shown) that controls communication is provided.
  • the reception device 4 displays a reception input screen (not shown) on the display unit by software processing in cooperation with the CPU and a program stored in the storage unit.
  • reception information (reception number + patient name, etc.) is input by the input unit via this reception input screen
  • a patient information list of the received patients is created (updated), stored in the storage unit, and transmitted by the communication unit. It transmits to the medical image management apparatus 3 as appropriate.
  • a reception number tag is given to the patient at the reception 11, and various patient information constituting the patient information list such as the patient reception number and the patient name received by the operation of the input unit at the reception device 4. Is input (acceptance input).
  • a list of patient information is generated (updated) and stored in a predetermined area of the storage unit in the reception device 4. .
  • the patient information list is generated, for example, when the first patient of the day is received and input, and is updated to a new patient information list every time the next patient is received and input.
  • the patient information list is appropriately transmitted from the storage unit in the reception apparatus 4 to the medical image management apparatus 3 and stored in the RAM 32 of the medical image management apparatus 3.
  • the doctor makes an inquiry to the patient and determines whether or not to perform imaging and which image generation apparatus 2 to perform imaging.
  • the doctor uses the medical image management apparatus 3 to display a patient information list (not shown) that displays a patient information list transmitted from the receiving apparatus 4 by a predetermined operation of the input unit 34. Is displayed on the display unit 35, and the patient information of the patient to be diagnosed is selected from the displayed patient information list, whereby a viewer screen 353 for the patient is displayed on the display unit 35 (see FIG. 7, which will be described in detail later). indicate.
  • a practitioner such as a doctor takes the patient in front of the image generating apparatus 2 (the ultrasonic diagnostic apparatus 2a or the CR apparatus 2c) that performs imaging, and images the patient's diagnosis target part as a subject (imaging part).
  • the image generating device 2 is the CR device 2c
  • the photographing device 22 performs photographing
  • the cassette that has been photographed by the photographing device 22 is set in the reading device 23, and the radiation image recorded in the cassette is read.
  • patient information is input, imaging and image data are generated in accordance with the operation of the imaging operator, and incidental information including the patient information input to the generated imaging image data and the UID described above Is transmitted to the medical image management apparatus 3.
  • the medical image management apparatus 3 when the captured image data is received, the received captured image data is subjected to image processing, and the processed image is displayed on the viewer screen 353.
  • imaging is performed under a certain imaging condition for the same imaging region of the same patient, such as substantially constant tube voltage and tube current according to the chest thickness.
  • the doctor confirms the processed image displayed on the viewer screen 353 in the medical image management apparatus 3, determines the diagnostic image by performing further image processing if necessary, and the like. Make a diagnosis.
  • FIG. 5 shows a flow of diagnosis support processing executed by the CPU 31 of the medical image management apparatus 3. This process is executed when the medical image management apparatus 3 is turned on, and is realized by a software process in cooperation with the CPU 31 and a program stored in the storage unit 33.
  • a monitor display condition input screen 351 as a display condition input means is displayed on the display unit 35 (step S1).
  • FIG. 6 shows an example of the monitor display condition input screen 351.
  • the monitor display condition input screen 351 includes an observation use level display field 351a, a change selection field 351b, a setting input field 351c, a “confirm” button 351d, a “confirm” button 351e, an image display field 351f, and the like. Is provided.
  • the observation usage level display field 351a displays the value of the observation usage level currently set on the monitor of the display unit 35.
  • the change selection field 351b receives a selection input as to whether or not to change the observation use level.
  • the setting input field 351c accepts an input of a new observation use level when “change” is selected in the change selection field 351b.
  • the “confirm” button 351d is a button for instructing confirmation of monitor display at the observation use level input in the setting input field 351c. When the “confirm” button 351d is pressed, the CPU 31 controls the light amount of the backlight of the display unit 35 so that the display maximum luminance value of the monitor of the display unit 35 becomes the observation use level.
  • the maximum display luminance value of the monitor refers to a luminance value obtained when each pixel of the monitor is output at the maximum drive level, and can be changed by adjusting the light amount of the backlight.
  • the “confirm” button 351e is a button for instructing the setting under the display condition input in the monitor display condition input screen 351.
  • the image display field 351f displays a display of a reference medical image, a test pattern image, or the like for confirming the appearance of the image at the observation use level currently set or input by a user such as a doctor.
  • an observation use level at which a doctor who wishes to make a diagnosis can easily make a diagnosis can be input as a monitor display condition.
  • the display maximum luminance value of the monitor of the display unit 35 is input according to the input observation use level based on the input observation use level.
  • the amount of light of the backlight is controlled so as to be a value (step S2).
  • the monitor of the display unit 35 has the display characteristics indicated by La1 in FIG. 9E
  • the observation usage level input from the monitor display condition input screen 351 is 90%
  • the light amount of the backlight is 90% in step S2. Controlled.
  • the luminance value at each drive level is limited to 90% as indicated by La2 in FIG. 9E.
  • the display characteristic table shown in FIG. 9E is acquired by calibration periodically performed under the control of the CPU 31 and stored in the storage unit 33.
  • calibration for example, the brightness value obtained by reading a grayscale image created by driving a pixel at a plurality of different drive levels (including the maximum drive level and the minimum drive level) with a luminance meter, and the acquired brightness Based on the value, the display characteristic table as shown in FIG. 9E is created by interpolating the luminance value of the drive level portion not used in the grayscale image.
  • the output of the backlight at the time of calibration is the maximum luminance value (100%).
  • the pixel value is set to make the reproduced luminance value constant with respect to the input signal value.
  • the drive level is changed.
  • the luminance value when the output of the backlight is 100% and the pixel is driven at the maximum driving level (hereinafter referred to as the monitor maximum luminance value) may decrease due to deterioration of the backlight or the like. Therefore, in step S2, control is performed in consideration of fluctuations in the monitor maximum luminance value.
  • the luminance value (initial value) obtained by reading a pixel driven at the maximum drive level with a luminance meter or the like when the monitor is shipped from the factory is stored in the storage unit 33, and this initial value ( A)
  • the actual observation usage level (A ⁇ C ⁇ B) is determined based on the current monitor maximum luminance value (B) measured by the luminance meter by the user and the set observation usage level (C),
  • the light quantity of the backlight is controlled based on the determined observation usage level.
  • the actual observation use level exceeds 100%, a beep sound is output by the audio output unit 37, and the light amount of the backlight is controlled with the observation use level set to 100%. Even in this case, the image is displayed, but it is preferable to perform control so that the determination operation for the diagnostic image described later cannot be performed.
  • a patient list screen is displayed on the display unit 35 (step S3).
  • a patient information list transmitted from the reception device 4 (the patient reception number, patient information, etc. received today) is displayed.
  • step S5 When patient information of a patient to be diagnosed is selected by the input unit 34 on the patient list screen (step S4), a viewer screen 353 of the selected diagnosis target patient is displayed on the display unit 35 (step S5).
  • FIG. 7 shows an example of the viewer screen 353.
  • the viewer screen 353 includes a patient information display field 353a, an image display field 353b, an image adjustment field 353c, an “image confirmation” button 353d, an “image comparison screen” button 353e, and a “stored image display” button. 353f, a “return” button 353g, a “diagnosis end” button 353h, and the like are displayed.
  • the patient information display field 353a displays patient information of a patient who is a display target.
  • the image display field 353b displays a processed image obtained by performing image processing on the captured image data received from the image generation device 2.
  • the image adjustment field 353c as the image processing condition input means is selected in advance by the input unit 34 (for example, using a mouse) among the processed images (three processed images in FIG. 7) displayed in the image display field 353b. Input of image processing conditions for image processing performed on the clicked image is accepted.
  • a slide bar for adjusting a range of luminance values when reproducing an image a slide bar for adjusting the contrast of the image, and the like are displayed. Image processing conditions can be input by moving the slide bar.
  • An “image confirmation” button 353d as a confirmation instruction means is an instruction to confirm an image selected and operated in advance by the input unit 34 as a diagnostic image in the displayed state among the processed images displayed in the image display field 353b.
  • the “image comparison screen” button 353e is a button for inputting a screen switching instruction to the image comparison screen 355 (see FIG. 11).
  • the “stored image display” button 353f is a button for inputting an instruction to display past captured image data stored in the image DB 331.
  • the “return” button 353g is a button for inputting an instruction to return to the patient list screen.
  • the “diagnosis end” button 353h is a button for inputting a diagnosis end instruction.
  • step S6 When captured image data is received from the image generation device 2 via the communication unit 36 in a state where the viewer screen 353 of the patient selected as the diagnosis target is displayed (step S6; YES), the received captured image data is received. Are temporarily stored in the RAM 32, and image determination processing is executed (step S7).
  • FIG. 8 shows a flow of image determination processing executed by the CPU 31 in step S7. This processing is realized by software processing by cooperation between the CPU 31 and a program stored in the storage unit 33.
  • the received captured image data is subjected to image analysis, and automatic part recognition processing is performed (step S101).
  • image analysis since the distribution of pixel values (indicating density) of captured image data differs when the imaging region is different, it is necessary to perform image processing according to the distribution state. Therefore, in order to perform optimum image processing, the imaging part in the captured image data is recognized.
  • JP-A-2001-76141 can be applied to the automatic part recognition process.
  • captured image data is main-scanned and sub-scanned to extract a subject area.
  • a differential value with respect to neighboring pixels is calculated for each scanned pixel, and if this differential value is greater than a threshold value, it is determined that the boundary point between the subject region and the missing region.
  • a region surrounded by the boundary point is extracted as a subject region.
  • feature values are extracted for the subject area.
  • the feature amount include the size of the subject area (number of pixels), the shape of the density histogram, the shape of the center line of the subject area, the distribution of primary differential values in the main scanning or sub-scanning direction, and the like.
  • the numerical value of each feature amount is normalized according to a predetermined condition. For example, if the density histogram shape is close to the chest shape pattern, the normalized value is “1”.
  • the correlation value is calculated by comparing the corresponding elements between the feature vectors Pi and Si, and if the values are the same, the correlation value is “1”, and if the values are different, the correlation value is “0”. .
  • the present invention is not limited to the method described above, and other imaging region recognition methods such as the method disclosed in Japanese Patent Laid-Open No. 11-85950 may be applied, and the method is not particularly limited.
  • image processing parameters corresponding to the recognized imaging region are read from the storage unit 33, and gradation conversion processing, frequency processing, enlargement / reduction is performed on the captured image data received using the read image processing parameters.
  • Predetermined image processing such as processing is performed, and processed image data is generated (step S102).
  • the image processing is executed by software processing in cooperation with the image processing program stored in the storage unit 33 and the CPU 31.
  • the received captured image data itself is stored in the RAM 32 for storage, and image processing is performed on a copy of the received captured image data.
  • the processed image is displayed in the image display field 353b of the viewer screen 353 based on the processed image data (step S103).
  • the doctor confirms the processed image displayed in the image display field 353b and determines that the displayed processed image is not suitable for diagnosis, the doctor selects the processed image and provides it in the image adjustment field 353c.
  • image processing conditions luminance, contrast adjustment amount, etc.
  • step S104 When an image processing condition is input from the image adjustment field 353c by the input unit 34 (step S104; YES), the image processing parameter is changed according to the input image processing condition, and the captured image is again displayed using the changed image processing parameter. Image processing is performed on the data copy (step S105), and the processed image is displayed in the image display field 353b (step S106).
  • FIG. 9A shows the look-up table LUT1 read according to the imaging region in step S102.
  • a lookup table LUT1 that is one of the image processing parameters is changed according to the input image processing condition. For example, when the input unit 34 moves the slide bar for adjusting the contrast to the left side in the image adjustment field 353c and performs the adjustment to reduce the contrast, the lookup table LUT2 shown in FIG. 9B is created.
  • the lookup table shown in FIG. LUT3 is created.
  • a lookup table LUT4 shown in FIG. 9D is created.
  • a lookup table for example, any one of LUT2 to LUT4 in FIGS. 9B to 9D
  • a lookup table for example, any one of LUT2 to LUT4 in FIGS. 9B to 9D
  • a display conversion table Lb shown in FIG. 9F is created. Then, based on the generated display conversion table Lb, the drive level corresponding to each pixel value of the processed image data is determined, and each pixel of the monitor of the display unit 35 is driven and processed at the determined drive level. An image is displayed.
  • step S107 When an “image confirmation” button 353d is pressed by the input unit 34 and an instruction to confirm the processed image displayed in the image display field 353b as a diagnostic image is input (step S107; YES), the image is displayed.
  • the processed image is confirmed as a diagnostic image, the patient information of the patient currently being diagnosed in the received captured image data, the image processing parameters when the finalized processed image is generated, and
  • the currently set observation usage level of the monitor is associated and stored in the image DB 331 (step S108).
  • step S108 specifically, the patient information of the patient who is currently displayed is written as incidental information of the captured image data and stored in the image DB 331.
  • the UID of the captured image data, patient information, image processing parameters, the observation usage level input in step S2 of FIG. 5, and the information of the image file storage location of the captured image data are registered in the image information table 331a.
  • the image processing parameter is registered in the “processing parameter 1” field of the image information table 331a, and the observation usage level input in step S2 of FIG. 5 is registered in the “observation usage level 1” field.
  • the diagnostic image confirmed on the viewer screen 353 is used when a doctor makes a diagnosis. It is required by law to preserve the original image used when making a diagnosis by a doctor. Even when an image used for diagnosis is stored as image data, it is necessary to store the diagnostic image in a reproducible manner. In order to reproduce a diagnostic image from captured image data, the image processing parameters used to generate the diagnostic image are required. Moreover, it is preferable to display an image at the observation use level when it is determined as a diagnostic image.
  • step S110 when the “NG” button 353i is pressed by the input unit 34 (step S107; NO, step S109; YES), the received captured image data is discarded (deleted from the RAM 32) (step S110).
  • step S111 If there is other captured image data received via the communication unit 36 (step S111; YES), the process returns to step S101. If there is no other captured image data received (step S111; NO), the process proceeds to step S8 in FIG.
  • step S9 an image comparison screen display control process is executed (step S9). If the display instruction of the image comparison screen 355 is not input (step S8; NO), the process proceeds to step S10.
  • the reference image is designated, but the processed images that can be designated are limited to images that have been confirmed and stored in the storage unit 33.
  • the image displayed by the CPU 31 may be automatically designated as a reference image. Good.
  • FIG. 10 shows a flow of the image comparison screen display control process executed by the CPU 31 in step S9 of FIG. This processing is realized by software processing by cooperation between the CPU 31 and a program stored in the storage unit 33.
  • the image comparison screen 355 is displayed on the display unit 35 (step S201).
  • FIG. 11 shows an example of the image comparison screen 355.
  • the image comparison screen 355 includes a reference image display field 355a, a comparison image display field 355b, an image designation field 355c, an image adjustment field 355d, a “link” button 355e, a “save” button 355f, and a “screen layout”. "Button 355g and" return "button 355h are displayed.
  • the reference image display field 355a displays the reference image designated by the input unit 34.
  • the comparative image display field 355b displays a comparative image (reference image) used for comparative interpretation with the standard image.
  • the image designation field 355c displays a list of thumbnail images obtained by imaging the same part of the patient to be diagnosed in chronological order, and the comparison to be displayed on the comparison image display field 355b by the input unit 34. An image designation operation is accepted.
  • the CPU 31 extracts, from the captured image data stored in the image DB 331, captured image data obtained by capturing the same part of the patient to be diagnosed, and processes each extracted captured image data with corresponding processing parameters. Then, a thumbnail image is generated and displayed in the image designation field 355c.
  • the image adjustment field 355d accepts an input operation by the image processing condition input unit 34 for the displayed reference image and comparison image.
  • the “link” button 355e is a button for inputting an instruction to apply the image processing parameter associated with the reference image to the comparison image.
  • the “save” button 355f as a save instruction unit is a button for instructing to save the comparison image in a state linked to the reference image.
  • the “screen layout” button 355g is a button for setting a screen layout.
  • the “return” button 355h is a button for inputting an instruction to return to the viewer screen 353.
  • Step S202 When a thumbnail image to be a comparison image is designated from among the thumbnail images displayed in the image designation column 355c by the input unit 34, the designated comparison image is displayed in the comparison image display column 355b and displayed side by side with the reference image.
  • the captured image data of the comparative image is read out to the RAM 32 to generate a copy, and stored in the image processing parameter (“image processing parameter 1”) associated with the captured image data of the comparative image. Parameter) is read out, image processing is performed based on the image processing parameter read out in the copy of the captured image data of the comparison image, and is displayed in the comparison image display field 355b.
  • step S203 When the “link” button 355e is pressed by the input unit 34 (step S203; YES), image processing parameters used for image processing of the captured image data of the comparison image are associated with the captured image data of the reference image. The parameters are changed, and image processing is performed on the copy of the captured image data of the comparison image using the changed image processing parameters (step S204). Then, the comparative image that has undergone image processing is displayed in the comparative image display field 355b, and is displayed side by side with the reference image (step S205). If the “link” button 355e is not pressed by the input unit 34, the process proceeds to step S208.
  • the captured image data received from the image generation apparatus 2 is automatically subjected to image processing using image processing parameters corresponding to the imaging part recognized by automatic part recognition. Is given. That is, if the same imaging region is used, image processing is automatically performed with the same image processing parameters.
  • This image processing by automatic part recognition is performed in order to be able to provide a photographed image for diagnosis.
  • the image processing conditions (adjustment amount) of brightness and contrast are individually adjusted with a slide bar etc. so that the doctor can easily diagnose the image automatically processed by the part recognition. Since it is possible to input and perform image processing, image processing parameters may be different for each image even in the same imaging region.
  • step S204 the image processing parameters of the reference image and the comparison image are combined and image processing is performed under the same image processing conditions (linked), so that the doctor visually recognizes the actual change of the lesioned part. It can be so.
  • the displayed reference image and comparative image can be displayed by further adjusting the brightness and contrast of the image by newly inputting image processing conditions from the image adjustment field 355d.
  • the image of the reference image is added to the captured image data of the comparison image.
  • Processing parameters are additionally associated and stored in the image DB 331 (step S207). Specifically, the image processing parameter of the reference image is written in the “image processing parameter 2” field of the record for the comparison image stored in the image information table 331a, and the current display unit 35 is displayed in the “observation usage level 2” field. The observation use level set to “1” is written, and the date and time of storage is written in the “Date 2” field. For example, when the image processing parameter corresponding to the reference image is LUT1 and the image processing parameter corresponding to the comparison image is LUT2, LUT1 is newly written and stored in the “image processing parameter 2” field of the comparison image. .
  • step S208 When another thumbnail image is designated from the image designation field 355c by the input unit 34 and an instruction to change the comparison image is given (step S208; YES), the process returns to step S202.
  • step S209; YES When the “return” button 355h is pressed by the input unit 34 (step S209; YES), the display on the display unit 35 returns to the viewer screen 353 (step S210), and the process proceeds to step S10 in FIG.
  • step S10 of FIG. 5 it is determined whether or not the “stored image display” button 353f is pressed by the input unit 34.
  • the “stored image display” button 353f is pressed (step S10; YES)
  • the stored image is displayed.
  • a display process is executed (step S11). If the “stored image display” button 353f is not pressed (step S10; NO), the process proceeds to step S12.
  • FIG. 12 shows a flow of the stored image display process executed by the CPU 31 in step S11. This processing is realized by software processing by cooperation between the CPU 31 and a program stored in the storage unit 33.
  • a stored image display screen is displayed on the display unit 35 (step S300).
  • the saved image display screen is a screen on which at least an image selection field, an image display field, and a “return” button are displayed.
  • the image selection column displays a list of thumbnail images obtained by performing image processing on each of the corresponding image processing parameters of the past captured image data (stored images) of the diagnosis target patient stored in the image DB 331, and is displayed by the input unit 34.
  • An operation for selecting a target stored image is accepted.
  • the image display field displays a processed image obtained by performing image processing on the captured image data corresponding to the selected thumbnail image with the corresponding image processing parameter.
  • the “return” button is a button for inputting an instruction to return to the viewer screen 353.
  • step S301 When a thumbnail image of a storage image to be displayed is selected from the image selection field by the input unit 34 (step S301), the observation use level associated with the captured image data of the selected storage image and the currently set observation are displayed. The usage levels are compared to determine whether or not they are different (step S302). If it is determined that the two match (step S302; NO), the process proceeds to step S305, and the captured image data and image processing parameters of the selected saved image are read from the image DB 331, and the read image processing is performed. The captured image data is subjected to image processing with parameters and displayed in the image display field.
  • the sound output unit 37 outputs a beep sound that calls the doctor to pay attention.
  • a message for warning that the observation use level is different from that at the time of image storage, an observation use level at the time of image storage, a “YES” button for inputting an instruction to display an image, and an instruction not to display an image are displayed on the display unit 35.
  • a pop-up warning screen including a “NO” button for inputting “NO” is displayed (step S303).
  • step S304 When the “NO” button is pressed by the input unit 34 and an instruction not to display an image is input (step S304; NO), the warning screen is closed, and the process proceeds to step S306.
  • step S304 When the “YES” button is pressed by the input unit 34 and an instruction to display an image is input (step S304; YES), the captured image data of the selected saved image and the corresponding image processing parameters are read from the image DB 331. Then, the captured image data is subjected to image processing with the read image processing parameters and displayed in the image display field (step S305), and the process proceeds to step S306.
  • step S306 when a new saved image is selected from the image selection field by the input unit 34 and an instruction to change the display target image is given (step S306; YES), the process returns to step S302.
  • step S307 When a new saved image is not selected from the image selection field by the input unit 34 and the return button is operated and an instruction to return to the viewer screen 353 is input (step S307; YES), the viewer screen 353 is displayed on the display unit 35. Displayed (step S308), the process proceeds to step S12 in FIG.
  • step S12 of FIG. 5 it is determined whether or not the “diagnosis end” button 353h has been pressed by the input unit 34. If the “diagnosis end” button 353h has not been pressed (step S12; NO), Return to S6. If it is determined that the “diagnosis end” button 353h is pressed (step S12; YES), this process ends.
  • the communication unit 36 when the communication unit 36 receives the captured image data transmitted from the image generation apparatus 2, the CPU 31 performs image processing on the received captured image data.
  • the processed image is displayed on the viewer screen 353 of the display unit 35.
  • the “image confirmation” button 353d is pressed by the input unit 34 and an instruction to confirm the displayed processed image as an image used for diagnosis is input, the captured image data corresponding to the processed image and the confirmation instruction are given.
  • the image processing parameters used to generate the processed image are stored in the image DB 331 in association with each other.
  • the CPU 31 performs automatic part recognition processing on the received photographed image data to automatically recognize the photographed part, and uses the image processing parameters determined in advance according to the recognized photographed part as the photographed image data. Since image processing is performed, it is possible to display an image by performing image processing according to the imaging region.
  • the processed image displayed by the doctor can be adjusted to an image that is easier to diagnose.
  • observation use level can be input as a display condition of the monitor of the display unit 35, and the CPU 31 controls the upper limit of the luminance value when displaying an image on the display unit 35 based on the input observation use level.
  • the image DB 331 associates the input observation use level with the captured image data corresponding to the processed image that has been instructed as an image to be used for diagnosis and the image processing parameter that has been used to generate the processed image that has been instructed. Thus, the reproducibility of the image used for diagnosis can be further improved.
  • the CPU 31 displays a reference image that is a diagnostic image and a comparison image (reference image) obtained by imaging the same part of the same patient on the display unit 35, the CPU 31 associates the reference image with the captured image data of the comparison image.
  • the image processing parameter is changed to the image processing parameter of the diagnostic image, and the image processing is performed and displayed. Therefore, the display standard of both images can be displayed together, and the doctor can change the lesion over time. It becomes possible to observe easily.
  • the CPU 31 when a comparison image save instruction is input, the CPU 31 additionally stores the changed image processing parameter in association with the captured image data of the comparison image in the image DB 331. It is possible to reproducibly store the image at the time of image comparison while leaving the image processing parameters.
  • the description content in the said embodiment is a suitable example of the small-scale diagnosis system 1 which concerns on this invention, and is not limited to this.
  • the case where the adjustment amount of brightness or contrast is input using a slide bar or the like has been described as an example.
  • the present invention is not limited to this.
  • the contrast value may be input as a numerical value.
  • the monitor of the display part 35 was demonstrated as an LCD monitor, it is not limited to this, Other monitors, such as CRT, may be used.
  • the current value of the cathode current is controlled according to the observation usage level.
  • the determination of the processed image as a diagnostic image may be performed by a transition to another screen, an operation of closing the viewer screen, or the like.

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Physics & Mathematics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Pathology (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Processing Or Creating Images (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

 患者の撮影画像データに画像処理を施してモニタに表示し診断する小規模施設において、診断に用いられた画像の再現性を確保しつつ、画像データの保存に必要となる記憶手段の容量を抑えることを可能とする。  本発明に係る医用画像管理装置によれば、画像生成装置から送信された撮影画像データを通信部により受信されると、受信した撮影画像データに画像処理を施して処理済み画像を表示部のビューア画面に表示させる。入力部により、「画像確定」ボタンが押下され、表示された処理済み画像を診断に用いる画像として確定する指示が入力されると、処理済み画像に対応する撮影画像データと当該確定指示された処理済み画像の生成に用いられた画像処理パラメータとを対応付けて画像DBに記憶させる。  

Description

小規模施設用医用画像処理装置、医用画像処理方法及びプログラム
 本発明は、小規模な医療施設で用いられる小規模施設用医用画像処理装置、医用画像処理方法及びプログラムに関するものである。
 従来、医療の分野では、患者を撮影した撮影画像をフィルムに出力し、フィルムに出力した画像を読影して診断が行われていた。診断に用いられた画像は法律により過去の診断資料として保存が義務付けられており、診断に用いられた画像のフィルムは患者のカルテとともに包袋に入れて保存することが行われていた。
 しかし、患者数の多い大規模な病院では、過去の診断資料の保管に大量のスペースが必要となり、切実な問題となっていた。
 近年は、診断に用いた画像のデジタル保存が厚生省より承認され、大病院などでは、フィルムに変わって撮影画像の画像データに各種画像処理を施してモニタ等の表示装置に表示し診断を行うPACS(Picture Archiving and Communication System)システムが広まり、診断に用いられた画像データは光ディスクやハードディスク等の大容量記録媒体に保存され、診断資料の保管スペースの削減が達成されるようになってきている。(例えば、特許文献1、特許文献2参照)。
 PACSシステムでは、撮影された画像データのデータベース化が図られ、検索の容易化、迅速化を図ることが行われている。また、大容量の記録媒体を備え、1つの撮影画像データに対して複数種類の画像処理パラメータで画像処理を施して、それぞれの処理済み画像の画像データを保存しておくことで、画像表示の迅速化を図っている。
 撮影画像データを生成する画像生成装置や撮影画像を出力するモニタやイメージャは種々のメーカにより製造されているが、各メーカがDICOM(Digital Imaging and Communications in Medicine)やHL-7(Health Level Seven)に則ることでデータ互換性(親和性)が維持され、診断に供する画像の品質が一定レベルに維持されている。
 一方、開業医やクリニック等の比較的小規模な医療施設(以下、小規模施設という)においても、フィルムレス化の動きが見られ、デジタル画像をモニタに表示して診断する、所謂ビューア診断を行う施設も存在している。
特開平5-108733号公報 特開2005-149180号公報
 上述の小規模施設においては、画像生成装置の設置台数も少なく、助手が患者のポジショニングを行い、助手からポジショニング完了の連絡を受け医師がX線曝射スイッチを制御する場合や、患者のポジショニングを含め全ての操作を医師自身が行う場合も多い。撮影部位や患者数も限られており、生成される画像数は大病院等に比べてはるかに少ない。しかしながら、大病院のPACSシステムのように、画像表示時の迅速性を確保するために、1つの撮影画像データに対して複数種類の画像処理パラメータで画像処理を施して、それぞれの処理済み画像を保存すると、記憶装置にそれなりの容量が必要となり、かなりの出費を強いることになり、好ましくない。
本願発明者等の検討によれば、開業医やクリニック等の小規模施設においてはPACSシステムのような表示迅速性が要求されることは稀であり、1つの撮影画像データに対して複数種類の処理済み画像を保存しておき、画像が要求されたときの表示迅速性に備えることは設備の冗長性を招くのみである。一方、診断に用いられた画像を再現可能に保存しておかなければならないことは、上述のPACSシステムと同様である。
 本発明の課題は、患者の撮影画像データに画像処理を施してモニタに表示し診断する小規模施設において、診断に用いられた画像の再現性を確保しつつ、画像データの保存に必要となる記憶手段の容量を抑えることを可能とすることである。
 上記課題を解決するために、本発明の第1の側面によると、小規模施設用医用画像処理装置は、
 患者を撮影し撮影画像データを生成する画像生成装置から撮影画像データを受信する受信手段と、
 前記受信手段により受信した撮影画像データに画像処理を施す画像処理手段と、
 前記画像処理手段により画像処理された処理済み画像データに基づいて処理済み画像を表示する表示手段と、
 前記表示手段に表示された処理済み画像を診断に用いる画像として確定する指示を入力するための確定指示手段と、
 前記確定指示された前記処理済み画像に対応する撮影画像データと前記画像処理手段において当該確定指示された処理済み画像の生成に用いられた画像処理パラメータとを対応付けて記憶手段に記憶させる制御手段と、
 を備える。
 前記小規模施設用医用画像処理装置は、
 前記受信手段により受信された撮影画像データを解析して撮影部位を認識する部位認識手段を備え、
 前記画像処理手段は、前記部位認識手段により認識された撮影部位に応じて予め定められた画像処理パラメータを用いて前記撮影画像データに画像処理を施すことが好ましい。
 前記小規模施設用医用画像処理装置は、
 前記表示手段に表示された前記確定指示前の処理済み画像に対する画像処理条件を入力する画像処理条件入力手段を備え、
 前記画像処理手段は、前記画像処理条件入力手段により入力された画像処理条件に基づいて前記画像処理パラメータを変更して画像処理を施し、
 前記制御手段は、前記変更した画像処理パラメータを用いて画像処理することにより得られた処理済み画像を前記表示手段に表示させることが好ましい。
 前記小規模施設用医用画像処理装置は、
 前記表示手段における表示条件を入力する表示条件入力手段を備え、
 前記制御手段は、前記表示条件入力手段により入力された表示条件に基づいて前記表示手段において画像を表示する際の輝度値上限を制御するとともに、前記診断に用いる画像として確定指示された前記処理済み画像に対応する撮影画像データと、前記画像処理手段において前記確定指示された前記処理済み画像の生成に用いられた画像処理パラメータと、前記入力された表示条件とを対応付けて前記記憶手段に記憶させることが好ましい。
 前記制御手段は、前記記憶手段に記憶された撮影画像データの中から前記患者に対応する参照用の撮影画像データを抽出し、前記抽出された参照用の撮影画像データに基づく画像を前記確定指示された処理済み画像と並べて前記表示手段に表示する際、前記参照用の撮影画像データに対応付けられている画像処理パラメータを前記確定指示された処理済み画像の画像処理パラメータに変更して前記画像処理手段に画像処理を施させることが好ましい。
 前記小規模施設用医用画像処理装置は、
 前記参照用の撮影画像データに前記変更した画像処理パラメータを対応付けて保存する指示を入力する保存指示手段を備え、
 前記制御手段は、前記保存指示手段により保存指示が入力された前記参照用の撮影画像データに、前記変更した画像処理パラメータを更に追加で対応付けて前記記憶手段に記憶させることが好ましい。
 本発明の第2の側面によると、
 小規模施設用医用画像処理装置における医用画像処理方法であって、
 患者を撮影し撮影画像データを生成する画像生成装置から受信手段により撮影画像データを受信する工程と、
 前記受信手段により受信した撮影画像データに画像処理手段により画像処理を施す工程と、
 前記画像処理手段により画像処理された処理済み画像データに基づいて処理済み画像を表示手段により表示する工程と、
 前記表示手段に表示された処理済み画像を診断に用いる画像として確定する指示を操作手段により入力する工程と、
 制御手段により、前記確定指示された前記処理済み画像に対応する撮影画像データと前記画像処理手段において当該確定指示された処理済み画像の生成に用いられた画像処理パラメータとを対応付けて記憶手段に記憶させる工程と、
 を含む。
 本発明の第3の側面によると、プログラムは、
 コンピュータを、
 患者を撮影し撮影画像データを生成する画像生成装置から撮影画像データを受信する受信手段、
 前記受信手段により受信した撮影画像データに画像処理を施す画像処理手段、
 前記画像処理手段により画像処理された処理済み画像データに基づいて処理済み画像を表示する表示手段、
 前記表示手段に表示された処理済み画像を診断に用いる画像として確定する指示を入力するための確定指示手段、
 前記確定指示された前記処理済み画像に対応する撮影画像データと前記画像処理手段において当該確定指示された処理済み画像の生成に用いられた画像処理パラメータとを対応付けて記憶手段に記憶させる制御手段、
 として機能させる。
 本発明によれば、患者の撮影画像データに画像処理を施してモニタに表示し診断する小規模施設において、診断に用いられた画像の再現性を確保しつつ、画像データの保存に必要となる記憶手段の容量を抑えることが可能となる。
本発明の実施の形態における小規模診断システムの全体構成例を示す図である。 図1に示す小規模診断システムを適用した場合の各装置の医療施設における配置例を示す図である。 図1の医用画像管理装置の機能的構成を示す要部ブロック図である。 図1の画像DBが有する画像情報テーブルのデータ格納例を示す図である。 図3のCPUにより実行される診断支援処理を示すフローチャートである。 図3の表示部に表示されるモニタ表示条件入力画面の一例を示す図である。 図3の表示部に表示されるビューア画面の一例を示す図である。 図5のステップS7において実行される画像確定処理を示すフローチャートである。 図8のステップS102において撮影部位に応じて読み出されるルックアップテーブルLUT1を示す図である。 図8のステップS102において撮影部位に応じて読み出されたルックアップテーブルが図9Aに示すLUT1である場合において、コントラストを小さくする調整を行った場合に作成されるルックアップテーブルLUT2の一例を示す図である。 図8のステップS102において撮影部位に応じて読み出されたルックアップテーブルが図9Aに示すLUT1である場合において、画像を再現する際の輝度値の範囲を大きくする調整を行った場合に作成されるルックアップテーブルLUT3の一例を示す図である。 図8のステップS102において撮影部位に応じて読み出されたルックアップテーブルが図9Aに示すLUT1である場合において、コントラストを小さくする調整及び画像を再現する際の輝度値の範囲を大きくする調整を行った場合に作成されるルックアップテーブルLUT4の一例を示す図である。 図3の表示部のモニタの表示特性の一例を示す図である。 画像処理条件の調整に応じて作成されるルックアップテーブル表示部の表示特性テーブルに基づいて作成される表示変換テーブルの一例を示す図である。 図5のステップS9において実行される画像比較画面表示制御処理を示すフローチャートである。 図3の表示部に表示される画像比較画面の一例を示す図である。 図5のステップS11において実行される保存画像表示処理を示すフローチャートである。
 以下、本発明に係る医用画像システムの一実施形態について説明する。ただし、本発明は図示例のものに限定されるものではない。
 まず、構成を説明する。
 図1に、本発明の実施の形態における小規模診断システム1のシステム構成を示す。図2に、小規模診断システム1を適用した場合の各装置の医療施設における配置例を示す。
 小規模診断システム1は、開業医やクリニック等の小規模施設に適用されるシステムであり、図1に示すように、画像生成装置2である超音波診断装置2a、内視鏡装置2b、CR装置2cと、医用画像管理装置3と、受付装置4とから構成される。画像生成装置2、医用画像管理装置3、受付装置4は、例えば図示しないスイッチングハブ等を介してLAN(Local Area Network)等の通信ネットワーク(以下単に「ネットワーク」という)5に接続されている。医用画像管理装置3は、医師の常駐場所である診察室に設けられたWS(ワークステーション)であることが好ましい。なお、この医用画像管理装置3として作動するWSが各画像生成装置2の起動や処理条件等を制御する構成としてもよい。
 医用関連の通信方式としては、一般的に、DICOM(Digital Image and Communications in Medicine)規格が用いられており、LAN接続された各装置間の通信では、DICOM MWM(Modality Worklist Management)やDICOM MPPS(Modality Performed Procedure Step)が用いられる。
 例えば、開業医やクリニック等のような小規模施設においては、各装置は図2に示すように配置される。
 すなわち、入口10を入ると患者の受付けを行う受付11と待合室12がある。受付11には窓口担当が配置され、当該担当は、来院した患者に対して、例えば、受付順に個々の患者を区別するための受付番号が印刷された受付番号札を付与する。また、受付11には、受付装置4が設けられており、窓口担当は、患者の氏名等を聞き取り、受付装置4に受付番号と患者氏名等の患者情報との対応付けを入力する。
 待合室12の隣には、ドア等を隔てて医師が患者の診察、診断等を行う診察室13が設けられている。例えば診察室13内の診察用のデスク(図示せず)の上には、医師による診断のために、患者の診断対象部位を撮影した撮影画像を表示する医用画像管理装置3が配置されている。また、診察室13内には、プライバシー等の観点から隔離された空間で行う必要性の低い超音波診断装置2a等が設置されている。
 また、廊下14を隔てて診察室13の向かい側にはX線撮影を行うX線撮影室15が設けられている。X線撮影室15内には、撮影装置22と読取装置23とから構成されるCR装置2cが配設されている。さらに、X線撮影室15の隣には検査室16が設けられており、検査室16内には内視鏡装置2b等が配設されている。
 以下、小規模診断システム1の各装置の構成について説明する。
 画像生成装置2は、例えば、超音波診断装置2a、内視鏡装置2b、CR装置2c等の、患者の診断対象部位を被写体として撮影を行い、撮影した画像をデジタル変換して撮影画像データを生成する装置である。
 超音波診断装置2aは、超音波を出力する超音波プローブと、超音波プローブに接続され、超音波プローブで受信された音波(エコー信号)を内部組織の撮影画像の画像データに変換する電子装置とから構成されている(いずれも図示せず)。超音波診断装置2aは、超音波プローブから体内に超音波を送り、体内組織に反射した音波(エコー信号)を再び超音波プローブで受信して、このエコー信号に応じた撮影画像を電子装置によって生成するようになっている。
 超音波診断装置2aには、アナログ信号からデジタル信号への変換等を行う変換手段(コンバータ)である変換装置21が接続されており、超音波診断装置2aは、変換装置21を介してネットワーク5に接続されている。変換装置21は、超音波診断装置2aで生成されるDICOM規格に合わない形式の画像信号をDICOM規格に準じた形式の画像データに変換する機能を備えている。例えば、超音波診断装置2aにより生成された画像をアナログ信号からデジタル信号へ変換し、小規模診断システム1内において画像データを特定するためのUID(ユニークID)を画像データに付帯させる。UIDは、小規模診断システム1を構成する各装置の識別情報(以下、装置IDという。)、撮影(検査)日付及び時刻を示す数字等から構成される。なお、本実施の形態において、装置IDは画像生成装置2の種類を示す情報を含んで構成されているものとする。
 また、変換装置21には、例えば、テンキー、キーボード、タッチパネル等で構成される入力操作部21aが設けられている。入力操作部21aは、撮影対象の患者の患者情報を入力するための装置である。変換装置21は、入力操作部21aから患者情報が入力されると、入力された患者情報を撮影される画像データに上述のUIDとともに付帯させる。画像データに付帯される画像データに関する情報(ヘッダ情報)を付帯情報と呼ぶ。なお、入力操作部21aの構成はここに示したものに限定されず、例えば、カードを差し込むことでカードに書き込まれた情報を読み取るカードリーダや、バーコードを読み取るバーコードリーダのようなものでもよい。
 内視鏡装置2bは、可撓性を有する管の先端部に小型の撮影装置が設けられたものである(いずれも図示せず)。撮影装置は、例えば光学レンズ等で構成される対物光学系と、対物光学系の結像位置に配置された撮像部と、LED(Light Emitting Diode)等で構成され撮像を行うために必要な照明を行う照明部とを備えている(いずれも図示せず)。撮像部は、例えばCCD(Charge Coupled Device)、CMOS(Complementary Metal-Oxide Semiconductor)等の固体撮像素子を備え、光が入射すると光の入射光量に応じた量の電気的な信号へと光電変換する。対物光学系は、照明部により照明された領域を光学レンズで集光し、撮像部が有する固体撮像素子に結像するように構成されており、固体撮像素子に入射した光が光電変換されることにより、電気信号として撮影画像の画像データが出力されるようになっている。
 CR装置2cを構成する撮影装置22は、図示しない放射線(X線)源を有し、患者の診断対象部位に放射線を照射して静止画像を撮影する。撮影時には前記放射線源から照射される放射線の照射領域内に、例えば放射線エネルギーを蓄積する輝尽性蛍光体シートを備える放射線画像変換プレートが内蔵されたカセッテが配置されるようになっており、放射線源からの照射放射線量に対する診断対象部位の放射線透過率分布に従った放射線量がカセッテに内設された輝尽性蛍光体シートの輝尽性蛍光体層に蓄積し、この輝尽性蛍光体層に診断対象部位の放射線画像情報を記録する。
 読取装置23は、診断対象部位の放射線画像情報が記録されたカセッテが装填されると、装置内に装填されたカセッテの輝尽性蛍光体シートに励起光を照射し、これによりシートから発光される輝尽光を光電変換し、得られた画像信号をA/D変換して、撮影画像データを生成するようになっている。
 CR装置2cは撮影装置22と読取装置23とが一体化した一体型の装置であってもよい。
 なお、本実施の形態において、内視鏡装置2b及びCR装置2cの読取装置23は、DICOM規格に対応した装置であり、DICOM形式で撮影画像データを医用画像管理装置3に送信する。
 例えば、内視鏡装置2b及びCR装置2cの読取装置23は、生成された撮影画像データに上述のUIDを付与する機能が備えられており、この付与されたUIDを撮影画像データに付帯させる。
 また、図示はしないが、内視鏡装置2b及びCR装置2cの読取装置23においても、キーボード、タッチパネル等で構成される入力操作部が設けられている。入力操作部は、撮影対象の患者の患者情報を入力するための装置である。内視鏡装置2b及びCR装置2cの読取装置23は、入力操作部から患者情報が入力されると、入力された患者情報を撮影画像データに上述のUIDとともに付帯させて医用画像管理装置3へ送信する。
 なお、入力操作部の構成はここに示したものに限定されず、例えば、カードを差し込むことでカードに書き込まれた情報を読み取るカードリーダや、バーコードを読み取るバーコードリーダのようなものでもよい。
 医用画像管理装置3は、例えば診察室13に設置され、医師が撮影画像を表示させて読影診断を行うための小規模施設用医用画像処理装置であり、一般的なPC(Personal Computer)に用いられるモニタ(表示部)よりも高精細のモニタを備えるものであってもよい。
 医用画像管理装置3は、図3に示すように、CPU31、RAM32、記憶部33、入力部34、表示部35、通信部36、音声出力部37等を備えて構成されており、各部はバス38により接続されている。
 CPU31は、記憶部33に記憶されているシステムプログラムや処理プログラム等の各種プログラムを読み出してRAM32に展開し、展開されたプログラムに従って後述する診断支援処理をはじめとする各種処理を実行し、医用画像管理装置3の各部を制御する。CPU31は、制御手段、画像処理手段として機能する。
 RAM32は、CPU31により実行制御される各種処理において、記憶部33から読み出されたCPU31で実行可能な各種プログラム、入力若しくは出力データ、及びパラメータ等の一時的に記憶するワークエリアを形成する。
 記憶部33は、HDD(Hard Disk Drive)や半導体の不揮発性メモリ等により構成さ
れる。記憶部33には、CPU31で実行可能な各種プログラムや、各プログラムで必要なパラメータ、データ等を記憶している。
 例えば、記憶部33は、撮影部位に対応付けて、撮影部位毎に予め定められた画像処理パラメータを記憶している。
 ここで、撮影部位は撮影対象である被写体の部位(例えば、胸部の骨や肺、腹部等)の他、撮影形態(例えば、正面、斜位等の撮影方向や臥位、立位等の撮影条件)も含めて分類することとする。
 撮影画像データに施される画像処理は、例えば、階調変換処理、周波数強調処理、拡大/縮小処理等であり、記憶部33には、撮影部位毎に、予め定められた画像処理の種類について予め定められた画像処理パラメータが対応付けて記憶されている。
 画像処理パラメータは、例えば、階調変換処理に用いる階調変換テーブル(入力画素値と出力画素値(輝度値)との関係を定めたテーブル。以下、ルックアップテーブル(Look Up Table)という)、周波数強調処理に用いる強調度、拡大・縮小処理の拡大率、縮小率等が挙げられる。
 また、記憶部33は、画像生成装置2から送信された撮影画像データを格納する画像DB(Data Base)331を有している。画像DB331は、当該画像DB331に格納さ
れている撮影画像データに関する情報を格納する画像情報テーブル331aを有している。図4に、画像情報テーブル331aのデータ格納例を示す。図4に示すように、画像情報テーブル331aは、「レコード番号」、「UID」、「患者ID」、「患者氏名」、・・・「ファイル格納場所」、「画像処理パラメータ1」、「観察使用レベル1」、「画像処理パラメータ2」、「観察使用レベル2」「日付2」・・・「画像処理パラメータn」、「観察使用レベルn」、「日付n」等のフィールドを有し、画像生成装置2から送信された1つの撮影画像データに関するUID、患者情報(患者ID、患者氏名、・・・)、ファイル格納場所、画像処理パラメータ、観察使用レベル等を1レコードの情報として格納する。
 「レコード番号」フィールドは、画像DB331においてレコードを識別するために付与された番号を格納する領域である。「UID」フィールドは、小規模診断システム1内において撮影画像データを特定するためのUIDを格納する領域である。「患者ID」フィールドは、被写体となった患者を特定するための患者IDを格納する領域である。「患者氏名」フィールドは、被写体となった患者の氏名情報を格納する領域である。「ファイル格納場所」フィールドは、撮影画像データのファイル格納場所を示す情報を格納する領域である。「画像処理パラメータ1」フィールドは、撮影画像データを診断用画像に変換する際に用いられた画像処理パラメータを格納する領域である。「観察使用レベル1」フィールドは、診断用画像を確定した際における表示部35のモニタの観察使用レベルを示す情報を格納する領域である。
 「画像処理パラメータ2」~「画像処理パラメータn」フィールドは、診断用画像とは別の画像処理パラメータで画像処理された処理済み画像の保存が指示された場合に、その処理済み画像を生成した際の画像処理パラメータを追加で格納する領域である。「観察使用レベル2」~「観察使用レベルn」フィールドは、それぞれ「画像処理パラメータ2」~「画像処理パラメータn」で画像処理された処理済み画像の保存が指示された際における観察使用レベルを示す情報を格納する領域である。「日付2」~「日付n」フィールドは、それぞれ「画像処理パラメータ2」~「画像処理パラメータn」で画像処理された処理済み画像の保存が指示された日時を格納する領域である。
 ここで、撮影画像データとは、通信部36を介して画像生成装置2から受信した画像データ(画像処理を施していない画像データ)をいい、撮影画像とは、撮影画像データに基づき表示される画像をいう。また、処理済み画像データとは、撮影画像データに画像処理を施して得られた画像データをいい、処理済み画像とは、処理済み画像データに基づき表示される画像をいう。
 また、診断用画像とは、医師が読影診断を行う際に用いる画像をいい、画像生成装置2から送信された撮影画像データに画像処理を施すことによって作成される処理済み画像の一つである。
 観察使用レベルとは、表示部35のモニタが表示可能な最大輝度値の何%を画像観察時のモニタの最大輝度値として表示するかを示す値である。
 画像情報テーブル331aに格納される情報により、撮影画像データは、患者情報や画像を識別するためのUIDと対応付けられ、患者情報、画像生成装置2の種別、撮影日付等をキー情報として検索可能に記憶部33に記憶される。
 入力部34は、カーソルキー、数字入力キー、及び各種機能キー等を備えたキーボードと、マウス等のポインティングデバイス、電源キー等を備えて構成され、キーボード等で押下操作されたキーの押下信号とマウスによる操作信号とを、入力信号としてCPU31に出力する。
 表示部35は、例えば、CRT(Cathode Ray Tube)やLCD(Liquid Crystal Display)等のモニタを備えて構成されており、CPU31から入力される表示信号の指示に従って、各種画面を表示する。本実施の形態においては、表示部35のは、LCDモニタであることとして説明する。
 通信部36は、ネットワークインターフェース等により構成され、スイッチングハブを介してネットワーク5に接続された外部機器との間でデータの送受信を行う通信手段である。
 音声出力部37は、CPU31からの指示に応じてビープ音等を出力する。
 受付装置4は、来院した患者の受付登録、会計計算、保険点数計算等を行うためのコンピュータ装置である。受付装置4は、CPU、ROM、RAM等により構成される記憶部、キーボードやマウス等により構成される入力部、CRTやLCD等により構成される表示部、ネットワーク5に接続された各装置との通信を制御する通信部(いずれも図示せず)等を備えて構成されている。受付装置4は、入力部より受付入力画面の表示が指示されると、CPUと記憶部に記憶されたプログラムとの協働によるソフトウエア処理により、表示部に図示しない受付入力画面を表示する。この受付入力画面を介して入力部により受付情報(受付番号+患者氏名等)が入力されると、受付された患者の患者情報リストを作成(更新)して記憶部に記憶し、通信部により適宜医用画像管理装置3に対して送信する。
 次に、小規模診断システム1が適用された小規模施設における、一の患者についての診察の流れについて説明する。
 患者が来院すると、受付11において患者に対し受付番号札が付与され、受付装置4において、入力部の操作により受付された患者の受付番号及び患者氏名等、患者情報リストを構成する各種の患者情報の入力(受付入力)が行われる。受付装置4においては、患者の受付番号及び患者情報等が入力されると、患者情報のリスト(患者情報リスト)が生成(更新)され、受付装置4内の記憶部の所定領域に格納される。患者情報リストは、例えば、その日の最初の患者が受付入力されると生成され、次の患者が受付入力される毎に新しい患者情報リストに更新される。患者情報リストは、受付装置4内の記憶部から適宜医用画像管理装置3に送信され、医用画像管理装置3のRAM32に記憶される。
 受付番号が付与された患者が診察室13に移動すると、医師は、患者に問診等を行い、撮影を行うか否か、どの画像生成装置2で撮影を行うか等を判断する。撮影が必要であると判断した場合、医師は、医用画像管理装置3において、入力部34の所定の操作により、受付装置4から送信された患者情報リストを表示する患者リスト画面(図示せず)を表示部35に表示し、表示された患者情報リストの中から診断対象の患者の患者情報を選択することにより、表示部35に当該患者についてのビューア画面353(図7参照。詳細後述)を表示する。
 医師等の撮影実施者は、患者を撮影を行う画像生成装置2(超音波診断装置2a、又はCR装置2c)の前に連れて行き、その患者の診断対象部位を被写体(撮影部位)として撮影を行い、撮影画像データの生成を行う。例えば、画像生成装置2がCR装置2cの場合、撮影装置22において撮影を行い、撮影装置22において撮影済みのカセッテを読取装置23にセットし、カセッテに記録された放射線画像の読み取りを行う。画像生成装置2においては、撮影実施者の操作に応じて患者情報の入力、撮影及び画像データの生成が行われ、生成された撮影画像データに入力された患者情報及び上述のUIDを含む付帯情報が付帯されて医用画像管理装置3へ送信される。医用画像管理装置3においては、撮影画像データが受信されると、受信された撮影画像データに画像処理が施され、処理済み画像がビューア画面353に表示される。
 小規模な、患者のかかりつけ医的な存在である医療施設においては、大規模施設で行うような数百にも及ぶような撮影部位×撮影条件の組み合わせの撮影を行うことはなく、定型的な撮影に限られる。また、撮影実施者が限られており、患者とも顔なじみである。そのため、例えば、成人の場合の胸部正面画像では、胸厚さに応じて略一定の管電圧、管電流、というように、同一患者の同一撮影部位については一定の撮影条件で撮影が行われる。
 撮影が終了すると、医師は、医用画像管理装置3において、ビューア画面353に表示された処理済み画像を確認し、必要であれば更に画像処理を行う等して診断用画像として確定し、患者の診断を行う。
 次に、医用画像管理装置3の動作について説明する。
 図5に、医用画像管理装置3のCPU31により実行される診断支援処理のフローを示す。当該処理は、医用画像管理装置3に電源が投入された際に実行される処理であり、CPU31と記憶部33に記憶されているプログラムとの協働によるソフトウエア処理により実現される。
 まず、表示部35に表示条件入力手段としてのモニタ表示条件入力画面351が表示される(ステップS1)。図6に、モニタ表示条件入力画面351の一例を示す。図6に示すように、モニタ表示条件入力画面351には、観察使用レベル表示欄351a、変更選択欄351b、設定入力欄351c、「確認」ボタン351d、「確定」ボタン351e、画像表示欄351f等が設けられている。
 観察使用レベル表示欄351aは、現在表示部35のモニタに設定されている観察使用レベルの値を表示する。変更選択欄351bは、観察使用レベルを変更するか否かの選択入力を受け付ける。設定入力欄351cは、変更選択欄351bにおいて「変更する」が選択された際の新たな観察使用レベルの入力を受け付ける。「確認」ボタン351dは、設定入力欄351cに入力された観察使用レベルでのモニタ表示の確認を指示するためのボタンである。当該「確認」ボタン351dが押下されると、CPU31は、表示部35のモニタの表示最大輝度値が観察使用レベルとなるように表示部35のバックライトの光量を制御する。モニタの表示最大輝度値とは、当該モニタの各ピクセルを最大駆動レベルで出力したときに得られる輝度値を指し、バックライトの光量の調整により変化させることができる。
 「確定」ボタン351eは、当該モニタ表示条件入力画面351に入力された表示条件での設定を指示するためのボタンである。画像表示欄351fは、医師等のユーザが現在設定されている或いは入力した観察使用レベルでの画像の見え方を確認するための参照用の医用画像やテストパターン画像等が表示を表示する。
 このように、モニタ表示条件入力画面351においては、診断を行おうとする医師が診断をしやすい観察使用レベルをモニタ表示条件として入力することができる。
 モニタ表示条件入力画面351において入力部34により観察使用レベルが入力されると、入力された観察使用レベルに基づいて、表示部35のモニタの表示最大輝度値が入力された観察使用レベルに応じた値となるようにバックライトの光量が制御される(ステップS2)。
 例えば、表示部35のモニタが図9EのLa1に示す表示特性を有する場合、モニタ表示条件入力画面351から入力された観察使用レベルが90%であれば、ステップS2においてバックライトの光量が90%に制御される。その結果、各駆動レベルでの輝度値は図9EのLa2に示すように90%に制限される。
 図9Eに示す表示特性テーブルは、CPU31の制御により定期的に行われるキャリブレーションによって取得され、記憶部33に記憶されている。キャリブレーションでは、例えば、複数の異なる駆動レベル(最大駆動レベル、最小駆動レベルを含む)でピクセルを駆動して作成したグレースケール画像を輝度計で読み取ったときの輝度値を取得し、取得した輝度値に基づいて、グレースケール画像に用いられていない駆動レベル部分の輝度値を補間することによって図9Eに示すような表示特性テーブル作成する。キャリブレーション時のバックライトの出力は、最大輝度値(100%)である。例えば、バックライトが最大輝度値設定(100%)のままで表示特性が図9Eに示すLa1→La2に変化したとき(劣化したとき)、入力信号値に対する再現輝度値を一定にするため、ピクセルの駆動レベルが変更される。
 ここで、バックライトの出力を100%とし、最大駆動レベルでピクセルを駆動したときの輝度値(以下、モニタ最大輝度値という)は、バックライトの劣化等により減少することがある。そのため、ステップS2においては、モニタ最大輝度値の変動を考慮して制御が行われる。具体的には、工場からの当該モニタの出荷時等に最大駆動レベルで駆動したピクセルを輝度計等で読み取って得られた輝度値(初期値)が記憶部33に記憶され、この初期値(A)、ユーザにより輝度計で測定された現在のモニタ最大輝度値(B)及び設定された観察使用レベル(C)に基づいて、実際の観察使用レベル(A×C÷B)が決定され、この決定された観察使用レベルに基づいてバックライトの光量が制御される。なお、実際の観察使用レベルが100%を超えた場合は、音声出力部37によりビープ音が出力され、観察使用レベルを100%としてバックライトの光量が制御される。この場合であっても画像は表示されるが、後述する診断用画像の確定操作は行えないように制御することが好ましい。
 次いで、表示部35に患者リスト画面が表示される(ステップS3)。患者リスト画面には、受付装置4から送信された患者情報リスト(本日受付された患者の受付番号、患者情報等)が表示される。
 患者リスト画面において入力部34により診断対象となる患者の患者情報が選択されると(ステップS4)、表示部35に、選択された診断対象患者のビューア画面353が表示される(ステップS5)。
 図7に、ビューア画面353の一例を示す。
 図7に示すように、ビューア画面353には、患者情報表示欄353a、画像表示欄353b、画像調整欄353c、「画像確定」ボタン353d、「画像比較画面」ボタン353e、「保存画像表示」ボタン353f、「戻る」ボタン353g、「診断終了」ボタン353h等が表示されている。
 患者情報表示欄353aは、表示対象となっている患者の患者情報を表示する。画像表示欄353bは、画像生成装置2から受信された撮影画像データに画像処理を施して得られた処理済み画像を表示する。画像処理条件入力手段としての画像調整欄353cは、画像表示欄353bに表示された処理済み画像(図7においては、3つの処理済み画像)のうち入力部34により予め選択操作(例えば、マウスによるクリック等)された画像に対して行う画像処理の画像処理条件の入力を受け付ける。画像調整欄353cには、例えば、画像を再現する際の輝度値の範囲を調整するためのスライドバーや、画像のコントラストを調整するためのスライドバー等が表示され、入力部34のマウス等によりスライドバーを移動させることで画像処理条件を入力することができる。確定指示手段としての「画像確定」ボタン353dは、画像表示欄353bに表示された処理済み画像のうち入力部34により予め選択操作された画像をその表示された状態で診断用画像として確定する指示を入力するためのボタンである。「画像比較画面」ボタン353eは、画像比較画面355(図11参照)への画面の切り替え指示を入力するためボタンである。「保存画像表示」ボタン353fは、画像DB331に保存されている過去の撮影画像データの表示指示を入力するためのボタンである。「戻る」ボタン353gは、患者リスト画面に戻る指示を入力するためボタンである。「診断終了」ボタン353hは、診断終了指示を入力するためのボタンである。
 診断対象として選択された患者のビューア画面353が表示された状態において、通信部36を介して画像生成装置2から撮影画像データが受信されると(ステップS6;YES)、受信された撮影画像データはRAM32に一時的に記憶され、画像確定処理が実行される(ステップS7)。
 図8に、ステップS7においてCPU31により実行される画像確定処理のフローを示す。当該処理は、CPU31と記憶部33に記憶されているプログラムとの協働によるソフトウエア処理により実現される。
 まず、受信された撮影画像データが画像解析され、自動部位認識処理が行われる(ステップS101)。通常、撮影部位が異なると撮影画像データの画素値(濃度を示す)の分布が異なるものとなるため、その分布状態に応じた画像処理を施す必要がある。よって、最適な画像処理を施すため、撮影画像データにおける撮影部位を認識する。
 自動部位認識処理は、例えば特開2001-76141に記載の方法が適用可能である。この方法では、まず撮影画像データを主走査及び副走査し、被写体領域を抽出する。主走査及び副走査時には、走査した各画素について近傍画素との微分値を算出して、この微分値が閾値より大きければ被写体領域と素抜け領域との境界点であると判断する。この境界点により囲まれる領域を被写体領域として抽出する。
 次いで、被写体領域について特徴量を抽出する。特徴量としては、被写体領域の大きさ(画素数)、濃度ヒストグラムの形状、被写体領域の中心線の形状、主走査又は副走査方向における1次微分値の分布等が挙げられる。各特徴量の数値は予め定められた条件に従って正規化する。例えば、濃度ヒストグラムの形状が胸部の形状パターンと近ければ正規化値「1」とされる。
 次いで、抽出された特徴量を要素とする特徴ベクトルPi(i=1、2、・・・、n)と、予め標準体型の各撮影部位について求められている特徴ベクトルSi(i=1、2、・・・、n)との相関値を求め、最も相関値が高い特徴ベクトルSiが示す撮影部位が、撮影画像の撮影部位であるとして求める。なお、相関値は特徴ベクトルPi、Si間で対応する要素を比較し、同じ値であれば相関値「1」、異なる値であれば相関値「0」として各要素の相関値の総和を求める。
 なお、上述した方法に限らず、特開平11-85950に開示の方法等、他の撮影部位の認識方法を適用することとしてもよく、特にその手法は限定しない。
 次いで、認識された撮影部位に対応する画像処理パラメータが記憶部33から読み出され、読み出された画像処理パラメータを用いて受信された撮影画像データに階調変換処理、周波数処理、拡大/縮小処理等の予め定められた画像処理が施され、処理済み画像データが生成される(ステップS102)。画像処理は、記憶部33に記憶された画像処理プグラムとCPU31との協働によるソフトウエア処理により実行される。なお、受信された撮影画像データそのものは保存用にRAM32に保持され、画像処理は、受信された撮影画像データのコピーに対して施される。そして、処理済み画像データに基づき処理済み画像がビューア画面353の画像表示欄353bに表示される(ステップS103)。
 医師は、画像表示欄353bに表示された処理済み画像を確認し、表示された処理済み画像が診断に適していないと判断した場合、当該処理済み画像を選択操作して画像調整欄353cに設けられている輝度やコントラスト調整のためのスライドバー等を入力部34により操作することにより画像処理条件(輝度、コントラストの調整量等)を入力することによって、表示されている処理済み画像に対して画像処理を施すことができる。
 入力部34により画像調整欄353cから画像処理条件が入力されると(ステップS104;YES)、入力された画像処理条件に応じて画像処理パラメータが変更され、変更された画像処理パラメータで再度撮影画像データのコピーに画像処理が施され(ステップS105)、処理済み画像が画像表示欄353bに表示される(ステップS106)。
 ここで、図9A~図9Eを用いてステップS104~S106における処理について説明する。
 図9Aに、ステップS102で撮影部位に応じて読み出されたルックアップテーブルLUT1を示す。ステップS104において、画像調整欄353cにおいて画像処理条件(輝度やコントラスト)が入力されると、画像処理パラメータの一つであるルックアップテーブルLUT1が入力された画像処理条件に応じて変更される。
 例えば、入力部34により画像調整欄353cにおいてコントラストを調整するためのスライドバーを左側に移動させ、コントラストを小さくする調整を行うと、図9Bに示すルックアップテーブルLUT2が作成される。
 例えば、入力部34により画像調整欄353cにおいて輝度を調整するためのスライドバーを右側に移動させ、画像を再現する際の輝度値の範囲を大きくする調整を行うと、図9Cに示すルックアップテーブルLUT3が作成される。
 例えば、入力部34により画像調整欄353cにおいてコントラストのスライドバーを左側に移動させ、コントラストを小さくする調整を行い、更に、輝度を調整するためのスライドバーを右側に移動させ、画像を再現する際の輝度値の範囲を大きくする調整を行うと、図9Dに示すルックアップテーブルLUT4が作成される。
 画像調整欄353cにおける調整に応じてルックアップテーブル(例えば、図9B~図9DのLUT2~LUT4の何れか)が作成されると、作成されたLUTと図9Eに示す表示特性テーブルLa1に基づいて、図9Fに示す表示変換テーブルLbが作成される。
 そして、生成された表示変換テーブルLbに基づいて、処理済み画像データの各画素値に応じた駆動レベルが決定され、決定された駆動レベルで表示部35のモニタの各ピクセルが駆動されて処理済み画像が表示される。
 入力部34により「画像確定」ボタン353dが押下され、画像表示欄353bに表示されている処理済み画像を診断用画像として確定する指示が入力されると(ステップS107;YES)、表示されている処理済み画像が診断用画像として確定されるとともに、上記受信した撮影画像データに、現在診断対象となっている患者の患者情報、確定指示された処理済み画像を生成した際の画像処理パラメータ、及び現在設定されているモニタの観察使用レベルが対応付けられて画像DB331に記憶される(ステップS108)。
 ステップS108においては、具体的には、撮影画像データの付帯情報として、現在表示対象となっている患者の患者情報が書き込まれ、画像DB331に格納される。また、撮影画像データのUID、患者情報、画像処理パラメータ、図5のステップS2で入力された観察使用レベル、撮影画像データの画像ファイル格納場所の情報が画像情報テーブル331aに登録される。画像処理パラメータは画像情報テーブル331aの「処理パラメータ1」フィールドに、図5のステップS2で入力された観察使用レベルは「観察使用レベル1」フィールドに登録される。
 ビューア画面353で確定された診断用画像は、医師が診断を下す際に用いられる。医師が診断を下す際に用いた画像は、原本を保存することが法律で義務付けられている。診断に用いた画像を画像データで保存する場合においても、診断用画像を再現可能に保存する必要がある。撮影画像データから診断用画像を再現するためには、診断用画像を生成するために用いた画像処理パラメータが必要となる。また、診断用画像として確定したときの観察使用レベルで画像を表示することが好ましい。そこで、後述する画像比較画面表示制御処理等において新たに画像処理パラメータを記憶する場合、「処理パラメータ1」及び「観察使用レベル1」のフィールドには上書きは行われず、「処理パラメータ2」及び「観察使用レベル2」のフィールド以降のフィールドに新たな画像処理パラメータ及び観察使用レベルが追加で書き込まれるように制御される。
 一方、入力部34により「NG」ボタン353iが押下されると(ステップS107;NO、ステップS109;YES)、当該受信された撮影画像データが破棄(RAM32から削除)される(ステップS110)。
 通信部36を介して他に受信された撮影画像データがある場合(ステップS111;YES)、処理はステップS101に戻る。他に受信された撮影画像データがない場合(ステップS111;NO)、処理は図5のステップS8に移行する。
 ビューア画面353において、入力部34により、「画像比較画面」ボタン353eが押下されることにより画像比較画面355の表示が指示され、更に、比較読影の基準となる基準画像が画像表示欄353bに表示された処理済み画像の中から指定されると(ステップS8;YES)、画像比較画面表示制御処理が実行される(ステップS9)。画像比較画面355の表示指示が入力されなければ(ステップS8;NO)、処理はステップS10に移行する。
 ここで、図7に示すビューア画面353のように画像表示欄353bが複数設けられている場合、複数の画像表示欄353bに表示された処理済み画像の中から一の画像を入力部34により選択することにより基準画像が指定されるが、指定可能な処理済み画像は、画像が確定され記憶部33に記憶された画像に限られる。画像表示欄353bが一つの場合、又は、一つの画像表示欄353bにしか処理済み画像が表示されていない場合は、CPU31により表示されている画像を基準画像として自動的に指定するようにしてもよい。
 図10に、図5のステップS9においてCPU31により実行される画像比較画面表示制御処理のフローを示す。当該処理は、CPU31と記憶部33に記憶されているプログラムとの協働によるソフトウエア処理により実現される。
 まず、表示部35に、画像比較画面355が表示される(ステップS201)。図11に、画像比較画面355の一例を示す。
 画像比較画面355には、基準画像表示欄355aと、比較画像表示欄355bと、画像指定欄355cと、画像調整欄355dと、「リンク」ボタン355eと、「保存」ボタン355fと、「画面レイアウト」ボタン355gと、「戻る」ボタン355hと、が表示されている。
 基準画像表示欄355aは、入力部34により指定された基準画像を表示する。比較画像表示欄355bは、基準画像との比較読影に使用される比較画像(参照画像)を表示する。画像指定欄355cは、診断対象となっている患者についての同一部位を撮影したサムネイル画像の一覧を時系列にそって並べて表示し、入力部34による比較画像表示欄355bへの表示対象となる比較画像の指定操作を受け付ける。CPU31は、画像DB331に記憶されている撮影画像データの中から診断対象となっている患者についての同一部位を撮影した撮影画像データを抽出し、抽出した各撮影画像データを対応する処理パラメータで処理してサムネイル画像を生成し、画像指定欄355cに表示する。画像調整欄355dは、表示された基準画像及び比較画像に対する画像処理条件の入力部34による入力操作を受け付ける。「リンク」ボタン355eは、基準画像に対応付けられている画像処理パラメータを比較画像に適用する指示を入力するためのボタンである。保存指示手段としての「保存」ボタン355fは、比較画像を基準画像とリンクさせた状態で保存することを指示するためのボタンである。「画面レイアウト」ボタン355gは、画面レイアウトを設定するためボタンである。「戻る」ボタン355hは、ビューア画面353に戻る指示を入力するためのボタンである。
 「画面レイアウト」ボタン355gが押下されると、基準画像と比較する画像の枚数を設定するエリアがポップアップ表示され、当該エリアから設定された枚数の比較画像が比較画像表示欄355bに表示可能となる。
 入力部34により画像指定欄355cに表示されたサムネイル画像の中から比較画像となるサムネイル画像が指定されると、指定された比較画像が比較画像表示欄355bに表示され、基準画像と並べて表示される(ステップS202)。このとき、比較画像の撮影画像データがRAM32に読み出されてコピーが生成されるとともに、比較画像の撮影画像データに対応付けられている画像処理パラメータ(「画像処理パラメータ1」に格納されているパラメータ)が読み出され、比較画像の撮影画像データのコピーに読み出された画像処理パラメータに基づいて画像処理が施され、比較画像表示欄355bに表示される。
 入力部34により「リンク」ボタン355eが押下されると(ステップS203;YES)、比較画像の撮影画像データの画像処理に使用する画像処理パラメータが基準画像の撮影画像データに対応付けられた画像処理パラメータに変更され、変更された画像処理パラメータを用いて比較画像の撮影画像データのコピーに対し画像処理が施される(ステップS204)。そして、画像処理済みの比較画像が比較画像表示欄355bに表示されることにより、基準画像と並べて表示される(ステップS205)。入力部34により「リンク」ボタン355eが押下されない場合、処理はステップS208に移行する。
 ここで、上述のように、医用画像管理装置3においては、画像生成装置2から受信された撮影画像データは、自動部位認識により認識された撮影部位に応じた画像処理パラメータで自動的に画像処理が施される。即ち、同じ撮影部位であれば、自動的に同じ画像処理パラメータで画像処理が施される。この自動部位認識による画像処理は、撮影画像を診断に提供可能とするために行われる。しかし、よりよい画像で診断を行うため、部位認識により自動的に画像処理された画像に対し、医師が診断しやすいように個別にスライドバーなどで輝度やコントラストの画像処理条件(調整量)を入力し画像処理を行うことが可能であるため、同じ撮影部位であっても画像処理パラメータが個々の画像ごとに異なることがある。
 ところが、2以上の画像を並べて病変部の経時的な変化を見る経過観察を行う場合に、比較対象となる各画像ごとに異なる画像処理パラメータで画像処理を行ってしまうと、画像処理パラメータの種類によっては、各画像の表示基準(例えば、各画像(同じ画素値)を表す輝度やコントラスト)が画像毎に異なってしまい、例えば、病変部に実際には何ら変化がない場合であっても、病変部に変化があるように見えてしまうことがある。
 そこで、ステップS204において、基準画像と比較画像とで画像処理パラメータを合わせて同じ画像処理条件下で画像処理を行っておく(リンクさせておく)ことで、病変部の実際の変化を医師が視認できるようにする。
 なお、表示された基準画像及び比較画像は、画像調整欄355dから新たに画像処理条件を入力することで、さらに画像の輝度やコントラストを調整して表示することができる。
 入力部34により「保存」ボタン355fが押下され、比較画像を基準画像とリンクさせた状態で保存することが指示されると(ステップS206;YES)、比較画像の撮影画像データに基準画像の画像処理パラメータが更に追加で対応付けられて画像DB331に保存される(ステップS207)。具体的には、画像情報テーブル331aに記憶されている比較画像についてのレコードの「画像処理パラメータ2」フィールドに基準画像の画像処理パラメータが書き込まれ、「観察使用レベル2」フィールドに現在表示部35に設定されている観察使用レベルが書き込まれ、「日付2」フィールドに保存時の日時が書き込まれる。例えば、基準画像に対応する画像処理パラメータがLUT1であり、比較画像に対応する画像処理パラメータがLUT2である場合、比較画像の「画像処理パラメータ2」フィールドに新たにLUT1が書き込まれて格納される。
 入力部34により画像指定欄355cから他のサムネイル画像が指定され、比較画像の変更が指示されると(ステップS208;YES)、処理はステップS202に戻る。
 入力部34により「戻る」ボタン355hが押下されると(ステップS209;YES)、表示部35の表示がビューア画面353に戻り(ステップS210)、処理は図5のステップS10に移行する。
 図5のステップS10においては、入力部34により「保存画像表示」ボタン353fが押下されたか否かが判断され、「保存画像表示」ボタン353fが押下されると(ステップS10;YES)、保存画像表示処理が実行される(ステップS11)。「保存画像表示」ボタン353fが押下されなければ(ステップS10;NO)、処理はステップS12に移行する。
 図12に、ステップS11においてCPU31により実行される保存画像表示処理のフローを示す。当該処理は、CPU31と記憶部33に記憶されているプログラムとの協働によるソフトウエア処理により実現される。
 まず、表示部35に保存画像表示画面が表示される(ステップS300)。保存画像表示画面は、図示しないが、少なくとも画像選択欄、画像表示欄、「戻る」ボタンが表示された画面である。画像選択欄は、画像DB331に保存されている診断対象患者の過去の撮影画像データ(保存画像)を対応する画像処理パラメータのそれぞれで画像処理したサムネイル画像の一覧を表示し、入力部34による表示対象となる保存画像の選択操作を受け付ける。画像表示欄は、選択されたサムネイル画像に対応する撮影画像データを対応する画像処理パラメータで画像処理した処理済み画像を表示する。「戻る」ボタンは、ビューア画面353へ戻る指示を入力するためのボタンである。
 入力部34により画像選択欄から表示対象の保存画像のサムネイル画像が選択されると(ステップS301)、選択された保存画像の撮影画像データに対応付けられた観察使用レベルと現在設定されている観察使用レベルが比較され、両者が異なるか否かが判断される(ステップS302)。両者が一致すると判断されると(ステップS302;NO)、処理はステップS305に移行し、選択された保存画像の撮影画像データ及び画像処理パラメータが画像DB331から読み出され、読み出された画像処理パラメータで撮影画像データに画像処理が施されて画像表示欄に表示される。
 選択された保存画像に対応付けられた観察使用レベルと現在設定されている観察使用レベルが異なると判断されると(ステップS302;YES)、音声出力部37により医師に注意を促すビープ音が出力されるとともに、表示部35に、観察使用レベルが画像保存時と異なることを警告するメッセージ、画像保存時の観察使用レベル、画像を表示する指示を入力する「YES」ボタン、画像を表示しない指示を入力する「NO」ボタンを含む警告画面がポップアップ表示される(ステップS303)。入力部34により「NO」ボタンが押下され、画像を表示しない指示が入力されると(ステップS304;NO)、警告画面が閉じられ、処理はステップS306に移行する。入力部34により「YES」ボタンが押下され、画像を表示する指示が入力されると(ステップS304;YES)、選択された保存画像の撮影画像データ及び対応する画像処理パラメータが画像DB331から読み出され、読み出された画像処理パラメータで撮影画像データに画像処理が施されて画像表示欄に表示され(ステップS305)、処理はステップS306に移行する。
 ステップS306において、入力部34により画像選択欄から新たな保存画像が選択操作されることにより、表示対象画像の変更が指示されると(ステップS306;YES)、処理はステップS302に戻る。入力部34により画像選択欄から新たな保存画像が選択操作されず、戻るボタンが操作されてビューア画面353に戻る指示が入力されると(ステップS307;YES)、表示部35にビューア画面353が表示され(ステップS308)、処理は図5のステップS12に移行する。
 図5のステップS12においては、入力部34により「診断終了」ボタン353hが押下されたか否かが判断され、「診断終了」ボタン353hが押下されていなければ(ステップS12;NO)、処理はステップS6に戻る。「診断終了」ボタン353hが押下されたと判断されると(ステップS12;YES)、本処理は終了する。
 以上説明したように、医用画像管理装置3によれば、画像生成装置2から送信された撮影画像データを通信部36により受信されると、CPU31は、受信した撮影画像データに画像処理を施して処理済み画像を表示部35のビューア画面353に表示させる。入力部34により、「画像確定」ボタン353dが押下され、表示された処理済み画像を診断に用いる画像として確定する指示が入力されると、処理済み画像に対応する撮影画像データと当該確定指示された処理済み画像の生成に用いられた画像処理パラメータとを対応付けて画像DB331に記憶させる。
 従って、患者の撮影画像データに画像処理を施してモニタに表示し診断する小規模施設において、診断に用いられた画像の再現性を確保しつつ、画像データの保存に必要となる記憶手段の容量を抑えることが可能となる。
 また、CPU31は、受信された撮影画像データに自動部位認識処理を施して撮影部位を自動的に認識し、認識された撮影部位に応じて予め定められた画像処理パラメータを用いて撮影画像データに画像処理を施すので、撮影部位に応じた画像処理を施して画像を表示することが可能となる。
 また、自動部位認識された撮影部位に応じた画像処理パラメータを用いて生成された処理済み画像に対し、入力部34により新たに画像処理条件を入力して画質の調整を行うことができるので、医師が表示された処理済み画像を更に診断しやすい画像に調整することができる。
 また、表示部35のモニタの表示条件として観察使用レベルを入力することができ、CPU31は、入力された観察使用レベルに基づいて表示部35において画像を表示する際の輝度値上限を制御するとともに、入力された観察使用レベルを、診断に用いる画像として確定指示された処理済み画像に対応する撮影画像データ及び確定指示された処理済み画像の生成に用いられた画像処理パラメータに対応付けて画像DB331に保存するので、診断に用いられた画像の再現性を更に向上させることが可能となる。
 また、CPU31は、診断用画像である基準画像と同一患者の同一部位を撮影した比較画像(参照用画像)とを表示部35に並べて表示する際に、比較画像の撮影画像データに対応付けられている画像処理パラメータを診断用画像の画像処理パラメータに変更して画像処理を施して表示するので、両画像の表示基準を合わせて表示することができ、医師が病変部の経時的な変化を容易に観察することが可能となる。
 また、比較画像の保存指示が入力された際に、CPU31は、比較画像の撮影画像データに、変更した画像処理パラメータを更に追加で対応付けて画像DB331に記憶するので、比較画像の診断時の画像処理パラメータを残しつつ、画像比較時の画像を再現可能に保存することが可能となる。
 なお、上記実施の形態における記述内容は、本発明に係る小規模診断システム1の好適な一例であり、これに限定されるものではない。
 例えば、上記実施の形態においては、画像処理条件の入力の一例として、スライドバー等で輝度やコントラストの調整量を入力する場合を例にとり説明したが、これに限定されず、例えば、輝度補正値やコントラスト値を数値で入力するようにしてもよい。
 また、上記実施の形態においては、表示部35のモニタをLCDモニタとして説明したが、これに限定されず、CRT等の他のモニタであってもよい。この場合、カソード電流の電流値を観察使用レベルに応じて制御する。
 また、処理済み画像の診断用画像としての確定は、他の画面への遷移や、ビューア画面を閉じる操作等により行うようにしてもよい。
 その他、小規模診断システム1を構成する各装置の細部構成及び細部動作に関しても、発明の趣旨を逸脱することのない範囲で適宜変更可能である。
 なお、明細書、請求の範囲、図面及び要約を含む2008年4月10日に出願された日本特許出願No.2008-102008号の全ての開示は、そのまま本出願の一部に組み込まれる。
 医療の分野において、小規模な医療施設で医用画像の画像処理、記憶及び表示を行うための医用画像処理装置に利用可能性がある。
符号の説明
1 小規模診断システム
2 画像生成装置
2a 超音波診断装置
2b 内視鏡装置
2c CR装置
3 医用画像管理装置
4 受付装置
5 ネットワーク
21 変換装置
21a 入力操作部
31 CPU
32 RAM
33 記憶部
331 画像DB
331a 画像情報テーブル
34 入力部
35 表示部
351 モニタ表示条件入力画面
351a 観察使用レベル表示欄
351b 変更選択欄
351c 設定入力欄
351d 「確認」ボタン
351e 「確定」ボタン
351f 画像表示欄
353 ビューア画面
353a 患者情報表示欄
353b 画像表示欄
353c 画像調整欄
353d 「画像確定」ボタン
353e 「画像比較画面」ボタン
353f 「保存画像表示」ボタン
353g 「戻る」ボタン
353h 「診断終了」ボタン
355 画像比較画面
355a 基準画像表示欄
355b 比較画像表示欄
355c 画像指定欄
355d 画像調整欄
355e 「リンク」ボタン
355f 「保存」ボタン
355g 「画面レイアウト」ボタン
355h 「戻る」ボタン
36 通信部
37 音声出力部
38 バス

Claims (8)

  1.  患者を撮影し撮影画像データを生成する画像生成装置から撮影画像データを受信する受信手段と、
     前記受信手段により受信した撮影画像データに画像処理を施す画像処理手段と、
     前記画像処理手段により画像処理された処理済み画像データに基づいて処理済み画像を表示する表示手段と、
     前記表示手段に表示された処理済み画像を診断に用いる画像として確定する指示を入力するための確定指示手段と、
     前記確定指示された前記処理済み画像に対応する撮影画像データと前記画像処理手段において当該確定指示された処理済み画像の生成に用いられた画像処理パラメータとを対応付けて記憶手段に記憶させる制御手段と、
     を備える小規模施設用医用画像処理装置。
  2.  前記受信手段により受信された撮影画像データを解析して撮影部位を認識する部位認識手段を備え、
     前記画像処理手段は、前記部位認識手段により認識された撮影部位に応じて予め定められた画像処理パラメータを用いて前記撮影画像データに画像処理を施す請求項1に記載の小規模施設用医用画像処理装置。
  3.  前記表示手段に表示された前記確定指示前の処理済み画像に対する画像処理条件を入力する画像処理条件入力手段を備え、
     前記画像処理手段は、前記画像処理条件入力手段により入力された画像処理条件に基づいて前記画像処理パラメータを変更して画像処理を施し、
     前記制御手段は、前記変更した画像処理パラメータを用いて画像処理することにより得られた処理済み画像を前記表示手段に表示させる請求項2に記載の小規模施設用医用画像処理装置。
  4.  前記表示手段における表示条件を入力する表示条件入力手段を備え、
     前記制御手段は、前記表示条件入力手段により入力された表示条件に基づいて前記表示手段において画像を表示する際の輝度値上限を制御するとともに、前記診断に用いる画像として確定指示された前記処理済み画像に対応する撮影画像データと、前記画像処理手段において前記確定指示された前記処理済み画像の生成に用いられた画像処理パラメータと、前記入力された表示条件とを対応付けて前記記憶手段に記憶させる請求項1~3の何れか一項に記載の小規模施設用医用画像処理装置。
  5.  前記制御手段は、前記記憶手段に記憶された撮影画像データの中から前記患者に対応する参照用の撮影画像データを抽出し、前記抽出された参照用の撮影画像データに基づく画像を前記確定指示された処理済み画像と並べて前記表示手段に表示する際、前記参照用の撮影画像データに対応付けられている画像処理パラメータを前記確定指示された処理済み画像の画像処理パラメータに変更して前記画像処理手段に画像処理を施させる請求項1~4の何れか一項に記載の小規模施設用医用画像処理装置。
  6.  前記参照用の撮影画像データに前記変更した画像処理パラメータを対応付けて保存する指示を入力する保存指示手段を備え、
     前記制御手段は、前記保存指示手段により保存指示が入力された前記参照用の撮影画像データに、前記変更した画像処理パラメータを更に追加で対応付けて前記記憶手段に記憶させる請求項5に記載の小規模施設用医用画像処理装置。
  7.  小規模施設用医用画像処理装置における医用画像処理方法であって、
     患者を撮影し撮影画像データを生成する画像生成装置から受信手段により撮影画像データを受信する工程と、
     前記受信手段により受信した撮影画像データに画像処理手段により画像処理を施す工程と、
     前記画像処理手段により画像処理された処理済み画像データに基づいて処理済み画像を表示手段により表示する工程と、
     前記表示手段に表示された処理済み画像を診断に用いる画像として確定する指示を操作手段により入力する工程と、
     制御手段により、前記確定指示された前記処理済み画像に対応する撮影画像データと前記画像処理手段において当該確定指示された処理済み画像の生成に用いられた画像処理パラメータとを対応付けて記憶手段に記憶させる工程と、
     を含む医用画像処理方法。
  8.  コンピュータを、
     患者を撮影し撮影画像データを生成する画像生成装置から撮影画像データを受信する受信手段、
     前記受信手段により受信した撮影画像データに画像処理を施す画像処理手段、
     前記画像処理手段により画像処理された処理済み画像データに基づいて処理済み画像を表示する表示手段、
     前記表示手段に表示された処理済み画像を診断に用いる画像として確定する指示を入力するための確定指示手段、
     前記確定指示された前記処理済み画像に対応する撮影画像データと前記画像処理手段において当該確定指示された処理済み画像の生成に用いられた画像処理パラメータとを対応付けて記憶手段に記憶させる制御手段、
     として機能させるためのプログラム。
PCT/JP2009/052889 2008-04-10 2009-02-19 小規模施設用医用画像処理装置、医用画像処理方法及びプログラム WO2009125624A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008102008A JP2011125355A (ja) 2008-04-10 2008-04-10 小規模施設用診断支援装置
JP2008-102008 2008-04-10

Publications (1)

Publication Number Publication Date
WO2009125624A1 true WO2009125624A1 (ja) 2009-10-15

Family

ID=41161760

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/052889 WO2009125624A1 (ja) 2008-04-10 2009-02-19 小規模施設用医用画像処理装置、医用画像処理方法及びプログラム

Country Status (2)

Country Link
JP (1) JP2011125355A (ja)
WO (1) WO2009125624A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012245090A (ja) * 2011-05-26 2012-12-13 Fujifilm Corp 画像処理装置および方法並びにプログラム
JP2013208396A (ja) * 2012-03-30 2013-10-10 Canon Inc 医療用検査装置および方法

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6143433B2 (ja) 2012-10-31 2017-06-07 キヤノン株式会社 医用画像撮影装置、医用画像の表示方法
JP6053012B2 (ja) * 2013-03-28 2016-12-27 富士フイルム株式会社 画像表示装置および方法
JP6157963B2 (ja) * 2013-07-17 2017-07-05 東芝メディカルシステムズ株式会社 医療情報提供装置、及び、医療情報通信システム
JP6699197B2 (ja) * 2016-01-25 2020-05-27 コニカミノルタ株式会社 医用画像表示装置、医用画像調整方法及びプログラム
US20190012067A1 (en) * 2017-07-10 2019-01-10 Canon Kabushiki Kaisha Image displaying apparatus, image display method, and storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07250817A (ja) * 1994-03-15 1995-10-03 Fujitsu Ltd 医療用画像表示方法及び装置
JP2001076141A (ja) * 1999-08-31 2001-03-23 Konica Corp 画像認識方法および画像処理装置
JP2002157579A (ja) * 2000-11-21 2002-05-31 Fuji Photo Film Co Ltd 医用画像表示装置
JP2003284691A (ja) * 2002-03-28 2003-10-07 Fuji Photo Film Co Ltd 画像診断システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07250817A (ja) * 1994-03-15 1995-10-03 Fujitsu Ltd 医療用画像表示方法及び装置
JP2001076141A (ja) * 1999-08-31 2001-03-23 Konica Corp 画像認識方法および画像処理装置
JP2002157579A (ja) * 2000-11-21 2002-05-31 Fuji Photo Film Co Ltd 医用画像表示装置
JP2003284691A (ja) * 2002-03-28 2003-10-07 Fuji Photo Film Co Ltd 画像診断システム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012245090A (ja) * 2011-05-26 2012-12-13 Fujifilm Corp 画像処理装置および方法並びにプログラム
JP2013208396A (ja) * 2012-03-30 2013-10-10 Canon Inc 医療用検査装置および方法

Also Published As

Publication number Publication date
JP2011125355A (ja) 2011-06-30

Similar Documents

Publication Publication Date Title
WO2009104459A1 (ja) 小規模施設用診断支援装置及びプログラム
WO2009125624A1 (ja) 小規模施設用医用画像処理装置、医用画像処理方法及びプログラム
JP2008006169A (ja) 小規模施設用医用画像表示システム
WO2007049630A1 (ja) 小規模診断システム
US20020158875A1 (en) Method, apparatus, and program for displaying images
JP2007140762A (ja) 診断システム
JP2012135428A (ja) 超音波診断システム
WO2009104527A1 (ja) 医用画像管理装置
JP2007117351A (ja) 小規模診断支援システム
JP4802883B2 (ja) 医用画像システム
JP4830564B2 (ja) 医用画像システム
JP2008188214A (ja) 医用画像表示システム
JP5125128B2 (ja) 医用画像管理システム、データ管理方法
JP2008200085A (ja) 小規模医用システム
JP4992914B2 (ja) 小規模診断システム及び表示制御方法
JP5167647B2 (ja) 診断システム
WO2009107644A1 (ja) 医用画像管理装置、印刷画面表示方法及びプログラム
JP5170287B2 (ja) 医用画像システム
JP2007275117A (ja) 放射線画像読取装置
JP2010125021A (ja) 医用画像管理装置及びプログラム
JP2007244738A (ja) 医用画像システム
WO2009104528A1 (ja) 医用画像管理装置
JP5794153B2 (ja) 医用画像表示装置及びプログラム
JP2009207508A (ja) 医用画像管理装置、出力画面表示方法及びプログラム
JP2007117469A (ja) 小規模診断システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09730739

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

NENP Non-entry into the national phase

Ref country code: JP

122 Ep: pct application non-entry in european phase

Ref document number: 09730739

Country of ref document: EP

Kind code of ref document: A1