WO2009104459A1 - 小規模施設用診断支援装置及びプログラム - Google Patents

小規模施設用診断支援装置及びプログラム Download PDF

Info

Publication number
WO2009104459A1
WO2009104459A1 PCT/JP2009/051343 JP2009051343W WO2009104459A1 WO 2009104459 A1 WO2009104459 A1 WO 2009104459A1 JP 2009051343 W JP2009051343 W JP 2009051343W WO 2009104459 A1 WO2009104459 A1 WO 2009104459A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
image processing
patient
processing
input
Prior art date
Application number
PCT/JP2009/051343
Other languages
English (en)
French (fr)
Inventor
千恵子 佐藤
洋日 松本
Original Assignee
コニカミノルタエムジー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by コニカミノルタエムジー株式会社 filed Critical コニカミノルタエムジー株式会社
Priority to JP2009554263A priority Critical patent/JPWO2009104459A1/ja
Publication of WO2009104459A1 publication Critical patent/WO2009104459A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/44Constructional features of apparatus for radiation diagnosis
    • A61B6/4429Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30061Lung

Definitions

  • the present invention relates to a diagnosis support apparatus and program for a small-scale facility used in a small-scale medical facility.
  • an image generation apparatus such as a CR (Computed Radiography) apparatus that captures a human body and acquires a digital captured image
  • the captured image is subjected to image processing to control the image quality suitable for diagnosis.
  • diagnosis can be performed with an image having a constant image quality even when the characteristics of the subject and the photographing conditions are different.
  • an image processing algorithm for making the image quality constant mainly makes the image quality of the region noticed in the diagnosis constant, and even the gradation of the lesioned part is controlled. In some cases, it may not be suitable for follow-up observation in which the images of the same part of the same patient taken in time series are comparatively interpreted to diagnose the progress of the disease state.
  • Patent Document 1 proposes a technique for determining an image processing condition based on a signal value of a region that maintains the same density regardless of whether a lesion is present. Is different.
  • An object of the present invention is to enable a doctor to easily observe a change over time of a lesion in a small-scale medical facility.
  • a diagnosis support apparatus for a small-scale facility comprises: Image processing means for recognizing an imaging region by performing image analysis of a captured image of a human body, and performing image processing on the captured image using an image processing parameter predetermined according to the recognized imaging region; An input unit for inputting various instructions; Correction means for correcting an image processing parameter used for the captured image based on an input from the input unit; Image determining means for determining an image processing parameter according to a photographing part of the photographed image or an image processing parameter corrected by the correcting means as an image processing parameter used for the photographed image; Storage means for storing the determined image processing parameter in association with the captured image; Reference image designating means for designating a reference image serving as a reference for comparative interpretation from the captured images stored in the storage means based on an input from the input unit; Based on an input from the input unit, a comparison image designating unit that designates a comparison image that is a comparison target obtained by imaging the same imaging region of the same patient as the reference image;
  • the invention according to claim 2 is the invention according to claim 1,
  • Image processing using image processing parameters common to the reference image and the comparison image includes gradation conversion processing, frequency enhancement processing, edge enhancement processing, dynamic range compression processing, grain suppression processing, enlargement / reduction processing, display position Either adjustment processing, black-and-white reversal processing, or a combination thereof.
  • the program of the invention described in claim 3 is: Computer Image processing means for recognizing an imaging region by analyzing a captured image of a human body, and performing image processing on the captured image using an image processing parameter predetermined according to the recognized imaging region; Correction means for correcting image processing parameters used for the captured image based on the input; Image confirmation means for confirming an image processing parameter according to a photographing part of the photographed image or an image processing parameter modified by the modifying means as an image processing parameter used for the photographed image; Storage means for storing the determined image processing parameter in association with the captured image; Reference image designating means for designating a reference image serving as a reference for comparative interpretation from among the captured images stored in the storage means based on the input; A comparison image designation means for designating a comparison image to be compared based on the input and the same imaged part of the same patient as the reference image; The image processing parameters associated with the reference image are commonly used for the designated reference image and the comparison image, and the reference image and the comparison image are displayed so as to be arranged on the display unit. Display control means
  • the invention according to claim 4 is the invention according to claim 3,
  • Image processing using a common image processing parameter for the reference image and the comparative image includes gradation conversion processing, frequency enhancement processing, dynamic range compression processing, granularity suppression processing, enlargement / reduction processing, display position adjustment processing, or Either black-and-white reversal processing or a combination thereof.
  • the display reference of the reference image and the comparison image can be automatically aligned and displayed on the display unit, the doctor can easily observe the change over time of the lesioned part.
  • FIG. 9 is a diagram illustrating an example of a display for prompting confirmation displayed on the display unit in FIG. 4 in step S15 in FIG. 8. It is a flowchart which shows the diagnostic assistance process performed by CPU of FIG. It is a figure which shows an example of the patient list screen displayed on the display part of FIG. It is a figure which shows an example of the confirmation screen displayed on the display part of FIG. It is a figure which shows an example of the viewer screen displayed on the display part of FIG. It is a flowchart which shows the image determination process performed by CPU of FIG. It is a figure for demonstrating the imaging
  • FIG. 1 shows a system configuration of a small-scale diagnosis system 1 to which a medical image system according to the present invention is applied.
  • FIG. 2 shows an arrangement example of each apparatus in a medical facility when the small-scale diagnosis system 1 is applied.
  • the small-scale diagnosis system 1 is a system applied to a relatively small medical facility such as a medical practitioner or a clinic, and performs imaging of a patient in advance, and after generating captured image data, the doctor performs patient information and image data.
  • a system that associates This is different from a system in which order information (examination order information, imaging order information) for a patient is generated and issued in advance, and imaging is performed and the obtained image data is associated with the order information, as in a large-scale facility system.
  • the small-scale diagnostic system 1 includes an ultrasonic diagnostic apparatus 2 a that is an image generation apparatus 2, an endoscope apparatus 2 b, a CR apparatus 2 c, a medical image management apparatus 3, and a reception apparatus 4. Is done.
  • the image generation device 2, the medical image management device 3, and the reception device 4 are connected to a communication network (hereinafter simply referred to as “network”) 5 such as a LAN (Local Area Network) via a switching hub (not shown), for example.
  • the medical image management apparatus 3 is preferably a WS (workstation) provided in an examination room where a doctor is resident.
  • the WS that operates as the medical image management apparatus 3 may be configured to control activation of each image generation apparatus 2, processing conditions, and the like.
  • DICOM Digital Image and Communications in Medicine
  • DICOM MWM Mode Worklist Management
  • DICOM MPPS DICOM MPPS
  • Modality Performed Procedure Step is used.
  • each device is arranged as shown in FIG.
  • the receptionist 11 is arranged with a counter person in charge, and the person in charge gives a reception number tag printed with a reception number for distinguishing individual patients in the order of reception, for example.
  • the reception device 11 is provided with a reception device 4. The person in charge listens to the patient's name and the like, and inputs a correspondence between the reception number and patient information such as the patient's name to the reception device 4.
  • an examination room 13 where a doctor examines and diagnoses a patient across a door or the like.
  • a medical image management apparatus 3 that displays a captured image obtained by photographing a diagnosis target part of a patient for diagnosis by a doctor is disposed on a consultation desk (not shown) in the examination room 13.
  • an ultrasound diagnostic apparatus 2a and the like that are less necessary to be performed in a space isolated from the viewpoint of privacy and the like are installed.
  • an X-ray imaging room 15 for performing X-ray imaging is provided on the opposite side of the examination room 13 across the corridor 14.
  • a CR device 2 c including an imaging device 22 and a reading device 23 is disposed in the X-ray imaging room 15.
  • an examination room 16 is provided next to the X-ray imaging room 15, and an endoscope apparatus 2 b and the like are disposed in the examination room 16.
  • the image generation apparatus 2 performs imaging using a patient's diagnosis target site such as the ultrasonic diagnostic apparatus 2a, the endoscope apparatus 2b, and the CR apparatus 2c, and digitally converts the captured image to generate an image of the captured image. It is a device that generates data.
  • the ultrasonic diagnostic apparatus 2a is an ultrasonic probe that outputs ultrasonic waves, and an electronic device that is connected to the ultrasonic probe and converts sound waves (echo signals) received by the ultrasonic probe into image data of a captured image of the internal tissue. (Both not shown).
  • the ultrasonic diagnostic apparatus 2a sends an ultrasonic wave from the ultrasonic probe into the body, receives the sound wave (echo signal) reflected by the body tissue again by the ultrasonic probe, and uses the electronic device to capture a captured image corresponding to the echo signal. It is designed to generate.
  • the ultrasonic diagnostic apparatus 2 a is connected to a conversion device 21 that is a conversion means (converter) that performs conversion from an analog signal to a digital signal.
  • the ultrasonic diagnostic apparatus 2 a is connected to the network 5 via the conversion device 21. It is connected to the.
  • the conversion device 21 has a function of converting an image signal in a format not conforming to the DICOM standard generated by the ultrasound diagnostic apparatus 2a into image data in a format conforming to the DICOM standard. For example, an image generated by the ultrasonic diagnostic apparatus 2a is converted from an analog signal to a digital signal, and a UID (unique ID) for specifying image data in the small-scale diagnosis system 1 is attached to the image data.
  • UID unique ID
  • the UID is composed of identification information (hereinafter referred to as “device ID”) of each device constituting the small-scale diagnosis system 1, numbers indicating imaging (inspection) date and time, and the like.
  • device ID includes information indicating the type of the image generation device 2.
  • the conversion device 21 is provided with an input operation unit 21a composed of, for example, a numeric keypad, a keyboard, and a touch panel.
  • the input operation unit 21a is a device for inputting patient information of a patient to be imaged.
  • the conversion device 21 attaches the input patient information to the image data to be photographed together with the above-described UID.
  • Information (header information) related to image data attached to the image data is referred to as accompanying information.
  • the configuration of the input operation unit 21a is not limited to the one shown here. For example, a card reader that reads information written on a card by inserting a card or a barcode reader that reads a barcode may be used. Good.
  • the endoscope device 2b is a device in which a small photographing device is provided at the distal end portion of a flexible tube (none is shown).
  • the photographing apparatus is composed of an objective optical system including, for example, an optical lens, an imaging unit disposed at an imaging position of the objective optical system, and an LED (Light Emitting ⁇ Diode) or the like, and illumination necessary for imaging (Not shown).
  • the imaging unit includes, for example, a solid-state imaging device such as a CCD (Charge-Coupled Device) or a CMOS (Complementary Metal-Oxide-Semiconductor), and photoelectrically converts it into an electrical signal having an amount corresponding to the amount of incident light when the light is incident. .
  • the objective optical system is configured to condense an area illuminated by the illuminating unit with an optical lens and form an image on a solid-state imaging device included in the imaging unit, and light incident on the solid-state imaging device is photoelectrically converted. As a result, the image data of the captured image is output as an electrical signal.
  • the imaging device 22 constituting the CR device 2c has a radiation (X-ray) source (not shown), and irradiates the diagnosis target region of the patient to capture a still image.
  • a cassette containing a radiation image conversion plate having a stimulable phosphor sheet that accumulates radiation energy, for example, is arranged in an irradiation region of radiation irradiated from the radiation source.
  • the radiation dose according to the radiation transmittance distribution of the diagnostic target part with respect to the radiation dose from the source accumulates in the photostimulable phosphor layer of the photostimulable phosphor sheet installed in the cassette, and this stimulable phosphor
  • the radiation image information of the diagnostic target part is recorded on the layer.
  • the reading device 23 irradiates the stimulable phosphor sheet of the cassette loaded in the device with excitation light, and is thereby emitted from the sheet.
  • the image data of the photographed image is generated by photoelectrically converting the stimulated light and A / D converting the obtained image signal.
  • the CR device 2c may be an integrated device in which the photographing device 22 and the reading device 23 are integrated.
  • the reading device 23 of the endoscope device 2b and the CR device 2c is a device that complies with the DICOM standard, and transmits image data of a captured image to the medical image management device 3 in the DICOM format.
  • the reading device 23 of the endoscope device 2b and the CR device 2c has a function of assigning the above-mentioned UID to the generated image data, and attaches the assigned UID to the image data.
  • the endoscope device 2b and the reading device 23 of the CR device 2c are also provided with an input operation unit including a keyboard, a touch panel, and the like.
  • the input operation unit is a device for inputting patient information of a patient to be imaged.
  • the reading device 23 of the endoscope apparatus 2b and the CR apparatus 2c attaches the input patient information to the image data to be photographed together with the above-described UID, and the medical image management apparatus 3 to send.
  • the configuration of the input operation unit is not limited to that shown here.
  • a card reader that reads information written on the card by inserting a card or a barcode reader that reads a barcode may be used. .
  • the medical image management apparatus 3 is a small-scale facility diagnosis support apparatus that is installed in, for example, the examination room 13 and allows a doctor to display a captured image and perform an image interpretation diagnosis, and is used in a general PC (Personal Computer).
  • a monitor with a higher definition than the monitor (display unit) may be provided.
  • the medical image management apparatus 3 includes a CPU 31, a RAM 32, a storage unit 33, an input unit 34, a display unit 35, a communication unit 36, and the like. Yes.
  • the CPU 31 reads out various programs such as system programs and processing programs stored in the storage unit 33, expands them in the RAM 32, and executes various processes including a diagnosis support process described later according to the expanded programs.
  • the RAM 32 forms a work area for temporarily storing various programs, input or output data, parameters, and the like that can be executed by the CPU 31 read from the storage unit 33 in various processes controlled by the CPU 31.
  • the storage unit 33 includes an HDD (Hard Disk Drive), a semiconductor nonvolatile memory, or the like.
  • the storage unit 33 stores various programs that can be executed by the CPU 31 and parameters and data necessary for each program.
  • the storage unit 33 stores image processing parameters predetermined for each imaging region in association with the imaging region.
  • the imaging region is a region of the subject to be imaged (for example, chest bones, lungs, abdomen, etc.), as well as an imaging mode (for example, imaging direction such as front, oblique position, and supine, standing, etc.) (Condition)).
  • an imaging mode for example, imaging direction such as front, oblique position, and supine, standing, etc. (Condition)).
  • the image processing performed on the photographed image is, for example, gradation conversion processing, frequency enhancement processing, dynamic range compression processing, granularity suppression processing, enlargement / reduction processing, display position adjustment processing, black-and-white reversal processing, and the like.
  • gradation conversion processing for example, gradation conversion processing, frequency enhancement processing, dynamic range compression processing, granularity suppression processing, enlargement / reduction processing, display position adjustment processing, black-and-white reversal processing, and the like.
  • the image processing parameters include, for example, a gradation conversion curve (curve that defines the relationship between the input pixel value and the output pixel value) used for the gradation conversion process, the slope of the normalization curve (G value: contrast value), and the normalization curve Y-intercept (S value: density correction value), enhancement degree used for frequency enhancement processing, enlargement rate of enlargement / reduction processing, reduction rate, and the like.
  • a gradation conversion curve curve that defines the relationship between the input pixel value and the output pixel value
  • G value contrast value
  • S value density correction value
  • the storage unit 33 is storage means for storing an image DB (Data Base) 331 and captured image data.
  • the image DB 331 includes items such as “UID”, “patient information”, and “image processing parameter”, and associates the UID, patient information, and image processing parameter of each captured image data stored in the storage unit 33.
  • Store. By registering in the image DB (Data Base) 331, the captured image data stored in the storage unit 33 can be searched using patient information or information included in the UID as a key.
  • the input unit 34 includes a keyboard having cursor keys, numeric input keys, various function keys, and the like, a pointing device such as a mouse, a power key, and the like. An operation signal from the mouse is output to the CPU 31 as an input signal.
  • the display unit 35 includes, for example, a monitor such as a CRT (Cathode Ray Tube) or an LCD (Liquid Crystal Display), and displays various screens according to instructions of a display signal input from the CPU 31.
  • a monitor such as a CRT (Cathode Ray Tube) or an LCD (Liquid Crystal Display)
  • LCD Liquid Crystal Display
  • the communication unit 36 is configured by a network interface or the like, and is a communication unit that transmits and receives data to and from an external device connected to the network 5 via a switching hub.
  • the reception apparatus 4 is a computer apparatus for performing reception registration, accounting calculation, insurance score calculation, etc. of the patient who has visited the hospital.
  • the reception device 4 includes a CPU 41, a RAM 42, a storage unit 43, an input unit 44, a display unit 45, a communication unit 46, and the like, and each unit is connected by a bus 47.
  • the CPU 41 reads out various programs such as a system program and a processing program stored in the storage unit 43, expands them in the RAM 42, and executes various processes including a patient registration process and a reception registration process described later according to the expanded programs. To do.
  • the RAM 42 forms a work area that temporarily stores various programs, input or output data, parameters, and the like that can be executed by the CPU 41 read from the storage unit 43 in various processes that are executed and controlled by the CPU 41.
  • the storage unit 43 includes an HDD, a semiconductor non-volatile memory, or the like.
  • the storage unit 43 stores various programs as described above.
  • the storage unit 43 stores a patient information DB 431 and a reception information DB 432.
  • the patient information DB 431 is a database that stores patient information about patients who have visited the hospital.
  • the patient information DB 431 includes items such as “patient ID”, “patient name (kana)”, “patient name (kanji)”, “sex”, “birth date”, “age”, “other information”, and the like. And stores patient information registered in the patient registration process described later.
  • the reception information DB 432 is a database that stores patient reception information.
  • the reception information DB 432 includes items such as “reception date”, “reception number”, “patient ID”, and “patient name (kana)”, and stores reception information that has been received and registered in the reception registration process described later. To do.
  • the input unit 44 includes a keyboard having cursor keys, numeric input keys, various function keys, and the like, a pointing device such as a mouse, a power key, and the like. An operation signal from the mouse is output to the CPU 41 as an input signal.
  • the display unit 45 includes, for example, a monitor such as a CRT or an LCD, and displays various screens in accordance with display signal instructions input from the CPU 41.
  • the communication unit 46 is configured by a network interface or the like, and is a communication unit that transmits and receives data to and from an external device connected to the network 5 via a switching hub.
  • a reception number tag is given to the patient at the reception 11, and the reception number of the received patient and the patient are received from the reception screen 454 (see FIG. 9) by operating the input unit 44 at the reception device 4.
  • Patient information such as name is entered (acceptance input).
  • registration of patient information is performed from a patient registration screen 451 (see FIG. 6) prior to reception input.
  • a patient registration screen 451 is displayed on the display unit 45, and the patient input from the screen by the input unit 44 Information is stored in the patient information DB 431.
  • reception registration is instructed by the input unit 44, a reception registration process described later is executed, a reception screen 454 is displayed on the display unit 45, and the reception information input by the input unit 44 from the screen is the reception information DB 432. And the received patient list information of the patient received today is generated and transmitted to the medical image management apparatus 3.
  • the medical image management apparatus 3 when received patient list information is received via the communication unit 36, it is stored in the storage unit 33.
  • the doctor When it is determined that it is necessary to take an image of the affected area through an inquiry, the doctor operates the input unit 34 in the medical image management apparatus 3 to display the received patient list information (see FIG. 12). Then, the patient information of the patient to be diagnosed is selected, and a viewer screen 353 (see FIG. 14, details will be described later) for displaying the captured image of the patient as a diagnostic image is displayed.
  • a practitioner such as a doctor or a nurse takes the patient in front of the image generating apparatus 2 (the ultrasonic diagnostic apparatus 2a or the CR apparatus 2c) that performs imaging, and sets the patient's diagnosis target region as a subject (imaging region). ) And image data of the captured image is generated.
  • the photographing device 22 performs photographing, the cassette that has been photographed by the photographing device 22 is set in the reading device 23, and the radiation image recorded in the cassette is read.
  • the image generation device 2 patient information is input, imaging, and image data are generated in accordance with the operation of the imaging operator, and incidental information including the patient information input to the generated image data and the above-described UID is included. Attached and transmitted to the medical image management apparatus 3.
  • the patient information input by the imaging operator from the image generation apparatus 2 does not need to be a name and is individually assigned to each patient.
  • the input operation of the radiographer is simplified, which is preferable.
  • imaging is performed under a certain imaging condition for the same imaging region of the same patient, such as substantially constant tube voltage and tube current according to the chest thickness.
  • the doctor refers to the captured image received from the image generation apparatus 2 and displayed on the viewer screen 353 in the medical image management apparatus 3 to diagnose the patient.
  • FIG. 5 shows a flow of patient registration processing executed by the CPU 41 of the accepting device 4. This process is realized by a software process in cooperation with the CPU 41 and the program stored in the storage unit 43 when the input unit 44 instructs the display of the patient registration screen 451.
  • a patient registration screen 451 is displayed on the display unit 45 (step S1).
  • FIG. 6 shows an example of the patient registration screen 451.
  • the patient registration screen 451 is provided with an input field corresponding to each item of the patient information DB 431, an “OK” button 451a, and the like.
  • the patient information input from the input field is confirmed.
  • step S2 When patient information is input by the input unit 44 on the patient registration screen 451 and the “OK” button 451a is pressed (step S2), the patient information already registered in the patient information DB 431 is added to the patient information input in advance.
  • a search is performed to determine whether there is patient information that matches the information of the determined comparison target item (step S3). As a result of the search, the patient information already registered in the patient information DB 431 is compared with a predetermined comparison target item. If there is patient information that matches this information (step S4; YES), a warning screen 452 for warning that effect is displayed in a pop-up on the display unit 45 (step S5).
  • the predetermined comparison target items are, for example, some predetermined items among the patient information items registered in the patient information DB 431, such as patient ID, patient name (kanji), patient name (kana), and the like. is there.
  • FIG. 7A shows an example of a warning screen 452 displayed on the display unit 45 in step S5.
  • the comparison target item of the input patient information matches the patient information already registered in the patient information DB 431, the comparison target item already registered is displayed. Whether or not to display information on items that are different from the input patient information (for example, the date of birth in FIG. 7A) of the matching patient information and register the input patient information as patient information of another patient.
  • This is a screen for prompting confirmation.
  • the “OK” button 452a is pressed from the screen, the entered patient information can be registered in the patient information DB 431.
  • the “Cancel” button 452b is pressed from the screen, the patient registration process can be terminated.
  • step S6 When the “OK” button 452a is pressed by the input unit 44 on the warning screen 452 displayed on the display unit 45 (step S6; OK), the input patient information is registered and stored in the patient information DB 431 (step S7). ), This process ends.
  • step S6 When the “cancel” button 452b is pressed by the input unit 44 on the warning screen 452 displayed on the display unit 45 (step S6; cancel), this process ends.
  • step S4 when there is no patient information in the patient information already registered in the patient information DB 431 that matches the patient information to which the information of the predetermined comparison target item has been input (step S4; NO), it is input.
  • the registered patient information is registered and stored in the patient information DB 431 (step S7), and this process ends.
  • the warning screen displayed in step S5 has been described as the warning screen 452.
  • the warning screen 453 illustrated in FIG. The warning screen 453 is used to input additional information for facilitating identification of an individual when the information of the comparison target item of the input patient information matches the patient information already registered in the patient information DB 431. It is a screen that displays a message for prompting.
  • a display prompting the user to input such information is displayed.
  • “other information” a display prompting input of a patient's appearance, occupation, family name, and the like may be performed.
  • the receiving device 4 when the information of the comparison target item of the input patient information matches the information of the corresponding item already registered in the patient information DB 431, the information of the two items does not match.
  • Information is displayed, and a warning screen is displayed to prompt confirmation of whether the patient is the same as a registered patient.
  • a warning screen that prompts the user to input additional information for distinguishing from other matching patient information is displayed. Therefore, it is possible to prevent a situation in which the same patient is registered twice at the time of patient registration, or because the patient information matches or resembles, and an individual corresponding to the patient information cannot be identified.
  • small-scale facilities such as practitioners are relatively close to patients as family doctors, and doctors and receptionists remember disease names, etc., based on the patient's appearance and name. By registering the purpose of the visit or the like, the patient can be identified.
  • FIG. 8 shows a flow of reception registration processing executed by the CPU 41 of the reception device 4. This process is realized by a software process in cooperation with the CPU 41 and the program stored in the storage unit 43 when the display of the reception screen 454 is instructed by the input unit 44.
  • a reception screen 454 is displayed on the display unit 45 (step S11).
  • FIG. 9 shows an example of the reception screen 454.
  • the reception screen 454 includes an input field for inputting a reception number, an input field for inputting a patient name (kana), and “OK” for instructing reception registration based on the input information.
  • Buttons 454a and the like are provided.
  • step S12 When the input number and the patient name (kana) are input from the input field corresponding to the reception number item and the patient name (kana) item by the input unit 44 and the “OK” button 454a is pressed (step S12), the patient information DB 431 is displayed. The patient information that matches the patient name (kana) input from is extracted (step S13).
  • step S14 When a plurality of patient information is extracted (step S14; YES), the patient information of one patient is displayed on the display unit 45 from the extracted patient information, and a display for confirming the patient information is displayed. (Step S15).
  • FIG. 10A shows an example of display on the display unit 45 in step S15.
  • step S15 for example, one patient information among the extracted patient information is displayed on the reception screen 454, and an item whose registration contents are different from the other extracted patient information is highlighted with a color or the like.
  • an “OK” button 454 b for instructing reception registration with the displayed patient information and an “other patient” button 454 c for instructing display of patient information different from the displayed patient information are displayed.
  • FIG. 10 (a) by highlighting items whose registration contents are different from other extracted patient information, it is displayed to the receptionist among patient information having the same patient name (kana). It is possible to prompt the user to confirm whether or not the registration can be performed based on the patient information.
  • FIG. 10B shows another example of display on the display unit 45 in step S15.
  • a confirmation screen 455 shown in FIG. 10B may be popped up on the reception screen 454.
  • items that are different from the other patient information in the extracted patient information are displayed.
  • an “OK” button 455a for instructing reception registration with the displayed patient information and an “other patient” button 455b for instructing display of patient information different from the displayed patient information are displayed.
  • FIG. 10 (b) by displaying items whose registered contents are different from other extracted patient information, it is displayed among the patient information having the same patient name (Kana) to the receptionist. It is possible to prompt confirmation of whether or not to accept and register based on the patient information.
  • step S16 When display of patient information of another patient is instructed by the input unit 44 (step S16; YES), the process returns to step S15, and one patient information that has not yet been displayed among the patient information extracted in step S13. Is displayed. On the other hand, if display of patient information of another patient is not instructed by the input unit 44 (step S16; NO) and reception registration with the displayed patient information is instructed (step S17; YES), the displayed patient is displayed. Reception information (patient information, reception number, reception date) including information is registered and stored in the reception information DB 432 (step S18).
  • reception information DB 432 reception information whose reception date is today is extracted, and based on the extracted reception information, reception patient list information of patients received today is generated, The data is transmitted to the medical image management apparatus 3 via the communication unit 46 (step S19), and this process ends.
  • the reception device 4 when a plurality of pieces of patient information having a patient name (kana) that matches the patient name (kana) input at the time of reception are registered in the patient information DB 431, items to be confirmed, For example, since the reception staff displays items having different registration contents so that they can be identified, it is possible to prevent another patient having the same patient name (kana) from being received and registered by mistake.
  • FIG. 11 shows a flow of diagnosis support processing executed by the CPU 31 of the medical image management apparatus 3. This process is realized by a software process in cooperation with the CPU 31 and the program stored in the storage unit 33 when the display of the patient list screen 351 is instructed by the input unit 34.
  • the patient list screen 351 is displayed on the display unit 35 (step S21).
  • FIG. 12 shows an example of the patient list screen 351.
  • received patient list information transmitted from the receiving device 4 (the patient's reception number, patient information, etc. received today) is displayed.
  • step S22 When patient information of a patient to be diagnosed is selected by the input unit 34 on the patient list screen 351 (step S22), information having a patient name (kana) that matches the patient name (kana) of the selected patient is received. It is determined whether or not the patient list information exists, and if there is no matching information (step S23; NO), the process proceeds to step S26.
  • step S23 When information having a patient name (kana) that matches the patient name (kana) of the selected patient exists in the received patient list information (step S23; YES), confirmation of the selected patient information on the patient list screen 351 A confirmation screen 352 is displayed as a pop-up (step S24).
  • FIG. 13 shows an example of the confirmation screen 352 displayed in step S24.
  • items of registration information different from other patient information with the same patient name (kana) are displayed among the patient information of the selected patient, and a message requesting confirmation. Is displayed.
  • step S25; YES When the “OK” button 352a is pressed by the input unit 34 on the confirmation screen 352 (step S25; YES), the process proceeds to step S26.
  • step S25; NO When the “NG” button 352b is pressed by the input unit 34 on the confirmation screen 352 (step S25; NO), the process returns to step S21.
  • step S26 the display unit 35 displays the viewer screen 353 of the selected patient to be diagnosed and the patient information of the selected patient to be diagnosed (here, the patient name (kana)).
  • the patient buttons BT (BT1 to BT) for instructing switching to the viewer screen 353 are displayed.
  • FIG. 14 shows an example of the viewer screen 353.
  • the viewer screen 353 includes a patient information display field 353a, an image display field 353b, an image adjustment field 353c, an “image comparison screen” button 353d, a “return” button 353e, and a “diagnosis”. "Finish” button 353f is displayed.
  • the patient information display field 353a displays patient information of a patient who is a display target.
  • the image display field 353b displays a captured image.
  • the image adjustment field 353c accepts input of image processing conditions for image processing performed on the image displayed in the image display field 353b.
  • the “image comparison screen” button 353d is a button for inputting a screen switching instruction to the image comparison screen 355 (see FIG. 18).
  • the “return” button 353e is a button for inputting an instruction to return to the patient list screen 351.
  • the “diagnosis end” button 353f is a button for inputting a diagnosis end instruction.
  • a plurality of patients can be selected as diagnosis target patients and a viewer screen 353 for a plurality of diagnosis target patients can be launched.
  • the patient buttons (BT1 to n) are buttons for selecting a patient to be displayed on the viewer screen 353 among the plurality of selected diagnosis target patients, and are displayed on the patient button pressed by the input unit 34.
  • the patient viewer screen 353 of the patient information is displayed.
  • step S27; YES When the “return” button 353e is pressed by the input unit 34 on the viewer screen 353 and an instruction to return to the patient list screen 351 is input (step S27; YES), the process returns to step S21.
  • the patient information displayed on the pressed patient button It is determined whether or not the patient button of the same patient information (patient name (kana)) as (patient name (kana)) is displayed, and if it is determined that it is not displayed (step S29; NO), the patient button Is switched and displayed on the viewer screen 353 for the patient whose button is pressed (step S32).
  • step S30 if it is determined that a patient button having the same patient information (patient name (kana)) as the patient information (patient name (kana)) displayed on the pressed patient button is displayed (step S29; YES)
  • the pressed patient button blinks and a confirmation screen 354 pops up on the viewer screen 353 (step S30).
  • the confirmation screen 354 is the same screen as the confirmation screen 352 shown in FIG. 13, and the registered information is different from other patient information whose patient name (kana) matches among the patient information of the patient whose patient button is pressed. Is displayed and a message requesting confirmation is displayed.
  • step S31 when the display of the patient button is the same, by displaying items with different registration contents, it is possible to prompt the user such as a doctor to confirm whether or not the patient selected as the display target is correct.
  • step S31 When the “OK” button 354a is pressed on the confirmation screen 354 (step S31; YES), the display is switched to the viewer screen 353 for the patient whose patient button is pressed (step S32).
  • step S31 When the “NG” button 354b is pressed on the confirmation screen 354 (step S31; NO), the process returns to step S28.
  • step S33 When image data of a captured image is received from the image generation device 2 via the communication unit 36 in a state where the viewer screen 353 of the patient selected as the display target is displayed (step S33; YES), the received image The data is temporarily stored in the RAM 32, and image determination processing is executed (step S34).
  • FIG. 15 shows a flow of received image determination processing executed by the CPU 31 in step S34. This processing is realized by software processing by cooperation between the CPU 31 and a program stored in the storage unit 33.
  • image data of the received captured image is subjected to image analysis, and automatic part recognition processing is performed (step S101).
  • image processing since the distribution of pixel values of a captured image differs when the imaging region is different, it is necessary to perform image processing according to the distribution state. Therefore, in order to perform optimal image processing, the imaging region in the captured image is recognized.
  • JP-A-2001-76141 can be applied to the automatic part recognition process.
  • a captured image is subjected to main scanning and sub-scanning to extract a subject area.
  • main scanning and sub-scanning a differential value with respect to neighboring pixels is calculated for each scanned pixel, and if this differential value is greater than a threshold value, it is determined that the boundary point between the subject region and the missing region. A region surrounded by the boundary point is extracted as a subject region.
  • feature values are extracted for the subject area.
  • the feature amount include the size of the subject area (number of pixels), the shape of the density histogram, the shape of the center line of the subject area, the distribution of primary differential values in the main scanning or sub-scanning direction, and the like.
  • the numerical value of each feature amount is normalized according to a predetermined condition. For example, if the density histogram shape is close to the chest shape pattern, the normalized value is “1”.
  • the correlation value is calculated by comparing the corresponding elements between the feature vectors Pi and Si, and if the values are the same, the correlation value is “1”, and if the values are different, the correlation value is “0”. .
  • the present invention is not limited to the above-described method, and other imaging region recognition methods such as the method disclosed in JP-A-11-85950 may be applied, and the method is not particularly limited.
  • step S102 when the imaging part recognized by the automatic part recognition process is the front of the chest (step S102; YES), the image data is subjected to a left / right reversal process (step S103), and the process proceeds to step S104. If the recognized imaging region is not the front of the chest (step S102; NO), the process proceeds to step S104.
  • the PA direction is an imaging direction in which radiation is emitted from the back to the chest as shown in FIG. 16A
  • the AP direction is radiation from the chest to the back as shown in FIG. Is the shooting direction.
  • photographing in front of the chest photographing is generally performed in the PA direction, and a wheelchair patient or a bedridden patient is photographed in the AP direction only when photographing in the PA direction is impossible due to photographing on a bed or the like.
  • the left and right are automatically reversed so that the image can be displayed in the same state as when the doctor is facing the patient. .
  • the image is taken in the AP direction.
  • the doctor reverses the image again by instructing the left / right inversion process by pressing the “invert” button in the image adjustment field 353c using the input unit 34. Processing can be performed to display an image in the same state as when the doctor is facing the patient.
  • step S104 the image processing parameter corresponding to the recognized imaging part is read from the storage unit 33, and the image data received using the read image processing parameter is subjected to gradation conversion processing, frequency processing, and the like. Predetermined image processing is performed (image processing means). The processed image data is displayed in the image display field 353b of the viewer screen 353 (step S105).
  • the received image data itself (original image data) is held in the RAM 32 for storing the image data, and image processing is performed on a copy image of the received image data.
  • a slide bar for adjusting the density and contrast provided in the image adjustment field 353c, etc. By inputting the image processing conditions (density, contrast adjustment amount, etc.) by operating, image processing can be performed on the displayed image.
  • an icon 353g indicating that the left / right reversal processing has been performed is displayed in the image display field 353b.
  • step S106 When image processing conditions are input from the image adjustment field 353c by the input unit 34 (step S106; YES), the image processing parameters are corrected (correcting means) according to the input image processing conditions, and the corrected image processing parameters are corrected. Then, image processing is performed on the copy image of the image data received again in step S107, and the image is displayed in the image display field 353b (step S107).
  • the displayed image is determined as a diagnostic image, and the image processing parameter that generated the displayed image is the above-described image processing parameter.
  • the image processing parameters of the received captured image are determined (image determination means), and the patient information and the image processing parameters of the patient currently displayed on the original image data of the captured image are corrected (if any). If there is no correction, the image processing parameter corresponding to the recognized part) is associated and stored in the storage unit 33 (step S109).
  • patient information and image processing parameters of the patient who is currently displayed (recognized if there is correction, corrected image processing parameters, if there is no correction are recognized
  • the image processing parameter corresponding to the part) is written and stored in the storage unit 33.
  • the UID of the captured image, patient information, and image processing parameters are registered in the image DB 331.
  • step S110 when the “NG” button 353i is pressed by the input unit 34 (step S110; YES), the original image data of the received photographed image is discarded (deleted from the RAM 32) (step S111).
  • step S112 If there is other image data received via the communication unit 36 (step S112; YES), the process returns to step S101. If there is no other received image data (step S112; NO), the process proceeds to step S35 in FIG.
  • the input unit 34 instructs the display of the image comparison screen 355 by pressing the “image comparison screen” button 353d, and further displays a reference image as a reference for comparative interpretation in the image display field 353b.
  • an image comparison screen display control process is executed (step S36). If the display instruction of the image comparison screen 355 is not input (step S35; NO), the process proceeds to step S37.
  • one image is designated by the input unit 34 from the captured images displayed in the plurality of image display fields 353b.
  • the reference image is specified (a reference image specifying means is realized).
  • the photographable images that can be specified are limited to images that have been determined and stored in the storage unit 33.
  • the image displayed by the CPU 31 may be automatically designated as a reference image. .
  • thumbnail images of the captured images (captured images stored in the storage unit 33) captured for the patient to be displayed is displayed side by side in time series on the viewer screen 353, and comparative interpretation is performed.
  • An image designation field for accepting an operation for designating a reference image may be provided, and a captured image designated by the input unit 34 from the image designation field may be designated as a reference image.
  • FIG. 17 shows a flow of the image comparison screen display control process executed by the CPU 31 in step S36.
  • This processing is realized by software processing by cooperation between the CPU 31 and a program stored in the storage unit 33.
  • Display control means is realized by executing this processing.
  • the image comparison screen 355 is displayed on the display unit 35 (step S201).
  • FIG. 18 shows an example of the image comparison screen 355.
  • the image comparison screen 355 includes a reference image display field 355a, a comparison image display field 355b, an image designation field 355c, an image adjustment field 355d, a link button 355e, a screen layout button 355f, and a “return” button 355g. , Is displayed.
  • the reference image display field 355a displays the reference image designated by the input unit 34 in step S35 of FIG.
  • the comparison image display field 355b displays a comparison image used for comparative interpretation with the reference image.
  • the image designation field 355c displays a list of thumbnail images of captured images (captured images stored in the image DB 331) captured for the patient to be displayed, arranged in chronological order, and compared by the input unit 34. An operation for designating a comparison image to be displayed in the image display field 355b is received (comparison image designating means).
  • the image adjustment field 355d accepts an input operation by the image processing condition input unit 34 for the displayed reference image and comparison image (input unit). The input may be performed based on the amount of movement of the mouse in a predetermined direction.
  • the link button 353e is a button for inputting an instruction (referred to as an image processing link) for reflecting the image processing based on the image processing condition input in the image adjustment field 353d on both the reference image and the comparison image.
  • the screen layout button 355f is a button for setting a screen layout.
  • the “return” button 355g is a button for inputting an instruction to return to the viewer screen 353.
  • the common parameter selection screen 356 is a screen for selecting the type of image processing in which the initial image processing parameters are matched before the image processing is linked between the reference image and the comparison image, as shown in FIG.
  • a type of image processing and a check box are displayed.
  • tone conversion processing density and contrast
  • frequency enhancement processing dynamic range compression processing
  • dynamic range compression processing bone correction / soft portion correction
  • grain suppression processing black and white inversion processing (black and white inversion display)
  • black and white inversion processing black and white inversion display
  • the enlargement / reduction processing enlargement / reduction mode
  • the display position adjustment processing display position
  • the input unit 34 selects (checks) one or a combination of the displayed image processing types as the type of image processing for matching the image processing parameters between the reference image and the comparison image.
  • pressing the “OK” button 356 a it is possible to perform image processing by matching the image processing parameters of the type selected in the reference image and the comparison image before linking the image processing.
  • Step S202 When a thumbnail image serving as a comparison image is designated from among the thumbnail images displayed in the image selection field 355c by the input unit 34, the designated comparison image is displayed in the comparison image display field 355b and displayed side by side with the reference image. (Step S202).
  • the link button 353d is pressed by the input unit 34, and the type of image processing in which the image processing parameters are matched between the reference image and the comparison image before the image processing link is selected on the subsequently displayed common parameter selection screen 356.
  • step S203 the image processing parameters attached to each of the reference image and the comparison image are read, and the image processing parameters attached to the reference image are selected for the selected type of image processing parameters.
  • the image processing is performed on both images in common, and the other images are subjected to image processing using the image processing parameters attached thereto (step S204).
  • the image-processed reference image is displayed in the reference image display field 355a and the image-processed comparison image is displayed in the comparison image display field 355b, whereby both images are displayed side by side (step S205).
  • the image data received from the image generation apparatus 2 is automatically subjected to image processing with image processing parameters corresponding to the imaging region recognized by the region recognition. Is done. That is, if the same imaging region is used, image processing is automatically performed with the same image processing parameters.
  • This image processing by automatic part recognition is performed in order to be able to provide a photographed image for diagnosis.
  • the image processing conditions (adjustment amount) of density and contrast are individually adjusted with a slide bar or the like so that the doctor can easily diagnose the image automatically processed by the part recognition. Since it is possible to input and perform image processing, image processing parameters may be different for each image even in the same imaging region.
  • the display standard of each image (for example, the density and contrast represented by each image) varies from image to image. For example, even if there is no actual change in the lesion, there is a change in the lesion. It may seem like there is.
  • step S204 the image processing parameters are matched with the reference image and the comparison image, and image processing is performed under the same image processing conditions, so that the doctor can visually recognize the actual change of the lesion.
  • the same image processing can be reflected on both the reference image and the comparison image by operating the image adjustment field 355d and inputting new image processing conditions.
  • step S206 When image processing conditions are input from the image adjustment field 355d by the input unit 34 (step S206; YES), image processing parameters used in common for the reference image and the comparison image are determined according to the input image processing conditions. Both images are subjected to image processing using the processed image processing parameters, and the image-processed reference image is displayed in the reference image display field 355a, and the image-processed comparison image is displayed in the comparison image display field 355b (step S207). ).
  • step S208 When another thumbnail image is designated from the image designation field 355c by the input unit 34 and an instruction to change the comparison image is given (step S208; YES), the process returns to step S202.
  • step S209 When the “return” button 355g is pressed by the input unit 34 (step S209; YES), the display on the display unit 35 returns to the viewer screen 353 (step S210), and the process proceeds to step S37 in FIG.
  • step S37 of FIG. 11 it is determined whether or not the diagnosis end button 353f is pressed by the input unit 34. If the diagnosis end button 353f is not pressed (step S37; NO), the process returns to step S27. If it is determined that the diagnosis end button has been pressed (step S37; YES), this process ends.
  • the medical image management apparatus 3 in the small-scale diagnosis system 1 when the link button 355d is pressed by the input unit 34 on the image comparison screen 355, the reference image and the comparison image are changed to the reference image.
  • the associated image processing parameters are used in common to perform image processing and display, and the image processing conditions for the displayed reference image and comparison image are input by operating the image adjustment field 355d of the input unit 34.
  • display is performed by performing image processing on the reference image and the comparison image that have been image-processed using the common image processing parameters according to the input image processing conditions.
  • the display standard of the reference image and the comparison image can be matched by performing image processing under the same image processing conditions by combining the image processing parameters with respect to the reference image and the comparison image. It becomes possible to easily observe the change of the part over time. In addition, it is not necessary for the doctor to adjust the image processing for mutually matching the display standards between the plurality of images to be compared, and the operability at the time of comparative interpretation can be improved.
  • the description content in the said embodiment is a suitable example of the small-scale diagnosis system 1 which concerns on this invention, and is not limited to this.
  • the present invention is not limited to this.
  • the contrast value may be input as a numerical value.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Pathology (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

 本発明に係る医用画像管理装置によれば、画像比較画面において入力部によりリンクボタンが押下されると、基準画像及び比較画像に対し、基準画像に対応付けられている画像処理パラメータを共通に用いて画像処理を施して表示を行い、入力部による画像調整欄の操作により、表示された基準画像及び比較画像に対する画像処理条件が入力された際に、共通の画像処理パラメータを用いて画像処理された基準画像及び比較画像に対し入力された画像処理条件により画像処理を施して表示を行う。

Description

小規模施設用診断支援装置及びプログラム
 本発明は、小規模な医療施設で用いられる小規模施設用診断支援装置及びプログラムに関するものである。
 従来、人体を撮影してデジタルの撮影画像を取得するCR(Computed Radiography)装置等の画像生成装置においては、撮影画像に画像処理を施して診断に適した画質となるようにコントロールしている。この画像処理により、被写体の特徴や撮影条件が異なる場合であっても一定の画質の画像で診断が行えるようになっている。しかし、このような画質を一定にするための画像処理アルゴリズムは、主に、診断において注目される領域の画質を一定にするようになっており、病変部の階調までもがコントロールされてしまう場合があり、同一患者の同一部位を時系列に撮影した撮影画像を比較読影して病状の経過を診断する経過観察には適さない場合がある。
 経過観察のためには、病変部以外の画質を揃えることが必要であり、管電圧、管電流、照射野領域等の撮影条件や撮影状態を一致させて撮影を行い、画像処理パラメータを一定にすることで、経過観察に適した画像を得ることはできる。そこで、従来、CR装置では、通常ユーザが選択可能な撮影条件キーなどに画像処理アルゴリズムや画像処理パラメータを割り当て、ユーザにより選択された撮影条件キーに割り当てられた画像処理アルゴリズムや画像処理パラメータを用いて画像処理を行うシステムが使用されている。この撮影条件キーは、主に、撮影オーダの内容により選択されるものである。また、例えば、特許文献1には、病変の如何にかかわらず同一の濃度を保つ領域の信号値に基づいて画像処理条件を決定する技術も提案されているが、この場合も撮影部位等によってアルゴリズムが異なる。
 しかし、開業医やクリニック等の小規模な医療施設では、医師自身が撮影者と診断者を兼ねる場合が多く、このような医療施設で用いられるシステム(例えば、特許文献2参照)では、必ずしも撮影オーダが発行されるわけではない。そのため、撮影条件キーの選択等により撮影前に画像処理条件を決定することはできない。そこで、医師自身がキーボード操作等により経過観察に用いる撮影画像間の画質を合わせる調整を行うこととなるが、小規模な医療施設においては、大規模な医療施設のように、撮影画像の画質を確認し、場合によっては画像処理条件に修正を加え、診断に提供する画質に責任を負う専任の技師もおらず、キーボード等に不慣れな医師自身がこのような調整を試行錯誤で行うことは小規模施設全体の効率を低下させることとなり好ましくない。
特開2000-79110号公報 特開2008-6169号公報
 本発明の課題は、小規模な医療施設において、医師が病変部の経時的な変化を容易に観察できるようにすることである。
 上記課題を解決するため、請求の範囲1に記載の発明の小規模施設用診断支援装置は、
 人体の撮影画像を画像解析することにより撮影部位を認識し、この認識された撮影部位に応じて予め定められた画像処理パラメータを用いて前記撮影画像に画像処理を施す画像処理手段と、
 各種指示が入力される入力部と、
 前記入力部からの入力に基づいて、前記撮影画像に用いる画像処理パラメータを修正する修正手段と、
 前記撮影画像の撮影部位に応じた画像処理パラメータ又は前記修正手段により修正された画像処理パラメータを前記撮影画像に用いる画像処理パラメータとして確定する画像確定手段と、
 前記確定された画像処理パラメータを前記撮影画像に対応付けて記憶する記憶手段と、
 前記入力部からの入力に基づいて、前記記憶手段に記憶された撮影画像の中から比較読影の基準となる基準画像を指定する基準画像指定手段と、
 前記入力部からの入力に基づいて、前記基準画像と同一患者の同一撮影部位を撮影した比較対象となる比較画像を指定する比較画像指定手段と、
 前記指定された基準画像及び比較画像を並べて表示する表示部と、
 前記指定された基準画像及び比較画像に対し前記基準画像に対応付けられている画像処理パラメータを共通に用いて画像処理を施して前記表示部に表示させ、前記入力部により画像処理条件が入力されると、前記共通の画像処理パラメータを用いて画像処理された基準画像及び比較画像に対し前記入力された画像処理条件により画像処理を施して前記表示部に表示させる表示制御手段と、
 を備える。
 請求の範囲2に記載の発明は、請求の範囲1に記載の発明において、
 前記基準画像及び前記比較画像に対して共通の画像処理パラメータを用いる画像処理は、階調変換処理、周波数強調処理、エッジ強調処理、ダイナミックレンジ圧縮処理、粒状抑制処理、拡大/縮小処理、表示位置調整処理、若しくは白黒反転処理の何れか又はこれらの組み合わせである。
 請求の範囲3に記載の発明のプログラムは、
 コンピュータを、
 人体の撮影画像を画像解析することにより撮影部位を認識し、この認識された撮影部位に応じて予め定められた画像処理パラメータを用いて前記撮影画像に画像処理を施す画像処理手段、
 入力に基づいて、前記撮影画像に用いる画像処理パラメータを修正する修正手段、
 前記撮影画像の撮影部位に応じた画像処理パラメータ又は前記修正手段により修正された画像処理パラメータを前記撮影画像に用いる画像処理パラメータとして確定する画像確定手段、
 前記確定された画像処理パラメータを前記撮影画像に対応付けて記憶する記憶手段、
 入力に基づいて、前記記憶手段に記憶された撮影画像の中から比較読影の基準となる基準画像を指定する基準画像指定手段、
 入力に基づいて、前記基準画像と同一患者の同一撮影部位を撮影した比較対象となる比較画像を指定する比較画像指定手段、
 前記指定された基準画像及び比較画像に対し前記基準画像に対応付けられている画像処理パラメータを共通に用いて画像処理を施して前記基準画像及び比較画像を表示部に並べるように表示させ、画像処理条件が入力されると、前記共通の画像処理パラメータを用いて画像処理された基準画像及び比較画像に対し前記入力された画像処理条件により画像処理を施して前記表示部に表示させる表示制御手段、
 として機能させる。
 請求の範囲4に記載の発明は、請求の範囲3に記載の発明において、
 前記基準画像及び前記比較画像に対して共通の画像処理パラメータを用いる画像処理は、階調変換処理、周波数強調処理、ダイナミックレンジ圧縮処理、粒状抑制処理、拡大/縮小処理、表示位置調整処理、若しくは白黒反転処理の何れか又はこれらの組み合わせである。
 本発明によれば、基準画像及び比較画像の表示基準を自動的に合わせて表示部に表示することができるので、医師が病変部の経時的な変化を容易に観察することが可能となる。
本発明の実施の形態における小規模診断システムの全体構成例を示す図である。 図1に示す小規模診断システムを適用した場合の各装置の医療施設における配置例を示す図である。 図1の医用画像管理装置の機能的構成を示す要部ブロック図である。 図1の受付装置の機能的構成を示す要部ブロック図である。 図4のCPUにより実行される患者登録処理を示すフローチャートである。 図4の表示部に表示される患者登録画面の一例を示す図である。 図4の表示部に表示される警告画面の一例を示す図である。 図4のCPUにより実行される受付登録処理を示すフローチャートである。 図4の表示部に表示される受付画面の一例を示す図である。 図8のステップS15において図4の表示部に表示される確認を促す表示の一例を示す図である。 図3のCPUにより実行される診断支援処理を示すフローチャートである。 図3の表示部に表示される患者リスト画面の一例を示す図である。 図3の表示部に表示される確認画面の一例を示す図である。 図3の表示部に表示されるビューア画面の一例を示す図である。 図3のCPUにより実行される画像確定処理を示すフローチャートである。 胸部正面の撮影方向を説明するための図である。 図3のCPUにより実行される画像比較画面表示制御処理を示すフローチャートである。 図3の表示部に表示される画像比較画面の一例を示す図である。 図3の表示部に表示される共通パラメータ選択画面の一例を示す図である。
符号の説明
 1 小規模診断システム
 2 画像生成装置
 2a 超音波診断装置
 2b 内視鏡装置
 2c CR装置
 3 医用画像管理装置
 4 受付装置
 5 ネットワーク
 21 変換装置
 21a 入力操作部
 31 CPU
 32 RAM
 33 記憶部
 331 画像DB
 34 入力部
 35 表示部
 351 患者リスト画面
 352 確認画面
 353 ビューア画面
 355 画像比較画面
 36 通信部
 37 バス
 41 CPU
 42 RAM
 43 記憶部
 431 患者情報DB
 432 受付情報DB
 44 入力部
 45 表示部
 451 患者登録画面
 452 警告画面
 453 警告画面
 454 受付画面
 455 確認画面
 46 通信部
 47 バス
 以下、本発明に係る医用画像システムの一実施形態について説明する。ただし、本発明は図示例のものに限定されるものではない。
 まず、構成を説明する。
 図1に、本発明に係る医用画像システムを適用した小規模診断システム1のシステム構成を示す。図2に、小規模診断システム1を適用した場合の各装置の医療施設における配置例を示す。
 小規模診断システム1は、開業医やクリニック等の比較的小規模の医療施設に適用されるシステムであり、患者の撮影を先行して行い、撮影画像データの生成後、医師が患者情報と画像データとを対応付けるシステムである。大規模施設のシステムのように、予め患者に対するオーダ情報(検査オーダ情報、撮影オーダ情報)を生成、発行して撮影を行い、得られた画像データとオーダ情報を対応付けるシステムとは異なる。
 小規模診断システム1は、図1に示すように、画像生成装置2である超音波診断装置2a、内視鏡装置2b、CR装置2cと、医用画像管理装置3と、受付装置4とから構成される。画像生成装置2、医用画像管理装置3、受付装置4は、例えば図示しないスイッチングハブ等を介してLAN(Local Area Network)等の通信ネットワーク(以下単に「ネットワーク」という)5に接続されている。医用画像管理装置3は、医師の常駐場所である診察室に設けられたWS(ワークステーション)であることが好ましい。なお、この医用画像管理装置3として作動するWSが各画像生成装置2の起動や処理条件等を制御する構成としてもよい。
 医用関連の通信方式としては、一般的に、DICOM(Digital Image and Communications in Medicine)規格が用いられており、LAN接続された各装置間の通信では、DICOM MWM(Modality Worklist Management)やDICOM MPPS(Modality Performed Procedure Step)が用いられる。
 例えば、開業医やクリニック等のような小規模の医療施設においては、各装置は図2に示すように配置される。
 すなわち、入口10を入ると患者の受付けを行う受付11と待合室12がある。受付11には窓口担当が配置され、当該担当は、来院した患者に対して、例えば、受付順に個々の患者を区別するための受付番号が印刷された受付番号札を付与する。また、受付11には、受付装置4が設けられており、窓口担当は、患者の氏名等を聞き取り、受付装置4に受付番号と患者氏名等の患者情報との対応付けを入力する。
 待合室12の隣には、ドア等を隔てて医師が患者の診察、診断等を行う診察室13が設けられている。例えば診察室13内の診察用のデスク(図示せず)の上には、医師による診断のために、患者の診断対象部位を撮影した撮影画像を表示する医用画像管理装置3が配置されている。また、診察室13内には、プライバシー等の観点から隔離された空間で行う必要性の低い超音波診断装置2a等が設置されている。
 また、廊下14を隔てて診察室13の向かい側にはX線撮影を行うX線撮影室15が設けられている。X線撮影室15内には、撮影装置22と読取装置23とから構成されるCR装置2cが配設されている。さらに、X線撮影室15の隣には検査室16が設けられており、検査室16内には内視鏡装置2b等が配設されている。
 以下、小規模診断システム1の各装置の構成について説明する。
 画像生成装置2は、例えば、超音波診断装置2a、内視鏡装置2b、CR装置2c等の、患者の診断対象部位を被写体として撮影を行い、撮影した画像をデジタル変換して撮影画像の画像データを生成する装置である。
 超音波診断装置2aは、超音波を出力する超音波プローブと、超音波プローブに接続され、超音波プローブで受信された音波(エコー信号)を内部組織の撮影画像の画像データに変換する電子装置とから構成されている(いずれも図示せず)。超音波診断装置2aは、超音波プローブから体内に超音波を送り、体内組織に反射した音波(エコー信号)を再び超音波プローブで受信して、このエコー信号に応じた撮影画像を電子装置によって生成するようになっている。
 超音波診断装置2aには、アナログ信号からデジタル信号への変換等を行う変換手段(コンバータ)である変換装置21が接続されており、超音波診断装置2aは、変換装置21を介してネットワーク5に接続されている。変換装置21は、超音波診断装置2aで生成されるDICOM規格に合わない形式の画像信号をDICOM規格に準じた形式の画像データに変換する機能を備えている。例えば、超音波診断装置2aにより生成された画像をアナログ信号からデジタル信号へ変換し、小規模診断システム1内において画像データを特定するためのUID(ユニークID)を画像データに付帯させる。UIDは、小規模診断システム1を構成する各装置の識別情報(以下、装置IDという。)、撮影(検査)日付及び時刻を示す数字等から構成される。なお、本実施の形態において、装置IDは画像生成装置2の種類を示す情報を含んで構成されているものとする。
 また、変換装置21には、例えば、テンキー、キーボード、タッチパネル等で構成される入力操作部21aが設けられている。入力操作部21aは、撮影対象の患者の患者情報を入力するための装置である。変換装置21は、入力操作部21aから患者情報が入力されると、入力された患者情報を撮影される画像データに上述のUIDとともに付帯させる。画像データに付帯される画像データに関する情報(ヘッダ情報)を付帯情報と呼ぶ。なお、入力操作部21aの構成はここに示したものに限定されず、例えば、カードを差し込むことでカードに書き込まれた情報を読み取るカードリーダや、バーコードを読み取るバーコードリーダのようなものでもよい。
 内視鏡装置2bは、可撓性を有する管の先端部に小型の撮影装置が設けられたものである(いずれも図示せず)。撮影装置は、例えば光学レンズ等で構成される対物光学系と、対物光学系の結像位置に配置された撮像部と、LED(Light Emitting Diode)等で構成され撮像を行うために必要な照明を行う照明部とを備えている(いずれも図示せず)。撮像部は、例えばCCD(Charge Coupled Device)、CMOS(Complementary Metal-Oxide Semiconductor)等の固体撮像素子を備え、光が入射すると光の入射光量に応じた量の電気的な信号へと光電変換する。対物光学系は、照明部により照明された領域を光学レンズで集光し、撮像部が有する固体撮像素子に結像するように構成されており、固体撮像素子に入射した光が光電変換されることにより、電気信号として撮影画像の画像データが出力されるようになっている。
 CR装置2cを構成する撮影装置22は、図示しない放射線(X線)源を有し、患者の診断対象部位に放射線を照射して静止画像を撮影する。撮影時には前記放射線源から照射される放射線の照射領域内に、例えば放射線エネルギーを蓄積する輝尽性蛍光体シートを備える放射線画像変換プレートが内蔵されたカセッテが配置されるようになっており、放射線源からの照射放射線量に対する診断対象部位の放射線透過率分布に従った放射線量がカセッテに内設された輝尽性蛍光体シートの輝尽性蛍光体層に蓄積し、この輝尽性蛍光体層に診断対象部位の放射線画像情報を記録する。
 読取装置23は、診断対象部位の放射線画像情報が記録されたカセッテが装填されると、装置内に装填されたカセッテの輝尽性蛍光体シートに励起光を照射し、これによりシートから発光される輝尽光を光電変換し、得られた画像信号をA/D変換して、撮影画像の画像データを生成するようになっている。
 CR装置2cは撮影装置22と読取装置23とが一体化した一体型の装置であってもよい。
 なお、本実施の形態において、内視鏡装置2b及びCR装置2cの読取装置23は、DICOM規格に対応した装置であり、DICOM形式で撮影画像の画像データを医用画像管理装置3に送信する。
 例えば、内視鏡装置2b及びCR装置2cの読取装置23は、生成された画像データに上述のUIDを付与する機能が備えられており、この付与されたUIDを画像データに付帯させる。
 また、図示はしないが、内視鏡装置2b及びCR装置2cの読取装置23においても、キーボード、タッチパネル等で構成される入力操作部が設けられている。入力操作部は、撮影対象の患者の患者情報を入力するための装置である。内視鏡装置2b及びCR装置2cの読取装置23は、入力操作部から患者情報が入力されると、入力された患者情報を撮影される画像データに上述のUIDとともに付帯させて医用画像管理装置3へ送信する。
 なお、入力操作部の構成はここに示したものに限定されず、例えば、カードを差し込むことでカードに書き込まれた情報を読み取るカードリーダや、バーコードを読み取るバーコードリーダのようなものでもよい。
 医用画像管理装置3は、例えば診察室13に設置され、医師が撮影画像を表示させて読影診断を行うための小規模施設用診断支援装置であり、一般的なPC(Personal Computer)に用いられるモニタ(表示部)よりも高精細のモニタを備えるものであってもよい。
 医用画像管理装置3は、図3に示すように、CPU31、RAM32、記憶部33、入力部34、表示部35、通信部36等を備えて構成されており、各部はバス37により接続されている。
 CPU31は、記憶部33に記憶されているシステムプログラムや処理プログラム等の各種プログラムを読み出してRAM32に展開し、展開されたプログラムに従って後述する診断支援処理をはじめとする各種処理を実行する。
 RAM32は、CPU31により実行制御される各種処理において、記憶部33から読み出されたCPU31で実行可能な各種プログラム、入力若しくは出力データ、及びパラメータ等の一時的に記憶するワークエリアを形成する。
 記憶部33は、HDD(Hard Disk Drive)や半導体の不揮発性メモリ等により構成される。記憶部33には、CPU31で実行可能な各種プログラムや、各プログラムで必要なパラメータ、データ等を記憶している。
 例えば、記憶部33は、撮影部位に対応付けて、撮影部位毎に予め定められた画像処理パラメータを記憶している。
 ここで、撮影部位は撮影対象である被写体の部位(例えば、胸部の骨や肺、腹部等)の他、撮影形態(例えば、正面、斜位等の撮影方向や臥位、立位等の撮影条件)も含めて分類することとする。
 撮影画像に施される画像処理は、例えば、階調変換処理、周波数強調処理、ダイナミックレンジ圧縮処理、粒状抑制処理、拡大/縮小処理、表示位置調整処理、白黒反転処理等であり、記憶部33には、撮影部位毎に予め定められた画像処理の種類について予め定められた画像処理パラメータが対応付けて記憶されている。
 画像処理パラメータは、例えば、階調変換処理に用いる階調変換曲線(入力画素値と出力画素値との関係を定めた曲線)、正規化曲線の傾き(G値:コントラスト値)、正規化曲線のy切片(S値:濃度補正値)、周波数強調処理に用いる強調度、拡大・縮小処理の拡大率、縮小率等が挙げられる。
 また、記憶部33は、画像DB(Data Base)331及び撮影画像データを記憶する記憶手段である。画像DB331は、「UID」、「患者情報」、「画像処理パラメータ」の項目等を有し、記憶部33に記憶されている各撮影画像データのUID、患者情報、画像処理パラメータを対応付けて格納する。画像DB(Data Base)331に登録されることにより、記憶部33に記憶されている撮影画像データは、患者情報やUIDに含まれる情報をキーとして検索可能となる。
 入力部34は、カーソルキー、数字入力キー、及び各種機能キー等を備えたキーボードと、マウス等のポインティングデバイス、電源キー等を備えて構成され、キーボード等で押下操作されたキーの押下信号とマウスによる操作信号とを、入力信号としてCPU31に出力する。
 表示部35は、例えば、CRT(Cathode Ray Tube)やLCD(Liquid Crystal Display)等のモニタを備えて構成されており、CPU31から入力される表示信号の指示に従って、各種画面を表示する。
 通信部36は、ネットワークインターフェース等により構成され、スイッチングハブを介してネットワーク5に接続された外部機器との間でデータの送受信を行う通信手段である。
 受付装置4は、来院した患者の受付登録、会計計算、保険点数計算等を行うためのコンピュータ装置である。受付装置4は、図4に示すように、CPU41、RAM42、記憶部43、入力部44、表示部45、通信部46等を備えて構成されており、各部はバス47により接続されている。
 CPU41は、記憶部43に記憶されているシステムプログラムや処理プログラム等の各種プログラムを読み出してRAM42に展開し、展開されたプログラムに従って後述する患者登録処理、受付登録処理をはじめとする各種処理を実行する。
 RAM42は、CPU41により実行制御される各種処理において、記憶部43から読み出されたCPU41で実行可能な各種プログラム、入力若しくは出力データ、及びパラメータ等の一時的に記憶するワークエリアを形成する。
 記憶部43は、HDDや半導体の不揮発性メモリ等により構成される。記憶部43には、前述のように各種プログラムが記憶されている。また、記憶部43は、患者情報DB431、受付情報DB432を記憶している。
 患者情報DB431は、来院実績のある患者についての患者情報を格納するデータベースである。患者情報DB431は、例えば、「患者ID」、「患者氏名(カナ)」、「患者氏名(漢字)」、「性別」、「生年月日」、「年齢」、「その他情報」等の項目を有し、後述する  患者登録処理において患者登録された患者情報を格納する。
 受付情報DB432は、患者の受付情報を格納するデータベースである。受付情報DB432は、例えば、「受付日付」、「受付番号」、「患者ID」、「患者氏名(カナ)」等の項目を有し、後述する受付登録処理において受付登録された受付情報を格納する。
 入力部44は、カーソルキー、数字入力キー、及び各種機能キー等を備えたキーボードと、マウス等のポインティングデバイス、電源キー等を備えて構成され、キーボード等で押下操作されたキーの押下信号とマウスによる操作信号とを、入力信号としてCPU41に出力する。
 表示部45は、例えば、CRTやLCD等のモニタを備えて構成されており、CPU41から入力される表示信号の指示に従って、各種画面を表示する。
 通信部46は、ネットワークインターフェース等により構成され、スイッチングハブを介してネットワーク5に接続された外部機器との間でデータの送受信を行う通信手段である。
 次に、小規模診断システム1が適用された小規模施設における、一の患者についての診察の流れについて説明する。
 患者が来院すると、受付11において、患者に対し受付番号札が付与され、受付装置4において、入力部44の操作により、受付画面454(図9参照)から、受付された患者の受付番号及び患者氏名等の患者情報の入力(受付入力)が行われる。初めて来院した患者の場合には、受付入力に先立って、患者登録画面451(図6参照)から患者情報の登録が行われる。受付装置4においては、入力部44により患者登録が指示されると、後述する患者登録処理が実行され、表示部45に患者登録画面451が表示され、当該画面から入力部44により入力された患者情報が患者情報DB431に格納される。また、入力部44により受付登録が指示されると、後述する受付登録処理が実行され、表示部45に受付画面454が表示され、当該画面から入力部44により入力された受付情報が受付情報DB432に格納されるとともに、本日受付した患者の受付患者リスト情報が生成され、医用画像管理装置3に送信される。医用画像管理装置3においては、通信部36を介して受付患者リスト情報が受信されると、記憶部33に記憶される。
 受付番号が付与された患者が診察室13に移動すると、医師により問診が行われ、患部の撮影が必要であるか否かが決定される。
 問診により患部の撮影が必要であると決定した場合には、医師は、医用画像管理装置3において、入力部34を操作して、受付患者リスト情報を表示した患者リスト画面351(図12参照)から診断対象の患者の患者情報を選択し、当該患者の撮影画像を診断用の画像として表示するためのビューア画面353(図14参照、詳細後述)を表示させる。医師や看護士等の撮影実施者は、患者を撮影を行う画像生成装置2(超音波診断装置2a、又はCR装置2c)の前に連れて行き、その患者の診断対象部位を被写体(撮影部位)として撮影を行い、撮影画像の画像データの生成を行う。例えば、画像生成装置2がCR装置2cの場合、撮影装置22において撮影を行い、撮影装置22において撮影済みのカセッテを読取装置23にセットし、カセッテに記録された放射線画像の読み取りを行う。画像生成装置2においては、撮影実施者の操作に応じて患者情報の入力、撮影及び画像データの生成が行われ、生成された画像データに入力された患者情報及び上述のUIDを含む付帯情報が付帯されて医用画像管理装置3へ送信される。
 なお、画像データと患者情報との正式な対応付けは医用画像管理装置3により行うので、画像生成装置2から撮影実施者が入力する患者情報は氏名である必要はなく各患者に個別に割り振られる受付番号や患者IDにすると、撮影実施者の入力操作が簡素化され好ましい。
 また、小規模な、患者のかかりつけ医的な存在である医療施設においては、大規模施設で行うような数百にも及ぶような撮影部位×撮影条件の組み合わせの撮影を行うことはなく、定型的な撮影に限られる。また、撮影実施者が限られており、患者とも顔なじみである。そのため、例えば、成人の場合の胸部正面画像では、胸厚さに応じて略一定の管電圧、管電流、というように、同一患者の同一撮影部位については一定の撮影条件で撮影が行われる。
 撮影が終了すると、医師は、医用画像管理装置3において、画像生成装置2から受信され、ビューア画面353に表示された撮影画像を参照し、患者の診断を行う。
 次に、小規模診断システム1の受付装置4及び医用画像管理装置3の動作について説明する。
 まず、受付装置4の動作について説明する。
 図5に、受付装置4のCPU41により実行される患者登録処理のフローを示す。当該処理は、入力部44により患者登録画面451の表示が指示された際にCPU41と記憶部43に記憶されているプログラムとの協働によるソフトウエア処理により実現される。
 まず、表示部45に患者登録画面451が表示される(ステップS1)。
 図6に、患者登録画面451の一例を示す。図6に示すように、患者登録画面451には、患者情報DB431の各項目に対応する入力欄及び「OK」ボタン451a等が設けられている。入力部44により各項目に対応する入力欄から必要な項目が入力され、「OK」ボタン451aが押下されると、入力欄から入力された患者情報が確定される。
 患者登録画面451において入力部44により患者情報が入力され、「OK」ボタン451aが押下されると(ステップS2)、患者情報DB431に既に登録されている患者情報に、入力された患者情報と予め定められた比較対象項目の情報が一致する患者情報が存在するか検索が行われ(ステップS3)、検索の結果、患者情報DB431に既に登録されている患者情報に、予め定められた比較対象項目の情報が一致する患者情報が存在した場合(ステップS4;YES)、表示部45にその旨を警告するための警告画面452がポップアップ表示される(ステップS5)。予め定められた比較対象項目とは、例えば、患者ID、患者氏名(漢字)、患者氏名(カナ)等、患者情報DB431に登録される患者情報の項目のうち予め定められた一部の項目である。
 図7(a)に、ステップS5において表示部45に表示される警告画面452の一例を示す。
 図7(a)に示す警告画面452は、入力された患者情報の比較対象項目の情報が既に患者情報DB431に登録されている患者情報と一致する場合に、既に登録されている比較対象項目が一致する患者情報のうち入力された患者情報と異なる項目の情報(例えば、図7(a)では生年月日)を表示して、入力した患者情報を別患者の患者情報として登録するか否かの確認を促すための画面である。当該画面から「OK」ボタン452aが押下されると、入力した患者情報を患者情報DB431に登録することができる。当該画面から「キャンセル」ボタン452bが押下されると、患者登録処理を終了させることができる。
 表示部45に表示された警告画面452において入力部44により「OK」ボタン452aが押下されると(ステップS6;OK)、入力された患者情報が患者情報DB431に登録されて記憶され(ステップS7)、本処理は終了する。表示部45に表示された警告画面452において入力部44により「キャンセル」ボタン452bが押下されると(ステップS6;キャンセル)、本処理は終了する。
 一方、患者情報DB431に既に登録されている患者情報に、予め定められた比較対象項目の情報が入力された患者情報と一致する患者情報が存在しなかった場合(ステップS4;NO)、入力された患者情報が患者情報DB431に登録されて記憶され(ステップS7)、本処理は終了する。
 なお、上記の患者登録処理においては、ステップS5において表示する警告画面を警告画面452として説明したが、図7(b)に示す警告画面453のような態様としてもよい。警告画面453は、入力された患者情報の比較対象項目の情報が既に患者情報DB431に登録されている患者情報と一致する場合に、個人を識別するのを容易とするための追加情報の入力を促すためのメッセージを表示する画面である。警告画面453においては、例えば、「住所」、「電話番号」の項目に情報が入力されていなければ、これらの情報の入力を促す表示を表示する。また、「その他情報」に、患者の外見、職業、家族の名前等の入力を促す表示を行ってもよい。当該画面から「OK」ボタン453aが押下されると、入力中の患者登録画面451に戻り、必要な項目に情報が入力されると、患者情報DB431への登録が行われる。
 このように、受付装置4においては、入力されている患者情報の比較対象項目の情報が既に患者情報DB431に登録されている対応する項目の情報と一致する場合に、両者の情報が不一致の項目情報を表示し、既に登録されている患者と同じであるか否かの確認を促す警告画面を表示する。或いは、その一致する他の患者情報と識別するための追加情報の入力を促す警告画面を表示する。従って、患者登録時に二重に同じ患者が登録されたり、患者情報が一致または似ているため、患者情報に対応する個人が識別できなかったりといった状況となることを防止することが可能となる。特に、開業医等の小規模な施設では、かかりつけ医として比較的患者と近しい関係にあり、医師や受付担当が患者の外観や名前等により病名等を覚えているので、「その他情報」項目に病名や来院目的等を登録しておくことで、患者の識別が可能となる。
 図8に、受付装置4のCPU41により実行される受付登録処理のフローを示す。当該処理は、入力部44により受付画面454の表示が指示された際にCPU41と記憶部43に記憶されているプログラムとの協働によるソフトウエア処理により実現される。
 まず、表示部45に受付画面454が表示される(ステップS11)。
 図9に、受付画面454の一例を示す。図9に示すように、受付画面454には、受付番号を入力するための入力欄、患者氏名(カナ)を入力する入力欄、入力された情報に基づく受付登録を指示するための「OK」ボタン454a等が設けられている。
 入力部44により受付番号項目及び患者氏名(カナ)項目に対応する入力欄から受付番号、患者氏名(カナ)が入力され、「OK」ボタン454aが押下されると(ステップS12)、患者情報DB431から入力された患者氏名(カナ)に一致する患者情報が抽出される(ステップS13)。
 複数の患者情報が抽出された場合(ステップS14;YES)、抽出された患者情報の中から一の患者の患者情報が表示部45に表示されるとともに、患者情報の確認を促す表示が表示される(ステップS15)。
 図10(a)に、ステップS15における表示部45の表示の一例を示す。ステップS15においては、例えば、受付画面454に、抽出された患者情報のうち一の患者情報が表示されるとともに、抽出された他の患者情報と登録内容が異なる項目が色等で強調表示される。また、表示された患者情報での受付登録を指示するための「OK」ボタン454b及び表示された患者情報とは別の患者情報の表示を指示するための「別患者」ボタン454cが表示される。図10(a)に示すように、抽出された他の患者情報と登録内容が異なる項目を強調表示することにより、受付担当に、同じ患者氏名(カナ)をもつ患者情報のうち、表示されている患者情報により受付登録を行ってよいか否かの確認を促すことが可能となる。
 図10(b)に、ステップS15における表示部45の表示の別の一例を示す。ステップS15においては、例えば、受付画面454に、図10(b)に示す確認画面455をポップアップ表示するようにしてもよい。確認画面455には、抽出された一の患者情報のうち他の患者情報と登録内容が異なる項目が表示される。また、表示された患者情報での受付登録を指示するための「OK」ボタン455a及び表示された患者情報とは別の患者情報の表示を指示するための「別患者」ボタン455bが表示される。図10(b)に示すように、抽出された他の患者情報と登録内容が異なる項目を表示することにより、受付担当に、同じ患者氏名(カナ)をもつ患者情報のうち、表示されている患者情報により受付登録を行ってよいか否かの確認を促すことが可能となる。
 入力部44により別患者の患者情報の表示が指示されると(ステップS16;YES)、処理はステップS15に戻り、ステップS13において抽出された患者情報のうち未だ表示されていない一の患者情報が表示される。一方、入力部44により別患者の患者情報の表示が指示されず(ステップS16;NO)、表示された患者情報での受付登録が指示されると(ステップS17;YES)、表示されている患者情報を含む受付情報(患者情報、受付番号、受付日付)が受付情報DB432に登録されて記憶される(ステップS18)。また、受付情報DB432に記憶されている受付情報のうち、受付日付が本日である受付情報が抽出され、この抽出された受付情報に基づいて、本日受付した患者の受付患者リスト情報が生成され、通信部46を介して医用画像管理装置3に送信され(ステップS19)、本処理は終了する。
 このように、受付装置4においては、受付時に入力された患者氏名(カナ)と一致する患者氏名(カナ)を有する患者情報が患者情報DB431に複数登録されている場合に、確認すべき項目、例えば、登録内容が異なる項目を受付担当が識別可能に表示するので、患者氏名(カナ)が一致する別の患者を誤って受付登録してしまうことを防止することができる。
 次に、医用画像管理装置3の動作について説明する。
 図11に、医用画像管理装置3のCPU31により実行される診断支援処理のフローを示す。当該処理は、入力部34により患者リスト画面351の表示が指示された際にCPU31と記憶部33に記憶されているプログラムとの協働によるソフトウエア処理により実現される。
 まず、表示部35に患者リスト画面351が表示される(ステップS21)。図12に、患者リスト画面351の一例を示す。患者リスト画面351には、図12に示すように、受付装置4から送信された受付患者リスト情報(本日受付された患者の受付番号、患者情報等)が表示される。
 患者リスト画面351において入力部34により診断対象となる患者の患者情報が選択されると(ステップS22)、選択された患者の患者氏名(カナ)と一致する患者氏名(カナ)をもつ情報が受付患者リスト情報に存在するか否かが判断され、一致する情報が存在しない場合(ステップS23;NO)、処理はステップS26に移行する。
 選択された患者の患者氏名(カナ)と一致する患者氏名(カナ)をもつ情報が受付患者リスト情報に存在する場合(ステップS23;YES)、患者リスト画面351上に、選択した患者情報の確認を促す確認画面352がポップアップ表示される(ステップS24)。
 図13に、ステップS24において表示される確認画面352の一例を示す。図13に示すように、確認画面352には、選択された患者の患者情報のうち、患者氏名(カナ)が一致する他の患者情報と登録内容が異なる項目が表示され、確認を要請するメッセージが表示される。
 このように、選択された患者情報と患者氏名(カナ)が一致する患者情報が受付登録されている場合に、選択された患者情報のうち他方の患者情報と登録内容が異なる項目を表示することにより、医師等のユーザに、診断対象として選択する患者が正しいか否かの確認を促すことができる。また、確認画面352には、確認の結果がOKであることをユーザが入力するための「OK」ボタン352aと、確認の結果がNGであることをユーザが入力するための「NG」ボタン352bが設けられている。
 確認画面352において入力部34により「OK」ボタン352aが押下されると(ステップS25;YES)、処理はステップS26に移行する。確認画面352において入力部34により「NG」ボタン352bが押下されると(ステップS25;NO)、処理はステップS21に戻る。
 ステップS26においては、表示部35に、選択された診断対象患者のビューア画面353と、選択された診断対象患者の患者情報(ここでは、患者氏名(カナ)とする)が表示され表示された患者についてのビューア画面353への切り替えを指示するための患者ボタンBT(BT1~n)が表示される。
 図14に、ビューア画面353の一例を示す。
 図14に示すように、ビューア画面353には、患者情報表示欄353aと、画像表示欄353bと、画像調整欄353cと、「画像比較画面」ボタン353dと、「戻る」ボタン353eと、「診断終了」ボタン353fと、が表示されている。
 患者情報表示欄353aは、表示対象となっている患者の患者情報を表示する。画像表示欄353bは、撮影画像を表示する。画像調整欄353cは、画像表示欄353bに表示された画像に対して行う画像処理の画像処理条件の入力を受け付ける。「画像比較画面」ボタン353dは、画像比較画面355(図18参照)への画面の切り替え指示を入力するためボタンである。「戻る」ボタン353eは、患者リスト画面351に戻る指示を入力するためボタンである。「診断終了」ボタン353fは、診断終了指示を入力するためのボタンである。
 ここで、医用画像管理装置3においては、複数の患者を診断対象患者として選択して複数の診断対象患者のビューア画面353を立ち上げることができる。患者ボタン(BT1~n)は、選択された複数の診断対象患者のうちビューア画面353の表示対象となる患者を選択するためのボタンであり、入力部34により押下された患者ボタンに表示されている患者情報の患者のビューア画面353が表示される。
 ビューア画面353において、入力部34により「戻る」ボタン353eが押下され、患者リスト画面351に戻る指示が入力されると(ステップS27;YES)、処理はステップS21に戻る。ビューア画面353において、入力部34により患者ボタンBT1~nの何れかが押下され、表示対象の患者の切り替えが指示されると(ステップS28;YES)、押下された患者ボタンに表示された患者情報(患者氏名(カナ))と同じ患者情報(患者氏名(カナ))の患者ボタンが表示されているか否かが判断され、表示されていないと判断されると(ステップS29;NO)、患者ボタンが押下された患者についてのビューア画面353に切り替え表示される(ステップS32)。
 一方、押下された患者ボタンに表示された患者情報(患者氏名(カナ))と同じ患者情報(患者氏名(カナ))の患者ボタンが表示されていると判断されると(ステップS29;YES)、押下された患者ボタンが点滅表示されるとともに、ビューア画面353上に、確認画面354がポップアップ表示される(ステップS30)。
 確認画面354は、図13に示す確認画面352と同様の画面であり、患者ボタンが押下された患者の患者情報のうち、患者氏名(カナ)が一致する他の患者情報と登録内容が異なる項目が表示され、確認を要請するメッセージが表示される。
 このように、患者ボタンの表示が同じ場合に、登録内容が異なる項目を表示することにより、医師等のユーザに、表示対象として選択する患者が正しいか否かの確認を促すことができる。確認画面354において、「OK」ボタン354aが押下されると(ステップS31;YES)、患者ボタンが押下された患者についてのビューア画面353に切り替え表示される(ステップS32)。確認画面354において、「NG」ボタン354bが押下されると(ステップS31;NO)、処理はステップS28に戻る。
 表示対象として選択された患者のビューア画面353が表示された状態において、通信部36を介して画像生成装置2から撮影画像の画像データが受信されると(ステップS33;YES)、受信された画像データはRAM32に一時的に記憶され、画像確定処理が実行される(ステップS34)。
 図15に、ステップS34においてCPU31により実行される受信画像確定処理のフローを示す。当該処理は、CPU31と記憶部33に記憶されているプログラムとの協働によるソフトウエア処理により実現される。
 まず、受信された撮影画像の画像データが画像解析され、自動部位認識処理が行われる(ステップS101)。通常、撮影部位が異なると撮影画像の画素値の分布が異なるものとなるため、その分布状態に応じた画像処理を施す必要がある。よって、最適な画像処理を施すため、撮影画像における撮影部位を認識する。
 自動部位認識処理は、例えば特開2001-76141に記載の方法が適用可能である。この方法では、まず撮影画像を主走査及び副走査し、被写体領域を抽出する。主走査及び副走査時には、走査した各画素について近傍画素との微分値を算出して、この微分値が閾値より大きければ被写体領域と素抜け領域との境界点であると判断する。この境界点により囲まれる領域を被写体領域として抽出する。
 次いで、被写体領域について特徴量を抽出する。特徴量としては、被写体領域の大きさ(画素数)、濃度ヒストグラムの形状、被写体領域の中心線の形状、主走査又は副走査方向における1次微分値の分布等が挙げられる。各特徴量の数値は予め定められた条件に従って正規化する。例えば、濃度ヒストグラムの形状が胸部の形状パターンと近ければ正規化値「1」とされる。
 次いで、抽出された特徴量を要素とする特徴ベクトルPi(i=1、2、・・・、n)と、予め標準体型の各撮影部位について求められている特徴ベクトルSi(i=1、2、・・・、n)との相関値を求め、最も相関値が高い特徴ベクトルSiが示す撮影部位が、撮影画像の撮影部位であるとして求める。なお、相関値は特徴ベクトルPi、Si間で対応する要素を比較し、同じ値であれば相関値「1」、異なる値であれば相関値「0」として各要素の相関値の総和を求める。
 なお、上述した方法に限らず、特開平11-85950に開示の方法等、他の撮影部位の認識方法を適用することとしてもよく、特にその手法は限定しない。
 前述した部位認識の結果は、画像処理のみならず、当該画像の出力形態にも使用可能である。例えば、自動部位認識処理により認識された撮影部位が胸部正面であった場合(ステップS102;YES)、当該画像データに左右反転処理が施され(ステップS103)、処理はステップS104に移行する。認識された撮影部位が胸部正面ではなかった場合(ステップS102;NO)、処理はステップS104に移行する。
 ここで、胸部正面の撮影方向としては、PA(PosteroAnterior projection)方向とAP(Antero Posterior)方向がある。PA方向は、図16(a)に示すように、背中から胸に向かって放射線を照射する撮影方向であり、AP方向は、図16(b)に示すように、胸から背中に向かって放射線を照射する撮影方向である。胸部正面の撮影ではPA方向での撮影が一般的で、車椅子の患者や寝たきりの患者がベッドでの撮影などでPA方向での撮影が不可能であるときのみAP方向で撮影される。
 一方、医師が胸部正面の画像を診断するときは、医師が患者と向き合っているときと同様の状態で診断を行うことが一般的である。しかし、胸部正面をPA方向で撮影した撮影画像をそのままビューア画面353に表示すると、医師が患者と向き合っているときとは左右が逆になってしまう。
 上述のように、一般的に胸部正面の画像はPA方向で撮影されるので、ほとんどの場合は撮影画像をそのまま表示すると左右が逆になってしまう。
 そこで、受信された撮影画像の撮影部位が胸部正面である場合、自動的に左右を反転する処理を施すことにより、医師が患者と向き合っているときと同様の状態で画像を表示できるようにする。
 なお、まれにAP方向で撮影される場合もあるが、この場合は、医師が入力部34により画像調整欄353cの「反転」ボタンを押下する等によって左右反転処理を指示することにより再度左右反転処理を施して、医師が患者と向き合っているときと同様の状態で画像を表示させることが可能である。
 ステップS104においては、認識された撮影部位に対応する画像処理パラメータが記憶部33から読み出され、読み出された画像処理パラメータを用いて受信された画像データに階調変換処理、周波数処理等の予め定められた画像処理が施される(画像処理手段)。画像処理済みの画像データは、ビューア画面353の画像表示欄353bに表示される(ステップS105)。
 なお、受信された画像データそのもの(オリジナル画像データ)は画像データの保存用にRAM32に保持され、画像処理は、受信された画像データのコピー画像に対して施される。
 医師は、画像表示欄353bに表示された画像を確認し、表示された画像が診断に適していないと判断した場合、画像調整欄353cに設けられている濃度やコントラスト調整のためのスライドバー等を操作することにより画像処理条件(濃度、コントラストの調整量等)を入力することによって、表示されている画像に対して画像処理を施すことができる。また、画像表示欄353bには、左右反転処理が施されたことを示すアイコン353gが表示される。
 入力部34により画像調整欄353cから画像処理条件が入力されると(ステップS106;YES)、入力された画像処理条件に応じて画像処理パラメータが修正され(修正手段)、修正された画像処理パラメータで再度受信された画像データのコピー画像に画像処理が施され、画像表示欄353bに表示される(ステップS107)。
 入力部34により「OK」ボタン353hが押下されると(ステップS108;YES)、表示されている画像が診断用の画像として確定されるとともに、当該表示された画像を生成した画像処理パラメータが上記受信した撮影画像の画像処理パラメータとして確定され(画像確定手段)、当該撮影画像のオリジナル画像データに、現在表示対象となっている患者の患者情報及び画像処理パラメータ(修正があった場合は修正された画像処理パラメータ、修正がない場合は認識された部位に対応する画像処理パラメータ)が対応付けられて記憶部33に記憶される(ステップS109)。例えば、撮影画像のオリジナル画像データの付帯情報として、現在表示対象となっている患者の患者情報及び画像処理パラメータ(修正があった場合は修正された画像処理パラメータ、修正がない場合は認識された部位に対応する画像処理パラメータ)が書き込まれ、記憶部33に記憶される。また、撮影画像のUID、患者情報、画像処理パラメータが画像DB331に登録される。
 一方、入力部34により「NG」ボタン353iが押下されると(ステップS110;YES)、当該受信された撮影画像のオリジナル画像データが破棄(RAM32から削除)される(ステップS111)。
 通信部36を介して他に受信された画像データがある場合(ステップS112;YES)、処理はステップS101に戻る。他に受信された画像データがない場合(ステップS112;NO)、処理は図11のステップS35に移行する。
 ビューア画面353において、入力部34により、「画像比較画面」ボタン353dが押下されることにより画像比較画面355の表示が指示され、更に、比較読影の基準となる基準画像が画像表示欄353bに表示された画像の中から指定されると(ステップS35;YES)、画像比較画面表示制御処理が実行される(ステップS36)。画像比較画面355の表示指示が入力されなければ(ステップS35;NO)、処理はステップS37に移行する。
 ここで、図14に示すビューア画面353のように画像表示欄353bが複数設けられている場合、複数の画像表示欄353bに表示された撮影画像の中から一の画像を入力部34により指定することにより基準画像が指定される(基準画像指定手段が実現される)が、指定可能な撮影画像は、画像が確定され記憶部33に記憶された画像に限られる。画像表示欄353bが一つの場合、又は、一つの画像表示欄353bにしか撮影画像が表示されていない場合は、CPU31により表示されている画像を基準画像として自動的に指定するようにしてもよい。また、ビューア画面353に、表示対象となっている患者について撮影された撮影画像(記憶部33に記憶されている撮影画像)のサムネイル画像の一覧を時系列にそって並べて表示し、比較読影の基準とする画像の指定操作を受け付ける画像指定欄を設け、画像指定欄の中から入力部34により指定された撮影画像を基準画像として指定してもよい。
 図17に、ステップS36においてCPU31により実行される画像比較画面表示制御処理のフローを示す。当該処理は、CPU31と記憶部33に記憶されているプログラムとの協働によるソフトウエア処理により実現される。当該処理の実行により表示制御手段が実現される。
 まず、表示部35に、画像比較画面355が表示される(ステップS201)。図18に、画像比較画面355の一例を示す。
 画像比較画面355には、基準画像表示欄355aと、比較画像表示欄355bと、画像指定欄355cと、画像調整欄355dと、リンクボタン355eと、画面レイアウトボタン355fと、「戻る」ボタン355gと、が表示されている。
 基準画像表示欄355aは、図11のステップS35において入力部34により指定された基準画像を表示する。比較画像表示欄355bは、基準画像との比較読影に使用される比較画像を表示する。画像指定欄355cは、表示対象となっている患者について撮影された撮影画像(画像DB331に格納されている撮影画像)のサムネイル画像の一覧を時系列にそって並べて表示し、入力部34による比較画像表示欄355bへの表示対象となる比較画像の指定操作を受け付ける(比較画像指定手段)。画像調整欄355dは、表示された基準画像及び比較画像に対する画像処理条件の入力部34による入力操作を受け付ける(入力手段)。なお、マウスの所定方向の移動量により入力することとしてもよい。リンクボタン353eは、画像調整欄353dにおいて入力した画像処理条件による画像処理を基準画像と比較画像の双方に反映させる(画像処理のリンクという)指示を入力するためのボタンである。画面レイアウトボタン355fは、画面レイアウトを設定するためボタンである。「戻る」ボタン355gは、ビューア画面353に戻る指示を入力するためのボタンである。
 リンクボタン353eが押下されると、図19に示す共通パラメータ選択画面356が表示される。共通パラメータ選択画面356は、基準画像と比較画像とで画像処理をリンクさせる前に、初期の画像処理パラメータを一致させておく画像処理の種類を選択するための画面であり、図19に示すように、画像処理の種類及びチェックボックスが表示されている。例えば、共通パラメータ選択画面356においては、階調変換処理(濃度、コントラスト)、周波数強調処理、ダイナミックレンジ圧縮処理(骨部補正/軟部補正)、粒状抑制処理、白黒反転処理(白黒反転表示)、拡大/縮小処理(拡大/縮小モード)、表示位置調整処理(表示位置)が基準画像と比較画像とで初期の画像処理パラメータを一致させておく画像処理の種類として選択可能に表示されている。共通パラメータ選択画面356において、入力部34により基準画像と比較画像とで画像処理パラメータを一致させておく画像処理の種類として、表示された画像処理の種類の何れか又は組み合わせを選択(チェック)し、「OK」ボタン356aを押下することにより、画像処理のリンク前に、基準画像と比較画像において選択した種類の画像処理パラメータを一致させて画像処理を行っておくことができる。
 画面レイアウトボタン355fが押下されると、基準画像と比較する画像の枚数を設定するエリアがポップアップ表示され、当該エリアから設定された枚数の比較画像が比較画像表示欄355bに表示可能となる。
 入力部34により画像選択欄355cに表示されたサムネイル画像の中から比較画像となるサムネイル画像が指定されると、指定された比較画像が比較画像表示欄355bに表示され、基準画像と並べて表示される(ステップS202)。
 入力部34によりリンクボタン353dが押下され、続いて表示される共通パラメータ選択画面356において、画像処理のリンク前に基準画像と比較画像とで画像処理パラメータを一致させておく画像処理の種類が選択されると(ステップS203)、基準画像と比較画像のそれぞれに付帯されている画像処理パラメータが読み出され、選択された種類の画像処理パラメータについては、基準画像に付帯されている画像処理パラメータを共通に用いて両画像に画像処理が施され、それ以外については、それぞれに付帯されている画像処理パラメータを用いてそれぞれの画像に画像処理が施される(ステップS204)。そして、画像処理済みの基準画像が基準画像表示欄355aに、画像処理済みの比較画像が比較画像表示欄355bに表示されることにより、両画像が並べて表示される(ステップS205)。
 ここで、上述のように、医用画像管理装置3においては、画像生成装置2から受信された画像データは、部位認識により認識された撮影部位に応じた画像処理パラメータで自動的に画像処理が施される。即ち、同じ撮影部位であれば、自動的に同じ画像処理パラメータで画像処理が施される。この自動部位認識による画像処理は、撮影画像を診断に提供可能とするために行われる。しかし、よりよい画像で診断を行うため、部位認識により自動的に画像処理された画像に対し、医師が診断しやすいように個別にスライドバーなどで濃度やコントラストの画像処理条件(調整量)を入力し画像処理を行うことが可能であるため、同じ撮影部位であっても画像処理パラメータが個々の画像ごとに異なることがある。
 ところが、2以上の画像を並べて病変部の経時的な変化を見る経過観察を行う場合に、比較対象となる各画像ごとに異なる画像処理パラメータで画像処理を行ってしまうと、画像処理パラメータの種類によっては、各画像の表示基準(例えば、各画像が表す濃度やコントラスト)が画像毎に異なってしまい、例えば、病変部に実際には何ら変化がない場合であっても、病変部に変化があるように見えてしまうことがある。
 そこで、ステップS204において、基準画像と比較画像とで画像処理パラメータを合わせて同じ画像処理条件下で画像処理を行っておくことで、病変部の実際の変化を医師が視認できるようにする。更に画質を調整する必要がある場合には、画像調整欄355dを操作して新たな画像処理条件を入力することで、基準画像と比較画像の双方に同じ画像処理を反映させることができる。
 入力部34により画像調整欄355dから画像処理条件が入力されると(ステップS206;YES)、入力された画像処理条件に応じて基準画像及び比較画像に共通に用いる画像処理パラメータが決定され、決定された画像処理パラメータを用いて両画像に画像処理が施され、画像処理済みの基準画像が基準画像表示欄355aに、画像処理済みの比較画像が比較画像表示欄355bに表示される(ステップS207)。
 入力部34により画像指定欄355cから他のサムネイル画像が指定され、比較画像の変更が指示されると(ステップS208;YES)、処理はステップS202に戻る。
 入力部34により「戻る」ボタン355gが押下されると(ステップS209;YES)、表示部35の表示がビューア画面353に戻り(ステップS210)、処理は図11のステップS37に移行する。
 図11のステップS37においては、入力部34により診断終了ボタン353fが押下されたか否かが判断され、診断終了ボタン353fが押下されていなければ(ステップS37;NO)、処理はステップS27に戻る。診断終了ボタンが押下されたと判断されると(ステップS37;YES)、本処理は終了する。
 以上説明したように、小規模診断システム1における医用画像管理装置3によれば、 画像比較画面355において入力部34によりリンクボタン355dが押下されると、基準画像及び比較画像に対し、基準画像に対応付けられている画像処理パラメータを共通に用いて画像処理を施して表示を行い、入力部34の画像調整欄355dの操作により、表示された基準画像及び比較画像に対する画像処理条件が入力された際に、共通の画像処理パラメータを用いて画像処理された基準画像及び比較画像に対し入力された画像処理条件により画像処理を施して表示を行う。
 従って、基準画像及び比較画像に対し、画像処理パラメータを合わせて同じ画像処理条件下で画像処理を行っておくことで基準画像及び比較画像の表示基準を合わせておくことができるので、医師が病変部の経時的な変化を容易に観察することが可能となる。また医師が比較読影対象の複数画像間において表示基準を相互に合わせるための画像処理の調整を行う必要がなくなり、比較読影時の操作性を向上させることができる。
 なお、上記実施の形態における記述内容は、本発明に係る小規模診断システム1の好適な一例であり、これに限定されるものではない。
 例えば、上記実施の形態においては、画像処理条件の入力の一例として、スライドバー等で濃度やコントラストの調整量を入力する場合を例にとり説明したが、これに限定されず、例えば、濃度補正値やコントラスト値を数値で入力するようにしてもよい。
 その他、小規模診断システム1を構成する各装置の細部構成及び細部動作に関しても、発明の趣旨を逸脱することのない範囲で適宜変更可能である。

Claims (4)

  1.  人体の撮影画像を画像解析することにより撮影部位を認識し、この認識された撮影部位に応じて予め定められた画像処理パラメータを用いて前記撮影画像に画像処理を施す画像処理手段と、
     各種指示が入力される入力部と、
     前記入力部からの入力に基づいて、前記撮影画像に用いる画像処理パラメータを修正する修正手段と、
     前記撮影画像の撮影部位に応じた画像処理パラメータ又は前記修正手段により修正された画像処理パラメータを前記撮影画像に用いる画像処理パラメータとして確定する画像確定手段と、
     前記確定された画像処理パラメータを前記撮影画像に対応付けて記憶する記憶手段と、
     前記入力部からの入力に基づいて、前記記憶手段に記憶された撮影画像の中から比較読影の基準となる基準画像を指定する基準画像指定手段と、
     前記入力部からの入力に基づいて、前記基準画像と同一患者の同一撮影部位を撮影した比較対象となる比較画像を指定する比較画像指定手段と、
     前記指定された基準画像及び比較画像を並べて表示する表示部と、
     前記指定された基準画像及び比較画像に対し前記基準画像に対応付けられている画像処理パラメータを共通に用いて画像処理を施して前記表示部に表示させ、前記入力部により画像処理条件が入力されると、前記共通の画像処理パラメータを用いて画像処理された基準画像及び比較画像に対し前記入力された画像処理条件により画像処理を施して前記表示部に表示させる表示制御手段と、
     を備える小規模施設用診断支援装置。
  2.  前記基準画像及び前記比較画像に対して共通の画像処理パラメータを用いる画像処理は、階調変換処理、周波数強調処理、ダイナミックレンジ圧縮処理、粒状抑制処理、拡大/縮小処理、表示位置調整処理、若しくは白黒反転処理の何れか又はこれらの組み合わせである請求の範囲第1項に記載の小規模施設用診断支援装置。
  3.  コンピュータを、
     人体の撮影画像を画像解析することにより撮影部位を認識し、この認識された撮影部位に応じて予め定められた画像処理パラメータを用いて前記撮影画像に画像処理を施す画像処理手段、
     入力に基づいて、前記撮影画像に用いる画像処理パラメータを修正する修正手段、
     前記撮影画像の撮影部位に応じた画像処理パラメータ又は前記修正手段により修正された画像処理パラメータを前記撮影画像に用いる画像処理パラメータとして確定する画像確定手段、
     前記確定された画像処理パラメータを前記撮影画像に対応付けて記憶する記憶手段、
     入力に基づいて、前記記憶手段に記憶された撮影画像の中から比較読影の基準となる基準画像を指定する基準画像指定手段、
     入力に基づいて、前記基準画像と同一患者の同一撮影部位を撮影した比較対象となる比較画像を指定する比較画像指定手段、
     前記指定された基準画像及び比較画像に対し前記基準画像に対応付けられている画像処理パラメータを共通に用いて画像処理を施して前記基準画像及び比較画像を表示部に並べるように表示させ、画像処理条件が入力されると、前記共通の画像処理パラメータを用いて画像処理された基準画像及び比較画像に対し前記入力された画像処理条件により画像処理を施して前記表示部に表示させる表示制御手段、
     として機能させるためのプログラム。
  4.  前記基準画像及び前記比較画像に対して共通の画像処理パラメータを用いる画像処理は、階調変換処理、周波数強調処理、ダイナミックレンジ圧縮処理、粒状抑制処理、拡大/縮小処理、表示位置調整処理、若しくは白黒反転処理の何れか又はこれらの組み合わせである請求の範囲第3項に記載のプログラム。
PCT/JP2009/051343 2008-02-19 2009-01-28 小規模施設用診断支援装置及びプログラム WO2009104459A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009554263A JPWO2009104459A1 (ja) 2008-02-19 2009-01-28 小規模施設用診断支援装置及びプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008037548 2008-02-19
JP2008-037548 2008-02-19

Publications (1)

Publication Number Publication Date
WO2009104459A1 true WO2009104459A1 (ja) 2009-08-27

Family

ID=40985345

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/051343 WO2009104459A1 (ja) 2008-02-19 2009-01-28 小規模施設用診断支援装置及びプログラム

Country Status (2)

Country Link
JP (1) JPWO2009104459A1 (ja)
WO (1) WO2009104459A1 (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011167472A (ja) * 2010-02-22 2011-09-01 Canon Inc 放射線撮影装置及びその処理方法
JP2014124268A (ja) * 2012-12-25 2014-07-07 Toshiba Corp 医用診断装置
WO2014156444A1 (ja) * 2013-03-28 2014-10-02 富士フイルム株式会社 画像表示装置および方法
JP2015073657A (ja) * 2013-10-08 2015-04-20 コニカミノルタ株式会社 画像表示装置及び画像表示方法
JP2015085189A (ja) * 2013-09-25 2015-05-07 富士フイルム株式会社 画像処理装置、画像処理システム、画像処理プログラム、及び画像処理方法
US9292919B2 (en) 2012-11-27 2016-03-22 Kabushiki Kaisha Toshiba Medical image diagnosis apparatus, medical image processing apparatus, and medical image processing method
JPWO2014208722A1 (ja) * 2013-06-28 2017-02-23 キヤノン株式会社 撮影情報処理装置、x線撮影装置、x線撮影システム、制御方法、および制御方法をコンピュータに実行させるためのプログラム
JP2017134439A (ja) * 2016-01-25 2017-08-03 コニカミノルタ株式会社 医用画像表示装置、医用画像調整方法及びプログラム
CN107105994A (zh) * 2015-10-16 2017-08-29 奥林巴斯株式会社 内窥镜装置
WO2020174543A1 (ja) * 2019-02-25 2020-09-03 株式会社島津製作所 X線撮影装置、画像処理方法および画像処理プログラム
WO2021117347A1 (ja) * 2019-12-10 2021-06-17 富士フイルム株式会社 情報処理システム、情報処理方法、及び情報処理プログラム

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01224880A (ja) * 1988-03-04 1989-09-07 Fujitsu Ltd 医用画像ワークステーション
JPH06203117A (ja) * 1992-12-28 1994-07-22 Konica Corp 放射線画像記憶表示装置
JPH06339025A (ja) * 1993-03-30 1994-12-06 Konica Corp 放射線画像のダイナミックレンジ圧縮方法
JPH08263646A (ja) * 1995-03-20 1996-10-11 Fujitsu Ltd 画像表示装置
JP2000099688A (ja) * 1998-09-18 2000-04-07 Fujitsu Ltd 画像表示制御装置
JP2000232976A (ja) * 1998-12-15 2000-08-29 Fuji Photo Film Co Ltd 画像合成システム
JP2001285858A (ja) * 2000-01-27 2001-10-12 Fuji Photo Film Co Ltd 画像撮影方法および画像撮影装置
JP2004160103A (ja) * 2002-11-11 2004-06-10 Terarikon Inc 医用画像複合観察装置
JP2004216007A (ja) * 2003-01-17 2004-08-05 Konica Minolta Holdings Inc 画像処理装置、画像処理方法及びプログラム
JP2005006789A (ja) * 2003-06-18 2005-01-13 Canon Inc X線画像処理方法及びシステム
JP2007089871A (ja) * 2005-09-29 2007-04-12 Hitachi Medical Corp 医用画像処理装置
JP2008011900A (ja) * 2006-07-03 2008-01-24 Fujifilm Corp 画像種類判別装置および方法並びにプログラム

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01224880A (ja) * 1988-03-04 1989-09-07 Fujitsu Ltd 医用画像ワークステーション
JPH06203117A (ja) * 1992-12-28 1994-07-22 Konica Corp 放射線画像記憶表示装置
JPH06339025A (ja) * 1993-03-30 1994-12-06 Konica Corp 放射線画像のダイナミックレンジ圧縮方法
JPH08263646A (ja) * 1995-03-20 1996-10-11 Fujitsu Ltd 画像表示装置
JP2000099688A (ja) * 1998-09-18 2000-04-07 Fujitsu Ltd 画像表示制御装置
JP2000232976A (ja) * 1998-12-15 2000-08-29 Fuji Photo Film Co Ltd 画像合成システム
JP2001285858A (ja) * 2000-01-27 2001-10-12 Fuji Photo Film Co Ltd 画像撮影方法および画像撮影装置
JP2004160103A (ja) * 2002-11-11 2004-06-10 Terarikon Inc 医用画像複合観察装置
JP2004216007A (ja) * 2003-01-17 2004-08-05 Konica Minolta Holdings Inc 画像処理装置、画像処理方法及びプログラム
JP2005006789A (ja) * 2003-06-18 2005-01-13 Canon Inc X線画像処理方法及びシステム
JP2007089871A (ja) * 2005-09-29 2007-04-12 Hitachi Medical Corp 医用画像処理装置
JP2008011900A (ja) * 2006-07-03 2008-01-24 Fujifilm Corp 画像種類判別装置および方法並びにプログラム

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011167472A (ja) * 2010-02-22 2011-09-01 Canon Inc 放射線撮影装置及びその処理方法
US9292919B2 (en) 2012-11-27 2016-03-22 Kabushiki Kaisha Toshiba Medical image diagnosis apparatus, medical image processing apparatus, and medical image processing method
JP2014124268A (ja) * 2012-12-25 2014-07-07 Toshiba Corp 医用診断装置
WO2014156444A1 (ja) * 2013-03-28 2014-10-02 富士フイルム株式会社 画像表示装置および方法
JP2014188250A (ja) * 2013-03-28 2014-10-06 Fujifilm Corp 画像表示装置および方法
JPWO2014208722A1 (ja) * 2013-06-28 2017-02-23 キヤノン株式会社 撮影情報処理装置、x線撮影装置、x線撮影システム、制御方法、および制御方法をコンピュータに実行させるためのプログラム
JP2015085189A (ja) * 2013-09-25 2015-05-07 富士フイルム株式会社 画像処理装置、画像処理システム、画像処理プログラム、及び画像処理方法
JP2015073657A (ja) * 2013-10-08 2015-04-20 コニカミノルタ株式会社 画像表示装置及び画像表示方法
EP3222200A4 (en) * 2015-10-16 2018-09-19 Olympus Corporation Endoscopic device
CN107105994A (zh) * 2015-10-16 2017-08-29 奥林巴斯株式会社 内窥镜装置
US20170296035A1 (en) * 2015-10-16 2017-10-19 Olympus Corporation Endoscope processor
JP2017134439A (ja) * 2016-01-25 2017-08-03 コニカミノルタ株式会社 医用画像表示装置、医用画像調整方法及びプログラム
WO2020174543A1 (ja) * 2019-02-25 2020-09-03 株式会社島津製作所 X線撮影装置、画像処理方法および画像処理プログラム
WO2021117347A1 (ja) * 2019-12-10 2021-06-17 富士フイルム株式会社 情報処理システム、情報処理方法、及び情報処理プログラム
JPWO2021117347A1 (ja) * 2019-12-10 2021-06-17
JP7309912B2 (ja) 2019-12-10 2023-07-18 富士フイルム株式会社 情報処理システム、情報処理方法、及び情報処理プログラム

Also Published As

Publication number Publication date
JPWO2009104459A1 (ja) 2011-06-23

Similar Documents

Publication Publication Date Title
WO2009104459A1 (ja) 小規模施設用診断支援装置及びプログラム
JP5459423B2 (ja) 診断システム
JP2008006169A (ja) 小規模施設用医用画像表示システム
US20090279764A1 (en) Small-scale diagnosis system
WO2009125624A1 (ja) 小規模施設用医用画像処理装置、医用画像処理方法及びプログラム
JP5223872B2 (ja) 医用画像管理装置
JP2007140762A (ja) 診断システム
JP2007117351A (ja) 小規模診断支援システム
JP4802883B2 (ja) 医用画像システム
JP5125128B2 (ja) 医用画像管理システム、データ管理方法
JP2008200085A (ja) 小規模医用システム
JP4992914B2 (ja) 小規模診断システム及び表示制御方法
JP5167647B2 (ja) 診断システム
JP2007275117A (ja) 放射線画像読取装置
JP5170287B2 (ja) 医用画像システム
JP2004321457A (ja) 画像処理条件決定方法および画像処理条件決定装置
JP2007117576A (ja) 小規模診断システム
JP2011092219A (ja) 医用画像管理装置
JP2007117469A (ja) 小規模診断システム
JP2007259920A (ja) 小規模診断システム
JP2007259924A (ja) 小規模診断システム
JP7276020B2 (ja) 医用画像処理装置、医用画像処理方法及びプログラム
JP2009207508A (ja) 医用画像管理装置、出力画面表示方法及びプログラム
JP2007117580A (ja) 小規模診断システム
WO2007052502A1 (ja) 診断システム及び制御方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09712927

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2009554263

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 09712927

Country of ref document: EP

Kind code of ref document: A1