WO2010128818A2 - 의료영상 처리 시스템 및 처리 방법 - Google Patents

의료영상 처리 시스템 및 처리 방법 Download PDF

Info

Publication number
WO2010128818A2
WO2010128818A2 PCT/KR2010/002906 KR2010002906W WO2010128818A2 WO 2010128818 A2 WO2010128818 A2 WO 2010128818A2 KR 2010002906 W KR2010002906 W KR 2010002906W WO 2010128818 A2 WO2010128818 A2 WO 2010128818A2
Authority
WO
WIPO (PCT)
Prior art keywords
medical image
information
storing
identified
location
Prior art date
Application number
PCT/KR2010/002906
Other languages
English (en)
French (fr)
Other versions
WO2010128818A3 (ko
Inventor
한대희
김종효
Original Assignee
가톨릭대학교 산학협력단
서울대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 가톨릭대학교 산학협력단, 서울대학교 산학협력단 filed Critical 가톨릭대학교 산학협력단
Priority to US13/319,303 priority Critical patent/US20120123239A1/en
Priority to JP2012509736A priority patent/JP5273832B2/ja
Publication of WO2010128818A2 publication Critical patent/WO2010128818A2/ko
Publication of WO2010128818A3 publication Critical patent/WO2010128818A3/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/08Detecting, measuring or recording devices for evaluating the respiratory organs
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5223Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for extracting a diagnostic or physiological parameter from medical diagnostic data
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures

Definitions

  • the present invention relates to a medical image processing system and processing method, and more particularly, it is possible to reduce the time it takes for the reader to read the medical image, and even in the absence of the medical image, medical information that can be easily confirmed by the location information only. It relates to an image processing system and a processing method.
  • PACS Picture Archiving and Communication System
  • the medical image storage and communication system converts a medical image of a body part of a patient photographed by various medical devices into digital data and stores it in a storage medium.
  • Doctors can use the computer monitor to search and check the medical images and histories of patients in each hospital's office.
  • the reader may read the current state or disease of the patient by using the medical image, and perform the necessary measures for the treatment or treatment of the patient according to the reading result.
  • An object of the present invention is to provide a medical image processing system and processing method that can reduce the time taken by the reader to read the medical image, and can reduce the work of the doctor.
  • Another object of the present invention is to provide a medical image processing system and a processing method which can easily check the reading result only by location information even when the image format of the medical image is not read or when there is no medical image.
  • the medical image processing system is a storage device for storing the lung medical image of the patient, a database server for storing the medical image information about the lung medical image, by using the lung medical image and medical image information, the lung A computer-aided analysis unit for identifying pulmonary veins and nodules in a medical image, and a position detection unit for detecting the relative position of the nodules based on the pulmonary veins, using the identified nodules and pulmonary veins, and stores the detected position information do.
  • the medical image processing system is a storage device for storing the lung medical image of the patient, a database server for storing the medical image information about the lung medical image, and displays the lung medical image and medical image information on the screen,
  • the pulmonary vein is identified by using a clinical reading station for selecting a position-detecting nodule in the lung medical image, and the pulmonary vein and the location-detecting object using the lung medical image and the medical image information.
  • a position detection unit for detecting the relative position of the nodule to be identified, and stores the detected position information on the basis of.
  • the medical image processing system includes a storage device for storing a medical image, a database server for storing medical image information about the medical image, the object to be identified and the object using the medical image and the medical image information.
  • a computer-assisted analysis unit for identifying a surrounding object, and a position detecting unit for detecting a relative position of the identification object based on the surrounding object based on the identified object and the surrounding object, and storing the detected position information. It includes.
  • the medical image processing system is a storage device for storing a medical image, a database server for storing the medical image information on the medical image, and displays the medical image and medical image information on the screen, the position in the medical image
  • a clinical reading station receiving a detection target and a medical image and medical image information are used to identify the position detection object and the surrounding object, and the position detection object and the surrounding object are detected based on the surrounding object.
  • a position detector for detecting a relative position of the object and storing the detected position information.
  • the method may further include obtaining and storing a medical image, identifying an object to be identified and an object around the object by using the medical image and information about the medical image, and identifying the identified object. Detecting a relative position of the object to be identified based on the surrounding object using an object and a surrounding object, and storing information on the detected position.
  • the reader since a relative position is detected and provided by using a surrounding object, even if a medical image is photographed several times or a medical image is taken while changing a photographing apparatus or a hospital, the reader can read the medical image accurately and quickly. . Therefore, the time taken by the reader to read the medical image can be reduced, and the work of the reader can be reduced.
  • the image processing system stores the labeling information as position information, so that even if the image format is different from the medical image or the image is not read, even if there is no medical image, it is easy to check the reading result only by the position information. There is.
  • the image processing system according to the present invention may provide the location tendency information of the object by databaseting the location information according to the object. Therefore, the system has an effect of notifying which part of the object frequently occurs according to the type of the object by using the position tendency information.
  • 1 and 2 are diagrams showing an example of a medical image.
  • FIG. 3 is a diagram illustrating a medical image processing system according to an exemplary embodiment of the disclosed technology.
  • FIG. 4 is a diagram illustrating a medical image display screen according to an embodiment of the disclosed technology.
  • FIG. 5 is a diagram illustrating an example of a medical image according to an exemplary embodiment of the disclosed technology.
  • FIG. 6 is a diagram illustrating an example of a position detection method according to an embodiment of the disclosed technology.
  • FIG. 7 is a flowchart illustrating a process of processing a medical image using a medical image processing system according to an embodiment of the disclosed technology.
  • each step may occur differently from the stated order unless the context clearly dictates the specific order. That is, each step may occur in the same order as specified, may be performed substantially simultaneously, or may be performed in the reverse order.
  • the hospital may photograph and store various medical images of the patient, and determine the state of the patient using the medical image.
  • devices capable of taking medical images include CT, MRI, X-ray, Ultrasound, Angiography, Call There are various imaging and imaging devices such as COLPOSCOPY and CERVICOGRAPHY, and nuclear medicine imaging devices.
  • the captured medical images are converted into digital data and stored and provided to the members of the hospital through the medical image storage and communication system (PACS).
  • PACS medical image storage and communication system
  • Readers who read medical images can query, verify, and read images on a computer monitor through a medical image storage and communication system (PACS).
  • the reader may access a medical image storage and communication system (PACS) through a clinical reading station to view and read medical images for the patient.
  • PACS medical image storage and communication system
  • a different reading result may be generated for each reading object depending on the reading ability or experience of the reading object. Therefore, even if there is a result of reading by another reading doctor, the new reading doctor must read the medical image again.
  • the patient may take a medical image several times according to the progress of the disease, and may also take a medical image while changing a photographing apparatus or a hospital. Therefore, various kinds of medical image data may be generated, and the position of the disease may look different for each medical image, and thus the reader must read the data again every time.
  • each medical image may be a heavy task for the reader. For example, suppose the reader reads a medical image of a patient with a nodule at the bottom of the left lung. When the patient takes a medical image at time intervals, a plurality of medical images may be generated.
  • 1 and 2 are diagrams showing an example of a medical image. 1 and 2 assume a chest medical image taken around the lung of a patient with a nodule 110 at the lower end of the left lung 100. Lung position and size, and Table Position (TP) line values are examples of techniques.
  • TP Table Position
  • FIG. 1 The image of FIG. 1 was taken with the patient inspiration and can be read as a nodule 110 located just below the Table Position 200 line. However, the image of FIG. 2 was taken with the patient in expiration and can be read as nodules 110 located below the TP 250 line.
  • the medical image processing system 200 may support an image acquisition device 210, an image acquisition server 220, a storage device 230, a medical image storage and communication (PACS) database server 240, and a computer.
  • a computer Aided Diagnosis (CAD) 250, a position detector 260, a clinical reading station 270, and a display 280 are included.
  • the medical image processing system 200 may further include an output device (not shown) capable of outputting a stored medical image, such as an optical disk output device (not shown) or a memory output device (not shown).
  • the image acquisition device 210 acquires a medical image of the patient.
  • image capturing devices are CT, MRI, X-ray, Ultrasound, Angiography, and COLPOSCOPY.
  • imaging medical devices such as cervical imaging device (CERVICOGRAPHY), and nuclear medical imaging device.
  • the image acquisition device 210 may include an optical disk input device or a memory input device. It may be the same storage medium input device or an image input device such as a scanner.
  • the medical image acquired by the image acquisition device 210 is converted into digital data and stored.
  • the image acquisition server 220 receives the medical image from the image acquisition device 210 and converts the medical image into digital data.
  • the image acquisition server 220 may convert the medical image into digital data according to a digital imaging communication in medicine (DICOM) format.
  • DICOM is a standardized application layer protocol for the transmission and reception of medical images, waveforms and ancillary information.
  • the image acquisition server 220 may use a separate format without using the DICOM format.
  • the image acquisition server 220 transmits the digitally converted medical image and original image data to the storage device 230.
  • the image acquisition server 220 transmits medical image information regarding the medical image, such as storage path information of the image data, DICOM information, to the medical image storage and communication database server 240.
  • the storage device 230 stores the digitally converted medical image and original image data, and transmits the data when requested.
  • the medical image storage and communication database server 240 may store medical image information such as storage path information, DICOM information, and the like of the image data received from the image acquisition server 220.
  • the medical image storage and communication database server 240 may store image reading information received from the clinical reading station 270, image marking information indicating the lesion position of the image, identification information identifying the patient, and the like. .
  • the clinical reading station 270 may query the medical image by accessing the medical image storage and communication database server 240.
  • the reader may use the clinical reading station 270 to query and read the medical image of the patient.
  • the reader may search and search for the medical image of the identified patient using the patient's identification information (ID, social security number, name, date of birth, etc.).
  • the clinical reading station 270 may store the image reading information, the image overlay information, and the like read by the reading doctor in the medical image storage and communication database server 240.
  • the clinical reading station 270 When the reader requests the medical image of the patient, the clinical reading station 270 requests the image from the storage device 230. Storage 230 transmits the requested medical image to clinical reading station 270. The clinical reading station 270 displays the medical image received from the storage device 230 and information about the medical image received from the medical image storage and communication database server 240 on the display unit 280.
  • FIG. 4 is a diagram illustrating a medical image display screen according to an embodiment of the disclosed technology.
  • the display 280 may display a medical image, patient information, disease information, and the like as shown in FIG. 4.
  • the screen of FIG. 4 is an example, and the type of information displayed on the display unit 280 may vary according to the display mode.
  • a medical image processed in another form such as a 2D image, a 3D volume image, and a specific organ extraction image, may be displayed on the display unit 280.
  • the computer aided analysis unit (CAD) 250 analyzes the medical image and provides analysis information.
  • the reader may read the medical image by referring to the analysis information provided by the computer-aided analyzer 250.
  • the physician may read only the medical image stored in the storage 230 into the clinical reading station 270 to directly read the data, or may operate the computer-assisted analysis function to refer to and read the analysis information.
  • the computer-aided analyzer 250 may identify and analyze a specific object or state of the medical image by using anatomical information.
  • the computer-aided analyzer 250 may select an analysis algorithm differently according to the type of medical image or the characteristics of the object to be identified. For example, when the computer-aided analysis unit 250 identifies and analyzes mass or nodule of a specific organ, information about the organ, information about mass or nodule, and medical image Different analysis algorithms can be selected depending on the type.
  • the analysis algorithm may analyze the medical image using various image information such as edge information, color information, intensity change information, spectrum change information, image characteristic information, and the like of the medical image.
  • a reader reads pulmonary nodules from a medical image of a patient.
  • the doctor may display only the medical image on the display unit 280 to read the image, or may drive the computer-assisted analysis function to refer to the analysis information and read the image.
  • FIG. 5 is a diagram illustrating an example of a medical image according to an exemplary embodiment of the disclosed technology.
  • FIG. 5 shows a slice of a lung image photographed by a CT.
  • the computer aided analyzer 250 identifies and analyzes a specific object or condition of the medical image using anatomical information.
  • the computer-aided analysis unit 250 may identify and analyze the bronchus, the pulmonary artery, the pulmonary vein, and the nodule using an analysis algorithm.
  • Bronchial 400a, 400b and pulmonary arteries 410a, 410b are adjacently distributed in the lungs in pairs, and pulmonary veins 420 are distributed separately in the lung apart from bronchial 400a, 400b or pulmonary arteries 410a, 410b.
  • the air filled lung space 430 or bronchus 400a, 400b may appear in a different color from the pulmonary arteries 410a, 410b or pulmonary vein 420 through which blood flows.
  • the computer-aided analysis unit 250 may identify the bronchus 400a and 400b, the pulmonary arteries 410a and 410b, and the pulmonary vein 420, respectively.
  • the computer aided analysis unit 250 may identify anatomically abnormal nodules.
  • the computer-aided analyzer 250 may identify the bronchus or blood vessel when the object to be identified is continuously connected to a plurality of image tomography.
  • an object found only in a certain number of image slices or less may be identified as a nodule.
  • the computer aided analysis unit 250 may simultaneously identify a plurality of nodules.
  • the identification algorithm described above is an example, and the nodules may be identified using image information, such as other anatomical information, edge information of a medical image, color information, intensity change information, spectrum change information, image characteristic information, and the like. have.
  • the computer-aided analyzer 250 may identify bronchus, blood vessels, nodules, and the like in the medical image using the above-described method.
  • the above description is an example, and when a medical image of another organ is read, an object to be identified of the corresponding organ such as a nodule may be identified.
  • the location detector 260 may identify the location of the object using the information of the object identified by the computer assistance analyzer 250 and store the location information of the object.
  • the position detector 260 detects a relative position of an object to detect a position by using surrounding objects. For example, the location detector 260 may detect location information of an object based on blood vessels, organs, bones, and the like.
  • the position detector 260 will be described on the assumption that the position of the pulmonary nodules is detected using the relative positions of the pulmonary veins and the pulmonary nodules in the lung medical image as shown in FIG.
  • the location detector 260 may detect the location of the nodule using various objects such as bronchus, pulmonary artery, and pulmonary vein identified in the lung. When pulmonary veins and nodules are identified, the position detector 260 detects relative position information of the nodules using one or more pulmonary veins.
  • FIG. 6 is a diagram illustrating an example of a position detection method according to an embodiment of the disclosed technology.
  • FIG. 6 illustrates a medical image when a pulmonary nodule 500 is surrounded by three pulmonary veins 510, 520, and 530.
  • the first pulmonary vein 510 has a first branch 512, a second branch 514, a third branch 516, the second pulmonary vein 520 has a fourth branch 522, and the third pulmonary vein has a Has a fifth branch 532.
  • the position detector 260 detects a position based on the pulmonary vein closest to the pulmonary nodule 500.
  • the location detector 260 may detect a location based on at least one or more pulmonary veins.
  • the position detector 260 measures at least one or more pulmonary veins closest to the vertical distance by measuring a vertical distance between the pulmonary nodules and each pulmonary vein.
  • the position detector 260 may detect the pulmonary vein closest to the pulmonary nodule in the same image tomography, or may detect the pulmonary nodules in several image tomography before and after the identified image tomography.
  • the pulmonary nodules 500 are closest to the first pulmonary vein 510, the second pulmonary vein 520, and the third pulmonary vein 530 in the case of the first pulmonary vein.
  • the position detector 260 stores information of the pulmonary vein closest to the pulmonary nodule 500.
  • the location detector 260 may store the labeled identification information by labeling the identification information to the object around the object to be detected.
  • the position detector 260 may label identification information for each branch of a peripheral object, that is, each pulmonary vein, and store the labeled identification information to detect the location of the pulmonary nodules 500 as shown in FIG. 6.
  • the labeling method of the identification information may vary depending on the embodiment, but may be labeled in an anatomical manner. For example, when the position detector 260 labels the pulmonary vein as shown in FIG. 5, the pulmonary vein and the inferior pulmonary vein of the left lung and the right lung are respectively referred to. Each pulmonary vein branch is labeled.
  • the first pulmonary vein 510 of FIG. 6 extends downwardly from the first branch from the front of the inferior pulmonary vein of the left lung, the third branch among the branches extending upward from the first branch, and from the third branch
  • the position detector 260 may label the first pulmonary vein 510 as 'LIF1S3I2'.
  • the third branch 516 of the first pulmonary vein 510 is the second branch 516 of the branches 512 and 516 extending to the lower part of the first pulmonary vein 510, it may be labeled as 'LIF1S3I2I2'. Can be.
  • the position detector 260 may label each pulmonary vein in the same manner as described above.
  • the position detector 260 detects a position.
  • Each labeling information of the first pulmonary vein 510, the second pulmonary vein 520, and the third pulmonary vein 530 closest to the target nodule 500 is stored as position information of the pulmonary nodule 500.
  • the reader may know that the pulmonary nodules 500 are located between the space consisting of the first pulmonary vein 510, the second pulmonary vein 520, and the third pulmonary vein 530 using the position information.
  • the data format of the medical image is different, and thus, even when the image is not read or there is no medical image, the reading result can be easily confirmed using only the location information.
  • the location detector 260 obtains the location information using three surrounding objects. However, the location detection unit 260 may obtain the location information using two, four or more surrounding objects, depending on the implementation.
  • the location detector 260 may further store direction information or distance information of the object to be identified based on each neighboring object together with the location information as described above. Alternatively, the position detector 260 may store direction information or distance information of the nearest neighbor object and the object to be identified.
  • the location detector 260 may transmit location information of the object to the clinical reading station 270, and the clinical reading station 270 may display the location information of the object on the display 280.
  • the reader may check the location information of the object and store the location information together with the image readout information, the image overlay information, and the like in the medical image storage and communication database server 240.
  • the location detector 260 may store the location information of the object directly in the medical image storage and communication database server 240.
  • the medical image storage and communication database server 240 may store and store the type of object and the position information of the object according to various medical image cases.
  • the medical image storage and communication database server 240 may provide location tendency information of the object according to the type of the object by using the stored information.
  • the medical image storage and communication database server 240 may provide location tendency information to inform which part of the object frequently occurs according to the type of the object. For example, by locating the pulmonary nodules relative to the peripheral pulmonary veins, you can more accurately know where the affected vagina develops in the lungs.
  • the position detection unit 260 detects and stores the position information of the object, but the reader reads the medical image to identify the object and then locates the object.
  • the detector 260 may detect and store location information of the object. That is, when the reader reads the medical image through the clinical reading station 270 and selects the object of interest in the medical image as the position detection target, the position detector 260 may store the medical image storage and communication database server with the storage device 230.
  • the medical image and the medical image information may be received to identify the object selected by the reader in the medical image, and to detect the position information of the object.
  • the medical image processing system acquires and stores a medical image by using an image acquisition device (S600).
  • the computer aided analyzer identifies the object using the medical image (S610).
  • the computer-aided analysis unit may identify the object set by the reader to identify using anatomical information and medical images.
  • the location detector detects the location information of the identified object (S620). As described above, the location detector may detect location information by using a location relative to the surrounding object. If the reader directly selects the object of interest in the medical image, the position detector may directly identify the object selected by the reader and detect the location information of the object.
  • the location information detected by the location detector is stored in the medical image storage and communication database server of the system.
  • the medical image storage and communication database server may provide location trending information according to an object by databaseting the location information.
  • the stored location information may be provided to a member in a hospital through a medical image storage and communication system of the system, or may be provided to another system outside the system along with the medical image through a storage medium such as an optical disk or a memory.
  • the medical image processing system may detect and provide a location of an object.
  • the medical image processing system according to the embodiment may automatically detect the position of the object.
  • the medical image processing system detects and provides a relative position by using a surrounding object, so that even if a medical image is taken several times or a medical image is taken while changing a photographing device or a hospital, the medical image is accurately and quickly. Can be read. Therefore, the time taken by the reader to read the medical image can be reduced, and the work of the reader can be reduced.
  • the image processing system Since the image processing system stores labeling information as location information, the image processing system according to the embodiment has an effect that the reading result can be easily confirmed only by the location information even when the data format of the medical image is not read or when there is no medical image. .
  • the image processing system may provide the location tendency information of the object by databaseting the location information according to the object. Therefore, the system has an effect of notifying which part of the object frequently occurs according to the type of the object by using the position tendency information.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Physiology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Pulmonology (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Optics & Photonics (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

의료영상 처리 시스템은 의료영상을 저장하는 저장장치, 상기 의료영상에 관한 의료영상 정보를 저장하는 데이터베이스 서버, 상기 의료영상과 상기 의료영상 정보를 이용하여 식별 대상 객체와 상기 객체의 주변 객체를 식별하는 컴퓨터 지원 분석부, 및 상기 식별된 식별 대상 객체와 주변 객체를 이용하여, 상기 주변 객체를 기준으로 상기 식별 대상 객체의 상대적 위치를 검출하고, 검출된 위치 정보를 저장하는 위치 검출부를 포함한다. 따라서, 의료영상 처리 시스템은 객체의 위치를 검출하여 제공할 수 있으며, 병원에서는 정확하고 신속하게 의료영상을 판독할 수 있다.

Description

의료영상 처리 시스템 및 처리 방법
본 발명은 의료영상 처리 시스템 및 처리 방법에 관한 것으로서, 더욱 상세하게는 판독의가 의료영상을 판독하는데 걸리는 시간을 줄일 수 있고, 의료영상이 없는 경우에도 위치 정보만으로 쉽게 판독 결과를 확인할 수 있는 의료영상 처리 시스템 및 처리 방법에 관한 것이다.
정보통신 기술이 다양한 산업 분야에 적용되면서, 각 분야에서 정보의 저장, 관리 기술이 발전하였다. 일 예로, 의료 산업 분야에는 디지털 의료영상의 저장 및 통신에 관한 PACS(Picture Archiving and Communication System : 이하 PACS 또는 의료영상 저장 및 통신 시스템) 시스템이 도입되어, 각 병원에서는 의료영상을 저장하고 관리할 수 있다. 의료영상 저장 및 통신 시스템(PACS)은 각종 의료 장비에서 촬영된 환자의 신체 부위에 대한 의료영상을 디지털 데이터로 변환하여 저장매체에 저장한다.
의사는 컴퓨터 모니터를 통해 병원의 각 진료실에서 원하는 환자의 의료영상, 이력 등을 조회하고 확인할 수 있다. 또한, 판독의는 의료영상을 이용하여 환자의 현재 상태나 질병을 판독하고, 판독 결과에 따라 환자의 진료 또는 치료에 필요한 조치를 수행할 수 있다.
본 발명의 목적은 판독의가 의료영상을 판독하는데 걸리는 시간을 줄일 수 있으며, 판독의의 업무를 줄여줄 수 있는 의료영상 처리 시스템 및 처리 방법을 제공하는 것이다.
본 발명의 다른 목적은 의료영상의 데이터 포맷이 달라 영상 판독이 되지 않는 경우나 의료영상이 없는 경우에도 위치 정보만으로 쉽게 판독 결과를 확인할 수 있는 의료영상 처리 시스템 및 처리 방법을 제공하는 것이다.
본 발명의 또 다른 목적은 객체의 종류에 따라 해당 객체가 어느 부위에 자주 발생하는지 알려 줄 수 있는 의료영상 처리 시스템 및 처리 방법을 제공하는 것이다.
일 실시예에서, 의료영상 처리 시스템은 환자의 폐 의료영상을 저장하는 저장장치, 상기 폐 의료영상에 관한 의료영상 정보를 저장하는 데이터베이스 서버, 상기 폐 의료영상과 의료영상 정보를 이용하여, 상기 폐 의료영상에서 폐정맥과 결절을 식별하는 컴퓨터 지원 분석부, 및 상기 식별된 결절과 폐정맥을 이용하여, 상기 폐정맥을 기준으로 상기 결절의 상대적 위치를 검출하고, 검출된 위치 정보를 저장하는 위치 검출부를 포함한다.
일 실시예에서, 의료영상 처리 시스템은 환자의 폐 의료영상을 저장하는 저장장치, 상기 폐 의료영상에 관한 의료영상 정보를 저장하는 데이터베이스 서버, 상기 폐 의료영상과 의료영상 정보를 화면에 디스플레이하고, 상기 폐 의료영상에서 위치 검출 대상 결절을 선택받는 임상 판독 스테이션, 및 상기 폐 의료영상과 의료영상 정보를 이용하여 상기 위치 검출 대상 결절과 폐정맥을 식별하고, 상기 식별 대상 결절과 폐정맥을 이용하여 상기 폐정맥을 기준으로 상기 식별 대상 결절의 상대적 위치를 검출하고, 검출된 위치 정보를 저장하는 위치 검출부를 포함한다.
일 실시예에서, 의료영상 처리 시스템은 의료영상을 저장하는 저장장치, 상기 의료영상에 관한 의료영상 정보를 저장하는 데이터베이스 서버, 상기 의료영상과 상기 의료영상 정보를 이용하여 식별 대상 객체와 상기 객체의 주변 객체를 식별하는 컴퓨터 지원 분석부, 및 상기 식별된 식별 대상 객체와 주변 객체를 이용하여, 상기 주변 객체를 기준으로 상기 식별 대상 객체의 상대적 위치를 검출하고, 검출된 위치 정보를 저장하는 위치 검출부를 포함한다.
일 실시예에서, 의료영상 처리 시스템은 의료영상을 저장하는 저장장치, 상기 의료영상에 관한 의료영상 정보를 저장하는 데이터베이스 서버, 상기 의료영상과 의료영상 정보를 화면에 디스플레이하고, 상기 의료영상에서 위치 검출 대상을 선택받는 임상 판독 스테이션, 및 상기 의료영상과 의료영상 정보를 이용하여 상기 위치 검출 대상과 주변 객체를 식별하고, 상기 위치 검출 대상과 주변 객체를 이용하여 상기 주변 객체를 기준으로 상기 위치 검출 대상의 상대적 위치를 검출하고, 검출된 위치 정보를 저장하는 위치 검출부를 포함한다.
일 실시예에서, 의료영상 처리 방법은 의료영상을 획득하여 저장하는 단계, 상기 의료영상과 의료영상에 관한 정보를 이용하여 식별 대상 객체와 상기 객체의 주변 객체를 식별하는 단계, 상기 식별된 식별 대상 객체와 주변 객체를 이용하여, 상기 주변 객체를 기준으로 상기 식별 대상 객체의 상대적 위치를 검출하는 단계, 및 상기 검출된 위치의 정보를 저장하는 단계를 포함한다.
본 발명에 의하면, 주변 객체를 이용하여 상대적인 위치를 검출하여 제공하므로 수차례 의료영상이 촬영되거나, 촬영장치나 병원을 바꾸어가며 의료영상이 촬영되어도 판독의는 정확하고 신속하게 의료영상을 판독할 수 있다. 따라서, 판독의가 의료영상을 판독하는데 걸리는 시간을 줄일 수 있으며, 판독의의 업무를 줄여줄 수 있다.
그리고, 본 발명에 의한 영상 처리 시스템은 라벨링 정보를 위치 정보로 저장하므로, 의료영상의 데이터 포맷이 달라 영상 판독이 되지 않는 경우나 의료영상이 없는 경우에도 위치 정보만으로 쉽게 판독 결과를 확인할 수 있는 효과가 있다.
또한, 본 발명에 의한 영상 처리 시스템은 객체에 따른 위치 정보를 데이터베이스화하여 객체의 위치 경향성 정보를 제공할 수 있다. 따라서, 시스템은 위치 경향성 정보를 이용하여 객체의 종류에 따라 해당 객체가 어느 부위에 자주 발생하는지 알려 줄 수 있는 효과가 있다.
도 1 및 도 2는 의료영상의 일 예를 나타낸 도면이다.
도 3은 개시된 기술의 일 실시예에 따른 의료영상 처리 시스템을 설명하는 도면이다.
도 4는 개시된 기술의 일 실시예에 따른 의료영상 디스플레이 화면을 설명하는 도면이다.
도 5는 개시된 기술의 일 실시예에 따른 의료영상의 일 예를 나타내는 도면이다.
도 6은 개시된 기술의 일 실시예에 따른 위치 검출 방법의 예를 나타내는 도면이다.
도 7은 개시된 기술의 일 실시예에 따른 의료영상 처리 시스템을 이용하여 의료영상을 처리하는 과정을 나타내는 순서도이다.
개시된 기술에 관한 설명은 구조적 내지 기능적 설명을 위한 실시예에 불과하므로, 개시된 기술의 권리범위는 본문에 설명된 실시예에 의하여 제한되는 것으로 해석되어서는 아니 된다. 즉, 실시예는 다양한 변경이 가능하고 여러 가지 형태를 가질 수 있으므로 개시된 기술의 권리범위는 기술적 사상을 실현할 수 있는 균등물들을 포함하는 것으로 이해되어야 한다.
각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않은 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 단계들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.
여기서 사용되는 모든 용어들은 다르게 정의되지 않는 한, 개시된 기술이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한 이상적이거나 과도하게 형식적인 의미를 지니는 것으로 해석될 수 없다.
병원은 환자의 각종 의료영상을 촬영하여 저장하고, 의료영상을 이용하여 환자의 상태를 판단할 수 있다. 의료영상을 촬영할 수 있는 장치의 예로 컴퓨터 단층 촬영장치(CT), 자기공명 영상 촬영장치(MRI), 방사선 촬영장치(X-Ray), 초음파 촬영장치(Ultrasound), 혈관조영장치(ANGIO), 콜포스코피(COLPOSCOPY), 자궁경부촬영장치(CERVICOGRAPHY) 등 다양한 영상의학 촬영장치, 핵의학 촬영장치 등이 있다. 촬영된 의료영상은 디지털 데이터로 변환되어 저장되며, 의료영상 저장 및 통신 시스템(PACS)을 통해 병원의 구성원에게 제공된다.
의료영상을 판독하는 판독의는 의료영상 저장 및 통신 시스템(PACS)을 통해 컴퓨터 모니터로 영상을 조회, 확인 및 판독할 수 있다. 판독의는 임상 판독 스테이션을 통해 의료영상 저장 및 통신 시스템(PACS)에 접속하여 환자에 대한 의료영상을 조회하고 판독할 수 있다.
의료영상을 판독하는 경우, 판독의의 판독 실력이나 경험 등에 따라 판독의마다 다른 판독결과가 나올 수 있으므로, 다른 판독의가 판독한 결과가 있다고 하더라도 새로운 판독의는 의료영상을 다시 판독하여야 한다. 또한, 환자는 질병의 경과에 따라 수차례 의료영상을 촬영할 수 있으며, 촬영장치나 병원을 바꾸어가며 의료영상을 촬영할 수도 있다. 따라서, 다양한 종류의 의료영상 데이터가 생성될 수 있으며, 질병 부위가 의료영상마다 위치가 달라 보일 수 있어 동일한 질병 부위인지를 판독의가 매번 다시 판독하여야 한다.
상기와 같은 경우, 판독의가 의료영상을 판독하는데 걸리는 시간이 길어질 수 있으며, 각각의 의료영상을 판독하는 것이 판독의에 과중한 업무가 될 수 있다. 예를 들어, 판독의가 좌측 폐의 하단부에 결절(nodule)이 있는 환자의 의료영상을 판독한다고 가정한다. 환자가 시간 간격을 두고 의료영상을 촬영한 경우, 복수의 의료영상이 생성될 수 있다.
도 1 및 도 2는 의료영상의 일 예를 나타낸 도면이다. 도 1 및 도 2는 좌측 폐(100)의 하단부에 결절(nodule)(110)이 있는 환자에 대해 폐를 중심으로 촬영한 흉부 의료영상으로 가정한다. 폐의 위치나 크기, TP(Table Position) 라인 수치 등은 기술을 설명하기 위한 일 예이다.
도 1의 영상은 환자가 들숨(inspiration)인 상태에 촬영되었으며 결절(nodule)(110)이 TP(Table Position) 200 라인 바로 밑에 위치하는 것으로 판독될 수 있다. 그러나, 도 2의 영상은 환자가 날숨(expiration)인 상태에 촬영되었으며 결절(110)이 TP 250 라인 밑에 위치하는 것으로 판독될 수 있다.
따라서, 판독의가 단순히 TP 라인을 기준으로 판독을 하는 경우, 도 1의 결절과 도 2의 결절이 동일한 결절인지를 판단하여야 하므로 판독 시간이 오래 걸릴 수 있다. 또한, 다른 판독의가 판독을 하는 경우 다른 판독 결과를 내놓을 수도 있다. 결절의 수가 다수인 경우, 이러한 어려움은 더 증가될 수 있다.
도 3은 개시된 기술의 일 실시예에 따른 의료영상 처리 시스템을 설명하는 도면이다. 도 3을 참조하면, 의료영상 처리 시스템(200)은 영상 획득 장치(210), 영상 획득 서버(220), 저장 장치(230), 의료영상 저장 및 통신(PACS) 데이터베이스 서버(240), 컴퓨터 지원 분석부(Computer Aided Diagnosis : CAD)(250), 위치 검출부(260), 임상 판독 스테이션(270) 및 디스플레이부(280)를 포함한다. 의료영상 처리 시스템(200)은 광 디스크 출력장치(미도시)나 메모리 출력장치(미도시)와 같이 저장된 의료영상을 출력할 수 있는 출력장치(미도시)를 더 포함할 수도 있다.
영상 획득 장치(210)는 환자의 의료 영상을 획득한다. 영상 획득 장치의 예로 컴퓨터 단층 촬영장치(CT), 자기공명 영상 촬영장치(MRI), 방사선 촬영장치(X-Ray), 초음파 촬영장치(Ultrasound), 혈관조영장치(ANGIO), 콜포스코피(COLPOSCOPY), 자궁경부촬영장치(CERVICOGRAPHY) 등 다양한 영상의학 촬영장치, 핵의학 촬영장치 등이 있다.
상기 의료영상 처리 시스템(200) 외부의 시스템이나 외부 병원에서 이미 촬영된 의료영상을 입력받아 저장하는 경우, 영상 획득 장치(210)는 광 디스크(Optical Disk) 입력장치나 메모리(memory) 입력장치 등과 같은 저장 매체 입력 장치나 스캐너(scanner) 등과 같은 이미지 입력 장치 등이 될 수도 있다.
영상 획득 장치(210)에서 획득된 의료영상은 디지털 데이터로 변환되어 저장된다. 영상 획득 서버(220)는 영상 획득 장치(210)로부터 의료영상을 수신하여 디지털 데이터로 변환한다.
영상 획득 서버(220)는 의료영상을 DICOM(Digital Imaging Communication in Medicine) 포맷에 따라 디지털 데이터로 변환할 수 있다. DICOM은 의료 이미지, 파형 및 부수적인 정보의 송수신을 위해 표준화된 응용계층의 프로토콜을 말한다. 구현 예에 따라, 영상 획득 서버(220)는 DICOM 포맷을 사용하지 않고, 별도의 포맷을 사용할 수도 있다.
영상 획득 서버(220)는 디지털 변환된 의료영상, 원본 영상 데이터를 저장장치(230)로 전송한다. 영상 획득 서버(220)는 영상 데이터의 저장 경로 정보, DICOM 정보 등 의료영상에 관한 의료영상 정보를 의료영상 저장 및 통신 데이터베이스 서버(240)로 전송한다.
저장장치(230)는 디지털 변환된 의료영상, 원본 영상 데이터를 저장하고, 요청이 있는 경우 데이터를 전송한다.
의료영상 저장 및 통신 데이터베이스 서버(240)는 영상 획득 서버(220)에서 수신된 영상 데이터의 저장 경로 정보, DICOM 정보 등과 같은 의료영상 정보를 저장할 수 있다. 또한, 의료영상 저장 및 통신 데이터베이스 서버(240)는 임상 판독 스테이션(270)에서 수신된 영상 판독정보, 영상의 병변위 등을 표시하는 영상 덧표시 정보, 환자를 식별하는 식별정보 등을 저장할 수 있다.
임상 판독 스테이션(270)은 의료영상 저장 및 통신 데이터베이스 서버(240)에 접속하여 의료영상을 조회할 수 있다. 판독의는 임상 판독 스테이션(270)을 이용하여 환자의 의료영상을 조회하고 판독할 수 있다. 예를 들어, 판독의는 환자의 식별정보(ID, 주민번호, 성명, 생년월일 등)를 이용하여 식별된 환자의 의료영상을 검색 및 조회할 수 있다. 또한, 임상 판독 스테이션(270)은 판독의가 판독한 영상 판독정보, 영상 덧표시 정보 등을 의료영상 저장 및 통신 데이터베이스 서버(240)에 저장할 수 있다.
판독의가 환자의 의료영상을 요청하면 임상 판독 스테이션(270)은 저장 장치(230)에 해당 영상을 요청한다. 저장장치(230)는 요청된 의료영상을 임상 판독 스테이션(270)으로 전송한다. 임상 판독 스테이션(270)은 저장장치(230)로부터 수신된 의료영상과 의료영상 저장 및 통신 데이터베이스 서버(240)로부터 수신된 의료영상에 대한 정보를 디스플레이부(280)에 디스플레이한다.
도 4는 개시된 기술의 일 실시예에 따른 의료영상 디스플레이 화면을 설명하는 도면이다. 도 4를 참조하면, 디스플레이부(280)에는 도 4와 같이 의료영상, 환자 정보, 질병 정보 등이 디스플레이될 수 있다. 도 4의 화면은 일 예이며, 디스플레이 모드에 따라 디스플레이부(280)에 디스플레이되는 정보의 종류가 달라질 수 있다. 또한, 디스플레이 모드에 따라 2차원 영상, 3차원 볼륨(volume) 영상, 특정 기관(organ) 추출 영상 등 다른 형태로 가공된 의료영상이 디스플레이부(280)에 디스플레이될 수 있다.
컴퓨터 지원 분석부(Computer Aided Diagnosis : CAD)(250)는 의료 영상을 분석하여 분석 정보를 제공한다. 판독의는 컴퓨터 지원 분석부(250)에서 제공되는 분석 정보를 참조하여 의료영상을 판독할 수 있다. 판독의는 저장장치(230)에 저장된 의료영상만 임상 판독 스테이션(270)에 로드(load)하여 직접 판독할 수도 있고, 컴퓨터 지원 분석 기능을 구동하여 분석 정보를 참조하고 판독할 수도 있다.
컴퓨터 지원 분석부(250)는 해부학적 정보를 이용하여 의료영상의 특정 객체(object)나 상태를 식별하여 분석할 수 있다. 컴퓨터 지원 분석부(250)는 의료영상의 종류나 식별 대상 객체의 특징에 따라 분석 알고리즘을 다르게 선택할 수 있다. 예를 들어, 컴퓨터 지원 분석부(250)에서 특정 기관(organ)의 매스(mass)나 결절(nodule) 등을 식별하여 분석하는 경우, 기관에 관한 정보, 매스나 결절에 관한 정보, 의료영상의 종류 등에 따라 분석 알고리즘을 다르게 선택할 수 있다. 분석 알고리즘은 의료영상의 경계(edge) 정보, 색상 정보, 강도 변화 정보, 스펙트럼의 변화 정보, 영상 특성 정보 등과 같은 다양한 영상 정보를 이용하여 의료영상을 분석할 수 있다.
해부학적 정보와 의료영상을 이용하여 다양한 기관의 다양한 객체를 판독할 수 있으나, 이하에서는 설명의 편의를 위해, 판독의가 환자의 의료영상으로부터 폐 결절(pulmonary nodules)을 판독하는 경우를 가정한다. 판독의는 의료영상만 디스플레이부(280)에 디스플레이시켜 영상을 판독할 수도 있고, 컴퓨터 지원 분석 기능을 구동하여 분석 정보를 참조하고 영상을 판독할 수도 있다.
도 5는 개시된 기술의 일 실시예에 따른 의료영상의 일 예를 나타내는 도면이다. 도 5는 컴퓨터 단층 촬영장치(CT)에서 촬영된 폐 영상의 한 단층(slice)을 나타낸다. 판독의가 컴퓨터 지원 분석 기능을 구동하는 경우, 컴퓨터 지원 분석부(250)는 해부학적 정보를 이용하여 의료영상의 특정 객체나 상태를 식별하여 분석한다.
예를 들어, 컴퓨터 지원 분석부(250)는 분석 알고리즘을 이용하여 기관지와 폐동맥, 폐정맥, 결절을 식별하여 분석할 수 있다. 기관지(400a, 400b)와 폐동맥(410a, 410b)은 인접하여 쌍으로 폐에 분포되어 있으며, 폐정맥(420)은 기관지(400a, 400b)나 폐동맥(410a, 410b)과 떨어져 별도로 폐에 분포되어 있다. 또한, 공기로 채워진 폐 공간(430)이나 기관지(400a, 400b)는 혈액이 흐르는 폐동맥(410a, 410b)이나 폐정맥(420)과 다른 색상으로 나타날 수 있다. 상기와 같은 해부학적 정보와 영상 정보를 이용하여 컴퓨터 지원 분석부(250)는 각각 기관지(400a, 400b), 폐동맥(410a, 410b), 폐정맥(420)을 식별할 수 있다.
또한, 컴퓨터 지원 분석부(250)는 해부학적으로 비정상적인 결절을 식별할 수 있다. 예를 들어, 컴퓨터 지원 분석부(250)는 식별 대상이 다수의 영상 단층(slice)에 연속적으로 연결된 형태인 경우 상기 기관지나 혈관으로 식별할 수 있다. 또는, 특정 개수 이하의 영상 단층(slice)에서만 발견되는 대상을 결절로 식별할 수도 있다. 컴퓨터 지원 분석부(250)는 복수의 결절을 동시에 식별할 수 있다.
상기에서 설명한 식별 알고리즘은 일 예이며 다른 해부학적 정보나 의료영상의 경계(edge) 정보, 색상 정보, 강도 변화 정보, 스펙트럼의 변화 정보, 영상 특성 정보 등과 같은 영상 정보를 이용하여 결절을 식별할 수도 있다.
컴퓨터 지원 분석부(250)는 상기와 같은 방식을 이용하여 의료영상에서 기관지, 혈관, 결절 등을 식별할 수 있다. 상기 설명은 일 예이며, 다른 기관(organ)의 의료영상을 판독하는 경우, 결절 등과 같은 해당 기관의 식별 대상 객체(object)를 식별할 수 있다.
위치 검출부(260)는 컴퓨터 지원 분석부(250)에서 식별된 객체의 정보를 이용하여 객체의 위치를 식별하고, 객체의 위치 정보를 저장할 수 있다. 위치 검출부(260)는 주변 객체를 이용하여 위치를 검출하려는 객체의 상대적인 위치를 검출한다. 예를 들어, 위치 검출부(260)는 혈관, 기관, 뼈 등을 기준으로 객체의 위치 정보를 검출할 수 있다.
이하에서는 위치 검출부(260)가 도 5와 같은 폐 의료영상에서 폐정맥과 폐 결절의 상대적 위치를 이용하여 폐 결절의 위치를 검출하는 경우를 가정하여 설명하기로 한다. 위치 검출부(260)는 폐에서 식별된 기관지, 폐동맥, 폐정맥 등 다양한 객체를 이용하여 결절의 위치를 검출할 수 있다. 폐의 폐정맥과 결절이 식별된 경우, 위치 검출부(260)는 하나 이상의 폐정맥을 이용하여 결절의 상대적 위치 정보를 검출한다.
도 6은 개시된 기술의 일 실시예에 따른 위치 검출 방법의 예를 나타내는 도면이다. 도 6을 참조하면, 도 6은 폐 결절(pulmonary nodule)(500)이 3개의 폐정맥(pulmonary vein)(510, 520, 530)에 둘러싸인 경우의 의료영상을 나타낸다. 제1 폐정맥은(510) 제1분지(512), 제2분지(514), 제3분지(516)를 가지며, 제2 폐정맥은(520) 제4분지(522)를 가지며, 제3 폐정맥은 제5분지(532)를 가진다.
위치 검출부(260)는 폐 결절(500)과 가장 가까운 폐정맥을 기준으로 위치를 검출한다. 위치 검출부(260)는 적어도 하나 이상의 폐정맥을 기준으로 위치를 검출할 수 있다. 위치 검출부(260)는 폐 결절과 각 폐정맥과의 수직 거리를 측정하여 수직 거리가 가장 가까운 폐정맥을 적어도 하나 이상 식별한다. 위치 검출부(260)는 폐 결절과 가장 가까운 폐정맥을 동일한 영상 단층(slice) 내에서 검출할 수도 있고, 폐 결절이 식별된 영상 단층 전후로 수개의 영상 단층 내에서 검출할 수도 있다.
도 6을 참조하면, 폐 결절(500)은 제1 폐정맥의 경우 제1 폐정맥(510), 제2 폐정맥(520), 제3 폐정맥(530)와 가장 가깝다. 위치 검출부(260)는 폐 결절(500)과 가장 가까운 폐정맥의 정보를 저장한다.
위치 검출부(260)는 상기 위치를 검출하려는 객체의 주변 객체에 식별 정보를 라벨링(labeling)하여 라벨링된 식별 정보를 저장할 수 있다. 예를 들어, 위치 검출부(260)는 상기 도 6과 같이 폐 결절(500)의 위치를 검출하기 위해 주변 객체 즉, 각 폐정맥의 분지마다 식별 정보를 라벨링하고 라벨링된 식별 정보를 저장할 수 있다. 식별 정보의 라벨링 방식은 구현 예에 따라 각각 달라질 수 있으나, 해부학적으로 구분하는 방식으로 라벨링할 수 있다. 예를 들어, 위치 검출부(260)가 도 5와 같은 폐정맥을 라벨링하는 경우, 각각 좌폐(left lung)와 우폐(right lung)의 상폐정맥(superior pulmonary vein)과 하폐정맥(inferior pulmonary vein)을 기준으로 각 폐정맥 분지를 라벨링한다.
도 6의 제1 폐정맥(510)이 좌폐의 하폐정맥(inferior pulmonary vein)의 앞에서부터 1번째 분지, 상기 1번째 분지에서 상부로 뻗어나간 분지 가운데 3번째 분지, 상기 3번째 분지에서 하부로 뻗어나간 분지 가운데 2번째 분지인 경우, 위치 검출부(260)는 상기 제1 폐정맥(510)을 'LIF1S3I2'로 라벨링할 수 있다. 상기 라벨링 방식에 의하면 제1 폐정맥(510)의 제3분지(516)는 제1 폐정맥(510)의 하부로 뻗어나간 분지(512, 516) 가운데 2번째 분지(516)이므로 'LIF1S3I2I2'로 라벨링될 수 있다.
위치 검출부(260)는 상기와 같은 방식으로 각 폐정맥을 라벨링할 수 있다. 상기와 같은 방식으로 제1 폐정맥(510)이 'LIF1S3I2', 제2 폐정맥(520)이 'LIF2S3I1', 제3 폐정맥(530)이 'LIF3S1I2'로 라벨링된 경우, 위치 검출부(260)는 위치 검출 대상인 결절(500)과 가장 가까운 제1 폐정맥(510), 제2 폐정맥(520), 제3 폐정맥(530)의 각 라벨링 정보를 폐 결절(500)의 위치 정보로 저장한다. 판독의는 상기 위치 정보를 이용하여 폐결절(500)이 제1 폐정맥(510), 제2 폐정맥(520), 제3 폐정맥(530)으로 이루어지는 공간 사이에 있음을 알 수 있다.
상기와 같은 라벨링 정보를 위치 정보로 저장하는 경우, 의료영상의 데이터 포맷이 달라 영상 판독이 되지 않는 경우나 의료영상이 없는 경우에도 위치 정보만으로 쉽게 판독 결과를 확인할 수 있는 효과가 있다.
상기 예에서 위치 검출부(260)는 3개의 주변 객체를 이용하여 위치 정보를 얻었으나, 구현 예에 따라 2개 또는 4개 이상의 주변 객체를 이용하여 위치 정보 얻을 수도 있다. 위치 검출부(260)는 상기와 같은 위치 정보와 함께 각 주변 객체를 기준으로 식별 대상 객체의 방향 정보 또는 거리 정보 등을 더 저장할 수도 있다. 또는, 위치 검출부(260)는 가장 가까운 1개의 주변 객체와 식별 대상 객체의 방향 정보 또는 거리 정보를 저장할 수도 있다.
위치 검출부(260)는 객체의 위치 정보를 임상 판독 스테이션(270)으로 전송하고, 임상 판독 스테이션(270)는 객체의 위치 정보를 디스플레이부(280)에 디스플레이 할 수 있다. 판독의는 객체의 위치 정보를 확인하고, 영상 판독정보, 영상 덧표시 정보 등과 함께 위치 정보를 의료영상 저장 및 통신 데이터베이스 서버(240)에 저장할 수 있다. 위치 검출부(260)는 상기 객체의 위치 정보를 바로 의료영상 저장 및 통신 데이터베이스 서버(240)에 저장할 수도 있다. 의료영상 저장 및 통신 데이터베이스 서버(240)는 다양한 의료영상 케이스에 따른 객체의 종류, 객체의 위치 정보를 데이터베이스화하여 저장할 수 있다. 의료영상 저장 및 통신 데이터베이스 서버(240)는 저장된 정보를 이용하여 객체의 종류에 따라 객체의 위치 경향성 정보를 제공할 수 있다. 의료영상 저장 및 통신 데이터베이스 서버(240)는 위치 경향성 정보를 제공하여, 객체의 종류에 따라 해당 객체가 어느 부위에 자주 발생하는지 알려 줄 수 있다. 예를 들어, 말초폐정맥을 기준으로 폐 결절의 위치를 정하면, 해당 질한이 폐의 어느 부분에 잘 생기는지 더 정확하게 알 수 있다.
상기 예에서는 컴퓨터 지원 분석부(250)를 이용하여 객체를 식별한 후, 위치 검출부(260)에서 객체의 위치 정보를 검출하여 저장하였으나, 판독의가 의료영상을 판독하여 객체를 식별한 후, 위치 검출부(260)에서 객체의 위치 정보를 검출하여 저장할 수도 있다. 즉, 판독의가 임상 판독 스테이션(270)을 통해 의료영상을 판독하여 의료영상에서 관심 객체를 위치 검출 대상으로 선택한 경우, 위치 검출부(260)는 저장장치(230)와 의료영상 저장 및 통신 데이터베이스 서버(240)에서 의료영상과 의료영상에 관한 정보를 수신하여 상기 판독의가 선택한 객체를 의료영상에서 식별하고 객체의 위치 정보를 검출할 수 있다.
도 7은 개시된 기술의 일 실시예에 따른 의료영상 처리 시스템을 이용하여 의료영상을 처리하는 과정을 나타내는 순서도이다. 도 7을 참조하면, 의료영상 처리 시스템은 영상 획득 장치를 이용하여 의료 영상을 획득하고 저장한다(S600). 판독의가 컴퓨터 지원 분석 기능을 구동하면, 컴퓨터 지원 분석부는 의료영상을 이용하여 객체를 식별한다(S610). 컴퓨터 지원 분석부는 해부학적 정보와 의료영상을 이용하여 판독의가 식별하도록 설정한 객체를 식별할 수 있다.
컴퓨터 지원 분석부에서 객체를 식별하면, 위치 검출부는 식별된 객체의 위치 정보를 검출한다(S620). 위치 검출부는 상기에서 설명한 바와 같이 주변 객체와의 상대적인 위치를 이용하여 위치 정보를 검출할 수 있다. 판독의가 의료영상에서 관심 객체를 직접 선택한 경우, 위치 검출부는 직접 상기 판독의가 선택한 객체를 식별하고 객체의 위치 정보를 검출할 수도 있다.
위치 검출부에서 검출된 위치 정보는 시스템의 의료영상 저장 및 통신 데이터베이스 서버에 저장한다. 의료영상 저장 및 통신 데이터베이스 서버는 위치 정보를 데이터베이스화하여 객체에 따른 위치 경향성 정보를 제공할 수 있다. 저장된 위치 정보는 시스템의 의료영상 저장 및 통신 시스템을 통해 병원 내의 구성원에게 제공될 수도 있고, 광 디스크나 메모리와 같은 저장 매체를 통해 의료영상 등과 함께 상기 시스템 외부의 다른 시스템에 제공될 수도 있다.
일 실시예에 따른 의료영상 처리 시스템은 객체의 위치를 검출하여 제공할 수 있다. 실시예에 따른 의료영상 처리 시스템은 자동으로 객체의 위치를 검출할 수 있다.
실시예에 따른 의료영상 처리 시스템은 주변 객체를 이용하여 상대적인 위치를 검출하여 제공하므로 수차례 의료영상이 촬영되거나, 촬영장치나 병원을 바꾸어가며 의료영상이 촬영되어도 판독의는 정확하고 신속하게 의료영상을 판독할 수 있다. 따라서, 판독의가 의료영상을 판독하는데 걸리는 시간을 줄일 수 있으며, 판독의의 업무를 줄여줄 수 있다.
실시예에 따른 영상 처리 시스템은 라벨링 정보를 위치 정보로 저장하므로, 의료영상의 데이터 포맷이 달라 영상 판독이 되지 않는 경우나 의료영상이 없는 경우에도 위치 정보만으로 쉽게 판독 결과를 확인할 수 있는 효과가 있다.
실시예에 따른 영상 처리 시스템은 객체에 따른 위치 정보를 데이터베이스화하여 객체의 위치 경향성 정보를 제공할 수 있다. 따라서, 시스템은 위치 경향성 정보를 이용하여 객체의 종류에 따라 해당 객체가 어느 부위에 자주 발생하는지 알려 줄 수 있는 효과가 있다.
상기에서는 본 발명의 일 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.

Claims (20)

  1. 환자의 폐 의료영상을 저장하는 저장장치;
    상기 폐 의료영상에 관한 의료영상 정보를 저장하는 데이터베이스 서버;
    상기 폐 의료영상과 의료영상 정보를 이용하여, 상기 폐 의료영상에서 폐정맥과 결절을 식별하는 컴퓨터 지원 분석부; 및
    상기 식별된 결절과 폐정맥을 이용하여, 상기 폐정맥을 기준으로 상기 결절의 상대적 위치를 검출하고, 검출된 위치 정보를 저장하는 위치 검출부를 포함하는 의료영상 처리 시스템.
  2. 제 1 항에 있어서, 상기 컴퓨터 지원 분석부는
    해부학적 정보와 의료영상 정보를 이용하여 상기 폐정맥과 결절을 식별하는 의료영상 처리 시스템.
  3. 제 1 항에 있어서, 상기 위치 검출부는
    상기 결절과 가까운 적어도 하나 이상의 폐정맥을 기준으로 상기 결절의 상대적 위치를 검출하는 의료영상 처리 시스템.
  4. 제 1 항에 있어서, 상기 위치 검출부는
    상기 폐정맥의 분지마다 식별 정보를 라벨링하고, 상기 결절과 가까운 적어도 하나 이상의 폐정맥의 식별 정보를 상기 결절의 위치 정보로 저장하는 의료영상 처리 시스템.
  5. 제 1 항에 있어서,
    상기 위치 검출부에서 위치 정보를 수신하여 화면에 디스플레이하는 임상 판독 스테이션을 더 포함하는 의료영상 처리 시스템.
  6. 제 1 항에 있어서, 상기 데이터베이스 서버는
    상기 위치 정보를 수신하여 저장하고, 상기 위치 정보를 이용하여 상기 결절의 위치 경향성 정보를 제공하는 의료영상 처리 시스템.
  7. 환자의 폐 의료영상을 저장하는 저장장치;
    상기 폐 의료영상에 관한 의료영상 정보를 저장하는 데이터베이스 서버;
    상기 폐 의료영상과 의료영상 정보를 화면에 디스플레이하고, 상기 폐 의료영상에서 위치 검출 대상 결절을 선택받는 임상 판독 스테이션; 및
    상기 폐 의료영상과 의료영상 정보를 이용하여 상기 위치 검출 대상 결절과 폐정맥을 식별하고, 상기 식별 대상 결절과 폐정맥을 이용하여 상기 폐정맥을 기준으로 상기 식별 대상 결절의 상대적 위치를 검출하고, 검출된 위치 정보를 저장하는 위치 검출부를 포함하는 의료영상 처리 시스템.
  8. 제 7 항에 있어서, 상기 위치 검출부는
    상기 결절과 가까운 적어도 하나 이상의 폐정맥을 기준으로 상기 결절의 상대적 위치를 검출하는 의료영상 처리 시스템.
  9. 제 7 항에 있어서, 상기 위치 검출부는
    상기 폐정맥의 분지마다 식별 정보를 라벨링하고, 상기 결절과 가까운 적어도 하나 이상의 폐정맥의 식별 정보를 상기 결절의 위치 정보로 저장하는 의료영상 처리 시스템.
  10. 제 7 항에 있어서, 상기 데이터베이스 서버는
    상기 위치 정보를 수신하여 저장하고, 상기 위치 정보를 이용하여 상기 결절의 위치 경향성 정보를 제공하는 의료영상 처리 시스템.
  11. 의료영상을 저장하는 저장장치;
    상기 의료영상에 관한 의료영상 정보를 저장하는 데이터베이스 서버;
    상기 의료영상과 상기 의료영상 정보를 이용하여 식별 대상 객체와 상기 객체의 주변 객체를 식별하는 컴퓨터 지원 분석부; 및
    상기 식별된 식별 대상 객체와 주변 객체를 이용하여, 상기 주변 객체를 기준으로 상기 식별 대상 객체의 상대적 위치를 검출하고, 검출된 위치 정보를 저장하는 위치 검출부를 포함하는 의료영상 처리 시스템.
  12. 제 11 항에 있어서, 상기 위치 검출부는
    상기 식별 대상 객체와 가까운 적어도 하나 이상의 주변 객체를 기준으로 상기 식별 대상 객체의 상대적 위치를 검출하는 의료영상 처리 시스템.
  13. 제 11 항에 있어서, 상기 위치 검출부는
    상기 주변 객체마다 식별 정보를 라벨링하고, 상기 식별 대상 객체와 가까운 적어도 하나 이상의 주변 객체의 식별 정보를 상기 식별 대상 객체의 위치 정보로 저장하는 의료영상 처리 시스템.
  14. 제 11 항에 있어서, 상기 데이터베이스 서버는
    상기 위치 정보를 수신하여 저장하고, 상기 위치 정보를 데이터베이스화하여 식별 대상 객체에 따른 위치 경향성 정보를 제공하는 의료영상 처리 시스템.
  15. 의료영상을 저장하는 저장장치;
    상기 의료영상에 관한 의료영상 정보를 저장하는 데이터베이스 서버;
    상기 의료영상과 의료영상 정보를 화면에 디스플레이하고, 상기 의료영상에서 위치 검출 대상을 선택받는 임상 판독 스테이션; 및
    상기 의료영상과 의료영상 정보를 이용하여 상기 위치 검출 대상과 주변 객체를 식별하고, 상기 위치 검출 대상과 주변 객체를 이용하여 상기 주변 객체를 기준으로 상기 위치 검출 대상의 상대적 위치를 검출하고, 검출된 위치 정보를 저장하는 위치 검출부를 포함하는 의료영상 처리 시스템.
  16. 환자의 장기 의료영상을 저장하고, 상기 장기 의료영상에 관한 의료영상 정보를 저장하는 의료영상 처리 시스템에 있어서,
    상기 장기 의료영상과 의료영상 정보를 이용하여 식별 대상 결절과 장기의 혈관을 식별하고, 상기 식별 대상 결절과 장기를 이용하여 상기 장기의 혈관을 기준으로 상기 식별 대상 결절의 상대적 위치를 검출하고, 검출된 위치 정보를 저장하는 위치 검출부를 포함하는 의료영상 처리 시스템.
  17. 의료영상을 저장하고, 상기 의료영상에 관한 의료영상 정보를 저장하는 의료영상 처리 시스템에 있어서,
    상기 의료영상과 의료영상 정보를 이용하여 위치 검출 대상과 주변 객체를 식별하고, 상기 위치 검출 대상과 주변 객체를 이용하여 상기 주변 객체를 기준으로 상기 위치 검출 대상의 상대적 위치를 검출하고, 검출된 위치 정보를 저장하는 위치 검출부를 포함하는 의료영상 처리 시스템.
  18. 의료영상을 획득하여 저장하는 단계;
    상기 의료영상과 의료영상에 관한 정보를 이용하여 식별 대상 객체와 상기 객체의 주변 객체를 식별하는 단계;
    상기 식별된 식별 대상 객체와 주변 객체를 이용하여, 상기 주변 객체를 기준으로 상기 식별 대상 객체의 상대적 위치를 검출하는 단계; 및
    상기 검출된 위치의 정보를 저장하는 단계를 포함하는 의료영상 처리 방법.
  19. 제 18 항에 있어서, 상기 상대적 위치를 검출하는 단계는
    상기 식별 대상 객체와 가까운 적어도 하나 이상의 주변 객체를 기준으로 상기 식별 대상 객체의 상대적 위치를 검출하는 의료영상 처리 방법.
  20. 제 18 항에 있어서,
    상기 위치 정보를 데이터베이스화하여 식별 대상 객체에 따른 위치 경향성 정보를 제공하는 단계를 더 포함하는 의료영상 처리 방법.
PCT/KR2010/002906 2009-05-08 2010-05-07 의료영상 처리 시스템 및 처리 방법 WO2010128818A2 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US13/319,303 US20120123239A1 (en) 2009-05-08 2010-05-07 Medical Image Processing System and Processing Method
JP2012509736A JP5273832B2 (ja) 2009-05-08 2010-05-07 医療映像処理システム及び医療映像処理方法ならびに医療映像処理プログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020090040218A KR101050769B1 (ko) 2009-05-08 2009-05-08 의료영상 처리 시스템 및 처리 방법
KR10-2009-0040218 2009-05-08

Publications (2)

Publication Number Publication Date
WO2010128818A2 true WO2010128818A2 (ko) 2010-11-11
WO2010128818A3 WO2010128818A3 (ko) 2011-02-17

Family

ID=43050641

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2010/002906 WO2010128818A2 (ko) 2009-05-08 2010-05-07 의료영상 처리 시스템 및 처리 방법

Country Status (4)

Country Link
US (1) US20120123239A1 (ko)
JP (1) JP5273832B2 (ko)
KR (1) KR101050769B1 (ko)
WO (1) WO2010128818A2 (ko)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5950902B2 (ja) 2010-03-31 2016-07-13 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 生体構造の一部分を自動的に判定する装置及び方法、画像処理システム並びにコンピュータプログラム
JP5896084B2 (ja) 2013-08-01 2016-03-30 パナソニック株式会社 類似症例検索装置、類似症例検索装置の制御方法、およびプログラム
KR102206196B1 (ko) 2013-08-29 2021-01-22 삼성전자주식회사 엑스선 촬영 장치 및 그 제어 방법
KR101587719B1 (ko) * 2014-06-10 2016-01-22 원광대학교산학협력단 의료 영상 분석 장치 및 이의 폐결절과 폐혈관 구분 방법
US10226199B2 (en) * 2015-12-21 2019-03-12 Canon Kabushiki Kaisha Medical-image processing apparatus, method for controlling the same, and storage medium
JP7272149B2 (ja) * 2019-07-08 2023-05-12 コニカミノルタ株式会社 選択支援システム及びプログラム
KR102097740B1 (ko) 2019-07-25 2020-04-06 주식회사 딥노이드 인공지능을 활용한 의료영상 자동 분류 및 표준화 시스템 및 그 구동방법
KR20210105721A (ko) 2020-02-19 2021-08-27 주식회사 삼우인터네셔널 의료 영상 처리 시스템 및 이를 이용한 의료 영상 처리 방법

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050085711A (ko) * 2002-12-18 2005-08-29 지이 메디컬 시스템즈 글로발 테크놀러지 캄파니 엘엘씨 데이터 저장소와의 상호작용 제어방법 및 제어 시스템과,컴퓨터
JP2009028161A (ja) * 2007-07-25 2009-02-12 Toshiba Corp 医用画像表示装置及び医用画像表示方法
JP2009086750A (ja) * 2007-09-27 2009-04-23 Canon Inc 医用診断支援装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7058210B2 (en) * 2001-11-20 2006-06-06 General Electric Company Method and system for lung disease detection
US7171257B2 (en) * 2003-06-11 2007-01-30 Accuray Incorporated Apparatus and method for radiosurgery
US7822461B2 (en) * 2003-07-11 2010-10-26 Siemens Medical Solutions Usa, Inc. System and method for endoscopic path planning
US20050075563A1 (en) * 2003-10-03 2005-04-07 Predrag Sukovic CT imaging system for robotic intervention
JP5196751B2 (ja) * 2006-09-13 2013-05-15 株式会社東芝 コンピュータ支援診断装置
US8023709B2 (en) * 2006-11-24 2011-09-20 General Electric Company Vasculature partitioning methods and apparatus
US7907766B2 (en) * 2007-01-02 2011-03-15 General Electric Company Automatic coronary artery calcium detection and labeling system
JP4931027B2 (ja) * 2010-03-29 2012-05-16 富士フイルム株式会社 医用画像診断支援装置および方法、並びにプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050085711A (ko) * 2002-12-18 2005-08-29 지이 메디컬 시스템즈 글로발 테크놀러지 캄파니 엘엘씨 데이터 저장소와의 상호작용 제어방법 및 제어 시스템과,컴퓨터
JP2009028161A (ja) * 2007-07-25 2009-02-12 Toshiba Corp 医用画像表示装置及び医用画像表示方法
JP2009086750A (ja) * 2007-09-27 2009-04-23 Canon Inc 医用診断支援装置

Also Published As

Publication number Publication date
US20120123239A1 (en) 2012-05-17
JP2012525907A (ja) 2012-10-25
JP5273832B2 (ja) 2013-08-28
KR101050769B1 (ko) 2011-07-21
KR20100121178A (ko) 2010-11-17
WO2010128818A3 (ko) 2011-02-17

Similar Documents

Publication Publication Date Title
WO2010128818A2 (ko) 의료영상 처리 시스템 및 처리 방법
KR102458587B1 (ko) 진단 검사를 실시간 치료에 통합하기 위한 범용 장치 및 방법
JP6596406B2 (ja) 診断支援装置とその作動方法および作動プログラム、並びに診断支援システム
WO2016125978A1 (en) Method and apparatus for displaying medical image
CN104798107B (zh) 从医学图像生成关键图像
KR20130053587A (ko) 의료기기 및 이를 이용한 의료영상 디스플레이 방법
US20190266722A1 (en) Learning data creation support apparatus, learning data creation support method, and learning data creation support program
US11468659B2 (en) Learning support device, learning support method, learning support program, region-of-interest discrimination device, region-of-interest discrimination method, region-of-interest discrimination program, and learned model
CN108806776A (zh) 一种基于深度学习的多模态医学影像的方法
WO2013151289A1 (ko) 가시적 무손실 압축을 이용한 의료 영상 압축 시스템 및 방법
WO2019143179A1 (ko) 동일 피사체에 대하여 시간 간격을 두고 촬영된 영상 간에 동일 관심구역을 자동으로 검출하는 방법 및 이를 이용한 장치
WO2019143021A1 (ko) 영상의 열람을 지원하는 방법 및 이를 이용한 장치
JP6291813B2 (ja) 医用画像システム及びプログラム
JP5252263B2 (ja) 解析プロトコルに基づいた前処理装置を具備する三次元画像表示装置を相互接続した医用画像解析システム
CN112862752A (zh) 一种图像处理显示方法、系统电子设备及存储介质
WO2017010612A1 (ko) 의료 영상 분석 기반의 병리 진단 예측 시스템 및 방법
JP2020524540A (ja) 医用画像を画像解析する方法及びシステム
WO2016080736A1 (ko) 의료영상을 이용한 진단 보조 정보 제공 방법 및 그 시스템
Suzuki et al. Intelligent operating theater: technical details for information broadcasting and incident detection system
JP4810141B2 (ja) 画像管理装置及び画像管理方法
JP2004298209A (ja) 画像処理装置
WO2023113092A1 (ko) 요로결석 진단 시스템 및 그 방법
KR20190138106A (ko) 의료 영상 저장 전송 시스템
WO2024090651A1 (ko) 요로위치 추정 시스템
EP4210068A1 (en) Medical information processing system, medical information processing method, and program

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10772278

Country of ref document: EP

Kind code of ref document: A2

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2012509736

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 13319303

Country of ref document: US

122 Ep: pct application non-entry in european phase

Ref document number: 10772278

Country of ref document: EP

Kind code of ref document: A2