WO2010113479A1 - 画像処理装置および方法並びにプログラム - Google Patents

画像処理装置および方法並びにプログラム Download PDF

Info

Publication number
WO2010113479A1
WO2010113479A1 PCT/JP2010/002306 JP2010002306W WO2010113479A1 WO 2010113479 A1 WO2010113479 A1 WO 2010113479A1 JP 2010002306 W JP2010002306 W JP 2010002306W WO 2010113479 A1 WO2010113479 A1 WO 2010113479A1
Authority
WO
WIPO (PCT)
Prior art keywords
menu
image
dimensional image
information
analysis
Prior art date
Application number
PCT/JP2010/002306
Other languages
English (en)
French (fr)
Inventor
中村佳児
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2010522886A priority Critical patent/JP4596437B2/ja
Priority to CA2733519A priority patent/CA2733519A1/en
Priority to CN2010800027521A priority patent/CN102164543B/zh
Priority to AU2010231365A priority patent/AU2010231365A1/en
Priority to BR122013007310A priority patent/BR122013007310A2/pt
Priority to EP10758259A priority patent/EP2316341B1/en
Priority to BRPI1004218A priority patent/BRPI1004218A2/pt
Priority to US12/737,702 priority patent/US9144407B2/en
Publication of WO2010113479A1 publication Critical patent/WO2010113479A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/037Emission tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/465Displaying means of special interest adapted to display user selection data, e.g. graphical user interface, icons or menus
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/56Details of data transmission or power supply, e.g. use of slip rings
    • A61B6/563Details of data transmission or power supply, e.g. use of slip rings involving image data transmission via a network
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/008Specific post-processing after tomographic reconstruction, e.g. voxelisation, metal artifact correction

Definitions

  • the present invention relates to an image processing apparatus and method for processing a three-dimensional image consisting of a plurality of tomographic images acquired by tomographic imaging of an object, and a program for causing a computer to execute the image processing method.
  • X-ray CT Computed Modalities using various technologies such as Tomography equipment, ultrasound (US) diagnostic equipment, MRI (Magnetic Resonance Imaging) equipment, PET (Positron Emission Tomography) equipment, and SPET (Single-Photon Emission Tomography) equipment ing.
  • US ultrasound
  • MRI Magnetic Resonance Imaging
  • PET PET
  • SPET Single-Photon Emission Tomography
  • the structure of interest is recognized, and the tomographic image is analyzed from the tomographic image including the structure of interest using a method such as maximum value projection (MIP method) and minimum value projection (MinIP method).
  • MIP method maximum value projection
  • MinIP method minimum value projection
  • analysis applications exist for performing such analysis.
  • a wide variety of color templates, image processing applications and display applications (hereinafter referred to as analysis applications etc.) for changing shading patterns when VR display of 3D images is performed.
  • analysis applications etc. a wide variety of color templates, image processing applications and display applications for changing shading patterns when VR display of 3D images is performed.
  • the number of menus for selecting an analysis application etc. increases, and as a result, it is very time consuming for the user such as an image interpretation doctor and an engineer to select a menu. .
  • an index value representing an anatomic feature is calculated from the medical image, and it is determined whether the photographed subject is an adult, an infant, an infant or a child based on the calculated index value.
  • a method of selecting an optimal imaging menu item to be selected from imaging menu items according to a sample and displaying only the selected imaging menu see Patent Document 1. According to the method described in Patent Document 1, when displaying a medical image, an unnecessary imaging menu for the photographed subject is not displayed, so that the burden on the user when selecting the imaging menu can be reduced. it can.
  • Patent 2007-185429 gazette
  • the present invention has been made in view of the above circumstances, and a menu is selected when displaying a menu used when processing a three-dimensional image, particularly when a tomographic image is acquired over a plurality of regions.
  • the purpose is to reduce the burden on the user.
  • An image processing apparatus is an image acquisition unit that acquires a three-dimensional image composed of a plurality of tomographic images acquired by performing tomographic imaging on a subject.
  • a part information acquiring unit that acquires information on a part recognition result of the subject included in the three-dimensional image;
  • Menu specifying means for specifying a menu according to a part from a plurality of menus used when displaying the three-dimensional image based on the information of the part recognition result;
  • display control means for displaying the specified menu on a display means.
  • the “site” is used to identify the body of the human body when the subject is a human body, and specific examples include the head, neck, chest, abdomen, pelvis, legs, and the above-mentioned respective parts. Composite sites that include both adjacent two sites, such as the head and neck and thoraco-abdominal.
  • the part information acquiring unit may be configured to acquire information on the part recognition result by recognizing the part of the subject included in the three-dimensional image.
  • the plurality of tomographic images are axial images, and the plurality of tomographic images are a head, a neck, a chest, an abdomen, a pelvis, a leg, and a portion thereof.
  • at least one composite site consisting of at least two adjacent sites of
  • the menu may be a menu for selecting an application for analyzing the three-dimensional image.
  • the menu specification means may specify the menu in accordance with user information of a user who uses the three-dimensional image.
  • the menu specification means may specify the menu in accordance with the type of modality that has acquired the three-dimensional image.
  • the display control means may change the display mode of the specified menu in accordance with the use frequency of each of the plurality of menus.
  • the display control unit is a unit capable of selectively displaying a specific part included in the three-dimensional image.
  • the menu specifying means may be a means for specifying the menu in accordance with the part of the three-dimensional image being displayed.
  • a computer acquires a three-dimensional image composed of a plurality of tomographic images acquired by performing tomographic imaging on a subject, Acquiring information on a result of site recognition of the subject included in the three-dimensional image; Based on the information on the part recognition result, a menu corresponding to the part is specified from a plurality of menus used when displaying the three-dimensional image, The specified menu is displayed on display means.
  • the image processing method according to the present invention may be provided as a program for causing a computer to execute the method.
  • a plurality of units are used when displaying a three-dimensional image based on the result of site recognition of the object included in the three-dimensional image consisting of a plurality of tomographic images acquired by tomographic imaging the object
  • the menu according to the region is specified from the menu of, and the specified menu is displayed. Therefore, when the display of the three-dimensional image is instructed, only the menu corresponding to the part included in the three-dimensional image can be displayed. Therefore, it is not necessary for the user such as the image interpretation doctor and the technician to select unnecessary menus for the parts that are not included in the three-dimensional image, thereby reducing the burden on the user when selecting the menu.
  • the specific site included in the three-dimensional image can be selectively displayed, and the menu is specified according to the site of the displayed three-dimensional image, thereby further reducing the burden on the user when selecting the menu. be able to.
  • a diagram showing a schematic configuration of a medical information system to which an image processing apparatus according to an embodiment of the present invention is applied A diagram showing an example of a table used in the first embodiment Flow chart showing processing performed in the first embodiment Diagram showing the displayed examination list
  • a diagram showing a state where a menu of an analysis application is listed for each part (part 1)
  • a diagram showing an example of a table used in the second embodiment The figure which shows the state which displayed the menu of the analysis application as a list in 2nd Embodiment.
  • a diagram showing an example of a table used in the third embodiment The figure which shows the state which displayed the menu of the analysis application as a list in 2nd Embodiment.
  • the figure which shows the state which displayed the menu of analysis application as a list in 2nd Embodiment (the 1) The figure which shows the state which carried out pop-up display of the menu of analysis application in 4th Embodiment.
  • the figure which shows the state which displayed the menu of the analysis application as a list in 4th Embodiment (the 2) The figure which shows the state which displayed the menu of the analysis application as a list in 4th Embodiment (the 3)
  • a diagram showing an example of a table used in the fifth embodiment Flow chart showing processing performed in the fifth embodiment
  • the figure which shows the display screen in 5th Embodiment (the 1) The figure which shows the display screen in 5th Embodiment (the 2)
  • FIG. 1 is a view showing a schematic configuration of a medical information system to which an image processing apparatus according to a first embodiment of the present invention is applied.
  • the medical information system according to the first embodiment includes a medical image photographing apparatus (modality) 1, an image interpretation workstation (WS) 2, an image server 3, an image database 4, and a site recognition terminal 5. It is connected and configured to be able to communicate with each other via the network 10.
  • Each device in the present embodiment is controlled by a program installed from a recording medium such as a CD-ROM. Also, the program may be installed after being downloaded from a server connected via a network such as the Internet.
  • a device that generates image data of an image representing a region to be examined by imaging the region to be examined of a subject in modality 1, and appends and outputs incidental information such as examination information and patient information to the image data Is included.
  • the incidental information is in a format in accordance with a standardized standard such as the DICOM standard and a maker's unique standard such as its modality.
  • Specific examples of the modality 1 include a CT apparatus, an MRI apparatus, a PET apparatus, an SPET apparatus, an ultrasonic imaging apparatus, and the like.
  • the image data is image data of a three-dimensional image representing a region to be inspected of the subject acquired by the CT apparatus, and the axial slice image (tomographic image with a predetermined slice interval and slice thickness) Is configured as a set of image data, but is not limited thereto.
  • the axial slice image tomographic image with a predetermined slice interval and slice thickness
  • FIG. 1 a plurality of types of modalities 1 may be connected.
  • the image interpretation workstation 2 is a device used by users such as image interpretation doctors and technologists to create image interpretation and interpretation reports, and includes a processing device, one or two high-definition displays, and a keyboard and mouse or touch panel. And other input devices.
  • the image interpretation workstation 2 requests image browsing to the image server 3, performs various image processing on the image received from the image server 3, various analysis processing including automatic detection and highlighting of a structure and a lesion or the like in the image, image It supports display, creation of diagnostic reading reports, requests to register diagnostic reading reports to a diagnostic reading report server (not shown) and browsing requests, and displays diagnostic reading reports received from a diagnostic reading report server.
  • an analysis application for performing various analysis processing instructed by the user is installed in the image interpretation workstation 2.
  • the analysis application is prepared according to the part included in the three-dimensional image.
  • the image interpretation workstation 2 stores a table in which sites included in the three-dimensional image are associated with types of analysis applications used to analyze the sites.
  • FIG. 2 is a diagram showing an example of a table used in the first embodiment. As shown in FIG. 2, in the table T1, parts and types of analysis applications are associated.
  • brain blood vessel extraction in the head and neck lung analysis in the chest, coronary artery analysis, cardiac function analysis and calcification score, lung analysis and liver analysis in thoraco-abdominal, liver analysis in the abdomen and
  • the large intestine analysis corresponds to the analysis application of the large intestine analysis in the pelvic region.
  • the image interpretation workstation 2 When the user interprets an image, the image interpretation workstation 2 first acquires incidental information and information of a part recognition result to be described later for each examination according to an instruction from the user. Then, with reference to the table T1 based on the acquired information of the part recognition result, the analysis application corresponding to the part included in the three-dimensional image is specified and displayed on the display. The display of the identified analysis application will be described later.
  • the part may be included. Further, in the case where a part in the body axis direction is included in a predetermined distance (number of sheets ⁇ slice interval) or more, the part may be included. For example, when the neck is 10 cm or more, it may be determined that the three-dimensional image includes the neck. In this case, if the neck includes only 5 cm, the analysis application of the neck will not be identified.
  • the image server 3 is a general-purpose relatively high-performance computer on which a software program for providing the function of a database management system (DBMS) is installed. Further, the image server 3 is provided with a large capacity storage in which the image database 4 is configured. This storage may be a large-capacity hard disk drive connected to the image server 3 by a data bus, or connected to a NAS (Network Attached Storage) and a SAN (Storage Area Network) connected to the network 10. It may be a disk device.
  • the image server 3 also has a communication interface that communicates with the modality 1 and the image interpretation workstation 2 and the like via the network 10.
  • the image server 3 When receiving the image registration request from the modality 1, the image server 3 arranges the image into a database format and registers the image in the image database 4. Further, the information of the part recognition result obtained by the part recognition terminal 5 described later is registered in the image database 4.
  • the incidental information includes, for example, an image ID for identifying an individual image, a patient ID for identifying a subject, an examination ID for identifying an examination, a unique ID (UID) assigned to each image, and the like Examination date when the image was generated, examination time, type of modality used in examination to acquire the image, patient name, patient information such as age, gender etc., examination site (shooting site), shooting information (shooting protocol (shooting protocol) , Imaging sequence, imaging method, imaging conditions, use of contrast agent, etc., and information such as a series number or acquisition number when a plurality of images are acquired in one examination.
  • the image server 3 receives the browse request from the image interpretation workstation 2 via the network 10, the image server 3 searches the image registered in the image database 4 and the image extracted by the search is the image interpretation workstation of the request source. Send to 2
  • the image interpretation workstation 2 transmits a browsing request to the image server 3 and acquires an image necessary for image interpretation. Then, analysis processing such as automatic detection processing of a lesion is performed on the image according to a request from the user.
  • the part recognition terminal 5 recognizes the part of the subject included in the three-dimensional image prior to or after registration in the image database 4 of the three-dimensional image composed of a plurality of tomographic images acquired by the modality 1 Site recognition processing.
  • the site recognition terminal 5 also has a communication interface that communicates with the modality 1 and the image interpretation workstation 2 and the like via the network 10. Further, the part recognition terminal 5 starts the recognition processing by receiving from the image server 3 a notification that the registration of the three-dimensional image in the image database 4 is completed.
  • the recognition processing may be started by an instruction from the image interpretation workstation 2.
  • the part recognition process performed by the part recognition terminal 5 will be described.
  • the method described in Japanese Patent Application Laid-Open No. 2008-259682 can be used as the part recognition process.
  • the method described in Japanese Patent Laid-Open No. 2008-259682 normalizes a plurality of input tomographic images, calculates a large number of feature amounts from the normalized tomographic images, and calculates for each normalized tomographic image.
  • the feature amount is input to the discriminator obtained by the AdaBoost method to calculate the score for each part indicating the likeness of the part, and the calculated part score is used as an input to use the dynamic programming method to obtain the body part of the human body.
  • a method by color template matching see, for example, JP-A-2002-253539
  • a method using a unique image of each part see, for example, JP-A-2003-10166
  • the part recognition terminal 5 transmits information on the part recognition result to the image server 3.
  • the image server 3 registers the received information of the part recognition result in the image database 4 and transmits the information of the part recognition result together with the three-dimensional image from the image server 3 to the image reading workstation 2 according to the instruction from the image reading workstation 2 .
  • FIG. 3 is a flowchart showing the process performed in the first embodiment.
  • the information of the region recognition result is registered in the image database 4, and after the user such as the image interpretation doctor instructs the image interpretation workstation 2 to interpret the image, the menu of the identified analysis application is specified. The process until it displays will be described.
  • the image server 3 reads out the registered three-dimensional image from the image database 4 together with the accompanying information and the information of the part recognition result, and the image interpretation workstation 2 Send to
  • the image interpretation workstation 2 receives the three-dimensional image, the incidental information, and the information on the part recognition result (information reception, step ST1). Then, based on the received information on the part recognition result, the analysis application according to the part included in the three-dimensional image is specified with reference to the above-mentioned table T1 (step ST2), and the inspection list is It displays on a display (step ST3).
  • FIG. 4 is a diagram showing the displayed examination list.
  • the examination list includes, for each acquired three-dimensional image, information on a patient name, a patient ID, and examination date and time based on the associated incidental information.
  • the image interpretation workstation 2 starts monitoring whether or not the user has selected an image from the examination list by right clicking (step ST4), and when step ST4 is affirmed, the analysis application specified for the selected image Is popped up (step ST5), and the process is ended.
  • FIG. 5 is a view showing a state where the analysis application menu is popped up.
  • the analysis application specified is lung analysis, coronary artery analysis, cardiac function analysis and calcification score, so lung analysis, coronary artery analysis , Pop-up menu of cardiac function analysis and calcification score analysis application.
  • the user can cause the image interpretation workstation 2 to execute an analysis application corresponding to the selected menu by selecting the desired menu.
  • FIG. 6 is a diagram showing a list of analysis application menus in the first embodiment.
  • the analysis applications specified are lung analysis, coronary artery analysis, cardiac function analysis, calcification score, liver analysis and large intestine analysis Therefore, a menu of analysis applications for lung analysis, coronary artery analysis, cardiac function analysis, calcification score, liver analysis and large intestine analysis is listed on the selection screen.
  • the user can cause the image interpretation workstation 2 to execute an analysis application corresponding to the selected menu by selecting the desired menu.
  • the analysis applications may be displayed in a list for each part. For example, if the region recognition result for the selected image is the chest and abdomen, as shown in FIG. 7, it is possible to select the chest and abdomen using the tab, and only the analysis application menu corresponding to the selected region is displayed. You may display it. That is, when a chest tab is selected as shown in FIG. 7, a menu of lung analysis, coronary artery analysis, cardiac function analysis and calcification score is displayed, and an abdominal tab is selected as shown in FIG. In this case, a menu of liver analysis and large intestine analysis may be displayed. In the three-dimensional image, it is preferable to display the longest part in the body axis direction first.
  • the analysis application corresponding to the region is specified from a plurality of analysis applications used when displaying the three-dimensional image. Therefore, when the display of the image is instructed, the user can select only the menu corresponding to the part included in the three-dimensional image by displaying only the menu of the specified analysis application. Therefore, a user such as an image reading doctor does not have to select an unnecessary menu for a part not included in the three-dimensional image as a selection target, so that the burden on the user when selecting the menu can be reduced.
  • part recognition process is performed in the part recognition terminal 5
  • the part recognition process may be performed in the image interpretation workstation 2.
  • the medical information system to which the image processing apparatus according to the second embodiment and the subsequent embodiments is applied has the same configuration as the medical information system to which the image processing apparatus according to the first embodiment is applied. Since only the processing is different, the detailed description of the configuration will be omitted hereinafter.
  • the user of the medical information system is an image interpretation doctor and a technician, and the analysis application to be used for each clinical department to which the user belongs is substantially determined.
  • the analysis application is specified based on the user information.
  • user information is not only information that specifies a clinical department such as cardiovascular department, respiratory department, digestive department, and brain surgery, but also a user ID that specifies an image reading doctor or technician or the ID of an image reading workstation 2, etc. Any information that can identify the user can be used.
  • FIG. 9 is a diagram showing an example of a table used in the second embodiment.
  • the chest and the type of analysis application are associated with each clinical department.
  • the cardiovascular and respiratory departments are associated with the chest, coronary artery analysis, cardiac function analysis and calcification score for cardiovascular department, and analysis application for lung analysis for respiratory department. It is done.
  • the type of analysis application to be used may be edited according to user information.
  • FIG. 10 is a diagram showing a list of menus of analysis applications in the second embodiment.
  • the analysis application specified is lung analysis, coronary artery analysis, cardiac function analysis and calcification score, so the user information is In the case of the cardiovascular department, as shown on the screen 20 of FIG. 10, menus of coronary artery analysis, cardiac function analysis and calcification score analysis application are listed and displayed on the selection screen.
  • the user information is in the respiratory department, as shown on the screen 21 of FIG. 10, a menu of an analysis application of lung analysis is listed and displayed on the selection screen.
  • the user can cause the image interpretation workstation 2 to execute an analysis application corresponding to the selected menu by selecting the desired menu.
  • the analysis application is specified based on user information as well as the site recognition result. Therefore, when the display of the image is instructed, the menu of the analysis application which is frequently used by the user is displayed, and as a result, the burden on the user when selecting the menu can be further reduced.
  • modality 1 includes various devices such as a CT apparatus, an MRI apparatus, a PET apparatus, an SPET apparatus, and an ultrasonic imaging apparatus, and the analysis application that can be executed differs depending on the type of modality 1 .
  • the analysis application is specified according to the type of the modalities 1 included in the incidental information as the first embodiment. It is different from
  • the image interpretation workstation 2 includes a part included in the three-dimensional image and the type of analysis application used for analysis of the part, of the modality 1 having acquired the three-dimensional image.
  • a table associated with each type is stored.
  • FIG. 11 is a diagram showing an example of a table used in the third embodiment.
  • the chest and the type of analysis application are associated with each type of modality 1.
  • a CT device and an MR device are associated with the chest, and the CT device includes coronary artery analysis, cardiac function analysis and calcification score, and the MR device includes analysis applications of cardiac function analysis and delayed contrast analysis. Each is associated.
  • FIG. 12 is a diagram showing a list of menus of analysis applications in the third embodiment.
  • the region recognition result for the image selected by the user in the examination list shown in FIG. 4 is the chest, and the modality 1 from which the three-dimensional image is acquired is the CT device
  • the identified analysis Since the application is lung analysis, coronary artery analysis, cardiac function analysis and calcification score, as shown on the screen 22 of FIG. 12
  • menus of coronary artery analysis, cardiac function analysis and calcification score analysis application are listed on the selection screen Is displayed.
  • the modality 1 from which the three-dimensional image has been acquired is the MR device
  • the menus of cardiac function analysis and delayed contrast analysis analysis applications are listed and displayed on the selection screen.
  • the user can cause the image interpretation workstation 2 to execute an analysis application corresponding to the selected menu by selecting the desired menu.
  • the analysis application is specified based on the type of modality 1 that has acquired a three-dimensional image in addition to the result of site recognition. For this reason, when display of an image is instructed, an analysis application that is highly likely to be displayed on the displayed three-dimensional image is displayed, and as a result, the burden on the user when selecting a menu is further reduced. be able to.
  • the image interpretation workstation 2 when the image interpretation workstation 2 records a log of the number of times of use of the analysis application, and the user instructs image interpretation at the image interpretation workstation 2, the image interpretation workstation 2 becomes three-dimensional
  • the display mode of the menu is changed so that the analysis application with high frequency of use can be easily selected. It differs from the first embodiment.
  • FIG. 13 is a diagram showing a list of menus of analysis applications in the fourth embodiment.
  • coronary artery analysis, cardiac function analysis and calcification score analysis application are specified based on information of site recognition result, and the frequency of use of analysis application is coronary artery analysis, cardiac function analysis and calcification It shall be in order of score.
  • menus of coronary artery analysis, cardiac function analysis and calcification score analysis application are listed from the top in this order.
  • the analysis application menu is popped up, menus of coronary artery analysis, cardiac function analysis and calcification score analysis application are popped up in this order from the top as shown in FIG.
  • the size may be increased and displayed as the menu of the analysis application which is frequently used.
  • the coronary artery analysis icon with the highest frequency of use may be selected. Note that, in FIG. 16, the selected state is shown by giving a hatching to the menu. As a result, the user can execute the most frequently used analysis application only by pressing the execution key of the input device such as the keyboard in the image interpretation workstation 2.
  • the display mode of the analysis application menu is changed so that the analysis application that is frequently used among the specified analysis applications can be easily selected.
  • the burden of menu selection can be further reduced.
  • the three-dimensional image acquired by the CT apparatus and the three-dimensional image acquired by the SPET apparatus are transmitted to the image interpretation workstation 2 as three-dimensional images of the same patient.
  • the region recognition result is a chest
  • a three-dimensional image acquired by a CT apparatus is selected as an image to be displayed
  • the three-dimensional image is not intended for lung diagnosis but for heart function diagnosis. It will be done. Therefore, in such a case, the display mode of the analysis application menu may be changed so that the analysis application of cardiac function analysis that is highly likely to be used can be easily selected.
  • a color template corresponding to the result of site recognition is specified from a plurality of color templates for changing the shading pattern of the three-dimensional image according to the result of site recognition, and the specified color is specified. It differs from the first embodiment in that a menu for selecting the specified color template is listed so that only the template is selected.
  • the image interpretation workstation 2 stores a table in which sites included in the three-dimensional image are associated with types of color templates used when the sites are three-dimensionally displayed.
  • FIG. 17 is a diagram showing an example of a table used in the fifth embodiment. As shown in FIG. 17, in the table T4, the site and the type of color template are associated. Specifically, color templates P1 to P5 for the head, color templates P6 to P10 for the neck, color templates P11 to P20 for the chest, color templates P21 to P25 for the chest and abdomen, and color templates P26 to Color templates 31 to P35 are associated with P30 and the pelvis, respectively.
  • the image interpretation workstation 2 when the user interprets an image, the image interpretation workstation 2 first acquires incidental information and information on a part recognition result for each examination according to an instruction from the user. Then, referring to the table T4 based on the information of the part recognition result, a color template corresponding to the part included in the three-dimensional image is specified and displayed on the display.
  • FIG. 18 is a flowchart showing the process performed in the fifth embodiment.
  • the information on the part recognition result is registered in the image database 4, and after the user such as the image reading doctor instructs the image reading workstation 2 to read the image, the specified color template is displayed. The process until it is done will be described.
  • the image server 3 reads out the registered three-dimensional image from the image database 4 together with the accompanying information and the information of the part recognition result, and the image interpretation workstation 2 Send to
  • the image interpretation workstation 2 receives the three-dimensional image, the incidental information, and the information on the part recognition result (information reception, step ST11). Then, based on the received information of the part recognition result, the color template corresponding to the part included in the three-dimensional image is specified with reference to the above-mentioned table T4 (step ST12). Next, a menu of the specified color template is displayed together with the three-dimensional image (step ST13), and the process is ended.
  • FIG. 19 is a view showing a display screen in the fifth embodiment.
  • the VR image 31 and the color template display area 32 are displayed on the screen 30.
  • a menu of a plurality of specified color templates is displayed.
  • the VR image 31 is an image of a chest
  • the specified part is the chest
  • the color templates P11 to P20 are displayed in the color template display area 32 by referring to the table T4.
  • the menu of the color template being displayed is shown by rectangular icons in FIG. 19, each menu is displayed so that the user can recognize the identified part and the shaded state of the part. It is done. The user can give a desired shade to the VR image 31 by selecting a desired color template on the screen 30.
  • the display is performed when the display of the image is instructed.
  • the color template used only in the three-dimensional image is displayed, as a result, it is possible to further reduce the burden on the user when selecting the color template.
  • all usable color templates are displayed, and the density of color templates other than the specified color template is lowered to facilitate selection of only the specified color template. You may do so.
  • a log of the number of times of use of the color template used is recorded in the image interpretation workstation 2 so that it is easy to select a color template with a high frequency of use when displaying a three-dimensional image.
  • the display mode of the color template menu may be changed. For example, only the menu of color templates whose usage frequency is equal to or higher than a predetermined threshold is displayed, the menu of color templates is rearranged and displayed in order of usage frequency, or the color template is used more frequently. You may enlarge it.
  • the menu to be displayed according to the site in the image interpretation workstation 2 is not limited to the types of analysis application and color template, and an image processing application and a display application etc. installed in the image interpretation workstation 2 It is also possible to use other menus to run. For example, when the region of the three-dimensional image to be displayed is a chest, image processing applications such as lung field extraction, bronchial extraction and heart extraction are often executed. Therefore, as shown on the screen 40 of FIG. 20, for example, when displaying the axial image 41 of the chest, only the menu of the image processing application of lung field extraction, bronchial extraction and heart extraction is displayed in the menu display area 42 You may do so.
  • the menu is specified according to the result of the part recognition.
  • the part to be focused in the displayed image is recognized, and the menu is specified according to the result of the part recognition.
  • the operation of the input device of the image interpretation workstation 2 opens the incision of the chest and makes it easy to focus on the lung field and heart existing from the surface of the skin to the back.
  • the display mode of the image can be changed. Specifically, when the input device is a touch panel, an image is displayed as if the cut is opened by touching the touch panel and performing an operation to spread the finger, and the lung field and heart located behind the skin are displayed on the heart
  • the display mode can be changed to be able to pay attention.
  • a site to be focused on may be recognized in the image interpretation workstation 2
  • a menu may be specified according to the result of the site recognition
  • the specified menu may be displayed.
  • the display mode of the menu of these display applications may be changed according to the result of site recognition. That is, since the display application to be used differs depending on the part, the display mode of the menu may be changed so as to easily select the menu of the display application which is highly likely to be used in the part to be displayed.
  • the display mode of the menu may be changed so as to easily select the menu of the display application which is highly likely to be used in the part to be displayed.
  • the MinIP display is often used to observe the lung field, when the chest and thoraco-abdominal images are displayed, the menu for performing the MinIP display is selected according to the result of site recognition. It may be displayed to be easy to do.
  • MIP display when bone removal processing is performed on the chest image, there is a high possibility of MIP display, so it is easy to select the menu of the display application in consideration of the result of the image processing applied to the image.
  • the display mode of the display menu may be changed.

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Veterinary Medicine (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Public Health (AREA)
  • Heart & Thoracic Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Pulmonology (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

断層画像が複数の部位に亘って取得されている場合において、メニューを選択するユーザの負担を軽減する。 部位認識端末(5)が、複数の断層画像からなる3次元画像に対して部位認識処理を行い、画像データベース(4)に部位認識結果の情報を登録する。読影ワークステーション(2)が3次元画像の表示を行う際に、3次元画像に含まれる部位に応じて、3次元画像を解析する解析アプリケーションを特定し、特定した解析アプリケーションのメニューのみを表示する。

Description

画像処理装置および方法並びにプログラム
本発明は、被検体を断層撮影することにより取得した複数の断層画像からなる3次元画像を処理する画像処理装置および方法並びに画像処理方法をコンピュータに実行させるためのプログラムに関するものである。
近年、医療画像の分野においては、X線撮影装置の他、X線CT(Computed
Tomography)装置、超音波(US)診断装置、MRI(Magnetic Resonance Imaging)装置、PET(Positron Emission Tomography)装置、およびSPET(Single-Photon Emission Tomography)装置等の様々な技術を用いたモダリティが利用されている。このようなモダリティの高速化およびマルチスライス対応といった高性能化に伴い、1つの撮影シリーズにおいて被検者の複数の部位の撮影を行い、数百から数千の高精細な断層画像を取得することが可能になってきている。しかしながら、すべての断層画像を1枚ずつ観察するには時間がかかり、また、断層画像のみから観察対象となる構造物(体表、骨、心臓、肺野および肝臓等の臓器および組織)の3次元形状を理解するには医師の熟練を要する。
このため、注目する構造物を認識し、注目する構造物を含む断層画像から、例えば最大値投影法(MIP法)および最小値投影法(MinIP法)等の方法を用いて断層画像を解析して、注目する構造物の3次元画像を作成してMIP表示等を行ったり、3次元画像のボリュームレンダリング(VR)表示を行ったりすることにより、構造物全体、さらには構造物に含まれる病変の視認性を向上させる各種技術が提案されている。
一方、このような解析を行うためには多種多様な解析アプリケーションが存在する。また、解析アプリケーションのみならず、3次元画像のVR表示を行った場合における陰影づけのパターンを変更するためのカラーテンプレート、画像処理アプリケーションおよび表示アプリケーション(以下解析アプリケーション等とする)についても多種多様なものが存在する。このため、画像の読影時において、解析アプリケーション等を選択するためのメニュー数が増大し、その結果、画像読影医および技師等のユーザにとって、メニューの選択に非常に手間がかかるものとなっている。
ここで、医用画像から解剖学的な特徴を表す指標値を算出し、算出された指標値に基づいて、撮影した被検体が成人、乳幼児、幼児および小児のいずれであるかを判定し、被検体に応じて撮影メニュー項目の中から選択されるべき最適な撮影メニュー項目を選択し、選択された撮影メニューのみを表示する手法が提案されている(特許文献1参照)。特許文献1に記載された手法によれば、医用画像を表示する際に、撮影した被検体にとって不要な撮影メニューが表示されなくなるため、撮影メニューを選択する際のユーザの負担を軽減することができる。
特許2007-185429号公報
ところで、上述したCT装置等のモダリティを用いて断層撮影を行う際には、1回の検査において1つの部位のみ(例えば胸部のみ、腹部のみ等)を撮影する場合のみならず、胸部から腹部あるいは頭部から胸部というように、複数の部位に亘って撮影を行う場合が多い。上述した解析アプリケーション等は部位毎に用意されているため、複数の部位に亘って撮影を行った場合、解析等のために複数の解析アプリケーション等が使用されることとなる。ここで、上記特許文献1に記載された手法においては、被検体に応じて最適な撮影メニューを選択することができるが、上述したように複数の部位に亘って断層画像が取得されている場合には適用することができない。
本発明は上記事情に鑑みなされたものであり、3次元画像を処理する際に使用するメニューを表示するに際し、とくに断層画像が複数の部位に亘って取得されている場合において、メニューを選択するユーザの負担を軽減することを目的とする。
本発明による画像処理装置は、被検体を断層撮影することにより取得した複数の断層画像からなる3次元画像を取得する画像取得手段と、
前記3次元画像に含まれる前記被検体の部位認識結果の情報を取得する部位情報取得手段と、
前記部位認識結果の情報に基づいて、前記3次元画像を表示する際に使用する複数のメニューから、部位に応じたメニューを特定するメニュー特定手段と、
前記特定されたメニューを表示手段に表示する表示制御手段とを備えたことを特徴とするものである。
「被検体」の具体例としては、人体が挙げられるが、他の動物等であってもよい。
「部位」とは、被検体が人体の場合、人体の体部を識別するものであり、具体例としては、頭部、頚部、胸部、腹部、骨盤部、脚部の他、前記各部のうち隣接する2つの部位の両方を含む複合部位、例えば頭頚部および胸腹部等が挙げられる。
なお、本発明による画像処理装置においては、前記部位情報取得手段を、前記3次元画像に含まれる前記被検体の部位を認識することにより、前記部位認識結果の情報を取得する手段としてもよい。
また、本発明による画像処理装置においては、前記複数の断層画像が軸位断画像であり、該複数の断層画像が頭部、頚部、胸部、腹部、骨盤部、脚部およびこれらの部位のうちの隣接する少なくとも2つの部位からなる複合部位の少なくとも1つを含むものであってもよい。
また、本発明による画像処理装置においては、前記メニューを前記3次元画像を解析するアプリケーションを選択するためのメニューとしてもよい。
また、本発明による画像処理装置においては、前記メニュー特定手段を、前記3次元画像を使用するユーザのユーザ情報にも応じて、前記メニューを特定する手段としてもよい。
また、本発明による画像処理装置においては、前記メニュー特定手段を、前記3次元画像を取得したモダリティの種類にも応じて、前記メニューを特定する手段としてもよい。
また、本発明による画像処理装置においては、前記表示制御手段を、前記複数のメニューのそれぞれの使用頻度に応じて、前記特定されたメニューの表示態様を変更する手段としてもよい。
また、本発明による画像処理装置においては、前記表示制御手段を、前記3次元画像に含まれる特定の部位を選択的に表示可能な手段とし、
前記メニュー特定手段を、表示されている前記3次元画像の部位にも応じて、前記メニューを特定する手段としてもよい。
本発明による画像処理方法は、コンピュータが、被検体を断層撮影することにより取得した複数の断層画像からなる3次元画像を取得し、
前記3次元画像に含まれる前記被検体の部位認識結果の情報を取得し、
前記部位認識結果の情報に基づいて、前記3次元画像を表示する際に使用する複数のメニューから、部位に応じたメニューを特定し、
前記特定されたメニューを表示手段に表示することを特徴とするものである。
なお、本発明による画像処理方法をコンピュータに実行させるためのプログラムとして提供してもよい。
本発明によれば、被検体を断層撮影することにより取得した複数の断層画像からなる3次元画像に含まれる被検体についての部位認識結果に基づいて、3次元画像を表示する際に使用する複数のメニューから部位に応じたメニューが特定され、特定されたメニューが表示される。このため、3次元画像の表示が指示された場合において、3次元画像に含まれる部位に応じたメニューのみを表示することができる。したがって、画像読影医および技師等のユーザは、3次元画像に含まれない部位についての不要なメニューを選択の対象とする必要がなくなるため、ユーザのメニュー選択時の負担を軽減することができる。
また、3次元画像を使用するユーザのユーザ情報にも応じてメニューを特定することにより、ユーザにとって使用頻度が高いメニューが表示されることとなるため、ユーザのメニュー選択時の負担をより軽減することができる。
また、3次元画像を取得したモダリティの種類にも応じてメニューを特定することにより、使用する可能性が高いメニューが表示されることとなるため、ユーザのメニュー選択時の負担をより軽減することができる。
また、特定されたメニューのうち、使用頻度が高いメニューほど選択されやすいように、特定されたメニューの表示態様を変更することにより、ユーザのメニュー選択時の負担をより軽減することができる。
また、3次元画像に含まれる特定の部位を選択的に表示可能とし、表示されている3次元画像の部位にも応じてメニューを特定することにより、ユーザのメニュー選択時の負担をより軽減することができる。
 
本発明の実施形態による画像処理装置を適用した医療情報システムの概略構成を示す図 第1の実施形態に使用されるテーブルの例を示す図 第1の実施形態において行われる処理を示すフローチャート 表示された検査リストを示す図 第1の実施形態において、解析アプリケーションのメニューをポップアップ表示した状態を示す図 第1の実施形態において、解析アプリケーションのメニューを一覧表示した状態を示す図 第1の実施形態において、解析アプリケーションのメニューを部位毎に一覧表示した状態を示す図(その1) 第1の実施形態において、解析アプリケーションのメニューを部位毎に一覧表示した状態を示す図(その2) 第2の実施形態に使用されるテーブルの例を示す図 第2の実施形態において、解析アプリケーションのメニューを一覧表示した状態を示す図 第3の実施形態に使用されるテーブルの例を示す図 第2の実施形態において、解析アプリケーションのメニューを一覧表示した状態を示す図 第2の実施形態において、解析アプリケーションのメニューを一覧表示した状態を示す図(その1) 第4の実施形態において、解析アプリケーションのメニューをポップアップ表示した状態を示す図 第4の実施形態において、解析アプリケーションのメニューを一覧表示した状態を示す図(その2) 第4の実施形態において、解析アプリケーションのメニューを一覧表示した状態を示す図(その3) 第5の実施形態に使用されるテーブルの例を示す図 第5の実施形態において行われる処理を示すフローチャート 第5の実施形態における表示画面を示す図(その1) 第5の実施形態における表示画面を示す図(その2)
以下、図面を参照して本発明の実施形態について説明する。図1は本発明の第1の実施形態による画像処理装置を適用した医療情報システムの概略構成を示す図である。図1に示すように第1の実施形態による医療情報システムは、医用画像の撮影装置(モダリティ)1、読影ワークステーション(WS)2、画像サーバ3、画像データベース4、および部位認識端末5が、ネットワーク10を介して互いに通信可能な状態で接続されて構成されている。なお、本実施形態における各機器は、CD-ROM等の記録媒体からインストールされたプログラムによって制御される。また、プログラムは、インターネット等のネットワーク経由で接続されたサーバからダウンロードされた後にインストールされたものであってもよい。
モダリティ1には、被検体の検査対象部位を撮影することにより、その部位を表す画像の画像データを生成し、その画像データに、検査情報および患者情報等の付帯情報を付加して出力する装置が含まれる。付帯情報は、DICOM規格等の標準化された規格およびそのモダリティ等のメーカー独自の規格に準拠したフォーマットのものである。モダリティ1の具体例としては、CT装置、MRI装置、PET装置、SPET装置および超音波撮影装置等が挙げられる。なお、本実施形態では、画像データは、CT装置において取得された被検体の検査対象部位を表す3次元画像の画像データであり、所定のスライス間隔およびスライス厚による軸位断画像(断層画像とする)の画像データの集合体として構成されるものとするが、これに限定されるものではない。また、図1においては、モダリティ1を1つのみ示しているが、複数種類のモダリティ1が接続されてなるものであってもよい。
読影ワークステーション2は、画像読影医および技師等のユーザが、画像の読影および読影レポートの作成に利用する装置であり、処理装置、1台または2台の高精細ディスプレイ、並びにキーボードおよびマウスあるいはタッチパネル等の入力機器により構成される。読影ワークステーション2は、画像サーバ3に対する画像の閲覧要求、画像サーバ3から受信した画像に対する各種画像処理、画像中の構造物および病変らしき部分の自動検出および強調表示を含む各種解析処理、画像の表示、読影レポートの作成の支援、読影レポートサーバ(図示なし)に対する読影レポートの登録要求および閲覧要求、並びに読影レポートサーバから受信した読影レポートの表示等を行う。
ここで、読影ワークステーション2には、ユーザが指示した各種解析処理を行うための解析アプリケーションがインストールされている。ここで、解析アプリケーションは、3次元画像に含まれる部位に応じて用意されている。本実施形態においては、読影ワークステーション2には、3次元画像に含まれる部位と、その部位の解析に使用する解析アプリケーションの種類とを対応づけたテーブルが記憶されている。図2は第1の実施形態に使用されるテーブルの例を示す図である。図2に示すように、テーブルT1には、部位と解析アプリケーションの種類とが対応づけられている。具体的には、頭部および頚部には脳血管抽出、胸部には肺解析、冠動脈解析、心機能解析および石灰化スコアが、胸腹部には肺解析および肝臓解析が、腹部には肝臓解析および大腸解析が、骨盤部には大腸解析の解析アプリケーションがそれぞれ対応づけられている。
読影ワークステーション2は、ユーザが画像の読影を行う際に、ユーザからの指示により、まず検査毎に付帯情報および後述する部位認識結果の情報を取得する。そして、取得した部位認識結果の情報に基づいてテーブルT1を参照して、3次元画像に含まれる部位に応じた解析アプリケーションを特定してディスプレイに表示する。特定された解析アプリケーションの表示については後述する。
ここで、3次元画像に部位が含まれる基準としては、3次元画像を構成する断層画像に1つでもある部位が含まれていればその部位が含まれるものとすればよい。また、体軸方向にある部位があらかじめ定められた距離(枚数×スライス間隔)以上含まれる場合に、その部位が含まれるものとしてもよい。例えば、頚部が10cm以上含まれる場合に、3次元画像には頚部が含まれると判断してもよい。この場合、頚部が5cmしか含まれない場合には、頚部の解析アプリケーションは特定されないこととなる。
画像サーバ3は、汎用の比較的処理能力の高いコンピュータにデータベース管理システム(DataBase Management System: DBMS)の機能を提供するソフトウェアプログラムがインストールされたものである。また、画像サーバ3は画像データベース4が構成される大容量ストレージを備えている。このストレージは、画像サーバ3とデータバスによって接続された大容量のハードディスク装置であってもよいし、ネットワーク10に接続されているNAS(Network Attached Storage)およびSAN(Storage Area Network)に接続されたディスク装置であってもよい。画像サーバ3も、モダリティ1および読影ワークステーション2等とネットワーク10を介して通信を行う通信インターフェースを有している。
画像サーバ3は、モダリティ1からの画像の登録要求を受け付けると、その画像をデータベース用のフォーマットに整えて画像データベース4に登録する。また、後述する部位認識端末5が取得した部位認識結果の情報を画像データベース4に登録する。
画像データベース4には、上述した3次元画像の画像データ、付帯情報、および後述する部位認識結果の情報が登録される。付帯情報には、例えば、個々の画像を識別するための画像ID、被検体を識別するための患者ID、検査を識別するための検査ID、画像毎に割り振られるユニークなID(UID)、その画像が生成された検査日、検査時刻、その画像を取得するための検査で使用されたモダリティの種類、患者氏名、年齢、性別等の患者情報、検査部位(撮影部位)、撮影情報(撮影プロトコル、撮影シーケンス、撮像手法、撮影条件、造影剤の使用等)、1回の検査で複数の画像を取得したときのシリーズ番号あるいは採取番号等の情報が含まれうる。
また、画像サーバ3は、読影ワークステーション2からの閲覧要求をネットワーク10経由で受信すると、上記画像データベース4に登録されている画像を検索し、検索により抽出された画像を要求元の読影ワークステーション2に送信する。
読影ワークステーション2は、画像読影医および技師等のユーザによって読影対象画像の閲覧を要求する操作が行われると、画像サーバ3に対して閲覧要求を送信し、読影に必要な画像を取得する。そして、その画像に対して、ユーザからの要求に応じて病変の自動検出処理等の解析処理を実行する。
部位認識端末5は、モダリティ1において取得された複数の断層画像から構成される3次元画像の画像データベース4への登録に先立って、あるいは登録後に、3次元画像に含まれる被検体の部位を認識する部位認識処理を行う。なお、部位認識端末5も、モダリティ1および読影ワークステーション2等とネットワーク10を介して通信を行う通信インターフェースを有している。また、部位認識端末5は、3次元画像の画像データベース4への登録が完了した旨の通知を画像サーバ3から受けることにより認識処理を開始する。なお、読影ワークステーション2からの指示により認識処理を開始するものとしてもよい。
以下、部位認識端末5が行う部位認識処理について説明する。部位認識処理としては、例えば特開平2008-259682号公報に記載された手法を用いることができる。特開平2008-259682号公報に記載された手法は、入力された複数の断層画像を正規化し、正規化された断層画像から多数の特徴量を算出し、正規化した断層画像毎に算出された特徴量を、AdaBoost手法によって得られた判別器に入力して、部位らしさを表す部位毎のスコアを算出し、算出された部位スコアを入力として、動的計画法を用いて、人体の体部の並び順が保たれるように各断層画像に表された部位を決定する手法である。また、カラーテンプレートマッチングによる方法(例えば特開2002-253539号公報参照)および、各部位の固有画像を用いた方法(例えば特開2003-10166号公報参照)等を用いることもできる。このように、部位は断層画像毎に認識され、断層画像毎に部位認識結果が取得される。
なお、部位認識端末5は、部位認識結果の情報を画像サーバ3に送信する。画像サーバ3は、受信した部位認識結果の情報を画像データベース4に登録し、読影ワークステーション2からの指示により、部位認識結果の情報を3次元画像とともに画像サーバ3から読影ワークステーション2に送信する。
次いで、第1の実施形態において行われる処理について説明する。図3は第1の実施形態において行われる処理を示すフローチャートである。なお、ここでは、部位認識結果の情報が画像データベース4に登録されており、画像読影医等のユーザが読影ワークステーション2に対して画像の読影の指示を行ってから、特定した解析アプリケーションのメニューを表示するまでの処理について説明する。ユーザが読影ワークステーション2に対して画像読影の指示を行うと、画像サーバ3が、登録されている3次元画像をその付帯情報および部位認識結果の情報とともに画像データベース4から読み出して読影ワークステーション2に送信する。
読影ワークステーション2は3次元画像、付帯情報および部位認識結果の情報を受信する(情報受信、ステップST1)。そして、受信した部位認識結果の情報に基づいて、上述したテーブルT1を参照して、3次元画像に含まれる部位に応じた解析アプリケーションを特定し(ステップST2)、付帯情報に基づいて検査リストをディスプレイに表示する(ステップST3)。
図4は表示された検査リストを示す図である。図4に示すように検査リストには、取得した3次元画像毎に、対応づけられた付帯情報に基づく患者名、患者IDおよび検査日時の情報が含まれている。読影ワークステーション2は、ユーザが検査リストから画像を右クリックすることにより選択したか否かの監視を開始し(ステップST4)、ステップST4が肯定されると、選択された画像について特定した解析アプリケーションに対応するメニューをポップアップ表示し(ステップST5)、処理を終了する。
図5は解析アプリケーションのメニューをポップアップ表示した状態を示す図である。図5に示すように、選択した画像についての部位認識結果が胸部であった場合、特定した解析アプリケーションは、肺解析、冠動脈解析、心機能解析および石灰化スコアとなるため、肺解析、冠動脈解析、心機能解析および石灰化スコアの解析アプリケーションのメニューがポップアップ表示される。ユーザは所望とするメニューを選択することにより、選択したメニューに対応する解析アプリケーションを、読影ワークステーション2に実行させることができる。
なお、検査リスト上において画像を選択した後に、特定した解析アプリケーションの選択画面を表示し、選択した画像について特定した解析アプリケーションのメニューを選択画面において一覧表示してもよい。図6は第1の実施形態において、解析アプリケーションのメニューを一覧表示した状態を示す図である。図6に示すように、選択した画像についての部位認識結果が胸部および腹部であった場合、特定した解析アプリケーションは、肺解析、冠動脈解析、心機能解析、石灰化スコア、肝臓解析および大腸解析となるため、肺解析、冠動脈解析、心機能解析、石灰化スコア、肝臓解析および大腸解析の解析アプリケーションのメニューが選択画面に一覧表示される。ユーザは所望とするメニューを選択することにより、選択したメニューに対応する解析アプリケーションを、読影ワークステーション2に実行させることができる。
また、解析アプリケーションの一覧表示に代えて部位毎に解析アプリケーションを一覧表示してもよい。例えば、選択した画像についての部位認識結果が胸部および腹部であった場合、図7に示すようにタブを用いて胸部および腹部を選択できるようにし、選択した部位に応じた解析アプリケーションのメニューのみを表示してもよい。すなわち、図7に示すように胸部のタブが選択された場合は、肺解析、冠動脈解析、心機能解析および石灰化スコアのメニューを表示し、図8に示すように腹部のタブが選択された場合には、肝臓解析および大腸解析のメニューを表示するようにすればよい。なお、3次元画像において体軸方向に最も長い部位を先に表示するようにすることが好ましい。
このように、第1の実施形態においては、3次元画像の部位認識結果に基づいて、3次元画像を表示する際に使用する複数の解析アプリケーションから、部位に応じた解析アプリケーションを特定するようにしたため、画像の表示が指示された場合において、特定された解析アプリケーションのメニューのみを表示することにより、ユーザは3次元画像に含まれる部位に応じたメニューのみを選択できることとなる。したがって、画像読影医等のユーザは、3次元画像に含まれない部位についての不要なメニューを選択の対象とする必要がなくなるため、ユーザのメニュー選択時の負担を軽減することができる。
なお、上記実施形態においては、部位認識端末5において部位認識処理を行っているが、読影ワークステーション2において部位認識処理を行うようにしてもよい。
次いで、本発明の第2の実施形態について説明する。なお、第2の実施形態およびこれ以降の実施形態による画像処理装置を適用した医療情報システムは、第1の実施形態による画像処理装置を適用した医療情報システムと同一の構成を有し、行われる処理のみが異なるため、以降は構成についての詳細な説明は省略する。
ここで、本実施形態による医療情報システムのユーザは、画像読影医および技師等であり、ユーザが所属する臨床科毎に使用する解析アプリケーションはほぼ決まっている。例えば、同じ胸部の3次元画像についても、循環器科の画像読影医は心臓関連の解析アプリケーションを使用することが多く、呼吸器科の画像読影医は肺関連の解析アプリケーションを使用することが多い。このため、第2の実施形態においては、ユーザ情報にも基づいて解析アプリケーションを特定するようにした点が第1の実施形態と異なる。なお、ユーザ情報とは、循環器科、呼吸器科、消化器科および脳外科等の臨床科を特定する情報のみならず、画像読影医または技師を特定するユーザIDまたは読影ワークステーション2のID等、ユーザを特定することが可能な任意の情報を用いることができる。
ここで、第2の実施形態においては、読影ワークステーション2には、3次元画像に含まれる部位と、その部位の解析に使用する解析アプリケーションの種類とを、ユーザ情報毎に対応づけたテーブルが記憶されている。図9は第2の実施形態に使用されるテーブルの例を示す図である。図9に示すように、テーブルT2には、胸部と解析アプリケーションの種類とが臨床科毎に対応づけられている。具体的には、胸部に循環器科および呼吸器科が対応づけられ、循環器科には冠動脈解析、心機能解析および石灰化スコアが、呼吸器科には肺解析の解析アプリケーションがそれぞれ対応づけられている。なお、図9に示すようなテーブルT2を使用する場合、ユーザは読影ワークステーション2において、臨床科名をユーザ情報として入力する。また、第2の実施形態において使用されるテーブルT2において、ユーザ情報に応じて使用する解析アプリケーションの種類を編集できるようにしてもよい。
図10は第2の実施形態において、解析アプリケーションのメニューを一覧表示した状態を示す図である。ユーザが図4に示す検査リストにおいて選択した画像についての部位認識結果が胸部であった場合、特定した解析アプリケーションは、肺解析、冠動脈解析、心機能解析および石灰化スコアとなるため、ユーザ情報が循環器科の場合には、図10の画面20に示すように、冠動脈解析、心機能解析および石灰化スコアの解析アプリケーションのメニューが選択画面に一覧表示される。一方、ユーザ情報が呼吸器科の場合には、図10の画面21に示すように、肺解析の解析アプリケーションのメニューが選択画面に一覧表示される。ユーザは所望とするメニューを選択することにより、選択したメニューに対応する解析アプリケーションを、読影ワークステーション2に実行させることができる。
このように、第2の実施形態においては、部位認識結果に加えて、ユーザ情報にも基づいて解析アプリケーションを特定するようにしたものである。このため、画像の表示が指示された場合において、ユーザの使用頻度が高い解析アプリケーションのメニューが表示されることとなり、その結果、ユーザのメニュー選択時の負担をより軽減することができる。
次いで、本発明の第3の実施形態について説明する。上述したように、モダリティ1には、CT装置、MRI装置、PET装置、SPET装置および超音波撮影装置等の種々の装置があり、モダリティ1の種類によって、実行可能な解析アプリケーションが異なるものとなる。第3の実施形態においては、とくに医療情報システムが複数のモダリティ1を有する場合、付帯情報に含まれるモダリティ1の種類にも応じて、解析アプリケーションを特定するようにした点が第1の実施形態と異なる。
ここで、第3の実施形態においては、読影ワークステーション2には、3次元画像に含まれる部位と、その部位の解析に使用する解析アプリケーションの種類とを、3次元画像を取得したモダリティ1の種類毎に対応づけたテーブルが記憶されている。図11は第3の実施形態に使用されるテーブルの例を示す図である。図11に示すように、テーブルT3には、胸部と解析アプリケーションの種類とがモダリティ1の種類毎に対応づけられている。具体的には、胸部にCT装置およびMR装置が対応づけられ、CT装置には、冠動脈解析、心機能解析および石灰化スコアが、MR装置には、心機能解析および遅延造影解析の解析アプリケーションがそれぞれ対応づけられている。
図12は第3の実施形態において、解析アプリケーションのメニューを一覧表示した状態を示す図である。図12に示すように、ユーザが図4に示す検査リストにおいて選択した画像についての部位認識結果が胸部であった場合において、3次元画像を取得したモダリティ1がCT装置である場合、特定した解析アプリケーションは、肺解析、冠動脈解析、心機能解析および石灰化スコアとなるため、図12の画面22に示すように、冠動脈解析、心機能解析および石灰化スコアの解析アプリケーションのメニューが選択画面に一覧表示される。一方、3次元画像を取得したモダリティ1がMR装置である場合には、図12の画面23に示すように、心機能解析および遅延造影解析の解析アプリケーションのメニューが選択画面に一覧表示される。ユーザは所望とするメニューを選択することにより、選択したメニューに対応する解析アプリケーションを、読影ワークステーション2に実行させることができる。
このように、第3の実施形態においては、部位認識結果に加えて、3次元画像を取得したモダリティ1の種類にも基づいて解析アプリケーションを特定するようにしたものである。このため、画像の表示が指示された場合において、表示された3次元画像に対して行う可能性が高い解析アプリケーションが表示されることとなり、その結果、ユーザのメニュー選択時の負担をより軽減することができる。
次いで、本発明の第4の実施形態について説明する。第4の実施形態においては、読影ワークステーション2において、解析アプリケーションの使用回数のログを記録するようにし、ユーザが読影ワークステーション2において画像読影の指示を行うと、読影ワークステーション2が、3次元画像に含まれる部位に応じた解析アプリケーションを特定し、さらに解析アプリケーションのメニューを表示する際に、使用頻度が高い解析アプリケーションを選択しやすいように、メニューの表示態様を変更するようにした点が第1の実施形態と異なる。
図13は第4の実施形態において、解析アプリケーションのメニューを一覧表示した状態を示す図である。なお、以降の説明においては、部位認識結果の情報に基づいて、冠動脈解析、心機能解析および石灰化スコアの解析アプリケーションが特定され、解析アプリケーションの使用頻度が、冠動脈解析、心機能解析および石灰化スコアの順であったものとする。この場合、図13の画面24に示すように、冠動脈解析、心機能解析および石灰化スコアの解析アプリケーションのメニューが上からこの順序にて一覧表示される。なお、解析アプリケーションのメニューをポップアップ表示する場合は、図14に示すように、冠動脈解析、心機能解析および石灰化スコアの解析アプリケーションのメニューが、上からこの順序にてポップアップ表示される。
また、図15の画面25に示すように、使用頻度が高い解析アプリケーションのメニューほどサイズを大きくして表示してもよい。また、図16の画面26に示すように、解析アプリケーションのメニューの一覧を表示したときに、最も使用頻度が高い冠動脈解析のアイコンを選択状態にしておいてもよい。なお、図16においてはメニューに斜線を付与することにより、選択した状態を示している。これにより、ユーザは読影ワークステーション2において、キーボード等の入力機器の実行キーを押下するのみで、最も使用頻度が高い解析アプリケーションを実行することができる。
このように、第4の実施形態においては、特定された解析アプリケーションのうち、使用頻度が高い解析アプリケーションが選択しやすくなるように、解析アプリケーションのメニューの表示態様を変更するようにしたため、ユーザのメニュー選択時の負担をより軽減することができる。
なお、上記第3の実施形態において、とくに同一患者の3次元画像として、読影ワークステーション2にCT装置が取得した3次元画像と、SPET装置が取得した3次元画像とが送信された場合において、部位認識結果が胸部であり、さらに表示される画像としてCT装置が取得した3次元画像が選択された場合、3次元画像は肺の診断を目的としたものではなく、心機能の診断を目的としたものとなる。したがって、このような場合には、使用する可能性が高い心機能解析の解析アプリケーションが選択しやすくなるように、解析アプリケーションのメニューの表示態様を変更するようにしてもよい。
次いで、本発明の第5の実施形態について説明する。ここで、上述したMIP表示およびVR表示等により3次元画像を表示する場合、骨、肉、臓器等を部位に応じて陰影づけのパターンを変更することにより、診断を行いやすくすることができる。第5の実施形態においては、部位認識結果に応じて、3次元画像の陰影づけのパターンを変更するための複数のカラーテンプレートから、部位認識結果に応じたカラーテンプレートを特定し、特定されたカラーテンプレートのみが選択されるように、特定されたカラーテンプレートを選択するためのメニューを一覧表示するようにした点が第1の実施形態と異なる。
なお、読影ワークステーション2には、3次元画像に含まれる部位と、その部位を3次元表示した際に使用するカラーテンプレートの種類とを対応づけたテーブルが記憶されている。図17は第5の実施形態に使用されるテーブルの例を示す図である。図17に示すように、テーブルT4には、部位とカラーテンプレートの種類とが対応づけられている。具体的には、頭部にはカラーテンプレートP1~P5、頚部にはカラーテンプレートP6~P10、胸部にはカラーテンプレートP11~P20、胸腹部にはカラーテンプレートP21~P25、腹部にはカラーテンプレートP26~P30、骨盤部にはカラーテンプレート31~P35がそれぞれ対応づけられている。
第5の実施形態においては、読影ワークステーション2は、ユーザが画像読影を行う際に、ユーザからの指示により、まず検査毎に付帯情報および部位認識結果の情報を取得する。そして、部位認識結果の情報に基づいてテーブルT4を参照して、3次元画像に含まれる部位に応じたカラーテンプレートを特定してディスプレイに表示する。
次いで、第5の実施形態において行われる処理について説明する。図18は第5の実施形態において行われる処理を示すフローチャートである。なお、ここでは、部位認識結果の情報が画像データベース4に登録されており、画像読影医等のユーザが読影ワークステーション2に対して画像の読影の指示を行ってから、特定したカラーテンプレートを表示するまでの処理について説明する。ユーザが読影ワークステーション2に対して画像読影の指示を行うと、画像サーバ3が、登録されている3次元画像をその付帯情報および部位認識結果の情報とともに画像データベース4から読み出して読影ワークステーション2に送信する。
読影ワークステーション2は3次元画像、付帯情報および部位認識結果の情報を受信する(情報受信、ステップST11)。そして、受信した部位認識結果の情報に基づいて、上述したテーブルT4を参照して、3次元画像に含まれる部位に応じたカラーテンプレートを特定する(ステップST12)。次いで、3次元画像とともに特定したカラーテンプレートのメニューを表示し(ステップST13)、処理を終了する。
図19は第5の実施形態における表示画面を示す図である。図19に示すように画面30には、VR画像31およびカラーテンプレート表示領域32が表示される。カラーテンプレート表示領域32には、特定された複数のカラーテンプレートのメニューが表示されている。例えば、VR画像31が胸部の画像である場合、特定される部位は胸部であるため、テーブルT4を参照することにより、カラーテンプレートP11~P20がカラーテンプレート表示領域32に表示されることとなる。なお、図19においては表示されているカラーテンプレートのメニューを矩形のアイコンにて示しているが、各メニューには、特定する部位および部位の陰影の状態等が、ユーザに認識可能なように表示されている。ユーザは画面30において、所望とするカラーテンプレートを選択することにより、VR画像31に所望とする陰影を付与することができる。
このように、第5の実施形態においては、部位認識結果に応じて3次元画像を表示する際に使用するカラーテンプレートを特定するようにしたため、画像の表示が指示された場合において、表示された3次元画像においてのみ使用されるカラーテンプレートが表示されることとなり、その結果、ユーザのカラーテンプレート選択時の負担をより軽減することができる。
なお、上記第5の実施形態においては、使用可能なカラーテンプレートをすべて表示し、特定されたカラーテンプレート以外のカラーテンプレートの濃度を低くする等して、特定されたカラーテンプレートのみを選択しやすくするようにしてもよい。
また、上記第5の実施形態において、使用されたカラーテンプレートの使用回数のログを読影ワークステーション2に記録しておき、3次元画像の表示時に、使用頻度が高いカラーテンプレートを選択しやすいように、カラーテンプレートのメニューの表示態様を変更してもよい。例えば、使用頻度が所定のしきい値以上のカラーテンプレートのメニューのみを表示したり、使用頻度の順にカラーテンプレートのメニューを並べ替えて表示したり、使用頻度が高いカラーテンプレートほど、メニューのサイズを大きくしたりしてもよい。
なお、読影ワークステーション2には、解析アプリケーションのみならず、画像処理アプリケーションおよび表示アプリケーション等の画像の読影に必要な他のアプリケーションがインストールされている。このため、読影ワークステーション2において、部位に応じて表示するメニューとしては、解析アプリケーションおよびカラーテンプレートの種類に限定されるものではなく、読影ワークステーション2にインストールされた画像処理アプリケーションおよび表示アプリケーション等を実行させるための他のメニューを用いることも可能である。例えば、表示する3次元画像の部位が胸部の場合、肺野抽出、気管支抽出および心臓抽出等の画像処理アプリケーションを実行する場合が多い。このため、図20の画面40に示すように、例えば胸部のアキシャル画像41を表示する場合には、肺野抽出、気管支抽出および心臓抽出の画像処理アプリケーションのメニューのみをメニュー表示領域42に表示するようにしてもよい。
また、上記各実施形態においては、部位認識結果に応じてメニューを特定しているが、表示された画像において着目している部位を認識し、その部位認識結果に応じてメニューを特定するようにしてもよい。例えば、胸部の画像においては、読影ワークステーション2の入力機器の操作により、胸部の切り口を開いていき、皮膚の表面からその奥に存在する肺野や心臓に着目しやすくなるように、3次元画像の表示態様を変更することができる。具体的には、入力機器がタッチパネルの場合、タッチパネルに触れて指を広げる動作を行うことにより、切り口を開いていくように画像を表示して、皮膚よりも奥に存在する肺野および心臓に着目できるように表示態様を変更することができる。このような場合、読影ワークステーション2において着目する部位を認識し、その部位認識結果に応じてメニューを特定し、特定されたメニューを表示するようにしてもよい。
また、3次元画像の表示態様としては、VR、MIP、MinIP表示等があるが、部位認識結果に応じてこれらの表示アプリケーションのメニューの表示態様を変更するようにしてもよい。すなわち、部位に応じて使用される表示アプリケーションが異なるため、表示する部位において使用する可能性が高い表示アプリケーションのメニューを選択しやすいようにメニューの表示態様を変更すればよい。例えば、MinIP表示は肺野を観察するために使用されることが多いため、胸部および胸腹部の画像が表示される場合には、部位認識結果に応じて、MinIP表示を行うためのメニューを選択しやすいように表示すればよい。また、胸部の画像に対して骨除去処理を実行した場合には、MIP表示する可能性が高いため、画像に対して施した画像処理の結果も考慮して表示アプリケーションのメニューを選択しやすいように表示メニューの表示態様を変更するようにしてもよい。
なお、読影ワークステーション2の入力機器として、画面上の複数位置において入力が可能なマルチタッチパネルを採用する場合がある。このような場合においても、部位認識結果に応じてメニューを特定することが可能であることはもちろんである。

Claims (10)

  1. 被検体を断層撮影することにより取得した複数の断層画像からなる3次元画像を取得する画像取得手段と、
    前記3次元画像に含まれる前記被検体の部位認識結果の情報を取得する部位情報取得手段と、
    前記部位認識結果の情報に基づいて、前記3次元画像を表示する際に使用する複数のメニューから、部位に応じたメニューを特定するメニュー特定手段と、
    前記特定されたメニューを表示手段に表示する表示制御手段とを備えたことを特徴とする請求項1記載の画像処理装置。
  2. 前記部位情報取得手段は、前記3次元画像に含まれる前記被検体の部位を認識することにより、前記部位認識結果の情報を取得する手段であることを特徴とする請求項1記載の画像処理装置。
  3. 前記複数の断層画像が軸位断画像であり、該複数の断層画像が頭部、頚部、胸部、腹部、骨盤部、脚部およびこれらの部位のうちの隣接する少なくとも2つの部位からなる複合部位の少なくとも1つを含むことを特徴とする請求項1または2記載の画像処理装置。
  4. 前記メニューは、前記3次元画像を解析するアプリケーションを選択するためのメニューであることを特徴する請求項1から3のいずれか1項記載の画像処理装置。
  5. 前記メニュー特定手段は、前記3次元画像を使用するユーザのユーザ情報にも応じて、前記メニューを特定する手段であることを特徴とする請求項1から4のいずれか1項記載の画像処理装置。
  6. 前記メニュー特定手段は、前記3次元画像を取得したモダリティの種類にも応じて、前記メニューを特定する手段であることを特徴とする請求項1から5のいずれか1項記載の画像処理装置。
  7. 前記表示制御手段は、前記特定されたメニューのうち、使用頻度が高いメニューほど選択されやすいように、前記特定されたメニューの表示態様を変更する手段であることを特徴とする請求項1から6のいずれか1項記載の画像処理装置。
  8. 前記表示制御手段は、前記3次元画像に含まれる特定の部位を選択的に表示可能な手段であり、
    前記メニュー特定手段は、表示されている前記3次元画像の部位にも応じて、前記メニューを特定する手段であることを特徴とする請求項1から7のいずれか1項記載の画像処理装置。
  9. コンピュータが、被検体を断層撮影することにより取得した複数の断層画像からなる3次元画像を取得し、
    前記3次元画像に含まれる前記被検体の部位認識結果の情報を取得し、
    前記部位認識結果の情報に基づいて、前記3次元画像を表示する際に使用する複数のメニューから、部位に応じたメニューを特定し、
    前記特定されたメニューを表示手段に表示することを特徴とするコンピュータによる画像処理方法。
  10. コンピュータに、被検体を断層撮影することにより取得した複数の断層画像からなる3次元画像を取得する手順と、
    前記3次元画像に含まれる前記被検体の部位認識結果の情報を取得する手順と、
    前記部位認識結果の情報に基づいて、前記3次元画像を表示する際に使用する複数のメニューから、部位に応じたメニューを特定する手順と、
    前記特定されたメニューを表示手段に表示する手順とを実行させることを特徴とする画像処理プログラム。
PCT/JP2010/002306 2009-03-31 2010-03-30 画像処理装置および方法並びにプログラム WO2010113479A1 (ja)

Priority Applications (8)

Application Number Priority Date Filing Date Title
JP2010522886A JP4596437B2 (ja) 2009-03-31 2010-03-30 画像処理装置および方法並びにプログラム
CA2733519A CA2733519A1 (en) 2009-03-31 2010-03-30 Image processing device and method, as well as program
CN2010800027521A CN102164543B (zh) 2009-03-31 2010-03-30 图像处理装置和方法、以及程序
AU2010231365A AU2010231365A1 (en) 2009-03-31 2010-03-30 Image processing apparatus and method and program
BR122013007310A BR122013007310A2 (pt) 2009-03-31 2010-03-30 dispositivo, método e programa de processamento de imagem
EP10758259A EP2316341B1 (en) 2009-03-31 2010-03-30 Image processing apparatus and method and program
BRPI1004218A BRPI1004218A2 (pt) 2009-03-31 2010-03-30 dispositivo e método de processamento de imagem, e programa
US12/737,702 US9144407B2 (en) 2009-03-31 2010-03-30 Image processing device and method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009083931 2009-03-31
JP2009-083931 2009-03-31

Publications (1)

Publication Number Publication Date
WO2010113479A1 true WO2010113479A1 (ja) 2010-10-07

Family

ID=42827789

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/002306 WO2010113479A1 (ja) 2009-03-31 2010-03-30 画像処理装置および方法並びにプログラム

Country Status (8)

Country Link
US (1) US9144407B2 (ja)
EP (2) EP2316341B1 (ja)
JP (3) JP4596437B2 (ja)
CN (1) CN102164543B (ja)
AU (1) AU2010231365A1 (ja)
BR (2) BRPI1004218A2 (ja)
CA (1) CA2733519A1 (ja)
WO (1) WO2010113479A1 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2011037063A1 (ja) * 2009-09-24 2013-02-21 株式会社日立メディコ 投影像生成方法および磁気共鳴イメージング装置
CN103140160A (zh) * 2011-03-30 2013-06-05 奥林巴斯医疗株式会社 图像管理装置、方法、程序以及胶囊型内窥镜系统
JP2013121448A (ja) * 2011-12-12 2013-06-20 Nemoto Kyorindo:Kk 医用画像処理システム
JP2013121449A (ja) * 2011-12-12 2013-06-20 Nemoto Kyorindo:Kk 医療用画像処理システム
JP2013121450A (ja) * 2011-12-12 2013-06-20 Nemoto Kyorindo:Kk 医用画像処理ネットワークシステム
JP2015114691A (ja) * 2013-12-09 2015-06-22 株式会社東芝 医療情報システム及び医療情報提供方法
JP2017205217A (ja) * 2016-05-17 2017-11-24 東芝メディカルシステムズ株式会社 医用画像診断装置、医用画像処理装置および画像表示プログラム
JP2018502631A (ja) * 2014-12-16 2018-02-01 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 自動放射線読み取りセッション検出
JP2018057695A (ja) * 2016-10-07 2018-04-12 キヤノン株式会社 画像表示システム、画像表示方法、及びプログラム
WO2019138773A1 (ja) * 2018-01-10 2019-07-18 富士フイルム株式会社 医療画像処理装置、内視鏡システム、医療画像処理方法及びプログラム

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102164543B (zh) * 2009-03-31 2013-03-20 富士胶片株式会社 图像处理装置和方法、以及程序
US8904517B2 (en) 2011-06-28 2014-12-02 International Business Machines Corporation System and method for contexually interpreting image sequences
JP5972609B2 (ja) * 2012-03-05 2016-08-17 東芝メディカルシステムズ株式会社 管理オブジェクト生成装置および画像表示システム
CN104185834B (zh) * 2012-03-28 2017-05-17 宇龙计算机通信科技(深圳)有限公司 操作对象的纠错方法及通信终端
JP6143425B2 (ja) * 2012-06-11 2017-06-07 東芝メディカルシステムズ株式会社 X線診断装置
JP6479678B2 (ja) * 2012-12-21 2019-03-06 ボルケーノ コーポレイション マルチセンサ医療デバイスのための表示制御
JP2015085182A (ja) * 2013-09-26 2015-05-07 株式会社東芝 医用画像診断装置、医用画像表示装置、および医用画像表示方法
JP6266310B2 (ja) * 2013-11-08 2018-01-24 東芝メディカルシステムズ株式会社 医用情報処理装置
JP6289064B2 (ja) * 2013-12-09 2018-03-07 キヤノンメディカルシステムズ株式会社 医療情報システム及び推奨アプリケーションの検索方法
EP3073401A1 (en) * 2015-03-27 2016-09-28 Fujifilm Corporation Failed image management apparatus, operation method of failed image management apparatus, and failed image management system
DE112016003634T5 (de) * 2015-09-09 2018-04-26 Fujifilm Corporation Zuordnungsbild-anzeigesteuervorrichtung, -verfahren und -programm
JP6378715B2 (ja) * 2016-04-21 2018-08-22 ゼネラル・エレクトリック・カンパニイ 血管検出装置、磁気共鳴イメージング装置、およびプログラム
CN107404577B (zh) * 2017-07-20 2019-05-17 维沃移动通信有限公司 一种图像处理方法、移动终端及计算机可读存储介质
WO2020158100A1 (ja) * 2019-01-30 2020-08-06 富士フイルム株式会社 医用画像解析装置、方法およびプログラム
JP7272149B2 (ja) * 2019-07-08 2023-05-12 コニカミノルタ株式会社 選択支援システム及びプログラム
JP7236974B2 (ja) * 2019-10-03 2023-03-10 富士フイルム株式会社 診療支援装置、診療支援方法、及び診療支援プログラム
KR20240041355A (ko) * 2021-07-28 2024-03-29 아트리아 리미티드 관상동맥질환 분석 시스템

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002253539A (ja) 2001-03-05 2002-09-10 Nippon Telegr & Teleph Corp <Ntt> 医用画像識別システム,医用画像識別処理方法,医用画像識別用プログラムおよびその記録媒体
JP2003010166A (ja) 2001-04-25 2003-01-14 Fuji Photo Film Co Ltd 画像処理方法および装置並びにプログラム
JP2003284705A (ja) * 2002-03-27 2003-10-07 Konica Corp 医用画像処理装置、画像処理パラメータの設定方法、プログラム、記憶媒体
JP2005034473A (ja) * 2003-07-17 2005-02-10 Hitachi Medical Corp 異常陰影検出装置
JP2006061278A (ja) * 2004-08-25 2006-03-09 Konica Minolta Medical & Graphic Inc 医用画像表示装置
JP2007185429A (ja) 2006-01-16 2007-07-26 Fujifilm Corp 画像再生装置およびそのプログラム
JP2008253681A (ja) * 2007-04-09 2008-10-23 Toshiba Corp 医用支援システム、及び医用支援プログラム
JP2008259682A (ja) 2007-04-12 2008-10-30 Fujifilm Corp 部位認識結果修正装置、方法、およびプログラム
JP2008259710A (ja) * 2007-04-12 2008-10-30 Fujifilm Corp 画像処理方法および装置ならびにプログラム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0443957A (ja) * 1990-06-11 1992-02-13 Hitachi Ltd 超音波撮像方式
JP4260938B2 (ja) * 1998-10-23 2009-04-30 株式会社東芝 3次元超音波診断装置
US6608650B1 (en) * 1998-12-01 2003-08-19 Flashpoint Technology, Inc. Interactive assistant process for aiding a user in camera setup and operation
US7775977B2 (en) * 2002-09-27 2010-08-17 Olympus Corporation Ultrasonic tomographic diagnostic apparatus
EP1554695A2 (en) * 2002-10-16 2005-07-20 Koninklijke Philips Electronics N.V. Hierarchical image segmentation
US20040100505A1 (en) * 2002-11-21 2004-05-27 Cazier Robert Paul System for and method of prioritizing menu information
US20060064321A1 (en) * 2004-08-25 2006-03-23 Konica Minolta Medical & Graphic, Inc. Medical image management system
JP4709600B2 (ja) * 2005-07-15 2011-06-22 株式会社東芝 X線診断装置、撮影角度最適化支援装置及びプログラム
CN2868194Y (zh) * 2005-11-02 2007-02-14 华南理工大学 X光图像的乳腺病症特征自动识别装置
CN1965752A (zh) * 2005-11-15 2007-05-23 乐金电子(沈阳)有限公司 具有检测功能的图像显示装置及其控制方法
JP4855141B2 (ja) * 2006-05-19 2012-01-18 富士フイルム株式会社 医用画像部位認識装置、及び、医用画像部位認識プログラム
US8295568B2 (en) * 2006-06-30 2012-10-23 Fujifilm Corporation Medical image display processing apparatus and medical image display processing program
CN200984178Y (zh) * 2006-08-31 2007-12-05 深圳市国基科技有限公司 数字乳腺多功能影像系统
US8081811B2 (en) * 2007-04-12 2011-12-20 Fujifilm Corporation Method, apparatus, and program for judging image recognition results, and computer readable medium having the program stored therein
CN102164543B (zh) * 2009-03-31 2013-03-20 富士胶片株式会社 图像处理装置和方法、以及程序

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002253539A (ja) 2001-03-05 2002-09-10 Nippon Telegr & Teleph Corp <Ntt> 医用画像識別システム,医用画像識別処理方法,医用画像識別用プログラムおよびその記録媒体
JP2003010166A (ja) 2001-04-25 2003-01-14 Fuji Photo Film Co Ltd 画像処理方法および装置並びにプログラム
JP2003284705A (ja) * 2002-03-27 2003-10-07 Konica Corp 医用画像処理装置、画像処理パラメータの設定方法、プログラム、記憶媒体
JP2005034473A (ja) * 2003-07-17 2005-02-10 Hitachi Medical Corp 異常陰影検出装置
JP2006061278A (ja) * 2004-08-25 2006-03-09 Konica Minolta Medical & Graphic Inc 医用画像表示装置
JP2007185429A (ja) 2006-01-16 2007-07-26 Fujifilm Corp 画像再生装置およびそのプログラム
JP2008253681A (ja) * 2007-04-09 2008-10-23 Toshiba Corp 医用支援システム、及び医用支援プログラム
JP2008259682A (ja) 2007-04-12 2008-10-30 Fujifilm Corp 部位認識結果修正装置、方法、およびプログラム
JP2008259710A (ja) * 2007-04-12 2008-10-30 Fujifilm Corp 画像処理方法および装置ならびにプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2316341A4 *

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2011037063A1 (ja) * 2009-09-24 2013-02-21 株式会社日立メディコ 投影像生成方法および磁気共鳴イメージング装置
JP5738193B2 (ja) * 2009-09-24 2015-06-17 株式会社日立メディコ 投影像生成方法および磁気共鳴イメージング装置
CN103140160A (zh) * 2011-03-30 2013-06-05 奥林巴斯医疗株式会社 图像管理装置、方法、程序以及胶囊型内窥镜系统
US8918740B2 (en) 2011-03-30 2014-12-23 Olympus Medical Systems Corp. Image management apparatus, method, and computer-readable recording medium and capsule endoscope system
CN103140160B (zh) * 2011-03-30 2015-06-17 奥林巴斯医疗株式会社 图像管理装置、图像管理装置的工作方法以及胶囊型内窥镜系统
JP2013121448A (ja) * 2011-12-12 2013-06-20 Nemoto Kyorindo:Kk 医用画像処理システム
JP2013121449A (ja) * 2011-12-12 2013-06-20 Nemoto Kyorindo:Kk 医療用画像処理システム
JP2013121450A (ja) * 2011-12-12 2013-06-20 Nemoto Kyorindo:Kk 医用画像処理ネットワークシステム
JP2015114691A (ja) * 2013-12-09 2015-06-22 株式会社東芝 医療情報システム及び医療情報提供方法
JP2018502631A (ja) * 2014-12-16 2018-02-01 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 自動放射線読み取りセッション検出
JP2017205217A (ja) * 2016-05-17 2017-11-24 東芝メディカルシステムズ株式会社 医用画像診断装置、医用画像処理装置および画像表示プログラム
JP2018057695A (ja) * 2016-10-07 2018-04-12 キヤノン株式会社 画像表示システム、画像表示方法、及びプログラム
US10997762B2 (en) 2016-10-07 2021-05-04 Canon Kabushiki Kaisha Image display system, image display method, and program
WO2019138773A1 (ja) * 2018-01-10 2019-07-18 富士フイルム株式会社 医療画像処理装置、内視鏡システム、医療画像処理方法及びプログラム
JPWO2019138773A1 (ja) * 2018-01-10 2020-12-10 富士フイルム株式会社 医療画像処理装置、内視鏡システム、医療画像処理方法及びプログラム
US11526986B2 (en) 2018-01-10 2022-12-13 Fujifilm Corporation Medical image processing device, endoscope system, medical image processing method, and program

Also Published As

Publication number Publication date
JP2011011069A (ja) 2011-01-20
US20110131528A1 (en) 2011-06-02
EP2316341B1 (en) 2013-03-06
JP4694651B2 (ja) 2011-06-08
JPWO2010113479A1 (ja) 2012-10-04
JP4596437B2 (ja) 2010-12-08
CN102164543B (zh) 2013-03-20
CN102164543A (zh) 2011-08-24
AU2010231365A1 (en) 2010-10-07
JP4634539B2 (ja) 2011-02-16
BRPI1004218A2 (pt) 2016-02-23
JP2011025056A (ja) 2011-02-10
EP2316341A4 (en) 2011-09-14
EP2583626B1 (en) 2015-03-18
BR122013007310A2 (pt) 2016-03-22
US9144407B2 (en) 2015-09-29
EP2316341A1 (en) 2011-05-04
EP2583626A1 (en) 2013-04-24
CA2733519A1 (en) 2010-10-07

Similar Documents

Publication Publication Date Title
JP4634539B2 (ja) 画像処理装置および方法並びにプログラム
US8837794B2 (en) Medical image display apparatus, medical image display method, and medical image display program
JP6422486B2 (ja) 高度医用画像処理ウィザード
JP4818846B2 (ja) 医用画像処理装置及び医用画像処理プログラム
US8744149B2 (en) Medical image processing apparatus and method and computer-readable recording medium for image data from multiple viewpoints
US8630467B2 (en) Diagnosis assisting system using three dimensional image data, computer readable recording medium having a related diagnosis assisting program recorded thereon, and related diagnosis assisting method
JP4786246B2 (ja) 画像処理装置及び画像処理システム
US20190051215A1 (en) Training and testing system for advanced image processing
US20120299818A1 (en) Medical information display apparatus, operation method of the same and medical information display program
US20200105070A1 (en) Overlay and Manipulation of Medical Images in a Virtual Environment
JP2019153249A (ja) 医用画像処理装置、医用画像処理方法、及び医用画像処理プログラム
JP6734111B2 (ja) 所見情報作成装置及びシステム
JP5784082B2 (ja) 診断支援装置及び診断支援方法
US20210210206A1 (en) Medical image diagnosis support device, method, and program
JP2011120827A (ja) 診断支援システム、診断支援プログラムおよび診断支援方法
JP2010244224A (ja) 画像表示装置および方法並びにプログラム
JP2014013590A (ja) 診断支援装置及び診断支援方法
Kownacki et al. Advanced server-based diagnostic imaging and post-processing workflow at European Centre of Health Otwock, Poland

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201080002752.1

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 2010522886

Country of ref document: JP

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10758259

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2733519

Country of ref document: CA

WWE Wipo information: entry into national phase

Ref document number: 12737702

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2010231365

Country of ref document: AU

WWE Wipo information: entry into national phase

Ref document number: 2010758259

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 1067/CHENP/2011

Country of ref document: IN

ENP Entry into the national phase

Ref document number: 2010231365

Country of ref document: AU

Date of ref document: 20100330

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: PI1004218

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20110217