WO2015044979A1 - 情報処理装置、撮影システム、情報処理方法及びプログラム - Google Patents

情報処理装置、撮影システム、情報処理方法及びプログラム Download PDF

Info

Publication number
WO2015044979A1
WO2015044979A1 PCT/JP2013/005696 JP2013005696W WO2015044979A1 WO 2015044979 A1 WO2015044979 A1 WO 2015044979A1 JP 2013005696 W JP2013005696 W JP 2013005696W WO 2015044979 A1 WO2015044979 A1 WO 2015044979A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
blood vessel
frame
probe
fluoroscopic image
Prior art date
Application number
PCT/JP2013/005696
Other languages
English (en)
French (fr)
Inventor
聖 衛藤
耕一 井上
淳也 古市
Original Assignee
テルモ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by テルモ株式会社 filed Critical テルモ株式会社
Priority to PCT/JP2013/005696 priority Critical patent/WO2015044979A1/ja
Priority to JP2015538636A priority patent/JP6181192B2/ja
Publication of WO2015044979A1 publication Critical patent/WO2015044979A1/ja
Priority to US15/075,796 priority patent/US10524652B2/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/313Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for introducing through surgical openings, e.g. laparoscopes
    • A61B1/3137Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for introducing through surgical openings, e.g. laparoscopes for examination of the interior of blood vessels
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/044Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances for absorption imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0082Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes
    • A61B5/0084Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes for introduction into the body, e.g. by catheters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6846Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be brought in contact with an internal body part, i.e. invasive
    • A61B5/6867Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be brought in contact with an internal body part, i.e. invasive specially adapted to be attached or implanted in a specific body part
    • A61B5/6876Blood vessel
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/7425Displaying combinations of multiple images regardless of image source, e.g. displaying a reference anatomical image with a live image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/12Arrangements for detecting or locating foreign bodies
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/48Diagnostic techniques
    • A61B6/481Diagnostic techniques involving the use of contrast agents
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/504Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of blood vessels, e.g. by angiography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/12Diagnosis using ultrasonic, sonic or infrasonic waves in body cavities or body tracts, e.g. by using catheters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0062Arrangements for scanning
    • A61B5/0066Optical coherence imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0071Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence by measuring fluorescence emission
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0073Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence by tomography, i.e. reconstruction of 3D images from 2D projections
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/02007Evaluating blood vessel condition, e.g. elasticity, compliance

Definitions

  • the present invention relates to an information processing apparatus, an imaging system, an information processing method, and a program, and particularly relates to an image display for medical diagnosis.
  • an intravascular medical practice using a catheter including a balloon, a stent, or the like is usually performed while referring to a diagnostic image.
  • stenosis or occlusion of blood vessels can be confirmed by observing fluoroscopic images, for example, X-ray images, taken continuously by angiography (angio, angio).
  • fluoroscopic images for example, X-ray images, taken continuously by angiography (angio, angio).
  • angiography angio, angio
  • OCT optical interference image diagnostic apparatus
  • OFDI optical interference image diagnostic apparatus
  • fluoroscopic images and cross-sectional images are mainly used for diagnosis before surgery and confirmation of therapeutic effect after surgery.
  • the operator when performing treatment to insert a stent into a blood vessel and widen the stenosis of the blood vessel, the operator (operator) confirms the overall shape of the target coronary artery from the X-ray image and specifies the stenosis of the blood vessel. . Further, the surgeon grasps the pathological condition in the blood vessel using the cross-sectional image in the stenosis, and finally determines the placement position and size of the stent.
  • Patent Document 1 describes that the position of an IVUS probe inserted into a subject is displayed on an X-ray image.
  • Patent Document 2 discloses a method for detecting the moving position of an ultrasonic probe from an X-ray fluoroscopic image.
  • Patent Document 2 further discloses recording an ultrasonic image at a predetermined position and displaying the recorded ultrasonic image in accordance with the position designation by the user.
  • the disease state can be more accurately grasped by reproducing and confirming the cross-sectional image and the fluoroscopic image of the taken blood vessel later.
  • the disease state can be more accurately grasped by reproducing and confirming the cross-sectional image and the fluoroscopic image of the taken blood vessel later.
  • by simultaneously observing the cross-sectional image and the fluoroscopic image photographed at the same time it is possible to prevent the operator from making a mistake and to improve the work efficiency.
  • a cross-sectional image of a blood vessel composed of a plurality of frames and a perspective image composed of a plurality of frames are displayed simultaneously, a frame desired to be viewed is searched from the plurality of frames. Was not easy.
  • An object of the present invention is to provide a technique capable of easily retrieving a necessary image when displaying a cross-sectional image of a blood vessel composed of a plurality of frames and a perspective image in association with each other.
  • an information processing apparatus of the present invention comprises the following arrangement. That is, A tomographic image of a blood vessel composed of a plurality of frames taken by inserting the probe into the blood vessel, and a blood vessel composed of a plurality of frames taken while the probe is inserted into the blood vessel.
  • An image collecting means for collecting a fluoroscopic image of Position acquisition means for acquiring the position of the probe image included in each frame of the fluoroscopic image;
  • Display control means for causing the display means to simultaneously display the frame of the fluoroscopic image and the frame of the tomographic image taken substantially simultaneously with the frame;
  • Designation acquisition means for acquiring a blood vessel position designated by a user on a frame of the fluoroscopic image displayed on the display means;
  • the display control means simultaneously displays the frame of the fluoroscopic image including the image of the probe located closer to the blood vessel position designated by the user and the frame of the tomographic image taken substantially simultaneously with the frame. It is characterized by being displayed on the screen.
  • FIG. 1 is a diagram illustrating an example of the configuration of the information processing apparatus according to the first embodiment.
  • FIG. 2 is a flowchart illustrating an example of processing according to the first embodiment.
  • FIG. 3 is a diagram illustrating a display example in the first embodiment.
  • FIG. 4A is a diagram illustrating a display example of a perspective image in the second embodiment.
  • FIG. 4B is a diagram illustrating a display example of a perspective image in the second embodiment.
  • FIG. 4C is a diagram illustrating a display example of a perspective image in the second embodiment.
  • FIG. 1 is a diagram illustrating an example of the configuration of the information processing apparatus according to the first embodiment.
  • FIG. 2 is a flowchart illustrating an example of processing according to the first embodiment.
  • FIG. 3 is a diagram illustrating a display example in the first embodiment.
  • FIG. 4A is a diagram illustrating a display example of a perspective image in the second embodiment.
  • FIG. 4B is a diagram illustrating
  • FIG. 4D is a diagram illustrating a display example of a perspective image in the second embodiment.
  • FIG. 5 is a diagram illustrating an example of the configuration of the information processing apparatus according to the third embodiment.
  • FIG. 6 is a flowchart illustrating an example of processing according to the third embodiment.
  • FIG. 7 is a diagram illustrating an example of the configuration of the OFDI apparatus.
  • FIG. 1 is a block diagram illustrating an example of the configuration of the information processing apparatus 100 according to the present embodiment.
  • the information processing apparatus 100 according to the present embodiment includes an image collection unit 110, a correspondence acquisition unit 120, a detection unit 125, a user instruction acquisition unit 130, and a display control unit 140. Further, the information processing apparatus 100 is connected to the display device 190.
  • the image collection unit 110 collects tomographic images and fluoroscopic images of blood vessels.
  • the type of tomographic image of the blood vessel is not particularly limited, and may be, for example, an ultrasonic tomographic image or an optical tomographic image.
  • the tomographic image collected by the image collecting unit 110 is taken by inserting a probe into a blood vessel.
  • the fluoroscopic images collected by the image collecting unit 110 are taken while taking a tomographic image of the blood vessel by inserting the probe into the blood vessel.
  • the image collecting unit 110 is connected to the tomographic imaging apparatus 170 and the fluoroscopic imaging apparatus 180, and collects the tomographic image and the fluoroscopic image from these apparatuses.
  • These devices usually acquire a cross-sectional image in the blood vessel radial direction (cross-sectional image in the blood vessel direction), but a vertical cross-sectional image in the blood vessel length direction (a cross-sectional image in the blood vessel axis direction) can also be obtained from the cross-sectional image.
  • the ultrasonic tomographic image can be acquired by, for example, an intravascular ultrasonic diagnostic apparatus (IVUS: Intra Vascular Ultra Sound).
  • IVUS Intra Vascular Ultra Sound
  • the optical tomographic image can be acquired by, for example, an optical coherence tomography diagnostic apparatus (OCT: Optical Coherence Tomography) or an optical interference image diagnostic apparatus (OFDI: Optical Frequency Imaging) using a wavelength sweep.
  • OCT optical coherence tomography diagnostic apparatus
  • OFDI optical interference image diagnostic apparatus
  • the tomographic image collected by the image collecting unit 110 is composed of a plurality of frames.
  • an optical probe of an OFDI apparatus is inserted into a blood vessel such as a coronary artery via a catheter, and a tomographic image composed of a plurality of frames is obtained by continuously capturing tomographic images while pulling the optical probe. Can do.
  • the type of fluoroscopic image of the blood vessel is not particularly limited, but may be an X-ray image taken using a contrast agent by an angiography method, for example. That is, by continuously capturing X-ray images while pulling the optical probe of the OFDI apparatus, it is possible to obtain a perspective image composed of a plurality of frames.
  • the OFDI device 700 includes a probe unit 701, a scanner / pullback unit 702, and an operation control device 703.
  • the scanner / pullback unit 702 and the operation control device 703 are connected to each other through a signal line 704 so that various signals can be transmitted. ing.
  • the probe unit 701 is directly inserted into a blood vessel and continuously transmits the transmitted light (measurement light) into the blood vessel, and includes an optical transmission / reception unit that continuously receives reflected light from the blood vessel. Is interpolated. In the OFDI apparatus 700, the state inside the blood vessel is measured by using the imaging core.
  • the scanner / pullback unit 702 is detachably attached to the probe unit 701, and operates in the axial direction and the rotational direction in the blood vessel of the imaging core inserted into the probe unit 701 by driving a built-in motor. It prescribes. Also, the reflected light received by the optical transceiver is acquired and transmitted to the operation control device 703.
  • the operation control device 703 performs a function for inputting various setting values and processes data obtained by the measurement, and displays a cross-sectional image (lateral cross-sectional image and vertical cross-sectional image) in the blood vessel. It has the function to do.
  • reference numeral 711 denotes a main body control unit, which generates line-of-light images by processing line data generated based on reflected light obtained by measurement.
  • Reference numeral 711-1 is a printer and a DVD recorder, which prints the processing results in the main body control unit 711 and stores them as data.
  • Reference numeral 712 denotes an operation panel, and the user inputs various setting values and instructions via the operation panel 712.
  • Reference numeral 713 denotes an LCD monitor as a display device, which displays a cross-sectional image generated by the main body control unit 711.
  • the information processing apparatus 100 collects tomographic images and fluoroscopic images from the tomographic image and fluoroscopic image capturing apparatus.
  • the information processing apparatus 100 according to the present embodiment is incorporated in the tomographic image or fluoroscopic image capturing apparatus. It may be.
  • the main body control unit 711 illustrated in FIG. 7 may include each component of the information processing apparatus 100 illustrated in FIG.
  • the display control unit 140 can control the display on the LCD monitor 713, and the user instruction acquisition unit 130 can acquire a user instruction from the operation panel 712.
  • An imaging system that includes an imaging device that captures tomographic images and an imaging device that captures fluoroscopic images may further include the information processing apparatus 100 according to the present embodiment.
  • the correspondence acquisition unit 120 acquires the correspondence between each frame constituting the fluoroscopic image and each frame constituting the tomographic image. Specifically, the correspondence acquisition unit 120 determines, for each frame constituting the fluoroscopic image, a tomographic image frame that is captured substantially simultaneously with this frame.
  • the method for acquiring the correspondence relationship is not particularly limited.
  • the tomographic image frame photographed substantially simultaneously with the fluoroscopic image frame may be a tomographic image frame photographed within a predetermined time interval from the photographing time of the fluoroscopic image frame.
  • the correspondence acquisition unit 120 can record that there is no corresponding tomographic image frame.
  • the correspondence acquisition unit 120 can acquire this correspondence by image processing on a tomographic image and a fluoroscopic image.
  • the correspondence acquisition unit 120 can detect the position of the probe from the fluoroscopic image, calculate the insertion length of the probe, and determine a tomographic image corresponding to the calculated probe length.
  • the correspondence acquisition unit 120 can also acquire this correspondence according to the branch position of the blood vessel detected from the fluoroscopic image and the branch position of the blood vessel detected from the tomographic image.
  • the correspondence acquisition unit 120 refers to the time stamp attached to each frame constituting the fluoroscopic image and the time stamp attached to each frame constituting the tomographic image to obtain this correspondence relationship. Can do.
  • the correspondence acquisition unit 120 can acquire the correspondence relationship with reference to the frame rate of the fluoroscopic image and the frame rate of the tomographic image.
  • the detecting unit 125 detects the position of the probe image included in each frame constituting the fluoroscopic image.
  • the position of the probe can be detected from the frame of the fluoroscopic image by attaching a member having high X-ray absorption to the tip of the optical probe of the OFDI apparatus. In this case, the position of the probe is detected as a more absorbable part in the blood vessel.
  • the information processing apparatus 100 does not have to include the detection unit 125.
  • the image collection unit 110 may collect information indicating the position of the probe in each frame constituting the fluoroscopic image together with the fluoroscopic image.
  • the user instruction acquisition unit 130 acquires a user instruction for specifying a blood vessel position.
  • the user instruction is given on the frame of the fluoroscopic image displayed on the display device 190.
  • the user can specify a blood vessel at a predetermined position on the displayed fluoroscopic image using an input device (not shown) such as a mouse, and in this case, the user instruction acquisition unit 130 acquires the specified blood vessel position.
  • an input device such as a mouse
  • the user instruction acquisition unit 130 acquires the specified blood vessel position.
  • the display device 190 includes a touch screen
  • the user may input a position designation via the touch screen.
  • the display control unit 140 causes the display device 190 to display a tomographic image and a fluoroscopic image.
  • the display control unit 140 in order to enable a surgeon (operator) to make a more accurate determination, the display control unit 140 includes a frame of a tomographic image and a fluoroscopic image captured substantially simultaneously with the frame of the tomographic image. The frame is simultaneously displayed on the display device 190. Further, the display control unit 140 changes the frame to be displayed on the display device 190 according to the user instruction acquired by the user instruction acquisition unit 130. In the present embodiment, the display control unit 140 displays the cross-sectional image on the display device 190, but can further display the vertical cross-sectional image on the display device 190. Specific processing of the display control unit 140 will be described later.
  • step S210 the image collection unit 110 collects a tomographic image and a fluoroscopic image of the blood vessel as described above.
  • step S220 the correspondence acquisition unit 120 acquires the correspondence relationship between the fluoroscopic image and the tomographic image of the blood vessel as described above.
  • step S230 the detection unit 125 detects the position of the probe as described above from each frame constituting the fluoroscopic image. For example, when the frame number of the perspective image to be symmetric is k and the coordinates of the detected probe position are (x, y), the detection unit 125 records a plurality of sets of (x, y, k).
  • step S240 the display control unit 140 causes the display device 190 to simultaneously display one frame of the fluoroscopic image and the frame of the corresponding tomographic image.
  • the method for selecting a frame to be displayed in step S240 is not particularly limited.
  • the display control unit 140 may display the first frame among the frames constituting the fluoroscopic image.
  • the display control unit 140 may not display the tomographic image.
  • the display control unit 140 captures a tomographic image captured at the time closest to the imaging time of the perspective image frame. The frame may be displayed.
  • step S250 the user instruction acquisition unit 130 acquires a user instruction for specifying a blood vessel position as described above.
  • the position acquired by the user instruction acquisition unit 130 in step S250 is hereinafter referred to as (x u , yu ).
  • step S260 the display control unit 140 determines a frame of a fluoroscopic image corresponding to the blood vessel position specified by the user instruction as a frame to be displayed in accordance with the user instruction of the user instruction acquisition unit 130.
  • the display control unit 140 can select a frame of a fluoroscopic image including an image of a probe located closer to the blood vessel position specified by a user instruction.
  • the display control unit 140 of the set of recorded multiple (x, y, k) in step S230, the coordinates (x 0, y 0) and obtained in step S250 coordinates (x u, y u ) (X 0 , y 0 , k 0 ) can be selected such that the distance between them is shorter.
  • the display control unit 140 selects (x 0 , y 0 , k 0 ) so that the distance between the coordinates (x 0 , y 0 ) and the coordinates (x u , yu ) is the shortest. can do.
  • the frame k 0 determined in this way becomes the frame of the fluoroscopic image to be displayed.
  • the frame selected in this way corresponds to a frame photographed when the probe is present in the vicinity of the blood vessel position designated by the user instruction.
  • the origin for defining the coordinates may be set with reference to a characteristic part (such as a branch point) of the blood vessel in the fluoroscopic image and may be different for each frame.
  • Step S270 the display control unit 140 in accordance with the correspondence relationship acquired in step S220, determines a frame k 1 of the tomographic image corresponding to the frame k 0 fluoroscopic image.
  • the display control unit 140 in step S280 includes a frame k 0 fluoroscopic image determined in step S260, and a frame k 1 of the tomographic image determined in step S270, is displayed on the display device 190.
  • a display example in step S280 is shown in FIG.
  • the display example 300 shown in FIG. 3 includes a tomographic image frame 310 and a fluoroscopic image frame 320. As illustrated in FIG. 3, the display example 300 may further include a longitudinal section image, and a position corresponding to a blood vessel position designated by the user may be illustrated on the longitudinal section image.
  • the display control unit 140 may not display the tomographic image.
  • the display control unit 140 captures a tomographic image captured at the time closest to the imaging time of the perspective image frame. The frame may be displayed.
  • the process returns to step S250, and the user instruction may be acquired again. In this case, the display control unit 140 can notify the user via the display device 190 that the corresponding tomographic image does not exist.
  • a cross-sectional image of a blood vessel composed of a plurality of frames and a fluoroscopic image when displayed in association with each other, the image was taken when the probe was present at a specified position on the fluoroscopic image.
  • a perspective image frame and a cross-sectional image frame can be displayed simultaneously.
  • the display control unit 140 in step S260 of this embodiment, the coordinates (x 0, y 0) and the coordinates (x u, y u) such that the distance between the closest, the display control unit 140, (x 0, y 0 , k 0 ) was selected.
  • the display control unit 140 may further determine whether or not the distance between the coordinates (x 0 , y 0 ) and the coordinates (x u , yu ) is within a predetermined threshold. When the distance exceeds the predetermined threshold, the process returns to step S250 without displaying the selected frame, and the user instruction may be acquired again. In this case, the display control unit 140 can notify the user via the display device 190 that the corresponding fluoroscopic image and tomographic image do not exist.
  • coordinates on the fluoroscopic image designated by the user can be converted into relative coordinates with respect to the blood vessel image.
  • the user instruction acquisition unit 130 can detect a feature point of a blood vessel from a frame of a fluoroscopic image. This feature point is, for example, a blood vessel branch point or the like, and may be automatically detected by the user instruction acquisition unit 130 or may be input by the operator. Then, the user instruction acquisition unit 130 can convert the coordinates on the fluoroscopic image designated by the user into a relative coordinate system based on the detected feature points.
  • the detection unit 125 can also convert the position of the detected probe into a relative coordinate system based on the detected feature point. In this case, the process of selecting a perspective image frame in step S260 can be performed using relative coordinates.
  • step S260 the display control unit 140 can select a frame of a fluoroscopic image corresponding to a blood vessel position according to a user instruction, which is captured during the relaxation period of the heart, as a frame to be displayed. it can. According to this method, it is possible to prevent the image of the systole of the heart in which the blood vessel is moving greatly from being selected, and to display an unintended image.
  • the user instruction acquisition unit 130 may be configured to acquire a blood vessel position designated on a fluoroscopic image of the heart in the relaxation period and not to acquire a blood vessel position designated on the fluoroscopic image of the heart in the systole. it can.
  • an image taken during the systole of the heart and an image taken during the relaxation of the heart can be handled independently. That is, when the user instruction acquisition unit 130 acquires the designated blood vessel position on the fluoroscopic image of the heart in the relaxation period, the display control unit 140 displays an image taken in the relaxation period of the heart. Can be selected as a frame. On the other hand, when the user instruction acquisition unit 130 acquires the designated blood vessel position on the perspective image of the heart in the systole, the display control unit 140 displays the image captured in the heart systole. Frame can be selected. In such a case, the detection unit 125 can record a set of (x, y, k) separately for each of the fluoroscopic image in the relaxation period and the fluoroscopic image in the contraction period.
  • the information processing apparatus 100 according to the present embodiment has the same configuration as that of the first embodiment.
  • the processing according to the present embodiment is the same as that of the first embodiment, but the processing in steps S240 and S280 is different.
  • the description of the same configuration as that of the first embodiment will be omitted.
  • step S240 the display control unit 140 displays the probe image detected from the fluoroscopic image when simultaneously displaying one frame of the fluoroscopic image and the frame of the corresponding tomographic image on the display device 190. Further, information indicating the position is displayed on the display device 190. For example, the display control unit 140 can superimpose and display a marker indicating the probe position on the fluoroscopic image.
  • This probe position is detected in step S230. That is, when a set of (x 0 , y 0 , k 0 ) is recorded, when displaying the frame k 0 , the marker is superimposed on the coordinate (x 0 , y 0 ) on the perspective image.
  • FIG. 4B, 4C, and 4D show examples in which markers are superimposed on the fluoroscopic image shown in FIG. 4A.
  • the color of the probe position can be changed, that is, a marker of a predetermined color can be superimposed on the probe position.
  • a triangular marker can be superimposed and displayed near the probe position.
  • a circular marker surrounding the probe position for example, can be superimposed and displayed.
  • step S280 the display control unit 140 when displaying on the display device 190 and a frame k 1 frame k 0 and tomographic image of the fluoroscopic image, the marker indicating the detected probe position from the fluoroscopic image, the perspective image Superimpose on top.
  • the marker can be displayed in the same manner as in step S240.
  • the blood vessel position corresponding to the cross-sectional image can be easily confirmed on the fluoroscopic image. Can do.
  • FIG. 5 is a block diagram illustrating an example of the configuration of the information processing apparatus 500 according to the present embodiment.
  • the information processing apparatus 500 according to the present embodiment has the same configuration as that of the first embodiment, but further includes a calculation unit 150.
  • the calculation unit 150 acquires blood vessel information about the blood vessel position designated by the user.
  • the blood vessel diameter is calculated as blood vessel information.
  • step S680 the calculation unit 150 calculates the blood vessel diameter at the blood vessel position indicated by the user instruction acquired by the user instruction acquisition unit 130 in step S650. Specifically, the calculation unit 150 from the frame k 1 of the tomographic image display control unit 140 has determined in step S270, it extracts a blood vessel inner wall. Then, the calculation unit 150 calculates the diameter of the extracted blood vessel inner wall portion as the blood vessel diameter. At this time, the calculation unit 150 can calculate the blood vessel diameter with reference to the resolution information attached to the tomographic image collected by the image collection unit 110.
  • step S690 the display control unit 140 when displaying on the display device 190 and a frame k 1 frame k 0 and tomographic image of the fluoroscopic image, displays information indicating a blood vessel diameter calculating unit 150 is calculated in step S680 To do.
  • the display control unit 140 can superimpose and display the numerical value of the blood vessel diameter in the vicinity of the probe position detected from the fluoroscopic image.
  • the blood vessel diameter at the designated position is displayed, but the displayed information is not limited to this. That is, arbitrary information obtained from the tomographic image corresponding to the designated position can be displayed. For example, the blood vessel cavity area at the designated position may be displayed.
  • the fluoroscopic image and the tomographic image corresponding to the position designated on the fluoroscopic image are displayed and the blood vessel diameter is displayed.
  • these displays may be performed independently. For example, when the user inputs an instruction indicating that the blood vessel diameter should be displayed after displaying the fluoroscopic image and the tomographic image corresponding to the position designated on the fluoroscopic image, the blood vessel diameter corresponding to this position is calculated. And may be displayed.
  • the information processing apparatus 500 according to the present embodiment has the same configuration as that of the third embodiment.
  • the processing according to the present embodiment is the same as that of the third embodiment, but the processing in steps S650 to S690 is different.
  • the calculation unit 150 calculates the blood vessel length between two blood vessel positions designated by the user as blood vessel information.
  • step S650 the user instruction acquisition unit 130 acquires a user instruction specifying two blood vessel positions.
  • step S660 the display control unit 140 selects a corresponding fluoroscopic image frame for each of the two blood vessel positions as in the third embodiment.
  • step S670 the display control unit 140 selects a corresponding tomographic frame for each of the two frames of the fluoroscopic image selected in step S660 as in the third embodiment.
  • the calculation unit 150 calculates the blood vessel length between the two blood vessel positions according to the user instruction acquired in step S650.
  • the calculation unit 150 can calculate the blood vessel length with reference to information indicating the push-in length of the probe with respect to the reference position for each frame of the tomographic image acquired in step S610.
  • the image collecting unit 110 can collect such information from the tomographic imaging apparatus 170 together with the tomographic image.
  • the calculation unit 150 corresponds to the indentation length corresponding to the tomographic image frame corresponding to the first blood vessel position among the two blood vessel positions and the second blood vessel position among the two blood vessel positions. The difference between the indentation length corresponding to the frame of the tomographic image can be calculated as the blood vessel length.
  • the blood vessel length calculation method is not limited to this method.
  • the blood vessel length is calculated from the difference between the frame number of the tomographic image corresponding to the first blood vessel position and the frame number of the tomographic image corresponding to the second blood vessel position. It is also possible to calculate the length.
  • the image collection unit 110 can collect information indicating the length in the blood vessel radial direction between the imaging positions of successive frames from the tomographic imaging apparatus 170 together with the tomographic image.
  • step S690 the display control unit 140 displays information indicating the blood vessel length calculated by the calculation unit 150 in step S680 when displaying the fluoroscopic image frame and the tomographic image frame on the display device 190.
  • the display control unit 140 can superimpose and display the numerical value of the blood vessel length in the vicinity of the probe position detected from the fluoroscopic image.
  • the display control unit 140 may cause the display device 190 to display a tomographic image frame and a fluoroscopic image frame corresponding to the first blood vessel position, or a tomographic image corresponding to the second blood vessel position.
  • An image frame and a perspective image frame may be displayed on the display device 190.
  • the display control unit 140 also displays on the display device 190 a tomographic image frame and a fluoroscopic image frame corresponding to the first blood vessel position, and a tomographic image frame and a fluoroscopic image frame corresponding to the second blood vessel position. You may let them.
  • the blood vessel length at the position designated on the fluoroscopic image can be easily known.
  • the fluoroscopic image and the tomographic image corresponding to the position designated on the fluoroscopic image are displayed and the blood vessel length is displayed.
  • these displays may be performed independently. For example, when the user inputs an instruction indicating that the blood vessel length should be displayed after displaying the fluoroscopic image and the tomographic image corresponding to the two positions designated on the fluoroscopic image, the blood vessel corresponding to the position is displayed. The diameter may be calculated and displayed.
  • the blood vessel length at the designated position is displayed, but the displayed information is not limited to this.
  • a vertical cross-sectional image from the first blood vessel position to the second blood vessel position may be displayed on the display device 190.
  • the display of a cross-sectional image can also be abbreviate
  • Each of the embodiments described above can also be realized by a computer executing a computer program. That is, a computer program that realizes the function of each unit according to each embodiment described above is supplied to a system or apparatus including a computer via a network or a storage medium. Then, the above-described embodiments can be realized by a computer including a processor and a memory reading a computer program into the memory and the processor operating according to the computer program on the memory.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Medical Informatics (AREA)
  • Engineering & Computer Science (AREA)
  • Pathology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Optics & Photonics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Vascular Medicine (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Endoscopes (AREA)
  • Cardiology (AREA)
  • Physiology (AREA)

Abstract

 複数のフレームで構成される血管の断面像と透視像とを関連付けて表示する際に、必要な画像を容易に検索することを可能とする。 プローブを血管内に挿入することによって撮影された、複数のフレームで構成される血管の断層像と、プローブを血管内に挿入している間に撮影された、複数のフレームで構成される血管の透視像と、を収集する。透視像の各フレームに含まれるプローブの像の位置を取得する。透視像のフレームと、フレームと略同時に撮影された断層像のフレームと、を同時に表示させる。表示された透視像のフレーム上でユーザが指定した血管位置を取得する。ユーザが指定した血管位置により近い位置にあるプローブの像を含む透視像のフレームと、フレームと略同時に撮影された断層像のフレームと、を同時に表示させる。

Description

情報処理装置、撮影システム、情報処理方法及びプログラム
 本発明は、情報処理装置、撮影システム、情報処理方法及びプログラムに関するものであり、特に、医療診断のための画像表示に関するものである。
 例えばバルーンやステント等を備えるカテーテルを用いた血管内医療行為は、通常、診断画像を参照しながら行われる。従来より、カテーテルを用いた手術の際には、血管造影法(アンギオグラフィー,Angio)により連続的に撮影された透視画像、例えばX線画像を観察することで、血管の狭窄や閉塞等が確認されている。近年では、超音波血管内視鏡(IVUS)、又は光干渉画像診断装置(OCT)若しくはその改良型である波長掃引を利用した光干渉画像診断装置(OFDI)等から得られる血管の断面画像を併せて確認する手技が普及しつつある。
 これらの透視画像及び断面画像は、主に手術前の診断や、手術後の治療効果の確認のために利用されている。例えば、ステントを血管内に挿入して血管の狭窄部位を広げる治療を行う場合、術者(操作者)はX線画像から目的とする冠動脈の全体形状を確認し、血管の狭窄部位を特定する。さらに、術者は狭窄部における断面画像を用いて血管内の病状を把握し、最終的にステントの留置位置やサイズ等を決定する。
 得られた画像の表示方法として、例えば特許文献1には、被験者に挿入したIVUSプローブの位置をX線画像上に表示することが記載されている。また、特許文献2には、X線透視像から超音波プローブの移動位置を検出する方法が開示されている。特許文献2には、さらに、所定位置の超音波像を録画することと、ユーザによる位置指定に従って録画された超音波像を表示することと、が開示されている。
特開2007-282974号公報 特開平5-64638号公報
 撮影された血管の断面画像と透視画像とを後に再生し確認することにより、病状をより正確に把握することが可能となる。この場合、上述のように、同時に撮影された断面画像と透視画像とを同時に観察することにより、術者の判断ミスを防ぎ、作業効率を向上させることができる。しかしながら、複数のフレームで構成される血管の断面像と、複数のフレームで構成される透視像とを同時に表示する場合であっても、複数のフレームから、見ることを希望するフレームを検索することは容易ではなかった。
 本発明は、複数のフレームで構成される血管の断面像と透視像とを関連付けて表示する際に、必要な画像を容易に検索できる技術を提供することを目的とする。
 本発明の目的を達成するために、例えば、本発明の情報処理装置は以下の構成を備える。すなわち、
 プローブを血管内に挿入することによって撮影された、複数のフレームで構成される血管の断層像と、前記プローブを血管内に挿入している間に撮影された、複数のフレームで構成される血管の透視像と、を収集する画像収集手段と、
 前記透視像の各フレームに含まれるプローブの像の位置を取得する位置取得手段と、
 前記透視像のフレームと、該フレームと略同時に撮影された前記断層像のフレームと、を同時に表示手段に表示させる表示制御手段と、
 前記表示手段に表示された前記透視像のフレーム上でユーザが指定した血管位置を取得する指定取得手段と、
 を備え、
 前記表示制御手段は、前記ユーザが指定した血管位置により近い位置にあるプローブの像を含む前記透視像のフレームと、該フレームと略同時に撮影された前記断層像のフレームと、を同時に前記表示手段に表示させる
 ことを特徴とする。
 複数のフレームで構成される血管の断面像と透視像とを関連付けて表示する際に、必要な画像を容易に検索することができる。
 本発明のその他の特徴及び利点は、添付図面を参照とした以下の説明により明らかになるであろう。なお、添付図面においては、同じ若しくは同様の構成には、同じ参照番号を付す。
 添付図面は明細書に含まれ、その一部を構成し、本発明の実施の形態を示し、その記述と共に本発明の原理を説明するために用いられる。
図1は、実施形態1に係る情報処理装置の構成の一例を示す図である。 図2は、実施形態1に係る処理の一例を示すフローチャートである。 図3は、実施形態1における表示例を示す図である。 図4Aは、実施形態2における透視像の表示例を示す図である。 図4Bは、実施形態2における透視像の表示例を示す図である。 図4Cは、実施形態2における透視像の表示例を示す図である。 図4Dは、実施形態2における透視像の表示例を示す図である。 図5は、実施形態3に係る情報処理装置の構成の一例を示す図である。 図6は、実施形態3に係る処理の一例を示すフローチャートである。 図7は、OFDI装置の構成の一例を示す図である。
 以下、本発明の実施形態を図面に基づいて説明する。ただし、本発明の範囲は以下の実施形態に限定されるものではない。
[実施形態1]
 以下に、実施形態1に係る情報処理装置について説明する。図1は、本実施形態に係る情報処理装置100の構成の一例を示すブロック図である。本実施形態に係る情報処理装置100は、画像収集部110と、対応取得部120と、検出部125と、ユーザ指示取得部130と、表示制御部140と、を備える。また、情報処理装置100は表示装置190に接続されている。
 画像収集部110は、血管の断層像と透視像とを収集する。血管の断層像の種類は特に限定されないが、例えば超音波断層像又は光断層像等でありうる。本実施形態において、画像収集部110が収集する断層像は、プローブを血管内に挿入することによって撮影されたものである。また、本実施形態において、画像収集部110が収集する透視像は、プローブを血管内に挿入することによって血管の断層像を撮影している間に撮影されたものである。画像収集部110は断層像撮影装置170及び透視像撮影装置180に接続されており、これらの装置から断層像及び透視像を収集する。これらの装置は通常血管径方向の横断面画像(血管横断方向断面画像)を取得するが、横断面画像から血管長さ方向の縦断面画像(血管軸方向断面画像)を得ることもできる。
 超音波断層像は、例えば血管内超音波診断装置(IVUS:Intra Vascular Ultra Sound)等により取得することができる。また、光断層像は、例えば光干渉断層診断装置(OCT:Optical Coherence Tomography)又は波長掃引を利用した光干渉画像診断装置(OFDI:Optical Frequency Domain Imaging)等により取得することができる。以下の説明においては、画像収集部110は、OFDI装置を用いて得られた光断層像を収集するものとする。
 本実施形態で画像収集部110が収集する断層画像は、複数のフレームにより構成されている。例えば、OFDI装置の光プローブを冠動脈内等の血管内にカテーテルを介して挿入し、光プローブを引っ張りながら連続して断層画像を撮影することにより、複数のフレームにより構成される断層像を得ることができる。
 また、血管の透視像の種類も特に限定されないが、例えばアンギオグラフィー法により造影剤を用いて撮影されたX線画像でありうる。すなわち、OFDI装置の光プローブを引っ張りながらX線画像を連続して撮影することにより、複数のフレームにより構成される透視像を得ることができる。
 以下で、OFDI装置について図7を参照して簡単に説明する。OFDI装置700は、プローブ部701と、スキャナ及びプルバック部702と、操作制御装置703とを備え、スキャナ及びプルバック部702と操作制御装置703とは、信号線704により各種信号が伝送可能に接続されている。
 プローブ部701は、直接血管内に挿入され、伝送された光(測定光)を連続的に血管内に送信するとともに、血管内からの反射光を連続的に受信する光送受信部を備えるイメージングコアが内挿されている。OFDI装置700では、該イメージングコアを用いることで血管内部の状態を測定する。
 スキャナ及びプルバック部702は、プローブ部701が着脱可能に取り付けられ、内蔵されたモータを駆動させることでプローブ部701に内挿されたイメージングコアの血管内の軸方向の動作及び回転方向の動作を規定している。また、光送受信部において受信された反射光を取得し、操作制御装置703に対して送信する。
 操作制御装置703は、測定を行うにあたり、各種設定値を入力するための機能や、測定により得られたデータを処理し、血管内の断面画像(横方向断面画像及び縦方向断面画像)を表示するための機能を備える。
 操作制御装置703において、711は本体制御部であり、測定により得られた反射光に基づいて生成されたラインデータを処理することで、光断面画像を生成する。
 711-1はプリンタ及びDVDレコーダであり、本体制御部711における処理結果を印刷したり、データとして記憶したりする。712は操作パネルであり、ユーザは該操作パネル712を介して、各種設定値及び指示の入力を行う。713は表示装置としてのLCDモニタであり、本体制御部711において生成された断面画像を表示する。
 本実施形態に係る情報処理装置100は、断層像及び透視像の撮影装置から断層像及び透視像を収集するが、本実施形態に係る情報処理装置100が断層像又は透視像の撮影装置に組み込まれていてもよい。例えば、図7に示す本体制御部711が、図1に示す情報処理装置100の各構成要素を備えていてもよい。この場合、表示制御部140はLCDモニタ713の表示を制御することができ、ユーザ指示取得部130は操作パネル712からユーザ指示を取得することができる。また、断層像を撮影する撮影装置と、透視像を撮影する撮影装置とを備える撮影システムが、さらに本実施形態に係る情報処理装置100を備えていてもよい。
 対応取得部120は、透視像を構成する各フレームと、断層像を構成する各フレームとの対応関係を取得する。具体的には、対応取得部120は、透視像を構成する各フレームについて、このフレームと略同時に撮影された断層像のフレームを判定する。対応関係の取得方法は特に限定されない。透視像のフレームと略同時に撮影された断層像のフレームとは、透視像のフレームの撮影時刻から所定の時間間隔内において撮影された断層像のフレームでありうる。透視像を構成するフレームについて、略同時に撮影された断層像のフレームが存在しない場合には、対応取得部120は、対応する断層像のフレームは存在しないことを記録することができる。
 例えば、対応取得部120は、断層像及び透視像に対する画像処理によってこの対応関係を取得することができる。一例としては、対応取得部120は、透視像からプローブの位置を検出し、プローブの挿入長さを算出し、算出されたプローブ長さに対応する断層像を判定することができる。また、対応取得部120は、透視像から検出された血管の分枝位置と、断層像から検出された血管の分枝位置と、に従ってこの対応関係を取得することもできる。さらには、対応取得部120は、透視像を構成する各フレームに付されたタイムスタンプと、断層像を構成する各フレームに付されたタイムスタンプとを参照して、この対応関係を取得することができる。さらなる方法として、対応取得部120は、透視像のフレームレートと、断層像のフレームレートとを参照して、この対応関係を取得することができる。
 検出部125は、透視像を構成する各フレームに含まれる、プローブの像の位置を検出する。例えば、X線吸収性の高い部材をOFDI装置の光プローブの先端に取り付けることにより、透視像のフレームからプローブの位置を検出することができる。この場合、プローブの位置は血管中のより吸収性の高い部分として検出される。もっとも、情報処理装置100が検出部125を備える必要はない。例えば、画像収集部110は、透視像とともに、透視像を構成する各フレームにおけるプローブの位置を示す情報を収集してもよい。
 ユーザ指示取得部130は、血管位置を指定するユーザ指示を取得する。ユーザ指示は、表示装置190上に表示された透視像のフレーム上でなされる。例えば、ユーザはマウスのような入力装置(不図示)を用いて表示された透視像上の所定位置の血管を指定することができ、この場合ユーザ指示取得部130は指定された血管位置を取得する。表示装置190がタッチスクリーンを備える場合には、ユーザは位置指定をタッチスクリーンを介して入力してもよい。
 表示制御部140は、断層像及び透視像を表示装置190に表示させる。本実施形態においては、術者(操作者)のより正確な判断を可能とするために、表示制御部140は、断層像のフレームと、この断層像のフレームと略同時に撮影された透視像のフレームと、を同時に表示装置190に表示させる。また表示制御部140は、ユーザ指示取得部130が取得したユーザ指示に従って、表示装置190に表示させるフレームを変更する。本実施形態において、表示制御部140は横断面画像を表示装置190に表示させるものとするが、さらに縦方向断面画像を表示装置190に表示させることもできる。表示制御部140の具体的な処理については、後述する。
 次に、本実施形態に係る情報処理装置100が行う処理の一例を、図2のフローチャートを参照して説明する。
 ステップS210において画像収集部110は、上述したように、血管の断層像と透視像とを収集する。ステップS220において対応取得部120は、上述したように、血管の透視像と断層像との対応関係を取得する。ステップS230において検出部125は、透視像を構成する各フレームから、上述のようにプローブの位置を検出する。例えば、対称となる透視像のフレームの番号をk、検出されたプローブの位置の座標を(x,y)とする場合、検出部125は(x,y,k)の組を複数記録する。
 ステップS240において表示制御部140は、透視像のうち1フレームと、対応する断層像のフレームとを、表示装置190に同時に表示させる。ステップS240において表示させるフレームの選択方法は特に限定されない。例えば表示制御部140は、透視像を構成するフレームのうち最初のフレームを表示してもよい。選択された透視像のフレームに対応する断層像のフレームが存在しない場合には、表示制御部140は、断層像を表示させなくてもよい。別の方法として、表示制御部140は、選択された透視像のフレームに対応する断層像のフレームが存在しない場合には、この透視像のフレームの撮影時刻と最も近い時刻に撮影された断層像のフレームを表示させてもよい。
 ステップS250においてユーザ指示取得部130は、血管位置を指定するユーザ指示を上述のように取得する。ステップS250でユーザ指示取得部130が取得した位置を、以下では(x,y)とする。
 ステップS260において表示制御部140は、ユーザ指示取得部130のユーザ指示に従って、ユーザ指示により指定された血管位置に対応する透視像のフレームを、表示されるフレームとして決定する。具体的な例としては、表示制御部140は、ユーザ指示により指定された血管位置により近い位置にあるプローブの像を含む透視像のフレームを選択することができる。例えば、表示制御部140は、ステップS230で記録された複数の(x,y,k)の組のうち、座標(x,y)とステップS250で取得された座標(x,y)との距離がより短いような組(x,y,k)を選択することができる。具体的には、座標(x,y)と座標(x,y)との距離が最も近くなるように、表示制御部140は、(x,y,k)を選択することができる。こうして決定されたフレームkが、表示される透視像のフレームとなる。こうして選択されたフレームは、ユーザ指示により指定された血管位置の近傍にプローブが存在する時に撮影されたフレームに対応する。なお、座標を規定するための原点は、透視像中の血管の特徴的な部位(分岐点など)を基準として設定し、フレーム毎に異ならせてもよい。
 ステップS270において表示制御部140は、ステップS220で取得した対応関係に従って、透視像のフレームkに対応する断層像のフレームkを決定する。ステップS280において表示制御部140は、ステップS260で決定した透視像のフレームkと、ステップS270で決定した断層像のフレームkとを、表示装置190に表示させる。ステップS280における表示例を図3に示す。図3に示す表示例300には、断層像のフレーム310と、透視像のフレーム320とが含まれている。図3に示すように、表示例300にはさらに縦方向断面画像が含まれていてもよく、ユーザが指定した血管位置に対応する位置が縦方向断面画像上で示されていてもよい。
 選択された透視像のフレームに対応する断層像のフレームが存在しない場合には、表示制御部140は、断層像を表示させなくてもよい。別の方法として、表示制御部140は、選択された透視像のフレームに対応する断層像のフレームが存在しない場合には、この透視像のフレームの撮影時刻と最も近い時刻に撮影された断層像のフレームを表示させてもよい。さらには、選択された透視像のフレームに対応する断層像のフレームが存在しない場合には、処理はステップS250に戻り、再びユーザ指示が取得されてもよい。この場合、表示制御部140は、対応する断層像が存在しないことを、表示装置190を介してユーザに通知することができる。
 以上説明した本実施形態によれば、複数のフレームで構成される血管の断面像と透視像とを関連付けて表示する際に、透視像上で指定された位置にプローブが存在する時に撮影された透視像のフレームと断面像のフレームとを同時に表示することができる。
 本実施形態のステップS260において表示制御部140は、座標(x,y)と座標(x,y)との距離が最も近くなるように、表示制御部140は、(x,y,k)を選択した。このとき表示制御部140は、座標(x,y)と座標(x,y)との距離が所定の閾値以内であるか否かをさらに判定してもよい。距離が所定の閾値を超える場合には、選択されたフレームの表示を行わずに、処理はステップS250に戻り、再びユーザ指示が取得されてもよい。この場合、表示制御部140は、対応する透視像及び断層像が存在しないことを、表示装置190を介してユーザに通知することができる。
[実施形態1の変形例]
 血管は、体の動きにより移動しうるため、透視像の各フレーム上での血管の位置が変化することがある。特に、冠動脈は心臓の拍動に従って大きく移動する。このような場合、透視像上での血管の位置に応じて、ステップS230で検出されたプローブの位置、及びステップS250で取得した画像上のユーザ指定位置を補正することができる。
 具体的な例としては、ユーザが指定した透視像上の座標を、血管像に対する相対座標へと変換することができる。例えば、ユーザ指示取得部130は、透視像のフレームから、血管の特徴点を検出することができる。この特徴点は、例えば血管の分岐点等であり、ユーザ指示取得部130が自動的に検出してもよいし、操作者が入力してもよい。そしてユーザ指示取得部130は、検出された特徴点を基準とする相対座標系へと、ユーザが指定した透視像上の座標を変換することができる。検出部125も、同様に、検出したプローブの位置を、検出された特徴点を基準とする相対座標系へと変換することができる。この場合、ステップS260における透視像のフレームの選択処理は、相対座標を用いて行うことができる。
 別の方法として、心臓の収縮期と弛緩期との一方で撮影された画像を処理の対象とせず、他方で撮影された画像を処理の対象とする方法がある。具体的には、ステップS260において表示制御部140は、ユーザ指示に従う血管位置に対応する透視像のフレームであって、心臓の弛緩期に撮影された画像を、表示されるフレームとして選択することができる。この方法によれば、血管が大きく移動している心臓の収縮期の画像が選択対象外となり、意図しない画像が表示されることを防ぐことが可能となる。また、ユーザ指示取得部130が、弛緩期の心臓の透視像上で指定された血管位置を取得し、収縮期の心臓の透視像上で指定された血管位置は取得しないように構成することもできる。
 さらなる方法として、心臓の収縮期に撮影された画像と、心臓の弛緩期に撮影された画像とを、独立に扱うこともできる。すなわち、ユーザ指示取得部130が、弛緩期の心臓の透視像上で指定された血管位置を取得した場合には、表示制御部140は、心臓の弛緩期に撮影された画像を、表示されるフレームとして選択することができる。一方で、ユーザ指示取得部130が、収縮期の心臓の透視像上で指定された血管位置を取得した場合には、表示制御部140は、心臓の収縮期に撮影された画像を、表示されるフレームとして選択することができる。このような場合、検出部125は、弛緩期の透視像と収縮期の透視像とのそれぞれについて、別々に(x,y,k)の組を記録することができる。
[実施形態2]
 以下に、実施形態2に係る情報処理装置について説明する。本実施形態に係る情報処理装置100は、実施形態1と同様の構成を有する。また、本実施形態に係る処理も実施形態1と同様であるが、ステップS240及びS280の処理が異なる。以下では、実施形態1と同様の構成については説明を省略する。
 具体的には、ステップS240において表示制御部140は、透視像のうち1フレームと、対応する断層像のフレームとを、表示装置190に同時に表示させる際に、透視像から検出されたプローブの像の位置を示す情報をさらに表示装置190に表示させる。例えば、表示制御部140は、プローブ位置を示すマーカを、透視像上に重畳表示させることができる。このプローブ位置は、ステップS230において検出されている。すなわち、(x,y,k)の組が記録されている場合、フレームkを表示する場合には、透視像上の座標(x,y)にマーカを重畳表示する。図4B、図4C、及び図4Dは、図4Aに示す透視画像にマーカを重畳表示した例を示す。例えば、図4Bに示すように、プローブ位置の色を変更する、すなわち所定色のマーカをプローブ位置に重畳することができる。また、図4Cに示すように、プローブ位置の近傍に、例えば三角形のマーカを重畳表示することができる。さらには、図4Dに示すように、プローブ位置を取り囲む、例えば円形のマーカを重畳表示することもできる。
 ステップS280においても、表示制御部140は、透視像のフレームkと断層像のフレームkとを表示装置190に表示させる際に、透視像から検出されたプローブ位置を示すマーカを、透視像上に重畳表示する。マーカの表示は、ステップS240と同様に行うことができる。
 以上説明した本実施形態によれば、複数のフレームで構成される血管の断面像と透視像とを関連付けて表示する際に、断面像に対応する血管位置を透視像上で容易に確認することができる。
[実施形態3]
 以下に、実施形態3に係る情報処理装置について説明する。図5は、本実施形態に係る情報処理装置500の構成の一例を示すブロック図である。本実施形態に係る情報処理装置500は、実施形態1と同様の構成を有するが、さらに算出部150を備える。以下では、実施形態1と同様の構成については説明を省略する。本実施形態において算出部150は、ユーザが指定した血管位置についての血管の情報を取得する。本実施形態においては、血管の情報として血管径が算出される。
 次に、図6に示すフローチャートを参照して、本実施形態に係る処理について説明する。ステップS610~S670は、ステップS210~S270と同様であり、説明を省略する。ステップS680において算出部150は、ステップS650においてユーザ指示取得部130が取得したユーザ指示が示す血管位置における血管径を算出する。具体的には、算出部150は、ステップS270で表示制御部140が決定した断層像のフレームkから、血管内壁部分を抽出する。そして、算出部150は、抽出した血管内壁部分の直径を、血管径として算出する。この際、算出部150は、画像収集部110が収集した断層像に付された解像度情報を参照して、血管径を算出することができる。
 ステップS690において、表示制御部140は、透視像のフレームkと断層像のフレームkとを表示装置190に表示させる際に、ステップS680で算出部150が算出した血管径を示す情報を表示する。例えば表示制御部140は、透視像から検出されたプローブ位置の近傍に、血管径の数値を重畳表示することができる。
 以上説明した本実施形態によれば、透視像上で指定された位置の血管径を容易に知ることができる。本実施形態においては指定位置の血管径が表示されたが、表示される情報はこれに限られない。すなわち、指定位置に対応する断層像から得られる任意の情報を表示することができる。例えば、指定位置の血管腔面積が表示されてもよい。
 また、本実施形態においては、透視像上で指定された位置に対応する透視像及び断層像を表示するとともに、血管径が表示されたが、これらの表示は独立に行われてもよい。例えば、透視像上で指定された位置に対応する透視像及び断層像を表示した後に、ユーザが血管径を表示すべきことを示す指示を入力した場合に、この位置に対応する血管径が算出及び表示されてもよい。
[実施形態4]
 以下に、実施形態4に係る情報処理装置について説明する。本実施形態に係る情報処理装置500は、実施形態3と同様の構成を有する。また、本実施形態に係る処理も実施形態3と同様であるが、ステップS650~S690における処理が異なる。以下では、実施形態3と同様の構成については説明を省略する。本実施形態において算出部150は、血管の情報として、ユーザが指定した2つの血管位置の間の血管長さが算出される。
 ステップS650においてユーザ指示取得部130は、2つの血管位置を指定するユーザ指示を取得する。ステップS660において表示制御部140は、2つの血管位置のそれぞれについて、実施形態3と同様に対応する透視像のフレームを選択する。ステップS670において表示制御部140は、ステップS660で選択された透視像の2つのフレームのそれぞれについて、実施形態3と同様に対応する断層像のフレームを選択する。
 ステップS680において算出部150は、ステップS650で取得したユーザ指示に従う2つの血管位置の間の血管長さを算出する。算出部150は、例えば、ステップS610で取得した断層像の各フレームについての、基準位置に対するプローブの押し込み長さを示す情報を参照して、血管長さを算出することができる。画像収集部110は、このような情報を断層像とともに断層像撮影装置170から収集することができる。より具体的には、算出部150は、2つの血管位置のうち第1の血管位置に対応する断層像のフレームに対応する押し込み長さと、2つの血管位置のうち第2の血管位置に対応する断層像のフレームに対応する押し込み長さと、の差を血管長さとして算出することができる。
 もっとも、血管長さの算出方法はこの方法には限られない。例えば、一定の間隔で断層像が撮影されている場合には、第1の血管位置に対応する断層像のフレーム番号と第2の血管位置に対応する断層像のフレーム番号との差から血管長さを算出することもできる。この場合、画像収集部110は、連続するフレームの撮影位置間についての血管径方向の長さを示す情報を、断層像とともに断層像撮影装置170から収集することができる。
 ステップS690において、表示制御部140は、透視像のフレームと断層像のフレームとを表示装置190に表示させる際に、ステップS680で算出部150が算出した血管長さを示す情報を表示する。例えば表示制御部140は、透視像から検出されたプローブ位置の近傍に、血管長さの数値を重畳表示することができる。本実施形態において、表示制御部140は、第1の血管位置に対応する断層像のフレームと透視像のフレームとを表示装置190に表示させてもよいし、第2の血管位置に対応する断層像のフレームと透視像のフレームとを表示装置190に表示させてもよい。また表示制御部140は、第1の血管位置に対応する断層像のフレームと透視像のフレーム、及び第2の血管位置に対応する断層像のフレームと透視像のフレームとを表示装置190に表示させてもよい。
 以上説明した本実施形態によれば、透視像上で指定された位置の血管長さを容易に知ることができる。本実施形態においては、透視像上で指定された位置に対応する透視像及び断層像を表示するとともに、血管長さが表示されたが、これらの表示は独立に行われてもよい。例えば、透視像上で指定された2つの位置に対応する透視像及び断層像を表示した後に、ユーザが血管長さを表示すべきことを示す指示を入力した場合に、この位置に対応する血管径が算出及び表示されてもよい。
 本実施形態においては指定位置の血管長さが表示されたが、表示される情報はこれに限られない。例えば、血管長さを表示するのに加えて、又は血管長さを表示する代わりに、第1の血管位置から第2の血管位置までの縦断面画像を、表示装置190に表示させてもよい。また、縦断面画像を表示させる場合には、横断面画像の表示を省略することもできる。
[実施形態5]
 上述の各実施形態は、コンピュータがコンピュータプログラムを実行することによっても実現できる。すなわち、上述の各実施形態に係る各部の機能を実現するコンピュータプログラムを、ネットワーク又は記憶媒体等を介してコンピュータを備えるシステム又は装置に供給する。そして、プロセッサとメモリとを備えるコンピュータが、コンピュータプログラムをメモリに読み込み、プロセッサがメモリ上のコンピュータプログラムに従って動作することにより、上述の各実施形態を実現することができる。
 本発明は上記実施の形態に制限されるものではなく、本発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、本発明の範囲を公にするために、以下の請求項を添付する。

Claims (11)

  1.  プローブを血管内に挿入することによって撮影された、複数のフレームで構成される血管の断層像と、前記プローブを血管内に挿入している間に撮影された、複数のフレームで構成される血管の透視像と、を収集する画像収集手段と、
     前記透視像の各フレームに含まれるプローブの像の位置を取得する位置取得手段と、
     前記透視像のフレームと、該フレームと略同時に撮影された前記断層像のフレームと、を同時に表示手段に表示させる表示制御手段と、
     前記表示手段に表示された前記透視像のフレーム上でユーザが指定した血管位置を取得する指定取得手段と、
     を備え、
     前記表示制御手段は、前記ユーザが指定した血管位置により近い位置にあるプローブの像を含む前記透視像のフレームと、該フレームと略同時に撮影された前記断層像のフレームと、を同時に前記表示手段に表示させる
     ことを特徴とする情報処理装置。
  2.  前記位置取得手段は、前記透視像の各フレームから前記プローブの像を検出することにより、該プローブの像の位置を取得することを特徴とする、請求項1に記載の情報処理装置。
  3.  前記表示制御手段は、前記ユーザが指定した血管位置により近い位置にあるプローブの像を含む前記透視像のフレームを、該フレームに含まれるプローブの像の位置と前記ユーザが指定した血管位置との間の距離が所定の閾値以内である場合に、表示することを特徴とする、請求項1又は2に記載の情報処理装置。
  4.  前記透視像の各フレームについて、該フレームと略同時に撮影された前記断層像のフレームを示す情報を取得する対応取得手段をさらに備えることを特徴とする、請求項1乃至3の何れか1項に記載の情報処理装置。
  5.  前記表示制御手段は、前記透視像のフレームに加えて、当該透視像のフレームに含まれる前記プローブの像の位置を示す情報を前記表示手段に表示させることを特徴とする、請求項1乃至4の何れか1項に記載の情報処理装置。
  6.  前記ユーザが指定した血管位置における血管の情報を取得する血管情報取得手段をさらに備え、
     前記表示制御手段は、前記血管の情報を前記表示手段に表示させる
     ことを特徴とする、請求項1乃至5の何れか1項に記載の情報処理装置。
  7.  前記血管情報取得手段は、前記血管の情報として、前記ユーザが指定した血管位置における血管径を、前記断層像のフレームを参照して取得することを特徴とする、請求項6に記載の情報処理装置。
  8.  前記血管情報取得手段は、前記血管の情報として、前記ユーザが指定した2つの血管位置の間の血管長さを取得することを特徴とする、請求項6に記載の情報処理装置。
  9.  請求項1乃至8の何れか1項に記載の情報処理装置と、前記断層像を撮影する撮影装置と、前記透視像を撮影する撮影装置と、を備えることを特徴とする撮影システム。
  10.  情報処理装置が行う情報処理方法であって、
     プローブを血管内に挿入することによって撮影された、複数のフレームで構成される血管の断層像と、前記プローブを血管内に挿入している間に撮影された、複数のフレームで構成される血管の透視像と、を収集する画像収集工程と、
     前記透視像の各フレームに含まれるプローブの像の位置を取得する位置取得工程と、
     前記透視像のフレームと、該フレームと略同時に撮影された前記断層像のフレームと、を同時に表示手段に表示させる第1の表示制御工程と、
     前記表示手段に表示された前記透視像のフレーム上でユーザが指定した血管位置を取得する指定取得工程と、
     前記ユーザが指定した血管位置により近い位置にあるプローブの像を含む前記透視像のフレームと、該フレームと略同時に撮影された前記断層像のフレームと、を同時に前記表示手段に表示させる第2の表示制御工程と、
     を有することを特徴とする情報処理方法。
  11.  コンピュータに、
     プローブを血管内に挿入することによって撮影された、複数のフレームで構成される血管の断層像と、前記プローブを血管内に挿入している間に撮影された、複数のフレームで構成される血管の透視像と、を収集する画像収集手順と、
     前記透視像の各フレームに含まれるプローブの像の位置を取得する位置取得手順と、
     前記透視像のフレームと、該フレームと略同時に撮影された前記断層像のフレームと、を同時に表示手段に表示させる第1の表示制御手順と、
     前記表示手段に表示された前記透視像のフレーム上でユーザが指定した血管位置を取得する指定取得手順と、
     前記ユーザが指定した血管位置により近い位置にあるプローブの像を含む前記透視像のフレームと、該フレームと略同時に撮影された前記断層像のフレームと、を同時に前記表示手段に表示させる第2の表示制御手順と、
     を実行させるためのプログラム。
PCT/JP2013/005696 2013-09-26 2013-09-26 情報処理装置、撮影システム、情報処理方法及びプログラム WO2015044979A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2013/005696 WO2015044979A1 (ja) 2013-09-26 2013-09-26 情報処理装置、撮影システム、情報処理方法及びプログラム
JP2015538636A JP6181192B2 (ja) 2013-09-26 2013-09-26 情報処理装置及びプログラム
US15/075,796 US10524652B2 (en) 2013-09-26 2016-03-21 Information processing device, imaging system, information processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2013/005696 WO2015044979A1 (ja) 2013-09-26 2013-09-26 情報処理装置、撮影システム、情報処理方法及びプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/075,796 Continuation US10524652B2 (en) 2013-09-26 2016-03-21 Information processing device, imaging system, information processing method and program

Publications (1)

Publication Number Publication Date
WO2015044979A1 true WO2015044979A1 (ja) 2015-04-02

Family

ID=52742195

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/005696 WO2015044979A1 (ja) 2013-09-26 2013-09-26 情報処理装置、撮影システム、情報処理方法及びプログラム

Country Status (3)

Country Link
US (1) US10524652B2 (ja)
JP (1) JP6181192B2 (ja)
WO (1) WO2015044979A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016209018A (ja) * 2015-04-28 2016-12-15 テルモ株式会社 画像処理装置および方法、プログラム
WO2017130927A1 (ja) * 2016-01-26 2017-08-03 テルモ株式会社 画像表示装置およびその制御方法
JP2018011807A (ja) * 2016-07-22 2018-01-25 株式会社日立製作所 画像表示装置、x線画像診断装置、及び画像表示方法
CN110522410A (zh) * 2018-05-25 2019-12-03 上海交通大学 基于多处体表位置自发荧光强度判断稳定性冠状动脉疾病和心肌梗死的方法及其应用
JP2020528779A (ja) * 2017-07-26 2020-10-01 キヤノン ユーエスエイ, インコーポレイテッドCanon U.S.A., Inc 血管造影画像を用いて心臓運動を評価するための方法

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10631718B2 (en) 2015-08-31 2020-04-28 Gentuity, Llc Imaging system includes imaging probe and delivery devices
EP3700406A4 (en) 2017-11-28 2021-12-29 Gentuity LLC Imaging system
CN111904474B (zh) * 2020-08-19 2022-10-04 深圳开立生物医疗科技股份有限公司 血管内超声图像处理方法、装置、系统及可读存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0564638A (ja) * 1991-09-09 1993-03-19 Toshiba Corp 循環器診断装置
JPH07155316A (ja) * 1993-12-03 1995-06-20 Toshiba Corp 管腔内診断システム
JPH10137238A (ja) * 1996-11-11 1998-05-26 Shimadzu Corp 医用画像処理装置
JP2007282974A (ja) * 2006-04-19 2007-11-01 Shimadzu Corp 循環器用画像診断装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3144849B2 (ja) * 1991-09-30 2001-03-12 株式会社東芝 循環器用診断装置
EP1835855B1 (en) 2005-01-11 2017-04-05 Volcano Corporation Vascular image co-registration
JP4446310B2 (ja) * 2005-11-09 2010-04-07 シャープ株式会社 タッチ入力装置および表示装置
JP5559145B2 (ja) 2009-03-12 2014-07-23 テルモ株式会社 画像診断装置及びその作動方法
JP5287403B2 (ja) * 2009-03-19 2013-09-11 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0564638A (ja) * 1991-09-09 1993-03-19 Toshiba Corp 循環器診断装置
JPH07155316A (ja) * 1993-12-03 1995-06-20 Toshiba Corp 管腔内診断システム
JPH10137238A (ja) * 1996-11-11 1998-05-26 Shimadzu Corp 医用画像処理装置
JP2007282974A (ja) * 2006-04-19 2007-11-01 Shimadzu Corp 循環器用画像診断装置

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016209018A (ja) * 2015-04-28 2016-12-15 テルモ株式会社 画像処理装置および方法、プログラム
WO2017130927A1 (ja) * 2016-01-26 2017-08-03 テルモ株式会社 画像表示装置およびその制御方法
JPWO2017130927A1 (ja) * 2016-01-26 2018-11-22 テルモ株式会社 画像表示装置およびその制御方法
JP2018011807A (ja) * 2016-07-22 2018-01-25 株式会社日立製作所 画像表示装置、x線画像診断装置、及び画像表示方法
JP2020528779A (ja) * 2017-07-26 2020-10-01 キヤノン ユーエスエイ, インコーポレイテッドCanon U.S.A., Inc 血管造影画像を用いて心臓運動を評価するための方法
US11058385B2 (en) 2017-07-26 2021-07-13 Canon U.S.A., Inc. Method for evaluating cardiac motion using an angiography image
JP7054411B2 (ja) 2017-07-26 2022-04-13 キヤノン ユーエスエイ,インコーポレイテッド 血管造影画像を用いて心臓運動を評価するための方法
US11324468B2 (en) 2017-07-26 2022-05-10 Canon U.S.A., Inc. Method for co-registering and displaying multiple imaging modalities
CN110522410A (zh) * 2018-05-25 2019-12-03 上海交通大学 基于多处体表位置自发荧光强度判断稳定性冠状动脉疾病和心肌梗死的方法及其应用

Also Published As

Publication number Publication date
US10524652B2 (en) 2020-01-07
JPWO2015044979A1 (ja) 2017-03-02
US20160199017A1 (en) 2016-07-14
JP6181192B2 (ja) 2017-08-16

Similar Documents

Publication Publication Date Title
WO2015045368A1 (ja) 画像処理装置、画像表示システム、撮影システム、画像処理方法及びプログラム
JP6181192B2 (ja) 情報処理装置及びプログラム
JP6099562B2 (ja) 管腔内データおよび管腔外画像化の併用
JP7391100B2 (ja) 管腔内超音波イメージングのための速度決定、並びに関連するデバイス、システム、及び方法
US8457375B2 (en) Visualization method and imaging system
CN111867481A (zh) 确定和可视化解剖学标志用于管腔内损伤评估和处置规划
JP2005253964A (ja) 管腔内画像形成方法
JP5947707B2 (ja) 仮想内視鏡画像表示装置および方法並びにプログラム
JP2012521852A5 (ja)
JP6095770B2 (ja) 画像診断装置及びその作動方法、プログラム及びコンピュータ可読記憶媒体
JP6284944B2 (ja) 画像診断装置及びその作動方法及び記憶媒体
US20210085275A1 (en) Systems And Methods Of Combined Imaging
CN112512409A (zh) 血管内成像流程特异性工作流程引导和相关联的设备、系统和方法
JPWO2013145638A1 (ja) 画像診断装置及びプローブ
JP6100910B2 (ja) 情報処理装置、撮影システム、情報処理方法及びプログラム
JP2008237369A (ja) 画像処理装置及び画像処理方法
JP6100911B2 (ja) 画像診断装置及びその作動方法
US10076311B2 (en) Method and apparatus for registering medical images
JP5468759B2 (ja) 位置情報に基づいて関心対象ボリュームを収集するための方法及びシステム
JP2007000639A (ja) 脈管内検査を実施するための装置
JP2021194268A (ja) 血管観察システムおよび血管観察方法
JP6809905B2 (ja) 画像診断装置、画像診断装置の作動方法及びプログラム
JP2006314781A (ja) 横断面画像の撮影装置
JP5485753B2 (ja) 情報処理装置、その処理方法及びプログラム
JP2021069919A (ja) 血管内視鏡システムおよび血管径測定方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13894542

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2015538636

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13894542

Country of ref document: EP

Kind code of ref document: A1