WO2013137148A1 - 光画像計測装置、画像表示装置、および画像表示方法 - Google Patents

光画像計測装置、画像表示装置、および画像表示方法 Download PDF

Info

Publication number
WO2013137148A1
WO2013137148A1 PCT/JP2013/056495 JP2013056495W WO2013137148A1 WO 2013137148 A1 WO2013137148 A1 WO 2013137148A1 JP 2013056495 W JP2013056495 W JP 2013056495W WO 2013137148 A1 WO2013137148 A1 WO 2013137148A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
blood vessel
phase
information
blood
Prior art date
Application number
PCT/JP2013/056495
Other languages
English (en)
French (fr)
Inventor
晃敏 吉田
秋葉 正博
福間 康文
秀光 野老
大樹 相見
俊輔 中村
Original Assignee
株式会社トプコン
国立大学法人旭川医科大学
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2012053911A external-priority patent/JP5867719B2/ja
Priority claimed from JP2012076741A external-priority patent/JP5867720B2/ja
Application filed by 株式会社トプコン, 国立大学法人旭川医科大学 filed Critical 株式会社トプコン
Priority to EP17184898.9A priority Critical patent/EP3272276B1/en
Priority to EP17184896.3A priority patent/EP3269297B1/en
Priority to EP16176646.4A priority patent/EP3127474B1/en
Priority to EP13761015.0A priority patent/EP2829219B1/en
Priority to US14/379,623 priority patent/US9492082B2/en
Publication of WO2013137148A1 publication Critical patent/WO2013137148A1/ja
Priority to US15/197,262 priority patent/US9936870B2/en
Priority to US15/197,282 priority patent/US9848772B2/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/026Measuring blood flow
    • A61B5/0285Measuring or recording phase velocity of blood waves
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/12Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
    • A61B3/1225Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes using coherent radiation
    • A61B3/1233Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes using coherent radiation for measuring blood flow, e.g. at the retina
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/102Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for optical coherence tomography [OCT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/12Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
    • A61B3/1241Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes specially adapted for observation of ocular blood flow, e.g. by fluorescein angiography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0062Arrangements for scanning
    • A61B5/0066Optical coherence imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/026Measuring blood flow
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/026Measuring blood flow
    • A61B5/0261Measuring blood flow using optical means, e.g. infrared light
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4887Locating particular structures in or on the body
    • A61B5/489Blood vessels
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6813Specially adapted to be attached to a specific body part
    • A61B5/6814Head
    • A61B5/6821Eye
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7278Artificial waveform generation or derivation, e.g. synthesising signals from measured signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/743Displaying an image simultaneously with additional graphical information, e.g. symbols, charts, function plots
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/47Scattering, i.e. diffuse reflection
    • G01N21/4795Scattering, i.e. diffuse reflection spatially resolved investigating of object in scattering medium
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Definitions

  • This invention relates to a blood flow measurement technique using optical coherence tomography (OCT).
  • OCT optical coherence tomography
  • OCT that forms an image representing the surface form and internal form of an object to be measured using a light beam from a laser light source or the like has attracted attention. Since OCT has no invasiveness to the human body like X-ray CT, it is expected to be applied particularly in the medical field and the biological field. For example, in the field of ophthalmology, an apparatus for forming an image of the fundus oculi or cornea has been put into practical use.
  • Patent Document 1 discloses an apparatus using a so-called “Fourier Domain OCT (Fourier Domain OCT)” technique. That is, this apparatus irradiates the object to be measured with a beam of low coherence light, superimposes the reflected light and the reference light to generate interference light, acquires the spectral intensity distribution of the interference light, and performs Fourier transform. By performing the conversion, the form of the object to be measured in the depth direction (z direction) is imaged. Further, this apparatus includes a galvanometer mirror that scans a light beam (signal light) in one direction (x direction) orthogonal to the z direction, thereby forming an image of a desired measurement target region of the object to be measured. It has become. An image formed by this apparatus is a two-dimensional tomographic image in the depth direction (z direction) along the scanning direction (x direction) of the light beam. This method is also called a spectral domain.
  • Fourier Domain OCT Frourier Domain OCT
  • a plurality of two-dimensional tomographic images in the horizontal direction are formed by scanning (scanning) signal light in the horizontal direction (x direction) and the vertical direction (y direction), and based on the plurality of tomographic images.
  • a technique for acquiring and imaging three-dimensional tomographic information of a measurement range is disclosed.
  • this three-dimensional imaging for example, a method of displaying a plurality of tomographic images side by side in a vertical direction (referred to as stack data or the like), or volume data (voxel data) based on the stack data is subjected to rendering processing to obtain a three-dimensional image There is a method of forming.
  • Patent Documents 3 and 4 disclose other types of OCT apparatuses.
  • the wavelength of light irradiated to a measured object is scanned (wavelength sweep), and interference intensity obtained by superimposing reflected light of each wavelength and reference light is detected to detect spectral intensity distribution.
  • an OCT apparatus for imaging the form of an object to be measured by performing Fourier transform on the obtained image is called a swept source type.
  • the swept source type is a kind of Fourier domain type.
  • Patent Document 4 the traveling direction of light is obtained by irradiating the object to be measured with light having a predetermined beam diameter, and analyzing the component of interference light obtained by superimposing the reflected light and the reference light.
  • An OCT apparatus for forming an image of an object to be measured in a cross-section orthogonal to is described. Such an OCT apparatus is called a full-field type or an en-face type.
  • Patent Document 5 discloses a configuration in which OCT is applied to the ophthalmic field.
  • a fundus camera Prior to the application of OCT, a fundus camera, a slit lamp, or the like was used as an apparatus for observing the eye to be examined (see, for example, Patent Document 6 and Patent Document 7).
  • a fundus camera is a device that shoots the fundus by illuminating the subject's eye with illumination light and receiving the fundus reflection light.
  • a slit lamp is a device that acquires an image of a cross-section of the cornea by cutting off a light section of the cornea using slit light.
  • An apparatus using OCT has an advantage over a fundus camera or the like in that a high-definition image can be acquired, and further, a tomographic image or a three-dimensional image can be acquired.
  • an apparatus using OCT can be applied to observation of various parts of an eye to be examined and can acquire high-definition images, it has been applied to diagnosis of various ophthalmic diseases.
  • OCT is used not only for measuring the form of an object to be measured, but also for measuring blood flow of blood flowing through a blood vessel in a living body (see, for example, Patent Documents 8 and 9). Blood flow measurement using OCT is applied to fundus blood flow measurement and the like.
  • an object of the present invention is to provide a technique capable of performing blood flow measurement with high accuracy.
  • the conventional image display device has a problem that a plurality of images necessary for blood flow measurement cannot be displayed appropriately.
  • the present invention divides light from a light source into signal light and reference light, and detects an interference light between the scattered light of the signal light by the living body and the reference light via a reference light path; Based on a scanning unit that performs a first scan that repeatedly scans a first section that intersects the target blood vessel with the signal light, and a detection result of the interference light that is obtained by the optical system in the first scan, For each of the first tomographic image and the phase image, an image forming unit that forms a first tomographic image that represents a time-series change in morphology in one cross section and a phase image that represents a time-series change in phase difference.
  • Blood flow information related to the blood vessel of interest based on a blood vessel region specifying unit that specifies a blood vessel region corresponding to the blood vessel region and a time-series change in phase difference between the blood vessel region of the first tomographic image and the blood vessel region of the phase image
  • a blood vessel region specifying unit that specifies a blood vessel region corresponding to the blood vessel region and a time-series change in phase difference between the blood vessel region of the first tomographic image and the blood vessel region of the phase image
  • the scanning unit performs a second scan that scans with a signal light a second cross section that intersects the target blood vessel and is located in the vicinity of the first cross section.
  • a second tomographic image representing a form in the second cross section is formed, and the blood vessel region specifying unit is configured to A blood vessel region corresponding to a target blood vessel is identified, and the blood flow information generation unit is configured to determine a distance between the first cross section and the second cross section, the blood vessel region of the first tomographic image, and the second tomographic image.
  • the blood flow information is generated based on a time-series change of the blood vessel region and the phase difference.
  • the blood flow information generation unit is configured to determine the blood vessel of interest in the first cross section based on the distance, the blood vessel region of the first tomographic image, and the blood vessel region of the second tomographic image.
  • An inclination calculation unit that calculates an inclination is included, and the blood flow information is generated based on a calculation result of the inclination and a time-series change of the phase difference.
  • the second cross section includes an upstream cross section and a downstream cross section of the blood vessel of interest with respect to the first cross section.
  • the inclination calculation unit calculates the inclination based on the position of the blood vessel region in the first tomographic image and the position of the blood vessel region in the second tomographic image.
  • the blood flow information generation unit calculates a blood flow velocity in the first cross section of the blood flowing in the blood vessel of interest based on the calculation result of the inclination and the time-series change of the phase difference. And a blood flow velocity calculating unit.
  • the blood flow velocity calculation unit generates blood flow velocity change information representing a time-series change in the blood flow velocity based on the calculation result of the slope and the time-series change in the phase difference. It is characterized by that.
  • the blood flow velocity calculation unit calculates a statistical value of the blood flow velocity based on the blood flow velocity change information.
  • the present invention further includes an imaging unit that images the part of the living body including the position of the first cross section, and the blood flow information generation unit is based on a captured image of the part by the imaging unit, Based on the blood vessel diameter calculation unit that calculates the diameter of the blood vessel of interest in the first cross section, the blood flow velocity change information, and the calculation result of the diameter, the blood flow rate calculation that calculates the flow rate of blood flowing in the blood vessel of interest Part.
  • the blood flow information generation unit is configured to calculate a diameter of the blood vessel of interest in the first cross section based on the first tomographic image, the blood flow velocity change information, And a blood flow rate calculation unit that calculates a flow rate of blood flowing in the blood vessel of interest based on a diameter calculation result.
  • the blood flow velocity calculation unit generates the blood flow velocity change information for each of a plurality of pixels included in the blood vessel region of the phase image, and the blood flow information generation unit The blood flow rate for each pixel is calculated by integrating the blood flow velocity change information of the pixel along the time series, and the blood flow rate for the plurality of pixels is added to add blood flow rate for the pixel of interest.
  • a blood flow rate calculation unit for calculating a flow rate is included.
  • the blood vessel region specifying unit analyzes the first tomographic image to specify the blood vessel region, and determines the image region of the phase image corresponding to the position of the blood vessel region in the first tomographic image.
  • the image region is specified as the blood vessel region of the phase image.
  • the scanning unit performs the first scanning over at least one cardiac cycle of the living body.
  • the blood vessel of interest is a fundus blood vessel.
  • the first cross section and the second cross section are set near the optic nerve head of the fundus.
  • an image acquisition unit that acquires part of the optical path with the optical system and acquires the image of the fundus by detecting reflected light of illumination light irradiated on the fundus of the living body is acquired.
  • a display section for displaying the image; an operation section for designating the first cross section for the displayed image; and the first section based on the designated first cross section and the acquired image.
  • a cross-section setting unit for setting two cross-sections, and the scanning unit performs the first scan on the designated first cross-section, and the second scan on the set second cross-section. It is characterized by performing.
  • the present invention divides light from a light source into signal light and reference light, and detects an interference light between the scattered light of the signal light by a living body and the reference light via a reference light path, and A first scan that repeatedly scans with the signal light a first cross section that intersects the target blood vessel of the living body, and a second cross section that intersects the target blood vessel and is located in the vicinity of the first cross section with the signal light. And a first tomographic image representing a time-series change in form in the first section based on a detection result of the interference light obtained by the optical system in the first scan.
  • the scanning unit performs the first scanning over at least one cardiac cycle of the living body.
  • the blood vessel of interest is a fundus blood vessel.
  • the first cross section and the second cross section are set near the optic nerve head of the fundus.
  • the photographing unit shares a part of the optical path with the optical system, displays a photographed image of the fundus by the photographing unit, and displays the photographed image on the displayed photographed image.
  • An operation unit for designating one cross-section, and a cross-section setting unit for setting the second cross-section based on the designated first cross-section and the captured image, and the scanning unit is designated The first scan is performed on the first cross section, and the second scan is performed on the set second cross section.
  • An image display device of the present invention is an image associated with time, a tomographic image storage unit storing a tomographic image group including a plurality of tomographic images showing a cross section intersecting at least one blood vessel in a living body, A phase image storage unit that stores a phase image group including a plurality of phase images that are images associated with time and that indicate a time-series change in phase difference in a cross section intersecting at least one blood vessel in a living body.
  • a blood flow information storage unit for storing a blood flow information group including a plurality of blood flow information that is information related to blood flow in blood vessels in a living body and is associated with time, and a tomographic image group
  • the tomographic image included in the phase image group and the phase image included in the phase image group are displayed in synchronization using the time associated with the tomographic image and the phase image, and the blood flow included in the blood flow information group Out of information
  • a change operation accepting unit that accepts a change operation that is an operation to change the display on any one of the tomographic image, the phase image, and the blood flow image to be displayed, and the display unit is the same change as the change corresponding to the change operation Is an image display device that performs the processing on the tomographic image, the phase image, and the blood
  • the tomographic image storage unit includes a tomographic image group and blood vessel identification information that is information indicating one or more blood vessels intersecting a cross section indicated by the tomographic image group.
  • the tomographic management information is stored, and the phase image storage unit stores the phase management information including the phase image group and the blood vessel identification information of one or more blood vessels intersecting the cross section corresponding to the phase image group, and blood flow information
  • the storage unit stores blood flow management information including a blood flow information blood flow information group and blood vessel identification information of a blood vessel corresponding to the blood flow information group, and the display unit is designated with one blood vessel identification information.
  • the image display device stores phase blood vessel management information including phase blood vessel position information, which is information indicating the position of a blood vessel in the phase image, and blood vessel identification information of the blood vessel in the image display device.
  • phase blood vessel management information storage unit, and the change operation accepting unit further accepts a phase blood vessel designating operation for designating a position on the blood vessel in the phase image displayed by the display unit, and sets the position designated by the phase blood vessel designating operation.
  • Corresponding blood vessel identification information is acquired from the phase blood vessel management information, and the display unit acquires and displays a blood flow image using the blood flow information group corresponding to the blood vessel identification information acquired by the change operation receiving unit.
  • Device With this configuration, by specifying a blood vessel in the phase image, it is possible to display a blood flow image related to the specified blood vessel, and thus it is possible to easily and intuitively switch the display of the blood flow image.
  • the image display device stores phase blood vessel management information including phase blood vessel position information, which is information indicating the position of a blood vessel in the phase image, and blood vessel identification information of the blood vessel in the image display device.
  • Phase blood vessel management information storage unit Phase blood vessel management information storage unit, tomographic blood vessel management information storage unit that stores tomographic blood vessel position information, which is information indicating the position of a blood vessel in a tomographic image, and blood vessel identification information
  • the change operation accepting unit further accepts a phase blood vessel designating operation for designating a position on the blood vessel in the phase image displayed by the display unit, and blood vessel identification information corresponding to the position designated by the phase blood vessel designating operation
  • the display unit acquires tomographic blood vessel position information corresponding to the blood vessel identification information acquired by the change operation receiving unit using the tomographic blood vessel management information, and Of the position indicated by the acquired tomographic vessel position information, an image display apparatus for displaying in a display mode different from the other position.
  • the change operation accepting unit accepts a change operation designating a time, acquires a time corresponding to the change operation, and the display unit receives the change operation accepting unit.
  • An image display device that acquires a tomographic image, a phase image, and a blood flow image corresponding to an acquired time using a tomographic image group, a phase image group, or a blood flow information group, and displays the acquired image.
  • a tomographic image, a phase image, and a blood flow corresponding to the designated time can be obtained by performing a change operation for designating one time on one of the tomographic image, the phase image, and the blood flow image.
  • An image can be displayed. This makes it easy to specify an image because it is possible to display an image corresponding to this time when the user knows the time to display without specifying the time individually for each image. Is possible.
  • the image display device of the present invention in the image display device, a biological image storage unit that stores a biological image that is an image obtained by photographing a region including a position where a cross-section of a tomographic image is acquired from the front in the living body, A blood vessel position information that is information indicating the position of one or more blood vessels in the biological image; and a blood vessel management information storage unit that stores blood vessel management information including blood vessel identification information corresponding to the blood vessel, and the display unit includes: Furthermore, the biometric image is displayed, and the change operation accepting unit further accepts a blood vessel designating operation that designates a position on one blood vessel in the biometric image displayed by the display unit, and corresponds to the position designated by the blood vessel designating operation.
  • Blood vessel identification information to be acquired from the blood vessel management information and the display unit displays a tomographic image, a phase image, and a blood flow image corresponding to the blood vessel identification information acquired by the change operation receiving unit, Group, and blood flow information group was obtained using each of the obtained tomographic image is an image display apparatus for displaying a phase image, and the blood flow image.
  • the change operation receiving unit changes the frame rate of the displayed image with respect to the tomographic image or the phase image displayed by the display unit. The operation is accepted, and the display unit is an image display device that changes the frame rate for displaying the tomographic image and the phase image to the same frame rate corresponding to the frame rate changing operation.
  • the image display device of the present invention is a tomographic image storage unit in which a tomographic image group including a plurality of tomographic images showing a cross section intersecting at least one blood vessel in a living body, which is an image associated with time. And a phase image in which a phase image group including a plurality of phase images that are time-series changes of phase differences in a cross section intersecting with at least one blood vessel in a living body is stored.
  • a storage unit, a tomographic image included in the tomographic image group, and a phase image included in the phase image group are synchronized using a time associated with the tomographic image and the phase image, and are displayed in a superimposed manner.
  • the image display device of the present invention is a blood flow information group comprising a plurality of blood flow information that is information related to blood flow in blood vessels in a living body and is associated with time in the image display device.
  • the display unit is further associated with the tomographic image and the phase image that are superimposed and displayed among the blood flow information included in the blood flow information group.
  • It is an image display device which displays a blood flow image which is an image showing a plurality of blood flow information associated with a time within a period including a certain time. With this configuration, it is possible to display an image obtained by superimposing the tomographic image and the phase image, and a blood flow image regarding a blood vessel included in the superimposed image.
  • the display is changed with respect to any one of the image obtained by superimposing the tomographic image and the phase image displayed on the display unit or the blood flow image.
  • a change operation accepting unit that accepts a change operation that is an operation, and the display unit includes an image obtained by superimposing a tomographic image and a phase image displayed on the display unit on the same change as the change corresponding to the change operation, and blood flow
  • This is an image display device for performing an image.
  • the tomographic image storage unit includes a tomographic image group and blood vessel identification information that is information indicating one or more blood vessels intersecting a cross section indicated by the tomographic image group.
  • the tomographic management information is stored, and the phase image storage unit stores the phase management information including the phase image group and the blood vessel identification information of one or more blood vessels that intersect the cross section corresponding to the phase image group, and stores the blood flow.
  • the blood flow management information including a blood flow information group and blood vessel identification information of a blood vessel corresponding to the blood flow information group is stored in the unit, and the display unit is a tomographic image group associated with one blood vessel identification information And a tomographic image and a phase image respectively included in the phase image group, and a blood flow image indicating the blood flow information included in the blood flow information group associated with the one blood vessel identification information, and the change operation receiving unit , Blood vessels for images superimposed on the display
  • the blood vessel change designation operation to be designated is received, blood vessel identification information corresponding to the blood vessel change designation operation is acquired, and the display unit is a tomographic image, a phase image, and a blood flow image corresponding to the blood vessel identification information acquired by the change operation reception unit Is obtained using a tomographic image group, a phase image group, and a blood flow information group, and displays the acquired image.
  • the designated blood vessel identification information is obtained.
  • An image obtained by superimposing a corresponding tomographic image and a phase image and a blood flow image can be displayed.
  • the change operation receiving unit sets a frame rate of an image to be displayed for any one of the tomographic image and the phase image displayed by the display unit.
  • the display unit is an image display device that receives a frame rate change operation to be changed, and changes the frame rate for displaying the tomographic image and the phase image to the same frame rate corresponding to the frame rate change operation.
  • the image display device of the present invention includes a biological image storage unit that stores a biological image that is an image of a living body, blood vessel position information that is information indicating the position of one or more blood vessels in the biological image, and blood vessels.
  • a blood vessel management information storage unit in which blood vessel management information including corresponding blood vessel identification information is stored, and an image associated with time, and a time-series change in phase difference in a cross section intersecting at least one blood vessel in a living body
  • a phase image storage unit that stores phase management information including a phase image group including a plurality of phase images, and a blood vessel identification information of a blood vessel that intersects a cross section corresponding to the phase image group;
  • a phase vessel management information storage unit storing phase vessel management information including phase vessel position information, which is information indicating a vessel position, and vessel identification information of a vessel; a biological image; and one vessel identification information
  • a display unit that displays phase images included in the phase image group associated with each other, and a blood vessel classification specifying operation that receives
  • a blood vessel classification management information storage unit that accumulates information in the blood vessel classification management information storage unit, and the display unit is configured to detect, from the phase blood vessel management information, the blood vessel identification information corresponding to the phase image displayed by the display unit.
  • the blood vessel position information is acquired, the blood vessel classification information corresponding to the blood vessel identification information is acquired from the blood vessel classification management information, and the position indicated by the phase blood vessel position information corresponding to the blood vessel identification information of the phase image is different from other positions.
  • This is an image display device that displays in different display modes depending on whether the blood vessel classification information corresponding to the phase blood vessel position information is information indicating that it is an artery or information indicating that it is a vein. .
  • a blood vessel when a blood vessel is designated as a vein or an artery in a biological image, the designation can be reflected as a display mode of an area where a blood vessel in a phase image is displayed. Therefore, it is not necessary to specify the classification of blood vessels for each, and operation can be simplified.
  • the phase image it is difficult to grasp the position of the blood vessel, but in the living body image such as the fundus image, the position of the blood vessel and the like are easy to grasp, so that the operability is further improved. Thereby, the several image required for the measurement of a blood flow can be displayed appropriately.
  • the blood flow measurement is performed using the first tomographic image having the same cross section as the phase image and the time-series change of the phase difference, so that the blood flow measurement with high accuracy can be realized.
  • blood flow measurement can be performed using the first tomographic image having the same cross section as the phase image and the time-series change of the phase difference. Furthermore, the present invention calculates a blood flow velocity based on the time-series change of the phase difference and the result of specifying the blood vessel region, calculates the diameter of the target blood vessel based on the captured image, and calculates the blood flow velocity calculation result and the blood vessel. It functions to calculate the blood flow based on the calculation result of the diameter. Therefore, blood flow measurement with high accuracy can be realized.
  • Schematic showing an example of a structure of the fundus oculi observation device (optical image measurement device) according to the embodiment Schematic which shows an example of a structure of the fundus oculi observation device concerning an embodiment.
  • Schematic block diagram showing an example of the same configuration Schematic block diagram showing an example of the same configuration
  • Schematic showing an example of the same operation Schematic showing an example of the same operation
  • Flow chart showing the same operation example Schematic block diagram showing an example of the configuration of an image display device according to an embodiment Flow chart explaining the operation Flow chart explaining the operation Flow chart explaining the operation
  • Conceptual diagram The figure which shows an example of the same biological image
  • the figure which shows an example of the biometric image management information The figure which shows an example of the blood vessel management information
  • the figure which shows an example of the tomographic image The figure which shows an example of the fault management information
  • the figure which shows an example of the tomographic blood vessel management information The figure which shows an example of the same phase image
  • the optical image measurement device forms a tomographic image or a three-dimensional image of a living body using OCT.
  • images acquired by OCT may be collectively referred to as OCT images.
  • a measurement operation for forming an OCT image may be referred to as OCT measurement.
  • a fundus oculi observation device that performs OCT measurement of the fundus by applying a Fourier domain type OCT using a living body measurement target as an eye to be examined (fundus)
  • the fundus oculi observation device according to the embodiment can acquire both the fundus OCT image and the fundus oculi image using the spectral domain OCT technique, similarly to the device disclosed in Patent Document 5.
  • the configuration according to the present invention can be applied to an optical image measurement apparatus using a type other than the spectral domain, for example, a swept source OCT technique.
  • an apparatus combining an OCT apparatus and a fundus camera will be described.
  • this embodiment may be applied to a fundus imaging apparatus other than a fundus camera, such as an SLO (Scanning Laser Ophthalmoscope), a slit lamp, an ophthalmic surgical microscope, and the like. It is also possible to combine an OCT apparatus having the configuration according to the above. In addition, the configuration according to this embodiment can be incorporated into a single OCT apparatus. The configuration of this embodiment can also be applied to an OCT apparatus that measures a biological part other than the fundus. Such a living body part is an arbitrary part to be inspected for a blood flow state.
  • SLO Scnning Laser Ophthalmoscope
  • the fundus oculi observation device 1 includes a fundus camera unit 2, an OCT unit 100, and an arithmetic control unit 200.
  • the retinal camera unit 2 has almost the same optical system as a conventional retinal camera.
  • the OCT unit 100 is provided with an optical system for acquiring an OCT image of the fundus.
  • the arithmetic control unit 200 includes a computer that executes various arithmetic processes and control processes.
  • the fundus camera unit 2 shown in FIG. 1 is provided with an optical system for obtaining a two-dimensional image (fundus image) representing the surface form of the fundus oculi Ef of the eye E to be examined.
  • the fundus image includes an observation image and a captured image.
  • the observation image is a monochrome moving image formed at a predetermined frame rate using near infrared light, for example.
  • the captured image may be, for example, a color image obtained by flashing visible light, or a monochrome still image using near infrared light or visible light as illumination light.
  • the fundus camera unit 2 may be configured to be able to acquire images other than these, such as a fluorescein fluorescent image, an indocyanine green fluorescent image, a spontaneous fluorescent image, and the like.
  • the fundus camera unit 2 is provided with a chin rest and a forehead for supporting the subject's face. Further, the fundus camera unit 2 is provided with an illumination optical system 10 and a photographing optical system 30.
  • the illumination optical system 10 irradiates the fundus oculi Ef with illumination light.
  • the photographing optical system 30 guides the fundus reflection light of the illumination light to an imaging device (CCD image sensor (sometimes simply referred to as a CCD) 35, 38).
  • the imaging optical system 30 guides the signal light from the OCT unit 100 to the fundus oculi Ef and guides the signal light passing through the fundus oculi Ef to the OCT unit 100.
  • the observation light source 11 of the illumination optical system 10 is composed of, for example, a halogen lamp.
  • the light (observation illumination light) output from the observation light source 11 is reflected by the reflection mirror 12 having a curved reflection surface, passes through the condensing lens 13, passes through the visible cut filter 14, and is converted into near infrared light. Become. Further, the observation illumination light is once converged in the vicinity of the photographing light source 15, reflected by the mirror 16, and passes through the relay lenses 17 and 18, the diaphragm 19 and the relay lens 20. Then, the observation illumination light is reflected at the peripheral portion (region around the hole portion) of the aperture mirror 21, passes through the dichroic mirror 46, and is refracted by the objective lens 22 to illuminate the fundus oculi Ef.
  • An LED Light Emitting Diode
  • the fundus reflection light of the observation illumination light is refracted by the objective lens 22, passes through the dichroic mirror 46, passes through the hole formed in the central region of the perforated mirror 21, passes through the dichroic mirror 55, and is a focusing lens. It is reflected by the mirror 32 via 31. Further, the fundus reflection light passes through the half mirror 40, is reflected by the dichroic mirror 33, and forms an image on the light receiving surface of the CCD image sensor 35 by the condenser lens 34.
  • the CCD image sensor 35 detects fundus reflected light at a predetermined frame rate, for example. On the display device 3, an image (observation image) based on fundus reflection light detected by the CCD image sensor 35 is displayed. When the photographing optical system is focused on the anterior segment, an observation image of the anterior segment of the eye E is displayed.
  • the photographing light source 15 is constituted by, for example, a xenon lamp.
  • the light (imaging illumination light) output from the imaging light source 15 is applied to the fundus oculi Ef through the same path as the observation illumination light.
  • the fundus reflection light of the imaging illumination light is guided to the dichroic mirror 33 through the same path as that of the observation illumination light, passes through the dichroic mirror 33, is reflected by the mirror 36, and is reflected by the condenser lens 37 of the CCD image sensor 38.
  • An image is formed on the light receiving surface.
  • On the display device 3 an image (captured image) based on fundus reflection light detected by the CCD image sensor 38 is displayed.
  • the fixation position of the eye E can be changed by changing the display position of the fixation target on the screen of the LCD 39.
  • As the fixation position of the eye E for example, a position for acquiring an image centered on the macular portion of the fundus oculi Ef, or a position for acquiring an image centered on the optic disc as in the case of a conventional fundus camera And a position for acquiring an image centered on the fundus center between the macula and the optic disc. It is also possible to arbitrarily change the display position of the fixation target.
  • the corneal reflection light of the alignment light passes through the objective lens 22, the dichroic mirror 46 and the hole, part of which passes through the dichroic mirror 55, passes through the focusing lens 31, is reflected by the mirror 32, and is half mirror 40 is reflected by the dichroic mirror 33 and projected onto the light-receiving surface of the CCD image sensor 35 by the condenser lens 34.
  • the light reception image (alignment index) by the CCD image sensor 35 is displayed on the display device 3 together with the observation image.
  • the user performs alignment by performing the same operation as that of a conventional fundus camera. Further, the arithmetic control unit 200 may perform alignment by analyzing the position of the alignment index and moving the optical system (auto-alignment function).
  • the fundus reflection light of the focus light is detected by the CCD image sensor 35 through the same path as the corneal reflection light of the alignment light.
  • a light reception image (split index) by the CCD image sensor 35 is displayed on the display device 3 together with the observation image.
  • the arithmetic and control unit 200 analyzes the position of the split index and moves the focusing lens 31 and the focus optical system 60 to perform focusing as in the conventional case (autofocus function). Alternatively, focusing may be performed manually while visually checking the split indicator.
  • the OCT unit 100 is provided with an optical system for acquiring an OCT image of the fundus oculi Ef.
  • This optical system has the same configuration as a conventional spectral domain type OCT apparatus. That is, this optical system divides low-coherence light into reference light and signal light, and generates interference light by causing interference between the signal light passing through the fundus oculi Ef and the reference light passing through the reference optical path. It is configured to detect spectral components. This detection result (detection signal) is sent to the arithmetic control unit 200.
  • a wavelength swept light source is provided instead of a light source that outputs a low coherence light source, and an optical member that spectrally decomposes interference light is not provided.
  • a known technique according to the type of optical coherence tomography can be arbitrarily applied.
  • the light source unit 101 outputs a broadband low-coherence light L0.
  • the low coherence light L0 includes, for example, a near-infrared wavelength band (about 800 nm to 900 nm) and has a temporal coherence length of about several tens of micrometers. Note that near-infrared light having a wavelength band invisible to the human eye, for example, a center wavelength of about 1040 to 1060 nm, may be used as the low-coherence light L0.
  • the light source unit 101 includes a super luminescent diode (Super Luminescent Diode: SLD), an LED, and an optical output device such as an SOA (Semiconductor Optical Amplifier).
  • SLD Super Luminescent Diode
  • LED an LED
  • SOA semiconductor Optical Amplifier
  • the low coherence light L0 output from the light source unit 101 is guided to the fiber coupler 103 by the optical fiber 102, and is divided into the signal light LS and the reference light LR.
  • the signal light LS generated by the fiber coupler 103 is guided by the optical fiber 107 and converted into a parallel light beam by the collimator lens unit 105. Further, the signal light LS reaches the dichroic mirror 46 via the optical path length changing unit 41, the galvano scanner 42, the focusing lens 43, the mirror 44, and the relay lens 45. Then, the signal light LS is reflected by the dichroic mirror 46, refracted by the objective lens 11, and irradiated onto the fundus oculi Ef. The signal light LS is scattered (including reflection) at various depth positions of the fundus oculi Ef. The backscattered light of the signal light LS from the fundus oculi Ef travels in the same direction as the forward path in the reverse direction, is guided to the fiber coupler 103, and reaches the fiber coupler 109 via the optical fiber 108.
  • the fiber coupler 109 causes the backscattered light of the signal light LS to interfere with the reference light LR that has passed through the fiber coupler 104.
  • the interference light LC generated thereby is guided by the optical fiber 110 and emitted from the emission end 111. Further, the interference light LC is converted into a parallel light beam by the collimator lens 112, dispersed (spectral decomposition) by the diffraction grating 113, condensed by the condenser lens 114, and projected onto the light receiving surface of the CCD image sensor 115.
  • the diffraction grating 118 shown in FIG. 2 is a transmission type, but other types of spectroscopic elements such as a reflection type diffraction grating can also be used.
  • the CCD image sensor 115 is a line sensor, for example, and detects each spectral component of the split interference light LC and converts it into electric charges.
  • the CCD image sensor 115 accumulates this electric charge, generates a detection signal, and sends it to the arithmetic control unit 200.
  • a Michelson type interferometer is used, but any type of interferometer such as a Mach-Zehnder type can be appropriately used.
  • any type of interferometer such as a Mach-Zehnder type can be appropriately used.
  • another form of image sensor for example, a CMOS (Complementary Metal Oxide Semiconductor) image sensor or the like can be used.
  • CMOS Complementary Metal Oxide Semiconductor
  • the configuration of the arithmetic control unit 200 will be described.
  • the arithmetic control unit 200 analyzes the detection signal input from the CCD image sensor 115 and forms an OCT image of the fundus oculi Ef.
  • the arithmetic processing for this is the same as that of a conventional spectral domain type OCT apparatus.
  • the arithmetic control unit 200 controls each part of the fundus camera unit 2, the display device 3, and the OCT unit 100. For example, the arithmetic control unit 200 displays an OCT image of the fundus oculi Ef on the display device 3.
  • the arithmetic control unit 200 performs operation control of the light source unit 101, operation control of the optical attenuator 105, operation control of the polarization adjuster 106, operation control of the CCD image sensor 120, and the like.
  • the arithmetic control unit 200 includes, for example, a microprocessor, a RAM, a ROM, a hard disk drive, a communication interface, and the like, as in a conventional computer.
  • a computer program for controlling the fundus oculi observation device 1 is stored in a storage device such as a hard disk drive.
  • the arithmetic control unit 200 may include various circuit boards, for example, a circuit board for forming an OCT image.
  • the arithmetic control unit 200 may include an operation device (input device) such as a keyboard and a mouse, and a display device such as an LCD.
  • the fundus camera unit 2, the display device 3, the OCT unit 100, and the calculation control unit 200 may be configured integrally (that is, in a single housing) or separated into two or more cases. It may be.
  • Control system The configuration of the control system of the fundus oculi observation device 1 will be described with reference to FIGS.
  • the control system of the fundus oculi observation device 1 is configured around the control unit 210.
  • the control unit 210 includes, for example, the aforementioned microprocessor, RAM, ROM, hard disk drive, communication interface, and the like.
  • the control unit 210 is provided with a main control unit 211 and a storage unit 212.
  • the focusing drive unit 80 moves the focusing lens 31 in the optical axis direction. Thereby, the focus position of the photographic optical system 30 is changed.
  • the main control unit 211 can also move an optical system provided in the fundus camera unit 2 in a three-dimensional manner by controlling an optical system drive unit (not shown). This control is used in alignment and tracking. Tracking is to move the apparatus optical system in accordance with the eye movement of the eye E. When tracking is performed, alignment and focusing are performed in advance. Tracking is a function of maintaining a suitable positional relationship in which the alignment and focus are achieved by causing the position of the apparatus optical system to follow the eye movement.
  • the main control unit 211 performs a process of writing data to the storage unit 212 and a process of reading data from the storage unit 212.
  • the storage unit 212 stores various data. Examples of the data stored in the storage unit 212 include OCT image image data, fundus image data, and examined eye information.
  • the eye information includes information about the subject such as patient ID and name, and information about the eye such as left / right eye identification information.
  • the storage unit 212 stores various programs and data for operating the fundus oculi observation device 1.
  • the first scan is preferably performed over at least one cardiac cycle of the patient's heart.
  • the time for executing the first scan may be a predetermined time set in advance, or may be a time set for each patient or for each examination. In the former case, a time longer than a general cardiac cycle is set (for example, 2 seconds). In the latter case, examination data such as a patient's electrocardiogram is referred to.
  • factors other than the cardiac cycle can be considered. Examples of this factor include time required for examination (a burden on the patient), response time of the galvano scanner 42 (scan interval), response time of the CCD 115 (scan interval), and the like.
  • the phase image forming unit 222 forms a phase image representing a time-series change of the phase difference in the first cross section based on the detection result of the interference light LS obtained by the first scanning.
  • the detection result used in this process is the same as that used for the first tomographic image forming process by the tomographic image forming unit 221. Therefore, it is possible to perform alignment between the first tomographic image and the phase image. That is, it is possible to naturally associate the pixels of the first tomographic image with the pixels of the phase image.
  • the image processing unit 230 performs various types of image processing and analysis processing on the image formed by the image forming unit 220. For example, the image processing unit 230 executes various correction processes such as image brightness correction and dispersion correction. The image processing unit 230 performs various types of image processing and analysis processing on the image (fundus image, anterior eye image, etc.) obtained by the fundus camera unit 2.
  • the image processing unit 230 executes known image processing such as interpolation processing for interpolating pixels between tomographic images to form image data of a three-dimensional image of the fundus oculi Ef.
  • image data of a three-dimensional image means image data in which pixel positions are defined by a three-dimensional coordinate system.
  • image data of a three-dimensional image there is image data composed of voxels arranged three-dimensionally. This image data is called volume data or voxel data.
  • the image processing unit 230 When displaying an image based on volume data, the image processing unit 230 performs rendering processing on the volume data to form image data of a pseudo three-dimensional image when viewed from a specific line-of-sight direction. .
  • This pseudo three-dimensional image is displayed on a display device such as the display unit 240A.
  • the image processing unit 230 includes a blood vessel region specifying unit 231 and a blood flow information generating unit 232.
  • the blood flow information generation unit 232 includes an inclination calculation unit 233, a blood flow velocity calculation unit 234, a blood vessel diameter calculation unit 235, and a blood flow rate calculation unit 236. Further, the image processing unit 230 has a cross-section setting unit 237. Hereinafter, each of these units 231 to 237 will be described.
  • the first tomographic image and the second tomographic image have sufficient resolution to perform analysis processing, but the phase image may not have enough resolution to identify the boundary of the blood vessel region.
  • the phase image may not have enough resolution to identify the boundary of the blood vessel region.
  • the blood flow information generation unit 232 determines the blood flow related to the target blood vessel Db based on the distance between the first cross section and the second cross section, the result of specifying the blood vessel region, and the time-series change of the phase difference in the blood vessel region of the phase image. Generate information.
  • the distance between the first cross section and the second cross section is determined in advance.
  • the blood vessel region is obtained by the blood vessel region specifying unit 231.
  • the time series change of the phase difference in the blood vessel region of the phase image is obtained as the time series change of the phase difference for the pixels in the blood vessel region of the phase image.
  • the Doppler shift received by the signal light LS changes according to the angle formed by the blood flow direction (that is, the direction of the blood vessel Db of interest) and the signal light LS, and thus blood obtained Flow information will also change.
  • Reference numerals G0, G1, and G2 respectively indicate a first tomographic image at the first slice C0, a second tomographic image at the second slice, and a second tomographic image at the second slice C2.
  • Reference signs V0, V1, and V2 indicate the blood vessel region of the first tomographic image G0, the blood vessel region of the second tomographic image G1, and the blood vessel region of the second tomographic image G2, respectively.
  • the z coordinate axis is directed downward in the drawing, and this substantially coincides with the irradiation direction of the signal light LS. Also, let d be the interval between adjacent tomographic images.
  • the inclination calculation unit 233 calculates the inclination A of the target blood vessel Db in the first cross section C0 based on the positional relationship between the three blood vessel regions V0, V1, and V2. This positional relationship is obtained, for example, by connecting three blood vessel regions V0, V1, and V2. More specifically, the inclination calculating unit 233 identifies the characteristic positions of the three blood vessel regions V0, V1, and V2, and connects these characteristic positions. Examples of the characteristic position include a center position, a center of gravity position, an uppermost portion (a position having the smallest z coordinate value), and a lowermost portion (a position having the largest z coordinate value). In addition, as a method of connecting these feature positions, there are a method of connecting with a line segment, a method of connecting with an approximate curve (spline curve, Bezier curve, etc.), and the like.
  • the blood vessel region in three cross sections is considered, but it is also possible to obtain the inclination in consideration of the two cross sections.
  • the inclination of the first line segment or the second line segment can be set as a target inclination.
  • one inclination is obtained, but the inclination may be obtained for each of two or more positions (or areas) in the blood vessel region V0.
  • two or more obtained slope values can be used separately, or one value (for example, an average value) statistically obtained from these slope values can be used as the slope A.
  • the blood flow velocity calculator 234 can calculate a statistical value of the blood flow velocity in the time range.
  • the statistical values include an average value, standard deviation, variance, median value, maximum value, minimum value, maximum value, minimum value, and the like. It is also possible to create a histogram for blood flow velocity values.
  • the blood flow velocity calculation unit 234 calculates the blood flow velocity using the Doppler OCT method as described above. At this time, the inclination A of the target blood vessel Db in the first cross section C0 calculated by the inclination calculation unit 233 is considered. Specifically, the inclination calculation unit 233 uses the following equation.
  • n and ⁇ are known, ⁇ f is obtained from the time-series change of the phase difference, and ⁇ is obtained from the slope A (or ⁇ is obtained as the slope A).
  • the blood vessel diameter calculation unit 235 calculates the diameter of the target blood vessel Db in the first cross section C0. Examples of this calculation method include a first calculation method using a fundus image and a second calculation method using a tomographic image.
  • the fundus image obtained thereby may be an observation image (frame) or a captured image.
  • the captured image is a color image
  • an image constituting the captured image for example, a red free image
  • the blood vessel diameter calculation unit 235 determines the relationship between the scale on the image and the scale in the real space, such as the shooting angle of view (shooting magnification), working distance, and information on the eyeball optical system. Set the scale.
  • This scale represents the length in real space.
  • the blood vessel diameter calculation unit 235 calculates the diameter of the target blood vessel Db in the first cross section C0, that is, the diameter of the blood vessel region V0, based on this scale and the pixels included in the blood vessel region V0. As a specific example, the blood vessel diameter calculation unit 235 obtains the maximum value and the average value of the diameters of the blood vessel region V0 in various directions. In addition, the blood vessel region 235 can approximate the outline of the blood vessel region V0 in a circle or an ellipse, and obtain the diameter of the circle or the ellipse. If the blood vessel diameter is determined, the area of the blood vessel region V0 can be (substantially) determined (that is, the two can be substantially associated one-to-one). You may make it calculate.
  • the second calculation method will be described.
  • a tomographic image of the fundus oculi Ef in the first cross section C0 is used.
  • This tomographic image may be the first tomographic image or may be acquired separately.
  • the scale in this tomographic image is determined according to the scanning mode of the signal light LS.
  • the first cross section C0 is scanned as shown in FIG.
  • the length of the first cross section is determined based on various factors that determine the relationship between the scale on the image and the scale in the real space, such as working distance and information on the eyeball optical system.
  • the blood vessel diameter calculation unit 235 obtains the interval between adjacent pixels based on this length, and calculates the diameter of the blood vessel Db of interest in the first cross section C0 in the same manner as in the first calculation method.
  • the blood flow rate calculation unit 236 calculates the flow rate of the blood flowing in the target blood vessel Db based on the blood flow velocity calculation result and the blood vessel diameter calculation result. An example of this process will be described below.
  • the blood flow rate calculation unit 236 substitutes the calculation result w of the blood vessel diameter by the blood vessel diameter calculation unit 235 and the maximum value Vm based on the calculation result of the blood flow velocity by the blood flow velocity calculation unit 234 into this equation.
  • a target blood flow rate Q is calculated.
  • a predetermined interface for setting parameters can be used.
  • This interface may be hardware such as a switch or software such as a graphical user interface (GUI).
  • GUI graphical user interface
  • the cross-section setting unit 237 sets parameters based on the position designated by the user for the fundus image.
  • a predetermined value may be applied, or the designated position and the position of the blood vessel in the vicinity thereof may be considered.
  • the former value is designated based on, for example, a general distance between a predetermined blood vessel of interest and a blood vessel in the vicinity thereof. This distance information can be generated based on clinical data. The same applies to the latter case.
  • the length of the first cross section C0 is set so as to cross the target blood vessel Db and not cross the other blood vessels (particularly thick blood vessels).
  • a predetermined orientation may be applied, or the orientation of the target blood vessel Db may be considered.
  • information indicating the inclination of each position of a predetermined blood vessel of interest is generated in advance and is referred to. This information can be generated based on clinical data.
  • the traveling direction of the target blood vessel Db at the designated position is obtained and set based on the traveling direction.
  • the process for obtaining the traveling direction is performed using, for example, a thinning process for the blood vessel Db of interest.
  • it is desirable that the direction of the first cross section C0 is set to be orthogonal to the traveling direction.
  • the cross-section setting unit 237 sets the second cross-sections C1 and C2 at positions separated from the first cross-section C0 by a predetermined distance. This distance is set to 100 ⁇ m, for example. This distance is specified as described above, for example.
  • the length and / or direction of the second cross sections C1 and C2 are set in the same manner as in the case of the first cross section C0.
  • the user interface 240 includes a display unit 240A and an operation unit 240B.
  • the display unit 240A includes the display device of the arithmetic control unit 200 and the display device 3 described above.
  • the operation unit 240B includes the operation device of the arithmetic control unit 200 described above.
  • the operation unit 240B may include various buttons and keys provided on the housing of the fundus oculi observation device 1 or outside.
  • the fundus camera unit 2 has a housing similar to that of a conventional fundus camera
  • the operation unit 240B may include a joystick, an operation panel, or the like provided on the housing.
  • the display unit 240 ⁇ / b> A may include various display devices such as a touch panel provided on the housing of the fundus camera unit 2.
  • the display unit 240A and the operation unit 240B do not need to be configured as individual devices.
  • a device in which a display function and an operation function are integrated such as a touch panel
  • the operation unit 240B includes the touch panel and a computer program.
  • the operation content for the operation unit 240B is input to the control unit 210 as an electrical signal. Further, operations and information input may be performed using the GUI displayed on the display unit 240A and the operation unit 240B.
  • the horizontal scan is to scan the signal light LS in the horizontal direction (x direction).
  • the horizontal scan also includes an aspect in which the signal light LS is scanned along a plurality of horizontal scanning lines arranged in the vertical direction (y direction). In this aspect, it is possible to arbitrarily set the scanning line interval. Further, the above-described three-dimensional image can be formed by sufficiently narrowing the interval between adjacent scanning lines (three-dimensional scanning). The same applies to the vertical scan.
  • the cross scan scans the signal light LS along a cross-shaped trajectory composed of two linear trajectories (straight trajectories) orthogonal to each other.
  • the signal light LS is scanned along a radial trajectory composed of a plurality of linear trajectories arranged at a predetermined angle.
  • the cross scan is an example of a radiation scan.
  • the galvano scanner 42 is configured to scan the signal light LS in directions orthogonal to each other, the signal light LS can be scanned independently in the x direction and the y direction, respectively. Further, by simultaneously controlling the directions of the two galvanometer mirrors included in the galvano scanner 42, the signal light LS can be scanned along an arbitrary locus on the xy plane. Thereby, various scanning modes as described above can be realized.
  • FIG. 7 illustrates an example of the operation of the fundus oculi observation device 1.
  • a fixation target by the LCD 39, an alignment index by the alignment optical system 50, and a split index by the focus optical system 60 are projected onto the eye E. Thereby, the alignment index and the split index are drawn on the displayed observation image. These indices are used for alignment and focusing.
  • a fixation target for observing the optic disc is used.
  • tracking for the optic nerve head may be started.
  • the cross section setting unit 237 sets the second cross section based on the first cross section.
  • the main control unit 211 performs OCT measurement by controlling the light source unit 101, the galvano scanner 42, and the like. This OCT measurement may be performed on the first cross section, the second cross section, or any other cross section. With reference to this OCT image, it is confirmed whether a suitable image is obtained. This confirmation may be performed visually by the user, or may be automatically performed by the fundus oculi observation device 1.
  • Blood flow measurement is started in response to a predetermined trigger.
  • the blood vessel region specifying unit 231 specifies a blood vessel region for each of the first tomographic image, the second tomographic image, and the phase image.
  • the inclination calculation unit 233 calculates the inclination of the target blood vessel in the first cross section based on the distance between cross sections and the result of specifying the blood vessel region.
  • the blood flow velocity calculation unit 234 calculates the blood flow velocity in the first cross section of the blood flowing in the blood vessel of interest based on the time series change of the phase difference obtained as the phase image and the inclination of the blood vessel of interest.
  • the blood vessel diameter calculation unit 235 calculates the diameter of the blood vessel of interest in the first cross section based on the fundus image or the tomographic image (first tomographic image or the like).
  • the blood flow rate calculation unit 236 calculates the flow rate of the blood flowing in the target blood vessel based on the blood flow velocity calculation result and the blood vessel diameter calculation result.
  • the main control unit 211 causes the display unit 240A to display blood flow information including a blood flow velocity calculation result, a blood flow volume calculation result, and the like.
  • the main control unit 211 stores blood flow information in the storage unit 212 in association with the patient ID. This is the end of the processing related to blood flow measurement in this embodiment.
  • the fundus oculi observation device 1 includes an optical system for OCT measurement, a galvano scanner 42, an image forming unit 220, a blood vessel region specifying unit 231, and a blood flow information generating unit 232.
  • the optical system for OCT measurement divides the light from the light source unit 101 into the signal light LS and the reference light LR, and the interference light LC between the scattered light of the signal light LS by the fundus oculi Ef and the reference light LR via the reference light path. Is detected.
  • the galvano scanner 42 performs the first scan.
  • the first cross section intersecting the target blood vessel of the fundus oculi Ef is repeatedly scanned with the signal light LS.
  • the image forming unit 220 forms a first tomographic image and a phase image.
  • the first tomographic image is an image representing a time-series change of the form in the first cross section, and is formed based on the detection result of the interference light LC obtained by the optical system in the first scan.
  • the phase image is an image representing a time-series change of the phase difference in the first cross section, and is formed based on the detection result of the interference light LC obtained by the optical system in the first scan.
  • the blood vessel region specifying unit 231 specifies a blood vessel region corresponding to the target blood vessel for each of the first tomographic image and the phase image.
  • the blood flow information generation unit 232 generates blood flow information related to the target blood vessel based on the time-series change of the phase difference between the blood vessel region of the first tomographic image and the blood vessel region of the phase image. The above is the basic operation of this embodiment.
  • the galvano scanner 42 may perform the second scan in addition to the first scan.
  • the second scan the second cross section that intersects the target blood vessel and is located in the vicinity of the first cross section is scanned with the signal light LS.
  • the image forming unit 220 forms a second tomographic image in addition to the first tomographic image and the phase image.
  • the second tomographic image is an image representing the form in the second cross section, and is formed based on the detection result of the interference light LC obtained by the optical system in the second scanning.
  • the blood vessel region specifying unit 231 also specifies the blood vessel region corresponding to the blood vessel of interest for the second tomographic image.
  • the blood flow information generation unit 232 changes the distance between the first slice and the second slice, the blood vessel region of the first tomographic image, the blood vessel region of the second tomographic image, and the phase difference represented by the phase image over time. Based on the above, blood flow information is generated.
  • the blood flow information generation unit 232 may be configured as follows: (1) The distance between the first cross section and the second cross section, the blood vessel region of the first tomographic image, and the second tomographic image An inclination calculating unit 233 for calculating the inclination of the target blood vessel in the first cross section based on the blood vessel region; (2) generating blood flow information based on the calculation result of the inclination and the time-series change of the phase difference. .
  • the second cross section may include an upstream cross section and a downstream cross section of the target blood vessel with respect to the first cross section.
  • the inclination calculation unit 233 may be configured to calculate the inclination of the blood vessel of interest in the first cross section based on the position of the blood vessel region in the first tomographic image and the position of the blood vessel region in the second tomographic image.
  • the blood flow information generation unit 232 calculates the blood flow velocity in the first cross section of the blood flowing in the blood vessel of interest based on the calculation result of the inclination of the blood vessel of interest by the inclination calculation unit 233 and the time-series change of the phase difference.
  • a blood flow velocity calculation unit 234 may be included.
  • the blood flow velocity calculation unit 234 may be configured to generate blood flow velocity change information representing a time-series change in blood flow velocity based on a time-series change in phase difference.
  • the blood flow velocity calculation unit 234 may be configured to calculate a statistical value of the blood flow velocity based on the blood flow velocity change information.
  • the fundus camera unit 2 images a portion of the fundus oculi Ef including the position of the first cross section.
  • the blood vessel diameter calculation unit 235 and the blood flow rate calculation unit 236 of the blood flow information generation unit 232 function as follows. That is, the blood vessel diameter calculation unit 235 calculates the diameter of the target blood vessel in the first cross section based on the image captured by the fundus camera unit 2.
  • the blood flow rate calculation unit 236 calculates the flow rate of blood flowing in the target blood vessel based on the blood flow velocity change information and the diameter calculation result.
  • the blood flow rate calculation unit 235 calculates the diameter of the blood vessel of interest in the first cross section based on the first tomographic image, and the blood flow rate calculation unit 236 calculates the blood flow velocity change information and the diameter calculation result. Based on the above, the flow rate of the blood flowing in the blood vessel of interest may be calculated.
  • the blood vessel region specifying unit 231 specifies the blood vessel region by analyzing the first tomographic image, specifies the image region of the phase image corresponding to the position of the blood vessel region in the first tomographic image, and uses this as the blood vessel region of the phase image. It may be configured to set.
  • It can be configured to perform the first scan over at least one cardiac cycle of the patient.
  • the maximum value of the blood flow velocity obtained during one cardiac cycle is used.
  • the first cross section and the second cross section can be set in the vicinity of the optic disc on the fundus.
  • the blood vessel of interest is measured at a position away from the optic nerve head by the diameter of the nipple (more than the distance).
  • OCT optical coherence tomography
  • the blood flow measurement is performed using the first tomographic image having the same cross section as the phase image and the time-series change of the phase difference. Accurate blood flow measurement can be realized.
  • the fundus oculi observation device 1 has the following characteristics. That is, the fundus oculi observation device 1 includes an OCT measurement optical system, a galvano scanner 42, an image forming unit 220, a fundus camera unit 2, a blood vessel region specifying unit 231, a blood flow velocity calculating unit 234, and a blood vessel diameter. A calculation unit 235 and a blood flow rate calculation unit 236 are included.
  • the optical system for OCT measurement divides the light from the light source unit 101 into the signal light LS and the reference light LR, and the interference light LC between the scattered light of the signal light LS by the fundus oculi Ef and the reference light LR via the reference light path. Is detected.
  • the galvano scanner 42 performs a first scan and a second scan.
  • the first scan the first cross section intersecting the target blood vessel of the fundus oculi Ef is repeatedly scanned with the signal light LS.
  • the second scan the second cross section that intersects the target blood vessel and is located near the first cross section is scanned with the signal light LS.
  • the image forming unit 220 forms a first tomographic image, a phase image, and a second tomographic image.
  • the first tomographic image is an image representing a time-series change of the form in the first cross section, and is formed based on the detection result of the interference light LC obtained by the optical system in the first scan.
  • the phase image is an image representing a time-series change of the phase difference in the first cross section, and is formed based on the detection result of the interference light LC obtained by the optical system in the first scan.
  • the second tomographic image is an image representing the form in the second cross section, and is formed based on the detection result of the interference light LC obtained by the optical system in the second scanning.
  • the fundus camera unit 2 images a portion of the fundus oculi Ef including the position of the first cross section.
  • the blood vessel region specifying unit 231 specifies a blood vessel region corresponding to the target blood vessel for each of the first tomographic image, the phase image, and the second tomographic image.
  • the blood flow velocity calculation unit 234 calculates the blood flow velocity in the first cross section of the blood flowing in the blood vessel of interest based on the time-series change of the phase difference and the result of specifying the blood vessel region (the inclination of the blood vessel of interest obtained from the blood vessel region) Is calculated.
  • the blood vessel diameter calculation unit 235 calculates the diameter of the blood vessel of interest in the first cross section based on the photographed image of the fundus oculi Ef by the fundus camera unit 2.
  • the blood flow rate calculation unit 236 calculates the flow rate of the blood flowing in the target blood vessel based on the blood flow velocity calculation result and the blood vessel diameter calculation result. The above is the basic operation of this embodiment.
  • It can be configured to perform the first scan over at least one cardiac cycle of the patient.
  • the maximum value of the blood flow velocity obtained during one cardiac cycle is used.
  • the first cross section and the second cross section can be set in the vicinity of the optic disc on the fundus.
  • the blood vessel of interest is measured at a position away from the optic nerve head by the diameter of the nipple (more than the distance).
  • OCT optical coherence tomography
  • the photographing optical system 30 of the fundus camera unit 2 shares a part of the optical path with the optical system for OCT measurement.
  • An image captured by the fundus camera unit 2 is displayed on the display unit 240A.
  • the cross section setting unit 237 sets the second cross section based on the specified first cross section and the captured image.
  • the galvano scanner 42 performs the first scan on the designated first cross section, and performs the second scan on the set second cross section.
  • blood flow measurement can be performed using the first tomographic image having the same cross section as the phase image and the time-series change of the phase difference. Further, the fundus oculi observation device 1 calculates the blood flow velocity based on the time-series change of the phase difference and the result of specifying the blood vessel region, calculates the diameter of the target blood vessel based on the captured image, and calculates the blood flow velocity. The blood flow rate is calculated based on the calculation result of the blood vessel diameter. Therefore, it is possible to realize blood flow measurement with high accuracy.
  • the blood flow velocity calculation unit 234 generates information (blood flow velocity change information) that represents a time-series change in blood flow velocity for each pixel included in the blood vessel region of the phase image.
  • information blood flow velocity change information
  • this process for example, a process of associating a plurality of phase image pixels along the time series for each pixel position, and generating blood flow velocity change information based on the plurality of pixels along the time series corresponding to each pixel position. And processing to be performed. By this processing, the blood flow velocity in the blood vessel region of the first cross section can be obtained for each position.
  • the blood flow rate calculation unit 236 calculates the blood flow rate for each pixel by integrating the blood flow rate change information of each pixel included in the blood vessel region along the time series. By this process, the blood flow rate in the blood vessel region of the first cross section can be obtained for each position.
  • the blood flow rate calculation unit 236 calculates the flow rate of blood flowing through the target blood vessel by adding the blood flow rates for these pixels. By this process, the blood flow volume at each position obtained in the previous process is added, and the total amount of blood flowing through the blood vessel region of the first cross section is obtained.
  • the optical path length difference between the optical path of the signal light LS and the optical path of the reference light LR is changed by changing the position of the optical path length changing unit 41, but this optical path length difference is changed.
  • the method is not limited to this.
  • it is possible to change the optical path length difference by disposing a reflection mirror (reference mirror) in the optical path of the reference light and moving the reference mirror in the traveling direction of the reference light to change the optical path length of the reference light.
  • the optical path length difference may be changed by moving the fundus camera unit 2 or the OCT unit 100 with respect to the eye E to change the optical path length of the signal light LS.
  • the optical path length difference can be changed by moving the measured object in the depth direction (z direction).
  • the computer program for realizing the above embodiment can be stored in any recording medium readable by the computer.
  • this recording medium for example, a semiconductor memory, an optical disk, a magneto-optical disk (CD-ROM / DVD-RAM / DVD-ROM / MO, etc.), a magnetic storage medium (hard disk / floppy (registered trademark) disk / ZIP, etc.), etc. Can be used.
  • FIG. 8 is a block diagram of the image display apparatus 1000 in the present embodiment.
  • an example of processing for displaying the tomographic image, phase image, blood flow information, tomographic blood vessel management information, phase blood vessel management information, and the like acquired in the above embodiment will be described.
  • the images and information acquired in the above embodiment are accumulated in, for example, the tomographic image storage unit 12, the phase image storage unit 13, the blood flow information storage unit 14, and the like.
  • the image display apparatus 1000 includes a tomographic image storage unit 1011, a phase image storage unit 1012, a blood flow information storage unit 1013, a biological image storage unit 1014, a phase blood vessel management information storage unit 1015, a tomographic blood vessel management information storage unit 1016, and a blood vessel management information.
  • a storage unit 1017, a change operation reception unit 1018, a blood vessel classification designation operation reception unit 1019, a blood vessel classification management information storage unit 1020, a blood vessel classification management information storage unit 1021, and a display unit 1022 are provided.
  • the tomographic image storage unit 1011 stores one or more tomographic image groups.
  • the tomographic image group includes a plurality of tomographic images.
  • the tomographic image is an image showing the inside of a living body acquired by tomography using OCT or the like, for example.
  • a tomographic image is an image showing a cross section of one position in a living body.
  • One tomographic image group is usually composed of a plurality of tomographic images acquired for one location.
  • the tomographic image included in the tomographic image group is, for example, an image associated with time, and is a tomographic image showing a cross section intersecting at least one blood vessel in the living body.
  • a tomographic image showing a cross section that intersects in the direction in which the blood vessel extends.
  • a tomographic image is an interference between reference light obtained from the same light source as signal light and scattered light from the living body when the living body is repeatedly scanned with signal light emitted from a laser light source or the like.
  • An example of processing for acquiring a tomographic image that is an image representing a tomographic image in a cross section of a living body formed based on the detection result of light will be described later.
  • the time associated with the tomographic image is, for example, the time when the tomographic image is acquired (for example, the time when one tomographic image is acquired using the OCT apparatus).
  • the time may have information such as date.
  • the tomographic image group is, for example, a moving image having one or more tomographic images associated with time as frame images. In this case, the time may be associated with each frame image as a time code or the like.
  • the time here may be an absolute time such as what hour or minute, or sequential identification information such as a frame number, or a relative time starting from the time when one tomographic image is output ( For example, it may be an elapsed time after one tomographic image is output.
  • the time may be information that can determine the acquisition timing, output timing, acquisition order, output order, and the like of each tomographic image.
  • the plurality of tomographic images associated with the time may be files of a plurality of tomographic images associated with the time.
  • the tomographic image can be reproduced as a moving image by reading a tomographic image file at each associated time.
  • the tomographic image group may be a plurality of tomographic images that do not individually have time information arranged in the order of acquisition. Also in this case, since the time associated with each tomographic image can be acquired from information such as the start time and the frame rate, it may be considered that each tomographic image is associated with the time.
  • the tomographic image stored in the tomographic image storage unit 1011 is, for example, an image showing a cross section at one or more positions (parts) such as a fundus oculi or cornea in a living body.
  • the tomographic management information includes, for example, a tomographic image group and blood vessel identification information that is information indicating one or more blood vessels that intersect the cross section indicated by the tomographic image group.
  • Crossing with one or more blood vessels means, for example, that a tomographic image includes a cross section of one or more blood vessels.
  • the cross section of the blood vessel is, for example, a cross section that intersects in the direction in which one blood vessel extends.
  • the blood vessel identification information is information such as the name of the blood vessel, a code assigned to the blood vessel, and one or more coordinates indicating the position of the blood vessel.
  • the position of the blood vessel is, for example, the position of the blood vessel in a biological image to be described later.
  • the position here may be a point or a region.
  • the blood vessel identification information may be a plurality of coordinate groups indicating the outline of this region, or a coordinate group of a plurality of pixels included in this region.
  • the range delimited by the branch point or the end of the blood vessel may be considered as one blood vessel, and the main blood vessel and the blood vessel branched therefrom may be considered as one blood vessel.
  • the storing here is a concept including temporary storage, for example.
  • the storage of a tomographic image acquired by the optical image measurement device 1 or the like is considered as storage here.
  • the tomographic image storage unit 1011 is preferably a non-volatile recording medium, but can also be realized by a volatile recording medium. This is because the phase image storage unit 1012, the blood flow information storage unit 1013, the biological image storage unit 1014, the phase blood vessel management information storage unit 1015, the tomographic blood vessel management information storage unit 1016, the blood vessel management information storage unit 1017, The same applies to the classification management information storage unit 1020 and the like.
  • the phase image storage unit 1012 stores one or more phase image groups.
  • the phase image group includes a plurality of phase images.
  • the phase image is an image associated with time and is an image showing a time-series change in phase difference in a cross section intersecting at least one blood vessel in a living body.
  • the phase image is an interference between reference light obtained from the same light source as signal light and scattered light from the living body when the living body is repeatedly scanned with signal light emitted from a laser light source or the like. It is an image showing the time-series change of the phase difference in the cross section in a biological body formed based on the detection result of light.
  • One biological image group is usually composed of a plurality of biological images acquired for one location.
  • the detection result of the interference light used when acquiring the phase image at one position in the living body is usually the same as the detection result of the interference light used when acquiring the tomographic image at the same position.
  • the For this reason it is possible to perform alignment between the tomographic image and the phase image acquired at the same position in the same living body. That is, it is possible to naturally associate the pixels of the tomographic image acquired with respect to the same position with the pixels of the phase image.
  • the time associated with the phase image is, for example, the same time as the time associated with the tomographic image created using the same interference light detection result. Or the time which acquired the phase image may be sufficient.
  • the phase image group may be, for example, a moving image having one or more phase images associated with time as frame images, as in the case of the tomographic image described above, and is associated with time. It may be a file of a plurality of tomographic images or the like, or may be a plurality of tomographic images arranged in the acquired order.
  • the phase image stored in the phase image storage unit 1012 is a phase image of a cross section at one or more positions (parts) such as a fundus oculi and a cornea of a living body.
  • the phase image storage unit 1012 stores one or more pieces of phase management information, for example.
  • the phase management information includes, for example, a phase image group and blood vessel identification information of one or more blood vessels that intersect with a cross section corresponding to the phase image group.
  • the storing here is a concept including temporary storage, for example.
  • temporarily storing a phase image acquired by an optical image measuring device or the like, which will be described later, is considered as storage.
  • the blood flow information storage unit 1013 stores one or more blood flow information groups.
  • the blood flow information group has a plurality of blood flow information.
  • Blood flow information is information relating to blood flow in blood vessels in a living body.
  • One blood flow information group is usually composed of a plurality of blood flow information acquired for one blood vessel or one location of one blood vessel.
  • the blood flow information is, for example, the flow rate of blood flowing in one blood vessel or the flow rate of blood.
  • Blood flow information is associated with time.
  • the time associated with the blood flow information is, for example, the time when the blood flow information is acquired.
  • the blood flow information is generated based on, for example, a time-series change in phase difference in a region where a cross section of a blood vessel is shown in a phase image acquired for one blood vessel.
  • This calculation target may be a blood flow velocity at a certain point in time, or a time-series change (blood flow velocity change information) of this blood flow velocity.
  • a time-series change blood flow velocity change information
  • the time range in the latter is the entire time or arbitrary part of the time scanned with the signal light to obtain the phase image.
  • the statistical value of the blood flow velocity in the time range can be calculated.
  • the statistical values include an average value, standard deviation, variance, median value, maximum value, minimum value, maximum value, minimum value, and the like. It is also possible to create a histogram for blood flow velocity values.
  • the blood flow information stored in the blood flow information storage unit 1013 is preferably acquired using OCT. Details of the process of acquiring blood flow information will be described later.
  • the in-vivo blood vessels are, for example, the fundus and cornea blood vessels of a living body.
  • the blood flow information storage unit 1013 stores, for example, one or more blood flow management information.
  • the blood flow management information includes a blood flow information group and blood vessel identification information of a blood vessel corresponding to the blood flow information group.
  • the storing here is a concept including temporary storage, for example.
  • the blood flow information acquired by the optical image measurement device 1 or the like is temporarily stored here, for example.
  • the living body image storage unit 1014 stores a living body image that is an image of a living body.
  • the biological image is an image obtained by photographing a region including the position where the tomographic image of the biological body is acquired from the front, for example.
  • the front is, for example, the front of a living body (for example, a human body).
  • the front surface may be considered as a surface on which signal light scanned when performing tomography for obtaining the tomographic image as described above is incident.
  • the living body image may be considered as an image obtained by photographing the living body in a direction parallel to the cross section indicated by the tomographic image or the like.
  • the living body image is a fundus image such as a fundus photograph obtained by photographing the fundus from a position facing the fundus of the living body, or a position facing the cornea of the living body.
  • a corneal image taken from The biological image is preferably an image that can visually recognize blood vessels in the living body.
  • the biological image is preferably an image obtained by photographing a position where one or more tomographic images, phase images, and blood flow information are acquired in the living body. Furthermore, it is preferably an image obtained by photographing a region including one or more blood vessels included in a tomographic image or a phase image or blood vessels corresponding to blood flow information.
  • the biological image storage unit 1014 may store a plurality of biological images associated with time.
  • the biological image storage unit 1014 may store a biological image group including a plurality of biological images associated with time.
  • the biological image group is usually composed of a plurality of biological images acquired for one position.
  • the position here is a concept including a region and a subject.
  • the biological image group may be a moving image similarly to the tomographic image group described above.
  • the phase blood vessel management information storage unit 1015 stores phase blood vessel management information.
  • the phase blood vessel management information includes phase blood vessel position information that is information indicating the position of the blood vessel in the phase image, and blood vessel identification information of the blood vessel.
  • the phase blood vessel management information may further include identification information for identifying the corresponding phase image.
  • the identification information of the phase image may be a code or a file name individually assigned to the phase image, or identification information for identifying the phase image group to which the phase image belongs (for example, the phase image group is a moving image). For example, a file name indicating a phase image group, a directory name in which phase images constituting the phase image group are stored, and the like, a time associated with each phase image, a frame number, or the like may be combined.
  • the identification information of the phase image may be any information as long as the phase image can be specified.
  • phase blood vessel position information set for one phase image of one phase image group may be used as phase blood vessel position information of another phase image of the same phase image group. That is, common phase blood vessel position information may be set for each phase image constituting one phase image group. In such a case, identification information of each phase image is unnecessary. However, when there are a plurality of phase images corresponding to one blood vessel identification information, it is preferable that the phase blood vessel management information has the identification information of the phase image group as the identification information of the phase image.
  • phase blood vessel position information information indicating the position on the blood vessel of the phase image specified by the user by manual input using a mouse, a brush cursor, or the like may be acquired as the phase blood vessel position information, or the luminance of the pixel or the like It may be obtained by detecting a region having a pixel characteristic of a blood vessel from a phase image using an algorithm or the like for detecting the region. Further, the phase blood vessel position information may be obtained individually for each phase information by these processes or the like, or the same position (area) as the phase blood vessel position information obtained for one phase image. ) May be set as phase blood vessel position information of other phase images in the same phase image group. An example of processing for detecting the position of the blood vessel in the phase image and setting the phase blood vessel position information will be described later.
  • the tomographic blood vessel management information storage unit 1016 stores tomographic blood vessel management information including tomographic blood vessel position information, which is information indicating the position of the blood vessel in the tomographic image, and blood vessel identification information.
  • the tomographic blood vessel management information may further include identification information for identifying the corresponding tomographic image.
  • the tomographic image identification information and the like are the same as the above-described phase image identification information, and will not be described in detail. Also, the acquisition of tomographic blood vessel position information and the like are the same as those in the above-described phase blood vessel position information, and thus detailed description thereof is omitted. A process for detecting the position of the blood vessel in the tomographic image and acquiring the tomographic blood vessel position information will be described later.
  • the blood vessel management information storage unit 1017 stores one or more blood vessel management information.
  • the blood vessel management information stores blood vessel management information including blood vessel position information, which is information indicating the position of one or more blood vessels in the biological image stored in the biological image storage unit 1014, and blood vessel identification information corresponding to the blood vessel.
  • the blood vessel position information as used herein is usually a region on one blood vessel in a living body image, but may be one point (coordinate) on the blood vessel.
  • the blood vessel management information may include identification information for identifying the corresponding biological image.
  • the biological images stored in the biological image storage unit 1014 constitute, for example, a plurality of biological images (biological image groups) associated with time taken at one location in the living body (for example, in a case where a biological image group that is a moving image with a biological image as a frame image is stored), blood vessel position information associated with one biological image is stored in another biological image group belonging to the same biological image group. It may be used as blood vessel position information of a biological image. That is, common phase blood vessel position information may be set for each biological image constituting one biological phase image group. In this case, identification information for identifying a biological image group may be used as identification information for identifying a biological image.
  • the blood vessel position information may be acquired as blood vessel position information, or the region is detected by the luminance of the pixel or the like. It may be obtained by detecting an area having pixels characteristic of blood vessels from a biological image using an algorithm or the like.
  • the blood vessel position information may be acquired individually for each piece of biological information by these processes, or the same position (region) as the blood vessel position information acquired for one biological image.
  • the blood vessel position information shown may be set as blood vessel position information of another biological image in the same biological image group.
  • the process which sets the blood vessel position information which shows the position of the blood vessel in a biometric image is mentioned later.
  • the change operation accepting unit 1018 accepts a change operation that is an operation for changing the display on any one of a tomographic image, a phase image, and a blood flow image displayed on the display unit 1022 described later.
  • the change operation is an operation performed on one image, and the same change as that operation is performed on another image.
  • a blood flow image is a graph showing changes over time in blood flow information created using one or more blood flow information included in one blood flow information group, and shows changes over time in blood flow information. List. Details of the blood flow image will be described later.
  • the operation on any one of the tomographic image, the phase image, and the blood flow image displayed on the display unit 1022 is, for example, a tomographic image, a phase image, and a blood flow image of a display device such as a monitor (not shown).
  • a display device such as a monitor (not shown).
  • Operation of a button, pull-down menu, or the like displayed in one image may also be considered as an operation on any one of a tomographic image, a phase image, and a blood flow image.
  • the operation for changing the display is, for example, an operation for changing an image to be displayed.
  • the operation for changing the image to be displayed is, for example, to change the currently displayed one image to be operated to an image of the same type and associated with different blood vessel identification information.
  • Operation the same type of image means three types of images, a tomographic image, a phase image, and a blood flow image.
  • the change operation receiving unit 1018 receives an operation for designating a blood vessel as a change operation for any one of the tomographic image, the phase image, and the blood flow image displayed on the display unit 1022. Then, the change operation accepting unit 1018 acquires blood vessel identification information corresponding to the blood vessel designated by the change operation for designating the blood vessel.
  • the change operation for designating the blood vessel may be any operation designated in advance, for example, an operation of sliding the displayed tomographic image or phase image in the vertical direction or the horizontal direction. Also, an operation of pressing a button for changing a blood vessel displayed on the displayed tomographic image, phase image, or blood flow image, or an operation of selecting one blood vessel from a blood vessel selection list.
  • the change operation receiving unit 1018 has a blood vessel different from the blood vessel identification information corresponding to the tomographic image group (or phase image group) to which the tomographic image (or phase image) being displayed belongs. Identification information is acquired from fault management information (or phase management information).
  • the operation for changing the image to be displayed is, for example, for changing one image to be operated to an image associated with a time different from the time associated with the image. It is an operation.
  • the change operation accepting unit 1018 accepts a change operation for designating the time for any one of the tomographic image, the phase image, and the blood flow image displayed on the display unit 1022. Then, the change operation accepting unit 1018 acquires the time corresponding to the change operation.
  • the change operation for specifying the time may be any operation specified in advance. For example, when the displayed blood flow image is a graph associated with the time axis, this graph is currently displayed. This is an operation for designating a location other than the position indicating the time corresponding to the tomographic image or the like by clicking with a mouse or the like or by operating and touching the touch panel.
  • the change operation receiving unit 1018 acquires the time value of the position where the designated position is projected on the time axis as the time corresponding to the change operation.
  • the change operation for designating the time may be, for example, an operation of sliding the displayed tomographic image, phase image, or blood flow image in the vertical direction or the horizontal direction.
  • a mouse or the like is used to display a slider bar (not shown) that indicates the current playback time for the total playback time of a tomographic image group or phase image group that is a moving image displayed in association with a tomographic image or phase image. And slide it.
  • the display unit 1022 sequentially displays the tomographic image and the phase image at a predetermined frame rate in synchronization with the time at which the tomographic image and the phase image are associated with each other, an operation for changing to a tomographic image or a phase image is performed.
  • the accepting unit 1018 accepts a frame rate changing operation that is an operation for changing the frame rate to be displayed.
  • the operation for changing the frame rate is performed by sliding a slider bar indicating the frame rate displayed in the tomographic image or the phase image using a mouse or the like, on or near the tomographic image or the phase image, respectively.
  • the changing operation receiving unit 1018 acquires, for example, the changed frame rate value.
  • the change operation receiving unit 1018 may receive a phase blood vessel designation operation that is an operation for designating a position on a blood vessel in the phase image displayed by the display unit 1022.
  • the operation for designating the position on the blood vessel is, for example, an operation for clicking or surrounding one or more points on the region where the blood vessel is displayed in the phase image with the mouse or the like.
  • the change operation accepting unit 1018 acquires the blood vessel identification information corresponding to the position designated by the phase blood vessel designating operation from the phase blood vessel management information stored in the phase blood vessel management information storage unit 1015.
  • phase blood vessel position information including coordinates clicked by a mouse or the like is detected from the phase blood vessel management information, and blood vessel identification information corresponding to the detected phase blood vessel position information is acquired from the phase blood vessel management information.
  • the change operation receiving unit 1018 when the display unit 1022 displays the tomographic image and the phase image so as to overlap each other, the change operation receiving unit 1018 superimposes the tomographic image and the phase image displayed by the display unit 1022 on each other. You may make it receive the change operation which is operation which changes a display with respect to any one of the match
  • the change operation accepting unit 1018 can accept substantially the same change operation accepted for the tomographic image or phase image as described above.
  • the change operation receiving unit 1018 performs the same processing as when a change operation is received for a tomographic image or a phase image (for example, a blood vessel corresponding to the change operation). The processing for obtaining the identification information, etc.) may be performed.
  • the change operation accepting unit 1018 may accept a blood vessel change designation operation that is an operation for designating a blood vessel with respect to the image superimposed on the display unit 1022.
  • the blood vessel change designation operation is, for example, an operation for designating the position of the blood vessel in the superimposed image.
  • the change operation accepting unit 1018 acquires blood vessel identification information corresponding to the position indicated by the accepted blood vessel change designation operation in the same manner as described above.
  • the change operation accepting unit 1018 may acquire blood vessel identification information corresponding to the position indicated by the blood vessel change designation operation from any of the superimposed tomographic images and phase images. Further, the change operation accepting unit 1018 may accept an operation for instructing superposition of the tomographic image and the phase image.
  • the change operation accepting unit 1018 may further accept a blood vessel designation operation that is an operation for designating a position on one blood vessel in the biological image displayed by the display unit 1022.
  • the operation for designating the position on one blood vessel is, for example, an operation for clicking or enclosing one or more points on the region where one blood vessel is displayed in the phase image with the mouse. It is.
  • the change operation receiving unit 1018 acquires blood vessel identification information corresponding to the position specified by the blood vessel specifying operation from the blood vessel management information stored in the blood vessel management information storage unit 1017. For example, blood vessel position information including coordinates clicked with a mouse or the like is detected from the blood vessel management information, and blood vessel identification information corresponding to the detected blood vessel position information is acquired from the phase blood vessel management information.
  • Accepting operations here means receiving information input from an input device such as a keyboard, mouse, touch panel, receiving information transmitted via a wired or wireless communication line, optical disk, magnetic disk, semiconductor memory, etc. This is a concept including reception of information read from the recording medium.
  • the input means for accepting the operation may be anything such as a numeric keypad, a keyboard, a mouse, or a menu screen.
  • the change operation reception unit 1018 can be realized by a device driver of an input unit such as a numeric keypad or a keyboard, control software for a menu screen, or the like. The same applies to other reception units such as a blood vessel classification designation operation reception unit 1019 described later.
  • the change operation receiving unit 1018 may include an MPU, a memory, and the like for performing the above-described processing, and these processing procedures are usually realized by software, and the software is stored in a recording medium such as a ROM. It is recorded. However, it may be realized by hardware (dedicated circuit).
  • the blood vessel classification designation operation accepting unit 1019 accepts a blood vessel classification designation operation which is an operation for designating the position of a vein or artery in a biological image displayed on the display unit 1022 described later.
  • the operation for designating the position of the vein in the blood vessel classification designating operation is performed by, for example, using one or more points on a region where the vein is displayed in a biological image displayed by the display unit 1022 described later using a mouse or the like. This is an operation of clicking or surrounding with a mouse or the like.
  • an operation for designating the position of an artery in the blood vessel classification designating operation is performed by, for example, using one or more points on a region where an artery is displayed in a biological image displayed on the display unit 1022 described later with a mouse or the like. This is an operation of clicking with or surrounding with a mouse or the like.
  • this operation is performed as a vein.
  • the operation to specify. The same applies to the operation of designating an artery.
  • the blood vessel classification management information storage unit 1020 stores blood vessel classification management information including blood vessel identification information and blood vessel classification information that is information indicating whether the blood vessel is a vein or an artery.
  • the blood vessel classification information may further include information indicating that it is not determined whether or not the blood vessel is a vein.
  • the blood vessel classification management information accumulation unit 1021 acquires blood vessel identification information corresponding to the position designated by the blood vessel designation operation from the blood vessel management information stored in the blood vessel management information storage unit 1017, and acquires the obtained blood vessel identification information and the blood vessel classification Blood vessel classification management information including the blood vessel classification management information indicated by the blood vessel designation operation received by the designation operation accepting unit 1019, that is, information designating whether the blood vessel designated by the blood vessel designation operation is a vein or an artery. Are stored in the blood vessel classification management information storage unit 1020.
  • the blood vessel classification management information accumulating unit 1021 acquires, as information indicating the position designated by the blood vessel designating operation, for example, information indicating the coordinates or coordinate group of the designated position from the biological image, and accepts the blood vessel designating operation. From the blood vessel management information corresponding to the biological image to be operated, blood vessel position information including the information indicating the position acquired above is detected, and blood vessel identification information corresponding to the detected blood vessel position information is acquired. Then, the blood vessel management information in which the acquired blood vessel identification information is associated with the blood vessel classification information corresponding to the blood vessel designation operation is accumulated in the blood vessel management information storage unit 1017.
  • the blood vessel classification information corresponding to the blood vessel designation operation is, for example, information indicating whether or not the blood vessel corresponding to the position indicated by the blood vessel classification operation received before or after the blood vessel classification operation is a vein or an artery. .
  • the blood vessel classification management information storage unit 1021 can usually be realized by an MPU, a memory, or the like.
  • the processing procedure of the blood vessel classification management information storage unit 1021 is usually realized by software, and the software is recorded on a recording medium such as a ROM. However, it may be realized by hardware (dedicated circuit).
  • Displaying the tomographic image and the phase image in synchronization using the time associated with the tomographic image and the phase image means, for example, displaying the tomographic image and the phase image associated with the same time. That is. Also, normally, the tomographic images included in the tomographic image group and the phase images included in the phase image group are sequentially displayed at the same frame rate so that the times associated with each are synchronized.
  • the display unit 1022 may display one tomographic image and one phase image as still images, respectively, or display a tomographic image included in one tomographic image group and a phase image included in one phase image group.
  • the tomographic image and the phase image may be displayed as moving images by sequentially reading and displaying them.
  • the term “within a period including the time associated with the tomographic image and the phase image being displayed” is a period of a predetermined length including this time.
  • the period including the time associated with the currently displayed tomographic image and phase image is specified in advance, for example, before or after the time associated with the currently displayed tomographic image and phase image, or both. It may be a period within a range obtained by adding the determined times. Further, it may be a period including time corresponding to all blood flow information associated with the tomographic image group including the displayed tomographic image and the phase image group including the currently displayed phase image. For example, it may be a period between the earliest time and latest time of blood flow information.
  • the display unit 1022 performs the same change as the change corresponding to the change operation on the tomographic image, the phase image, and the blood flow image displayed by the display unit 1022. That is, when the change operation receiving unit 1018 receives a change operation for any one of the tomographic image, the phase image, and the blood flow image, the display unit 1022 displays not only the image that is the target of the change operation, The image is also changed corresponding to the change operation. That is, it may be considered that a change to one image is synchronized with another image.
  • the change operation accepting unit 1018 accepts a change operation for displaying an image corresponding to one blood vessel other than the blood vessel corresponding to the image for one image
  • the display unit 1022 displays the change operation. All displayed images including the target image are changed to images corresponding to the one blood vessel.
  • the display unit 1022 displays a tomographic image, a phase image, and a blood flow image corresponding to the blood vessel identification information acquired by the change operation accepting unit 1018 in response to the change operation, as a tomographic image group, a phase image group, and blood flow information.
  • Obtaining from the blood flow information group is a concept including obtaining an image such as the above-described blood flow image configured using the blood flow information included in the blood flow information group, for example.
  • the display unit 1022 updates the displayed image with the acquired image. As each image after the change, an image at a time corresponding to each image before the change may be displayed, or another time, for example, an image at a time corresponding to the start time of one of the images may be displayed. Each may be displayed.
  • the display unit 1022 displays the image including the image that is the target of the change operation. All the images to be processed are changed to images corresponding to the changed time.
  • the display unit 1022 displays a tomographic image, a phase image, and a blood flow image corresponding to the time acquired by the change operation accepting unit 1018 according to the change operation, a tomographic image group, a phase image group, and a blood flow information group.
  • a tomographic image group a phase image group
  • a blood flow information group a blood flow information group.
  • the display unit 1022 displays a blood flow image using the blood flow information group corresponding to the acquired blood vessel identification information. Obtain and display.
  • the display unit 1022 acquires tomographic blood vessel position information corresponding to the acquired blood vessel identification information using the tomographic blood vessel management information. Then, the position indicated by the acquired tomographic blood vessel position information in the currently displayed tomographic image is displayed in a display mode different from other positions.
  • the different display modes are the same as described above. For example, the position indicated by the tomographic blood vessel position information is displayed in an overlay with a color designated in advance.
  • the display unit 1022 changes the frame rate for displaying the tomographic image and the phase image to the same frame rate corresponding to the change operation.
  • the display unit 1022 displays a frame rate for displaying a tomographic image and a phase image, which is different from the current frame rate indicated by the value of the frame rate acquired by the change operation accepting unit 1018 according to the frame rate change operation.
  • Change the frame rate to. Changing the frame rate may be considered as changing the reproduction speed of a tomographic image or a phase image that is a frame image.
  • the display unit 1022 also synchronizes and displays the tomographic images included in the tomographic image group and the phase images included in the phase image group using the time associated with the tomographic image and the phase image. You may make it do.
  • the overlapping display means that the contents of both images are displayed transparently. For example, displaying one image overlaid on the other image, or changing the combining mode from the normal combining mode and displaying is to make at least one image translucent and overlap.
  • the display unit 1022 further displays the tomographic image and the phase image that are displayed in a superimposed manner out of the blood flow information included in the blood flow information group. You may make it display the blood-flow image which is an image which shows the some blood flow information matched with the time within the period containing the matched time.
  • the display unit 1022 performs this change when the same change operation as described above is performed on one of the superimposed image or the blood flow image.
  • the same change as the change corresponding to the operation may be performed on the image obtained by superimposing the tomographic image and the phase image displayed on the display unit 1022 and the blood flow image.
  • the display unit 1022 acquires the blood vessel identification information and the phase blood vessel position information corresponding to the phase image displayed by the display unit 1022 from the phase blood vessel management information, and the blood vessel classification information corresponding to the blood vessel identification information is obtained.
  • the position obtained from the information and indicated by the phase blood vessel position information corresponding to the blood vessel identification information of the phase image is different from other positions, and the blood vessel classification information corresponding to the phase blood vessel position information is an artery. May be displayed in different display modes depending on whether it is information indicating that the information is a vein or information indicating that it is a vein. For example, different colors may be displayed for the position indicating an artery and the position indicating a vein.
  • the display unit 1022 may display at least a biological image and a tomographic image included in a phase image group associated with one blood vessel identification information.
  • Display here is a concept that includes display on a display, projection using a projector, and the like.
  • the display unit 1022 may or may not include a display device such as a display.
  • the display unit 1022 can be realized by display device driver software or display device driver software and a display device.
  • the display unit 1022 may include an MPU, a memory, and the like for performing the above-described processing. These processing procedures are usually realized by software, and the software is recorded on a recording medium such as a ROM. ing. However, it may be realized by hardware (dedicated circuit).
  • Step S101 The display unit 1022 starts displaying a biological image.
  • the biological image is a frame image of a moving image associated with the time
  • the display unit 1022 sequentially displays the biological image at a frame rate specified in advance.
  • Step S102 The display unit 1022 starts displaying the tomographic images included in the tomographic image group.
  • the display unit 1022 sequentially displays the tomographic images included in the tomographic image group at a frame rate specified in advance.
  • the display unit 1022 displays a tomographic image in synchronization with the biological image.
  • Step S103 The display unit 1022 starts displaying the phase images included in the phase image group.
  • the display unit 1022 sequentially displays the phase images included in the phase image group in synchronization with the tomographic image displayed in step S101 at a frame rate specified in advance. For example, a tomographic image and a phase image associated with the same time are displayed simultaneously.
  • the tomographic image and the phase image displayed by the display unit 1022 are images including blood vessels shown in the biological image displayed in step S101, for example.
  • Step S104 The display unit 1022 obtains a time corresponding to the tomographic image or phase image being displayed, reads out blood flow information for a predetermined period including this time from the blood flow information storage unit 1013, and reads it out. A blood flow image created using the blood flow information is displayed. However, in the display from step S101 to step S104, images related to the same time may be displayed simultaneously. In this case, the display unit 1022 acquires a blood flow image corresponding to the time corresponding to the tomographic image or phase image to be displayed next, and displays this simultaneously with the tomographic image and phase image to be displayed next. It may be.
  • Step S105 The change operation receiving unit 1018 determines whether or not an operation for displaying the tomographic image and the phase image in a superimposed manner has been received. If accepted, the process proceeds to step S106. If not accepted, the process proceeds to step S107.
  • Step S106 The display unit 1022 synchronizes the tomographic image and the phase image using the times associated with each, and sequentially displays them in a superimposed manner. For example, the display unit 1022 displays a superimposed image instead of individual display of a tomographic image and a phase image. Then, the process returns to step S105.
  • Step S107 The change operation receiving unit 1018 determines whether an operation is received for the image displayed on the display unit 1022. If accepted, the process proceeds to step S108. If not accepted, the process proceeds to step S109.
  • Step S108 The image display apparatus 1000 performs display according to the operation received in step S107. Details of this processing will be described later. Then, the process returns to step S105.
  • Step S109 The blood vessel classification designation operation receiving unit 1019 determines whether or not a blood vessel classification designation operation has been accepted. If accepted, the process proceeds to step S110. If not accepted, the process proceeds to step S111.
  • Step S110 The blood vessel classification management information accumulation unit 1021 acquires the blood vessel classification management information corresponding to the blood vessel classification designation operation received in step S109, and accumulates it in the blood vessel classification management information storage unit 1020. Then, the process returns to step S105.
  • Step S111 The display unit 1022 determines whether to perform display according to the blood vessel classification management information. For example, when the change operation receiving unit 1018 receives an operation for performing display according to the blood vessel classification management information, it may be determined to perform display. Further, it may be determined to display when the blood vessel classification management information is accumulated. When displaying, it progresses to step S112, and when not performing, it progresses to step S113.
  • Step S112 The display unit 1022 performs display according to the blood vessel classification management information. Specifically, in the phase image, the position indicated by the phase blood vessel position information of the blood vessel classification management information is displayed in a display mode different from other positions according to the blood vessel classification information. Then, the process returns to step S105.
  • Step S113 The change operation receiving unit 1018 determines whether an operation for ending the display by the display unit 1022 has been received. If accepted, the process ends. If not accepted, the process returns to step S105.
  • Step S201 The change operation receiving unit 1018 determines whether or not the received operation is a change operation. If it is a change operation, the process proceeds to step S202. If it is not a change operation, the process proceeds to step S208.
  • Step S202 The change operation receiving unit 1018 determines whether or not the received operation is a change operation for designating a blood vessel. If it is a change operation for designating a blood vessel, the process proceeds to step S203. If it is not a change operation for designating a blood vessel, the process proceeds to step S205.
  • Step S203 The change operation accepting unit 1018 acquires the blood vessel identification information of the blood vessel designated by the change operation.
  • Step S204 The display unit 1022 changes the display target of these images so that the tomographic image, the phase image, and the blood flow image corresponding to the blood vessel identification information acquired in Step S203 are displayed. Note that even when the tomographic image and the phase image are superimposed, the processing performed substantially is the same except that these images are displayed superimposed. Then, the process returns to the upper process.
  • Step S205 The change operation receiving unit 1018 determines whether or not the received operation is a change operation for designating a time. If it is a change operation for designating time, the process proceeds to step S206. If the change operation is only an operation for specifying a blood vessel or an operation for specifying a time, the change operation is an operation for specifying a time when it is determined in step S202 that the operation is not an operation for specifying a blood vessel. This process may be omitted because it is understood.
  • Step S206 The change operation reception unit 1018 acquires the time indicated by the change operation.
  • Step S207 The display unit 1022 changes the time of each image to be displayed. Specifically, the display unit 1022 changes the display of the tomographic image, the phase image, and the biological image to display from the tomographic image, the phase image, and the biological image corresponding to the time acquired in step S206. Further, the display unit 1022 changes the display of the blood flow image to the display of the blood flow image created using the blood flow information in the period including the time corresponding to the changed tomographic image or phase image. Note that even when the tomographic image and the phase image are superimposed, the processing performed substantially is the same except that these images are displayed superimposed. Then, the process returns to the upper process.
  • Step S208 The change operation receiving unit 1018 determines whether or not the received operation is a phase blood vessel designation operation. If it is a phase vessel designation operation, the process proceeds to step S209, and if it is not a phase vessel designation operation, the process proceeds to step S210. If the tomographic image and the phase image do not overlap, the phase blood vessel designation operation is not accepted here.
  • Step S209 The change operation receiving unit 1018 acquires blood vessel identification information corresponding to the phase blood vessel designation operation.
  • Step S210 The display unit 1022 displays a blood flow image corresponding to the phase blood vessel designation operation. Specifically, a blood flow image is acquired and displayed using blood flow information corresponding to the blood vessel identification information acquired in step S209.
  • Step S211 The display unit 1022 changes the display mode of the position corresponding to the phase blood vessel designation operation of the tomographic image. Specifically, the position corresponding to the blood vessel identification information acquired in step S209 of the tomographic image being displayed is changed to a display mode different from the others. Then, the process returns to the upper process.
  • Step S212 The change operation receiving unit 1018 determines whether the received operation is a frame rate change operation for either a tomographic image or a phase image. If it is a frame rate change operation, the process proceeds to step S213. If it is not a frame rate change operation, the process proceeds to step S214. Here, it is assumed that the frame rate change operation can be accepted for at least one of the tomographic image and the phase image even when they are superimposed.
  • Step S213 The display unit 1022 changes the frame rate for displaying the tomographic image and the phase image to the frame rate indicated by the frame rate changing operation. Then, the process returns to the upper process.
  • Step S214 The change operation accepting unit 1018 determines whether or not the accepted operation is a blood vessel designation operation for a biological image. If it is a blood vessel designating operation, the process proceeds to step S215.
  • Step S215 The change operation receiving unit 1018 acquires blood vessel identification information corresponding to the blood vessel designating operation.
  • Step S216 The display unit 1022 changes the display target of these images so that the tomographic image, the phase image, and the blood flow image corresponding to the blood vessel identification information acquired in Step S215 are displayed. Note that even when the tomographic image and the phase image are superimposed, the processing substantially performed is the same except that these images are superimposed. Then, the process returns to the upper process.
  • the position specified by the process of superimposing the tomographic image and the phase image or the phase blood vessel specifying operation of the tomographic image is displayed in a display mode different from the other parts.
  • the processing step for accepting an operation for canceling the display processing and the like, the processing step for canceling these, and the like are omitted, but in the embodiment, these canceling operations are accepted via an accepting unit (not shown). In this way, the release process may be performed.
  • FIG. 11 is a conceptual diagram showing an example of the image display apparatus 1000 according to the present embodiment.
  • FIG. 12 is a diagram illustrating an example of a biological image stored in the biological image storage unit 1014.
  • the biological image is a fundus image acquired for the fundus of one subject.
  • the fundus image is one frame image constituting a biological image group (fundus image group) that is a moving image composed of a plurality of continuous biological images.
  • This biometric image is a biometric image to which the time code “t1” is assigned among the biometric images constituting the biometric image group “E01” of the subject whose subject identification information is “P10001”.
  • the time code is a time given to the biological image that is a frame image.
  • tn (n is an integer) is a value indicating an arbitrary time.
  • values with the same n indicate the same time.
  • Each biological image constituting the biological image group is stored in a file of the biological image group in association with a time code, for example.
  • the time code indicates the date and time when the frame image is acquired and the date and time when data necessary for acquiring the frame image is acquired.
  • the biological image, tomographic image, phase image, blood flow image, and the like in the present embodiment are images created for explanation, and may be different from actual data.
  • FIG. 13 is a diagram showing biometric image management information for managing biometric images stored in the biometric image storage unit 1014.
  • the biological image management information has items of “subject ID”, “biological image group ID”, “time code”, and “biological image”. “Subject ID” is identification information of the subject. “Biological image group ID” is identification information of the biological image group. Here, the biological image group constitutes one file, and “biological image group ID” is the file name. Here, the biological image group associated with one “biological image group ID” is composed of one or more fundus images acquired within the same period for one eyeball of one subject. .
  • the “time code” is a time code, and here is time information associated with each biological image constituting the biological image group.
  • biometric image group ID a combination of “biological image group ID” and “time code” is used as identification information of a biometric image
  • the subject identification information may also be considered as a part of the identification information of the biological image.
  • the “biological image” is a biological image associated with a set of biological image group identification information and a time code, and is a frame image here.
  • FIG. 14 is a diagram illustrating an example of blood vessel management information stored in the blood vessel management information storage unit 1017.
  • the blood vessel management information includes items of “subject ID”, “biological image group ID”, “time code”, “blood vessel ID”, and “blood vessel position information”.
  • the “subject ID”, “biological image group ID”, and “time code” are the same as those in FIG.
  • the “blood vessel ID” is blood vessel identification information indicated in a living body image (here, a fundus image).
  • the “blood vessel position information” is information indicating a blood vessel region corresponding to one “blood vessel ID” shown in the biological image, and here, the blood vessel corresponding to one “blood vessel ID” in the biological image. It consists of the coordinate group of the upper pixel.
  • xr and xs are arbitrary values.
  • r and s are arbitrary integers.
  • a region 1051 surrounded by a dotted line is a region indicated by the blood vessel position information corresponding to the blood vessel ID “V01”.
  • blood vessel position information set for one frame image is also used as blood vessel position information for another frame image in the same biological image group. You may do it.
  • blood vessel position information is acquired from a biological image. For example, information that defines a region within the range by determining a continuous range within the range in which the user operates the mouse or the like and traces with a cursor or the like as a blood vessel, and defines the region within the range (for example, within the range You may acquire the coordinate of a pixel, the coordinate of the pixel which comprises the outline of a range, etc.). Normally, blood vessels tend to have lower brightness than other portions, so that the region on the blood vessels can be appropriately specified in this way.
  • a continuous range with a luminance equal to or lower than a threshold value is automatically detected in the biometric image, a line connecting the centers in the width direction of the range is obtained, and there are sections each divided by a branch point and an end point of the line.
  • the automatically detected ranges may be recognized as individual blood vessels.
  • Such a technique can be realized by using a technique such as a so-called auto trace.
  • the blood vessel identification information or the like may be automatically given, for example, in the order of acquisition or may be designated by the user. Further, the blood vessel position information set for one frame image may be added to other frame images as blood vessel position information of other frame images of the same biological image group.
  • FIG. 15 is a diagram illustrating an example of a tomographic image stored in the tomographic image storage unit 1011.
  • the tomographic image is a tomographic image obtained by photographing a tomographic image perpendicular to the fundus image at a position crossing one or more blood vessels of the fundus image shown in FIG.
  • the tomographic image is one frame image constituting a group of tomographic images that are moving images.
  • This tomographic image is a tomographic image to which the time code “t1” is assigned among the tomographic images constituting the group of tomographic images “D01” of the subject whose subject identification information is “P10001”.
  • the tomographic image group forms one file and is stored in the tomographic image storage unit 1011 in association with the file name.
  • FIG. 16 is a diagram showing tomographic management information for managing tomographic images stored in the tomographic image storage unit 1011.
  • the tomographic management information includes items of “subject ID”, “tomographic image group ID”, “time code”, and “tomographic image”.
  • “Subject identification information” is identification information of a subject.
  • the “tomographic image group ID” is identification information of the tomographic image group.
  • the tomographic image group constitutes one file, and the “tomographic image group ID” is this file name.
  • the tomographic image group associated with one “tomographic image group ID” is composed of a plurality of tomographic images acquired within one period for one location of one fundus of one subject. Shall be.
  • the “time code” is a time code, and here is time information associated with each tomographic image constituting the tomographic image group.
  • time code is a time code
  • here is time information associated with each tomographic image constituting the tomographic image group.
  • the subject identification information may also be considered as part of the identification information of the tomographic image.
  • a “tomographic image” is a tomographic image associated with a set of tomographic image group identification information and a time code, and is a frame image here.
  • FIG. 17 is a diagram showing an example of tomographic blood vessel management information stored in the tomographic blood vessel management information storage unit 1016.
  • the tomographic blood vessel management information includes items of “subject ID”, “tomographic image group ID”, “time code”, “blood vessel ID”, and “tomographic blood vessel position information”. “Subject identification information”, “tomographic image group ID”, and “time code” are the same as those in FIG. “Blood vessel ID” is blood vessel identification information of a blood vessel shown in a tomographic image.
  • the “tomographic blood vessel position information” is information indicating a blood vessel region corresponding to one “blood vessel ID” shown in the tomographic image, and here corresponds to one “blood vessel ID” in the tomographic image.
  • the position indicated by the straight line 1052 indicates the position (part) where the tomographic image having the tomographic image group ID “D01” is acquired.
  • the vessel position information set for one frame image may be used as the tomographic vessel position information of another frame image in the same tomographic image group. You may make it utilize.
  • FIG. 18 is a diagram illustrating an example of a phase image stored in the phase image storage unit 1012.
  • the phase image is assumed to be a phase image at the same position as the tomographic image shown in FIG.
  • the phase image is one frame image constituting a phase image group that is a moving image.
  • This phase image is a phase image to which the time code “t1” is assigned among the phase images constituting the phase image group “D01” of the subject whose subject identification information is “P10001”.
  • the phase image group constitutes one file and is stored in the phase image storage unit 1012 in association with the file name.
  • FIG. 19 is a diagram showing phase management information for managing the phase images stored in the phase image storage unit 1012.
  • the tomographic management information includes items of “subject ID”, “phase image group ID”, “time code”, and “phase image”.
  • “Subject identification information” is identification information of a subject.
  • “Phase image group ID” is identification information of the phase image group.
  • the phase image group constitutes one file
  • “phase image group ID” is this file name.
  • the phase image group associated with one “phase image group ID” is composed of a plurality of phase images acquired within one period for one location of one fundus of one subject. Shall be.
  • the “time code” is a time code, and here is time information associated with each phase image constituting the phase image group.
  • phase image identification information a combination of “phase image group ID” and “time code” is used as phase image identification information
  • the subject identification information may also be considered as part of the phase image identification information.
  • a “phase image” is a biological image associated with a set of phase image identification information and a time code, and is a frame image here.
  • FIG. 20 is a diagram showing an example of phase blood vessel management information stored in the phase blood vessel management information storage unit 1015.
  • the phase blood vessel management information includes items of “subject ID”, “phase image group ID”, “time code”, “blood vessel ID”, and “phase blood vessel position information”. “Subject identification information”, “phase image group ID”, and “time code” are the same as those in FIG.
  • the “blood vessel ID” is blood vessel identification information of the blood vessel shown in the phase image.
  • Phase blood vessel position information is information indicating a blood vessel region corresponding to one “blood vessel ID” shown in the phase image, and here corresponds to one “blood vessel ID” in the phase image. It is composed of a coordinate group of pixels on the blood vessel.
  • the blood vessel position information set for one frame image may be used as the phase blood vessel position information of another frame image in the same phase image group. You may make it utilize. Further, when the phase image corresponding to one time is acquired corresponding to the tomographic image associated with the same time, the same as the phase blood vessel position information for the blood vessel one phase image is associated with the same time. The tomographic blood vessel position information set in the tomographic image acquired at the position may be used.
  • FIG. 21 is a diagram showing blood flow information management information stored in the blood flow information storage unit 1013.
  • the blood flow information management information includes items of “subject ID”, “blood flow information group ID”, “time code”, “blood vessel ID”, and “blood flow information”.
  • blood flow information included in one blood flow information group constitutes one file
  • “blood flow information group ID” is this file name.
  • the blood flow information group associated with one “blood flow information group ID” is a plurality of blood flow information acquired within one period for one blood vessel of one fundus of one subject here. It shall consist of
  • a combination of “blood flow information group ID” and “time code” is used as identification information of blood flow information will be described as an example.
  • the subject identification information may also be considered as a part of the identification information of the blood flow information.
  • “Blood flow information” is blood flow information, and here, as an example, it is assumed that it is the blood flow velocity.
  • the value sp (p is an arbitrary integer) is an arbitrary value indicating the blood flow rate.
  • the display unit 1022 displays the biological management information shown in FIG. 13 in order from the record indicating the earliest time among the records (rows) corresponding to the “subject ID” “P10001”.
  • the biometric image is read out and sequentially displayed at a prespecified frame rate. Specifically, the biometric images are read and displayed in order from the record whose “time code” is “t1”.
  • the frame rate designated in advance may be a default frame rate or a frame rate associated with a biological image or the like.
  • the display here is assumed to be a display on a monitor (not shown).
  • the display unit 1022 displays the value of one “tomographic image group ID” from the record (row) corresponding to “P10001” in the tomographic management information shown in FIG. "D01" is acquired, and from the record in which the "subject ID” of the tomographic management information is "P10001” and the "tomographic image group ID” is "D01",
  • the tomographic images are read in order from the records having the same values of “t1” and “time code” corresponding to the image, and are sequentially displayed at the same frame rate as the biological image.
  • One “tomographic image group ID” may be determined in any way.
  • the “tomographic image group ID” having the smallest numerical value in the “tomographic image group ID” may be selected, or the “tomographic image group ID” designated by the user may be used. Also good.
  • the display here is assumed to be a display on a monitor (not shown).
  • the display unit 1022 displays the “tomographic image group ID” and “ The value of “blood vessel ID” associated with “time code” is acquired from the fault management information shown in FIG. Here, “v01” and “v02” are acquired. Then, from the record (row) in which the “subject ID” is “P10001” and the value of “time code” is “t1” in the phase blood vessel management information shown in FIG. All the “blood vessel IDs” are sequentially acquired for each “” and it is determined whether or not the acquired “blood vessel ID” matches the “v01” and “v02” acquired above. This process is performed until a match is detected.
  • phase image group ID at the time when the coincidence is detected is acquired.
  • the value of “phase image group ID” is “F01”
  • the “subject ID” is “P10001”
  • the value of “time code” is “2012/03 / 12_10: 24: 12.
  • the record “F01” which is “01” is acquired.
  • the display unit 1022 sequentially acquires the phase images whose “phase image group ID” is “F01” from the records of the phase management information in order from the record whose “time code” is “t1”. Display at the same frame rate as the image.
  • the biological image, the tomographic image, and the phase image are displayed in synchronization.
  • the display unit 1022 selects either “v01” or “v02” that is the “blood vessel ID” acquired for the tomographic image as described above. Which one is selected may be determined in any way, and here, for example, it is assumed that the number of the number included in the “blood vessel ID” is small, specifically “v01” is selected.
  • the display unit 1022 sequentially acquires the value of “time code” associated with the tomographic image to be displayed, acquires a period obtained by adding 1 second before and after the acquired time code, and FIG. From the record in which the value of “subject ID” in the blood flow information management information shown in FIG. 4 is “P10001” and the value of “blood vessel ID” is “v01” determined above.
  • a record having a “time code” indicating the time within the range is detected, a set of “blood flow information” and “time code” values included in the detected record is obtained, and the first axis is obtained using this set.
  • a graph with the time indicated by the “time code” (for example, the horizontal axis) and the blood flow velocity indicated by the “blood flow information” for the second axis (for example, the vertical axis) is generated and displayed as a blood flow image. .
  • the display here is assumed to be a display on a monitor (not shown).
  • an image showing a straight line perpendicular to the first axis is arranged at the position indicated by the “time code” associated with the tomographic image to be displayed.
  • FIG. 22 is a diagram illustrating a display example of a biological image, a tomographic image, a phase image, and a blood flow image by the display unit 1022.
  • a biological image 1151, a tomographic image 1152, a phase image 1153, and a blood flow image 1154 are displayed side by side so as not to overlap each other on the screen.
  • the change operation receiving unit 1018 displays the tomographic blood vessel management information shown in FIG.
  • the subject ID is “P10001”
  • the value of “time code” is obtained from the above records that match the “time code” corresponding to the tomographic image being displayed.
  • a “blood vessel ID” other than “v01” and “v02” corresponding to the displayed tomographic image is acquired, and a list thereof is generated.
  • what is duplicated is subjected to so-called unique processing, and is deleted except for one.
  • the created list 1167 is displayed below the image change button 1155.
  • the information in this list may be acquired in advance when displaying a tomographic image.
  • FIG. 23 is a diagram showing an example of display of a list of “blood vessel ID”.
  • the change operation accepting unit 1018 converts the tomographic image to be displayed into a tomographic image corresponding to the blood vessel ID “v03”.
  • a change operation to be changed is accepted.
  • the display unit 1022 changes the display of the tomographic image in accordance with this changing operation, and makes the same change as the change made to the tomographic image for the other phase images and blood flow images. That is, the display is changed so that the phase image and the blood flow image corresponding to the blood vessel ID “v03” are displayed.
  • the display unit 1022 matches the value of “time code” with the time code value of the currently displayed cross-sectional image, and “vessel ID” is “v03”.
  • the value of “tomographic image group ID” is acquired from the record.
  • a “tomographic image” associated with the acquired “tomographic image group ID” and the value of the time code of the currently displayed cross-sectional image is read from the tomographic management information shown in FIG. 16 and displayed immediately before. It is displayed instead of the tomographic image. For example, the tomographic image displayed immediately before is overwritten. Thereafter, the tomographic images of the same tomographic image group associated with the time code after the time code associated with this tomographic image are sequentially displayed.
  • the time code of the cross-sectional image to be displayed next may be used.
  • the display unit 1022 also matches the value of “time code” with the value of the time code of the currently displayed phase image, and “vessel ID” is “v03” from the phase blood vessel management information.
  • the value of “phase image group ID” is acquired from the record “”.
  • the “phase image” associated with the acquired “phase image group ID” and the time code value of the currently displayed phase image is read from the phase management information shown in FIG. 19 and displayed immediately before. Display instead of the phase image. For example, the phase image displayed immediately before is overwritten. Thereafter, the phase images of the same phase image group associated with time codes after the time code associated with the phase image are sequentially displayed.
  • the blood flow information management information is associated with the time code within the period including the time code value of the currently displayed phase image as described above and the blood vessel ID “v03”.
  • the blood flow information set is acquired, a blood flow image is generated, and displayed instead of the phase image displayed immediately before. Thereafter, the display unit 1022 sequentially acquires time code values corresponding to the tomographic image (or phase image) to be displayed, and sequentially acquires and displays a blood flow image using the time code in the same manner as described above. To do.
  • the tomographic image showing the blood vessel with the blood vessel ID “v03”, the phase image, and the blood flow image related to this blood vessel are displayed on the monitor.
  • FIG. 24 is a diagram illustrating a display example of a biological image, a tomographic image, a phase image, and a blood flow image by the display unit 1022 after the display is changed. Thereby, the image which changed the blood vessel corresponding to display content according to change operation can be displayed, respectively.
  • FIG. 25 is a diagram showing a state where the user is clicking on the blood flow image.
  • the change operation accepting unit 1018 acquires a time value (time code value) corresponding to the clicked location from the time axis that is the first axis of the blood flow image 1154. For example, it is assumed that the acquired time value is “t88”.
  • the change operation receiving unit 1018 receives a change operation for changing the displayed blood flow image to a blood flow image corresponding to the acquired time “t88”.
  • the display unit 1022 changes the display of the blood flow image in response to the change operation, and makes the same change as the change made to the blood flow image for the other tomographic images and phase images. That is, the display is changed so that the tomographic image and the phase image corresponding to the time “t88” are displayed.
  • the display unit 1022 acquires a period obtained by adding 1 second before and after the time “t88” acquired by the change operation receiving unit 1018, and the blood flow information management information illustrated in FIG. From this record, the value of “Subject ID” is “P10001”, and the value of “Vessel ID” is the value “v01” corresponding to the blood flow information currently being displayed. A record with a “time code” indicating the time within the specified period is detected, and a blood flow image is generated from the set of “blood flow information” and “time code” values included in the detected record in the same manner as described above. And display.
  • the display unit 1022 determines from the tomographic management information shown in FIG. 16 that the “subject ID” value matches “P10001”, and the “tomographic image group ID” value is the display target. It is included in the record (row) that matches “D01” that is the value of “tomographic image group ID” corresponding to the image, and that the value of “time code” matches the time “t88” acquired by the change operation receiving unit 1018.
  • the tomographic images included in the tomographic image group whose value of “tomographic image group ID” is “D01” are sequentially displayed from the tomographic images in accordance with the time code.
  • the display unit 1022 determines that the value of the “subject ID” matches “P10001” and the value of the “phase image group ID” is the display target from the phase management information shown in FIG. Included in the record (row) that matches the “phase image group ID” value “F01” corresponding to the image and the “time code” value matches the time “t88” acquired by the change operation receiving unit 1018
  • the phase images included in the phase image group having the value of “phase image group ID” “D01” are sequentially displayed from the phase image according to the time code.
  • the display unit 1022 determines that the value of the “subject ID” matches “P10001” and the value of the “biological image group ID” is the display target from the biological management information shown in FIG. Included in the record (line) that matches the “biological image group ID” value “E01” corresponding to the image, and the “time code” value matches the time “t88” acquired by the change operation accepting unit 1018 The biological images included in the biological image group having the value of “biological image group ID” “E01” are sequentially displayed according to the time code.
  • the time corresponding to each changing operation is acquired and the same processing as described above is performed.
  • the operation for changing the time for the tomographic image or the phase image may be accepted by, for example, a slider bar (not shown) indicating the reproduction time of the moving image.
  • the change operation acceptance unit 1018 accepts a blood vessel designation operation for designating a position on a blood vessel.
  • This blood vessel designating operation is an operation for designating a blood vessel including the clicked position.
  • FIG. 26 is a diagram showing a state where the user is clicking on the biological image.
  • the change operation accepting unit 1018 When the change operation accepting unit 1018 accepts the blood vessel designating operation, the change operation accepting unit 1018 obtains the coordinates of the designated position (clicked position). Assume that the acquired coordinates are (x33, y33), for example.
  • the change operation reception unit 1018 matches the value of the “subject ID” in the blood vessel management information shown in FIG. 14 with “P10001”, and the value of the “time code” is the biological image being displayed.
  • records (rows) that match the value “t100” corresponding to a record having coordinates that match the coordinates (x33, y33) acquired above within one or more coordinates indicated by “blood vessel position information” To detect.
  • the value of “blood vessel ID” of the detected record is acquired as blood vessel identification information corresponding to the position indicated by the blood vessel designating operation.
  • the acquired “blood vessel ID” value is “v03”, for example.
  • the display unit 1022 performs the same processing as when the blood vessel ID “v03” is selected from the list shown in FIG. 23 as described above, and the tomographic image corresponding to the blood vessel ID “v03” as described above.
  • the phase image that is, the tomographic image and the phase image including the blood vessel indicated by the blood vessel ID “v03” are displayed.
  • a blood flow image corresponding to the blood vessel ID “v03” that is, a blood flow image created using the blood flow information about the blood vessel indicated by the blood vessel ID “v03” is displayed.
  • the image displayed in this way is the same as that shown in FIG.
  • a tomographic image, a phase image, and a blood flow image corresponding to the blood vessel designated by the user on the biological image can be displayed from the display unit 1022.
  • the change operation accepting unit 1018 accepts a frame rate change operation for changing the frame rate to “15” fps as a frame rate change operation corresponding to this operation.
  • the display unit 1022 changes the frame rate for displaying the tomographic image from the current frame rate to “15” fps.
  • the phase frame and the biological image are also changed to the same frame rate. Then, the tomographic image, the phase image, and the biological image are sequentially displayed at the changed frame rate.
  • the frame rate changing operation is performed on one of the tomographic image or the phase image, the frame rate is changed even for the one of the tomographic image or the phase image that is not the target of the changing operation. It can be performed.
  • the change operation accepting unit 1018 accepts a phase blood vessel designation operation for designating the position of the blood vessel on the phase image.
  • This phase blood vessel designation operation is an operation for designating a blood vessel including the clicked position.
  • the change operation accepting unit 1018 When the change operation accepting unit 1018 accepts the phase blood vessel designating operation, the change operation accepting unit 1018 obtains the coordinates of the designated position (clicked position). Assume that the acquired coordinates are (x122, y122), for example.
  • the change operation reception unit 1018 indicates that the value of “subject ID” in the phase blood vessel management information shown in FIG. 20 matches “P10001” and the value of “time code” is being displayed.
  • the display unit 1022 obtains the “tomographic image group ID” in which the values of the “tomographic image group ID” and the “time code” correspond to the displayed tomographic image from the phase blood vessel management information record shown in FIG. And “time code” in which the value of “blood vessel ID” is the value “v02” acquired above, and the value of “phase vessel position information” in the detected record is detected. get. Then, a color designated in advance is overlaid on the area indicated by the “phase blood vessel position information” of the tomographic image being displayed, and this area on the tomographic image is colored with the color designated in advance. This color is preferably a color different from the colors of other parts of the tomographic image.
  • the display unit 1022 displays a tomographic image obtained by overlaying the color designated in advance on the region indicated by the “phase blood vessel position information” instead of the displayed tomographic image. For example, the tomographic image displayed immediately before is overwritten with the overlaid tomographic image.
  • FIG. 27 is a diagram showing a state in which the blood vessel region on the tomographic image corresponding to the phase blood vessel designation operation is displayed in a display mode different from other regions.
  • an area 1165 indicated by hatching is a place where overlay display is performed.
  • the display unit 1022 obtains the blood flow information from the record of the blood flow information management information shown in FIG.
  • the value of “information group ID” is “blood flow information group ID” corresponding to the displayed blood flow image
  • the value of “time code” acquires blood flow information corresponding to the displayed blood flow image.
  • One or more records having a “blood vessel ID” of “v02” are detected, and the value of “blood flow information” included in the detected one or more records , A set of “time code” values is acquired, a blood flow image is acquired using this set, and replaced with (for example, overwritten) the displayed blood flow image. As a result, a blood flow image for the blood vessel designated on the phase image is displayed.
  • the change operation accepting unit 1018 accepts an operation for displaying the phase image and the tomographic image so as to overlap each other.
  • the display unit 1022 superimposes and displays the phase image and the tomographic image displayed after the operation.
  • the overlapping is performed in such a manner that the contents of the phase image and the tomographic image can be simultaneously recognized visually.
  • the display unit 1022 superimposes images with adjusted transmittance so that at least an image to be superimposed on one image is transmitted.
  • the images to be superimposed are superimposed so as to be displayed in an overlay manner, or the images to be superimposed are superimposed and displayed in a synthesis mode such that the lower image can be recognized. Since the superimposed phase image and tomographic image are displayed in synchronization as described above, the phase image and tomographic image are also synchronized in the superimposed image.
  • FIG. 28 is a diagram showing a state in which the phase image and the tomographic image are superimposed and displayed.
  • the change operation receiving unit 1018 receives a change operation for either the overlapped image or the blood flow image
  • the display unit 1022 performs a change corresponding to the change operation on the blood flow image that is the target of the change operation, and further performs the same change as the change corresponding to the change operation on the image that is not the target of the change operation.
  • the display unit 1022 performs the change operation on the blood flow image in the same manner as described above.
  • the blood flow information and the time code in a period centered on the time acquired according to the time are acquired, and a blood flow image is acquired and displayed.
  • the superimposed image the tomographic image and the phase image corresponding to the time acquired according to the change operation may be acquired in the same manner as described above, and the superimposed image may be displayed. The same applies to a case where a change operation for changing the time is received for the superimposed images.
  • the phase image, the tomographic image, and the blood flow image that are changed according to the changing operation are acquired, and the phase image and the tomographic image that are superimposed may be displayed.
  • the changing operation in this case may be processed as a changing operation for one of the superimposed images, or may be processed as a changing operation for both.
  • a change operation for changing a blood vessel to be displayed in a graph is performed on the blood flow image
  • a change operation for changing a blood vessel displayed in the image is performed on the superimposed image.
  • the phase image, the tomographic image, and the blood flow image that are changed according to the changing operation are acquired, and the phase image and the tomographic image that are superimposed may be displayed.
  • the change operation receiving unit 1018 receives a frame rate change operation for one of the tomographic image and the phase image that are displayed in a superimposed manner, and when the frame rate change operation is received, the display is displayed in a superimposed manner.
  • the frame rate of each tomographic image and phase image to be changed may be changed to a frame rate corresponding to the frame rate changing operation (for example, a frame rate specified by the frame rate changing operation).
  • the user presses a button 1211 for performing an operation for designating a vein, and an area on the vein among blood vessels on the biological image (fundus image) 1151 is selected.
  • the specified operation is performed. For example, assume that a mouse is clicked on one point on a region on a blood vessel that is a vein. The clicked state is the same as in FIG. 26 except that the button 1211 is pressed.
  • the blood vessel classification designation operation accepting unit 1019 accepts a blood vessel classification designation operation for designating a blood vessel corresponding to the region indicated by the blood vessel position information including the clicked coordinates as a vein. Assume that the clicked coordinate is, for example, (x13, y13).
  • the blood vessel classification management information accumulation unit 1021 matches the “subject ID” value with “P10001”, the “biological image group ID” with “E01”, and “ The value of “time code” is a record (line) that matches the time “t100” corresponding to the displayed biological image, and the blood vessel classification designation operation accepting unit 1019 accepts the value of “blood vessel position information”.
  • a record having coordinates that match the coordinates (x13, y13) of the blood vessel classification designation operation is detected.
  • the blood vessel classification management information accumulation unit 1021 acquires the value of “blood vessel ID” of the detected record as “blood vessel ID” indicating a blood vessel that is a vein.
  • blood vessel ID indicating a blood vessel that is a vein.
  • the blood vessel classification management information accumulating unit 1021 obtains the blood vessel classification management information having the acquired “blood vessel ID”, the blood vessel classification information indicating that it is a vein, and “P10001” that is the “subject ID”. It accumulates in the management information storage unit 1020.
  • the user selects a button 1212 or the like for performing an operation for designating an artery, and operates the mouse to click on one point of the region on the artery in the blood vessel image 1151.
  • the blood vessel classification designation operation accepting unit 1019 accepts a blood vessel classification designation operation for designating a blood vessel corresponding to the region indicated by the blood vessel position information including the clicked coordinates as an artery. Assume that the clicked coordinates are (x22, y22), for example.
  • the blood vessel classification management information storage unit 1021 matches the “subject ID” value with “P10001”, and the “time code” value is the currently displayed biological image.
  • the blood vessel classification management information accumulation unit 1021 acquires the value of “blood vessel ID” of the detected record as “blood vessel ID” indicating a blood vessel that is an artery.
  • blood vessel ID indicating a blood vessel that is an artery.
  • v02 is acquired as “blood vessel ID” indicating a blood vessel that is a vein.
  • the blood vessel classification management information accumulating unit 1021 obtains the blood vessel classification management information having the acquired “blood vessel ID”, blood vessel classification information indicating that it is an artery, and “P10001” that is “subject ID”. It accumulates in the management information storage unit 1020.
  • FIG. 29 is a diagram showing an example of blood vessel classification management information stored in the blood vessel classification management information storage unit 1020.
  • another blood vessel classification management information is already stored in the blood vessel classification management information storage unit 1020.
  • the blood vessel classification management information includes “subject ID”, “blood vessel ID”, and “blood vessel classification information”.
  • the “blood vessel classification information” is blood vessel classification information.
  • the display unit 1022 reads the value of “blood vessel ID” corresponding to the currently displayed tomographic image from the phase blood vessel management information shown in FIG. Specifically, the “subject ID” value matches “P10001”, the “tomographic image group ID” value matches “F01”, and the “time code” value is currently displayed.
  • the first set of the blood vessel ID “v01” and the blood vessel classification information “vein” and the second set of the blood vessel ID “v02” and the blood vessel classification information “artery” are acquired.
  • the display unit 1022 displays the second set of values obtained as described above in which the value of “blood vessel ID” in the record corresponding to the currently displayed phase image in the phase blood vessel management information illustrated in FIG. A record that matches “v02” that is the value of “blood vessel ID” is detected, and the value of “phase blood vessel position information” of the detected record is acquired. Then, the region indicated by the “phase blood vessel position information” in the currently displayed phase image (that is, the region on the blood vessel indicated by the blood vessel ID “v02”) is the second set of “blood vessel classification information obtained above”. Is changed to the display mode designated in advance in association with “artery”, which is the value of “”. For example, a color designated in advance is displayed as an overlay on this area.
  • the storage medium (not shown) is associated with information specifying the display mode for each blood vessel classification information so that the display modes of the blood vessel classification information “vein” and the blood vessel classification information “artery” can be identified. And so on. For example, information that associates the blood vessel classification information “vein” with the overlay color “red”, information that associates the blood vessel classification information “artery”, and the overlay color “blue” is accumulated in advance. To. Then, using this information, the display unit 1022 displays a blue overlay on the region corresponding to the blood vessel ID “v01”, and overlays a red color on the region corresponding to the blood vessel ID “v02”. indicate.
  • the blood vessel classification management information may be reflected on the tomographic image.
  • all the information used for the phase image may be used by replacing it with information corresponding to the tomographic image.
  • the blood vessel classification management information is reflected in the phase image in accordance with the user's operation. However, by default, the blood vessel classification management information is reflected in the phase image, and the blood vessel classification designation operation is accepted. Each time, the display of the phase image including the corresponding blood vessel may be changed.
  • the tomographic image or phase image with different blood vessel identification information when displaying a tomographic image or phase image with different blood vessel identification information, the tomographic image or phase image with different blood vessel identification information associated with the same time as the displayed tomographic image and phase image.
  • a tomographic image or phase image having different blood vessel identification information corresponding to the time associated with the tomographic image and phase image displayed next to the tomographic image and phase image being displayed is described. You may make it display. The same applies to a case where, for example, a tomographic image or phase image in which a region on a blood vessel of the tomographic image or phase image is displayed in a display mode different from other parts is displayed.
  • the tomographic image and the phase image acquired for the same part in the living body are displayed in an overlapping manner, it is possible to compare the corresponding part between the tomographic image and the phase image very accurately and easily.
  • a biological image when a biological image is designated as a blood vessel or a artery, the designation can be reflected as the display mode of the region where the blood vessel in the phase image is displayed. Therefore, it is not necessary to specify the classification of each blood vessel, and the operation can be simplified.
  • the phase image and the tomographic image are generated as in the case where the phase image is created using the same information as the tomographic image or information used for acquiring the tomographic image.
  • the display unit displays the phase blood vessel position corresponding to the phase image and the tomographic image to be superimposed respectively. Change the image size of at least one of the phase image and the tomographic image so that the region indicated by the information and the region indicated by the tomographic vessel position information overlap at the same height or width, and superimpose these images Also good.
  • each process may be realized by centralized processing by a single device (system), or by distributed processing by a plurality of devices. May be.
  • the image display device is a stand-alone
  • the image display device may be a stand-alone device or a server device in a server / client system.
  • the display unit or the reception unit receives an input or displays a screen via a communication line.
  • the software that realizes the image display device in each of the above embodiments is the following program. That is, this program is an image associated with time, and a tomographic image storage unit that stores a tomographic image group including a plurality of tomographic images showing a cross section intersecting at least one blood vessel in a living body; A phase image storage unit in which a phase image group including a plurality of phase images, which are images associated with each other and are images showing a time-series change in phase difference in a cross section intersecting at least one blood vessel in a living body, A computer capable of accessing a blood flow information storage unit in which a blood flow information group including a plurality of blood flow information including information related to blood flow in blood vessels in a living body and associated with time is stored Displaying the tomographic image included in the tomographic image group and the phase image included in the phase image group in synchronization using the time associated with the tomographic image and the phase image, and Blood that is an image showing a plurality of blood flow information associated with time within a
  • the program includes an image associated with time, a tomographic image storage unit storing a tomographic image group including a plurality of tomographic images showing a cross section intersecting at least one blood vessel in a living body, and time A phase image storage unit in which a phase image group including a plurality of phase images, which are images associated with each other and are images showing a time-series change in phase difference in a cross section intersecting at least one blood vessel in a living body,
  • the computer which can access the tomographic image included in the tomographic image group and the phase image included in the phase image group are synchronized using the time associated with the tomographic image and the phase image, and are displayed in a superimposed manner.
  • This is a program for causing a display unit to function.
  • the program includes a biological image storage unit that stores a biological image that is an image of a living body, blood vessel position information that is information indicating the position of one or more blood vessels in the biological image, and blood vessel identification corresponding to the blood vessel.
  • a phase image storage unit that stores phase management information including a phase image group including a plurality of phase images and blood vessel identification information of one or more blood vessels intersecting a cross section corresponding to the phase image group; and blood vessels in the phase image
  • a phase blood vessel management information storage unit storing phase blood vessel management information including phase blood vessel position information, which is information indicating the position of the blood vessel, and blood vessel identification information of the blood vessel
  • a blood vessel classification management information storage unit that stores blood vessel classification management information including blood vessel classification information that is information indicating whether it is a pulse or an artery, a computer accessible to a biological image, and one blood vessel
  • a blood vessel classification that receives a blood vessel classification designation operation that is an operation for designating a position of a vein or an artery in a biological image displayed by the display unit, and a display unit that displays phase images included in the phase image group associated with the identification information
  • the blood vessel identification information corresponding to the position designated by the designation operation receiving unit and the blood vessel designation operation is acquired from the blood vessel management information, and the
  • the blood vessel identification information and the phase blood vessel position information corresponding to the phase image displayed on the display unit are acquired from the tube management information, the blood vessel classification information corresponding to the blood vessel identification information is acquired from the blood vessel classification management information, and the blood vessel of the phase image
  • the position indicated by the phase blood vessel position information corresponding to the identification information is a display mode different from other positions, and the blood vessel classification information corresponding to the phase blood vessel position information is information indicating that it is an artery, or a vein It is a program that displays in different display modes depending on whether the information is present.
  • the functions realized by the program do not include functions that can only be realized by hardware.
  • functions that can be realized only by hardware such as a modem and an interface card in an acquisition unit that acquires information and a display unit that displays information are not included in the functions realized by the program.
  • the computer that executes this program may be singular or plural. That is, centralized processing may be performed, or distributed processing may be performed.
  • FIG. 31 is a schematic diagram showing an example of the external appearance of a computer that executes the program and realizes the image display apparatus according to the embodiment.
  • the above-described embodiments can be realized by computer hardware and a computer program executed on the computer hardware.
  • a computer system 900 includes a computer 901 including a CD-ROM (Compact Disk Only Memory) drive 905, an FD (Floppy (registered trademark) Disk) drive 906, a keyboard 902, a mouse 903, a monitor 904, Is provided.
  • a computer 901 including a CD-ROM (Compact Disk Only Memory) drive 905, an FD (Floppy (registered trademark) Disk) drive 906, a keyboard 902, a mouse 903, a monitor 904, Is provided.
  • FIG. 32 is a diagram showing an internal configuration of the computer system 900.
  • a computer 901 in addition to the CD-ROM drive 905 and the FD drive 906, a computer 901 is connected to an MPU (Micro Processing Unit) 911, a ROM 912 for storing a program such as a bootup program, and the MPU 911.
  • MPU Micro Processing Unit
  • ROM Read Only Memory
  • a RAM Random Access Memory
  • a hard disk 914 that stores application programs, system programs, and data
  • an MPU 911 and a ROM 912 are interconnected.
  • a bus 915 The computer 901 may include a network card (not shown) that provides connection to the LAN.
  • a program for causing the computer system 900 to execute the functions of the image display device and the like according to the above embodiment is stored in the CD-ROM 921 or the FD 922, inserted into the CD-ROM drive 905 or the FD drive 906, and stored in the hard disk 914. May be forwarded. Instead, the program may be transmitted to the computer 901 via a network (not shown) and stored in the hard disk 914. The program is loaded into the RAM 913 when executed. The program may be loaded directly from the CD-ROM 921, the FD 922, or the network.
  • the program does not necessarily include an operating system (OS) or a third party program that causes the computer 901 to execute the functions of the image display apparatus according to the above-described embodiment.
  • the program may include only a part of an instruction that calls an appropriate function (module) in a controlled manner and obtains a desired result. How the computer system 900 operates is well known and will not be described in detail.
  • the combination of the image display device 1000 of this embodiment and the optical image measurement device 1 of the above embodiment may be considered as a measurement system, for example.
  • the image display device is suitable as a device that displays a plurality of images acquired about a living body, and in particular, a device that displays a plurality of images related to one place in a living body acquired using OCT or the like. Useful as such.
  • Fundus observation device 2 fundus camera unit 10 illumination optical system 30 photographing optical system 31 focusing lens 31A focusing drive unit 41 optical path length changing unit 42 galvano scanner 50 alignment optical system 60 focus optical system 100 OCT unit 101 light source unit 105 optical attenuator 106 polarization Adjuster 115 CCD image sensor 200 Arithmetic control unit 210 Control unit 211 Main control unit 212 Storage unit 220 Image forming unit 221 Tomographic image forming unit 222 Phase image forming unit 230 Image processing unit 231 Blood vessel region specifying unit 232 Blood flow information generating unit 233 Inclination calculation unit 234 Blood flow velocity calculation unit 235 Blood vessel diameter calculation unit 236 Blood flow rate calculation unit 237 Cross-section setting unit 240A Display unit 240B Operation unit E Eye to be examined Ef Fundus LS Signal light LR Reference light LC Interference light 1000 Image display device 1011 Tomographic image Storage unit 1012 Phase image Storage unit 1013 Blood flow information storage unit 1014 Biological image storage unit 1015 Phase blood vessel management information storage unit 1016

Abstract

 血流計測を高確度で行う。実施形態の光画像計測装置は、光学系、走査部、画像形成部、血管領域特定部及び血流情報生成部を有する。光学系は、光源からの光を信号光と参照光とに分割し、生体による信号光の散乱光と参照光路を経由した参照光との干渉光を検出する。走査部は、生体の注目血管に交差する第1断面を信号光で反復的に走査する第1走査を行う。画像形成部は、第1走査において光学系により得られる干渉光の検出結果に基づいて、第1断面における形態の時系列変化を表す第1断層像と位相差の時系列変化を表す位相画像とを形成する。血管領域特定部は、第1断層像及び位相画像のそれぞれについて、注目血管に対応する血管領域を特定する。血流情報生成部は、第1断層像の血管領域と位相画像の血管領域における位相差の時系列変化とに基づいて、注目血管に関する血流情報を生成する。

Description

光画像計測装置、画像表示装置、および画像表示方法
 この発明は、光コヒーレンストモグラフィ(Optical Coherence Tomography:OCT)を用いた血流計測技術に関する。
 近年、レーザ光源等からの光ビームを用いて被測定物体の表面形態や内部形態を表す画像を形成するOCTが注目を集めている。OCTは、X線CTのような人体に対する侵襲性を持たないことから、特に医療分野や生物学分野における応用の展開が期待されている。たとえば眼科分野においては、眼底や角膜等の画像を形成する装置が実用化されている。
 特許文献1には、いわゆる「フーリエドメインOCT(Fourier Domain OCT)」の手法を用いた装置が開示されている。すなわち、この装置は、被測定物体に対して低コヒーレンス光のビームを照射し、その反射光と参照光とを重ね合わせて干渉光を生成し、この干渉光のスペクトル強度分布を取得してフーリエ変換を施すことにより被測定物体の深度方向(z方向)の形態を画像化するものである。更に、この装置は、光ビーム(信号光)をz方向に直交する1方向(x方向)に走査するガルバノミラーを備え、それにより被測定物体の所望の測定対象領域の画像を形成するようになっている。この装置により形成される画像は、光ビームの走査方向(x方向)に沿った深度方向(z方向)の2次元断層画像となる。なお、この手法は、特にスペクトラルドメイン(Spectral Domain)とも呼ばれる。
 特許文献2には、信号光を水平方向(x方向)および垂直方向(y方向)に走査(スキャン)することにより水平方向の2次元断層画像を複数形成し、これら複数の断層画像に基づいて測定範囲の3次元の断層情報を取得して画像化する技術が開示されている。この3次元画像化としては、たとえば、複数の断層画像を垂直方向に並べて表示させる方法や(スタックデータなどと呼ばれる)、スタックデータに基づくボリュームデータ(ボクセルデータ)にレンダリング処理を施して3次元画像を形成する方法などがある。
 特許文献3、4には、他のタイプのOCT装置が開示されている。特許文献3には、被測定物体に照射される光の波長を走査(波長掃引)し、各波長の光の反射光と参照光とを重ね合わせて得られる干渉光を検出してスペクトル強度分布を取得し、それに対してフーリエ変換を施すことにより被測定物体の形態を画像化するOCT装置が記載されている。このようなOCT装置は、スウェプトソース(Swept Source)タイプなどと呼ばれる。スウェプトソースタイプはフーリエドメインタイプの一種である。
 また、特許文献4には、所定のビーム径を有する光を被測定物体に照射し、その反射光と参照光とを重ね合わせて得られる干渉光の成分を解析することにより、光の進行方向に直交する断面における被測定物体の画像を形成するOCT装置が記載されている。このようなOCT装置は、フルフィールド(full-field)タイプ、或いはインファス(en-face)タイプなどと呼ばれる。
 特許文献5には、OCTを眼科分野に適用した構成が開示されている。なお、OCTが応用される以前には、被検眼を観察するための装置として眼底カメラやスリットランプなどが使用されていた(たとえば特許文献6、特許文献7を参照)。眼底カメラは被検眼に照明光を照射し、その眼底反射光を受光することで眼底を撮影する装置である。スリットランプは、スリット光を用いて角膜の光切片を切り取ることにより角膜の断面の画像を取得する装置である。
 OCTを用いた装置は、高精細の画像を取得できる点、更には断層画像や3次元画像を取得できる点などにおいて、眼底カメラ等に対して優位性を持つ。
 このように、OCTを用いた装置は被検眼の様々な部位の観察に適用可能であり、また高精細な画像を取得できることから、様々な眼科疾患の診断への応用がなされてきている。
 また、OCTは、被測定物体の形態の計測だけでなく、生体内の血管を流れる血液の血流計測にも用いられる(たとえば特許文献8、9を参照)。OCTを用いた血流計測は、眼底血流の測定などに応用されている。
特開平11-325849号公報 特開2002-139421号公報 特開2007-24677号公報 特開2006-153838号公報 特開2008-73099公報 特開平9-276232号公報 特開2008-259544号公報 特開2009-165710号公報 特表2010-523286号公報
 血流の変化は早期疾患においても生じるので、その診断に血流計測を用いることが可能と考えられる。しかし、従来の血流計測では、早期診断に用いるのに十分な確度を実現することは困難であった。
 そこで、この発明は、血流計測を高い確度で行うことが可能な技術を提供することを目的とする。
 また、従来の画像表示装置等においては、血流の測定に必要な複数の画像を、適切に表示することができない、という課題があった。
 例えば、従来においては、血流情報の測定に必要な、断層画像と、位相画像と、血流情報とを対応付けて、同時に表示するものがなかった。このため、従来においては血流情報の測定に必要な画像を利用して、血流情報の測定状況等を適切に確認したりすることができなかった。
 本発明は、光源からの光を信号光と参照光とに分割し、生体による前記信号光の散乱光と参照光路を経由した前記参照光との干渉光を検出する光学系と、前記生体の注目血管に交差する第1断面を前記信号光で反復的に走査する第1走査を行う走査部と、前記第1走査において前記光学系により得られる前記干渉光の検出結果に基づいて、前記第1断面における形態の時系列変化を表す第1断層画像と位相差の時系列変化を表す位相画像とを形成する画像形成部と、前記第1断層画像および前記位相画像のそれぞれについて、前記注目血管に対応する血管領域を特定する血管領域特定部と、前記第1断層画像の前記血管領域と前記位相画像の前記血管領域における位相差の時系列変化とに基づいて、前記注目血管に関する血流情報を生成する血流情報生成部とを有する光画像計測装置である。
 また、本発明において、前記走査部は、前記注目血管に交差しかつ前記第1断面の近傍に位置する第2断面を前記信号光で走査する第2走査を行い、前記画像形成部は、前記第2走査において前記光学系により得られる前記干渉光の検出結果に基づいて、前記第2断面における形態を表す第2断層画像を形成し、前記血管領域特定部は、前記第2断層画像において前記注目血管に対応する血管領域を特定し、前記血流情報生成部は、前記第1断面と前記第2断面との間の距離、前記第1断層画像の前記血管領域、前記第2断層画像の前記血管領域、および前記位相差の時系列変化に基づいて、前記血流情報の生成を行うことを特徴とする。
 また、本発明において、前記血流情報生成部は、前記距離と前記第1断層画像の前記血管領域と前記第2断層画像の前記血管領域とに基づいて、前記第1断面における前記注目血管の傾きを算出する傾き算出部を含み、前記傾きの算出結果と前記位相差の時系列変化とに基づいて前記血流情報を生成することを特徴とする。
 また、本発明において、前記第2断面は、前記第1断面に対して前記注目血管の上流側の断面と下流側の断面とを含むことを特徴とする。
 また、本発明において、前記傾き算出部は、前記第1断層画像における前記血管領域の位置と前記第2断層画像における前記血管領域の位置とに基づいて、前記傾きの算出を行うことを特徴とする。
 また、本発明において、前記血流情報生成部は、前記傾きの算出結果と前記位相差の時系列変化とに基づいて、前記注目血管内を流れる血液の前記第1断面における血流速度を算出する血流速度算出部を含むことを特徴とする。
 また、本発明において、前記血流速度算出部は、前記傾きの算出結果と前記位相差の時系列変化とに基づいて、前記血流速度の時系列変化を表す血流速度変化情報を生成することを特徴とする。
 また、本発明において、前記血流速度算出部は、前記血流速度変化情報に基づいて前記血流速度の統計値を算出することを特徴とする。
 また、本発明において、前記第1断面の位置を含む前記生体の部位を撮影する撮影部を更に有し、前記血流情報生成部は、前記撮影部による前記部位の撮影画像に基づいて、前記第1断面における前記注目血管の径を算出する血管径算出部と、前記血流速度変化情報と前記径の算出結果とに基づいて、前記注目血管内を流れる血液の流量を算出する血流量算出部とを含むことを特徴とする。
 また、本発明において、前記血流情報生成部は、前記第1断層画像に基づいて、前記第1断面における前記注目血管の径を算出する血管径算出部と、前記血流速度変化情報と前記径の算出結果とに基づいて、前記注目血管内を流れる血液の流量を算出する血流量算出部とを含むことを特徴とする。
 また、本発明において、前記血流速度算出部は、前記位相画像の前記血管領域に含まれる複数の画素のそれぞれについて前記血流速度変化情報を生成し、前記血流情報生成部は、当該各画素の前記血流速度変化情報を時系列に沿って積分することにより当該各画素についての血流量を算出し、前記複数の画素についての前記血流量を加算することにより前記注目血管を流れる血液の流量を算出する血流量算出部を含むことを特徴とする。
 また、本発明において、前記血管領域特定部は、前記第1断層画像を解析して前記血管領域を特定し、前記第1断層画像における当該血管領域の位置に対応する前記位相画像の画像領域を特定し、該画像領域を前記位相画像の前記血管領域とすることを特徴とする。
 また、本発明において、前記走査部は、前記生体の少なくとも1心周期の間にわたって前記第1走査を行うことを特徴とする。
 また、本発明において、前記注目血管は眼底血管であることを特徴とする。
 また、本発明において、前記第1断面および前記第2断面は、前記眼底の視神経乳頭の近傍に設定されることを特徴とする。
 また、本発明において、前記光学系と光路の一部を共有し、前記生体の眼底に照射された照明光の反射光を検出することで前記眼底の画像を取得する画像取得部と、取得された前記画像を表示する表示部と、表示された前記画像に対して前記第1断面を指定するための操作部と、指定された前記第1断面と取得された前記画像とに基づいて前記第2断面を設定する断面設定部とを更に有し、前記走査部は、指定された前記第1断面に対して前記第1走査を行い、設定された前記第2断面に対して前記第2走査を行うことを特徴とする。
 また、本発明は、光源からの光を信号光と参照光とに分割し、生体による前記信号光の散乱光と参照光路を経由した前記参照光との干渉光を検出する光学系と、前記生体の注目血管に交差する第1断面を前記信号光で反復的に走査する第1走査と、前記注目血管に交差しかつ前記第1断面の近傍に位置する第2断面を前記信号光で走査する第2走査とを行う走査部と、前記第1走査において前記光学系により得られる前記干渉光の検出結果に基づいて、前記第1断面における形態の時系列変化を表す第1断層画像と位相差の時系列変化を表す位相画像とを形成し、かつ、前記第2走査において前記光学系により得られる前記干渉光の検出結果に基づいて、前記第2断面における形態を表す第2断層画像を形成する画像形成部と、前記第1断面の位置を含む前記生体の部位を撮影する撮影部と、前記第1断層画像、前記位相画像および前記第2断層画像のそれぞれについて、前記注目血管に対応する血管領域を特定する血管領域特定部と、前記位相差の時系列変化と前記血管領域の特定結果とに基づいて、前記注目血管内を流れる血液の前記第1断面における血流速度を算出する血流速度算出部と、前記撮影部による前記部位の撮影画像に基づいて、前記第1断面における前記注目血管の径を算出する血管径算出部と、前記血流速度の算出結果と前記径の算出結果とに基づいて、前記注目血管内を流れる血液の流量を算出する血流量算出部とを有する光画像計測装置である。
 また、本発明において、前記走査部は、前記生体の少なくとも1心周期の間にわたって前記第1走査を行うことを特徴とする。
 また、本発明において、前記注目血管は眼底血管であることを特徴とする。
 また、本発明において、前記第1断面および前記第2断面は、前記眼底の視神経乳頭の近傍に設定されることを特徴とする。
 また、本発明において、前記撮影部は、前記光学系と光路の一部を共有し、前記撮影部による前記眼底の撮影画像を表示する表示部と、表示された前記撮影画像に対して前記第1断面を指定するための操作部と、指定された前記第1断面と前記撮影画像とに基づいて前記第2断面を設定する断面設定部とを更に有し、前記走査部は、指定された前記第1断面に対して前記第1走査を行い、設定された前記第2断面に対して前記第2走査を行うことを特徴とする。
 本発明の画像表示装置は、時刻と対応付けられた画像であって、生体における、少なくとも1つの血管と交わる断面を示す断層画像を複数備えた断層画像群が格納される断層画像格納部と、時刻と対応付けられた画像であって、生体における、少なくとも1つの血管と交わる断面における位相差の時系列変化を示す画像である位相画像を複数備えた位相画像群が格納される位相画像格納部と、生体内の血管における血液の流れに関する情報であって、時刻と対応付けられた情報である血流情報を複数備えた血流情報群が格納される血流情報格納部と、断層画像群に含まれる断層画像と、位相画像群に含まれる位相画像とを、断層画像と位相画像とに対応付けられた時刻を用いて同期させて表示し、かつ、血流情報群に含まれる血流情報のうちの、表示中の断層画像と位相画像とに対応付けられた時刻を含む期間内の時刻と対応付けられた複数の血流情報を示す画像である血流画像を表示する表示部と、表示部が表示する断層画像、位相画像、および血流画像のいずれか1つに対する表示を変更する操作である変更操作を受け付ける変更操作受付部とを備え、表示部は、変更操作に対応する変更と同じ変更を、表示部が表示する断層画像、位相画像、および血流画像に対して行う画像表示装置である。
 かかる構成により、血流の測定に必要な断層画像、位相画像、および血流画像を同時に表示するとともに、これらの画像のうちの一の画像に対して行われた変更操作に対応する変更と同じ変更を、変更操作の対象となる画像だけでなく、断層画像、位相画像、および血流画像に対して行うため、表示される画像間の対応関係等を保つことができ、血流の測定に必要な複数の画像を適切に表示することができる。
 また、本発明の画像表示装置は、前記画像表示装置において、断層画像格納部には、断層画像群と、断層画像群が示す断面と交わる1以上の血管を示す情報である血管識別情報とを含む断層管理情報が格納され、位相画像格納部には、位相画像群と、位相画像群に対応する断面と交わる1以上の血管の血管識別情報とを含む位相管理情報が格納され、血流情報格納部には、血流情報血流情報群と、血流情報群に対応する血管の血管識別情報とを含む血流管理情報が格納され、表示部は、一の血管識別情報が指定されたときに、血管識別情報に対応付けられた断層画像群に含まれる断層画像と、位相画像群に含まれる位相画像と、血管識別情報に対応付けられた血流情報群に含まれる血流情報を示す血流画像とを表示し、変更操作受付部は、血管を指定する操作を変更操作として受け付け、指定された血管に対応する血管識別情報を取得し、表示部は、変更操作受付部が取得した血管識別情報に対応する断層画像、位相画像、および血流画像を、断層画像群、位相画像群、および血流情報群から取得し、取得した画像を表示する画像表示装置である。
 かかる構成により、断層画像、位相画像、および血流画像の一の画像に対して一の血管識別情報を指定する変更操作を行うことで、指定された血管識別情報に対応する断層画像、位相画像、および血流画像を表示することができる。これにより、各画像を取得した箇所を直接指定しなくても、ユーザが関連する画像を表示させたい血管の識別情報がわかれば、この血管に関する画像を表示させることができるため、画像の取得箇所を探す必要がなく、画像の指定を容易に行うことが可能となる。
 また、本発明の画像表示装置は、前記画像表示装置において、位相画像内における血管の位置を示す情報である位相血管位置情報と、血管の血管識別情報と、を含む位相血管管理情報が格納される位相血管管理情報格納部を更に備え、変更操作受付部は、表示部が表示する位相画像における血管上の位置を指定する位相血管指定操作を更に受け付け、位相血管指定操作により指定された位置に対応する血管識別情報を位相血管管理情報から取得し、表示部は、変更操作受付部が取得した血管識別情報に対応する血流情報群を用いて、血流画像を取得して表示する画像表示装置である。
 かかる構成により、位相画像内で血管を指定することで、指定された血管に関する血流画像を表示させることができるため、血流画像の表示切り替えを、容易にかつ直感的に行うことが可能となる。
 また、本発明の画像表示装置は、前記画像表示装置において、位相画像内における血管の位置を示す情報である位相血管位置情報と、血管の血管識別情報と、を含む位相血管管理情報が格納される位相血管管理情報格納部と、断層画像内における血管の位置を示す情報である断層血管位置情報と、血管の血管識別情報と、を含む断層血管管理情報が格納される断層血管管理情報格納部と、を更に備え、変更操作受付部は、表示部が表示する位相画像における血管上の位置を指定する位相血管指定操作を更に受け付け、位相血管指定操作により指定された位置に対応する血管識別情報を位相血管管理情報から取得し、表示部は、変更操作受付部が取得した血管識別情報に対応する断層血管位置情報を、断層血管管理情報を用いて取得し、断層画像の、取得した断層血管位置情報が示す位置を、他の位置とは異なる表示態様で表示する画像表示装置である。
 かかる構成により、位相画像内で指定した血管を、断層画像において、他の部分と識別可能に表示することが可能となる。
 また、本発明の画像表示装置は、前記画像表示装置において、変更操作受付部は、時刻を指定する変更操作を受け付け、変更操作に対応する時刻を取得し、表示部は、変更操作受付部が取得した時刻に対応する断層画像、位相画像、および血流画像を、断層画像群、位相画像群、または血流情報群を用いて取得し、取得した画像を表示する画像表示装置である。
 かかる構成により、断層画像、位相画像、および血流画像の一の画像に対して一の時刻を指定する変更操作を行うことで、指定された時刻に対応する断層画像、位相画像、および血流画像を表示することができる。これにより、各画像に対して時刻を個別に指定しなくても、ユーザが表示させたい時刻がわかれば、この時刻に対応した画像を表示させることができるため、画像の指定を容易に行うことが可能となる。
 また、本発明の画像表示装置は、前記画像表示装置において、生体における、断層画像の断面を取得した位置を含む領域を正面から撮影した画像である生体画像が格納される生体画像格納部と、生体画像における1以上の血管の位置を示す情報である血管位置情報と、血管に対応する血管識別情報とを含む血管管理情報が格納される血管管理情報格納部とを更に備え、表示部は、さらに、生体画像を表示し、変更操作受付部は、表示部が表示する生体画像における一の血管上の位置を指定する操作である血管指定操作を更に受け付け、血管指定操作が指定する位置に対応する血管識別情報を血管管理情報から取得し、表示部は、変更操作受付部が取得した血管識別情報に対応する断層画像、位相画像、および血流画像を、断層画像群、位相画像群、および血流情報群をそれぞれ用いて取得し、取得した断層画像、位相画像、および血流画像を表示する画像表示装置である。
 かかる構成により、生体画像上において、一の血管を指定すると、この血管に対応する断層画像、位相画像、および血流画像を表示することができる。これにより、各画像を取得した箇所や血管の血管識別情報を直接指定しなくても、ユーザが関連する画像を表示させたい血管を生体画像上で指定するだけで、この血管に関する画像を表示させることができるため、画像の取得箇所や血管識別情報を探す必要がなく、画像の指定を容易に行うことが可能となる。
 また、本発明の画像表示装置は、前記画像表示装置において、変更操作受付部は、表示部が表示する断層画像、または位相画像に対して、表示される画像のフレームレートを変更するフレームレート変更操作を受け付け、表示部は、断層画像および位相画像を表示するフレームレートを、フレームレート変更操作に対応する同じフレームレートに変更する画像表示装置である。
 かかる構成により、断層画像または位相画像の一方に対してフレームレートを変更すると、断層画像と位相画像との両方に対して、表示時のフレームレートを変更することができる。
 また、本発明の画像表示装置は、時刻と対応付けられた画像であって、生体における、少なくとも1つの血管と交わる断面を示す断層画像を複数備えた断層画像群が格納される断層画像格納部と、時刻と対応付けられた画像であって、生体における、少なくとも1つの血管と交わる断面における位相差の時系列変化を示す画像である位相画像を複数備えた位相画像群が格納される位相画像格納部と、断層画像群に含まれる断層画像と、位相画像群に含まれる位相画像とを、断層画像と位相画像とに対応付けられた時刻を用いて同期させ、重ね合わせて表示する表示部を備えた画像表示装置である。
 かかる構成により、断層画像と位相画像とを同期させ、重ね合わせて表示することができ、画像間の対応関係を正確かつ容易に比較することができ、血流の測定に必要な複数の画像を適切に表示することができる。
 また、本発明の画像表示装置は、前記画像表示装置において、生体内の血管における血液の流れに関する情報であって、時刻と対応付けられた情報である血流情報を複数備えた血流情報群が格納される血流情報格納部を更に備え、表示部は、さらに、血流情報群に含まれる血流情報のうちの、重ね合わせられて表示中の断層画像と位相画像とに対応付けられた時刻を含む期間内の時刻と対応付けられた複数の血流情報を示す画像である血流画像を表示する画像表示装置である。
 かかる構成により、断層画像と位相画像とを重ね合わせた画像と、重ね合わせた画像に含まれる血管についての血流画像とを表示することができる。
 また、本発明の画像表示装置は、前記画像表示装置において、表示部が表示する断層画像と位相画像とを重ね合わせた画像、または血流画像のいずれか1つに対して、表示を変更する操作である変更操作を受け付ける変更操作受付部とを備え、表示部は、変更操作に対応する変更と同じ変更を、表示部が表示する断層画像と位相画像とを重ね合わせた画像、および血流画像に対して行う画像表示装置である。
 かかる構成により、断層画像と位相画像とを重ね合わせた画像、または血流画像の一方に対して行われた変更操作に対応する変更と同じ変更を、変更操作の対象となる画像だけでなく、重ねあわせた画像と、血流画像とに対して行うため、表示される画像間の対応関係等を保つことができ、適切な表示を行うことができる。
 また、本発明の画像表示装置は、前記画像表示装置において、断層画像格納部には、断層画像群と、断層画像群が示す断面と交わる1以上の血管を示す情報である血管識別情報とを含む断層管理情報が格納され、位相画像格納部には、位相画像群と、位相画像群に対応する断面と交わる1以上の血管の血管識別情報とを含む位相管理情報が格納され、血流格納部には、血流情報群と、血流情報群に対応する血管の血管識別情報とを含む血流管理情報が格納され、表示部は、一の血管識別情報に対応付けられた断層画像群および位相画像群にそれぞれ含まれる断層画像および位相画像と、一の血管識別情報と対応付けられた血流情報群に含まれる血流情報を示す血流画像とを表示し、変更操作受付部は、表示部が重ね合わせた画像に対する血管を指定する血管変更指定操作を受け付け、血管変更指定操作に対応する血管識別情報を取得し、表示部は、変更操作受付部が取得した血管識別情報に対応する断層画像、位相画像、および血流画像を、断層画像群、位相画像群、および血流情報群を用いて取得し、取得した画像を表示する画像表示装置である。
 かかる構成により、断層画像と位相画像とを重ね合わせた画像および血流画像のうちの一の画像に対して一の血管識別情報を指定する変更操作を行うことで、指定された血管識別情報に対応する断層画像と位相画像とを重ねあわせた画像および血流画像を表示することができる。これにより、各画像を取得した箇所を直接指定しなくても、ユーザが関連する画像を表示させたい血管の識別情報がわかれば、この血管に関する画像を表示させることができるため、画像の取得箇所を探す必要がなく、画像の指定を容易に行うことが可能となる。
 また、本発明の画像表示装置は、前記画像表示装置において、変更操作受付部は、表示部が表示する断層画像、および位相画像のいずれか1つに対して、表示される画像のフレームレートを変更するフレームレート変更操作を受け付け、表示部は、断層画像および位相画像を表示するフレームレートを、フレームレート変更操作に対応する同じフレームレートに変更する画像表示装置である。
 かかる構成により、断層画像または位相画像の一方に対してフレームレートを変更すると、断層画像と位相画像との両方に対して、表示時のフレームレートを変更することができる。
 また、本発明の画像表示装置は、生体を撮影した画像である生体画像が格納される生体画像格納部と、生体画像における1以上の血管の位置を示す情報である血管位置情報と、血管に対応する血管識別情報とを含む血管管理情報が格納される血管管理情報格納部と、時刻と対応付けられた画像であって、生体における、少なくとも1つの血管と交わる断面における位相差の時系列変化を示す画像である位相画像を複数備えた位相画像群と、位相画像群に対応する断面と交わる血管の血管識別情報とを含む位相管理情報が格納される位相画像格納部と、位相画像内における血管の位置を示す情報である位相血管位置情報と、血管の血管識別情報と、を含む位相血管管理情報が格納される位相血管管理情報格納部と、生体画像と、一の血管識別情報と対応付けられた位相画像群に含まれる位相画像とを表示する表示部と、表示部が表示する生体画像における静脈または動脈の位置を指定する操作である血管分類指定操作を受け付ける血管分類指定操作受付部と、血管識別情報と、血管が静脈であるか、動脈であるかを示す情報である血管分類情報とを含む血管分類管理情報が格納される血管分類管理情報格納部と、血管指定操作が指定する位置に対応する血管識別情報を血管管理情報から取得し、血管識別情報と、血管指定操作が示す血管が静脈であるか動脈であるかを指定する血管分類情報とを含む血管分類管理情報を、血管分類管理情報格納部に蓄積する血管分類管理情報蓄積部とを備え、表示部は、位相血管管理情報から、表示部が表示する位相画像に対応する血管識別情報と位相血管位置情報とを取得し、血管識別情報に対応する血管分類情報を血管分類管理情報から取得し、位相画像の血管識別情報に対応する位相血管位置情報が示す位置を、他の位置とは異なる表示態様であって、位相血管位置情報に対応する血管分類情報が動脈であることを示す情報であるか、静脈であることを示す情報であるかによって異なる表示態様で表示する画像表示装置である。
 かかる構成により、生体画像において、血管が静脈であるか動脈であるかを指定すると、その指定を、位相画像の血管が表示されている領域の表示態様として反映させることができるため、個別の画像に対してそれぞれ血管の分類を指定する必要がなく、操作を簡略化することができる。特に位相画像においては、血管の位置が把握しにくい一方、眼底像等の生体画像においては、血管の位置等が把握しやすいため、より操作性が向上する。これにより、血流の測定に必要な複数の画像を適切に表示することができる。
 この発明によれば、位相画像と同じ断面の第1断層画像と位相差の時系列変化とを用いて血流計測を行うように構成されているので、高い確度の血流計測を実現できる。
 また、この発明によれば、位相画像と同じ断面の第1断層画像と位相差の時系列変化とを用いて血流計測を行うことができる。更に、この発明は、位相差の時系列変化と血管領域の特定結果とに基づいて血流速度を算出し、撮影画像に基づいて注目血管の径を算出し、血流速度の算出結果と血管径の算出結果とに基づいて血流量を算出するように機能する。したがって、高い確度の血流計測を実現できる。
 また、この発明によれば、血流の測定に必要な複数の画像を適切に表示することができる。
実施形態に係る眼底観察装置(光画像計測装置)の構成の一例を表す概略図 実施形態に係る眼底観察装置の構成の一例を示す概略図 同構成の一例を示す概略ブロック図 同構成の一例を示す概略ブロック図 同動作の一例を示す概略図 同動作の一例を示す概略図 同動作例を示すフローチャート 実施形態に係る画像表示装置の構成の一例を示す概略ブロック図 同動作について説明するフローチャート 同動作について説明するフローチャート 同概念図 同生体画像の一例を示す図 同生体画像管理情報の一例を示す図 同血管管理情報の一例を示す図 同断層画像の一例を示す図 同断層管理情報の一例を示す図 同断層血管管理情報の一例を示す図 同位相画像の一例を示す図 同位相管理情報の一例を示す図 同位相血管管理情報の一例を示す図 同血流情報管理情報の一例を示す図 同表示例を示す図 同表示例を示す図 同表示例を示す図 同表示例を示す図 同表示例を示す図 同表示例を示す図 同表示例を示す図 同血管分類管理情報の一例を示す図 同表示例を示す図 同画像表示装置を実現するコンピュータの外観の一例を示す模式図 同内部構成を示す図
 この発明に係る光画像計測装置の実施形態の一例について、図面を参照しながら詳細に説明する。この発明に係る光画像計測装置は、OCTを用いて生体の断層画像や3次元画像を形成する。この明細書では、OCTによって取得される画像をOCT画像と総称することがある。また、OCT画像を形成するための計測動作をOCT計測と呼ぶことがある。なお、この明細書に記載された文献の記載内容を、以下の実施形態の内容として適宜援用することが可能である。
 以下の実施形態では、生体の計測対象を被検眼(眼底)とし、フーリエドメインタイプのOCTを適用して眼底のOCT計測を行う眼底観察装置について説明する。特に、実施形態に係る眼底観察装置は、特許文献5に開示された装置と同様に、スペクトラルドメインOCTの手法を用いて眼底のOCT画像および眼底像の双方を取得可能である。なお、スペクトラルドメイン以外のタイプ、たとえばスウェプトソースOCTの手法を用いる光画像計測装置に対して、この発明に係る構成を適用することも可能である。また、この実施形態ではOCT装置と眼底カメラとを組み合わせた装置について説明するが、眼底カメラ以外の眼底撮影装置、たとえばSLO(Scanning Laser Ophthalmoscope)、スリットランプ、眼科手術用顕微鏡などに、この実施形態に係る構成を有するOCT装置を組み合わせることも可能である。また、この実施形態に係る構成を、単体のOCT装置に組み込むことも可能である。また、眼底以外の生体部位を計測するOCT装置に、この実施形態の構成を適用することもできる。このような生体部位は、血流状態の検査対象となる任意の部位である。
[構成]
 図1に示すように、眼底観察装置1は、眼底カメラユニット2、OCTユニット100および演算制御ユニット200を含んで構成される。眼底カメラユニット2は、従来の眼底カメラとほぼ同様の光学系を有する。OCTユニット100には、眼底のOCT画像を取得するための光学系が設けられている。演算制御ユニット200は、各種の演算処理や制御処理等を実行するコンピュータを具備している。
〔眼底カメラユニット〕
 図1に示す眼底カメラユニット2には、被検眼Eの眼底Efの表面形態を表す2次元画像(眼底像)を取得するための光学系が設けられている。眼底像には、観察画像や撮影画像などが含まれる。観察画像は、たとえば、近赤外光を用いて所定のフレームレートで形成されるモノクロの動画像である。撮影画像は、たとえば、可視光をフラッシュ発光して得られるカラー画像、又は近赤外光若しくは可視光を照明光として用いたモノクロの静止画像であってもよい。眼底カメラユニット2は、これら以外の画像、たとえばフルオレセイン蛍光画像やインドシアニングリーン蛍光画像や自発蛍光画像などを取得可能に構成されていてもよい。
 眼底カメラユニット2には、被検者の顔を支持するための顎受けや額当てが設けられている。更に、眼底カメラユニット2には、照明光学系10と撮影光学系30が設けられている。照明光学系10は眼底Efに照明光を照射する。撮影光学系30は、この照明光の眼底反射光を撮像装置(CCDイメージセンサ(単にCCDと呼ぶことがある)35、38。)に導く。また、撮影光学系30は、OCTユニット100からの信号光を眼底Efに導くとともに、眼底Efを経由した信号光をOCTユニット100に導く。
 照明光学系10の観察光源11は、たとえばハロゲンランプにより構成される。観察光源11から出力された光(観察照明光)は、曲面状の反射面を有する反射ミラー12により反射され、集光レンズ13を経由し、可視カットフィルタ14を透過して近赤外光となる。更に、観察照明光は、撮影光源15の近傍にて一旦集束し、ミラー16により反射され、リレーレンズ17、18、絞り19およびリレーレンズ20を経由する。そして、観察照明光は、孔開きミラー21の周辺部(孔部の周囲の領域)にて反射され、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて眼底Efを照明する。なお、観察光源としてLED(Light Emitting Diode)を用いることも可能である。
 観察照明光の眼底反射光は、対物レンズ22により屈折され、ダイクロイックミラー46を透過し、孔開きミラー21の中心領域に形成された孔部を通過し、ダイクロイックミラー55を透過し、合焦レンズ31を経由し、ミラー32により反射される。更に、この眼底反射光は、ハーフミラー40を透過し、ダイクロイックミラー33により反射され、集光レンズ34によりCCDイメージセンサ35の受光面に結像される。CCDイメージセンサ35は、たとえば所定のフレームレートで眼底反射光を検出する。表示装置3には、CCDイメージセンサ35により検出された眼底反射光に基づく画像(観察画像)が表示される。なお、撮影光学系のピントが前眼部に合わせられている場合、被検眼Eの前眼部の観察画像が表示される。
 撮影光源15は、たとえばキセノンランプにより構成される。撮影光源15から出力された光(撮影照明光)は、観察照明光と同様の経路を通って眼底Efに照射される。撮影照明光の眼底反射光は、観察照明光のそれと同様の経路を通ってダイクロイックミラー33まで導かれ、ダイクロイックミラー33を透過し、ミラー36により反射され、集光レンズ37によりCCDイメージセンサ38の受光面に結像される。表示装置3には、CCDイメージセンサ38により検出された眼底反射光に基づく画像(撮影画像)が表示される。なお、観察画像を表示する表示装置3と撮影画像を表示する表示装置3は、同一のものであってもよいし、異なるものであってもよい。また、被検眼Eを赤外光で照明して同様の撮影を行う場合には、赤外の撮影画像が表示される。また、撮影光源としてLEDを用いることも可能である。
 LCD(Liquid Crystal Display)39は、固視標や視力測定用指標を表示する。固視標は被検眼Eを固視させるための指標であり、眼底撮影時やOCT計測時などに使用される。
 LCD39から出力された光は、その一部がハーフミラー40にて反射され、ミラー32に反射され、合焦レンズ31およびダイクロイックミラー55を経由し、孔開きミラー21の孔部を通過し、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて眼底Efに投影される。
 LCD39の画面上における固視標の表示位置を変更することにより、被検眼Eの固視位置を変更できる。被検眼Eの固視位置としては、たとえば従来の眼底カメラと同様に、眼底Efの黄斑部を中心とする画像を取得するための位置や、視神経乳頭を中心とする画像を取得するための位置や、黄斑部と視神経乳頭との間の眼底中心を中心とする画像を取得するための位置などがある。また、固視標の表示位置を任意に変更することも可能である。
 更に、眼底カメラユニット2には、従来の眼底カメラと同様にアライメント光学系50とフォーカス光学系60が設けられている。アライメント光学系50は、被検眼Eに対する装置光学系の位置合わせ(アライメント)を行うための指標(アライメント指標)を生成する。フォーカス光学系60は、眼底Efに対してフォーカス(ピント)を合わせるための指標(スプリット指標)を生成する。
 アライメント光学系50のLED51から出力された光(アライメント光)は、絞り52、53およびリレーレンズ54を経由してダイクロイックミラー55により反射され、孔開きミラー21の孔部を通過し、ダイクロイックミラー46を透過し、対物レンズ22により被検眼Eの角膜に投影される。
 アライメント光の角膜反射光は、対物レンズ22、ダイクロイックミラー46および上記孔部を経由し、その一部がダイクロイックミラー55を透過し、合焦レンズ31を通過し、ミラー32により反射され、ハーフミラー40を透過し、ダイクロイックミラー33に反射され、集光レンズ34によりCCDイメージセンサ35の受光面に投影される。CCDイメージセンサ35による受光像(アライメント指標)は、観察画像とともに表示装置3に表示される。ユーザは、従来の眼底カメラと同様の操作を行ってアライメントを実施する。また、演算制御ユニット200がアライメント指標の位置を解析して光学系を移動させることによりアライメントを行ってもよい(オートアライメント機能)。
 フォーカス調整を行う際には、照明光学系10の光路上に反射棒67の反射面が斜設される。フォーカス光学系60のLED61から出力された光(フォーカス光)は、リレーレンズ62を通過し、スプリット指標板63により2つの光束に分離され、二孔絞り64を通過し、ミラー65に反射され、集光レンズ66により反射棒67の反射面に一旦結像されて反射される。更に、フォーカス光は、リレーレンズ20を経由し、孔開きミラー21に反射され、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて眼底Efに投影される。
 フォーカス光の眼底反射光は、アライメント光の角膜反射光と同様の経路を通ってCCDイメージセンサ35により検出される。CCDイメージセンサ35による受光像(スプリット指標)は、観察画像とともに表示装置3に表示される。演算制御ユニット200は、従来と同様に、スプリット指標の位置を解析して合焦レンズ31およびフォーカス光学系60を移動させてピント合わせを行う(オートフォーカス機能)。また、スプリット指標を視認しつつ手動でピント合わせを行ってもよい。
 ダイクロイックミラー46は、眼底撮影用の光路からOCT計測用の光路を分岐させている。つまり、眼底撮影用の光路とOCT計測用の光路はダイクロイックミラー46により同軸に構成され、ダイクロイックミラー46よりも被検眼E側の光路を共有している。ダイクロイックミラー46は、OCT計測に用いられる波長帯の光を反射し、眼底撮影用の光を透過させる。このOCT計測用の光路には、OCTユニット100側から順に、コリメータレンズユニット40と、光路長変更部41と、ガルバノスキャナ42と、合焦レンズ43と、ミラー44と、リレーレンズ45とが設けられている。
 光路長変更部41は、図1に示す矢印の方向に移動可能とされ、OCT計測用の光路の長さを変更する。この光路長の変更は、被検眼Eの眼軸長に応じた光路長の補正や、干渉状態の調整などに利用される。光路長変更部41は、たとえばコーナーキューブと、これを移動する機構とを含んで構成される。
 ガルバノスキャナ42は、OCT計測用の光路を通過する光(信号光LS)の進行方向を変更する。それにより、眼底Efを信号光LSで走査することができる。ガルバノスキャナ42は、たとえば、信号光LSをx方向に走査するガルバノミラーと、y方向に走査するガルバノミラーと、これらを独立に駆動する機構とを含んで構成される。それにより、信号光LSをxy平面上の任意の方向に走査することができる。ガルバノスキャナ42は「走査部」の一例である。
〔OCTユニット〕
 図2を参照しつつOCTユニット100の構成の一例を説明する。OCTユニット100には、眼底EfのOCT画像を取得するための光学系が設けられている。この光学系は、従来のスペクトラルドメインタイプのOCT装置と同様の構成を有する。すなわち、この光学系は、低コヒーレンス光を参照光と信号光に分割し、眼底Efを経由した信号光と参照光路を経由した参照光とを干渉させて干渉光を生成し、この干渉光のスペクトル成分を検出するように構成されている。この検出結果(検出信号)は演算制御ユニット200に送られる。
 なお、スウェプトソースタイプのOCT装置の場合には、低コヒーレンス光源を出力する光源の代わりに波長掃引光源が設けられるとともに、干渉光をスペクトル分解する光学部材が設けられない。一般に、OCTユニット100の構成については、光コヒーレンストモグラフィのタイプに応じた公知の技術を任意に適用することができる。
 光源ユニット101は広帯域の低コヒーレンス光L0を出力する。低コヒーレンス光L0は、たとえば、近赤外領域の波長帯(約800nm~900nm程度)を含み、数十マイクロメートル程度の時間的コヒーレンス長を有する。なお、人眼では視認できない波長帯、たとえば1040~1060nm程度の中心波長を有する近赤外光を低コヒーレンス光L0として用いてもよい。
 光源ユニット101は、スーパールミネセントダイオード(Super Luminescent Diode:SLD)や、LEDや、SOA(Semiconductor Optical Amplifier)等の光出力デバイスを含んで構成される。
 光源ユニット101から出力された低コヒーレンス光L0は、光ファイバ102によりファイバカプラ103に導かれて信号光LSと参照光LRに分割される。
 参照光LRは、光ファイバ104により導かれて光減衰器(アッテネータ)105に到達する。光減衰器105は、公知の技術を用いて、演算制御ユニット200の制御の下、光ファイバ104に導かれる参照光LRの光量を自動で調整する。光減衰器105により光量が調整された参照光LRは、光ファイバ104により導かれて偏波調整器(偏波コントローラ)106に到達する。偏波調整器106は、たとえば、ループ状にされた光ファイバ104に対して外部から応力を与えることで、光ファイバ104内を導かれる参照光LRの偏光状態を調整する装置である。なお、偏波調整器106の構成はこれに限定されるものではなく、任意の公知技術を用いることが可能である。偏波調整器106により偏光状態が調整された参照光LRは、ファイバカプラ109に到達する。
 ファイバカプラ103により生成された信号光LSは、光ファイバ107により導かれ、コリメータレンズユニット105により平行光束とされる。更に、信号光LSは、光路長変更部41、ガルバノスキャナ42、合焦レンズ43、ミラー44、およびリレーレンズ45を経由してダイクロイックミラー46に到達する。そして、信号光LSは、ダイクロイックミラー46により反射され、対物レンズ11により屈折されて眼底Efに照射される。信号光LSは、眼底Efの様々な深さ位置において散乱(反射を含む)される。眼底Efによる信号光LSの後方散乱光は、往路と同じ経路を逆向きに進行してファイバカプラ103に導かれ、光ファイバ108を経由してファイバカプラ109に到達する。
 ファイバカプラ109は、信号光LSの後方散乱光と、ファイバカプラ104を経由した参照光LRとを干渉させる。これにより生成された干渉光LCは、光ファイバ110により導かれて出射端111から出射される。更に、干渉光LCは、コリメータレンズ112により平行光束とされ、回折格子113により分光(スペクトル分解)され、集光レンズ114により集光されてCCDイメージセンサ115の受光面に投影される。なお、図2に示す回折格子118は透過型であるが、たとえば反射型の回折格子など、他の形態の分光素子を用いることも可能である。
 CCDイメージセンサ115は、たとえばラインセンサであり、分光された干渉光LCの各スペクトル成分を検出して電荷に変換する。CCDイメージセンサ115は、この電荷を蓄積して検出信号を生成し、これを演算制御ユニット200に送る。
 この実施形態ではマイケルソン型の干渉計を採用しているが、たとえばマッハツェンダー型など任意のタイプの干渉計を適宜に採用することが可能である。また、CCDイメージセンサに代えて、他の形態のイメージセンサ、たとえばCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどを用いることが可能である。
〔演算制御ユニット〕
 演算制御ユニット200の構成について説明する。演算制御ユニット200は、CCDイメージセンサ115から入力される検出信号を解析して眼底EfのOCT画像を形成する。そのための演算処理は、従来のスペクトラルドメインタイプのOCT装置と同様である。
 また、演算制御ユニット200は、眼底カメラユニット2、表示装置3およびOCTユニット100の各部を制御する。たとえば演算制御ユニット200は、眼底EfのOCT画像を表示装置3に表示させる。
 また、眼底カメラユニット2の制御として、演算制御ユニット200は、観察光源11、撮影光源15およびLED51、61の動作制御、LCD39の動作制御、合焦レンズ31、43の移動制御、反射棒67の移動制御、フォーカス光学系60の移動制御、光路長変更部41の移動制御、ガルバノスキャナ42の動作制御などを行う。
 また、OCTユニット100の制御として、演算制御ユニット200は、光源ユニット101の動作制御、光減衰器105の動作制御、偏波調整器106の動作制御、CCDイメージセンサ120の動作制御などを行う。
 演算制御ユニット200は、たとえば、従来のコンピュータと同様に、マイクロプロセッサ、RAM、ROM、ハードディスクドライブ、通信インターフェイスなどを含んで構成される。ハードディスクドライブ等の記憶装置には、眼底観察装置1を制御するためのコンピュータプログラムが記憶されている。演算制御ユニット200は、各種の回路基板、たとえばOCT画像を形成するための回路基板を備えていてもよい。また、演算制御ユニット200は、キーボードやマウス等の操作デバイス(入力デバイス)や、LCD等の表示デバイスを備えていてもよい。
 眼底カメラユニット2、表示装置3、OCTユニット100および演算制御ユニット200は、一体的に(つまり単一の筺体内に)構成されていてもよいし、2つ以上の筐体に別れて構成されていてもよい。
〔制御系〕
 眼底観察装置1の制御系の構成について図3および図4を参照しつつ説明する。
(制御部)
 眼底観察装置1の制御系は、制御部210を中心に構成される。制御部210は、たとえば、前述のマイクロプロセッサ、RAM、ROM、ハードディスクドライブ、通信インターフェイス等を含んで構成される。制御部210には、主制御部211と記憶部212が設けられている。
(主制御部)
 主制御部211は前述の各種制御を行う。特に、主制御部211は、眼底カメラユニット2の合焦駆動部31A、光路長変更部41およびガルバノスキャナ42、更にOCTユニット100の光源ユニット101、光減衰器105および偏波調整器106を制御する。
 合焦駆動部80は、合焦レンズ31を光軸方向に移動させる。それにより、撮影光学系30の合焦位置が変更される。なお、主制御部211は、図示しない光学系駆動部を制御して、眼底カメラユニット2に設けられた光学系を3次元的に移動させることもできる。この制御は、アライメントやトラッキングにおいて用いられる。トラッキングとは、被検眼Eの眼球運動に合わせて装置光学系を移動させるものである。トラッキングを行う場合には、事前にアライメントとピント合わせが実行される。トラッキングは、装置光学系の位置を眼球運動に追従させることにより、アライメントとピントが合った好適な位置関係を維持する機能である。
 また、主制御部211は、記憶部212にデータを書き込む処理や、記憶部212からデータを読み出す処理を行う。
(記憶部)
 記憶部212は、各種のデータを記憶する。記憶部212に記憶されるデータとしては、たとえば、OCT画像の画像データ、眼底像の画像データ、被検眼情報などがある。被検眼情報は、患者IDや氏名などの被検者に関する情報や、左眼/右眼の識別情報などの被検眼に関する情報を含む。また、記憶部212には、眼底観察装置1を動作させるための各種プログラムやデータが記憶されている。
(画像形成部)
 画像形成部220は、CCDイメージセンサ115からの検出信号に基づいて、眼底Efの断層画像の画像データと位相画像の画像データとを形成する。これらの画像については後述する。画像形成部220は、たとえば、前述の回路基板やマイクロプロセッサを含んで構成される。なお、この明細書では、「画像データ」と、それに基づく「画像」とを同一視することがある。画像形成部220は、断層画像形成部221と位相画像形成部222を有する。
 この実施形態では、眼底Efに対して2種類の走査(第1走査および第2走査)を行う。第1走査では、眼底Efの注目血管に交差する第1断面を信号光LSで反復的に走査する。第2走査では、この注目血管に交差し、かつ、第1断面の近傍に位置する第2断面を信号光LSで走査する。ここで、第1断面と第2断面は、注目血管の走行方向に対して直交するように向き付けられることが望ましい。図5の眼底像Dに示すように、この実施形態では、眼底Efの視神経乳頭Daの近傍に、1つの第1断面C0と、2つの第2断面C1、C2が所定の注目血管Dbに交差するように設定される。2つの第2断面C1、C2は、その一方が第1断面C0に対して注目血管Dbの上流側に位置し、他方が下流側に位置する。
 なお、第1走査は、患者の心臓の少なくとも1心周期の間にわたって実行されることが望ましい。それにより、心臓の全ての時相における血流情報が得られる。なお、第1走査を実行する時間は、あらかじめ設定された一定の時間であってもよいし、患者ごとに又は検査毎に設定された時間であってもよい。前者の場合、一般的な心周期よりも長い時間が設定される(たとえば2秒間)。後者の場合、患者の心電図等の検査データを参照することとなる。ここで、心周期以外のファクターを考慮することも可能である。このファクターの例としては、検査に掛かる時間(患者への負担)、ガルバノスキャナ42の応答時間(走査間隔)、CCD115の応答時間(走査間隔)などがある。
(断層画像形成部)
 断層画像形成部221は、第1走査により得られる干渉光LCの検出結果に基づいて、第1断面における形態の時系列変化を表す断層画像(第1断層画像)を形成する。この処理についてより詳しく説明する。第1走査は、上記のように第1断面C0を繰り返し走査するものである。断層画像形成部221には、第1走査に応じて、OCTユニット100のCCD115から検出信号が逐次入力される。断層画像形成部221は、第1断層画像の各走査に対応する検出信号に基づいて、第1断面C0の1枚の断層画像を形成する。断層画像形成部221は、この処理を第1走査の反復回数だけ繰り返すことで、時系列に沿った一連の断層画像を形成する。ここで、これら断層画像を複数の群に分割し、各群の断層画像を重ね合わせて画質の向上を図ってもよい。
 また、断層画像形成部221は、第2断面C1、C2に対する第2走査により得られる干渉光LCの検出結果に基づいて、第2断面C1における形態を表す断層画像(第2断層画像)と、第2断面C2における形態を表す断層画像(第2断層画像)とを形成する。この処理は、第1断層画像の場合と同様にして実行される。なお、第1断層画像は時系列に沿う一連の断層画像であるが、第2断層画像は1枚の断層画像であってもよい。また、第2断層画像は、第2断面C1、C2のそれぞれを複数回走査して得られた複数の断層画像を重ね合わせて画質の向上を図ったものであってもよい。
 このような断層画像を形成する処理は、従来のスペクトラルドメインタイプの光コヒーレンストモグラフィと同様に、ノイズ除去(ノイズ低減)、フィルタ処理、FFT(Fast Fourier Transform)などの処理を含んでいる。他のタイプのOCT装置の場合、断層画像形成部221は、そのタイプに応じた公知の処理を実行する。
(位相画像形成部)
 位相画像形成部222は、第1走査により得られる干渉光LSの検出結果に基づいて、第1断面における位相差の時系列変化を表す位相画像を形成する。この処理に用いられる検出結果は、断層画像形成部221による第1断層画像の形成処理に供されるものと同じである。よって、第1断層画像と位相画像との間の位置合わせをすることが可能である。つまり、第1断層画像の画素と位相画像の画素とを自然に対応付けることが可能である。
 位相画像の形成方法の一例を説明する。この例の位相画像は、隣り合うAライン複素信号(隣接する走査点に対応する信号)の位相差を算出することにより得られるものである。換言すると、この例の位相画像は、第1断層画像の各画素について、その画素の画素値(輝度値)の時系列変化に基づいて形成される。任意の画素について、位相画像形成部222は、その輝度値の時系列変化のグラフを考慮する。位相画像形成部222は、このグラフにおいて所定の時間間隔Δtだけ離れた2つの時点t1、t2(=t1+Δt)の間における位相差Δφを求める。そして、この位相差Δφを時点t1(より一般に2つの時点t1、t2の間の任意の時点)における位相差Δφ(t1)として定義する。あらかじめ設定された多数の時点のそれぞれについてこの処理を実行することで、当該画素における位相差の時系列変化が得られる。
 位相画像は、各画素の各時点における位相差の値を画像として表現したものである。この画像化処理は、たとえば、位相差の値を表示色や輝度で表現することで実現できる。このとき、時系列に沿って位相が増加した場合の表示色(たとえば赤)と、減少した場合の表示色(たとえば青)とを変更することができる。また、位相の変化量の大きさを表示色の濃さで表現することもできる。このような表現方法を採用することで、血流の向きや大きさを表示色で明示することが可能となる。以上の処理を各画素について実行することにより位相画像が形成される。
 なお、位相差の時系列変化は、上記の時間間隔Δtを十分に小さくして位相の相関を確保することにより得られる。このとき、信号光LSの走査において断層画像の分解能に相当する時間未満の値に時間間隔Δtを設定したオーバーサンプリングが実行される。
(画像処理部)
 画像処理部230は、画像形成部220により形成された画像に対して各種の画像処理や解析処理を施す。たとえば、画像処理部230は、画像の輝度補正や分散補正等の各種補正処理を実行する。また、画像処理部230は、眼底カメラユニット2により得られた画像(眼底像、前眼部像等)に対して各種の画像処理や解析処理を施す。
 画像処理部230は、断層画像の間の画素を補間する補間処理などの公知の画像処理を実行して、眼底Efの3次元画像の画像データを形成する。なお、3次元画像の画像データとは、3次元座標系により画素の位置が定義された画像データを意味する。3次元画像の画像データとしては、3次元的に配列されたボクセルからなる画像データがある。この画像データは、ボリュームデータ或いはボクセルデータなどと呼ばれる。ボリュームデータに基づく画像を表示させる場合、画像処理部230は、このボリュームデータに対してレンダリング処理を施すことで、特定の視線方向から見たときの擬似的な3次元画像の画像データを形成する。表示部240A等の表示デバイスには、この擬似的な3次元画像が表示される。
 また、3次元画像の画像データとして、複数の断層画像のスタックデータを形成することも可能である。スタックデータは、複数の走査線に沿って得られた複数の断層画像を、走査線の位置関係に基づいて3次元的に配列させることで得られる画像データである。すなわち、スタックデータは、元々個別の2次元座標系により定義されていた複数の断層画像を、1つの3次元座標系により表現する(つまり1つの3次元空間に埋め込む)ことにより得られる画像データである。
 画像処理部230は、血管領域特定部231と、血流情報生成部232とを有する。血流情報生成部232には、傾き算出部233と、血流速度算出部234と、血管径算出部235と、血流量算出部236とが設けられている。更に、画像処理部230は断面設定部237を有する。以下、これら各部231~237について説明する。
(血管領域特定部)
 血管領域特定部231は、第1断層画像、第2断層画像、および位相画像のそれぞれについて、注目血管Dbに対応する血管領域を特定する。この処理は、各画像の画素値を解析することによって行うことが可能である(たとえば閾値処理)。
 なお、第1断層画像と第2断層画像は解析処理を行うのに十分な解像度を持っているが、位相画像については血管領域の境界を特定できるほどの解像度を持っていないことが考えられる。しかし、位相画像に基づいて血流情報を生成する以上、その血管領域を高精度かつ高確度で特定する必要がある。そこで、たとえば次のような処理を行うことで、位相画像の血管領域をより正確に特定することが望ましい。
 前述のように、第1断層画像と位相画像は同じ検出信号に基づいて形成され、互いの画素の間の対応付けが可能である。これを利用し、まず第1断層画像を解析して血管領域を求め、この血管領域に含まれる画素に対応する画素からなる位相画像中の画像領域をその血管領域とする。これにより、位相画像の血管領域を高精度かつ高確度で特定することができる。
(血流情報生成部)
 血流情報生成部232は、第1断面と第2断面との間の距離、血管領域の特定結果、および位相画像の血管領域における位相差の時系列変化に基づいて、注目血管Dbに関する血流情報を生成する。ここで、第1断面と第2断面との間の距離(断面間距離)は、事前に決定される。その一例は、断面設定部237の説明において後述する。血管領域は、血管領域特定部231により得られる。位相画像の血管領域における位相差の時系列変化は、位相画像の血管領域内の画素についての位相差の時系列変化として得られる。以下、この処理を実行するための構成の一例を説明する。前述のように、血流情報生成部232には、傾き算出部233と、血流速度算出部234と、血管径算出部235と、血流量算出部236とが設けられている。
(傾き算出部)
 傾き算出部233は、断面間距離と血管領域の特定結果とに基づいて、第1断面における注目血管Dbの傾きを算出する。まず、注目血管Dbの傾きを算出する理由を説明する。血流情報はドップラーOCTの手法で得られる(特許文献8、9を参照)。ドップラーシフトに寄与する血流の速度成分は、信号光LSの照射方向の成分である。したがって、たとえ血流速度が同じであっても、血流方向(つまり注目血管Dbの向き)と信号光LSとが成す角度に応じて信号光LSが受けるドップラーシフトが変化し、ひいては得られる血流情報も変わってしまう。このような不都合を避けるために、注目血管Dbの傾きを求め、これを血流速度の算出処理に反映させる必要がある。
 注目血管Dbの傾きの算出方法について図6を参照しつつ説明する。符号G0、G1およびG2は、それぞれ、第1断面C0における第1断層画像、第2断面における第2断層画像、および第2断面C2における第2断層画像を示す。また、符号V0、V1およびV2は、それぞれ、第1断層画像G0の血管領域、第2断層画像G1の血管領域、および第2断層画像G2の血管領域を示す。図6において、z座標軸は紙面下方向を向いており、これは信号光LSの照射方向と実質的に一致するものとする。また、隣接する断層画像の間隔をdとする。
 傾き算出部233は、3つの血管領域V0、V1およびV2の位置関係に基づいて、第1断面C0における注目血管Dbの傾きAを算出する。この位置関係は、たとえば3つの血管領域V0、V1およびV2を結ぶことによって得られる。より具体的には、傾き算出部233は、3つの血管領域V0、V1およびV2のそれぞれの特徴位置を特定し、これら特徴位置を結ぶ。この特徴位置としては、中心位置、重心位置、最上部(z座標値が最小の位置)、最下部(z座標値が最大の位置)などがある。また、これら特徴位置の結び方としては、線分で結ぶ方法、近似曲線(スプライン曲線、ベジェ曲線等)で結ぶ方法などがある。
 更に、傾き算出部233は、これら特徴位置を結んだ線に基づいて傾きAを算出する。線分で結んだ場合、たとえば、第1断面C0の特徴位置と第2断面C1の特徴位置とを結ぶ第1線分の傾きと、第1断面C0の特徴位置と第2断面C2の特徴位置とを結ぶ第2線分の傾きとに基づき傾きAを算出する。この算出処理の例として、2つの線分の傾きの平均値を求めることができる。また、近似曲線で結ぶ場合の例として、近似曲線と第1断面C0との交差位置における近似曲線の傾きを求めることができる。なお、断面間距離dは、線分や近似曲線を求める処理において、断層画像G0~G2をxyz座標系に埋め込むときに用いられる。
 この例では、3つの断面における血管領域を考慮しているが、2つの断面を考慮して傾きを求めるように構成することも可能である。その具体例として、上記第1線分又は第2線分の傾きを目的の傾きとすることができる。また、この例では1つの傾きを求めているが、血管領域V0中の2つ以上の位置(又は領域)についてそれぞれ傾きを求めるようにしてもよい。この場合、得られた2つ以上の傾きの値を別々に用いることもできるし、これら傾きの値から統計的に得られる1つの値(たとえば平均値)を傾きAとして用いることもできる。
(血流速度算出部)
 血流速度算出部234は、位相画像として得られる位相差の時系列変化に基づいて、注目血管Db内を流れる血液の第1断面C0における血流速度を算出する。この算出対象は、或る時点における血流速度でもよいし、この血流速度の時系列変化(血流速度変化情報)でもよい。前者の場合、たとえば心電図の所定の時相(たとえばR波の時相)における血流速度を選択的に取得することが可能である。また、後者における時間の範囲は、第1断面C0を走査した時間の全体又は任意の一部である。
 血流速度変化情報が得られた場合、血流速度算出部234は、当該時間の範囲における血流速度の統計値を算出することができる。この統計値としては、平均値、標準偏差、分散、中央値、最大値、最小値、極大値、極小値などがある。また、血流速度の値についてのヒストグラムを作成することもできる。
 血流速度算出部234は、前述のようにドップラーOCTの手法を用いて血流速度を算出する。このとき、傾き算出部233により算出された第1断面C0における注目血管Dbの傾きAが考慮される。具体的には、傾き算出部233は次式を用いる。
Figure JPOXMLDOC01-appb-M000001
 ここで:
 Δfは、信号光LSの散乱光が受けるドップラーシフトを表す;
 nは、媒質の屈折率を表す;
 vは、媒質の流速(血流速度)を表す;
 θは、信号光LSの照射方向と媒質の流れベクトルとが成す角度を表す;
 λは、信号光LSの中心波長を表す。
 この実施形態では、nとλは既知であり、Δfは位相差の時系列変化から得られ、θは傾きAから得られる(又はθは傾きAとして得られる)。これらの値を上記の式に代入することにより、血流速度vが算出される。
(血管径算出部)
 血管径算出部235は、第1断面C0における注目血管Dbの径を算出する。この算出方法の例として、眼底像を用いた第1の算出方法と、断層画像を用いた第2の算出方法がある。
 第1の算出方法が適用される場合、第1断面C0の位置を含む眼底Efの部位の撮影があらかじめ行われる。それにより得られる眼底像は、観察画像(のフレーム)でもよいし、撮影画像でもよい。撮影画像がカラー画像である場合には、これを構成する画像(たとえばレッドフリー画像)を用いてもよい。
 血管径算出部235は、撮影画角(撮影倍率)、ワーキングディスタンス、眼球光学系の情報など、画像上のスケールと実空間でのスケールとの関係を決定する各種ファクターに基づいて、眼底像におけるスケールを設定する。このスケールは実空間における長さを表す。具体例として、このスケールは、隣接する画素の間隔と、実空間におけるスケールとを対応付けたものである(たとえば画素の間隔=10μm)。なお、上記ファクターの様々な値と、実空間でのスケールとの関係をあらかじめ算出し、この関係をテーブル形式やグラフ形式で表現した情報を記憶しておくことも可能である。この場合、血管径算出部235は、上記ファクターに対応するスケールを選択的に適用する。
 更に、血管径算出部235は、このスケールと血管領域V0に含まれる画素とに基づいて、第1断面C0における注目血管Dbの径、つまり血管領域V0の径を算出する。具体例として、血管径算出部235は、血管領域V0の様々な方向の径の最大値や平均値を求める。また、血管領域235は、血管領域V0の輪郭を円近似又は楕円近似し、その円又は楕円の径を求めることができる。なお、血管径が決まれば血管領域V0の面積を(実質的に)決定することができるので(つまり両者を実質的に一対一に対応付けることができるので)、血管径を求める代わりに当該面積を算出するようにしてもよい。
 第2の算出方法について説明する。第2の算出方法では、第1断面C0における眼底Efの断層画像が用いられる。この断層画像は、第1断層画像でもよいし、これとは別個に取得されたものでもよい。
 この断層画像におけるスケールは、信号光LSの走査態様に応じて決定される。この実施形態では、図5に示すように第1断面C0を走査する。この第1断面の長さは、ワーキングディスタンス、眼球光学系の情報など、画像上のスケールと実空間でのスケールとの関係を決定する各種ファクターに基づいて決定される。血管径算出部235は、たとえば、この長さに基づいて隣接する画素の間隔を求め、第1の算出方法と同様にして第1断面C0における注目血管Dbの径を算出する。
(血流量算出部)
 血流量算出部236は、血流速度の算出結果と血管径の算出結果とに基づいて、注目血管Db内を流れる血液の流量を算出する。この処理の一例を以下に説明する。
 血管内における血流がハーゲン・ポアズイユ流(Hagen-Poiseuille flow)と仮定する。また、血管径をwとし、血流速度の最大値をVmとすると、血流量Qは次式で表される。
Figure JPOXMLDOC01-appb-M000002
 血流量算出部236は、血管径算出部235による血管径の算出結果wと、血流速度算出部234による血流速度の算出結果に基づく最大値Vmとを、この数式に代入することにより、目的の血流量Qを算出する。
(断面設定部)
 主制御部211は、表示部240Aに眼底像を表示させる。この眼底像は観察画像でも撮影画像でもよい。また、この眼底像は撮影画像を構成する画像であってもよい。ユーザは、操作部240Bを操作することで、表示された眼底像に第1断面C0を指定する。断面設定部237は、指定された第1断面C0と、この眼底像とに基づいて、第2断面C1およびC2を設定する。なお、前述のように、第1断面COは所望の注目血管Dbを横切るように指定される。
 第1断面C0を眼底像に指定する操作は、たとえばポインティングデバイスを用いて行われる。また、表示部240Aがタッチパネルの場合、ユーザは表示された眼底像の所望の位置に触れることで第1断面C0を指定する。この場合において、第1断面C0のパラメータ(向き、長さ等)は、手動又は自動で設定される。
 手動の場合の例として、パラメータを設定するための所定のインターフェイスを用いることができる。このインターフェイスは、スイッチ等のハードウェアでもよいし、グラフィカルユーザインターフェイス(GUI)等のソフトウェアでもよい。
 自動の場合の例として、断面設定部237は、ユーザが眼底像に指定した位置に基づいてパラメータを設定する。長さの自動設定は、あらかじめ決められた値を適用してもよいし、指定位置およびその近傍の血管の位置を考慮してもよい。前者の値は、たとえば、所定の注目血管とその近傍の血管との間の一般的な距離に基づいて指定される。この距離の情報は、臨床データに基づいて生成できる。後者の場合も同様である。いずれの場合においても、第1断面C0の長さは、注目血管Dbを横切り、かつそれ以外の血管(特に太い血管)を横切らないように設定される。
 第1断面C0の向きの自動設定については、あらかじめ決められた向きを適用してもよいし、注目血管Dbの向きを考慮してもよい。前者の場合、所定の注目血管の各位置における傾きを表す情報をあらかじめ生成し、これを参照する。この情報は、臨床データに基づき生成できる。後者の場合、指定位置における注目血管Dbの走行方向を求め、この走行方向に基づいて設定される。この走行方向を求める処理は、たとえば注目血管Dbの細線化処理を用いて行われる。なお、いずれの場合においても、第1断面C0の向きは、走行方向に直交するように設定されることが望ましい。
 次に第2断面C1およびC2を設定する処理について説明する。断面設定部237は、第1断面C0から所定距離だけ離れた位置に第2断面C1およびC2を設定する。この距離は、たとえば100μmに設定される。この距離の特定は、たとえば前述のようにして行われる。また、第2断面C1およびC2の長さおよび/又は向きは、第1断面C0の場合と同様にして設定される。
 なお、この実施形態では、眼底像に基づいて断面C0~C2(つまり信号光LSの走査位置)が設定される。そのためには眼底像を走査位置との間を対応付ける必要がある。この対応付けは、この実施形態のように、眼底撮影用の光学系とOCT計測用の光学系とが互いの光路の一部を共有していることが望ましい。このように同軸構成とすることにより、この光軸を基準として眼底像中の位置と走査位置とを対応付けることができる。ここで、この対応付けにおいて、眼底像の表示倍率(いわゆる光学ズームとデジタルズームの少なくとも一方を含む)を考慮してもよい。
 このような同軸構成でない場合においては、眼底像と、OCT計測で得られるプロジェクション画像とに基づいて、眼底像と走査位置との対応付けを行うことができる。なお、プロジェクション画像とは、後述の3次元スキャンにより得られる3次元画像を深度方向(z方向)に積算して得られる、眼底Efの表面の形態を表す画像である。このようなプロジェクション画像を用いることにより、眼底像とプロジェクション画像との間の位置を、たとえば画像相関等を用いて対応付け、この対応付けを用いて眼底像と走査位置とを対応付けることができる。ただし、被検眼Eの眼球運動(固視微動等)の影響を考慮すると、実質的にタイムラグなく双方の撮影が行える同軸構成の方が望ましいと考えられる。
 以上のように機能する画像処理部230は、たとえば、前述のマイクロプロセッサ、RAM、ROM、ハードディスクドライブ、回路基板等を含んで構成される。ハードディスクドライブ等の記憶装置には、上記機能をマイクロプロセッサに実行させるコンピュータプログラムが予め格納されている。
(ユーザインターフェイス)
 ユーザインターフェイス240には、表示部240Aと操作部240Bとが含まれる。表示部240Aは、前述した演算制御ユニット200の表示デバイスや表示装置3を含んで構成される。操作部240Bは、前述した演算制御ユニット200の操作デバイスを含んで構成される。操作部240Bには、眼底観察装置1の筐体や外部に設けられた各種のボタンやキーが含まれていてもよい。たとえば眼底カメラユニット2が従来の眼底カメラと同様の筺体を有する場合、操作部240Bは、この筺体に設けられたジョイスティックや操作パネル等を含んでいてもよい。また、表示部240Aは、眼底カメラユニット2の筺体に設けられたタッチパネルなどの各種表示デバイスを含んでいてもよい。
 なお、表示部240Aと操作部240Bは、それぞれ個別のデバイスとして構成される必要はない。たとえばタッチパネルのように、表示機能と操作機能とが一体化されたデバイスを用いることも可能である。その場合、操作部240Bは、このタッチパネルとコンピュータプログラムとを含んで構成される。操作部240Bに対する操作内容は、電気信号として制御部210に入力される。また、表示部240Aに表示されたGUIと、操作部240Bとを用いて、操作や情報入力を行うようにしてもよい。
〔信号光の走査およびOCT画像について〕
 ここで、信号光LSの走査およびOCT画像について説明しておく。
 眼底観察装置1による信号光LSの走査態様としては、たとえば、水平スキャン、垂直スキャン、十字スキャン、放射スキャン、円スキャン、同心円スキャン、螺旋(渦巻)スキャンなどがある。これらの走査態様は、眼底の観察部位、解析対象(網膜厚など)、走査に要する時間、走査の精密さなどを考慮して適宜に選択的に使用される。
 水平スキャンは、信号光LSを水平方向(x方向)に走査させるものである。水平スキャンには、垂直方向(y方向)に配列された複数の水平方向に延びる走査線に沿って信号光LSを走査させる態様も含まれる。この態様においては、走査線の間隔を任意に設定することが可能である。また、隣接する走査線の間隔を十分に狭くすることにより、前述の3次元画像を形成することができる(3次元スキャン)。垂直スキャンについても同様である。
 十字スキャンは、互いに直交する2本の直線状の軌跡(直線軌跡)からなる十字型の軌跡に沿って信号光LSを走査するものである。放射スキャンは、所定の角度を介して配列された複数の直線軌跡からなる放射状の軌跡に沿って信号光LSを走査するものである。なお、十字スキャンは放射スキャンの一例である。
 円スキャンは、円形状の軌跡に沿って信号光LSを走査させるものである。同心円スキャンは、所定の中心位置の周りに同心円状に配列された複数の円形状の軌跡に沿って信号光LSを走査させるものである。円スキャンは同心円スキャンの一例である。螺旋スキャンは、回転半径を次第に小さく(又は大きく)させながら螺旋状(渦巻状)の軌跡に沿って信号光LSを走査するものである。
 ガルバノスキャナ42は、互いに直交する方向に信号光LSを走査するように構成されているので、信号光LSをx方向およびy方向にそれぞれ独立に走査できる。更に、ガルバノスキャナ42に含まれる2つのガルバノミラーの向きを同時に制御することで、xy面上の任意の軌跡に沿って信号光LSを走査することが可能である。それにより、上記のような各種の走査態様を実現できる。
 上記のような態様で信号光LSを走査することにより、走査線(走査軌跡)に沿う方向と眼底深度方向(z方向)とにより張られる面における断層画像を取得することができる。また、特に走査線の間隔が狭い場合には、前述の3次元画像を取得することができる。
 上記のような信号光LSの走査対象となる眼底Ef上の領域、つまりOCT計測の対象となる眼底Ef上の領域を走査領域と呼ぶ。3次元スキャンにおける走査領域は、複数の水平スキャンが配列された矩形の領域である。また、同心円スキャンにおける走査領域は、最大径の円スキャンの軌跡により囲まれる円盤状の領域である。また、放射スキャンにおける走査領域は、各スキャンラインの両端位置を結んだ円盤状(或いは多角形状)の領域である。
[動作]
 眼底観察装置1の動作について説明する。図7は、眼底観察装置1の動作の一例を表す。
(S1:計測準備)
 OCT計測の準備として、患者IDの入力、本実施形態の動作モード(血流計測モード)の選択指定などを行う。
(S2:アライメント、ピント合わせ)
 次に、観察光源11からの照明光で眼底Efを連続照明することにより、眼底Efの近赤外動画像(観察画像)を取得する。主制御部211は、この観察画像を表示部240Aに表示させる。
 このとき、LCD39による固視標と、アライメント光学系50によるアライメント指標と、フォーカス光学系60によるスプリット指標とが被検眼Eに投影される。それにより、表示される観察画像にはアライメント指標とスプリット指標とが描画される。これら指標を用いてアライメントやピント合わせを行う。なお、この実施形態では、視神経乳頭を観察するための固視標が使用される。ここで、視神経乳頭を対象とするトラッキングを開始してもよい。
(S3:計測位置の指定)
 続いて、ユーザは、表示された眼底像に対して、血流を計測する位置を指定する。ここで指定されるのは第1断面である。なお、この眼底像は観察画像でも撮影画像(これを構成する画像を含む)でもよい。第1断面の指定方法については前述した。
(S4:計測位置近傍の断面の設定)
 第1断面が指定されると、断面設定部237が、この第1断面に基づいて第2断面を設定する。
(S5:OCT画像の確認)
 主制御部211は、光源ユニット101、ガルバノスキャナ42等を制御してOCT計測を実行する。このOCT計測は、第1断面でも第2断面でもこれら以外の断面でもよい。このOCT画像を参照し、好適な画像が得られているか確認する。この確認は、ユーザが目視で行なってもよいし、眼底観察装置1が自動で行なってもよい。
 目視で行う場合、主制御部211がこのOCT画像を表示部240Aに表示させる。ユーザは、フレームにおけるOCT画像の表示位置や画質などを評価し、操作部240Bを用いて確認結果を入力する。好適な画像が得られていない場合、計測条件の調整を行う。画像の表示位置が適当でない場合、光路長変更部41により信号光LSの光路長を変更する。また、画質が適当でない場合、光減衰器105や偏波調整器106を調整する。
 自動で行う場合、画像の表示位置や画質などを所定の評価基準を参照して評価し、その評価結果に基づいて手動の場合と同様にして計測条件を調整する。
(S6:血流計測の開始)
 所定のトリガーに対応して血流計測を開始する。
(S7:OCT計測の実行)
 血流計測においては、まず、第1断面および第2断面に対するOCT計測を行うことで、第1断層画像、第2断層画像および位相画像を形成する。
(S8:血管領域の特定)
 血管領域特定部231は、第1断層画像、第2断層画像および位相画像のそれぞれについて血管領域を特定する。
(S9:注目血管の傾きの算出)
 傾き算出部233は、断面間距離と血管領域の特定結果とに基づいて、第1断面における注目血管の傾きを算出する。
(S10:血流速度の算出)
 血流速度算出部234は、位相画像として得られる位相差の時系列変化と、注目血管の傾きとに基づいて、注目血管内を流れる血液の第1断面における血流速度を算出する。
(S11:血管径の算出)
 血管径算出部235は、眼底像又は断層画像(第1断層画像等)に基づいて、第1断面における注目血管の径を算出する。
(S12:血流量の算出)
 血流量算出部236は、血流速度の算出結果と血管径の算出結果とに基づいて、注目血管内を流れる血液の流量を算出する。
(S13:計測結果の表示および保存)
 主制御部211は、血流速度の算出結果、血流量の算出結果等を含む血流情報を表示部240Aに表示させる。また、主制御部211は、患者IDに関連付けて血流情報を記憶部212に記憶させる。以上で、この実施形態の血流計測に関する処理は終了となる。
[効果]
 眼底観察装置1の効果について説明する。
 眼底観察装置1は、OCT計測用の光学系と、ガルバノスキャナ42と、画像形成部220と、血管領域特定部231と、血流情報生成部232とを有する。
 OCT計測用の光学系は、光源ユニット101からの光を信号光LSと参照光LRとに分割し、眼底Efによる信号光LSの散乱光と参照光路を経由した参照光LRとの干渉光LCを検出する。
 ガルバノスキャナ42は第1走査を行う。第1走査は、眼底Efの注目血管に交差する第1断面を信号光LSで反復的に走査するものである。
 画像形成部220は、第1断層画像と位相画像とを形成する。第1断層画像は、第1断面における形態の時系列変化を表す画像であり、第1走査において光学系により得られる干渉光LCの検出結果に基づいて形成される。位相画像は、第1断面における位相差の時系列変化を表す画像であり、第1走査において光学系により得られる干渉光LCの検出結果に基づいて形成される。
 血管領域特定部231は、第1断層画像および位相画像のそれぞれについて、注目血管に対応する血管領域を特定する。
 血流情報生成部232は、第1断層画像の血管領域と位相画像の血管領域における位相差の時系列変化とに基づいて、注目血管に関する血流情報を生成する。以上が、この実施形態の基本的な作用である。
 ガルバノスキャナ42は、第1走査に加えて第2走査を行ってもよい。第2走査では、注目血管に交差しかつ第1断面の近傍に位置する第2断面を信号光LSで走査する。この場合、画像形成部220は、第1断層画像および位相画像に加えて第2断層画像を形成する。第2断層画像は、第2断面における形態を表す画像であり、第2走査において光学系により得られる干渉光LCの検出結果に基づいて形成される。更に、血管領域特定部231は、この第2断層画像についても、注目血管に対応する血管領域の特定を行う。血流情報生成部232は、第1断面と第2断面との間の距離と、第1断層画像の血管領域と、第2断層画像の血管領域と、位相画像が表す位相差の時系列変化とに基づいて、血流情報の生成を行う。
 血流情報生成部232は、次のように構成されていてもよい:(1)第1断面と第2断面との間の距離と、第1断層画像の血管領域と、第2断層画像の血管領域とに基づいて、第1断面における注目血管の傾きを算出する傾き算出部233を含む;(2)この傾きの算出結果と位相差の時系列変化とに基づいて血流情報を生成する。
 第2断面は、第1断面に対して注目血管の上流側の断面と下流側の断面とを含んでいてもよい。
 傾き算出部233は、第1断層画像における血管領域の位置と第2断層画像における血管領域の位置とに基づいて、第1断面における注目血管の傾きを算出するように構成されていてもよい。
 血流情報生成部232は、傾き算出部233による注目血管の傾きの算出結果と、位相差の時系列変化とに基づいて、注目血管内を流れる血液の第1断面における血流速度を算出する血流速度算出部234を含んでいてもよい。
 血流速度算出部234は、位相差の時系列変化に基づいて、血流速度の時系列変化を表す血流速度変化情報を生成するように構成されていてもよい。
 血流速度算出部234は、血流速度変化情報に基づいて血流速度の統計値を算出するように構成されていてもよい。
 眼底カメラユニット2は、第1断面の位置を含む眼底Efの部位を撮影する。この場合、血流情報生成部232の血管径算出部235と血流量算出部236が次のように機能する。つまり、血管径算出部235は、眼底カメラユニット2による撮影画像に基づいて、第1断面における注目血管の径を算出する。また、血流量算出部236は、血流速度変化情報と径の算出結果とに基づいて、注目血管内を流れる血液の流量を算出する。
 これに代えて、血流量算出部235が、第1断層画像に基づいて、第1断面における注目血管の径を算出し、血流量算出部236が、血流速度変化情報と径の算出結果とに基づいて、注目血管内を流れる血液の流量を算出するように構成されていてもよい。
 血管領域特定部231は、第1断層画像を解析して血管領域を特定し、第1断層画像における血管領域の位置に対応する位相画像の画像領域を特定し、これを位相画像の血管領域に設定するように構成されていてもよい。
 患者の少なくとも1心周期の間にわたって第1走査を行うように構成することが可能である。特に、血流量の算出において上記[数2]を用いる場合、1心周期の間に得られた血流速度の最大値が用いられる。
 第1断面および第2断面を眼底の視神経乳頭の近傍に設定することができる。従来のレーザドップラーを用いた血流計測では、その特性上、視神経乳頭から乳頭径(以上の距離)だけ離れた位置で注目血管を計測していた。しかし、この実施形態のようにOCTを用いる場合には、視神経乳頭により近い位置で計測を行うことができる。それにより、より高確度、高精度での計測が可能になると考えられる。
 このような実施形態に係る眼底観察装置1によれば、位相画像と同じ断面の第1断層画像と位相差の時系列変化とを用いて血流計測を行うように構成されているので、高い確度の血流計測を実現することが可能である。
 また、眼底観察装置1は次のような特徴を有するものである。すなわち、眼底観察装置1は、OCT計測用の光学系と、ガルバノスキャナ42と、画像形成部220と、眼底カメラユニット2と、血管領域特定部231と、血流速度算出部234と、血管径算出部235と、血流量算出部236とを有する。
 OCT計測用の光学系は、光源ユニット101からの光を信号光LSと参照光LRとに分割し、眼底Efによる信号光LSの散乱光と参照光路を経由した参照光LRとの干渉光LCを検出する。
 ガルバノスキャナ42は第1走査と第2走査を行う。第1走査は、眼底Efの注目血管に交差する第1断面を信号光LSで反復的に走査するものである。第2走査は、注目血管に交差しかつ第1断面の近傍に位置する第2断面を信号光LSで走査するものである。
 画像形成部220は、第1断層画像と位相画像と第2断層画像とを形成する。第1断層画像は、第1断面における形態の時系列変化を表す画像であり、第1走査において光学系により得られる干渉光LCの検出結果に基づいて形成される。位相画像は、第1断面における位相差の時系列変化を表す画像であり、第1走査において光学系により得られる干渉光LCの検出結果に基づいて形成される。第2断層画像は、第2断面における形態を表す画像であり、第2走査において光学系により得られる干渉光LCの検出結果に基づいて形成される。
 眼底カメラユニット2は、第1断面の位置を含む眼底Efの部位を撮影する。
 血管領域特定部231は、第1断層画像、位相画像および第2断層画像のそれぞれについて、注目血管に対応する血管領域を特定する。
 血流速度算出部234は、位相差の時系列変化と、血管領域の特定結果(から得られた注目血管の傾き)とに基づいて、注目血管内を流れる血液の第1断面における血流速度を算出する。
 血管径算出部235は、眼底カメラユニット2による眼底Efの撮影画像に基づいて、第1断面における注目血管の径を算出する。
 血流量算出部236は、血流速度の算出結果と血管径の算出結果とに基づいて、注目血管内を流れる血液の流量を算出する。以上が、この実施形態の基本的な作用である。
 患者の少なくとも1心周期の間にわたって第1走査を行うように構成することが可能である。特に、血流量の算出において上記[数2]を用いる場合、1心周期の間に得られた血流速度の最大値が用いられる。
 第1断面および第2断面を眼底の視神経乳頭の近傍に設定することができる。従来のレーザドップラーを用いた血流計測では、その特性上、視神経乳頭から乳頭径(以上の距離)だけ離れた位置で注目血管を計測していた。しかし、この実施形態のようにOCTを用いる場合には、視神経乳頭により近い位置で計測を行うことができる。それにより、より高確度、高精度での計測が可能になると考えられる。
 眼底カメラユニット2の撮影光学系30は、OCT計測用の光学系と光路の一部を共有している。表示部240Aには、眼底カメラユニット2による撮影画像が表示される。ユーザが操作部240Bを用いて、表示された撮影画像に第1断面を指定すると、断面設定部237は、指定された第1断面と撮影画像とに基づいて第2断面を設定する。ガルバノスキャナ42は、指定された第1断面に対して第1走査を行い、設定された第2断面に対して第2走査を行う。
 このような実施形態に係る眼底観察装置1によれば、位相画像と同じ断面の第1断層画像と位相差の時系列変化とを用いて血流計測を行うことができる。更に、眼底観察装置1は、位相差の時系列変化と血管領域の特定結果とに基づいて血流速度を算出し、撮影画像に基づいて注目血管の径を算出し、血流速度の算出結果と血管径の算出結果とに基づいて血流量を算出するように機能する。したがって、高い確度の血流計測を実現することが可能である。
[変形例]
 以上に説明した構成は、この発明を好適に実施するための一例に過ぎない。よって、この発明の要旨の範囲内における任意の変形(省略、置換、付加等)を適宜に施すことが可能である。
 血流量の算出方法の変形例を説明する。この変形例では、血流速度算出部234は、位相画像の血管領域に含まれる各画素について、血流速度の時系列変化を表す情報(血流速度変化情報)を生成する。この処理は、たとえば、時系列に沿う複数の位相画像の画素を画素位置毎に対応付けする処理と、各画素位置に対応する時系列に沿う複数の画素に基づいて血流速度変化情報を生成する処理とを含むように構成できる。この処理により、第1断面の血管領域における血流速度を位置ごとに求めることができる。
 血流量算出部236は、血管領域に含まれる各画素の血流速度変化情報を時系列に沿って積分することにより、各画素についての血流量を算出する。この処理により、第1断面の血管領域における血流量を位置ごとに求めることができる。
 更に、血流量算出部236は、これら画素についての血流量を加算することにより、注目血管を流れる血液の流量を算出する。この処理により、前段の処理で求めた位置ごとの血流量が加算され、第1断面の血管領域を流れる血液の総量が得られる。
 上記の実施形態においては、光路長変更部41の位置を変更することにより、信号光LSの光路と参照光LRの光路との光路長差を変更しているが、この光路長差を変更する手法はこれに限定されるものではない。たとえば、参照光の光路に反射ミラー(参照ミラー)を配置し、この参照ミラーを参照光の進行方向に移動させて参照光の光路長を変更することによって、当該光路長差を変更することが可能である。また、被検眼Eに対して眼底カメラユニット2やOCTユニット100を移動させて信号光LSの光路長を変更することにより当該光路長差を変更するようにしてもよい。また、特に被測定物体が生体部位でない場合などには、被測定物体を深度方向(z方向)に移動させることにより光路長差を変更することも可能である。
 上記の実施形態を実現するためのコンピュータプログラムを、コンピュータによって読み取り可能な任意の記録媒体に記憶させることができる。この記録媒体としては、たとえば、半導体メモリ、光ディスク、光磁気ディスク(CD-ROM/DVD-RAM/DVD-ROM/MO等)、磁気記憶媒体(ハードディスク/フロッピー(登録商標)ディスク/ZIP等)などを用いることが可能である。
 また、インターネットやLAN等のネットワークを通じてこのプログラムを送受信することも可能である。
[画像表示装置の実施形態]
 以下、画像表示装置等の実施形態について図面を参照して説明する。なお、実施の形態において同じ符号を付した構成要素は同様の動作を行うので、再度の説明を省略する場合がある。
 図8は、本実施の形態における画像表示装置1000のブロック図である。本実施の形態においては、上記実施の形態において取得された断層画像、位相画像、血流情報、断層血管管理情報、位相血管管理情報等を表示する処理の一例について説明する。例えば、上記実施の形態において取得された画像や情報が、例えば、断層画像格納部12、位相画像格納部13、血流情報格納部14等に蓄積される。
 画像表示装置1000は、断層画像格納部1011、位相画像格納部1012、血流情報格納部1013、生体画像格納部1014、位相血管管理情報格納部1015、断層血管管理情報格納部1016、血管管理情報格納部1017、変更操作受付部1018、血管分類指定操作受付部1019、血管分類管理情報格納部1020、血管分類管理情報蓄積部1021、表示部1022を備える。
 断層画像格納部1011には、1以上の断層画像群が格納される。断層画像群は、複数の断層画像を備えている。断層画像は、例えば、OCT等を利用した断層撮影により取得された生体内を示す画像である。例えば、断層画像は、生体における一の位置の断面を示す画像である。一の断層画像群は、通常、一の箇所について取得された複数の断層画像で構成される。断層画像群に含まれる断層画像は、例えば、時刻と対応付けられた画像であって、生体における、少なくとも1つの血管と交差する断面を示す断層画像である。具体的には、血管の伸びる方向において交差する断面を示す断層画像である。断層画像は、具体的には、生体をレーザ光源等から出射される信号光で反復的に走査した場合における、信号光と同じ光源から得られた参照光と、生体からの散乱光との干渉光の検出結果に基づいて形成された、生体における断面における断層画像を表す画像である断層画像を取得する処理等の例については後述する。
 断層画像と対応付けられている時刻とは、例えば、断層画像を取得した時刻(例えば、OCT装置を用いて一の断層画像が取得された時刻)である。ここでの時刻は,日付等の情報を有していてもよい。断層画像群は、例えば、時刻と対応付けられた1以上の断層画像をフレーム画像として有している動画像である。この場合、時刻は、タイムコード等として、各フレーム画像に対応付けられているようにしてもよい。ここでの時刻は、何時何分等の絶対的な時刻であってもよいし、フレーム番号等のシーケンシャルな識別情報や、一の断層画像が出力される時点を起点とした相対的な時刻(例えば、一の断層画像が出力されてからの経過時間等)であってもよい。また、時刻は、各断層画像の取得タイミングや出力タイミングや、取得順番や、出力順番等を判断可能な情報でもよい。かかることは以下においても同様である。また、時刻と対応付けられた複数の断層画像は、時刻と対応付けられた複数の断層画像のファイル等であってもよい。例えば、この場合、対応付けられた時刻ごとに、断層画像のファイルを読み出すことで、断層画像を動画像として再生することができる。ただし、断層画像群は、取得された順番に配列された時間の情報を個別に持たない複数の断層画像であってもよい。この場合も、開始時刻やフレームレート等の情報から、各断層画像と対応付けられた時刻を取得可能であるため、各断層画像が時刻と対応付けられていると考えてもよい。かかることは、位相画像、血流情報、生体画像等についても同様である。断層画像格納部1011に格納される断層画像は、例えば、生体における眼底や角膜等の1以上の位置(部位)における断面を示す画像である。
 断層画像格納部1011には、例えば、断層管理情報が格納される。断層管理情報は、例えば、断層画像群と、この断層画像群が示す断面と交わる1以上の血管を示す情報である血管識別情報とを含む。1以上の血管と交わるということは、例えば、断層画像内に、1以上の血管の断面が含まれることを意味する。ここでの血管の断面とは、例えば、一の血管の伸びる方向において交差する断面である。血管識別情報は、血管の名称や、血管に割り当てられたコードや、血管の位置を示す1以上の座標等の情報である。血管の位置は、例えば、後述する生体画像内における血管の位置である。なお、ここでの位置は、地点であってもよいし、領域であってもよい。領域の場合、血管識別情報は、この領域の輪郭を示す複数の座標群や、この領域内に含まれる複数の画素の座標群であってもよい。ここでは、血管が識別可能であれば、一の血管をどのように定義するかは問わない。例えば、血管の分岐点や末端で区切られる範囲を一の血管と考えてもよいし、主となる血管と、そこから分岐した血管とを、それぞれ一の血管と考えてもよい。
 なお、ここでの格納は、例えば、一時記憶も含む概念である。例えば、光画像計測装置1等で取得された断層画像が、一時的に格納されることなどもここでは格納と考える。
 断層画像格納部1011は、不揮発性の記録媒体が好適であるが、揮発性の記録媒体でも実現可能である。なお、かかることは、位相画像格納部1012や、血流情報格納部1013、生体画像格納部1014、位相血管管理情報格納部1015、断層血管管理情報格納部1016、血管管理情報格納部1017、血管分類管理情報格納部1020等においても同様である。
 位相画像格納部1012には、位相画像群が1以上格納される。位相画像群は、位相画像を複数備えている。位相画像は、時刻と対応付けられた画像であって、生体における、少なくとも1つの血管と交わる断面における位相差の時系列変化を示す画像である。位相画像は、具体的には、生体をレーザ光源等から出射される信号光で反復的に走査した場合における、信号光と同じ光源から得られた参照光と、生体からの散乱光との干渉光の検出結果に基づいて形成された、生体における断面における位相差の時系列変化を表す画像である。一の生体画像群は、通常、一の箇所について取得された複数の生体画像で構成される。生体における一の位置において位相画像を取得する際に利用される干渉光の検出結果としては、この同じ位置において断層画像を取得する際に利用される干渉光の検出結果と同じものが通常利用される。このため、同じ生体における同じ位置で取得された断層画像と位相画像との間においては位置合わせをすることが可能である。つまり、同じ位置について取得された断層画像の画素と位相画像の画素とを自然に対応付けることが可能である。なお、同じ位置とは、例えば、断層画像と位相画像とがそれぞれ示す断面が同じ断面となることと考えてもよい。位相画像を取得する処理等の例については後述する。
 位相画像と対応付けられている時刻とは、例えば、同じ干渉光の検出結果を用いて作成された断層画像が対応付けられている時刻と同じ時刻である。あるいは、位相画像を取得した時刻であってもよい。位相画像群は、例えば、上述した断層画像の場合と同様に、時刻と対応付けられた1以上の位相画像をフレーム画像として有している動画像であってもよく、時刻と対応付けられた複数の断層画像のファイル等であってもよく、取得された順番に配列された複数の断層画像であってもよい。位相画像格納部1012に格納される位相画像は、例えば、生体の眼底や角膜等の1以上の位置(部位)における断面についての位相画像である。
 位相画像格納部1012には、例えば、1以上の位相管理情報が格納される。位相管理情報は、例えば、位相画像群と、位相画像群に対応する断面と交わる1以上の血管の血管識別情報とを含む。
 なお、ここでの格納は、例えば、一時記憶も含む概念である。例えば、後述する光画像計測装置等で取得された位相画像が、一時的に格納されることなどもここでは格納と考える。
 血流情報格納部1013には、血流情報群が1以上格納される。血流情報群は、複数の血流情報を有している。血流情報とは、生体内の血管における血液の流れに関する情報である。一の血流情報群は、通常、一の血管、あるいは一の血管の一の箇所について取得された複数の血流情報で構成される。血流情報とは、例えば、一の血管に流れる血液の流速や、血液の流量である。血流情報は、時刻と対応付けられている。血流情報と対応付けられた時刻は、例えば、血流情報が取得された時刻である。血流情報は、例えば、一の血管について取得された位相画像の、血管の断面が示されている領域における位相差の時系列変化に基づいて生成される。この算出対象は、ある時点における血流速度でもよいし、この血流速度の時系列変化(血流速度変化情報)でもよい。前者の場合、たとえば心電図の所定の時相(たとえばR波の時相)における血流速度を選択的に取得することが可能である。また、後者における時間の範囲は、位相画像を得るために信号光で走査した時間の全体又は任意の一部である。血流速度変化情報が得られた場合、当該時間の範囲における血流速度の統計値を算出することができる。この統計値としては、平均値、標準偏差、分散、中央値、最大値、最小値、極大値、極小値などがある。また、血流速度の値についてのヒストグラムを作成することもできる。なお、血流情報格納部1013に格納される血流情報は、OCTを利用して取得されたものであることが好ましい。血流情報を取得する処理の詳細については後述する。ここでの生体内の血管とは、例えば、生体の眼底や角膜の血管である。
 血流情報格納部1013には、例えば、1以上の血流管理情報が格納される。血流管理情報は、血流情報群と、この血流情報群に対応する血管の血管識別情報とを含む。
 なお、ここでの格納は、例えば、一時記憶も含む概念である。例えば、光画像計測装置1等で取得された血流情報が、一時的に格納されることなどもここでは格納と考える。
 生体画像格納部1014は、生体を撮影した画像である生体画像が格納される。生体画像は、例えば、生体の断層画像を取得した位置を含む領域を正面から撮影した画像である。正面とは、例えば、生体(例えば、人体)の前面である。また、正面は、例えば、上述したような断層画像等を得るための断層撮影を行う際に走査される信号光が入射される面と考えてもよい。例えば、生体画像は、断層画像等が示す断面に平行な方向に向かって生体を撮影した画像と考えてもよい。例えば、上述した断層画像が眼底や角膜の断面を示す画像である場合、生体画像は、生体の眼底に対向する位置から眼底を撮影した眼底写真等の眼底像や、生体の角膜に対向する位置から撮影した角膜画像等である。生体画像は、生体内の血管が目視等で認識できるような画像であることが好ましい。生体画像は、生体における、1以上の断層画像や位相画像や血流情報が取得された位置を撮影した画像であることが好ましい。さらには、断層画像や位相画像に含まれる血管や、血流情報に対応する血管を、1以上含む領域を撮影した画像であることが好ましい。
 また、生体画像格納部1014には、時刻と対応付けられた複数の生体画像が格納されていてもよい。例えば、生体画像格納部1014には、時刻と対応付けられた複数の生体画像を備えた生体画像群が格納されていてもよい。この場合の生体画像群は、通常、一の位置について取得された複数の生体画像で構成される。ここでの位置は、領域、被写体を含む概念である。また、この生体画像群は、上述した断層画像群と同様に動画像であってもよい。
 位相血管管理情報格納部1015には、位相血管管理情報が格納される。位相血管管理情報は、位相画像内における血管の位置を示す情報である位相血管位置情報と、血管の血管識別情報と、を含む。位相血管管理情報は、更に、対応する位相画像を識別するための識別情報を有していてもよい。位相画像の識別情報は、位相画像に個別に割り当てられたコードやファイル名等であってもよいし、位相画像が属する位相画像群を識別する識別情報(例えば、位相画像群が動画像であれば、位相画像群を示すファイル名や、位相画像群を構成する位相画像が格納されているディレクトリ名等)と、各位相画像に対応付けられた時刻やフレーム番号等の組合せであってもよい。ただし、位相画像の識別情報は、位相画像が特定可能な情報であればどのような情報でもよい。
 一の位相画像群の一の位相画像に対して設定された位相血管位置情報を、同じ位相画像群の他の位相画像の位相血管位置情報として用いるようにしてもよい。つまり、一の位相画像群を構成する各位相画像に対して、共通の位相血管位置情報が設定されていてもよい。このような場合、個々の位相画像の識別情報は不要である。ただし、一の血管識別情報に対応する位相画像が複数存在する場合は、位相血管管理情報は、位相画像の識別情報として、位相画像群の識別情報を有しているようにすることが好ましい。
 位相血管位置情報については、どのように取得されたものであるかは問わない。例えば、ユーザが、マウスやブラシカーソル等を用いた手入力等により指定した位相画像の血管上の位置を示す情報を、位相血管位置情報として取得したものであってもよいし、画素の輝度等によって領域を検出するアルゴリズム等を用いて、位相画像から血管に特徴的な画素を有する領域を検出することで取得されたものであってもよい。また、位相血管位置情報は、これらの処理等によって、各位相情報について個別に取得されたものであってもよいし、一の位相画像に対して取得された位相血管位置情報と同じ位置(領域)を示す位相血管位置情報が、同じ位相画像群の他の位相画像の位相血管位置情報として設定されるようにしてもよい。なお、位相画像内において、血管の位置を検出して、位相血管位置情報を設定する処理の例については後述する。
 断層血管管理情報格納部1016には、断層画像内における血管の位置を示す情報である断層血管位置情報と、血管の血管識別情報と、を含む断層血管管理情報が格納される。断層血管管理情報は、更に、対応する断層画像を識別するための識別情報を有していてもよい。断層画像の識別情報等は、上記の位相画像の識別情報と同様であるので、詳細な説明は省略する。また、断層血管位置情報の取得等に関しても、上記の位相血管位置情報と同様であるので、詳細な説明は省略する。なお、断層画像内において、血管の位置を検出して、断層血管位置情報を取得する処理については後述する。
 血管管理情報格納部1017には、1以上の血管管理情報が格納される。血管管理情報は、生体画像格納部1014に格納されている生体画像における1以上の血管の位置を示す情報である血管位置情報と、血管に対応する血管識別情報とを含む血管管理情報が格納される。血管位置情報とは、ここでの血管の位置とは、通常は、生体画像における一の血管上の領域であるが、血管上の一の地点(座標)であってもよい。ここでは、上述したように、識別が可能であれば、一の血管の範囲をどのように定義するかは問わない。また、血管管理情報は、対応する生体画像を識別するための識別情報を有していてもよい。なお、生体画像格納部1014に格納されている生体画像が、例えば、生体における一の箇所において撮影された、時刻と対応付けられた複数の生体画像(生体画像群)を構成している場合(例えば、生体画像をフレーム画像とする動画像である生体画像群が格納されている場合等)においては、一の生体画像に対応付けられている血管位置情報を、同じ生体画像群に属する他の生体画像の血管位置情報として用いるようにしてもよい。つまり、一の生体相画像群を構成する各生体画像に対して、共通の位相血管位置情報が設定されていてもよい。この場合、生体画像を識別するための識別情報として、生体画像群を識別する識別情報を用いてもよい。
 血管位置情報については、どのように取得されたものであるかは問わない。例えば、ユーザが、マウスやブラシカーソル等を用いた手入力等により指定した生体画像の血管上の位置を血管位置情報として取得したものであってもよいし、画素の輝度等によって領域を検出するアルゴリズム等を用いて、生体画像から血管に特徴的な画素を有する領域を検出することで取得されたものであってもよい。また、血管位置情報は、これらの処理等によって、各生体情報について個別に取得されたものであってもよいし、一の生体画像に対して取得された血管位置情報と同じ位置(領域)を示す血管位置情報が、同じ生体画像群の他の生体画像の血管位置情報として設定されるようにしてもよい。なお、生体画像内において、血管の位置を示す血管位置情報を設定する処理については後述する。
 変更操作受付部1018は、後述する表示部1022が表示する断層画像、位相画像、および血流画像のいずれか1つに対する表示を変更する操作である変更操作を受け付ける。変更操作とは、具体的には、一の画像に対して行われた操作であって、その操作と同じ変更が、他の画像に対しても行われることとなる操作である。血流画像とは、一の血流情報群に含まれる1以上の血流情報を用いて作成した、血流情報の経時的な変化を示すグラフや、血流情報の経時的な変化を示すリスト等である。血流画像の詳細については後述する。表示部1022が表示する断層画像、位相画像、および血流画像のいずれか1つに対する操作とは、例えば、モニタ(図示せず)等の表示デバイスの、断層画像、位相画像、および血流画像のいずれか1つが表示されている領域内や領域近傍の位置に対して、マウスを用いたクリックやドラッグ、タッチパネル等を用いたタップ等や、キーボード等を用いた文字入力等を行うことである。一の画像内に表示されているボタンやプルダウンメニュー等を操作することも、断層画像、位相画像、および血流画像のいずれか1つに対する操作と考えてもよい。
 表示を変更する操作とは、例えば、表示する画像を変更するための操作である。表示する画像を変更するための操作は、例えば、操作の対象となる現在表示されている一の画像を、同じ種類の画像であって、異なる血管識別情報と対応付けられた画像に変更するための操作である。同じ種類の画像とは、断層画像、位相画像、血流画像という三つの種類をここでは意味する。
 例えば、変更操作受付部1018は、表示部1022が表示する断層画像、位相画像、および血流画像のいずれか1つに対して、血管を指定する操作を変更操作として受け付ける。そして、変更操作受付部1018は、この血管を指定する変更操作で指定された血管に対応する血管識別情報を取得する。血管を指定する変更操作とは、予め指定されたどのような操作でもよく、例えば、表示されている断層画像や位相画像を上下方向や横方向等にスライドさせる操作である。また、表示中の断層画像や位相画像や血流画像上に表示されている血管を変更するためのボタンを押す操作や、血管を選択するリストから一の血管を選択する操作である。このような操作を受け付けた場合、変更操作受付部1018は、表示中である断層画像(または位相画像)が属している断層画像群(または位相画像群)に対応する血管識別情報とは異なる血管識別情報を、断層管理情報(または位相管理情報)から取得する。
 また、表示する画像を変更するための操作は、例えば、操作の対象となる一の画像を、この画像が対応付けられている時刻とは異なる時刻と対応付けられている画像に変更するための操作である。
 例えば、変更操作受付部1018は、表示部1022が表示する断層画像、位相画像、および血流画像のいずれか1つに対して、時刻を指定する変更操作を受け付ける。そして、変更操作受付部1018は、変更操作に対応する時刻を取得する。時刻を指定する変更操作とは、予め指定されたどのような操作でもよく、例えば、表示されている血流画像が、時間軸と対応付けられたグラフである場合において、このグラフの現在表示されている断層画像等に対応する時刻を示す位置以外の箇所を、マウス等を用いてクリックしたり、タッチパネルを操作してタップすることで指定する操作である。あるいは、血流情報が複数の血流情報を時刻と対応付けて示したリストである場合において、現在表示されている断層画像等に対応する時刻以外の時刻を、マウス等を用いてクリックしたりすることで指定する操作である。これらの操作を受け付けた場合、指定された位置を、時間軸に投影した位置の時刻の値を、変更操作受付部1018は、変更操作に対応する時刻として取得する。また、時刻を指定する変更操作とは、例えば、表示されている断層画像や位相画像や血流画像を上下方向や横方向等にスライドさせる操作であってもよい。また、断層画像や位相画像に対応付けられて表示されている、動画像である断層画像群や位相画像群の、全再生時間に対する現在の再生時刻を示す図示しないスライダバーを、マウス等を使用してスライドさせる操作である。
 また、表示部1022が、断層画像および位相画像を、それぞれが対応付けられている時刻を同期させて、予め指定されたフレームレートで順次表示している場合において、断層画像や位相画像に変更操作受付部1018は、表示するフレームレートを変更するための操作であるフレームレート変更操作を受け付ける。例えば、フレームレートを変更する操作は、断層画像や位相画像に表示されているフレームレートを示すスライダバーを、マウス等を用いてスライドさせる操作や、断層画像や位相画像上、またはその近傍にそれぞれ表示されているフレームレートの変更を受け付けるためのボタンを、マウス等を用いて押すことや、断層画像や位相画像に表示されているフレームの値を入力するフィールドに、キーボード等を用いて値を入力する操作である。フレームレート変更操作を受け付けた場合、変更操作受付部1018は、例えば、変更後のフレームレートの値を取得する。
 また、変更操作受付部1018は、表示部1022が表示する位相画像における血管上の位置を指定する操作である位相血管指定操作を受け付けるようにしてもよい。血管上の位置を指定する操作とは、例えば、位相画像における血管が表示されている領域上の1以上の地点を、マウスを用いてクリックしたり、マウス等で囲んだりする操作である。位相血管指定操作を受け付けると、変更操作受付部1018は、位相血管指定操作で指定された位置に対応する血管識別情報を位相血管管理情報格納部1015に格納されている位相血管管理情報から取得する。例えば、マウス等でクリックされた座標を含む位相血管位置情報を位相血管管理情報から検出し、検出された位相血管位置情報に対応する血管識別情報を位相血管管理情報から取得する。
 また、後述するように、表示部1022が、断層画像と位相画像とを重ね合わせて表示している場合において、変更操作受付部1018は、表示部1022が表示する断層画像と位相画像とを重ね合わせた画像、および血流画像のいずれか1つに対して、表示を変更する操作である変更操作を受け付けるようにしてもよい。この場合、変更操作受付部1018は、上述したような断層画像または位相画像について受け付ける変更操作と実質的に同じものが受け付け可能である。また、重ね合わせた画像に対して変更操作を受け付けた場合、変更操作受付部1018は、断層画像または位相画像に対して変更操作を受け付けた場合と同様の処理(例えば、変更操作に応じた血管識別情報を取得する処理等)を行うようにすればよい。
 例えば、変更操作受付部1018は、表示部1022が重ね合わせた画像に対して、血管を指定する操作である血管変更指定操作を受け付けるようにしてもよい。血管変更指定操作は、例えば、重ね合わせた画像における血管の位置を指定する操作である。血管変更指定操作を受け付けると、変更操作受付部1018は、受け付けた血管変更指定操作が示す位置に対応する血管識別情報を、上記と同様に取得する。変更操作受付部1018は、重ね合わせられた断層画像と位相画像とのうちのいずれから、血管変更指定操作が示す位置に対応する血管識別情報を取得するようにしてもよい。また、変更操作受付部1018は、断層画像と位相画像との重ね合わせを指示するための操作を受け付けるようにしてもよい。
 変更操作受付部1018は、更に、表示部1022が表示する生体画像における一の血管上の位置を指定する操作である血管指定操作を受け付けるようにしてもよい。一の血管上の位置を指定する操作とは、例えば、位相画像における一の血管が表示されている領域上の1以上の地点を、マウスを用いてクリックしたり、マウス等で囲んだりする操作である。変更操作受付部1018は、血管指定操作を受け付けた場合、血管指定操作が指定する位置に対応する血管識別情報を、血管管理情報格納部1017に格納されている血管管理情報から取得する。例えば、マウス等でクリックされた座標を含む血管位置情報を血管管理情報から検出し、検出された血管位置情報に対応する血管識別情報を位相血管管理情報から取得する。
 ここでの操作の受け付けとは、キーボードやマウス、タッチパネルなどの入力デバイスから入力された情報の受け付け、有線もしくは無線の通信回線を介して送信された情報の受信、光ディスクや磁気ディスク、半導体メモリなどの記録媒体から読み出された情報の受け付けなどを含む概念である。操作を受け付けるための入力手段は、テンキーやキーボードやマウスやメニュー画面によるもの等、何でもよい。変更操作受付部1018は、テンキーやキーボード等の入力手段のデバイスドライバーや、メニュー画面の制御ソフトウェア等で実現され得る。かかることは、後述する血管分類指定操作受付部1019等の他の受付部に関しても同様である。また、変更操作受付部1018は、上記の処理を行うための、MPUやメモリ等を備えていてもよく、これらの処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現してもよい。
 血管分類指定操作受付部1019は、後述する表示部1022が表示する生体画像における静脈または動脈の位置を指定する操作である血管分類指定操作を受け付ける。血管分類指定操作のうちの静脈の位置を指定する操作は、例えば、後述する表示部1022が表示する生体画像において、静脈が表示されている領域上の一以上の地点を、マウス等を用いてクリックしたり、マウス等を用いて囲んだりする操作である。同様に、血管分類指定操作のうちの動脈の位置を指定する操作は、例えば、後述する表示部1022が表示する生体画像において、動脈が表示されている領域上の一以上の地点を、マウス等を用いてクリックしたり、マウス等を用いて囲んだりする操作である。例えば、静脈を指定する操作を行う指示を血管分類指定操作受付部1019に対して与えた後、マウス等を用いて、生体画像上の位置を指定する操作を行った場合、この操作が、静脈を指定する操作となる。動脈を指定する操作についても同様である。
 血管分類管理情報格納部1020は、血管識別情報と、血管が静脈であるか、動脈であるかを示す情報である血管分類情報とを含む血管分類管理情報が格納される。血管分類情報は、更に、血管について静脈であるか否かの判断が行われていないことを示す情報を更に有していてもよい。
 血管分類管理情報蓄積部1021は、血管指定操作が指定する位置に対応する血管識別情報を血管管理情報格納部1017に格納されている血管管理情報から取得し、取得した血管識別情報と、血管分類指定操作受付部1019が受け付けた血管指定操作が示す血管分類管理情報、即ち、血管指定操作で指定された血管が静脈であるか動脈であるかを指定された情報と、を含む血管分類管理情報を、血管分類管理情報格納部1020に蓄積する。例えば、血管分類管理情報蓄積部1021は、血管指定操作が指定する位置を示す情報として、例えば、指定された位置の座標や座標群を示す情報を生体画像から取得し、血管指定操作を受け付けた操作対象となる生体画像に対応した血管管理情報から、上記で取得した位置を示す情報を含む血管位置情報を検出し、検出した血管位置情報に対応する血管識別情報を取得する。そして、取得した血管識別情報と、血管指定操作に対応する血管分類情報とを対応付けた血管管理情報を、血管管理情報格納部1017に蓄積する。血管指定操作に対応する血管分類情報とは、例えば、血管分類操作の前後に受け付けた、血管分類操作が示す位置に対応する血管が、静脈であるか動脈であるか否かを示す情報である。
 血管分類管理情報蓄積部1021は、通常、MPUやメモリ等から実現され得る。血管分類管理情報蓄積部1021の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現してもよい。
 表示部1022は、断層画像群に含まれる断層画像と、位相画像群に含まれる位相画像とを、断層画像と位相画像とに対応付けられた時刻を用いて同期させて表示し、かつ、血流情報群に含まれる血流情報のうちの、表示しているである断層画像と位相画像とに対応付けられた時刻を含む期間内の時刻と対応付けられた複数の血流情報を示す画像である血流画像を表示する。例えば、表示部1022は、同時期に同じ箇所について取得された断層画像と位相画像とを表示することが好ましい。さらに、表示部1022は、この断層画像や位相画像が取得された箇所と同じ箇所に含まれる血管の同時期と対応付けられた血流情報が示す血流画像を表示することが好ましい。ここでの同時期は、同時刻であることがより好ましい。また、ここでの同じ箇所は、誤差程度の位置のずれを有している近接した位置を含むと考えてもよいが、一致する位置であることが好ましい。
 断層画像と位相画像とを、断層画像と位相画像とに対応付けられた時刻を用いて同期させて表示するということは、例えば、同じ時刻に対応付けられた断層画像と位相画像とを表示することである。また、通常、断層画像群に含まれる断層画像と、位相画像群に含まれる位相画像とを同じフレームレートで、それぞれに対応付けられている時刻間が同期するように順次表示される。表示部1022は、一の断層画像と一の位相画像とをそれぞれ静止画像として表示してもよいし、一の断層画像群に含まれる断層画像と一の位相画像群に含まれる位相画像を、順次読み出して表示することで、断層画像と位相画像とを動画像として表示してもよい。
 血流画像とは、複数の血流情報を用いて作成された画像であり、例えば、時刻と対応付けられた複数の血流情報を、第一の軸を時刻、第二の軸を血流情報の値とした座標系に示したグラフや、時刻と対応付けられた複数の血流情報の値を、時刻の昇順や降順に配列して示したリスト等である。例えば、表示部1022は、次に、表示される断層画像と、位相画像とに対応付けられた時刻を取得して、この時刻を含む期間内の時刻と対応付けられた血流画像を取得して、断層画像と位相画像と血流画像とを同時に表示してもよい。
 表示中の断層画像と位相画像とに対応付けられた時刻を含む期間内とは、この時刻を含む予め指定された長さの期間である。表示中の断層画像と位相画像とに対応付けられた時刻を含む期間内とは、例えば、表示中の断層画像と位相画像とに対応付けられた時刻の前または後、あるいはその両方に予め指定された時間を加算した範囲内の期間であってもよい。また、表示中の断層画像を含む断層画像群と、表示中の位相画像を含む位相画像群とに対応付けられた全ての血流情報に対応する時刻を含む期間であってもよい。例えば、血流情報の最も早い時刻と最も遅い時刻との間の期間であってもよい。この期間は、例えば、表示中である断層画像と位相画像とが、動画像のフレーム画像である場合、フレーム画像が切り替わるごとに、切り替わったフレーム画像(断層画像、位相画像)に対応する時刻に応じて変化するようにしてもよいし、表示中の断層画像と位相画像とに対応する時刻が、直前に設定された期間に含まれなくなる場合等に更新されるようにしてもよい。
 また、血流画像においては、表示中の断層画像や位相画像に対応する時刻に対応する血流情報の値等を、他の血流情報とは異なる表示態様で表示することが好ましい。表示態様が異なるということは、他の位置と区別可能な態様の表示を行うことであり、例えば、他の位置とは異なる色やパターンをオーバーレイして表示することや、他の位置と区別可能なように、枠線等で囲んで表示することである。例えば、血流画像が、血流情報を時間軸に沿って示したグラフである場合、表示中の断層画像や位相画像に対応する時刻を示す直線を、時間軸に垂直に表示するようにしてもよい。
 また、表示部1022は、生体画像を更に表示してもよい。1以上の生体画像が、時刻と対応付けられている場合、断層画像や位相画像と同期させて表示してもよい。
 表示部1022は、断層画像群や位相画像群や血流情報群が、血管識別情報と対応付けられている場合、例えば、一の血管識別情報が指定されたときに、この血管識別情報に対応付けられた断層画像群に含まれる断層画像と、この血管識別情報に対応付けられた位相画像群に含まれる位相画像と、この血管識別情報と対応付けられた血流情報群に含まれる血流情報を示す血流画像とを表示する。これにより、同じ血管についての断層画像と、位相画像と血流画像とを表示することができる。
 なお、表示部1022が生体画像を更に表示する場合、この生体画像に対応する血管管理情報に含まれる血管識別情報の1以上が、表示中の断層画像や位相画像や血流画像に対応する血管識別情報と一致する生体画像を表示することが、表示される画像間に関連性が生じるため好ましい。
 実施形態においては、特に、表示部1022は、変更操作に対応する変更と同じ変更を、この表示部1022が表示する断層画像、位相画像、および血流画像に対して行う。つまり、断層画像、位相画像、および血流画像のいずれか1つに対する変更操作を変更操作受付部1018が受け付けた場合、表示部1022は、変更操作の対象となった画像だけでなく、他の画像についても、変更操作に対応する変更を行う。つまり、一の画像に対する変更を、他の画像にも同期させることと考えてもよい。
 例えば、一の画像に対して、この画像に対応している血管以外の一の血管に対応する画像を表示する変更操作を変更操作受付部1018が受け付けたとすると、表示部1022は、変更操作の対象となった画像も含めて、表示される全ての画像を、上記の一の血管に対応する画像に変更する。
 例えば、表示部1022は、変更操作に応じて変更操作受付部1018が取得した血管識別情報に対応する断層画像、位相画像、および血流画像を、断層画像群、位相画像群、および血流情報群から取得し、取得した画像を表示する。血流情報群から取得する、ということは、ここでは、例えば、血流情報群に含まれる血流情報を用いて構成した上述した血流画像等の画像を取得することも含む概念であるとする。表示部1022は、具体的には、取得した画像で、表示されていた画像をそれぞれ更新する。なお、変更後の各画像としては、変更前の各画像に対応する時刻の画像をそれぞれ表示してもよいし、他の時刻、例えば、いずれかの画像の開始時刻に対応する時刻の画像をそれぞれ表示してもよい。
 また、例えば、一の画像に対して、表示対象となる時刻を変更する変更操作を変更操作受付部1018が受け付けたとすると、表示部1022は、変更操作の対象となった画像も含めて、表示される全ての画像を、上記の変更後の時刻に対応する画像に変更する。
 例えば、表示部1022は、変更操作に応じて変更操作受付部1018が取得した時刻に対応する断層画像、位相画像、および血流画像を、断層画像群、位相画像群、および血流情報群を用いて取得して表示する。具体的には、取得した画像で、現在表示されている断層画像、位相画像、および血流画像を、それぞれ更新する。
 また、表示部1022は、位相画像に対する変更操作に応じて変更操作受付部1018が血管識別情報を取得した場合、この取得した血管識別情報に対応する血流情報群を用いて、血流画像を取得して表示する。
 また、表示部1022は、位相血管指定操作に応じて変更操作受付部1018が血管識別情報を取得した場合、取得した血管識別情報に対応する断層血管位置情報を、断層血管管理情報を用いて取得し、現在表示されている断層画像の、取得した断層血管位置情報が示す位置を、他の位置とは異なる表示態様で表示する。異なる表示態様については、上記と同様であり、例えば、断層血管位置情報が示す位置を、予め指定されたカラーでオーバーレイ表示する。
 また、表示部1022は、変更操作受付部1018がフレームレート変更操作を受け付けた場合、断層画像および位相画像を表示するフレームレートを、変更操作に対応する同じフレームレートに変更する。例えば、表示部1022は、断層画像と位相画像とを表示するフレームレートを、フレームレート変更操作に応じて変更操作受付部1018が取得したフレームレートの値が示す、現在のフレームレートとは異なる一のフレームレートに変更する。フレームレートを変更するということは、フレーム画像である断層画像や位相画像の再生速度を変更することと考えてもよい。
 また、表示部1022は、断層画像群に含まれる断層画像と、位相画像群に含まれる位相画像とを、断層画像と位相画像とに対応付けられた時刻を用いて同期させ、重ね合わせて表示するようにしてもよい。ここでの重ね合わせて表示するということは、両方の画像の内容が透過して表示されるようにすることである。例えば、一方の画像を、他方の画像にオーバーレイして表示することや、合成モードを通常の合成モードから変更して表示することは、少なくとも一方の画像を半透明にして重ねることである。
 また、断層画像と位相画像とを重ね合わせて表示する場合、表示部1022は、さらに、血流情報群に含まれる血流情報のうちの、重ね合わせて表示中の断層画像と位相画像とに対応付けられた時刻を含む期間内の時刻と対応付けられた複数の血流情報を示す画像である血流画像を表示するようにしてもよい。
 また、表示部1022は、断層画像と位相画像とを重ね合わせて表示する場合において、この重ねあわせた画像または血流画像の一方に対して上記と同様の変更操作が行われた場合、この変更操作に対応する変更と同じ変更を、表示部1022が表示する断層画像と位相画像とを重ね合わせた画像、および血流画像に対して行うようにしてもよい。
 また、表示部1022は、位相血管管理情報から、表示部1022が表示する位相画像に対応する血管識別情報と位相血管位置情報とを取得し、血管識別情報に対応する血管分類情報を血管分類管理情報から取得し、位相画像の血管識別情報に対応する位相血管位置情報が示す位置を、他の位置とは異なる表示態様であって、位相血管位置情報に対応する血管分類情報が動脈であることを示す情報であるか、静脈であることを示す情報であるかによって異なる表示態様で表示するようにしてもよい。例えば、動脈であることを示す位置と、静脈であることを示す位置とに、異なる色を着色して表示するようにしてもよい。また、位相血管位置情報に対応する血管分類情報が動脈と静脈とのいずれであるかが指定されていないことを示す値である場合、この位相血管位置情報が示す位置を、動脈や静脈等とは異なる表示態様で表示するようにしてもよい。なお、この場合、表示部1022は、生体画像と、一の血管識別情報と対応付けられた位相画像群に含まれる断層画像とを少なくとも表示するようにしてもよい。
 ここでの表示とは、ディスプレイへの表示、プロジェクターを用いた投影などを含む概念である。
 表示部1022は、ディスプレイ等の表示デバイスを含むと考えても含まないと考えてもよい。表示部1022は、表示デバイスのドライバーソフトまたは、表示デバイスのドライバーソフトと表示デバイス等で実現され得る。また、表示部1022は、上記の処理を行うための、MPUやメモリ等を備えていてもよく、これらの処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現してもよい。
 次に、画像表示装置1000の動作について図9のフローチャートを用いて説明する。ここでは、一例として、断層画像群および位相画像群が動画像である場合について説明する。
 (ステップS101)表示部1022は、生体画像の表示を開始する。生体画像が、時刻と対応づけられた動画像のフレーム画像である場合、表示部1022は、生体画像を予め指定されたフレームレートで順次表示する。
 (ステップS102)表示部1022は、断層画像群に含まれる断層画像の表示を開始する。表示部1022は、断層画像群に含まれる断層画像を予め指定されたフレームレートで、順次表示する。上記で表示を開始した生体画像がフレーム画像である場合、表示部1022は、この生体画像と同期させて断層画像を表示する。
 (ステップS103)表示部1022は、位相画像群に含まれる位相画像の表示を開始する。表示部1022は、位相画像群に含まれる位相画像を、予め指定されたフレームレートで、ステップS101で表示される断層画像と同期させて順次表示する。例えば、同じ時刻と対応づけられた断層画像と位相画像とが同時に表示されるようにする。なお、表示部1022が表示する断層画像や位相画像は、例えば、ステップS101で表示している生体画像に示されている血管を含む画像である。
 (ステップS104)表示部1022は、表示中の断層画像または位相画像に対応する時刻を取得し、この時刻を含む予め指定された期間の血流情報を血流情報格納部1013から読み出し、読み出した血流情報を用いて作成した血流画像を表示する。ただし、ステップS101からステップS104までの表示においては、同じ時刻に関連する画像は、同時に表示するようにしてよい。この場合、表示部1022は、次に表示される断層画像または位相画像に対応する時刻に応じた血流画像を取得して、これを、次に表示する断層画像と位相画像と同時に表示するようにしてもよい。
 (ステップS105)変更操作受付部1018は、断層画像と位相画像とを重ね合わせて表示する操作を受け付けたか否かを判断する。受け付けた場合、ステップS106に進み、受け付けていない場合、ステップS107に進む。
 (ステップS106)表示部1022は、断層画像と位相画像とを、それぞれに対応づけられた時刻を用いて同期させ、重ね合わせて順次表示する。例えば、表示部1022は、断層画像と位相画像との個別の表示の代わりに、重ね合わせた画像の表示を行う。そして、ステップS105に戻る。
 (ステップS107)変更操作受付部1018は、表示部1022が表示する画像に対して操作を受け付けたか否かを判断する。受け付けた場合、ステップS108に進み、受け付けていない場合、ステップS109に進む。
 (ステップS108)画像表示装置1000は、ステップS107で受け付けた操作に応じた表示を行う。この処理の詳細については後述する。そして、ステップS105に戻る。
 (ステップS109)血管分類指定操作受付部1019は、血管分類指定操作を受け付けたか否かを判断する。受け付けた場合、ステップS110に進み、受け付けていない場合、ステップS111に進む。
 (ステップS110)血管分類管理情報蓄積部1021は、ステップS109で受け付けた血管分類指定操作に対応する血管分類管理情報を取得し、血管分類管理情報格納部1020に蓄積する。そして、ステップS105に戻る。
 (ステップS111)表示部1022は、血管分類管理情報に応じた表示を行うか否かを判断する。例えば、血管分類管理情報に応じた表示を行う操作を変更操作受付部1018が受け付けた場合に表示を行うことを決定してもよい。また、血管分類管理情報が蓄積された場合に表示を行うことを決定してもよい。表示を行う場合、ステップS112に進み、行わない場合、ステップS113に進む。
 (ステップS112)表示部1022は、血管分類管理情報に応じた表示を行う。具体的には、位相画像において、血管分類管理情報の位相血管位置情報が示す位置を、血管分類情報に応じた、他の位置とは異なる表示態様で表示する。そして、ステップS105に戻る。
 (ステップS113)変更操作受付部1018は、表示部1022による表示を終了する操作を受け付けたか否かを判断する。受け付けた場合、処理を終了し、受け付けていない場合、ステップS105に戻る。
 次に、画像表示装置1000の動作のうちの、図9のステップS108に対応する動作の詳細ついて、図10のフローチャートを用いて説明する。
 (ステップS201)変更操作受付部1018は、受け付けた操作が変更操作であるか否かを判断する。変更操作である場合、ステップS202に進み、変更操作でない場合、ステップS208に進む。
 (ステップS202)変更操作受付部1018は、受け付けた操作が血管を指定する変更操作であるか否かを判断する。血管を指定する変更操作である場合、ステップS203に進み、血管を指定する変更操作でない場合、ステップS205に進む。
 (ステップS203)変更操作受付部1018は、変更操作が指定する血管の血管識別情報を取得する。
 (ステップS204)表示部1022は、ステップS203で取得した血管識別情報に対応する断層画像、位相画像、および血流画像が表示されるよう、これらの画像の表示対象を変更する。なお、断層画像と位相画像とが重ね合わせられている場合においても、これらの画像が重ね合わせられて表示される点を除けば、実質的に行われる処理は同じである。そして、上位の処理にリターンする。
 (ステップS205)変更操作受付部1018は、受け付けた操作が時刻を指定する変更操作であるか否かを判断する。時刻を指定する変更操作である場合、ステップS206に進み、時刻を指定する変更操作でない場合、上位の処理にリターンする。なお、変更操作が、血管を指定する操作と、時刻を指定する操作とのいずれかしかない場合、ステップS202で血管を指定する操作でないと判断された時点で変更操作が時刻を指定する操作であることがわかるため、この処理は省略してもよい。
 (ステップS206)変更操作受付部1018は、変更操作が示す時刻を取得する。
 (ステップS207)表示部1022は、表示する各画像の時刻を変更する。具体的には、表示部1022は、断層画像と位相画像と生体画像との表示を、ステップS206で取得した時刻に対応する断層画像と位相画像と生体画像とからの表示に変更する。また、表示部1022は、血流画像の表示を、変更された断層画像または位相画像に対応する時刻を含む期間の血流情報を用いて作成された血流画像の表示に変更する。なお、断層画像と位相画像とが重ね合わせられている場合においても、これらの画像が重ね合わせられて表示される点を除けば、実質的に行われる処理は同じである。そして、上位の処理にリターンする。
 (ステップS208)変更操作受付部1018は、受け付けた操作が位相血管指定操作であるか否かを判断する。位相血管指定操作である場合、ステップS209に進み、位相血管指定操作でない場合、ステップS210に進む。なお、断層画像と位相画像とが重なっていない場合には、ここでは、位相血管指定操作は受け付けないものとする。
 (ステップS209)変更操作受付部1018は、位相血管指定操作に対応した血管識別情報を取得する。
 (ステップS210)表示部1022は、位相血管指定操作に対応した血流画像を表示する。具体的には、ステップS209で取得した血管識別情報に対応する血流情報を用いて血流画像を取得し、表示する。
 (ステップS211)表示部1022は、断層画像の位相血管指定操作に対応する位置の表示態様を変更する。具体的には、表示中である断層画像のステップS209で取得した血管識別情報に対応する位置を、他とは異なる表示態様に変更する。そして、上位の処理にリターンする。
 (ステップS212)変更操作受付部1018は、受け付けた操作が断層画像と位相画像とのいずれかに対するフレームレート変更操作であるか否かを判断する。フレームレート変更操作である場合、ステップS213に進み、フレームレート変更操作であるない場合、ステップS214に進む。なお、ここでは、断層画像と位相画像とが重ね合わせられている場合においても、少なくともいずれか一方に対してフレームレート変更操作を受け付け可能であるとする。
 (ステップS213)表示部1022は、断層画像と位相画像とを表示する際のフレームレートをフレームレート変更操作が示すフレームレートに変更する。そして、上位の処理にリターンする。
 (ステップS214)変更操作受付部1018は、受け付けた操作が、生体画像に対する血管指定操作であるか否かを判断する。血管指定操作である場合、ステップS215に進み、血管指定操作でない場合、上位の処理にリターンする。
 (ステップS215)変更操作受付部1018は、血管指定操作に対応する血管識別情報を取得する。
 (ステップS216)表示部1022は、ステップS215で取得した血管識別情報に対応する断層画像、位相画像、および血流画像が表示されるよう、これらの画像の表示対象を変更する。なお、断層画像と位相画像とが重ね合わせられている場合においても、これらの画像が重ね合わせられている点を除けば、実質的に行われる処理は同じである。そして、上位の処理にリターンする。
 なお、上記の図9および図10に示したフローチャートにおいて、断層画像と位相画像との重ね合わせの処理や、断層画像の位相血管指定操作により指定された位置を、他の部分と異なる表示態様で表示する処理等、を解除する操作等を受け付ける処理ステップや、これらの解除を行う処理ステップ等は省略しているが、実施形態においては、これらの解除操作を図示しない受付部等を介して受け付けるようにして、解除処理を行うようにしてもよい。
 以下、本実施の形態における画像表示装置1000の具体的な動作について説明する。
 図11は、本実施の形態の画像表示装置1000の一例を示す概念図である。
 図12は、生体画像格納部1014に格納されている生体画像の一例を示す図である。生体画像は、ここでは、一例として、一の被検者の眼底について取得した眼底像であるとする。なお、ここでは、眼底像は、複数の連続した生体画像で構成される動画像である生体画像群(眼底像群)を構成する一のフレーム画像であるとする。この生体画像は、被検者識別情報が「P10001」である被検者の、「E01」という生体画像群を構成する生体画像のうちの、タイムコード「t1」が付与されている生体画像であるとする。なお、タイムコードは、フレーム画像である生体画像に付与された時刻であり、ここでは、例えば、「年」、「月」、「日」、「時」、「分」、「秒」、「フレーム」等の組合せで表されるものとする。なお、ここでは、tn(nは整数)は、任意の時刻を示す値であるとする。但し、nが同じ値は、同じ時刻を示すものとする。かかることは以下においても同様である。生体画像群を構成する各生体画像は、例えば、タイムコードと対応付けられて生体画像群のファイルの中に格納されている。このタイムコードは、ここでは、フレーム画像が取得された日時や、フレーム画像を取得するために必要なデータを取得した日時を示すものであるとする。かかることは、他の動画像のタイムコードに関しても同様である。また、本実施の形態における生体画像や、断層画像や、位相画像、血流画像等は、説明のために作成された画像であり、実際のデータとは異なる場合がある。
 図13は、生体画像格納部1014に格納されている生体画像を管理する生体画像管理情報を示す図である。生体画像管理情報は、「被検者ID」と、「生体画像群ID」と、「タイムコード」と、「生体画像」という項目を有している。「被検者ID」は、被検者の識別情報である。「生体画像群ID」は生体画像群の識別情報であり、ここでは、生体画像群は、一のファイルを構成しており、「生体画像群ID」はこのファイル名であるとする。一の「生体画像群ID」と対応付けられた生体画像群は、ここでは、一の被検者の一の眼球について同じ期間内に取得された1以上の眼底像で構成されるものとする。「タイムコード」は、タイムコードであり、ここでは、生体画像群を構成する各生体画像に対応付けられた時刻の情報である。この具体例においては、「生体画像群ID」と「タイムコード」との組合せを生体画像の識別情報として用いる場合について説明する。なお、被検者識別情報も、生体画像の識別情報の一部と考えてもよい。「生体画像」は、生体画像群識別情報とタイムコードとの組に対応づけられた生体画像であり、ここでは、フレーム画像であるとする。
 図14は、血管管理情報格納部1017に格納されている血管管理情報の一例を示す図である。血管管理情報は、「被検者ID」と、「生体画像群ID」と、「タイムコード」と、「血管ID」と、「血管位置情報」という項目を有している。「被検者ID」と「生体画像群ID」と「タイムコード」とは、図13と同様である。「血管ID」は、生体画像(ここでは眼底像)に示されている血管の識別情報である。「血管位置情報」は、生体画像内に示されている一の「血管ID」に対応する血管の領域を示す情報であり、ここでは、生体画像内における一の「血管ID」に対応する血管上の画素の座標群で構成されている。なお、本実施の形態においては、xr、xs(ただし、r、sは任意の整数)は、それぞれ任意の値であるとする。かかることは以下においても同様である。例えば、図12において、点線で囲まれた領域1051は、血管ID「V01」に対応する血管位置情報が示す領域であるとする。ここでは、各フレーム画像に血管位置情報が付与されている場合について説明したが、一のフレーム画像について設定した血管位置情報を、同じ生体画像群の他のフレーム画像の血管位置情報としても利用するようにしてもよい。
 なお、生体画像からどのように血管位置情報を取得するかは問わない。例えば、ユーザが、マウス等を操作してカーソル等でなぞった範囲内の、輝度が閾値以下の連続した範囲を血管として判断して、この範囲内の領域を定義する情報(例えば、範囲内の画素の座標や、範囲の輪郭を構成する画素の座標等)を取得してもよい。通常、血管は、他の部分よりも輝度が低くなる傾向があるため、このようにすることで、血管上の領域を適切に指定することができる。また、生体画像内において輝度が閾値以下の連続した範囲を自動検出して、その範囲の幅方向の中心を結ぶ線を取得し、この線の分岐点と端点とで区切られた区間をそれぞれ有している自動検出された範囲を、それぞれ個別の血管として認識するようにしてもよい。なお、このような技術は、いわゆるオートトレース等の技術等を利用することで実現可能である。血管識別情報等は、例えば取得順等に自動的に付与してもよいし、ユーザが指定するようにしてもよい。また、一のフレーム画像について設定した血管位置情報を、同じ生体画像群の他のフレーム画像の血管位置情報として、他のフレーム画像に対して付与するようにしてもよい。
 図15は、断層画像格納部1011に格納されている断層画像の一例を示す図である。断層画像は、ここでは、一例として、図12に示した眼底像の1以上の血管を横切る位置における、眼底像に対して垂直な断層を、OCTを用いて撮影した断層画像であるとする。なお、ここでは、断層画像は、動画像である断層画像群を構成する一のフレーム画像であるとする。この断層画像は、被検者識別情報が「P10001」である被検者の、「D01」という断層画像群を構成する断層画像のうちの、タイムコード「t1」が付与されている断層画像であるとする。ここでは、断層画像群は、一のファイルを構成しており、このファイル名と対応付けられて断層画像格納部1011に格納されているものとする。
 図16は、断層画像格納部1011に格納されている断層画像を管理する断層管理情報を示す図である。断層管理情報は、「被検者ID」と、「断層画像群ID」と、「タイムコード」と、「断層画像」という項目を有している。「被検者識別情報」は、被検者の識別情報である。「断層画像群ID」は断層画像群の識別情報であり、ここでは、断層画像群は、一のファイルを構成しており、「断層画像群ID」はこのファイル名であるとする。一の「断層画像群ID」と対応付けられた断層画像群は、ここでは、一の被検者の一の眼底の一の箇所について一の期間内に取得された複数の断層画像で構成されるものとする。「タイムコード」は、タイムコードであり、ここでは、断層画像群を構成する各断層画像に対応付けられた時刻の情報である。この具体例においては、「断層画像群ID」と「タイムコード」との組合せを断層画像の識別情報として用いる例について説明する。なお、被検者識別情報も、断層画像の識別情報の一部と考えてもよい。「断層画像」は、断層画像群識別情報とタイムコードとの組に対応付けられた断層画像であり、ここでは、フレーム画像であるとする。
 図17は、断層血管管理情報格納部1016に格納されている断層血管管理情報の一例を示す図である。断層血管管理情報は、「被検者ID」と、「断層画像群ID」と、「タイムコード」と、「血管ID」と、「断層血管位置情報」という項目を有している。「被検者識別情報」と、「断層画像群ID」と、「タイムコード」とは、図16と同様である。「血管ID」は、断層画像に示されている血管の血管識別情報である。「断層血管位置情報」は、断層画像内に示されている一の「血管ID」に対応する血管の領域を示す情報であり、ここでは、断層画像内における一の「血管ID」に対応する血管上の画素の座標群で構成されている。例えば、図12において、直線1052で示された位置は、断層画像群IDが「D01」である断層画像が取得された位置(部位)を示す。ここでは、各フレーム画像に断層血管位置情報が付与されている場合について説明したが、一のフレーム画像について設定した血管位置情報を、同じ断層画像群の他のフレーム画像の断層血管位置情報としても利用するようにしてもよい。
 図18は、位相画像格納部1012に格納されている位相画像の一例を示す図である。位相画像は、ここでは、一例として、図14に示した断層画像と同じ位置における位相画像であるとする。なお、ここでは、位相画像は、動画像である位相画像群を構成する一のフレーム画像であるとする。この位相画像は、被検者識別情報が「P10001」である被検者の、「D01」という位相画像群を構成する位相画像のうちの、タイムコード「t1」が付与されている位相画像であるとする。ここでは、位相画像群は、一のファイルを構成しており、このファイル名と対応付けられて位相画像格納部1012に格納されているものとする。
 図19は、位相画像格納部1012に格納されている位相画像を管理する位相管理情報を示す図である。断層管理情報は、「被検者ID」と、「位相画像群ID」と、「タイムコード」と、「位相画像」という項目を有している。「被検者識別情報」は、被検者の識別情報である。「位相画像群ID」は位相画像群の識別情報であり、ここでは、位相画像群は、一のファイルを構成しており、「位相画像群ID」はこのファイル名であるとする。一の「位相画像群ID」と対応付けられた位相画像群は、ここでは、一の被検者の一の眼底の一の箇所について一の期間内に取得された複数の位相画像で構成されるものとする。「タイムコード」は、タイムコードであり、ここでは、位相画像群を構成する各位相画像に対応付けられた時刻の情報である。この具体例においては、「位相画像群ID」と「タイムコード」との組合せを位相画像の識別情報として用いる場合を例に挙げて説明する。なお、被検者識別情報も、位相画像の識別情報の一部と考えてもよい。「位相画像」は位相画像識別情報とタイムコードとの組に対応付けられた生体画像であり、ここでは、フレーム画像であるとする。
 図20は、位相血管管理情報格納部1015に格納されている位相血管管理情報の一例を示す図である。位相血管管理情報は、「被検者ID」と、「位相画像群ID」と、「タイムコード」と、「血管ID」と、「位相血管位置情報」という項目を有している。「被検者識別情報」と、「位相画像群ID」と、「タイムコード」は、図19と同様である。「血管ID」は、位相画像に示されている血管の血管識別情報である。「位相血管位置情報」は、位相画像内に示されている一の「血管ID」に対応する血管の領域を示す情報であり、ここでは、位相画像内における一の「血管ID」に対応する血管上の画素の座標群で構成されている。ここでは、各フレーム画像に位相血管位置情報が付与されている場合について説明したが、一のフレーム画像について設定した血管位置情報を、同じ位相画像群の他のフレーム画像の位相血管位置情報としても利用するようにしてもよい。また、一の時刻に対応する位相画像が、同じ時刻に対応付けられた断層画像に対応して取得される場合、血管一の位相画像に対する位相血管位置情報として、同じ時刻と対応付けられた同じ位置で取得された断層画像に設定されている断層血管位置情報を用いるようにしてもよい。
 図21は、血流情報格納部1013に格納されている血流情報管理情報を示す図である。血流情報管理情報は、「被検者ID」と、「血流情報群ID」と、「タイムコード」と、「血管ID」と、「血流情報」という項目を有している。ここでは、一の血流情報群に含まれる血流情報は、一のファイルを構成しており、「血流情報群ID」はこのファイル名であるとする。一の「血流情報群ID」と対応付けられた血流情報群は、ここでは、一の被検者の一の眼底の一の血管について一の期間内に取得された複数の血流情報で構成されるものとする。ここでは、「血流得情報群ID」と「タイムコード」との組合せを、血流情報の識別情報として用いる場合を例に挙げて説明する。なお、被検者識別情報も、血流情報の識別情報の一部と考えてもよい。「血流情報」は、血流情報であり、ここでは一例として、血液の流速であるとする。なお、値sp(pは任意の整数)は、血液の流速を示す任意の値であるとする。
 例えば、ユーザが、画像表示装置1000の図示しない受付部等に対して、「被検者ID」が「P10001」に対応する画像を表示する操作等を行ったとする。
 表示部1022は、図13に示した生体管理情報の、「被検者ID」が「P10001」に対応するレコード(行)のうちの、「タイムコード」が最も早い時刻を示すレコードから順番に、生体画像を読み出して、予め指定されているフレームレートで順次表示する。具体的には、「タイムコード」が「t1」であるレコードから順番に生体画像を読み出して表示する。予め指定されているフレームレートはデフォルトのフレームレートであってもよいし、生体画像等に対応付けられているフレームレートであってもよい。ここでの表示は、図示しないモニタへの表示であるとする。
 また、表示部1022は、図16に示した断層管理情報の、「被検者ID」が「P10001」に対応するレコード(行)から、一の「断層画像群ID」の値、ここでは一例として「D01」を取得し、断層管理情報の「被検者ID」が「P10001」であって、「断層画像群ID」が「D01」であるにレコードから、上記で最初に表示される生体画像に対応する「タイムコード」の値である「t1」と「タイムコード」の値が同じであるレコードから順番に、断層画像を読み出して、生体画像と同じフレームレートで順次表示する。一の「断層画像群ID」はどのように決定してもよい。例えば、「断層画像群ID」のうちの、数字の部分の値が最も小さい「断層画像群ID」を選択してもよいし、ユーザにより指定された「断層画像群ID」を用いるようにしてもよい。ここでの表示は、図示しないモニタへの表示であるとする。
 表示部1022は、「断層画像群ID」が「D01」であって、対応する「タイムコード」の値が「t1」である断層画像を表示する際に、この「断層画像群ID」と「タイムコード」とに対応づけられた「血管ID」の値を、図17に示した断層管理情報から取得する。ここでは、「v01」と「v02」とが取得される。そして、図19に示した位相血管管理情報の、「被検者ID」が「P10001」であって、「タイムコード」の値が「t1」であるレコード(行)から、「位相画像群ID」ごとに順次、「血管ID」を全て取得し、取得した「血管ID」が上記で取得した「v01」と「v02」とに一致するか否かを判断する。この処理を、両者に一致するものが検出されるまで行う。そして、一致するものが検出された時点の「位相画像群ID」を取得する。ここでは、「位相画像群ID」の値が「F01」であって、「被検者ID」が「P10001」であり、「タイムコード」の値が「2012/03/12_10:24:12.01」であるレコード「F01」を取得する。
 そして、表示部1022は、位相管理情報のレコードから、「位相画像群ID」が「F01」である位相画像を、「タイムコード」が「t1」であるレコードから順番に順次取得して、断層画像と同じフレームレートで表示する。
 これにより、生体画像と、断層画像と、位相画像とが同期されて表示される。
 また、表示部1022は、上記で断層画像について取得した「血管ID」である「v01」と「v02」とのいずれか一方を選択する。いずれを選択するかはどのように決定してもよく、ここでは、例えば、「血管ID」に含まれる数字の番号が小さいもの、具体的には「v01」を選択したとする。表示部1022は、表示しようとする断層画像に対応付けられた「タイムコード」の値を順次取得し、取得したタイムコードを中心として、前後に1秒をそれぞれ加算した期間を取得し、図21に示した血流情報管理情報のうちの「被検者ID」の値が「P10001」であって、「血管ID」の値が上記で決定した「v01」であるレコードから、この取得した期間内の時刻を示す「タイムコード」を有するレコードを検出し、検出したレコードに含まれる「血流情報」と「タイムコード」の値の組を取得し、この組を用いて、第一の軸(例えば、横軸)を「タイムコード」が示す時刻とし、第二の軸(例えば、縦軸)を「血流情報」が示す血液の流速としたグラフを血流画像として生成し、表示する。ここでの表示は、図示しないモニタへの表示であるとする。また、表示しようとする断層画像に対応付けられた「タイムコード」が示す位置には、ここでは、第一の軸に垂直な直線を示す画像を配置するものとする。
 図22は、表示部1022による生体画像と、断層画像と,位相画像と、血流画像との表示例を示す図である。ここでは、説明の便宜上、表示開始直後ではなく、表示開始から、任意の時間が経過した時点の時刻である時刻「t100」での画像の表示例を示している。図において、生体画像1151と、断層画像1152と、位相画像1153と、血流画像1154とは、画面内に重ならないよう並べて表示されている。
 ここで、例えば、ユーザが、断層画像1152に隣接して配置されている画像変更ボタン1155上にポインタ1181を移動させてクリックすると、変更操作受付部1018は、図17に示した断層血管管理情報のレコードのうちの、被検者IDが「P10001」であって、「タイムコード」の値が、表示中の断層画像に対応する「タイムコード」と一致するレコードの中から、上記で取得したような表示されている断層画像に対応する「血管ID」である「v01」および「v02」以外の「血管ID」を取得し、そのリストを生成する。このとき、重複するものはいわゆるユニーク処理を行って、一つを残して削除する。そして、作成したリスト1167を、画像変更ボタン1155の下方に表示する。なお、このリストの情報は、断層画像を表示する際に予め取得しておくようにしてもよい。
 図23は、「血管ID」のリストの表示の一例を示す図である。
 ユーザが、マウス等を操作して図23のリストから、「v03」を選択したとすると、変更操作受付部1018は、表示対象となる断層画像を、血管ID「v03」に対応した断層画像に変更する変更操作を受け付ける。表示部1022は、この変更操作に応じて断層画像の表示を変更するとともに、他の位相画像および血流画像についても、断層画像に対して行われる変更と同じ変更を行う。即ち、血管ID「v03」に対応した位相画像および血流画像が表示されるよう、表示の変更を行う。
 具体的には、表示部1022は、断層血管管理情報から、「タイムコード」の値が、現在表示されている断面画像のタイムコードの値と一致し、「血管ID」が「v03」であるレコードから、「断層画像群ID」の値を取得する。そして、図16に示した断層管理情報から、取得した「断層画像群ID」と現在表示されている断面画像のタイムコードの値とに対応づけられた「断層画像」を読み出し、直前に表示されていた断層画像の代わりに表示する。例えば、直前に表示されていた断層画像を上書きする。その後は、この断層画像が対応付けられたタイムコード以降のタイムコードと対応付けられた同じ断層画像群の断層画像を順次表示する。なお、現在表示されている断面画像のタイムコードの代わりに、次に表示しようとする断面画像のタイムコードを用いるようにしてもよい。
 表示部1022は、位相画像に関しても、同様に、位相血管管理情報から、「タイムコード」の値が、現在表示されている位相画像のタイムコードの値と一致し、「血管ID」が「v03」であるレコードから、「位相画像群ID」の値を取得する。そして、図19に示した位相管理情報から、取得した「位相画像群ID」と現在表示されている位相画像のタイムコードの値とに対応づけられた「位相画像」を読み出し、直前に表示されていた位相画像の代わりに表示する。例えば、直前に表示されていた位相画像を上書きする。その後は、この位相画像が対応付けられたタイムコード以降のタイムコードと対応付けられた同じ位相画像群の位相画像を順次表示する。
 また、血流画像に関しても、血流情報管理情報から、上述したような現在表示されている位相画像のタイムコードの値を含む期間内のタイムコードと、血管ID「v03」とに対応づけられた血流情報の組を取得し、血流画像を生成して、直前に表示されていた位相画像の代わりに表示する。その後は、表示部1022は、表示しようとする断層画像(あるいは位相画像)に対応するタイムコードの値を順次取得し、このタイムコードを用いて上記と同様に順次血流画像を取得して表示する。
 これにより、モニタには、血管IDが「v03」である血管が示された断層画像と、位相画像と、この血管に関する血流画像とが表示される。
 図24は、表示変更後の、表示部1022による生体画像と、断層画像と,位相画像と、血流画像との表示例を示す図である。これにより、表示内容に対応する血管を変更操作に応じて変更した画像をそれぞれ表示することができる。
 また、同様に、位相画像1153に隣接して配置されている画像変更ボタン1156や、血流画像1154に隣接して配置されている画像変更ボタン1157を押した場合においても、押されたボタンに対応するそれぞれの画像に対応付けられている「血管ID」以外の「血管ID」のリストが表示され、「血管ID」が選択された場合に、選択された「血管ID」に対応する位相画像、断層画像、血流画像が表示されるよう上記と同様の処理が行われる。
 また、図22に示した状態において、例えば、ユーザが、表示されている血流画像1154のグラフ上の、現在の時刻を示す直線以外の箇所にポインタ1181を移動させてクリックしたとする。
 図25はユーザが、血流画像上をクリックしている状態を示す図である。
 変更操作受付部1018は、クリックされた箇所に対応する時刻の値(タイムコードの値)を、血流画像1154の第一の軸である時刻の軸から取得する。例えば、取得した時刻の値が、「t88」であったとする。変更操作受付部1018は、表示中の血流画像を、取得した時刻「t88」に対応した血流画像に変更する変更操作を受け付ける。表示部1022は、この変更操作に応じて血流画像の表示を変更するとともに、他の断層画像および位相画像についても、血流画像に対して行われる変更と同じ変更を行う。即ち、時刻「t88」に対応した断層画像および位相画像が表示されるよう、表示の変更を行う。
 表示部1022は、上記と同様に、変更操作受付部1018が取得した時刻「t88」を中心として、前後に1秒をそれぞれ加算した期間を取得し、図21に示した血流情報管理情報のうちの「被検者ID」の値が「P10001」であって、「血管ID」の値が、現在表示対象となっている血流情報に対応した値「v01」であるレコードから、この取得した期間内の時刻を示す「タイムコード」を有するレコードを検出し、検出したレコードに含まれる「血流情報」と「タイムコード」の値の組から、上記と同様に、血流画像として生成し、表示する。
 また、表示部1022は、図16に示した断層管理情報から、「被検者ID」の値が「P10001」と一致し、「断層画像群ID」の値が、表示対象となっている断層画像に対応する「断層画像群ID」の値である「D01」と一致し、「タイムコード」の値が、変更操作受付部1018が取得した時刻「t88」と一致するレコード(行)に含まれる断層画像を表示し、この断層画像から、順番に、タイムコードに従って「断層画像群ID」の値が「D01」である断層画像群に含まれる断層画像の表示を行う。
 また、表示部1022は、図19に示した位相管理情報から、「被検者ID」の値が「P10001」と一致し、「位相画像群ID」の値が、表示対象となっている位相画像に対応する「位相画像群ID」の値である「F01」と一致し、「タイムコード」の値が、変更操作受付部1018が取得した時刻「t88」と一致するレコード(行)に含まれる位相画像を表示し、この位相画像から、順番に、タイムコードに従って「位相画像群ID」の値が「D01」である位相画像群に含まれる位相画像の表示を行う。
 また、表示部1022は、図13に示した生体管理情報から、「被検者ID」の値が「P10001」と一致し、「生体画像群ID」の値が、表示対象となっている生体画像に対応する「生体画像群ID」の値である「E01」と一致し、「タイムコード」の値が、変更操作受付部1018が取得した時刻「t88」と一致するレコード(行)に含まれる生体画像を表示し、この生体画像から、順番に、タイムコードに従って「生体画像群ID」の値が「E01」である生体画像群に含まれる生体画像の表示を行う。
 このようにして血流画像に対して、時刻を変更する変更操作を行うことで、変更操作が示す時刻に応じた生体画像と、断層画像と、位相画像と、血流画像とをそれぞれ表示することができる。
 なお、断層画像や位相画像に対して表示される画像の時刻を変更する操作を行った場合においても、それぞれの変更操作に応じた時刻を取得して、上記と同様の処理が行われる。なお、断層画像や位相画像に対する時刻を変更する操作は、例えば、動画像の再生時刻を示すスライダーバー(図示せず)等により受け付けるようにしてもよい。
 次に、図22に示した状態において、例えば、ユーザが、表示されている生体画像151上の一の血管上にポインタ1181を移動させてクリックした場合について説明する。変更操作受付部1018は、血管上の位置を指定する血管指定操作を受け付ける。この血管指定操作は、クリックされた位置を含む血管を指定する操作である。
 図26は、ユーザが、生体画像上をクリックしている状態を示す図である。
 変更操作受付部1018は、血管指定操作を受け付けると、指定された位置(クリックされた位置)の座標を取得する。取得した座標は、例えば、(x33,y33)であったとする。変更操作受付部1018は、図14に示した血管管理情報のうちの、「被検者ID」の値が「P10001」と一致し、かつ、「タイムコード」の値が、表示中の生体画像に対応する値「t100」と一致するレコード(行)の中から、「血管位置情報」が示す1以上の座標内に、上記で取得した座標(x33,y33)と一致する座標を有するレコードを検出する。そして、検出したレコードの「血管ID」の値を、血管指定操作が示す位置に対応する血管識別情報として取得する。ここでは、取得した「血管ID」の値が、例えば「v03」であったとする。
 表示部1022は、上述したような、図23に示したリストから、血管ID「v03」を選択した場合と同様の処理を行って、上記と同様に、血管ID「v03」に対応した断層画像および位相画像、即ち血管ID「v03」が示す血管が含まれる断層画像および位相画像を表示する。また、上記と同様に、血管ID「v03」に対応した血流画像、即ち血管ID「v03」が示す血管についての血流情報を用いて作成した血流画像を表示する。このようにして表示される画像は、図24と同様のものとなる。
 これにより、生体画像上でユーザが指定した血管に対応した断層画像、位相画像、血流画像を表示部1022から表示させることができる。この場合、血管を指定すればよく、断層画像が取得された箇所を指摘する必要がないため、ユーザは断層画像等を見たい血管における断層画像等を取得した箇所を探す必要はなく、断層画像等を見たい血管上であれば、どこでも指定することで、この血管に関する断層画像等を表示させることができるため、断層画像を撮影した箇所等を探す手間がなく、操作を容易にかつ直感的に行うことが可能となる。
 次に、図22に示した状態において、例えば、ユーザが、表示の対象となっている断層画像および位相画像にフレームレートを変更する操作を行った場合について説明する。例えば、断層画像1152のフレームレート変更ボタン1160を、マウス等を操作してクリックし、変更後のフレームレートの値として、例えば、「15」fps(フレーム・パー・セコンド)等を入力したとする。変更操作受付部1018は、この操作に応じたフレームレート変更操作として、フレームレートを「15」fpsに変更するフレームレート変更操作を受け付ける。
 表示部1022は、断層画像を表示するフレームレートを、現在のフレームレートから、「15」fpsに変更する。また、位相画像および生体画像についても同じフレームレートに変更する。そして、変更したフレームレートで断層画像と位相画像と生体画像とを順次表示する。
 位相画像についてフレームレートを変更するフレームレート変更操作を行った場合についても同様である。
 これにより、断層画像または位相画像のいずれかに一方に対してフレームレート変更操作を行った場合に、断層画像または位相画像のうちの変更操作の対象ではない方に対しても、フレームレートの変更を行うことができる。
 また、図22に示したような状態において、位相画像の血管を指定する操作を行うためのボタンである血管指定ボタン等を選択したうえで、ユーザが位相画像1153の一の血管上の領域を、マウスを操作してクリックしたとすると、変更操作受付部1018は、位相画像上の血管の位置を指定する位相血管指定操作を受け付ける。この位相血管指定操作は、クリックされた位置を含む血管を指定する操作である。
 変更操作受付部1018は、位相血管指定操作を受け付けると、指定された位置(クリックされた位置)の座標を取得する。取得した座標は、例えば、(x122,y122)であったとする。変更操作受付部1018は、図20に示した位相血管管理情報のうちの、「被検者ID」の値が「P10001」と一致し、かつ、「タイムコード」の値が、表示中となっている生体画像に対応する値「t100」と一致するレコード(行)の中から、「血管位置情報」が示す1以上の座標内に、上記で取得した座標(x122,y122)と一致する座標を有するレコードを検出する。そして、検出したレコードの「血管ID」の値を、位相血管指定操作で指定された位置に対応する血管識別情報として取得する。ここでは、取得した「血管ID」の値が、例えば「v02」であったとする。
 表示部1022は、図20に示した位相血管管理情報のレコードから、「断層画像群ID」と「タイムコード」との値が、それぞれ、表示中の断層画像に対応する「断層画像群ID」と「タイムコード」とに一致するレコードであって、「血管ID」の値が、上記で取得した値「v02」であるレコードを検出し、検出したレコードの「位相血管位置情報」の値を取得する。そして、表示中の断層画像の、この「位相血管位置情報」が示す領域上に、予め指定された色をオーバーレイして、断層画像上のこの領域を予め指定された色で着色する。この色は、断層画像の他の部分野色とは異なる色であることが好ましい。そして、表示部1022は、このようにして予め指定された色を、「位相血管位置情報」が示す領域上にオーバーレイした断層画像を、表示中の断層画像に代えて表示する。例えば、オーバーレイした断層画像で直前に表示された断層画像を上書きする。
 図27は、位相血管指定操作に対応した断層画像上の血管の領域を、他の領域とは異なる表示態様で表示した状態を示す図である。図において、斜線で示された領域1165が、オーバーレイ表示された箇所であるとする。これにより、位相画像上の血管をマウス等で指定すると、断層画像上のこの血管に対応する位置を、他とは異なる表示態様で分かりやすく表示することができる。
 また、変更操作受付部1018が、位相血管指定操作を受け付け、上記と同様に血管ID「v02」を取得すると、表示部1022は、図21に示した血流情報管理情報のレコードから、血流情報群ID」の値が、表示中の血流画像に対応する「血流情報群ID」であって、「タイムコード」の値が、表示中の血流画像に対応する血流情報を取得する期間と同じ期間内の値であるレコードであって、「血管ID」が「v02」である1以上のレコードを検出し、検出した1以上のレコードに含まれる「血流情報」の値と、「タイムコード」の値の組を取得し、この組を用いて血流画像を取得して、表示中の血流画像と置きかえて(例えば上書きして)表示する。これにより、位相画像上で指定された血管についての血流画像が表示されることとなる。
 また、例えば、図22に示したような状態において、ユーザが、図示しないメニュー等を用いて、断層画像と位相画像とを重ね合わせて表示するための操作を行った場合に対徹せつ瞑する。変更操作受付部1018は、位相画像と断層画像とを重ね合わせて表示する操作を受け付ける。そして、表示部1022は、操作以降に表示される位相画像と断層画像とを、重ね合わせて表示する。重ね合わせて表示する際には、位相画像と断層画像とのそれぞれの内容が視覚等により同時に認識できるような形態で重ね合わせを行う。具体的には、表示部1022は、少なくとも、一方の画像の上に重ねあわせる画像が透過するよう、透過率を調整した画像を重ね合わせる。あるいは、重ね合わせる画像をオーバーレイ表示となるように重ね合わせたり、重ね合わせる画像を、乗算モード等の下の画像が認識できるような合成モードで重ね合わせて表示する。重ね合わされる位相画像と断層画像とは、上述したように同期して表示されているため、重ねあわせた画像においても、位相画像と断層画像とは、同期したものとなる。
 図28は、位相画像と断層画像を重ね合わせて表示した状態を示す図である。
 また、このように、位相画像と断層画像とを重ねた場合において、この重ねた合わせた画像、または血流画像のいずれか一方に対する変更操作を、変更操作受付部1018が受け付けた場合、表示部1022は、変更操作の対象となった血流画像に変更操作に対応した変更を行い、更に、変更操作に対応する変更と同じ変更を、変更操作の対象とならなかった画像に対しても行う。
 例えば、変更操作受付部1018が、血流画像に対して、上記と同様に、時刻を変更する変更操作を受け付けた場合、表示部1022は、血流画像については、上記と同様に、変更操作に応じて取得された時刻を中心とした期間の血流情報とタイムコードとを取得して、血流画像を取得して表示する。また、重ね合わせた画像については、上記と同様に変更操作に応じて取得された時刻に対応する断層画像と位相画像とを取得して、重ね合わせた画像を表示するようにすればよい。また、重ね合わせた画像に対して時刻を変更する変更操作を受け付けた場合においても同様である。つまり、変更操作に応じて変更された位相画像と断層画像と血流画像とを取得して、位相画像と断層画像とについては重ね合わせたものを表示するようにすればよい。ただし、この場合の変更操作は、重ねあわせた画像の一方に対する変更操作と考えて処理を行ってもよいし、両方に対する変更操作と考えて処理をおこなってもよい。
 また、血流画像に対して、グラフ表示の対象となる血管を変更する変更操作を行う場合についても、重ね合わせた画像に対して、画像内に表示される血管を変更する変更操作を行う場合についても同様である。つまり、変更操作に応じて変更された位相画像と断層画像と血流画像とを取得して、位相画像と断層画像とについては重ね合わせたものを表示するようにすればよい。
 また、変更操作受付部1018が、重ね合わせて表示している断層画像と位相画像とのいずれか一方に対するフレームレート変更操作を受け付けるようにし、フレームレート変更操作を受け付けた場合に、重ね合わせて表示する断層画像と位相画像とのそれぞれのフレームレートをフレームレート変更操作に対応するフレームレート(例えば、フレームレート変更操作が指定するフレームレート)に変更するようにしてもよい。
 また、図22に示すような状況において、例えば、ユーザが、静脈を指定するための操作を行うためのボタン1211を押して、生体画像(眼底像)1151上の血管のうちの静脈上の領域を指定する操作を行ったとする。例えば、静脈である血管上の領域上の一の地点を、マウスを操作してクリックしたとする。クリックしている状態は、ボタン1211が押されている点をのぞけば、図26と同様である。
 血管分類指定操作受付部1019は、クリックされた座標を含む血管位置情報が示す領域に対応する血管を、静脈に指定する血管分類指定操作を受け付ける。クリックされた座標が、例えば、(x13,y13)であったとする。血管分類管理情報蓄積部1021は、図14に示した血管管理情報において、「被検者ID」の値が「P10001」と一致し、「生体画像群ID」が「E01」と一致し、「タイムコード」の値が、表示中の生体画像に対応する時刻「t100」と一致するレコード(行)であって、「血管位置情報」の値の中に、血管分類指定操作受付部1019が受け付けた血管分類指定操作が有する座標(x13,y13)と一致する座標を有するレコードを検出する。そして、血管分類管理情報蓄積部1021は、検出したレコードの「血管ID」の値を、静脈である血管を示す「血管ID」として取得する。ここでは、例えば、「v01」が静脈である血管を示す「血管ID」として取得されたとする。血管分類管理情報蓄積部1021は、取得した「血管ID」と、静脈であることを示す血管分類情報と、「被検者ID」である「P10001」とを有する血管分類管理情報を、血管分類管理情報格納部1020に蓄積する。
 次に、ユーザが動脈を指定するための操作を行うためのボタン1212等を選択して、生体画像1151上の血管のうちの動脈上の領域の一の地点を、マウスを操作してクリックしたとすると、血管分類指定操作受付部1019は、クリックされた座標を含む血管位置情報が示す領域に対応する血管を、動脈に指定する血管分類指定操作を受け付ける。クリックされた座標が、例えば、(x22,y22)であったとする。血管分類管理情報蓄積部1021は、図14に示した血管管理情報において、「被検者ID」の値が「P10001」と一致し、「タイムコード」の値が、現在表示されている生体画像に対応する時刻「t100」と一致するレコード(行)であって、「血管位置情報」の値の中に、血管分類指定操作受付部1019が受け付けた血管分類指定操作が有する座標(x22,y22)と一致する座標を有するレコードを検出する。そして、血管分類管理情報蓄積部1021は、検出したレコードの「血管ID」の値を、動脈である血管を示す「血管ID」として取得する。ここでは、例えば、「v02」が静脈である血管を示す「血管ID」として取得されたとする。血管分類管理情報蓄積部1021は、取得した「血管ID」と、動脈であることを示す血管分類情報と、「被検者ID」である「P10001」とを有する血管分類管理情報を、血管分類管理情報格納部1020に蓄積する。
 図29は、血管分類管理情報格納部1020に格納された血管分類管理情報の一例を示す図である。ここでは、一例として、既に他の血管分類管理情報が、血管分類管理情報格納部1020に既に格納されている場合を示している。血管分類管理情報は、「被検者ID」と、「血管ID」と、「血管分類情報」とを有している。「血管分類情報」は、血管分類情報であり、ここでは、血管が静脈である場合は値が「静脈」であり、血管が動脈である場合は値が「動脈」であるとする。
 次に、ユーザが、図示しないメニュー等を操作して、血管分類管理情報格納部1020に格納されている血管分類管理情報を、現在表示されている位相画像に反映させるための操作を行ったとする。この操作を、変更操作受付部1018が受け付けると、表示部1022は、現在表示されている断層画像に対応する「血管ID」の値を、図20に示した位相血管管理情報から読み出す。具体的には、「被検者ID」の値が「P10001」と一致し、「断層画像群ID」の値が「F01」と一致し、「タイムコード」の値が、現在表示されている生体画像に対応する時刻「t100」と一致するレコードの「血管ID」の値である「v01」と「v02」とを読み出し、図29に示した血管分類管理情報において、「血管ID」の値がこれらのいずれかに一致するレコードを検出し、検出したレコードの「血管分類情報」の値と「血管ID」の値との組を取得する。ここでは、血管ID「v01」と血管分類情報「静脈」との第一の組と、血管ID「v02」と血管分類情報「動脈」との第二の組とが取得されたとする。
 表示部1022は、図20に示した位相血管管理情報の、現在表示されている位相画像に対応するレコードのうちの、「血管ID」の値が、上記で取得した第一の組の「血管ID」の値である「v01」と一致するレコードを検出し、検出したレコードの「位相血管位置情報」の値を取得する。そして、現在表示されている位相画像におけるこの「位相血管位置情報」が示す領域(即ち、血管ID「v01」が示す血管上の領域)を、上記で取得した第一の組の「血管分類情報」の値である「静脈」に対応付けて予め指定されていた表示態様に変更する。例えば、予め指定された色を、この領域上にオーバーレイ表示する。
 また、表示部1022は、図20に示した位相血管管理情報の、現在表示されている位相画像に対応するレコードのうちの、「血管ID」の値が、上記で取得した第二の組の「血管ID」の値である「v02」と一致するレコードを検出し、検出したレコードの「位相血管位置情報」の値を取得する。そして、現在表示されている位相画像におけるこの「位相血管位置情報」が示す領域(即ち、血管ID「v02」が示す血管上の領域)を、上記で取得した第二の組の「血管分類情報」の値である「動脈」に対応付けて予め指定されていた表示態様に変更する。例えば、予め指定された色を、この領域上にオーバーレイ表示する。このとき、血管分類情報「静脈」と血管分類情報「動脈」との表示態様が識別可能な表示態様となるよう、表示態様を指定する情報を、血管分類情報ごとに対応付けて図示しない記憶媒体等に蓄積しておく。例えば、血管分類情報「静脈」と、オーバーレイ色「赤」とを対応付けた情報と、血管分類情報「動脈」と、オーバーレイ色「青」とを対応付けた情報とを予め蓄積しておくようにする。そして、表示部1022は、この情報を用いて、上記の血管ID「v01」に対応する領域上は、青色をオーバーレイ表示し、上記の血管ID「v02」に対応する領域上は、赤色をオーバーレイ表示する。
 図30は、血管分類管理情報を位相画像に反映させて表示した場合の一例を示す図である。図において、領域1231は、血管ID「v01」に対応する領域であり、領域1232は、血管ID「v02」に対応する領域である。このような表示によって、位相画像の静脈部分と、動脈部分を明確に示すことが可能となる。また、静脈、動脈の指定は、眼底像等の生体画像から指定できるため、判断がしやすく、操作性に優れている。
 なお、ここでは、血管分類管理情報を位相画像に反映させた場合について説明したが、血管分類管理情報を断層画像に反映させるようにしてもよい。この場合、位相画像に関して利用した情報を、全て、断層画像に対応する情報に置きかえて利用するようにすればよい。
 また、ここでは、ユーザの操作に応じて、血管分類管理情報を位相画像に反映させるようにしたが、デフォルトで、血管分類管理情報を位相画像に反映させるようにして、血管分類指定操作を受け付けるごとに、対応する血管を含む位相画像の表示を変更するようにしてもよい。
 なお、この具体例においては、血管識別情報が異なる断層画像や位相画像を表示する際に、表示中の断層画像と位相画像と同じ時刻と対応付けられた血管識別情報が異なる断層画像や位相画像を表示する場合について説明したが、表示中の断層画像と位相画像との次に表示される断層画像と位相画像とに対応付けられた時刻と対応する血管識別情報が異なる断層画像や位相画像を表示するようにしてもよい。このことや、例えば、断層画像や位相画像の血管上の領域を他の部分と異なる表示態様とした断層画像や位相画像を表示する場合においても同様である。
 以上、本実施の形態によれば、表示部1022が、生体における同一箇所に関して取得された断層画像、位相画像、および血流画像を表示し、断層画像、位相画像、および血流画像のいずれか1つに対して表示を変更する変更操作を受け付けた場合に、変更操作の対象となった画像について、変更操作に応じた表示変更を行うとともに、他の画像についても、この変更操作に対応する変更操作と同じ変更を行うようにしたことにより、変更操作が行われても複数の画像間の対応がとれるため、生体における同一箇所に関して取得された複数の画像に対して、適切な表示の変更を行うことができる。
 また、生体における同一箇所に関して取得された断層画像と位相画像とを重ねて表示するため、断層画像と位相画像との対応する箇所の比較を、非常に正確かつ容易に行うことが可能となる。
 また、生体画像において、血管が静脈であるか動脈であるかを指定すると、その指定を、位相画像の血管が表示されている領域の表示態様として反映させることができるため、個別の画像に対してそれぞれ血管の分類を指定する必要がなく、操作を簡略化することができる。
 なお、本実施の形態においては、位相画像が、断層画像、もしくは断層画像を取得するために利用される情報と同じ情報を用いて作成される場合のように、位相画像と、断層画像との位置に関する対応がとれている場合について説明したが、位相画像と断層画像との間に位置に関する対応がとれていない場合、表示部は、重ね合わせる位相画像と断層画像とにそれぞれ対応する位相血管位置情報が示す領域と断層血管位置情報が示す領域とが同じ高さまたは幅で重なりあうよう、位相画像と断層画像との少なくとも一方の画像サイズを変更して、これらの画像を重ね合わせるようにしてもよい。
 また、上記各実施の形態において、各処理(各機能)は、単一の装置(システム)によって集中処理されることによって実現されてもよく、あるいは、複数の装置によって分散処理されることによって実現されてもよい。
 また、上記各実施の形態において、一の装置に存在する2以上の通信手段(情報送信部など)は、物理的に一の媒体で実現されてもよいことは言うまでもない。
 また、上記各実施の形態では、画像表示装置がスタンドアロンである場合について説明したが、画像表示装置は、スタンドアロンの装置であってもよく、サーバ・クライアントシステムにおけるサーバ装置であってもよい。後者の場合には、表示部や受付部は、通信回線を介して入力を受け付けたり、画面を表示したりすることになる。
 なお、上記各実施の形態における画像表示装置を実現するソフトウェアは、以下のようなプログラムである。つまり、このプログラムは、時刻と対応付けられた画像であって、生体における、少なくとも1つの血管と交わる断面を示す断層画像を複数備えた断層画像群が格納される断層画像格納部と、時刻と対応付けられた画像であって、生体における、少なくとも1つの血管と交わる断面における位相差の時系列変化を示す画像である位相画像を複数備えた位相画像群が格納される位相画像格納部と、生体内の血管における血液の流れに関する情報であって、時刻と対応付けられた情報である血流情報を複数備えた血流情報群が格納される血流情報格納部と、にアクセス可能なコンピュータを、断層画像群に含まれる断層画像と、位相画像群に含まれる位相画像とを、断層画像と位相画像とに対応付けられた時刻を用いて同期させて表示し、かつ、血流情報群に含まれる血流情報のうちの、表示中の断層画像と位相画像とに対応付けられた時刻を含む期間内の時刻と対応付けられた複数の血流情報を示す画像である血流画像を表示する表示部と、表示部が表示する断層画像、位相画像、および血流画像のいずれか1つに対して、表示を変更する操作である変更操作を受け付ける変更操作受付部として機能させるためのプログラムであって、表示部は、変更操作に対応する変更と同じ変更を、表示部が表示する断層画像、位相画像、および血流画像に対して行うプログラムである。
 また、このプログラムは、時刻と対応付けられた画像であって、生体における、少なくとも1つの血管と交わる断面を示す断層画像を複数備えた断層画像群が格納される断層画像格納部と、時刻と対応付けられた画像であって、生体における、少なくとも1つの血管と交わる断面における位相差の時系列変化を示す画像である位相画像を複数備えた位相画像群が格納される位相画像格納部と、にアクセス可能なコンピュータを、断層画像群に含まれる断層画像と、位相画像群に含まれる位相画像とを、断層画像と位相画像とに対応付けられた時刻を用いて同期させ、重ね合わせて表示する表示部として機能させるためのプログラムである。
 また、このプログラムは、生体を撮影した画像である生体画像が格納される生体画像格納部と、生体画像における1以上の血管の位置を示す情報である血管位置情報と、血管に対応する血管識別情報とを含む血管管理情報が格納される血管管理情報格納部と、時刻と対応付けられた画像であって、生体における、少なくとも1つの血管と交わる断面における位相差の時系列変化を示す画像である位相画像を複数備えた位相画像群と、位相画像群に対応する断面と交わる1以上の血管の血管識別情報とを含む位相管理情報が格納される位相画像格納部と、位相画像内における血管の位置を示す情報である位相血管位置情報と、血管の血管識別情報と、を含む位相血管管理情報が格納される位相血管管理情報格納部と、血管識別情報と、血管が静脈であるか、動脈であるかを示す情報である血管分類情報とを含む血管分類管理情報が格納される血管分類管理情報格納部と、にアクセス可能なコンピュータを、生体画像と、一の血管識別情報と対応付けられた位相画像群に含まれる位相画像とを表示する表示部と、表示部が表示する生体画像における静脈または動脈の位置を指定する操作である血管分類指定操作を受け付ける血管分類指定操作受付部と、血管指定操作が指定する位置に対応する血管識別情報を血管管理情報から取得し、血管識別情報と、血管指定操作が示す血管が静脈であるか動脈であるかを指定する血管分類情報とを含む血管分類管理情報を、血管分類管理情報格納部に蓄積する血管分類管理情報蓄積部として機能させるためのプログラムであって、表示部は、位相血管管理情報から、表示部が表示する位相画像に対応する血管識別情報と位相血管位置情報とを取得し、血管識別情報に対応する血管分類情報を血管分類管理情報から取得し、位相画像の血管識別情報に対応する位相血管位置情報が示す位置を、他の位置とは異なる表示態様であって、位相血管位置情報に対応する血管分類情報が動脈であることを示す情報であるか、静脈であることを示す情報であるかによって異なる表示態様で表示するプログラムである。
 なお、上記プログラムにおいて、上記プログラムが実現する機能には、ハードウェアでしか実現できない機能は含まれない。例えば、情報を取得する取得部や、情報を表示する表示部などにおけるモデムやインターフェースカードなどのハードウェアでしか実現できない機能は、上記プログラムが実現する機能には含まれない。
 また、このプログラムを実行するコンピュータは、単数であってもよく、複数であってもよい。すなわち、集中処理を行ってもよく、あるいは分散処理を行ってもよい。
 図31は、上記プログラムを実行して、上記実施の形態による画像表示装置を実現するコンピュータの外観の一例を示す模式図である。上記実施の形態は、コンピュータハードウェアおよびその上で実行されるコンピュータプログラムによって実現されうる。
 図31において、コンピュータシステム900は、CD-ROM(Compact Disk Read Only Memory)ドライブ905、FD(Floppy(登録商標) Disk)ドライブ906を含むコンピュータ901と、キーボード902と、マウス903と、モニタ904とを備える。
 図32は、コンピュータシステム900の内部構成を示す図である。図32において、コンピュータ901は、CD-ROMドライブ905、FDドライブ906に加えて、MPU(Micro Processing Unit)911と、ブートアッププログラム等のプログラムを記憶するためのROM912と、MPU911に接続され、アプリケーションプログラムの命令を一時的に記憶すると共に、一時記憶空間を提供するRAM(Random Access Memory)913と、アプリケーションプログラム、システムプログラム、およびデータを記憶するハードディスク914と、MPU911、ROM912等を相互に接続するバス915とを備える。なお、コンピュータ901は、LANへの接続を提供する図示しないネットワークカードを含んでいてもよい。
 コンピュータシステム900に、上記実施の形態による画像表示装置等の機能を実行させるプログラムは、CD-ROM921、またはFD922に記憶されて、CD-ROMドライブ905、またはFDドライブ906に挿入され、ハードディスク914に転送されてもよい。これに代えて、そのプログラムは、図示しないネットワークを介してコンピュータ901に送信され、ハードディスク914に記憶されてもよい。プログラムは実行の際にRAM913にロードされる。なお、プログラムは、CD-ROM921やFD922、またはネットワークから直接、ロードされてもよい。
 プログラムは、コンピュータ901に、上記実施の形態による画像表示装置の機能を実行させるオペレーティングシステム(OS)、またはサードパーティプログラム等を必ずしも含んでいなくてもよい。プログラムは、制御された態様で適切な機能(モジュール)を呼び出し、所望の結果が得られるようにする命令の部分のみを含んでいてもよい。コンピュータシステム900がどのように動作するのかについては周知であり、詳細な説明は省略する。
 この実施形態の画像表示装置1000と、上記実施形態の光画像計測装置1との組み合わせを、例えば、計測システムと考えるようにしてもよい。
 この実施形態に係る画像表示装置等は、生体について取得した複数の画像を表示する装置等として適しており、特に、OCT等を用いて取得した生体における一の箇所に関する複数の画像を表示する装置等として有用である。
1 眼底観察装置(光画像計測装置)
2 眼底カメラユニット
10 照明光学系
30 撮影光学系
31 合焦レンズ
31A 合焦駆動部
41 光路長変更部
42 ガルバノスキャナ
50 アライメント光学系
60 フォーカス光学系
100 OCTユニット
101 光源ユニット
105 光減衰器
106 偏波調整器
115 CCDイメージセンサ
200 演算制御ユニット
210 制御部
211 主制御部
212 記憶部
220 画像形成部
221 断層画像形成部
222 位相画像形成部
230 画像処理部
231 血管領域特定部
232 血流情報生成部
233 傾き算出部
234 血流速度算出部
235 血管径算出部
236 血流量算出部
237 断面設定部
240A 表示部
240B 操作部
E 被検眼
Ef 眼底
LS 信号光
LR 参照光
LC 干渉光
1000 画像表示装置
1011 断層画像格納部
1012 位相画像格納部
1013 血流情報格納部
1014 生体画像格納部
1015 位相血管管理情報格納部
1016 断層血管管理情報格納部
1017 血管管理情報格納部
1018 変更操作受付部
1019 血管分類指定操作受付部
1020 血管分類管理情報格納部
1021 血管分類管理情報蓄積部
1022 表示部

Claims (37)

  1.  光源からの光を信号光と参照光とに分割し、生体による前記信号光の散乱光と参照光路を経由した前記参照光との干渉光を検出する光学系と、
     前記生体の注目血管に交差する第1断面を前記信号光で反復的に走査する第1走査を行う走査部と、
     前記第1走査において前記光学系により得られる前記干渉光の検出結果に基づいて、前記第1断面における形態の時系列変化を表す第1断層画像と位相差の時系列変化を表す位相画像とを形成する画像形成部と、
     前記第1断層画像および前記位相画像のそれぞれについて、前記注目血管に対応する血管領域を特定する血管領域特定部と、
     前記第1断層画像の前記血管領域と前記位相画像の前記血管領域における位相差の時系列変化とに基づいて、前記注目血管に関する血流情報を生成する血流情報生成部と
     を有する光画像計測装置。
  2.  前記走査部は、前記注目血管に交差しかつ前記第1断面の近傍に位置する第2断面を前記信号光で走査する第2走査を行い、
     前記画像形成部は、前記第2走査において前記光学系により得られる前記干渉光の検出結果に基づいて、前記第2断面における形態を表す第2断層画像を形成し、
     前記血管領域特定部は、前記第2断層画像において前記注目血管に対応する血管領域を特定し、
     前記血流情報生成部は、前記第1断面と前記第2断面との間の距離、前記第1断層画像の前記血管領域、前記第2断層画像の前記血管領域、および前記位相差の時系列変化に基づいて、前記血流情報の生成を行う
     ことを特徴とする請求項1に記載の光画像計測装置。
  3.  前記血流情報生成部は、
     前記距離と前記第1断層画像の前記血管領域と前記第2断層画像の前記血管領域とに基づいて、前記第1断面における前記注目血管の傾きを算出する傾き算出部を含み、
     前記傾きの算出結果と前記位相差の時系列変化とに基づいて前記血流情報を生成する
     ことを特徴とする請求項2に記載の光画像計測装置。
  4.  前記第2断面は、前記第1断面に対して前記注目血管の上流側の断面と下流側の断面とを含む
     ことを特徴とする請求項3に記載の光画像計測装置。
  5.  前記傾き算出部は、前記第1断層画像における前記血管領域の位置と前記第2断層画像における前記血管領域の位置とに基づいて、前記傾きの算出を行う
     ことを特徴とする請求項3又は請求項4に記載の光画像計測装置。
  6.  前記血流情報生成部は、前記傾きの算出結果と前記位相差の時系列変化とに基づいて、前記注目血管内を流れる血液の前記第1断面における血流速度を算出する血流速度算出部を含む
     ことを特徴とする請求項3~請求項5のいずれか一項に記載の光画像計測装置。
  7.  前記血流速度算出部は、前記傾きの算出結果と前記位相差の時系列変化とに基づいて、前記血流速度の時系列変化を表す血流速度変化情報を生成する
     ことを特徴とする請求項6に記載の光画像計測装置。
  8.  前記血流速度算出部は、前記血流速度変化情報に基づいて前記血流速度の統計値を算出する
     ことを特徴とする請求項7に記載の光画像計測装置。
  9.  前記第1断面の位置を含む前記生体の部位を撮影する撮影部を更に有し、
     前記血流情報生成部は、
     前記撮影部による前記部位の撮影画像に基づいて、前記第1断面における前記注目血管の径を算出する血管径算出部と、
     前記血流速度変化情報と前記径の算出結果とに基づいて、前記注目血管内を流れる血液の流量を算出する血流量算出部と
     を含む
     ことを特徴とする請求項7に記載の光画像計測装置。
  10.  前記血流情報生成部は、
     前記第1断層画像に基づいて、前記第1断面における前記注目血管の径を算出する血管径算出部と、
     前記血流速度変化情報と前記径の算出結果とに基づいて、前記注目血管内を流れる血液の流量を算出する血流量算出部と
     を含む
     ことを特徴とする請求項7に記載の光画像計測装置。
  11.  前記血流速度算出部は、前記位相画像の前記血管領域に含まれる複数の画素のそれぞれについて前記血流速度変化情報を生成し、
     前記血流情報生成部は、当該各画素の前記血流速度変化情報を時系列に沿って積分することにより当該各画素についての血流量を算出し、前記複数の画素についての前記血流量を加算することにより前記注目血管を流れる血液の流量を算出する血流量算出部を含む
     ことを特徴とする請求項7に記載の光画像計測装置。
  12.  前記血管領域特定部は、前記第1断層画像を解析して前記血管領域を特定し、前記第1断層画像における当該血管領域の位置に対応する前記位相画像の画像領域を特定し、該画像領域を前記位相画像の前記血管領域とする
     ことを特徴とする請求項1~請求項11のいずれか一項に記載の光画像計測装置。
  13.  前記走査部は、前記生体の少なくとも1心周期の間にわたって前記第1走査を行う
     ことを特徴とする請求項1~請求項12のいずれか一項に記載の光画像計測装置。
  14.  前記注目血管は眼底血管である
     ことを特徴とする請求項1~請求項13のいずれか一項に記載の光画像計測装置。
  15.  前記第1断面および前記第2断面は、前記眼底の視神経乳頭の近傍に設定される
     ことを特徴とする請求項14に記載の光画像計測装置。
  16.  前記光学系と光路の一部を共有し、前記生体の眼底に照射された照明光の反射光を検出することで前記眼底の画像を取得する画像取得部と、
     取得された前記画像を表示する表示部と、
     表示された前記画像に対して前記第1断面を指定するための操作部と、
     指定された前記第1断面と取得された前記画像とに基づいて前記第2断面を設定する断面設定部と
     を更に有し、
     前記走査部は、指定された前記第1断面に対して前記第1走査を行い、設定された前記第2断面に対して前記第2走査を行う
     ことを特徴とする請求項1~請求項15のいずれか一項に記載の光画像計測装置。
  17.  光源からの光を信号光と参照光とに分割し、生体による前記信号光の散乱光と参照光路を経由した前記参照光との干渉光を検出する光学系と、
     前記生体の注目血管に交差する第1断面を前記信号光で反復的に走査する第1走査と、前記注目血管に交差しかつ前記第1断面の近傍に位置する第2断面を前記信号光で走査する第2走査とを行う走査部と、
     前記第1走査において前記光学系により得られる前記干渉光の検出結果に基づいて、前記第1断面における形態の時系列変化を表す第1断層画像と位相差の時系列変化を表す位相画像とを形成し、かつ、前記第2走査において前記光学系により得られる前記干渉光の検出結果に基づいて、前記第2断面における形態を表す第2断層画像を形成する画像形成部と、
     前記第1断面の位置を含む前記生体の部位を撮影する撮影部と、
     前記第1断層画像、前記位相画像および前記第2断層画像のそれぞれについて、前記注目血管に対応する血管領域を特定する血管領域特定部と、
     前記位相差の時系列変化と前記血管領域の特定結果とに基づいて、前記注目血管内を流れる血液の前記第1断面における血流速度を算出する血流速度算出部と、
     前記撮影部による前記部位の撮影画像に基づいて、前記第1断面における前記注目血管の径を算出する血管径算出部と、
     前記血流速度の算出結果と前記径の算出結果とに基づいて、前記注目血管内を流れる血液の流量を算出する血流量算出部と
     を有する光画像計測装置。
  18.  前記走査部は、前記生体の少なくとも1心周期の間にわたって前記第1走査を行う
     ことを特徴とする請求項17に記載の光画像計測装置。
  19.  前記注目血管は眼底血管である
     ことを特徴とする請求項17又は請求項18に記載の光画像計測装置。
  20.  前記第1断面および前記第2断面は、前記眼底の視神経乳頭の近傍に設定される
     ことを特徴とする請求項19に記載の光画像計測装置。
  21.  前記撮影部は、前記光学系と光路の一部を共有し、
     前記撮影部による前記眼底の撮影画像を表示する表示部と、
     表示された前記撮影画像に対して前記第1断面を指定するための操作部と、
     指定された前記第1断面と前記撮影画像とに基づいて前記第2断面を設定する断面設定部と
     を更に有し、
     前記走査部は、指定された前記第1断面に対して前記第1走査を行い、設定された前記第2断面に対して前記第2走査を行う
     ことを特徴とする請求項19又は請求項20に記載の光画像計測装置。
  22.  時刻と対応付けられた画像であって、生体における、少なくとも1つの血管と交わる断面を示す断層画像を複数備えた断層画像群が格納される断層画像格納部と、
     時刻と対応付けられた画像であって、前記生体における、少なくとも1つの血管と交わる断面における位相差の時系列変化を示す画像である位相画像を複数備えた位相画像群が格納される位相画像格納部と、
     前記生体内の血管における血液の流れに関する情報であって、時刻と対応付けられた情報である血流情報を複数備えた血流情報群が格納される血流情報格納部と、
     前記断層画像群に含まれる断層画像と、前記位相画像群に含まれる位相画像とを、当該断層画像と位相画像とに対応付けられた時刻を用いて同期させて表示し、かつ、前記血流情報群に含まれる血流情報のうちの、表示中の断層画像と位相画像とに対応付けられた時刻を含む期間内の時刻と対応付けられた複数の血流情報を示す画像である血流画像を表示する表示部と、
     前記表示部が表示する断層画像、位相画像、および血流画像のいずれか1つに対する表示を変更する操作である変更操作を受け付ける変更操作受付部とを備え、
     前記表示部は、前記変更操作に対応する変更と同じ変更を、当該表示部が表示する断層画像、位相画像、および血流画像に対して行う画像表示装置。
  23.  前記断層画像格納部には、前記断層画像群と、当該断層画像群が示す断面と交わる1以上の血管を示す情報である血管識別情報とを含む断層管理情報が格納され、
     前記位相画像格納部には、前記位相画像群と、当該位相画像群に対応する断面と交わる1以上の血管の血管識別情報とを含む位相管理情報が格納され、
     前記血流情報格納部には、前記血流情報血流情報群と、当該血流情報群に対応する血管の血管識別情報とを含む血流管理情報が格納され、
     前記表示部は、一の血管識別情報が指定されたときに、当該血管識別情報に対応付けられた前記断層画像群に含まれる断層画像と、前記位相画像群に含まれる位相画像と、当該血管識別情報に対応付けられた血流情報群に含まれる血流情報を示す血流画像とを表示し、
     前記変更操作受付部は、血管を指定する操作を前記変更操作として受け付け、当該指定された血管に対応する血管識別情報を取得し、
     前記表示部は、前記変更操作受付部が取得した血管識別情報に対応する断層画像、位相画像、および血流画像を、前記断層画像群、位相画像群、および血流情報群から取得し、取得した画像を表示する請求項22に記載の画像表示装置。
  24.  前記位相画像内における血管の位置を示す情報である位相血管位置情報と、当該血管の血管識別情報と、を含む位相血管管理情報が格納される位相血管管理情報格納部を更に備え、
     前記変更操作受付部は、前記表示部が表示する位相画像における血管上の位置を指定する位相血管指定操作を更に受け付け、当該位相血管指定操作により指定された位置に対応する血管識別情報を前記位相血管管理情報から取得し、
     前記表示部は、前記変更操作受付部が取得した血管識別情報に対応する血流情報群を用いて、血流画像を取得して表示する請求項23に記載の画像表示装置。
  25.  前記位相画像内における血管の位置を示す情報である位相血管位置情報と、当該血管の血管識別情報と、を含む位相血管管理情報が格納される位相血管管理情報格納部と、
     前記断層画像内における血管の位置を示す情報である断層血管位置情報と、当該血管の血管識別情報と、を含む断層血管管理情報が格納される断層血管管理情報格納部と、を更に備え、
     前記変更操作受付部は、前記表示部が表示する位相画像における血管上の位置を指定する位相血管指定操作を更に受け付け、当該位相血管指定操作により指定された位置に対応する血管識別情報を前記位相血管管理情報から取得し、
     前記表示部は、前記変更操作受付部が取得した血管識別情報に対応する断層血管位置情報を、前記断層血管管理情報を用いて取得し、断層画像の、当該取得した断層血管位置情報が示す位置を、他の位置とは異なる表示態様で表示する請求項22または請求項23に記載の画像表示装置。
  26.  前記変更操作受付部は、時刻を指定する前記変更操作を受け付け、当該変更操作に対応する時刻を取得し、
     前記表示部は、前記変更操作受付部が取得した時刻に対応する断層画像、位相画像、および血流画像を、前記断層画像群、位相画像群、または血流情報群を用いて取得し、取得した画像を表示する請求項22~請求項25のいずれか一項に記載の画像表示装置。
  27.  前記生体における、前記断層画像の断面を取得した位置を含む領域を正面から撮影した画像である生体画像が格納される生体画像格納部と、
     前記生体画像における1以上の血管の位置を示す情報である血管位置情報と、当該血管に対応する血管識別情報とを含む血管管理情報が格納される血管管理情報格納部とを更に備え、
     前記表示部は、さらに、生体画像を表示し、
     前記変更操作受付部は、前記表示部が表示する生体画像における一の血管上の位置を指定する操作である血管指定操作を更に受け付け、当該血管指定操作が指定する位置に対応する血管識別情報を前記血管管理情報から取得し、
     前記表示部は、変更操作受付部が取得した血管識別情報に対応する断層画像、位相画像、および血流画像を、前記断層画像群、位相画像群、および血流情報群をそれぞれ用いて取得し、取得した断層画像、位相画像、および血流画像を表示する請求項23または請求項24に記載の画像表示装置。
  28.  前記変更操作受付部は、前記表示部が表示する断層画像、または位相画像に対して、表示される画像のフレームレートを変更するフレームレート変更操作を受け付け、
     前記表示部は、断層画像および位相画像を表示するフレームレートを、前記フレームレート変更操作に対応する同じフレームレートに変更する請求項22~請求項27のいずれか一項に記載の画像表示装置。
  29.  時刻と対応付けられた画像であって、生体における、少なくとも1つの血管と交わる断面を示す断層画像を複数備えた断層画像群が格納される断層画像格納部と、
     時刻と対応付けられた画像であって、前記生体における、少なくとも1つの血管と交わる断面における位相差の時系列変化を示す画像である位相画像を複数備えた位相画像群が格納される位相画像格納部と、
     断層画像群に含まれる断層画像と、位相画像群に含まれる位相画像とを、当該断層画像と位相画像とに対応付けられた時刻を用いて同期させ、重ね合わせて表示する表示部を備えた画像表示装置。
  30.  前記生体内の血管における血液の流れに関する情報であって、時刻と対応付けられた情報である血流情報を複数備えた血流情報群が格納される血流情報格納部を更に備え、
     前記表示部は、さらに、前記血流情報群に含まれる血流情報のうちの、重ね合わせられて表示中の断層画像と位相画像とに対応付けられた時刻を含む期間内の時刻と対応付けられた複数の血流情報を示す画像である血流画像を表示する請求項29に記載の画像表示装置。
  31.  前記表示部が表示する断層画像と位相画像とを重ね合わせた画像、または血流画像のいずれか1つに対して、表示を変更する操作である変更操作を受け付ける変更操作受付部とを備え、
     前記表示部は、前記変更操作に対応する変更と同じ変更を、当該表示部が表示する断層画像と位相画像とを重ね合わせた画像、および血流画像に対して行う請求項30に記載の画像表示装置。
  32.  前記断層画像格納部には、前記断層画像群と、当該断層画像群が示す断面と交わる1以上の血管を示す情報である血管識別情報とを含む断層管理情報が格納され、
     前記位相画像格納部には、前記位相画像群と、当該位相画像群に対応する断面と交わる1以上の血管の血管識別情報とを含む位相管理情報が格納され、
     前記血流格納部には、前記血流情報群と、当該血流情報群に対応する血管の血管識別情報とを含む血流管理情報が格納され、
     前記表示部は、一の血管識別情報に対応付けられた断層画像群および位相画像群にそれぞれ含まれる断層画像および位相画像と、当該一の血管識別情報と対応付けられた血流情報群に含まれる血流情報を示す血流画像とを表示し、
     前記変更操作受付部は、前記表示部が重ね合わせた画像に対する血管を指定する血管変更指定操作を受け付け、当該血管変更指定操作に対応する血管識別情報を取得し、
     前記表示部は、前記変更操作受付部が取得した血管識別情報に対応する断層画像、位相画像、および血流画像を、前記断層画像群、位相画像群、および血流情報群を用いて取得し、取得した画像を表示する請求項31に記載の画像表示装置。
  33.  前記変更操作受付部は、前記表示部が表示する断層画像、および位相画像のいずれか1つに対して、表示される画像のフレームレートを変更するフレームレート変更操作を受け付け、
     前記表示部は、断層画像および位相画像を表示するフレームレートを、前記フレームレート変更操作に対応する同じフレームレートに変更する請求項30~請求項32のいずれか一項に記載の画像表示装置。
  34.  生体を撮影した画像である生体画像が格納される生体画像格納部と、
     前記生体画像における1以上の血管の位置を示す情報である血管位置情報と、当該血管に対応する血管識別情報とを含む血管管理情報が格納される血管管理情報格納部と、
     時刻と対応付けられた画像であって、生体における、少なくとも1つの血管と交わる断面における位相差の時系列変化を示す画像である位相画像を複数備えた位相画像群と、当該位相画像群に対応する断面と交わる血管の血管識別情報とを含む位相管理情報が格納される位相画像格納部と、
     前記位相画像内における血管の位置を示す情報である位相血管位置情報と、当該血管の血管識別情報と、を含む位相血管管理情報が格納される位相血管管理情報格納部と、
     前記生体画像と、一の血管識別情報と対応付けられた位相画像群に含まれる位相画像とを表示する表示部と、
     前記表示部が表示する生体画像における静脈または動脈の位置を指定する操作である血管分類指定操作を受け付ける血管分類指定操作受付部と、
     血管識別情報と、血管が静脈であるか、動脈であるかを示す情報である血管分類情報とを含む血管分類管理情報が格納される血管分類管理情報格納部と、
     前記血管指定操作が指定する位置に対応する血管識別情報を前記血管管理情報から取得し、当該血管識別情報と、前記血管指定操作が示す血管が静脈であるか動脈であるかを指定する血管分類情報とを含む血管分類管理情報を、前記血管分類管理情報格納部に蓄積する血管分類管理情報蓄積部とを備え、
     前記表示部は、前記位相血管管理情報から、当該表示部が表示する位相画像に対応する血管識別情報と位相血管位置情報とを取得し、当該血管識別情報に対応する血管分類情報を前記血管分類管理情報から取得し、前記位相画像の前記血管識別情報に対応する位相血管位置情報が示す位置を、他の位置とは異なる表示態様であって、当該位相血管位置情報に対応する血管分類情報が動脈であることを示す情報であるか、静脈であることを示す情報であるかによって異なる表示態様で表示する画像表示装置。
  35.  時刻と対応付けられた画像であって、生体における、少なくとも1つの血管と交わる断面を示す断層画像を複数備えた断層画像群が格納される断層画像格納部と、時刻と対応付けられた画像であって、前記生体における、少なくとも1つの血管と交わる断面における位相差の時系列変化を示す画像である位相画像を複数備えた位相画像群が格納される位相画像格納部と、前記生体内の血管における血液の流れに関する情報であって、時刻と対応付けられた情報である血流情報を複数備えた血流情報群が格納される血流情報格納部と、表示部と、変更操作受付部とを用いて実行される画像表示方法であって、
     前記表示部が、前記断層画像群に含まれる断層画像と、前記位相画像群に含まれる位相画像とを、当該断層画像と位相画像とに対応付けられた時刻を用いて同期させて表示し、かつ、前記血流情報群に含まれる血流情報のうちの、表示中の断層画像と位相画像とに対応付けられた時刻を含む期間内の時刻と対応付けられた複数の血流情報を示す画像である血流画像を表示する表示ステップと、
     前記変更操作受付部が、前記表示ステップで表示する断層画像、位相画像、および血流画像のいずれか1つに対する表示を変更する操作である変更操作を受け付ける変更操作受付ステップとを備え、
     前記表示ステップにおいて前記表示部は、前記変更操作に対応する変更と同じ変更を、当該表示ステップで表示する断層画像、位相画像、および血流画像に対して行う画像表示方法。
  36.  時刻と対応付けられた画像であって、生体における、少なくとも1つの血管と交わる断面を示す断層画像を複数備えた断層画像群が格納される断層画像格納部と、時刻と対応付けられた画像であって、前記生体における、少なくとも1つの血管と交わる断面における位相差の時系列変化を示す画像である位相画像を複数備えた位相画像群が格納される位相画像格納部と、表示部とを用いて実行される画像表示方法であって、
     前記表示部が、断層画像群に含まれる断層画像と、位相画像群に含まれる位相画像とを、当該断層画像と位相画像とに対応付けられた時刻を用いて同期させ、重ね合わせて表示する表示ステップを備えた画像表示方法。
  37.  生体を撮影した画像である生体画像が格納される生体画像格納部と、前記生体画像における1以上の血管の位置を示す情報である血管位置情報と、当該血管に対応する血管識別情報とを含む血管管理情報が格納される血管管理情報格納部と、時刻と対応付けられた画像であって、生体における、少なくとも1つの血管と交わる断面における位相差の時系列変化を示す画像である位相画像を複数備えた位相画像群と、当該位相画像群に対応する断面と交わる1以上の血管の血管識別情報とを含む位相管理情報が格納される位相画像格納部と、前記位相画像内における血管の位置を示す情報である位相血管位置情報と、当該血管の血管識別情報と、を含む位相血管管理情報が格納される位相血管管理情報格納部と、表示部と、血管分類指定操作受付部と、血管識別情報と、血管が静脈であるか、動脈であるかを示す情報である血管分類情報とを含む血管分類管理情報が格納される血管分類管理情報格納部と、血管分類管理情報蓄積部とを用いて実行される画像表示方法であって、
     前記表示部が、前記生体画像と、一の血管識別情報と対応付けられた位相画像群に含まれる位相画像とを表示する表示ステップと、
     前記血管分類指定操作受付部が、前記表示ステップで表示する生体画像における静脈または動脈の位置を指定する操作である血管分類指定操作を受け付ける血管分類指定操作受付ステップと、
     前記血管分類管理情報蓄積部が、前記血管指定操作が指定する位置に対応する血管識別情報を前記血管管理情報から取得し、当該血管識別情報と、前記血管指定操作が示す血管が静脈であるか動脈であるかを指定する血管分類情報とを含む血管分類管理情報を、前記血管分類管理情報格納部に蓄積する血管分類管理情報蓄積ステップとを備え、
     前記表示ステップにおいて前記表示部は、前記位相血管管理情報から、当該表示ステップで表示する位相画像に対応する血管識別情報と位相血管位置情報とを取得し、当該血管識別情報に対応する血管分類情報を前記血管分類管理情報から取得し、前記位相画像の前記血管識別情報に対応する位相血管位置情報が示す位置を、他の位置とは異なる表示態様であって、当該位相血管位置情報に対応する血管分類情報が動脈であることを示す情報であるか、静脈であることを示す情報であるかによって異なる表示態様で表示する画像表示装置。
PCT/JP2013/056495 2012-03-12 2013-03-08 光画像計測装置、画像表示装置、および画像表示方法 WO2013137148A1 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
EP17184898.9A EP3272276B1 (en) 2012-03-12 2013-03-08 Image displaying apparatus and image displaying method
EP17184896.3A EP3269297B1 (en) 2012-03-12 2013-03-08 Image displaying apparatus and image displaying method
EP16176646.4A EP3127474B1 (en) 2012-03-12 2013-03-08 Image displaying apparatus and image displaying method
EP13761015.0A EP2829219B1 (en) 2012-03-12 2013-03-08 Optical image measurement device
US14/379,623 US9492082B2 (en) 2012-03-12 2013-03-08 Optical image measuring apparatus, image displaying apparatus and image displaying method
US15/197,262 US9936870B2 (en) 2012-03-12 2016-06-29 Image displaying apparatus
US15/197,282 US9848772B2 (en) 2012-03-12 2016-06-29 Image displaying method

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2012-053911 2012-03-12
JP2012053911A JP5867719B2 (ja) 2012-03-12 2012-03-12 光画像計測装置
JP2012076741A JP5867720B2 (ja) 2012-03-29 2012-03-29 画像表示装置、画像表示方法、及びプログラム
JP2012-076741 2012-03-29

Related Child Applications (3)

Application Number Title Priority Date Filing Date
US14/379,623 A-371-Of-International US9492082B2 (en) 2012-03-12 2013-03-08 Optical image measuring apparatus, image displaying apparatus and image displaying method
US15/197,262 Division US9936870B2 (en) 2012-03-12 2016-06-29 Image displaying apparatus
US15/197,282 Division US9848772B2 (en) 2012-03-12 2016-06-29 Image displaying method

Publications (1)

Publication Number Publication Date
WO2013137148A1 true WO2013137148A1 (ja) 2013-09-19

Family

ID=49161057

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/056495 WO2013137148A1 (ja) 2012-03-12 2013-03-08 光画像計測装置、画像表示装置、および画像表示方法

Country Status (3)

Country Link
US (3) US9492082B2 (ja)
EP (4) EP3272276B1 (ja)
WO (1) WO2013137148A1 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016144531A (ja) * 2015-02-06 2016-08-12 キヤノン株式会社 眼科装置及びその制御方法、並びに、プログラム
JP2017077413A (ja) * 2015-10-21 2017-04-27 株式会社ニデック 眼科解析装置、眼科解析プログラム
WO2017069019A1 (ja) * 2015-10-23 2017-04-27 株式会社トプコン 血流計測装置
JP2017202369A (ja) * 2017-08-23 2017-11-16 株式会社トプコン 眼科画像処理装置
US20180242845A1 (en) * 2015-08-26 2018-08-30 Topcon Corporation Device and method of measuring blood flow
JP2019025187A (ja) * 2017-08-02 2019-02-21 株式会社トプコン 眼科情報処理装置及び眼科撮影装置
JP2019024617A (ja) * 2017-07-26 2019-02-21 株式会社トプコン 眼科情報処理装置及び眼科撮影装置
US10492682B2 (en) 2015-10-21 2019-12-03 Nidek Co., Ltd. Ophthalmic analysis device and ophthalmic analysis program
JP2022173396A (ja) * 2017-08-02 2022-11-18 株式会社トプコン 眼科情報処理装置及び眼科撮影装置

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9814384B2 (en) * 2013-09-30 2017-11-14 Carl Zeiss Meditec, Inc. High temporal resolution doppler OCT imaging of retinal blood flow
JP6550745B2 (ja) 2014-12-19 2019-07-31 国立大学法人旭川医科大学 血流計測装置
JP6469436B2 (ja) 2014-12-19 2019-02-13 株式会社トプコン 血流計測装置
JP6402025B2 (ja) 2014-12-19 2018-10-10 株式会社トプコン 血流計測装置
GB201503196D0 (en) 2015-02-26 2015-04-15 Michelson Diagnostics Ltd Processing optical coherence tomography scans
US9805662B2 (en) * 2015-03-23 2017-10-31 Intel Corporation Content adaptive backlight power saving technology
JP6427059B2 (ja) 2015-04-14 2018-11-21 株式会社トプコン 眼科画像表示装置及び眼科撮影装置
JP6538613B2 (ja) * 2015-06-08 2019-07-03 株式会社トーメーコーポレーション 速度測定装置、速度測定プログラムおよび速度測定方法
JP6588750B2 (ja) 2015-06-30 2019-10-09 株式会社トプコン 眼科用顕微鏡システム
US10134144B2 (en) * 2015-09-15 2018-11-20 Wisconsin Alumni Research Foundation System and method for determining dynamic physiological information from four-dimensional angiographic data
US10264963B2 (en) * 2015-09-24 2019-04-23 Carl Zeiss Meditec, Inc. Methods for high sensitivity flow visualization
US10130250B2 (en) * 2015-11-02 2018-11-20 Nidek Co., Ltd. OCT data processing apparatus and OCT data processing program
JP6671946B2 (ja) * 2015-12-11 2020-03-25 キヤノン株式会社 情報取得装置、撮像装置及び情報取得方法
KR102654871B1 (ko) * 2016-03-07 2024-04-05 삼성전자주식회사 생체 정보 측정 장치, 생체 정보 획득 방법, 및 생체 정보 측정 밴드
US10959619B2 (en) * 2016-03-07 2021-03-30 Samsung Electronics Co., Ltd. Apparatus and method for acquiring biological information and band for acquiring biological information
JP6702764B2 (ja) * 2016-03-08 2020-06-03 キヤノン株式会社 光干渉断層データの処理方法、該方法を実行するためのプログラム、及び処理装置
KR101855816B1 (ko) 2016-05-13 2018-05-10 주식회사 고영테크놀러지 생체 조직 검사 장치 및 그 방법
US10832051B1 (en) * 2016-06-13 2020-11-10 Facebook Technologies, Llc Eye tracking using optical coherence methods
WO2018046278A1 (en) * 2016-09-06 2018-03-15 Asml Holding N.V. Method and device for focusing in an inspection system
JP6815798B2 (ja) 2016-09-09 2021-01-20 株式会社トプコン 眼科撮影装置及び眼科画像処理装置
US10163209B2 (en) 2016-11-23 2018-12-25 Toshiba Medical Systems Corporation Medical image processing apparatus, medical image processing method, and X-ray CT apparatus
US10963046B1 (en) 2018-05-17 2021-03-30 Facebook Technologies, Llc Drift corrected eye tracking
JPWO2019229913A1 (ja) * 2018-05-30 2021-06-17 株式会社ニコン 情報処理装置、情報処理方法、情報処理プログラム、及び顕微鏡
CN109124686A (zh) * 2018-09-11 2019-01-04 中山大学 一种血液流量测量设备及方法
US10743762B2 (en) * 2018-09-28 2020-08-18 Topcon Corporation Ophthalmologic apparatus
JP6707162B2 (ja) * 2019-03-14 2020-06-10 株式会社トプコン 眼科用顕微鏡システム
JP7260426B2 (ja) * 2019-07-11 2023-04-18 株式会社トプコン 光コヒーレンストモグラフィ装置、その制御方法、光計測方法、プログラム、及び記憶媒体
CA3151618A1 (en) * 2019-09-19 2021-03-25 Lightlab Imaging, Inc. Systems and methods of combined imaging
DE102020102012B4 (de) * 2020-01-28 2022-12-01 Carl Zeiss Meditec Ag Anordnung mit einer OCT-Einrichtung für das Ermitteln einer 3D-Rekonstruktion eines Objektbereichsvolumens sowie Computerprogramm und computerimplementiertes Verfahren hierfür
JP7479030B2 (ja) * 2020-06-11 2024-05-08 国立大学法人旭川医科大学 血流解析装置、血流解析方法、及びプログラム

Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09276232A (ja) 1996-04-12 1997-10-28 Nikon Corp 眼底カメラ
JPH11325849A (ja) 1998-03-30 1999-11-26 Carl Zeiss Jena Gmbh スペクトル干渉に基づく光学・トモグラフィ―および光学表面プロファイル測定装置
JP2002139421A (ja) 2000-11-01 2002-05-17 Fuji Photo Film Co Ltd 光断層画像取得装置
JP2006153838A (ja) 2004-11-08 2006-06-15 Topcon Corp 光画像計測装置及び光画像計測方法
JP2007024677A (ja) 2005-07-15 2007-02-01 Sun Tec Kk 光断層画像表示システム
JP2007054251A (ja) * 2005-08-24 2007-03-08 Osaka Univ 断層計測装置及び断層計測方法
JP2008073099A (ja) 2006-09-19 2008-04-03 Topcon Corp 眼底観察装置、眼底画像表示装置及び眼底観察プログラム
JP2008259544A (ja) 2007-04-10 2008-10-30 Topcon Corp スリットランプ
JP2009165710A (ja) 2008-01-17 2009-07-30 Univ Of Tsukuba 眼底血流量の定量測定装置
JP2010523286A (ja) 2007-04-10 2010-07-15 ユニヴァーシティー オブ サザン カリフォルニア ドップラー光コヒーレンス・トモグラフィを用いた血流測定のための方法とシステム
JP2010259698A (ja) * 2009-05-11 2010-11-18 Canon Inc Octシステムにおける情報処理装置
WO2010131550A1 (ja) * 2009-05-13 2010-11-18 国立大学法人九州工業大学 血流画像診断装置
WO2010143601A1 (ja) * 2009-06-11 2010-12-16 国立大学法人筑波大学 2ビーム型光コヒーレンストモグラフィー装置
JP2012115572A (ja) * 2010-12-02 2012-06-21 Canon Inc 血流速算出装置及び方法
JP2012115573A (ja) * 2010-12-02 2012-06-21 Canon Inc 血流速算出装置及び方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0325849A (ja) 1989-06-23 1991-02-04 Matsushita Electric Ind Co Ltd 高圧放電ランプ
US8821376B2 (en) * 2007-03-12 2014-09-02 David Tolkowsky Devices and methods for performing medical procedures in tree-like luminal structures

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09276232A (ja) 1996-04-12 1997-10-28 Nikon Corp 眼底カメラ
JPH11325849A (ja) 1998-03-30 1999-11-26 Carl Zeiss Jena Gmbh スペクトル干渉に基づく光学・トモグラフィ―および光学表面プロファイル測定装置
JP2002139421A (ja) 2000-11-01 2002-05-17 Fuji Photo Film Co Ltd 光断層画像取得装置
JP2006153838A (ja) 2004-11-08 2006-06-15 Topcon Corp 光画像計測装置及び光画像計測方法
JP2007024677A (ja) 2005-07-15 2007-02-01 Sun Tec Kk 光断層画像表示システム
JP2007054251A (ja) * 2005-08-24 2007-03-08 Osaka Univ 断層計測装置及び断層計測方法
JP2008073099A (ja) 2006-09-19 2008-04-03 Topcon Corp 眼底観察装置、眼底画像表示装置及び眼底観察プログラム
JP2008259544A (ja) 2007-04-10 2008-10-30 Topcon Corp スリットランプ
JP2010523286A (ja) 2007-04-10 2010-07-15 ユニヴァーシティー オブ サザン カリフォルニア ドップラー光コヒーレンス・トモグラフィを用いた血流測定のための方法とシステム
JP2009165710A (ja) 2008-01-17 2009-07-30 Univ Of Tsukuba 眼底血流量の定量測定装置
JP2010259698A (ja) * 2009-05-11 2010-11-18 Canon Inc Octシステムにおける情報処理装置
WO2010131550A1 (ja) * 2009-05-13 2010-11-18 国立大学法人九州工業大学 血流画像診断装置
WO2010143601A1 (ja) * 2009-06-11 2010-12-16 国立大学法人筑波大学 2ビーム型光コヒーレンストモグラフィー装置
JP2012115572A (ja) * 2010-12-02 2012-06-21 Canon Inc 血流速算出装置及び方法
JP2012115573A (ja) * 2010-12-02 2012-06-21 Canon Inc 血流速算出装置及び方法

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016144531A (ja) * 2015-02-06 2016-08-12 キヤノン株式会社 眼科装置及びその制御方法、並びに、プログラム
US10799116B2 (en) * 2015-08-26 2020-10-13 Topcon Corporation Device and method of measuring blood flow
US20180242845A1 (en) * 2015-08-26 2018-08-30 Topcon Corporation Device and method of measuring blood flow
JP2017077413A (ja) * 2015-10-21 2017-04-27 株式会社ニデック 眼科解析装置、眼科解析プログラム
US10492682B2 (en) 2015-10-21 2019-12-03 Nidek Co., Ltd. Ophthalmic analysis device and ophthalmic analysis program
WO2017069019A1 (ja) * 2015-10-23 2017-04-27 株式会社トプコン 血流計測装置
JP2017079886A (ja) * 2015-10-23 2017-05-18 株式会社トプコン 血流計測装置
JP7007125B2 (ja) 2017-07-26 2022-01-24 株式会社トプコン 眼科情報処理装置及び眼科撮影装置
JP2019024617A (ja) * 2017-07-26 2019-02-21 株式会社トプコン 眼科情報処理装置及び眼科撮影装置
JP2021183292A (ja) * 2017-08-02 2021-12-02 株式会社トプコン 眼科情報処理装置及び眼科撮影装置
JP2019025187A (ja) * 2017-08-02 2019-02-21 株式会社トプコン 眼科情報処理装置及び眼科撮影装置
JP2021183291A (ja) * 2017-08-02 2021-12-02 株式会社トプコン 眼科情報処理装置及び眼科撮影装置
JP2021183293A (ja) * 2017-08-02 2021-12-02 株式会社トプコン 眼科情報処理装置及び眼科撮影装置
JP7157221B2 (ja) 2017-08-02 2022-10-19 株式会社トプコン 眼科情報処理装置及び眼科撮影装置
JP2022173396A (ja) * 2017-08-02 2022-11-18 株式会社トプコン 眼科情報処理装置及び眼科撮影装置
JP7228647B2 (ja) 2017-08-02 2023-02-24 株式会社トプコン 眼科情報処理装置及び眼科撮影装置
JP7228648B2 (ja) 2017-08-02 2023-02-24 株式会社トプコン 眼科情報処理装置及び眼科撮影装置
JP7297133B2 (ja) 2017-08-02 2023-06-23 株式会社トプコン 眼科情報処理装置及び眼科撮影装置
JP7386949B2 (ja) 2017-08-02 2023-11-27 株式会社トプコン 眼科情報処理装置
JP7386950B2 (ja) 2017-08-02 2023-11-27 株式会社トプコン 眼科情報処理装置
JP2017202369A (ja) * 2017-08-23 2017-11-16 株式会社トプコン 眼科画像処理装置

Also Published As

Publication number Publication date
US9848772B2 (en) 2017-12-26
EP2829219B1 (en) 2020-09-09
EP3269297A1 (en) 2018-01-17
EP3269297B1 (en) 2021-05-05
EP3127474A1 (en) 2017-02-08
EP3127474B1 (en) 2021-11-10
EP3272276B1 (en) 2019-05-15
US9936870B2 (en) 2018-04-10
EP2829219A1 (en) 2015-01-28
EP3272276A1 (en) 2018-01-24
EP2829219A4 (en) 2015-12-02
US20160310024A1 (en) 2016-10-27
US20160302738A1 (en) 2016-10-20
US20150313466A1 (en) 2015-11-05
US9492082B2 (en) 2016-11-15

Similar Documents

Publication Publication Date Title
WO2013137148A1 (ja) 光画像計測装置、画像表示装置、および画像表示方法
JP5867720B2 (ja) 画像表示装置、画像表示方法、及びプログラム
JP5867719B2 (ja) 光画像計測装置
JP5916110B2 (ja) 画像表示装置、画像表示方法、及びプログラム
JP5981213B2 (ja) 眼底観察装置
JP6550745B2 (ja) 血流計測装置
JP6367563B2 (ja) 眼科装置
JP5941761B2 (ja) 眼科撮影装置及び眼科画像処理装置
JP2018051391A (ja) 眼科装置
JP6402025B2 (ja) 血流計測装置
JP6254724B2 (ja) 眼底観察装置
JP6469436B2 (ja) 血流計測装置
JP6021289B2 (ja) 血流情報生成装置、血流情報生成方法、及びプログラム
JP2016104306A (ja) 眼科撮影装置
JP6254729B2 (ja) 眼科撮影装置
JP6453191B2 (ja) 血流計測装置
JP6106300B2 (ja) 眼科撮影装置
JP2019034237A (ja) 血流計測装置
JP2018051390A (ja) 眼科装置
JP2016104304A (ja) 眼科撮影装置及び眼科画像処理装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13761015

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14379623

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2013761015

Country of ref document: EP