WO2011001938A1 - 超音波診断装置及び画像データ表示用制御プログラム - Google Patents

超音波診断装置及び画像データ表示用制御プログラム Download PDF

Info

Publication number
WO2011001938A1
WO2011001938A1 PCT/JP2010/060978 JP2010060978W WO2011001938A1 WO 2011001938 A1 WO2011001938 A1 WO 2011001938A1 JP 2010060978 W JP2010060978 W JP 2010060978W WO 2011001938 A1 WO2011001938 A1 WO 2011001938A1
Authority
WO
WIPO (PCT)
Prior art keywords
image data
volume data
reference point
viewpoint
data
Prior art date
Application number
PCT/JP2010/060978
Other languages
English (en)
French (fr)
Inventor
栄一 志岐
喜隆 嶺
Original Assignee
株式会社東芝
東芝メディカルシステムズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社東芝, 東芝メディカルシステムズ株式会社 filed Critical 株式会社東芝
Priority to CN2010800063000A priority Critical patent/CN102300505B/zh
Publication of WO2011001938A1 publication Critical patent/WO2011001938A1/ja
Priority to US13/336,118 priority patent/US9173632B2/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/483Diagnostic techniques involving the acquisition of a 3D volume of data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular

Definitions

  • Embodiments described herein relate generally to an ultrasonic diagnostic apparatus and an image data display control program.
  • the ultrasonic diagnostic apparatus radiates an ultrasonic pulse generated from a vibration element provided in an ultrasonic probe into a subject, and receives an ultrasonic reflected wave generated by a difference in acoustic impedance of the subject tissue by the vibration element. It is widely used for morphological diagnosis and functional diagnosis of various organs because it enables real-time display of image data with a simple operation by simply bringing an ultrasonic probe into contact with the body surface. .
  • a method for mechanically moving an ultrasonic probe in which a plurality of vibration elements are arranged one-dimensionally or a method using an ultrasonic probe in which a plurality of vibration elements are arranged in a two-dimensional manner is used for a diagnosis target region of a subject.
  • 3D scanning and using 3D data (volume data) collected by this 3D scanning to generate 3D image data, MPR (Multi-Planar Reconstruction) image data, etc. Treatment is possible.
  • the observer's viewpoint and line-of-sight direction are virtually set in the luminal organ of the volume data obtained by the three-dimensional scanning of the subject, and the inner surface of the luminal organ observed from this viewpoint is virtually visualized.
  • a method of observing as mirror (fly-through) image data has been proposed (see, for example, Patent Document 1).
  • the degree of invasiveness to the subject at the time of examination is greatly reduced.
  • High-precision inspection that was impossible with conventional endoscopy because the viewpoint and line-of-sight direction can be arbitrarily set even for luminal organs such as thin digestive tracts and blood vessels where it is difficult to insert a scope. Can be performed safely and efficiently.
  • an object of the present invention is to move the position of an ultrasound probe when generating virtual endoscopic image data based on volume data collected from a subject.
  • an object of the present invention is to provide an ultrasonic diagnostic apparatus and an image data display control program capable of always observing virtual endoscopic image data from a suitable direction.
  • An ultrasonic diagnostic apparatus generates a virtual endoscopic image data of a luminal organ based on volume data collected by three-dimensional scanning of a subject.
  • a reference point detecting means for detecting a reference point; a viewpoint / line-of-sight direction setting means for setting a viewpoint and a line-of-sight direction based on the reference point; and processing the volume data based on the viewpoint and the line-of-sight direction to process the virtual data
  • Virtual endoscopic image data generating means for generating endoscopic image data, and a display hand for displaying the generated virtual endoscopic image data It is characterized by comprising and.
  • the image data display control program provides the volume data to the ultrasonic diagnostic apparatus that generates virtual endoscopic image data of a luminal organ based on volume data collected by three-dimensional scanning of a subject.
  • a region-of-interest setting function for setting a three-dimensional region of interest with respect to the volume
  • a core-line setting function for setting a core line of the luminal organ in the volume data based on the volume data, a reference plane of the three-dimensional region of interest, and the A reference point detection function for detecting a reference point where the core line intersects
  • a viewpoint / line-of-sight direction setting function for setting a viewpoint and a line-of-sight direction based on the reference point
  • the volume data based on the viewpoint and the line-of-sight direction
  • a virtual endoscopic image data generation function for processing and generating the virtual endoscopic image data, and the generated virtual endoscopic image data It is characterized in that to perform the display function of displaying the data.
  • FIG. 1 is a block diagram showing the overall configuration of an ultrasonic diagnostic apparatus according to an embodiment of the present invention.
  • the block diagram which shows the specific structure of the transmission / reception part and reception signal processing part with which the ultrasonic diagnosing device of the Example is provided.
  • the block diagram which shows the specific structure of the volume data generation part with which the ultrasonic diagnosing device of the Example is provided.
  • the ultrasonic diagnostic apparatus first extracts the contour of the luminal organ in the volume data collected by the three-dimensional scan on the subject, and sets the core line of the luminal organ based on the contour information.
  • a three-dimensional region of interest having a predetermined size is set for the volume data, and a reference point where the reference plane in the three-dimensional region of interest intersects the core line is detected.
  • a viewpoint is set in the tangential direction of the core line at the reference point, and a line-of-sight direction is set from the viewpoint toward the reference point.
  • the volume data is rendered to generate virtual endoscope image data and displayed on the monitor of the display unit.
  • volume data is generated based on three-dimensional B-mode data collected by a so-called two-dimensional array ultrasonic probe in which a plurality of vibration elements are two-dimensionally arranged
  • it may be volume data collected by mechanically moving an ultrasonic probe in which vibration elements are arranged one-dimensionally.
  • volume data based on other ultrasonic data such as color Doppler data may be used instead of the B mode data.
  • the three-dimensional scanning described below includes so-called 4D scanning that scans a three-dimensional space in real time. Also, by performing this 4D scanning while moving the ultrasonic probe on the patient's body surface, a three-dimensional image that changes in real time in space and time can be obtained.
  • FIG. 1 is a block diagram showing the overall configuration of the ultrasonic diagnostic apparatus
  • FIGS. 2 and 4 are specific examples of a transmission / reception unit / reception signal processing unit and a volume data generation unit included in the ultrasonic diagnostic apparatus. It is a block diagram which shows a structure.
  • the ultrasonic diagnostic apparatus 100 of the present embodiment shown in FIG. 1 transmits ultrasonic pulses (transmitted ultrasonic waves) to a three-dimensional region including a luminal organ of a subject, and the ultrasonic reflection obtained from the subject.
  • An ultrasonic probe 3 having a plurality of vibration elements that convert a wave (reception ultrasonic wave) into an electrical signal (reception signal) and a drive signal for transmitting an ultrasonic pulse in a predetermined direction of the subject
  • a transmission / reception unit 2 for phasing and adding reception signals of a plurality of channels obtained from these vibration elements supplied to the elements, and reception for generating B-mode data as ultrasonic data by performing signal processing on the reception signals after phasing addition
  • Volume data generation for generating three-dimensional data (volume data) by arranging the B-mode data obtained by the signal processing unit 4 and three-dimensional scanning of the subject in correspondence with the ultrasonic transmission / reception direction It is equipped with a 5.
  • the ultrasonic diagnostic apparatus 100 extracts the contour of the luminal organ in the volume data based on the voxel value of the volume data, and the tube based on the obtained contour information of the luminal organ.
  • a reference point detector 9 for detecting an intersection (hereinafter referred to as a reference point) between a reference plane of the region and the core line, and a viewpoint and a line of sight necessary for generating virtual endoscope image data based on the reference point
  • the ultrasonic diagnostic apparatus 100 extracts a cross-section setting unit 12 that sets a cross-section including the reference point and perpendicular to the core line for the volume data, and extracts the voxels of the volume data in the cross-section.
  • a cross-sectional image data generation unit 13 that generates cross-sectional image data indicating a cross-section of a luminal organ
  • a three-dimensional image data generation unit 14 that renders the volume data to generate three-dimensional image data
  • a display unit 15 for displaying virtual endoscopic image data, cross-sectional image data, three-dimensional image data, and the like, and an input unit 16 for inputting subject information, setting volume data generation conditions, inputting various command signals, etc.
  • the scanning control unit 17 that controls the ultrasonic transmission / reception direction in the three-dimensional scanning, and the system control unit 18 that comprehensively controls each unit described above. It is provided.
  • the ultrasonic probe 3 has M oscillating elements (not shown) arranged two-dimensionally at its distal end, and transmits and receives ultrasonic waves by bringing the distal end into contact with the body surface of the subject.
  • the vibration element is an electroacoustic transducer that converts electrical pulses (driving signals) into ultrasonic pulses (transmitting ultrasonic waves) during transmission, and converts ultrasonic reflected waves (receiving ultrasonic waves) into electrical reception signals during reception. It has a function to do.
  • Each of these vibration elements is connected to the transmission / reception unit 2 via an M channel multi-core cable (not shown).
  • volume data is collected using the sector scanning ultrasonic probe 3 in which M vibrating elements are two-dimensionally arranged.
  • ultrasonic waves corresponding to linear scanning, convex scanning, and the like are described.
  • a probe may be used.
  • the transmission / reception unit 2 illustrated in FIG. 2 includes a transmission unit 21 that supplies a drive signal to the vibration element of the ultrasonic probe 3 and a reception unit that performs phasing addition on the reception signal obtained from the vibration element. 22 is provided.
  • the transmission unit 21 includes a rate pulse generator 211, a transmission delay circuit 212, and a drive circuit 213.
  • the rate pulse generator 211 generates a rate pulse that determines the repetition period of the transmission ultrasonic wave and supplies the generated rate pulse to the transmission delay circuit 212.
  • the transmission delay circuit 212 includes the same number of independent delay circuits as the Mt number of vibration elements used for transmission, and includes a focusing delay time and a predetermined direction ( ⁇ xp) for focusing the transmission ultrasonic wave to a predetermined depth. , ⁇ yq), a deflection delay time for transmission to the rate pulse is supplied to the drive circuit 213.
  • the drive circuit 213 has the same number of independent drive circuits as the transmission delay circuit 212, and Mt vibration elements selected for transmission from the M vibration elements arranged two-dimensionally by the ultrasonic probe 3. Is driven by a drive signal generated based on the rate pulse to radiate transmission ultrasonic waves into the subject.
  • the reception unit 22 includes an A / D converter 221 and a reception delay circuit for the Mr channel corresponding to the Mr vibration elements selected for reception among the M vibration elements incorporated in the ultrasonic probe 3. 222 and an adder 223, the Mr channel received signal supplied from the receiving vibration element is converted into a digital signal by the A / D converter 221 and sent to the reception delay circuit 222.
  • the reception delay circuit 222 calculates a focusing delay time for focusing the received ultrasonic wave from a predetermined depth and a deflection delay time for setting the reception directivity with respect to the direction ( ⁇ xp, ⁇ yq).
  • An adder 223 adds and synthesizes the reception signal from the reception delay circuit 222 to each of the Mr channel reception signals output from the D converter 221. That is, the reception signal obtained from the direction ( ⁇ xp, ⁇ yq) is phased and added by the reception delay circuit 222 and the adder 223.
  • the reception delay circuit 222 and the adder 223 of the reception unit 22 enable so-called parallel simultaneous reception by simultaneously forming reception directivities in a plurality of directions by controlling the delay time. The time required for dimensional scanning is greatly reduced.
  • a part of the transmission unit 21 and the reception unit 22 included in the transmission / reception unit 2 may be provided inside the ultrasonic probe 3.
  • FIGS. 3A and 3B show ultrasonic transmission / reception directions ( ⁇ xp, ⁇ yq) in an orthogonal coordinate system [x, y, z] in which the central axis of the ultrasonic probe 3 is the z-axis. It is.
  • the vibration elements 31 are two-dimensionally arranged in the x-axis direction and the y-axis direction, and ⁇ xp and ⁇ yq are ultrasonic transmission / reception directions projected on the xz plane and the yz plane. The angle with respect to the z-axis is shown.
  • the delay times in the transmission delay circuit 212 of the transmission unit 21 and the reception delay circuit 222 of the reception unit 22 are controlled in accordance with the scanning control signal supplied from the scanning control unit 17, and the diagnosis target region (lumen organ) of the subject is determined.
  • the reception signal processing unit 4 has a function of generating B-mode data as ultrasonic data by performing signal processing on the reception signal after the phasing addition output from the adder 223 of the reception unit 22.
  • an envelope detector 41 for detecting the received signal by envelope detection and a logarithmic converter 42 for logarithmically converting the received signal after envelope detection.
  • the envelope detector 41 and the logarithmic converter 42 may be configured by changing their order.
  • the volume data generation unit 5 includes an ultrasonic data storage unit 51, an interpolation processing unit 52, and a volume data storage unit 53.
  • a plurality of ultrasonic data (B-mode data) generated by the reception signal processing unit 4 based on the reception signal obtained by the three-dimensional scanning on the subject is supplied from the system control unit 18 to the ultrasonic data storage unit 51.
  • the information of the ultrasonic transmission / reception directions ( ⁇ xp, ⁇ yq) is sequentially stored as supplementary information.
  • the interpolation processing unit 52 forms three-dimensional ultrasonic data by arranging a plurality of ultrasonic data read from the ultrasonic data storage unit 51 in correspondence with the ultrasonic transmission / reception directions ( ⁇ xp, ⁇ yq), and Then, volume data composed of isotropic voxels is generated by interpolating unequally spaced voxels constituting the three-dimensional ultrasonic data.
  • the obtained volume data is stored in the volume data storage unit 53.
  • the contour extracting unit 6 in FIG. 1 extracts the contour of the inner wall or outer wall of the luminal organ of the volume data based on the spatial change amount of the voxel value of the volume data. For example, spatial differentiation processing and integration processing are performed on the volume data, subtraction processing between the volume data subjected to differentiation processing and volume data subjected to integration processing, or volume data before differentiation processing and that after differentiation processing.
  • the contour extraction of the luminal organ can be performed by the subtraction processing with the volume data or the like, it is not limited to these methods.
  • the core line setting unit 7 has a function of setting the core line of the luminal organ based on the contour data of the luminal organ extracted by the contour extraction unit 6.
  • a plurality of unit vectors are generated in all three-dimensional angle directions with reference to the origin in the luminal organ of volume data set based on the three-dimensional image data, and from these unit vectors to the contour of the luminal organ A unit vector in the direction that maximizes the distance is selected as a search vector.
  • a centroid position of a luminal organ cross section orthogonal to the search vector is calculated, and a search vector whose direction is corrected so that an intersection position of the search vector and the luminal organ cross section coincides with the centroid position is obtained.
  • a new setting is made at the position of the center of gravity.
  • the above procedure is repeated using the corrected search vector, and at this time, the core line of the luminal organ is set by connecting a plurality of barycentric positions formed in the traveling direction of the luminal organ.
  • the setting of the core wire for the luminal organ is not limited to the above-described method, and for example, a method described in JP 2004-283373 A may be applied.
  • the region-of-interest setting unit 8 has a function of automatically setting a three-dimensional region of interest for volume data collected by three-dimensional scanning on the subject.
  • FIGS. 5 (a) to 5 (c) show the volume data Vd collected from the subject and the three-dimensional region of interest Ri set for the volume data, as already described.
  • the region-of-interest setting unit 8 determines the x-direction region ⁇ xb and the y-direction region ⁇ yb (however, based on the volume data generation conditions supplied from the input unit 16 via the system control unit 18). , ⁇ xb ⁇ ⁇ xa, ⁇ yb ⁇ ⁇ ya), a three-dimensional region of interest Ri is set.
  • the area ⁇ xb and the area ⁇ yb described above may be set based on the size of the volume data so that, for example, ⁇ xb / ⁇ xa and ⁇ yb / ⁇ ya have predetermined values. It may be set to a predetermined size regardless.
  • the reference point detection unit 9 detects a reference point where the reference plane of the three-dimensional region of interest designated by the input unit 16 intersects the core line of the luminal organ set by the core line setting unit 7. .
  • the viewpoint / line-of-sight direction setting unit 10 is a viewpoint necessary for generating virtual endoscopic image data based on the reference point on the reference plane detected by the reference point detection unit 9 and the tangent of the core line at the reference point. And the line-of-sight direction.
  • the tangent direction at the reference point of the core line set by the core line setting unit 7 is detected, and the viewpoint is located at a position away from the reference point by a predetermined distance in this tangential direction, and further the line of sight from this viewpoint to the reference point Set the direction for each.
  • the region-of-interest setting unit 8 has a predetermined size (that is, the region ⁇ xb and the region) with respect to the volume data Vd collected by the three-dimensional scanning of the subject.
  • ⁇ yb is set as the three-dimensional region of interest Ri
  • the core line setting unit 7 sets the core line Lc based on the contour information Ct of the luminal organ in the volume data Vd.
  • the reference point detection unit 9 described above detects a reference point Po where the reference surface S of the three-dimensional region of interest Ri and the core line Lc intersect.
  • the viewpoint / line-of-sight direction setting unit 10 detects the tangential direction of the core line Lc at the reference point Po, and sets the viewpoint Pv at a position away from the reference point Po in the tangential direction by the distance R, and from the viewpoint Pv.
  • a line-of-sight direction Dv is set toward the reference point Po.
  • the virtual endoscopic image data generation unit 11 includes an arithmetic circuit and a storage circuit (not shown), and the storage circuit generates virtual endoscopic image data using volume data. Arithmetic processing programs are stored in advance. Then, the arithmetic circuit reads out the volume data of the subject stored in the volume data storage unit 53 of the volume data generation unit 5 and the arithmetic processing program stored in the storage circuit. The volume data is rendered based on the supplied three-dimensional region-of-interest information and the viewpoint / line-of-sight direction information supplied from the viewpoint / line-of-sight direction setting unit 10 to generate virtual endoscope image data.
  • FIG. 7 shows the image data generation region Rf of the virtual endoscope image data set for the volume data Vd.
  • the contact of the core line Lc at the reference point Po on the reference plane S is shown.
  • a viewpoint Pv and a line-of-sight direction Dv are set on the line, and a field range ⁇ x′m in the x ′ direction and a field range ⁇ y′m in the y ′ direction are set around the line-of-sight direction Dv.
  • the arithmetic circuit of the virtual endoscope image data generation unit 11 extracts the volume data of the image data generation region Rf included in the visual field range ⁇ x′m and the visual field range ⁇ y′m set in the volume data Vd, The obtained volume data is rendered based on the viewpoint Pv and the line-of-sight direction Dv to generate virtual endoscope image data.
  • the visual field range ⁇ x′m in the x ′ direction and the visual field range ⁇ y′m in the y ′ direction are set in the input unit 16 so that the contour Ct of the luminal organ on the reference plane S is included in the image data generation region Rf.
  • the cross-section setting unit 12 in FIG. 1 reads the volume data stored in the volume data storage unit 53 of the volume data generation unit 5 and is set at a position where the reference plane of the three-dimensional region of interest and the core line intersect.
  • a cross section including the reference point and perpendicular to the core line (that is, perpendicular to the tangential direction) is set for the volume data.
  • FIGS. 8A and 8B show the cross section Pm set for the volume data at this time.
  • the cross section Pm that includes the reference point Po at which the reference plane S of the three-dimensional region of interest Ri detected by the reference point detection unit 9 and the core line Lc intersect and is perpendicular to the core line Lc corresponds to the volume data. Is set.
  • the cross section Pm set at this time and the reference plane S of the three-dimensional region of interest Ri do not necessarily match.
  • the cross-sectional image data generation unit 13 in FIG. 1 extracts voxels of volume data located at or near the cross-section Pm set by the cross-section setting unit 12, and performs a filtering process on these voxels. And data processing such as interpolation processing is performed to generate cross-sectional image data indicating the cross-section of the hollow organ.
  • the three-dimensional image data generation unit 14 includes, for example, an opacity / color tone setting unit and a rendering processing unit (not shown), and the opacity / color tone setting unit is read from the volume data storage unit 53 of the volume data generation unit 5. The opacity and color tone are set based on the voxel value of the volume data.
  • the rendering processing unit renders the volume data described above based on the opacity and color tone set by the opacity / color tone setting unit, and generates three-dimensional image data such as volume rendering image data or surface rendering image data. Generate.
  • the three-dimensional image data generation unit 14 includes a data inversion unit (not shown) in addition to an opacity / tone setting unit and a rendering processing unit (not shown).
  • the data inversion unit inverts the voxel value of the volume data read from the volume data storage unit 53 of the volume data generation unit 5. For example, if the range of voxel values is 0 to 255, voxel value 0 is set to 255, voxel value 1 is set to 254, voxel value 2 is set to 253, ..., and voxel value 255 is set to 0, and so on. Set to invert voxel values.
  • the opacity and tone are set by the opacity / tone setting unit, and rendering processing is performed by the rendering processing unit to generate three-dimensional image data.
  • the three-dimensional image data in this case is the three-dimensional data of the lumen in which the lumen has high brightness.
  • These three-dimensional image data are obtained by rendering a three-dimensional image of the three-dimensional region of interest Ri including the luminal organ and its surrounding tissue. What is the virtual endoscopic image data and the cross-sectional image data described above? Separately generated.
  • the display unit 15 includes a display data generation unit 151, a data conversion unit 152, and a monitor 153.
  • the display data generation unit 151 sets the region of interest setting unit 8 in the 3D image data generated by the 3D image data generation unit 14.
  • the first display data for the purpose of designating the reference plane is generated by superimposing the information on the three-dimensional region of interest.
  • the display data generation unit 151 synthesizes the virtual endoscopic image data generated by the virtual endoscopic image data generation unit 11 and the cross-sectional image data generated by the cross-sectional image data generation unit 13 to obtain subject information and the like. Is added to generate second display data for the purpose of diagnosing the subject.
  • the data conversion unit 152 performs conversion processing such as display format conversion and D / A conversion on the first display data and the second display data generated by the display data generation unit 151 and displays them on the monitor 153. .
  • FIG. 9 shows a specific example of the second display data generated by the display data generation unit 151, and the reference point Po (that is, the line-of-sight direction Dv) and the cross-sectional image in the virtual endoscopic image data Ie.
  • the respective image data are synthesized so that the reference points Po in the data Im match, and additional information such as subject information and image data generation conditions (not shown) is added to the periphery of the image data.
  • the second display data includes the viewpoint Pv and the line-of-sight direction Dv in the cross-sectional image data Im indicating the cross-section of the luminal organ and the surrounding organs collected in a cross-section perpendicular to the core line including the reference point Po.
  • the input unit 16 of FIG. 1 includes an input device such as a display panel, a keyboard, a trackball, a mouse, a selection button, and an input button on the operation panel, and a reference plane specifying function 161 for specifying a reference plane of a three-dimensional region of interest;
  • a starting point setting function 162 for setting a starting point for the purpose of setting the core line in the luminal organ of the volume data is provided.
  • the scanning control unit 17 performs delay time control for sequentially transmitting and receiving ultrasonic waves to and from the three-dimensional region of the subject with respect to the transmission delay circuit 212 of the transmission unit 21 and the reception delay circuit 222 of the reception unit 22.
  • the system control unit 18 includes a CPU and a storage circuit (not shown), and the above-described various information input / set / designated by the input unit 16 is stored in the storage circuit. Then, the CPU comprehensively controls each unit of the ultrasonic image diagnostic apparatus 100 based on the various information described above, and generates and displays virtual endoscopic image data, three-dimensional image data, and cross-sectional image data. Do.
  • the operator of the ultrasound diagnostic apparatus 100 Prior to the ultrasound examination of the subject, the operator of the ultrasound diagnostic apparatus 100 inputs the subject information, sets the volume data generation condition, sets the three-dimensional image data generation condition, and the virtual endoscopic image at the input unit 16.
  • Setting of data generation conditions, setting of cross-sectional image data generation conditions, setting of visual field range ⁇ x′m and visual field range ⁇ y′m, setting of distance R between the reference point and the visual point, etc. are performed, and ultrasonic probe 3 is set as the subject. It arrange
  • the operator inputs an ultrasonic inspection start command at the input unit 16 (step S2 in FIG. 10), and this command signal is supplied to the system control unit 18. Then, collection of volume data for the diagnosis target region (luminal organ) of the subject is started.
  • the rate pulse generator 211 of the transmission unit 21 shown in FIG. 2 divides the reference signal supplied from the system control unit 18 to generate a rate pulse and supplies it to the transmission delay circuit 212.
  • the transmission delay circuit 212 uses, as the rate pulse, a focusing delay time for focusing the ultrasonic wave to a predetermined depth and a deflection delay time for transmitting the ultrasonic wave in the first transmission / reception direction ( ⁇ x1, ⁇ y1). This rate pulse is supplied to the Mt channel drive circuit 213.
  • the drive circuit 213 generates a drive signal based on the rate pulse supplied from the transmission delay circuit 212, and supplies this drive signal to the Mt transmission vibration elements in the ultrasonic probe 3 to enter the subject. Transmits ultrasonic waves.
  • a part of the transmitted ultrasonic wave is reflected by an organ boundary surface or tissue of a subject having different acoustic impedance, and is received by Mr receiving vibration elements provided in the ultrasonic probe 3. Converted to a typical received signal.
  • the received signal is converted into a digital signal by the A / D converter 221 of the receiving unit 22, and is further used for focusing for converging received ultrasonic waves from a predetermined depth in the Mr channel reception delay circuit 222.
  • the adder 223 After the delay time and the deflection delay time for setting a strong reception directivity with respect to the reception ultrasonic wave from the transmission / reception direction ( ⁇ x1, ⁇ y1) are given, the adder 223 performs phasing addition.
  • the envelope detector 41 and the logarithmic converter 42 of the received signal processing unit 4 to which the received signal after the phasing addition is supplied perform envelope detection and logarithmic conversion on the received signal as ultrasonic data.
  • B-mode data is generated, and the transmission / reception direction ( ⁇ x1, ⁇ y1) is stored as supplementary information in the ultrasonic data storage unit 51 of the volume data generation unit 5.
  • the scanning control unit 17 transmits the transmission delay circuit 212 and the reception unit 22 of the transmission unit 21 according to the instruction signal supplied from the system control unit 18.
  • the ultrasonic data obtained in these transmission / reception directions are also preserve
  • the obtained volume data is stored in the volume data storage unit 53 (step S3 in FIG. 10).
  • the three-dimensional image data generation unit 14 sets the opacity and color tone based on the voxel value of the volume data read from the volume data storage unit 53 of the volume data generation unit 5. Based on the opacity and color tone, the volume data is rendered to generate 3D image data (step S4 in FIG. 10).
  • the region-of-interest setting unit 8 receives volume data generation conditions supplied from the input unit 16 via the system control unit 18 and receives region sizes [ ⁇ xb, ⁇ yb] corresponding to the region size of the volume data (FIG. 3) is set. (Step S5 in FIG. 10). Then, the display data generation unit 151 of the display unit 15 superimposes the information of the three-dimensional region of interest supplied from the region-of-interest setting unit 8 on the three-dimensional image data supplied from the three-dimensional image data generation unit 14. Display data is generated and displayed on the monitor 153.
  • the operator who has observed the 3D image data (that is, the first display data) on which the 3D region-of-interest information is superimposed on the display unit 15 uses the input unit 16 to display the 3D image data.
  • the reference plane of the three-dimensional region of interest intersected by the hollow organ is designated, and a starting point for setting the core line is set inside the hollow organ (step S6 in FIG. 10).
  • the contour extraction unit 6 extracts the contour of the luminal organ based on the spatial change amount of the voxel value of the volume data read from the volume data storage unit 53 of the volume data generation unit 5 (step of FIG. 10).
  • the core wire setting unit 7 receives the position information of the starting point set in the input unit 16 via the system control unit 18, and searches based on the starting point set in the luminal organ of the volume data. Based on the vector, the core line of the luminal organ is set (step S8 in FIG. 10).
  • the reference point detection unit 9 detects a reference point where the reference plane of the three-dimensional region of interest designated by the input unit 16 intersects the core line of the luminal organ set by the core line setting unit 7 (FIG. 10).
  • the viewpoint / line-of-sight direction setting unit 10 is necessary for generating virtual endoscopic image data based on the reference point on the reference plane detected by the reference point detection unit 9 and the tangential direction of the core line at the reference point.
  • a proper viewpoint and line-of-sight direction are set (step S10 in FIG. 10).
  • the virtual endoscopic image data generation unit 11 reads the subject volume data stored in the volume data storage unit 53 of the volume data generation unit 5 and the arithmetic processing program stored in its own storage circuit.
  • Virtual endoscopic image data is obtained by rendering the volume data based on the information on the three-dimensional region of interest supplied from the region of interest setting unit 8 and the information on the viewpoint and line of sight supplied from the viewpoint / line-of-sight direction setting unit 10. Is generated (step S11 in FIG. 10).
  • the cross section setting unit 12 is stored in the volume data storage unit 53 of the volume data generation unit 5.
  • the volume data is read, and a cross section including the reference point and perpendicular to the core is set for the volume data (step S12 in FIG. 10).
  • the cross-sectional image data generation unit 13 extracts voxels of volume data located at or near the cross-section set by the cross-section setting unit 12, and performs data processing such as filtering processing and interpolation processing on these voxels. Processing is performed to generate cross-sectional image data indicating the cross-section of the hollow organ (step S13 in FIG. 10).
  • the display data generation unit 151 of the display unit 15 synthesizes the virtual endoscopic image data generated in the virtual endoscopic image data generation unit 11 and the cross-sectional image data generated in the cross-sectional image data generation unit 13. Further, additional information such as subject information is added to generate second display data. Then, a predetermined conversion process is performed on the obtained second display data and displayed on the monitor 153 (step S14 in FIG. 10).
  • the position of the ultrasonic probe 3 is determined. While sequentially updating on the body surface of the specimen (step S15 in FIG. 10), by repeating the above steps S3 to S14 (excluding step S6), a desired direction corresponding to the movement of the ultrasonic probe 3, that is, Virtual endoscopic image data generated from the tangential direction of the core line of the luminal organ can be observed in real time.
  • the volume data whose position is updated as the ultrasonic probe moves is updated. Even if the position of the ultrasonic probe moves, it is preferable to automatically set the viewpoint and the line-of-sight direction based on the intersection point of the reference plane of the three-dimensional region of interest set in FIG. Virtual endoscopic image data from the direction can always be observed in real time. For this reason, diagnostic accuracy and diagnostic efficiency are greatly improved.
  • the cross-sectional image data that includes the intersection of the reference plane and the core line and is perpendicular to the core line and the virtual endoscopic image data described above can be combined and displayed. Therefore, information around the luminal organ can be grasped at the same time, and the diagnostic accuracy can be further improved. For example, when diagnosing a tumor of a luminal organ, the tumor site inside the luminal organ can be observed from virtual endoscopic image data. Since the infiltration state can also be observed from the cross-sectional image data, the diagnostic accuracy is improved.
  • the second display is performed so that the reference point and the line-of-sight direction in the virtual endoscopic image data are always arranged at a predetermined position (for example, the central portion) of the monitor. Since data is generated, it is possible to stably observe virtual endoscopic image data from the line-of-sight direction without much influence of the moving ultrasonic probe, and therefore, the burden on the operator in the ultrasonic examination. Is reduced.
  • the Example of this invention is not limited to the above-mentioned Example, It can change and implement.
  • the tangent direction at the reference point of the core line set by the core line setting unit 7 is detected, and the viewpoint of the virtual endoscopic image data is set at a position away from the reference point in this tangential direction.
  • the viewpoint Pv may be set at a position separated by a predetermined distance in a direction inclined by a predetermined angle ⁇ from the tangential direction. Further, as shown in FIG.
  • a second reference point Po1 is set inside the luminal organ contour Ct indicated by a closed curve in the cross section set at the reference point Po, and this second reference point is set.
  • the viewpoint Pv may be set in an arbitrary direction and an arbitrary distance with respect to the point Po1.
  • the second reference point Po1 is not limited to the cross section, and may be set in an arbitrary direction and an arbitrary distance with the reference point Po as a reference.
  • the line of sight Pv is set outside the three-dimensional region of interest Ri.
  • the reference plane S that is, the reference point Po
  • the viewpoint Pv may be set inside.
  • the viewpoint Pv is set at a position that is a predetermined distance along the core line Lc from the reference point Po, and the line of sight is tangential to the core line Lc at the viewpoint Pv.
  • a method of setting the direction Dv is suitable, but is not particularly limited. In this case, it is not always necessary to generate the cross-sectional image data.
  • the three-dimensional region of interest in the above-described embodiment is automatically set based on the generation condition of the volume data
  • the operator who observes the three-dimensional image data displayed on the display unit 15 inputs You may set arbitrarily using the input device of the part 16.
  • the reference plane S may be provided inside the three-dimensional region of interest Ri instead of being provided on a specific outer peripheral surface of the three-dimensional region of interest Ri.
  • the reference surface S may be provided on the same surface as when performing two-dimensional scanning with an ultrasonic probe. In this case, even when the ultrasonic probe is moved, the reference plane S coincides with the two-dimensional cross-section that is conventionally used, so that the operator can easily grasp the position of the viewpoint and the line-of-sight direction intuitively.
  • the reference plane of the three-dimensional region of interest is described as being performed by an operator who has observed the three-dimensional image data on which the information of the three-dimensional region of interest is superimposed. It may be set prior to.
  • the second display data generated by combining the virtual endoscopic image data and the cross-sectional image data has been described.
  • the display data may not include cross-sectional image data as in the case where the viewpoint is set inside the three-dimensional region of interest.
  • the second display data has been described with respect to the case where the virtual endoscope image data or the virtual endoscope image data and the cross-sectional image data are generated.
  • FIG. May be added to generate the second display data.
  • the monitor 153 of the display unit 15 has virtual endoscopic image data (FIG. 12B) in which three-dimensional image data (FIG. 12A) and virtual endoscopic image data or cross-sectional image data are superimposed. )) are displayed in parallel.
  • volume data is generated based on three-dimensional B-mode data collected by a so-called two-dimensional array ultrasonic probe in which a plurality of vibration elements are two-dimensionally arranged, and this volume data is used.
  • the present invention is not limited to this, and for example, mechanically moving an ultrasonic probe in which vibration elements are arranged one-dimensionally is described.
  • the above-described image data may be generated using the volume data collected by the above.
  • volume data based on other ultrasonic data such as color Doppler data may be used instead of the B mode data.

Abstract

超音波診断装置100の芯線設定部7は、輪郭抽出部6が被検体に対する3次元走査によって収集されたボリュームデータを処理して抽出した管腔臓器の輪郭情報に基づいて該管腔臓器の芯線を設定し、基準点検出部9は、関心領域設定部8が前記ボリュームデータに対して設定した3次元関心領域の基準面と前記芯線とが交叉する基準点を検出する。次いで、視点・視線方向設定部10は、前記基準点における芯線の接線方向に視点を設定し、更に、この視点から前記基準点に向けて視線方向を設定する。そして、仮想内視鏡画像データ生成部11は、上述の視点及び視線方向に基づいた前記ボリュームデータのレンダリング処理によって仮想内視鏡画像データを生成し表示部15に表示する。

Description

超音波診断装置及び画像データ表示用制御プログラム
 本発明の実施形態は、超音波診断装置及び画像データ表示用制御プログラムに関する。
 超音波診断装置は、超音波プローブに設けられた振動素子から発生する超音波パルスを被検体内に放射し、被検体組織の音響インピーダンスの差異によって生ずる超音波反射波を前記振動素子により受信して生体情報を収集するものであり、超音波プローブを体表に接触させるだけの簡単な操作で画像データのリアルタイム表示が可能となるため、各種臓器の形態診断や機能診断に広く用いられている。
 特に、近年では、複数の振動素子が1次元配列された超音波プローブを機械的に移動させる方法や複数の振動素子が2次元配列された超音波プローブを用いる方法によって被検体の診断対象部位に対する3次元走査を行ない、この3次元走査にて収集される3次元データ(ボリュームデータ)を用いて3次元画像データやMPR(Multi-Planar Reconstruction)画像データ等を生成することにより更に高度な診断や治療が可能となっている。
 一方、被検体に対する3次元走査によって得られたボリュームデータの管腔臓器内に観察者の視点と視線方向を仮想的に設定し、この視点から観察される管腔臓器の内表面を仮想内視鏡(フライスルー)画像データとして観察する方法が提案されている(例えば、特許文献1参照。)。
 当該被検体の体外から収集されたボリュームデータに基づいて内視鏡的な画像データを生成する上述の方法によれば、検査時の被検体に対する侵襲度が大幅に低減され、更に、内視鏡スコープの挿入が困難な細い消化管や血管等の管腔臓器に対しても視点や視線方向を任意に設定することができるため、従来の内視鏡検査では不可能であった高精度の検査を安全且つ効率的に行なうことが可能となる。
特開2005-110973号公報
 超音波診断装置によって収集されたボリュームデータに上述の特許文献1に記載された方法を適用することにより、仮想内視鏡画像データのリアルタイム観察が可能となる。従来、仮想内視鏡画像データの生成に必要な視点や視線方向をボリュームデータに対して設定する際、このボリュームデータに対して任意に設定されたスライス断面にてMPR画像データを収集し、管腔臓器の縦断面が示されたMPR画像データに基づいて上述の視点及び視線方向を設定する方法が一般に行なわれてきた。しかしながら、超音波プローブを被検体の体表面上で移動させながら仮想内視鏡画像データの観察を連続的に行なう場合、超音波プローブの移動に伴って上述の煩雑な方法による視点及び視線方向の更新を繰り返す必要があり、従って、仮想内視鏡画像データのリアルタイム観察が困難になるという問題点を有していた。
 本発明は、上述の問題点に鑑みてなされたものであり、その目的は、被検体から収集したボリュームデータに基づいて仮想内視鏡画像データを生成する際、超音波プローブの位置が移動しても好適な方向からの仮想内視鏡画像データを常時観察することが可能な超音波診断装置及び画像データ表示用制御プログラムを提供することにある。
 実施形態の超音波診断装置は、被検体に対する3次元走査によって収集したボリュームデータに基づいて管腔臓器の仮想内視鏡画像データを生成する超音波診断装置において、前記ボリュームデータに対して3次元関心領域を設定する関心領域設定手段と、前記ボリュームデータに基づいてこのボリュームデータにおける前記管腔臓器の芯線を設定する芯線設定手段と、前記3次元関心領域の基準面と前記芯線とが交叉する基準点を検出する基準点検出手段と、前記基準点に基づいて視点及び視線方向を設定する視点・視線方向設定手段と、前記視点及び前記視線方向に基づいて前記ボリュームデータを処理し前記仮想内視鏡画像データを生成する仮想内視鏡画像データ生成手段と、生成された前記仮想内視鏡画像データを表示する表示手段とを備えたことを特徴としている。
 また、実施形態の画像データ表示用制御プログラムは、被検体に対する3次元走査によって収集したボリュームデータに基づいて管腔臓器の仮想内視鏡画像データを生成する超音波診断装置に対し、前記ボリュームデータに対して3次元関心領域を設定する関心領域設定機能と、前記ボリュームデータに基づいてこのボリュームデータにおける前記管腔臓器の芯線を設定する芯線設定機能と、前記3次元関心領域の基準面と前記芯線とが交叉する基準点を検出する基準点検出機能と、前記基準点に基づいて視点及び視線方向を設定する視点・視線方向設定機能と、前記視点及び前記視線方向に基づいて前記ボリュームデータを処理し前記仮想内視鏡画像データを生成する仮想内視鏡画像データ生成機能と、生成された前記仮想内視鏡画像データを表示する表示機能を実行させることを特徴としている。
本発明の実施例における超音波診断装置の全体構成を示すブロック図。 同実施例の超音波診断装置が備える送受信部及び受信信号処理部の具体的な構成を示すブロック図。 同実施例の超音波プローブが備える振動素子の配列方向と超音波送受信方向を説明するための図。 同実施例の超音波診断装置が備えるボリュームデータ生成部の具体的な構成を示すブロック図。 同実施例のボリュームデータ生成部が生成するボリュームデータと、このボリュームデータに対して関心領域設定部が設定する3次元関心領域を示す図。 同実施例の基準点検出部が3次元関心領域の基準面において検出する基準点と、この基準点に基づいて視点・視線方向設定部が設定する視点及び視線方向の具体例を示す図。 同実施例のボリュームデータに対して設定される仮想内視鏡画像データの生成領域を説明するための図。 同実施例の横面設定部によりボリュームデータに対して設定される横断面を示す図。 同実施例の表示部が仮想内視鏡画像データと横断面画像データとの合成によって生成する表示データの具体例を示す図。 同実施例における仮想内視鏡画像データの生成/表示手順を示すフローチャート。 同実施例の視点・視線方向設定部がボリュームデータに対して設定する視点及び視線方向の変形例を示す図。 同実施例の表示部が生成する第2の表示データの変形例を示す図。
 以下、図面を参照して本発明の実施例を説明する。
 本実施例における超音波診断装置は、先ず、被検体に対する3次元走査によって収集されたボリュームデータにおける管腔臓器の輪郭を抽出し、この輪郭情報に基づいて管腔臓器の芯線を設定する。又、前記ボリュームデータに対し所定サイズの3次元関心領域を設定し、この3次元関心領域における基準面と前記芯線とが交叉する基準点を検出する。次いで、前記基準点における芯線の接線方向に視点を設定し、更に、この視点から前記基準点に向けて視線方向を設定する。そして、上述の視点及び視線方向に基づき、前記ボリュームデータをレンダリング処理して仮想内視鏡画像データを生成し表示部のモニタに表示する。
 尚、以下の実施例では、複数の振動素子が2次元配列された、所謂2次元アレイ超音波プローブによって収集した3次元的なBモードデータに基づいてボリュームデータを生成する場合について述べるが、これに限定されるものではなく、例えば、振動素子が1次元配列された超音波プローブを機械的に移動させることによって収集したボリュームデータであってもよい。又、Bモードデータの替わりにカラードプラデータ等の他の超音波データに基づいたボリュームデータであっても構わない。
 また、以下に説明する3次元走査は、リアルタイムで3次元空間を走査する、所謂4D走査を含むものである。また、超音波プローブを患者の体表面上で移動させながらこの4D走査を行うことにより、空間的、かつ時間的にリアルタイムで変化する3次元画像を得ることができる。
(装置の構成)
 本実施例における超音波診断装置の構成につき図1乃至図9を用いて説明する。尚、図1は、超音波診断装置の全体構成を示すブロック図であり、図2及び図4は、この超音波診断装置が備える送受信部/受信信号処理部及びボリュームデータ生成部の具体的な構成を示すブロック図である。
 図1に示す本実施例の超音波診断装置100は、被検体の管腔臓器を含む3次元領域に対して超音波パルス(送信超音波)を送信し前記被検体から得られた超音波反射波(受信超音波)を電気信号(受信信号)に変換する複数の振動素子を備えた超音波プローブ3と、被検体の所定方向に対して超音波パルスを送信するための駆動信号を前記振動素子に供給しこれらの振動素子から得られる複数チャンネルの受信信号を整相加算する送受信部2と、整相加算後の受信信号を信号処理して超音波データとしてのBモードデータを生成する受信信号処理部4と、被検体に対する3次元走査によって得られたBモードデータを超音波送受信方向に対応させて配列することにより3次元データ(ボリュームデータ)を生成するボリュームデータ生成部5を備えている。
 又、超音波診断装置100は、上述のボリュームデータのボクセル値に基づいてこのボリュームデータにおける管腔臓器の輪郭を抽出する輪郭抽出部6と、得られた管腔臓器の輪郭情報に基づいて管腔臓器の中心軸(以下では、芯線と呼ぶ。)を設定する芯線設定部7と、前記ボリュームデータに対して所定サイズの3次元関心領域を設定する関心領域設定部8と、この3次元関心領域の基準面と前記芯線との交点(以下では、基準点と呼ぶ。)を検出する基準点検出部9と、この基準点に基づいて仮想内視鏡画像データの生成に必要な視点及び視線方向を設定する視点・視線方向設定部10と、ボリュームデータに対し上述の視点及び視線方向を基準とするレンダリング処理を行なって仮想内視鏡画像データを生成する仮想内視鏡画像データ生成部11を備えている。
 更に、超音波診断装置100は、上述の基準点を含み前記芯線に垂直な断面を前記ボリュームデータに対して設定する横断面設定部12と、この横断面における前記ボリュームデータのボクセルを抽出して管腔臓器の横断面を示す横断面画像データを生成する横断面画像データ生成部13と、前記ボリュームデータをレンダリング処理して3次元画像データを生成する3次元画像データ生成部14と、上述の仮想内視鏡画像データ、横断面画像データ及び3次元画像データ等を表示する表示部15と、被検体情報の入力、ボリュームデータ生成条件の設定、各種コマンド信号の入力等を行なう入力部16と、当該3次元走査における超音波送受信方向を制御する走査制御部17と、上述の各ユニットを統括的に制御するシステム制御部18を備えている。
 以下に、本実施例の超音波診断装置100が備える上述の各ユニットの構成と機能につき更に詳しく説明する。
 超音波プローブ3は、2次元配列されたM個の図示しない振動素子をその先端部に有し、前記先端部を被検体の体表に接触させて超音波の送受信を行なう。振動素子は電気音響変換素子であり、送信時には電気パルス(駆動信号)を超音波パルス(送信超音波)に変換し、受信時には超音波反射波(受信超音波)を電気的な受信信号に変換する機能を有している。そして、これら振動素子の各々は、図示しないMチャンネルの多芯ケーブルを介して送受信部2に接続されている。尚、本実施例では、M個の振動素子が2次元配列されたセクタ走査用の超音波プローブ3を用いてボリュームデータを収集する場合について述べるが、リニア走査やコンベックス走査等に対応した超音波プローブを用いても構わない。
 次に、図2に示す送受信部2は、超音波プローブ3の振動素子に対して駆動信号を供給する送信部21と、振動素子から得られた受信信号に対して整相加算を行なう受信部22を備えている。
 送信部21は、レートパルス発生器211、送信遅延回路212及び駆動回路213を備え、レートパルス発生器211は、送信超音波の繰り返し周期を決定するレートパルスを生成して送信遅延回路212へ供給する。送信遅延回路212は、送信に使用されるMt個の振動素子と同数の独立な遅延回路から構成され、送信超音波を所定の深さに集束するための集束用遅延時間と所定の方向(θxp、θyq)に送信するための偏向用遅延時間をレートパルスに与えて駆動回路213へ供給する。駆動回路213は、送信遅延回路212と同数の独立な駆動回路を有し、超音波プローブ3にて2次元配列されたM個の振動素子の中から送信用として選択されたMt個の振動素子を前記レートパルスに基づいて生成した駆動信号で駆動して被検体内に送信超音波を放射する。
 一方、受信部22は、超音波プローブ3に内蔵されたM個の振動素子の中から受信用として選択されたMr個の振動素子に対応するMrチャンネルのA/D変換器221及び受信遅延回路222と加算器223を備え、受信用振動素子から供給されるMrチャンネルの受信信号は、A/D変換器221にてデジタル信号に変換され、受信遅延回路222に送られる。
 受信遅延回路222は、所定の深さからの受信超音波を集束するための集束用遅延時間と、方向(θxp、θyq)に対して受信指向性を設定するための偏向用遅延時間をA/D変換器221から出力されたMrチャンネルの受信信号の各々に与え、加算器223は、受信遅延回路222からの受信信号を加算合成する。即ち、受信遅延回路222と加算器223により、方向(θxp、θyq)から得られた受信信号は整相加算される。又、受信部22の受信遅延回路222及び加算器223は、その遅延時間の制御によって複数方向に対する受信指向性を同時に形成する、所謂、並列同時受信を可能とし、並列同時受信法の適用により3次元走査に要する時間は大幅に短縮される。尚、上述の送受信部2が備える送信部21及び受信部22の一部は、超音波プローブ3の内部に設けられていても構わない。
 図3(a)、及び図3(b)は、超音波プローブ3の中心軸をz軸とした直交座標系[x、y、z]における超音波送受信方向(θxp、θyq)を示したものである。振動素子31は、図3(c)に示すように、x軸方向及びy軸方向に2次元配列され、θxp及びθyqは、x-z平面及びy-z平面に投影された超音波送受信方向のz軸に対する角度を示している。そして、走査制御部17から供給される走査制御信号に従って送信部21の送信遅延回路212及び受信部22の受信遅延回路222における遅延時間が制御され、被検体の診断対象部位(管腔臓器)を含む3次元領域の方向(θxp、θyq)(θxp=θx1+(p-1)Δθx(p=1~P)、θyq=θy1+(q-1)Δθy(q=1~Q))に対し超音波送受信が順次行なわれる。
 図2へ戻って、受信信号処理部4は、受信部22の加算器223から出力される整相加算後の受信信号を信号処理することにより超音波データとしてのBモードデータを生成する機能を有し、前記受信信号を包絡線検波する包絡線検波器41と、包絡線検波後の受信信号を対数変換する対数変換器42を備えている。但し、包絡線検波器41と対数変換器42は順序を入れ替えて構成してもよい。
 次に、図1に示したボリュームデータ生成部5の具体的な構成につき図4を用いて説明する。このボリュームデータ生成部5は、超音波データ記憶部51、補間処理部52及びボリュームデータ記憶部53を備えている。
 超音波データ記憶部51には、当該被検体に対する3次元走査によって得られた受信信号に基づいて受信信号処理部4が生成した複数の超音波データ(Bモードデータ)がシステム制御部18から供給される超音波送受信方向(θxp、θyq)の情報を付帯情報として順次保存される。一方、補間処理部52は、超音波データ記憶部51から読み出した複数の超音波データを超音波送受信方向(θxp、θyq)に対応させて配列することにより3次元超音波データを形成し、更に、この3次元超音波データを構成する不等間隔のボクセルを補間処理して等方的なボクセルで構成されるボリュームデータを生成する。そして、得られたボリュームデータは、ボリュームデータ記憶部53に保存される。
 一方、図1の輪郭抽出部6は、前記ボリュームデータのボクセル値の空間的な変化量に基づいて、ボリュームデータの管腔臓器における内壁あるいは外壁の輪郭を抽出する。例えば、前記ボリュームデータに対して空間的な微分処理と積分処理を行ない、微分処理されたボリュームデータと積分処理されたボリュームデータとの減算処理、あるいは、微分処理前のボリュームデータと微分処理後のボリュームデータとの減算処理等により管腔臓器の輪郭抽出が可能となるが、これらの方法に限定されない。
 一方、芯線設定部7は、輪郭抽出部6によって抽出された管腔臓器の輪郭データに基づいてこの管腔臓器の芯線を設定する機能を有し、例えば、表示部15に表示される後述の3次元画像データに基づいて設定されたボリュームデータの管腔臓器内における起点を基準として3次元の全角度方向に複数の単位ベクトルを発生させ、これらの単位ベクトルの中から管腔臓器の輪郭までの距離が最大となる方向の単位ベクトルを探索ベクトルとして選定する。
 次いで、この探索ベクトルに直交する管腔臓器断面の重心位置を算出し、前記探索ベクトルと前記管腔臓器断面との交差位置が前記重心位置と一致するようにその方向が補正された探索ベクトルを前記重心位置において新たに設定する。そして、補正後の探索ベクトルを用いて上述の手順を繰り返し、このとき、管腔臓器の走行方向に形成される複数の重心位置を連結することにより管腔臓器の芯線を設定する。但し、管腔臓器に対する芯線の設定は、上述の方法に限定されるものではなく、例えば、特開2004-283373号公報等に記載された方法を適用しても構わない。
 次に、関心領域設定部8は、被検体に対する3次元走査によって収集されたボリュームデータに対して3次元関心領域を自動設定する機能を有している。図5(a)-図5(c)は、当該被検体から収集されたボリュームデータVdと、このボリュームデータに対して設定された3次元関心領域Riを示したものであり、既に述べたように、ボリュームデータVdは、x方向の走査領域θxa(θxa=(P-1)Δθx)及びy方向の走査領域θya(θya=(Q-1)Δθy)において収集される。
 このようなボリュームデータVdに対し関心領域設定部8は、入力部16からシステム制御部18を介して供給されるボリュームデータの生成条件に基づいてx方向の領域θxb及びy方向の領域θyb(但し、θxb≦θxa、θyb≦θya)に対し3次元関心領域Riを設定する。尚、上述の領域θxb及び領域θybは、例えば、θxb/θxaやθyb/θyaが所定の値になるようにボリュームデータの大きさに基づいて設定してもよく、又、ボリュームデータの大きさに関係無く所定の大きさに設定しても構わない。
 図1へ戻って、基準点検出部9は、入力部16によって指定された3次元関心領域の基準面と芯線設定部7によって設定された管腔臓器の芯線とが交叉する基準点を検出する。一方、視点・視線方向設定部10は、基準点検出部9によって検出された基準面上の基準点とこの基準点における芯線の接線とに基づいて仮想内視鏡画像データの生成に必要な視点及び視線方向を設定する。具体的には、芯線設定部7によって設定された芯線の基準点における接線方向を検出し、この接線方向において基準点から所定距離だけ離れた位置に視点を、更に、この視点から基準点へ視線方向を夫々設定する。
 次に、基準点検出部9によって検出される基準点と、視点・視線方向設定部10によって設定される視点及び視線方向の具体例につき図6(a)及び図6(b)を用いて更に詳しく説明する。図5(a)-図5(c)において既に述べたように、関心領域設定部8は、当該被検体に対する3次元走査によって収集されたボリュームデータVdに対し所定サイズ(即ち、領域θxb及び領域θyb)の3次元関心領域Riを設定し、芯線設定部7は、前記ボリュームデータVdにおける管腔臓器の輪郭情報Ctに基づいて芯線Lcを設定する。次いで、上述の基準点検出部9は、3次元関心領域Riの基準面Sと芯線Lcとが交叉する基準点Poを検出する。そして、視点・視線方向設定部10は、この基準点Poにおける芯線Lcの接線方向を検出し、この接線方向において基準点Poから距離Rだけ離れた位置に視点Pvを、又、この視点Pvから基準点Poに向って視線方向Dvを夫々設定する。
 再び図1へ戻って、仮想内視鏡画像データ生成部11は、図示しない演算回路と記憶回路を備え、前記記憶回路には、ボリュームデータを用いて仮想内視鏡画像データを生成するための演算処理プログラムが予め保管されている。そして、前記演算回路は、ボリュームデータ生成部5のボリュームデータ記憶部53に保存されている当該被検体のボリュームデータと前記記憶回路に保管されている演算処理プログラムを読み出し、関心領域設定部8から供給される3次元関心領域情報と視点・視線方向設定部10から供給される視点及び視線方向の情報に基づいて前記ボリュームデータをレンダリング処理し仮想内視鏡画像データを生成する。
 図7は、ボリュームデータVdに対して設定される仮想内視鏡画像データの画像データ生成領域Rfを示したものであり、上述のように、基準面S上の基準点Poにおける芯線Lcの接線上に視点Pvと視線方向Dvが設定され、更に、視線方向Dvを中心としてx’方向の視野範囲φx’m及びy’方向の視野範囲φy’mが設定される。そして、仮想内視鏡画像データ生成部11の演算回路は、ボリュームデータVdに設定された視野範囲φx’m及び視野範囲φy’mに含まれる画像データ生成領域Rfのボリュームデータを抽出し、得られたボリュームデータを視点Pv及び視線方向Dvに基づいてレンダリング処理し仮想内視鏡画像データを生成する。この場合、基準面Sにおける管腔臓器の輪郭Ctが画像データ生成領域Rfに含まれるようにx’方向の視野範囲φx’m及びy’方向の視野範囲φy’mが入力部16において設定される。
 この場合、視点Pvから基準点Poまでの距離を長く設定した場合には、平行投影の仮想内視鏡画像データが生成され、上述の距離を短く設定した場合には、遠近感を有する透視投影の仮想内視鏡画像データが生成される。
 一方、図1の横断面設定部12は、ボリュームデータ生成部5のボリュームデータ記憶部53に保存されているボリュームデータを読み出し、3次元関心領域の基準平面と芯線とが交叉する位置に設定された基準点を含み、芯線に対して垂直(即ち、上述の接線方向に対して垂直)な横断面を上述のボリュームデータに対して設定する。図8(a)及び図8(b)は、このときボリュームデータに対して設定される横断面Pmを示したものである。上述のように、基準点検出部9が検出した3次元関心領域Riの基準面Sと芯線Lcとが交叉する基準点Poを含み芯線Lcに対して垂直な横断面Pmがボリュームデータに対して設定される。このとき設定される横断面Pmと3次元関心領域Riの基準面Sとは、図8(a)から分かるように、必ずしも一致しない。
 次に、図1の横断面画像データ生成部13は、横断面設定部12によって設定された横断面Pm、あるいはその近傍に位置するボリュームデータのボクセルを抽出し、これらのボクセルに対してフィルタリング処理や補間処理等のデータ処理を行なって管腔臓器の横断面を示す横断面画像データを生成する。
 一方、3次元画像データ生成部14は、例えば、図示しない不透明度・色調設定部及びレンダリング処理部を備え、前記不透明度・色調設定部は、ボリュームデータ生成部5のボリュームデータ記憶部53から読み出したボリュームデータのボクセル値に基づいて不透明度や色調を設定する。一方、前記レンダリング処理部は、上述のボリュームデータを前記不透明度・色調設定部が設定した不透明度や色調に基づいてレンダリング処理し、ボリュームレンダリング画像データあるいはサーフェスレンダリング画像データ等の3次元画像データを生成する。また、例えば、3次元画像データ生成部14は、図示しない不透明度・色調設定部及びレンダリング処理部の他に、図示しないデータ反転部を備える。このデータ反転部は、ボリュームデータ生成部5のボリュームデータ記憶部53から読み出したボリュームデータのボクセル値を反転する。例えば、ボクセル値の範囲が0~255であったとすると、ボクセル値0を255に、ボクセル値1を254に、ボクセル値2を253に、・・・、ボクセル値255を0に、というふうに設定してボクセル値を反転する。この反転されたボクセル値に基づいて上記と同様に、不透明度・色調設定部で不透明度や色調を設定し、レンダリング処理部でレンダリング処理を行って3次元画像データを生成する。この場合の3次元画像データは、管腔が高輝度になった管腔の3次元データとなる。これらの3次元画像データは、管腔臓器を含む3次元関心領域Ri、およびその周辺組織の3次元画像をレンダリング処理したものであり、前述した仮想内視鏡画像データおよび横断面画像データとは別に独立に生成されるものである。
 表示部15は、表示データ生成部151、データ変換部152及びモニタ153を備え、表示データ生成部151は、3次元画像データ生成部14が生成した3次元画像データに関心領域設定部8が設定した3次元関心領域の情報を重畳して基準面の指定を目的とした第1の表示データを生成する。更に、表示データ生成部151は、仮想内視鏡画像データ生成部11が生成した仮想内視鏡画像データと横断面画像データ生成部13が生成した横断面画像データを合成し、被検体情報等の付帯情報を付加して当該被検体の診断を目的とした第2の表示データを生成する。そして、データ変換部152は、表示データ生成部151によって生成された第1の表示データ及び第2の表示データに対し表示フォーマット変換やD/A変換等の変換処理を行なってモニタ153に表示する。
 図9は、表示データ生成部151において生成される第2の表示データの具体例を示したものであり、仮想内視鏡画像データIeにおける基準点Po(即ち、視線方向Dv)と横断面画像データImにおける基準点Poが一致するように夫々の画像データが合成され、その周囲には図示しない被検体情報や画像データ生成条件等の付帯情報が付加される。即ち、第2の表示データは、基準点Poを含み芯線に垂直な横断面にて収集された管腔臓器及びその周辺臓器の横断面を示す横断面画像データImに、視点Pv及び視線方向Dvを基準としx’方向の視野範囲φx’m及びy’方向の視野範囲φy’mにて収集された当該管腔臓器の内壁面を示す仮想内視鏡画像データIeを重畳して生成される。この場合、超音波プローブ3の移動に関わらず、基準点Poは、常にモニタ153の中央部に表示されるように表示データの生成が行なわれる。
 図1の入力部16は、操作パネル上に表示パネルやキーボード、トラックボール、マウス、選択ボタン、入力ボタン等の入力デバイスを備え、3次元関心領域の基準面を指定する基準面指定機能161及びボリュームデータの管腔臓器内に芯線の設定を目的とした起点を設定する起点設定機能162を備えている。更に、被検体情報の入力、ボリュームデータ生成条件の設定、3次元画像データ生成条件、仮想内視鏡画像データ生成条件及び横断面画像データ生成条件の設定、基準点と視点との距離Rの設定、視野範囲φx’m及び視野範囲φy’mの設定、各種コマンド信号の入力等も上述の表示パネルや入力デバイスを用いて行なわれる。
 走査制御部17は、当該被検体の3次元領域に対し超音波の送受信を順次行なうための遅延時間制御を送信部21の送信遅延回路212及び受信部22の受信遅延回路222に対して行なう。一方、システム制御部18は、図示しないCPUと記憶回路を備え、前記記憶回路には、入力部16において入力/設定/指定された上述の各種情報が保存される。そして、前記CPUは、上述の各種情報に基づいて超音波画像診断装置100の各ユニットを統括的に制御し、仮想内視鏡画像データ、3次元画像データ及び横断面画像データの生成と表示を行なう。
(仮想内視鏡画像データの生成/表示手順)
 次に、本実施例における仮想内視鏡画像データの生成/表示手順につき図10のフローチャートに沿って説明する。
 当該被検体の超音波検査に先立ち超音波診断装置100の操作者は、入力部16において被検体情報の入力、ボリュームデータ生成条件の設定、3次元画像データ生成条件の設定、仮想内視鏡画像データ生成条件の設定、横断面画像データ生成条件の設定、視野範囲φx’m及び視野範囲φy’mの設定、基準点と視点との距離Rの設定等を行ない、超音波プローブ3を被検体体表面の好適な位置に配置する(図10のステップS1)。
 上述の初期設定が終了したならば、操作者は、入力部16にて超音波検査の開始コマンドを入力し(図10のステップS2)、このコマンド信号がシステム制御部18に供給されることにより、被検体の診断対象部位(管腔臓器)に対するボリュームデータの収集が開始される。
 即ち、図2に示した送信部21のレートパルス発生器211は、システム制御部18から供給される基準信号を分周してレートパルスを生成し送信遅延回路212に供給する。送信遅延回路212は、所定の深さに超音波を集束するための集束用遅延時間と、最初の送受信方向(θx1、θy1)に超音波を送信するための偏向用遅延時間を前記レートパルスに与え、このレートパルスをMtチャンネルの駆動回路213に供給する。次いで、駆動回路213は、送信遅延回路212から供給されたレートパルスに基づいて駆動信号を生成し、この駆動信号を超音波プローブ3におけるMt個の送信用振動素子に供給して被検体内に送信超音波を放射する。
 放射された送信超音波の一部は、音響インピーダンスの異なる被検体の臓器境界面や組織にて反射し、超音波プローブ3に設けられたMr個の受信用振動素子によって受信されMrチャンネルの電気的な受信信号に変換される。次いで、この受信信号は、受信部22のA/D変換器221においてデジタル信号に変換され、更に、Mrチャンネルの受信遅延回路222において所定の深さからの受信超音波を収束するための集束用遅延時間と送受信方向(θx1、θy1)からの受信超音波に対し強い受信指向性を設定するための偏向用遅延時間が与えられた後加算器223にて整相加算される。
 そして、整相加算後の受信信号が供給された受信信号処理部4の包絡線検波器41及び対数変換器42は、この受信信号に対して包絡線検波と対数変換を行なって超音波データとしてのBモードデータを生成し、ボリュームデータ生成部5の超音波データ記憶部51に送受信方向(θx1、θy1)を付帯情報として保存する。
 送受信方向(θx1、θy1)における超音波データの生成と保存が終了したならば、走査制御部17は、システム制御部18から供給される指示信号に従い送信部21の送信遅延回路212及び受信部22の受信遅延回路222における遅延時間を制御してθx方向にΔθx、θy方向にΔθyずつ順次更新された送受信方向(θxp、θyq)(θxp=θx1+(p-1)Δθx(p=1~P)、θyq=θy1+(q-1)Δθy(q=1~Q)、但し、送受信方向(θx1、θy1)を除く)の各々に対して同様の手順で超音波を送受信して3次元走査を行なう。そして、これらの送受信方向にて得られた超音波データも上述の送受信方向を付帯情報として超音波データ記憶部51に保存する。
 一方、ボリュームデータ生成部5の補間処理部52は、超音波データ記憶部51から読み出した複数の超音波データを送受信方向(θxp、θyq)(θxp=θx1+(p-1)Δθx(p=1~P)、θyq=θy1+(q-1)Δθy(q=1~Q))に対応させて配列することにより3次元超音波データを形成し、更に、この3次元超音波データを補間処理してボリュームデータを生成する。そして、得られたボリュームデータをボリュームデータ記憶部53に保存する(図10のステップS3)。
 当該被検体に対するボリュームデータの収集が終了したならば、3次元画像データ生成部14は、ボリュームデータ生成部5のボリュームデータ記憶部53から読み出したボリュームデータのボクセル値に基づいて不透明度及び色調を設定し、この不透明度と色調に基づいて上述のボリュームデータをレンダリング処理し3次元画像データを生成する(図10のステップS4)。
 一方、関心領域設定部8は、入力部16からシステム制御部18を介して供給されるボリュームデータの生成条件を受信し、このボリュームデータの領域サイズに対応した領域サイズ[θxb、θyb](図5参照)を有する3次元関心領域を設定する。(図10のステップS5)。そして、表示部15の表示データ生成部151は、3次元画像データ生成部14から供給される3次元画像データに関心領域設定部8から供給される3次元関心領域の情報を重畳して第1の表示データを生成し、モニタ153に表示する。
 次に、3次元関心領域情報が重畳された3次元画像データ(即ち、第1の表示データ)を表示部15にて観察した操作者は、入力部16を用いて前記3次元画像データに示された管腔臓器が交叉している3次元関心領域の基準面を指定し、更に、芯線の設定を目的とした起点を前記管腔臓器の内部に設定する(図10のステップS6)。
 一方、輪郭抽出部6は、ボリュームデータ生成部5のボリュームデータ記憶部53から読み出したボリュームデータのボクセル値の空間的な変化量に基づいて、管腔臓器の輪郭を抽出し(図10のステップS7)、芯線設定部7は、入力部16において設定された起点の位置情報をシステム制御部18を介して受信し、ボリュームデータの管腔臓器内に設定された上述の起点を基準とする検索ベクトルに基づいて管腔臓器の芯線を設定する(図10のステップS8)。
 次いで、基準点検出部9は、入力部16によって指定された3次元関心領域の基準面と芯線設定部7によって設定された管腔臓器の芯線とが交叉する基準点を検出し(図10のステップS9)、視点・視線方向設定部10は、基準点検出部9が検出した基準面上の基準点とこの基準点における芯線の接線方向とに基づいて仮想内視鏡画像データの生成に必要な視点及び視線方向を設定する(図10のステップS10)。
 そして、仮想内視鏡画像データ生成部11は、ボリュームデータ生成部5のボリュームデータ記憶部53に保存されている当該被検体のボリュームデータと自己の記憶回路に保管されている演算処理プログラムを読み出し、関心領域設定部8から供給される3次元関心領域の情報と視点・視線方向設定部10から供給される視点及び視線方向の情報に基づいた前記ボリュームデータのレンダリング処理によって仮想内視鏡画像データを生成する(図10のステップS11)。
 一方、上述のステップS9において3次元関心領域の基準面と芯線とが交叉する基準点が検出されたならば、横断面設定部12は、ボリュームデータ生成部5のボリュームデータ記憶部53に保存されているボリュームデータを読み出し、上述の基準点を含み、芯線に対して垂直な横断面をボリュームデータに対して設定する(図10のステップS12)。そして、横断面画像データ生成部13は、横断面設定部12によって設定された横断面あるいはその近傍に位置するボリュームデータのボクセルを抽出し、これらのボクセルに対してフィルタリング処理や補間処理等のデータ処理を行なって管腔臓器の横断面を示す横断面画像データを生成する(図10のステップS13)。
 次いで、表示部15の表示データ生成部151は、仮想内視鏡画像データ生成部11において生成された仮想内視鏡画像データと横断面画像データ生成部13において生成された横断面画像データを合成し、更に、被検体情報等の付帯情報を付加して第2の表示データを生成する。そして、得られた第2の表示データに対し所定の変換処理を行なってモニタ153に表示する(図10のステップS14)。
 上述の手順により、超音波プローブ3を最初の位置に配置した状態で収集されたボリュームデータに基づく仮想内視鏡画像データ等の生成と表示が終了したならば、超音波プローブ3の位置を被検体の体表面上で順次更新させながら(図10のステップS15)上述のステップS3乃至S14(但し、ステップS6は除く)を繰り返すことにより超音波プローブ3の移動に対応して所望の方向、即ち管腔臓器の芯線の接線方向、から生成された仮想内視鏡画像データをリアルタイムで観察することが可能となる。
 以上述べた本発明の実施例によれば、被検体から収集したボリュームデータに基づいて仮想内視鏡画像データを生成する際、超音波プローブの移動に伴ってその位置が更新される前記ボリュームデータに設定された3次元関心領域の基準面と前記ボリュームデータにおける管腔臓器の芯線との交点に基づいて視点及び視線方向を自動設定することにより、超音波プローブの位置が移動しても好適な方向からの仮想内視鏡画像データを、常時、リアルタイムで観察することが可能となる。このため、診断精度と診断効率が大幅に向上する。
 特に、前記視点を3次元関心領域の外部に設定する場合、基準面と芯線との交点を含み芯線に垂直な横断面画像データと上述の仮想内視鏡画像データを合成して表示することができるため管腔臓器周辺の情報も同時に把握することができ、診断精度を更に改善することができる。例えば、管腔臓器の腫瘍を診断するような場合、管腔臓器内部の腫瘍部位は仮想内視鏡画像データから観察するこが可能であるが、これと同時に、管腔臓器の外側周辺部の浸潤状況も横断面画像データから観察することができるため、診断精度が向上する。
 又、超音波プローブの位置が移動した場合であっても、仮想内視鏡画像データにおける基準点や視線方向が常にモニタの所定位置(例えば、中央部)に配置されるように第2の表示データが生成されるため、移動する超音波プローブの影響をあまり受けることなく前記視線方向からの仮想内視鏡画像データを安定して観察することができ、従って、超音波検査における操作者の負担が軽減される。
 以上、本発明の実施例について述べてきたが、本発明は、上述の実施例に限定されるものではなく、変形して実施することが可能である。例えば、上述の実施例では、芯線設定部7によって設定された芯線の基準点における接線方向を検出し、この接線方向において基準点から所定距離だけ離れた位置に仮想内視鏡画像データの視点を設定する場合について述べたが、図11(a)に示すように、上述の接線方向から所定角度ηだけ傾斜した方向の所定距離離れた位置に視点Pvを設定してもよい。又、図11(b)に示すように、基準点Poに設定された横断面にて閉曲線で示される管腔臓器輪郭Ctの内部に第2の基準点Po1を設定し、この第2の基準点Po1を基準として任意の方向及び任意の距離に視点Pvを設定しても構わない。更に、第2の基準点Po1は、横断面上に限定されるものではなく、基準点Poを基準として任意の方向及び任意の距離に設定してもよい。
 又、上述の実施例では、3次元関心領域Riの外部に視線Pvを設定する場合について述べたが、3次元関心領域Riの基準面S(即ち、基準点Po)あるいは3次元関心領域Riの内部に視点Pvを設定してもよい。特に、視点Pvを3次元関心領域Riの内部に設定する場合、基準点Poから芯線Lcに沿って所定距離だけ進入した位置に視点Pvを設定し、この視点Pvにおける芯線Lcの接線方向に視線方向Dvを設定する方法が好適であるが、特に限定されない。尚、この場合の横断面画像データの生成は必ずしも必要としない。
 一方、上述の実施例における3次元関心領域は、ボリュームデータの生成条件に基づいて自動設定される場合について述べたが、表示部15に表示された3次元画像データを観察した操作者が、入力部16の入力デバイスを用いて任意に設定してもよい。又、ボリュームデータの内部に3次元関心領域を設定する場合について述べたが、3次元関心領域は、ボリュームデータと略等しいサイズを有していても構わない。
 また、基準面Sを3次元関心領域Riの特定の外周面に設けるのではなく、3次元関心領域Riの内部に設けてもよい。例えば、基準面Sを超音波プローブで2次元走査を行うときと同じ面に設けても良い。この場合、超音波プローブを移動させているときでも基準面Sは従来見慣れている2次元断面と一致するので、操作者は、視点の位置や視線方向を直感的に把握しやすくなる。
 更に、3次元関心領域の基準面は、3次元関心領域の情報が重畳された3次元画像データを観察した操作者によって行なわれる場合について述べたが、ボリュームデータ生成条件の1つとして超音波検査に先立って設定してもよい。
 又、3次元関心領域の外部に視点が設定された場合、仮想内視鏡画像データと横断面画像データとの合成によって生成された第2の表示データを表示する場合について述べたが、第2の表示データは、3次元関心領域の内部に視点が設定された場合と同様にして横断面画像データを含まなくても構わない。更に、第2の表示データは、仮想内視鏡画像データあるいはこの仮想内視鏡画像データと横断面画像データの合成によって生成される場合について述べたが、図12に示すように3次元画像データを追加して第2の表示データを生成してもよい。この場合、表示部15のモニタ153には、3次元画像データ(図12(a))と仮想内視鏡画像データあるいは横断面画像データが重畳された仮想内視鏡画像データ(図12(b))が並列表示される。
 尚、上述の実施例では、複数の振動素子が2次元配列された、所謂2次元アレイ超音波プローブによって収集した3次元的なBモードデータに基づいてボリュームデータを生成し、このボリュームデータを用いて仮想内視鏡画像データ及び横断面画像データを生成する場合について述べたが、これに限定されるものではなく、例えば、振動素子が1次元配列された超音波プローブを機械的に移動させることによって収集したボリュームデータを用いて上述の画像データを生成してもよい。又、Bモードデータの替わりにカラードプラデータ等の他の超音波データに基づいたボリュームデータを用いても構わない。

Claims (15)

  1.  被検体に対する3次元走査によって収集したボリュームデータに基づいて管腔臓器の仮想内視鏡画像データを生成する超音波診断装置において、
    前記ボリュームデータに対して3次元関心領域を設定する関心領域設定手段と、
    前記ボリュームデータに基づいてこのボリュームデータにおける前記管腔臓器の芯線を設定する芯線設定手段と、
    前記3次元関心領域の基準面と前記芯線とが交叉する基準点を検出する基準点検出手段と、
    前記基準点に基づいて視点及び視線方向を設定する視点・視線方向設定手段と、
    前記視点及び前記視線方向に基づいて前記ボリュームデータを処理し前記仮想内視鏡画像データを生成する仮想内視鏡画像データ生成手段と、
    生成された前記仮想内視鏡画像データを表示する表示手段とを
    備えたことを特徴とする超音波診断装置。
  2.  前記ボリュームデータは、リアルタイムで前記3次元空間を連続的に走査する前記3次元走査によって収集される、
    ことを特徴とする請求項1に記載の超音波診断装置。
  3.  前記ボリュームデータは、前記被検体に対して超音波プローブを移動させながら行われる前記3次元走査によって収集される、
    ことを特徴とする請求項1に記載の超音波診断装置。
  4.  前記3次元関心領域の基準面を指定する基準面指定手段を備え、前記基準面指定手段は、前記ボリュームデータにおける前記管腔臓器が交叉する前記3次元関心領域の側面を前記基準面として指定することを特徴とする請求項1記載の超音波診断装置。
  5.  前記3次元関心領域の基準面を指定する基準面指定手段を備え、前記基準面指定手段は、前記3次元走査に用いられる超音波プローブで2次元走査を行うときと同じ面を前記基準面として指定することを特徴とする請求項1記載の超音波診断装置。
  6.  前記ボリュームデータのボクセル値に基づいて前記管腔臓器の輪郭を抽出する輪郭抽出手段を備え、前記芯線設定手段は、前記輪郭抽出手段が抽出した輪郭情報に基づいて前記管腔臓器の芯線を設定することを特徴とする請求項1記載の超音波診断装置。
  7.  前記視点・視線方向設定手段は、前記基準点検出手段が検出した前記基準点とこの基準点における前記芯線の接線方向とに基づいて前記視点及び前記視線方向を設定することを特徴とする請求項1記載の超音波診断装置。
  8.  前記視点・視線方向設定手段は、前記接線方向あるいは前記接線方向から所定角度傾斜した方向において前記基準点から所定距離離れた位置に前記視点を設定し、前記視点から前記基準点に向けて前記視線方向を設定することを特徴とする請求項7記載の超音波診断装置。
  9.  前記視点・視線方向設定手段は、前記基準点に前記視点を設定し、前記基準点における前記芯線の接線方向あるいは前記接線方向から所定角度傾斜した方向に対して前記視線方向を設定することを特徴とする請求項7記載の超音波診断装置。
  10.  前記基準点を含み前記芯線に垂直な横断面を前記ボリュームデータに対して設定する横断面設定手段と、前記横断面における前記ボリュームデータのボクセルを抽出して横断面画像データを生成する横断面画像データ生成手段を備え、前記表示手段は、前記横断面画像データと前記仮想内視鏡画像データとを合成して表示することを特徴とする請求項1記載の超音波診断装置。
  11.  前記ボリュームデータをレンダリング処理して3次元画像データを生成する3次元画像データ生成手段を備え、前記表示手段は、前記仮想内視鏡画像データと前記3次元画像データを並列表示することを特徴とする請求項1に記載した超音波診断装置。
  12.  前記ボリュームデータをレンダリング処理して3次元画像データを生成する3次元画像データ生成手段を備え、前記表示手段は、前記横断面画像データが重畳された前記仮想内視鏡画像データと前記3次元画像データを並列表示することを特徴とする請求項10に記載した超音波診断装置。
  13.  前記表示手段は、前記仮想内視鏡画像データを表示するモニタを備え、前記仮想内視鏡画像データにおける前記基準点が、常に、前記モニタの所定位置に配置されるように前記仮想内視鏡画像データを表示することを特徴とする請求項1記載の超音波診断装置。
  14.  前記仮想内視鏡画像データ生成手段は、前記ボリュームデータを前記視点及び前記視線方向に基づいてレンダリング処理することによって前記仮想内視鏡画像データを生成することを特徴とする請求項1記載の超音波診断装置。
  15.  被検体に対する3次元走査によって収集したボリュームデータに基づいて管腔臓器の仮想内視鏡画像データを生成する超音波診断装置に対し、
    前記ボリュームデータに対して3次元関心領域を設定する関心領域設定機能と、
    前記ボリュームデータに基づいてこのボリュームデータにおける前記管腔臓器の芯線を設定する芯線設定機能と、
    前記3次元関心領域の基準面と前記芯線とが交叉する基準点を検出する基準点検出機能と、
    前記基準点に基づいて視点及び視線方向を設定する視点・視線方向設定機能と、
    前記視点及び前記視線方向に基づいて前記ボリュームデータを処理し前記仮想内視鏡画像データを生成する仮想内視鏡画像データ生成機能と、
    生成された前記仮想内視鏡画像データを表示する表示機能を
    実行させることを特徴とする画像データ表示用制御プログラム。
PCT/JP2010/060978 2009-06-30 2010-06-28 超音波診断装置及び画像データ表示用制御プログラム WO2011001938A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN2010800063000A CN102300505B (zh) 2009-06-30 2010-06-28 超声波诊断装置以及图像数据显示用控制程序
US13/336,118 US9173632B2 (en) 2009-06-30 2011-12-23 Ultrasonic diagnosis system and image data display control program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009155323A JP5395538B2 (ja) 2009-06-30 2009-06-30 超音波診断装置及び画像データ表示用制御プログラム
JP2009-155323 2009-06-30

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US13/336,118 Continuation US9173632B2 (en) 2009-06-30 2011-12-23 Ultrasonic diagnosis system and image data display control program

Publications (1)

Publication Number Publication Date
WO2011001938A1 true WO2011001938A1 (ja) 2011-01-06

Family

ID=43411014

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/060978 WO2011001938A1 (ja) 2009-06-30 2010-06-28 超音波診断装置及び画像データ表示用制御プログラム

Country Status (4)

Country Link
US (1) US9173632B2 (ja)
JP (1) JP5395538B2 (ja)
CN (1) CN102300505B (ja)
WO (1) WO2011001938A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102892015A (zh) * 2011-07-19 2013-01-23 株式会社东芝 图像处理装置、图像处理方法以及医用图像诊断装置
US20130102903A1 (en) * 2011-08-19 2013-04-25 Go Tanaka Ultrasonic diagnostic apparatus, medical image processing appartus, and medical image processing method
JP2013192673A (ja) * 2012-03-19 2013-09-30 Toshiba Corp 医用画像診断装置、画像処理装置及びプログラム

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5421828B2 (ja) * 2010-03-17 2014-02-19 富士フイルム株式会社 内視鏡観察支援システム、並びに、内視鏡観察支援装置、その作動方法およびプログラム
US8959459B2 (en) * 2011-06-15 2015-02-17 Wms Gaming Inc. Gesture sensing enhancement system for a wagering game
JP5936850B2 (ja) * 2011-11-24 2016-06-22 株式会社東芝 超音波診断装置及び画像処理装置
US9196091B2 (en) * 2012-01-24 2015-11-24 Kabushiki Kaisha Toshiba Image processing method and system
JP6121766B2 (ja) * 2012-03-26 2017-04-26 東芝メディカルシステムズ株式会社 超音波診断装置、画像処理装置及び画像処理方法
JP6103827B2 (ja) * 2012-06-14 2017-03-29 オリンパス株式会社 画像処理装置および立体画像観察システム
JP6121807B2 (ja) * 2012-06-15 2017-04-26 東芝メディカルシステムズ株式会社 超音波診断装置、コンピュータプログラム及び制御方法
WO2014038703A1 (ja) * 2012-09-10 2014-03-13 株式会社東芝 超音波診断装置、医用画像処理装置及び画像処理プログラム
JP5961504B2 (ja) * 2012-09-26 2016-08-02 富士フイルム株式会社 仮想内視鏡画像生成装置およびその作動方法並びにプログラム
JP6006092B2 (ja) * 2012-11-15 2016-10-12 東芝メディカルシステムズ株式会社 超音波診断装置、画像処理装置及びプログラム
CN104021539B (zh) * 2013-02-28 2019-07-16 北京三星通信技术研究有限公司 用于在超声图像中自动检测肿瘤的系统
EP2807978A1 (en) * 2013-05-28 2014-12-03 Universität Bern Method and system for 3D acquisition of ultrasound images
CN106030657B (zh) * 2014-02-19 2019-06-28 皇家飞利浦有限公司 医学4d成像中的运动自适应可视化
US10033992B1 (en) * 2014-09-09 2018-07-24 Google Llc Generating a 3D video of an event using crowd sourced data
KR102367446B1 (ko) * 2014-12-11 2022-02-25 삼성메디슨 주식회사 초음파 진단 장치 및 그 동작 방법
KR102388130B1 (ko) 2015-01-12 2022-04-19 삼성메디슨 주식회사 의료 영상 표시 방법 및 장치
JP6689666B2 (ja) * 2016-05-12 2020-04-28 株式会社日立製作所 超音波撮像装置
CN108986902A (zh) * 2018-08-28 2018-12-11 飞依诺科技(苏州)有限公司 四维扫查设备的扫查方法、装置及存储介质
US11625825B2 (en) 2019-01-30 2023-04-11 Covidien Lp Method for displaying tumor location within endoscopic images
JP2020126208A (ja) * 2019-02-06 2020-08-20 オリンパス株式会社 3次元画像表示方法、3次元画像表示装置、およびプログラム
WO2022004898A1 (ja) * 2020-07-03 2022-01-06 拡史 瀬尾 画像処理装置、画像処理方法及びプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004283373A (ja) * 2003-03-20 2004-10-14 Toshiba Corp 管腔状構造体の解析処理装置
JP2005110973A (ja) * 2003-10-08 2005-04-28 Toshiba Corp 画像診断装置、画像表示装置及び3次元画像表示方法
JP2007195685A (ja) * 2006-01-25 2007-08-09 Toshiba Corp 画像診断装置、画像表示装置及び画像データ生成方法
WO2009116465A1 (ja) * 2008-03-21 2009-09-24 株式会社 日立メディコ 医用画像表示装置及び医用画像表示方法

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5793310A (en) * 1994-02-04 1998-08-11 Nissan Motor Co., Ltd. Portable or vehicular navigating apparatus and method capable of displaying bird's eye view
JP3117665B2 (ja) * 1997-08-26 2000-12-18 ジーイー横河メディカルシステム株式会社 画像表示方法および画像表示装置
JP4318799B2 (ja) 1999-06-29 2009-08-26 株式会社日立メディコ 画像表示装置
US20010010514A1 (en) * 1999-09-07 2001-08-02 Yukinobu Ishino Position detector and attitude detector
JP4674948B2 (ja) * 2000-09-29 2011-04-20 オリンパス株式会社 手術ナビゲーション装置および手術ナビゲーション装置の作動方法
US7556602B2 (en) * 2000-11-24 2009-07-07 U-Systems, Inc. Breast cancer screening with adjunctive ultrasound mammography
JP4263943B2 (ja) * 2003-05-07 2009-05-13 テルモ株式会社 超音波診断装置
JP3802018B2 (ja) * 2003-07-10 2006-07-26 ザイオソフト株式会社 画像解析装置および画像解析プログラムおよび画像解析方法
US8021300B2 (en) * 2004-06-16 2011-09-20 Siemens Medical Solutions Usa, Inc. Three-dimensional fly-through systems and methods using ultrasound data
PL1803097T3 (pl) * 2004-06-23 2011-04-29 Koninl Philips Electronics Nv Endoskopia wirtualna
US8712115B2 (en) * 2005-04-19 2014-04-29 Siemens Medical Solutions Usa, Inc. Real-time virtual endoscopy
KR100948047B1 (ko) * 2006-06-29 2010-03-19 주식회사 메디슨 초음파 영상을 형성하는 초음파 시스템 및 방법
WO2008003527A1 (en) * 2006-07-06 2008-01-10 Ion Beam Applications S.A. Method for treating a target volume with a particle beam and device implementing same
US8007437B2 (en) * 2006-11-08 2011-08-30 Siemens Aktiengesellschaft Method and apparatus for interactive 4-dimensional (4D) virtual endoscopy
JP4205747B2 (ja) * 2006-12-28 2009-01-07 株式会社コナミデジタルエンタテインメント 画像処理装置、画像処理装置の制御方法及びプログラム
JP5127371B2 (ja) * 2007-08-31 2013-01-23 キヤノン株式会社 超音波画像診断システム、及びその制御方法
JP2009165718A (ja) 2008-01-18 2009-07-30 Hitachi Medical Corp 医用画像表示装置
JP5231822B2 (ja) * 2008-01-23 2013-07-10 株式会社東芝 超音波診断装置、及び超音波診断装置の制御プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004283373A (ja) * 2003-03-20 2004-10-14 Toshiba Corp 管腔状構造体の解析処理装置
JP2005110973A (ja) * 2003-10-08 2005-04-28 Toshiba Corp 画像診断装置、画像表示装置及び3次元画像表示方法
JP2007195685A (ja) * 2006-01-25 2007-08-09 Toshiba Corp 画像診断装置、画像表示装置及び画像データ生成方法
WO2009116465A1 (ja) * 2008-03-21 2009-09-24 株式会社 日立メディコ 医用画像表示装置及び医用画像表示方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102892015A (zh) * 2011-07-19 2013-01-23 株式会社东芝 图像处理装置、图像处理方法以及医用图像诊断装置
US20130102903A1 (en) * 2011-08-19 2013-04-25 Go Tanaka Ultrasonic diagnostic apparatus, medical image processing appartus, and medical image processing method
US10456106B2 (en) * 2011-08-19 2019-10-29 Toshiba Medical Systems Corporation Ultrasonic diagnostic apparatus, medical image processing apparatus, and medical image processing method
JP2013192673A (ja) * 2012-03-19 2013-09-30 Toshiba Corp 医用画像診断装置、画像処理装置及びプログラム

Also Published As

Publication number Publication date
JP5395538B2 (ja) 2014-01-22
US20120113111A1 (en) 2012-05-10
JP2011010715A (ja) 2011-01-20
US9173632B2 (en) 2015-11-03
CN102300505A (zh) 2011-12-28
CN102300505B (zh) 2013-07-17

Similar Documents

Publication Publication Date Title
JP5395538B2 (ja) 超音波診断装置及び画像データ表示用制御プログラム
JP5433240B2 (ja) 超音波診断装置及び画像表示装置
JP5495593B2 (ja) 超音波診断装置及び穿刺支援用制御プログラム
JP5380121B2 (ja) 超音波診断装置
JP5637653B2 (ja) 医用画像処理装置、超音波診断装置、及び医用画像処理プログラム
WO2014003070A1 (ja) 超音波診断装置及び超音波画像処理方法
JP5253893B2 (ja) 医用画像処理装置、超音波診断装置、及び超音波画像取得プログラム
JP2009089736A (ja) 超音波診断装置
JP2008307087A (ja) 超音波診断装置
JP6121807B2 (ja) 超音波診断装置、コンピュータプログラム及び制御方法
JP2013240369A (ja) 超音波診断装置及び制御プログラム
JP2004113630A (ja) 超音波診断装置
JP5942217B2 (ja) 超音波診断装置、超音波画像処理装置及び超音波画像処理プログラム
JP2011115457A (ja) 超音波診断装置及び輝度変化曲線表示用制御プログラム
JP2011182933A (ja) 超音波診断装置及び関心領域設定用制御プログラム
JP5981178B2 (ja) 医用画像診断装置、画像処理装置及びプログラム
JP4709419B2 (ja) 細径プローブ型超音波診断装置
JP5087324B2 (ja) 超音波診断装置
JP6068017B2 (ja) 超音波診断装置及び画像生成プログラム
JP2009061076A (ja) 超音波診断装置
JP4987503B2 (ja) 超音波診断装置、画像データ表示装置及び画像データ表示用制御プログラム
JP5383253B2 (ja) 超音波診断装置及び画像データ生成装置
JP2013013452A (ja) 超音波診断装置及び制御プログラム
JP5503862B2 (ja) 超音波診断装置
JP5936850B2 (ja) 超音波診断装置及び画像処理装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201080006300.0

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10794107

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 10794107

Country of ref document: EP

Kind code of ref document: A1