WO2020012883A1 - 超音波撮像装置、超音波撮像システム、超音波撮像方法および超音波撮像プログラム - Google Patents

超音波撮像装置、超音波撮像システム、超音波撮像方法および超音波撮像プログラム Download PDF

Info

Publication number
WO2020012883A1
WO2020012883A1 PCT/JP2019/024012 JP2019024012W WO2020012883A1 WO 2020012883 A1 WO2020012883 A1 WO 2020012883A1 JP 2019024012 W JP2019024012 W JP 2019024012W WO 2020012883 A1 WO2020012883 A1 WO 2020012883A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
ultrasonic
unit
composite image
region
Prior art date
Application number
PCT/JP2019/024012
Other languages
English (en)
French (fr)
Inventor
健介 井芹
拓生 嶋田
竜雄 新井
悟史 中村
Original Assignee
古野電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 古野電気株式会社 filed Critical 古野電気株式会社
Priority to JP2020530059A priority Critical patent/JP7112492B2/ja
Priority to EP19835100.9A priority patent/EP3821814A4/en
Priority to CN201980045503.1A priority patent/CN112367923A/zh
Publication of WO2020012883A1 publication Critical patent/WO2020012883A1/ja
Priority to US17/147,028 priority patent/US11948324B2/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • A61B8/5246Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from the same or different imaging techniques, e.g. color Doppler and B-mode
    • A61B8/5253Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from the same or different imaging techniques, e.g. color Doppler and B-mode combining overlapping images, e.g. spatial compounding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/68Analysis of geometric attributes of symmetry
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5207Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of raw data to produce diagnostic data, e.g. for generating an image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/60Rotation of a whole image or part thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
    • A61B8/085Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating body or organic structures, e.g. tumours, calculi, blood vessels, nodules
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0858Detecting organic movements or changes, e.g. tumours, cysts, swellings involving measuring tissue layers, e.g. skin, interfaces
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/13Tomography
    • A61B8/14Echo-tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5269Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving detection or reduction of artifacts
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5292Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves using additional data, e.g. patient information, image labeling, acquisition parameters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing

Definitions

  • the present invention relates to an ultrasonic imaging apparatus, an ultrasonic imaging system, an ultrasonic imaging method, and an ultrasonic imaging program for imaging the inside of a subject with ultrasonic waves.
  • a CT (Computed Tomography) apparatus or an MRI (Magnetic Resonance Imaging) apparatus is often used to acquire a tomographic image of the abdomen.
  • CT Computer Tomography
  • MRI Magnetic Resonance Imaging
  • These devices are large and expensive, and have the problem of being exposed to radiation. Therefore, in recent years, techniques for acquiring tomographic images using ultrasonic waves have been developed.
  • Patent Literature 1 a plurality of ultrasonic images obtained by intermittently transmitting ultrasonic waves from a probe while moving the probe along the surface of the subject are synthesized, and a synthesized image (panorama image) is obtained. Image) is disclosed. According to this technique, a composite image showing a cross section of the abdomen can be obtained only by moving the probe itself while abutting the probe on the abdomen.
  • a probe is first applied to the vicinity of the flank, and then moved to the vicinity of the opposite flank via the umbilicus.
  • the vicinity of the flanks corresponding to the initial position of the probe faces upward.
  • the navel since the navel is not directed upward, there is a problem that it is difficult for a subject or the like to grasp the state of the abdomen.
  • the present invention has been made to solve the above problem, and has as its object to provide an ultrasonic imaging apparatus capable of displaying an ultrasonic composite image in which a subject or the like can easily grasp the state of a subject. .
  • the ultrasonic imaging apparatus receives ultrasonic waves transmitted toward the inside of the subject from a plurality of different positions on the surface of the subject and reflected internally, and corresponds to each of the positions.
  • An ultrasonic image generating unit that generates each of the obtained ultrasonic images
  • an image synthesizing unit that synthesizes an ultrasonic image at each of the positions to generate a synthetic image of a cross section of the subject, and adjusts the angle of the synthetic image.
  • a direction adjusting unit that directs a specific portion included in the composite image in a predetermined direction.
  • the ultrasonic imaging system transmits ultrasonic waves from a plurality of different positions on the surface of the subject toward the inside of the subject, and receives the ultrasonic waves reflected inside the subject. And an ultrasonic imaging apparatus according to the present invention.
  • the ultrasonic imaging method receives ultrasonic waves transmitted toward the inside of the subject from a plurality of different positions on the surface of the subject and reflected internally, and corresponds to each of the positions.
  • the ultrasonic imaging program receives ultrasonic waves transmitted toward the inside of the subject from a plurality of different positions on the surface of the subject and reflected internally, and corresponds to each of the positions.
  • Ultrasound image generation unit that generates the respective ultrasound images
  • an image synthesis unit that synthesizes the ultrasound images at the respective positions to generate a synthesized image of the cross section of the subject, and adjusts the angle of the synthesized image
  • a computer is operated as a direction adjustment unit for directing a specific part included in the composite image in a predetermined direction.
  • FIG. 1 is a schematic diagram illustrating a configuration of an ultrasonic imaging system according to a first embodiment.
  • FIG. 2 is a block diagram illustrating a configuration of the ultrasonic imaging apparatus according to the first embodiment. It is an example of the synthetic image of the abdominal section. It is a functional block diagram of a direction adjustment part. It is an example of a synthetic image in which an area is set.
  • FIG. 3 is an explanatory diagram of a trajectory of a probe and a transmission direction of an ultrasonic wave.
  • 6 is a graph illustrating an example of a relationship between a number of an ultrasonic image corresponding to a region and a correlation value. It is an example of a synthetic image in which a region is set substantially in the middle of the rectus abdominal muscle.
  • FIG. 14 is a diagram for describing another example of setting a region.
  • 4 is a flowchart illustrating a processing procedure of the ultrasonic imaging method according to the first embodiment. It is a flowchart which shows the detailed processing procedure of the direction adjustment step in 1st Embodiment. It is a block diagram showing the composition of the ultrasonic imaging device concerning a 2nd embodiment. It is a functional block diagram of a direction adjustment part in a 2nd embodiment. It is an example of a composite image to be adjusted. It is an example of the rotated composite image.
  • FIG. 4 is a diagram for explaining matching between a composite image and a template image.
  • FIG. 1 is a schematic diagram illustrating a configuration of an ultrasonic imaging system 1 according to the first embodiment.
  • the ultrasonic imaging system 1 includes a probe 2 and an ultrasonic imaging device 3.
  • the probe 2 is a device that transmits ultrasonic waves from a plurality of different positions on the surface of the subject 9 toward the inside of the subject 9 and receives the ultrasonic waves reflected inside the subject 9.
  • the subject is configured to be able to grasp and move.
  • the lower end of the probe 2 is provided with an ultrasonic transmitting / receiving surface on which a plurality of ultrasonic transducers are arranged in a line.
  • the subject moves the probe 2 along the surface of the subject 9 by bringing the ultrasonic transmission / reception surface of the probe 2 into contact with the subject 9. (Scan with probe 2).
  • the probe 2 intermittently transmits the ultrasonic waves from the ultrasonic transmitting / receiving surface toward the inside of the subject 9 and receives the ultrasonic waves reflected inside the subject 9 at the ultrasonic transmitting / receiving surface. Thereby, the probe 2 outputs an electric signal (echo signal) indicating the received ultrasonic wave.
  • the probe 2 operates in a linear scan mode for acquiring a linear scan image, but may be operable in a sector scan mode for acquiring a sector scan image, or may operate in both the linear scan mode and the sector scan mode. It may be possible, or it may be operable in another mode or in combination with another mode.
  • the subject 9 is mainly the abdomen, but the living body part included in the subject 9 is not particularly limited.
  • the ultrasonic imaging device 3 is connected to the probe 2 by wireless such as WiFi (registered trademark).
  • the ultrasound imaging apparatus 3 is configured by, for example, a tablet terminal, generates a plurality of ultrasound images based on the echo signals received from the probe 2, and further combines the ultrasound images. It has the function of displaying images.
  • the ultrasonic imaging device 3 is not particularly limited as long as it can display an image, and can be configured by a general-purpose personal computer, a smartphone, or the like.
  • the method of connecting the probe 2 and the ultrasonic imaging device 3 is not particularly limited, and may be a wired connection.
  • FIG. 2 is a block diagram illustrating a configuration of the ultrasonic imaging apparatus 3.
  • the ultrasonic imaging apparatus 3 includes, as hardware components, a display 31, an input device 32, an auxiliary storage device 33, a communication interface unit (I / F unit) 34, and a display interface unit (I / F unit) 36.
  • a display 31 includes, as hardware components, a display 31, an input device 32, an auxiliary storage device 33, a communication interface unit (I / F unit) 34, and a display interface unit (I / F unit) 36.
  • I / F unit communication interface unit
  • I / F unit display interface unit
  • the display 31 can be composed of, for example, a liquid crystal display, a plasma display, an organic EL display, and the like. Note that the display 31 may be configured as a device separate from the ultrasonic imaging device 3.
  • the input device 32 is a touch panel provided on the surface of the display 31.
  • the subject can perform an input operation on an image displayed on the display 31 via the input device 32.
  • the auxiliary storage device 33 is a nonvolatile storage device that stores an operating system (OS), various control programs, data generated by the programs, and the like. For example, an eMMC (embedded Multi Media Card) or an SSD (Solid State) Drive).
  • the auxiliary storage device 33 stores an ultrasonic imaging program P.
  • the ultrasonic imaging program P may be installed in the ultrasonic imaging device 3 via a network such as the Internet. Alternatively, by causing the ultrasonic imaging apparatus 3 to read a non-transitory tangible computer-readable recording medium such as an SD card on which the ultrasonic imaging program P is recorded, the ultrasonic imaging program P is read. It may be installed in.
  • the communication interface unit 34 transmits and receives data to and from an external device.
  • the communication interface unit 34 demodulates a signal received from the probe 2 and modulates a control signal to be transmitted to the probe 2.
  • the display interface unit 36 displays the image on the display 31 by expanding various image data generated by the arithmetic processing of the ultrasonic imaging apparatus 3 in the VRAM. For example, the display interface unit 36 generates the image data by the signal processing unit 35 described later. The synthesized image or the like is displayed on the display 31.
  • the ultrasound imaging apparatus 3 includes, as other hardware components, a processor such as a CPU that performs data processing and a memory (main storage device) used by the processor as a work area for data processing. It also has more.
  • the ultrasonic imaging apparatus 3 includes a signal processing unit 35 as a software configuration.
  • the signal processing unit 35 is a functional block realized by the processor executing the ultrasonic imaging program P.
  • the signal processing unit 35 processes an echo signal received from the probe 2 to generate an ultrasonic composite image of the subject 9. It has a function of displaying on the display 31 so that an examiner, a doctor, an imaging worker, and the like can easily grasp the state of the subject 9.
  • the signal processing unit 35 includes an ultrasonic image generation unit 351, an image synthesis unit 352, and a direction adjustment unit 353. Note that the signal processing unit 35 may be realized in hardware by a logic circuit formed on an integrated circuit.
  • the ultrasonic image generation unit 351 generates an ultrasonic image of the inside of the subject 9 from the echo signal received from the probe 2.
  • the probe 2 moves toward the inside of the subject 9 from a plurality of different positions on the surface of the subject 9 according to a control signal transmitted from the ultrasonic imaging apparatus 3 while moving on the surface of the subject 9.
  • the ultrasonic wave is transmitted, the ultrasonic wave reflected inside the subject 9 is received, and an echo signal is output to the ultrasonic imaging apparatus 3.
  • an echo signal is input to the ultrasonic image generating unit 351, and the ultrasonic image generating unit 351 converts a plurality of different ultrasonic signals on the surface of the subject 9 from the echo signal.
  • the number of generated ultrasonic images varies depending on the transmission / reception time of the ultrasonic wave by the probe 2 and the transmission / reception cycle. In this embodiment, it is assumed that n ultrasonic images are generated.
  • the function of the ultrasonic image generation unit 351 may be provided in a control device that controls the probe 2.
  • the control device may be connected to the ultrasonic imaging device 3, or the control device may store an ultrasonic image and transmit the ultrasonic image to the ultrasonic imaging device 3 via a recording medium. Good.
  • the image combining unit 352 is a functional block that combines the ultrasonic images generated by the ultrasonic image generating unit 351 at each of the positions on the surface of the subject 9 to generate a combined image of the cross section of the subject 9. .
  • a known technique can be applied to the synthesis of the ultrasonic images.
  • the ultrasonic images are synthesized using, for example, feature point matching between the ultrasonic images.
  • the “cross-section” is a concept including not only a cross-section of a round slice but also a partial cross-section.
  • feature points are detected from a first ultrasonic image and a second ultrasonic image. Then, feature points of the first ultrasound image and the second ultrasound image are matched to calculate a homogeneous transformation matrix of the first ultrasound image and the second ultrasound image. Specifically, for the second ultrasound images of the first ultrasound image, rotated by ⁇ in the clockwise direction, x-axis direction t x, is moved parallel to the y-axis direction by t y 1 th When the feature points of the ultrasonic image of the second ultrasonic image and the feature point of the second ultrasonic image match, the homogeneous transformation matrix R that moves the coordinate system of the second ultrasonic image to match the first ultrasonic image is It becomes.
  • the calculation of the homogeneous transformation matrix R is sequentially performed on two ultrasonic images adjacent to each other in the generation order, and the calculation is performed up to the (n ⁇ 1) th ultrasonic image and the nth ultrasonic image. Assuming that a homogeneous transformation matrix from the (k + 1) th (1 ⁇ k ⁇ n ⁇ 1) th ultrasonic image to the kth ultrasonic image is R k , the transformation from the (k + 1) th ultrasonic image to the first ultrasonic image is the same. The next transformation matrix is R 1 R 2 ... R k .
  • the coordinate system of the first ultrasonic image is called a world coordinate system, and the coordinates of all the ultrasonic images can be calculated by calculating the homogeneous transformation matrix to the world coordinate system for all the ultrasonic images. Then, one composite image is generated by blending the pixels of all the ultrasonic images.
  • the direction adjustment unit 353 has a function of adjusting the angle of the composite image and directing a specific part included in the composite image in a predetermined direction.
  • the direction adjusting unit 353 adjusts the direction of the composite image shown in FIG. 20 so that the navel is directed upward, for example. A specific method of the adjustment will be described later.
  • the synthesized image whose direction has been adjusted by the direction adjusting unit 353 is input to the display interface unit 36.
  • the display interface unit 36 displays the composite image on the display 31 by expanding the data of the composite image in the VRAM. Note that the display interface unit 36 may temporarily display the composite image before performing the following direction adjustment on the display 31 or may display the composite image on the display 31 after performing the direction adjustment.
  • direction adjustment Hereinafter, one mode in which the direction adjusting unit 353 adjusts the direction of the composite image will be specifically described.
  • the direction of the composite image is adjusted so that the navel is upward.
  • the direction adjusting unit 353 includes an area setting unit 353a, a symmetry evaluation unit 353b, an area selecting unit 353c, and an angle calculating unit 353d.
  • the region setting unit 353a is a functional block that sets one or more regions r having a shape symmetrical with respect to the central axis at an arbitrary position and an arbitrary angle.
  • the shape of the region r is a rectangle that is line-symmetric with respect to the central axis Ax as shown by a white line frame in FIG.
  • the central axis Ax of the region r can be regarded as the central axis passing through the navel of the abdomen.
  • the region setting unit 353a sets the region r to be movable in order to search for a region r having high left-right symmetry.
  • the region setting unit 353a selects one ultrasonic image from the plurality of ultrasonic images used to generate the composite image, and changes the transmission direction of the ultrasonic wave at a position on the surface of the subject 9.
  • the region r is set by aligning the central axis Ax of the region r with the indicated axis. That is, the region setting unit 353a sets each region r by aligning the central axis Ax of each region r with each axis indicating the transmission direction of the ultrasonic wave at a plurality of different positions on the surface of the subject 9. .
  • the transmission direction of the ultrasonic wave in each ultrasonic image can be specified based on the homogeneous transformation matrix of the first ultrasonic image into the coordinate system (world coordinate system).
  • the trajectory of the probe 2 at the time of acquiring the ultrasonic image corresponds to the upper side of each ultrasonic image. Therefore, as shown in FIG. 6, information on the trajectory of the probe 2 and the transmission direction of the ultrasonic wave is included in the composite
  • the region setting unit 353a may sequentially select from the first ultrasonic image to the n-th (n is a positive integer) ultrasonic image.
  • the region setting unit 353a selects the ultrasonic image in the order in which the ultrasonic images are generated.
  • the central axis of the substantially central ultrasound image corresponding to the substantially center and the central axes of a predetermined number of generated ultrasound images before and after the substantially central ultrasound image are sequentially selected.
  • n is an even number
  • the substantially central ultrasound image corresponds to the n / 2th ultrasound image.
  • the substantially central ultrasonic image corresponds to either the (n ⁇ 1) / 2 or (n + 1) / 2 ultrasonic image.
  • the axis indicating the transmission direction of the ultrasonic wave in the substantially central ultrasonic image is denoted by Dc.
  • the region setting unit 353a first selects the substantially central ultrasonic image from the n ultrasonic images, and aligns the axis Dc in the substantially central ultrasonic image with the central axis Ax of the region r indicated by a dashed line in FIG. To set an area r. That is, a region r in the substantially center ultrasonic image where the transmission direction of the ultrasonic wave and the central axis coincide is set as the search start region. In the following description, it is assumed that when the transmission direction of the ultrasonic wave in the ultrasonic image matches the central axis of the region, the ultrasonic image corresponds to the region.
  • the region setting unit 353a selects another ultrasonic image, and again sets the transmission direction of the ultrasonic wave in the selected ultrasonic image to coincide with the central axis Ax of the region r. , An area r is set.
  • the region setting unit 353a selects a substantially central ultrasonic image, and then sets a predetermined number m of ultrasonic images before and after in the generation order of the approximately central ultrasonic image (when m is an even number, (n / 2
  • the region r is moved by sequentially selecting (-)-(m / 2) to (n / 2) + (m / 2) -1 ultrasonic images).
  • the probe 2 when the subject acquires an ultrasonic image of the abdomen, usually, the probe 2 is moved from the vicinity of one flank to the vicinity of the other flank via the navel. Therefore, there is a high possibility that the position of the probe 2 at the time of acquiring the substantially central ultrasonic image is near the navel. Therefore, it is not necessary to search for a region r having high symmetry in all regions corresponding to all ultrasonic images, and m ⁇ n can be satisfied. Thereby, the number of movements of the region r can be suppressed, and the amount of calculation can be reduced.
  • the symmetry evaluation unit 353b illustrated in FIG. 4 is a functional block that evaluates the symmetry of the images on the left and right sides of the region r with respect to the center axis Ax of the region r. For example, when the region r shown in FIG. 5 is set, the symmetry evaluation unit 353b calculates the correlation value between the left region and the right region with respect to the central axis Ax, and evaluates the symmetry of the region r. I do.
  • a calculation method of the correlation value for example, Sum of Abusolute Difference (SAD), Sum of Squared Difference (SSD), Normalized Cross-Correlation (NCC), Zero-means Normalized Cross-Correlation (ZNCC), or the like can be used. However, a ZNCC that is robust to changes in brightness is particularly preferred.
  • SAD Sum of Abusolute Difference
  • SSD Sum of Squared Difference
  • NCC Normalized Cross-Correlation
  • ZNCC Zero-means Normalized Cross-Correlation
  • a ZNCC that
  • the boundary between muscles such as the rectus abdominis muscle and other tissues has high brightness, and thus a linear pattern is formed.
  • the symmetry evaluation unit 353b calculates a correlation value for a pattern in the region r.
  • the degree of symmetry may be evaluated using mutual information instead of the correlation value.
  • mutual information amount refer to, for example, https://lp-tech.net/articles/9pF3Z.
  • the symmetry evaluation unit 353b evaluates the symmetry for all the regions r set by the region setting unit 353a, and records the symmetry in the memory every time the region r moves.
  • FIG. 7 is a graph showing an example of the relationship between the number (image No.) of the ultrasonic image corresponding to the region and the correlation value.
  • the region selection unit 353c is a functional block that selects the region r based on the degree of symmetry.
  • the region selecting unit 353c selects the region r having the maximum degree of symmetry from the regions r for which the degree of symmetry has been evaluated (in the example shown in FIG. 7, the region corresponding to the p-th ultrasonic image). Select As a result, as shown in FIG. 8, a region r in which the central axis Ax is located substantially in the middle between the left and right rectus abdominal muscles is selected.
  • the region selected by the region selection unit 353c does not necessarily need to be the region having the maximum degree of symmetry, and may be any region having a degree of symmetry equal to or higher than a predetermined threshold. For example, a region having a relatively high degree of symmetry, such as a region having the second highest degree of symmetry, may be selected.
  • the angle calculation unit 353d is a functional block that calculates an angle difference between a predetermined axis passing through the synthesized image and the central axis Ax of the selected region r.
  • the direction adjustment unit 353 calculates the angle difference calculated by the angle calculation unit 353d.
  • the angle of the composite image is adjusted.
  • the predetermined axis passing through the composite image is a left-right symmetric axis of the composite image.
  • the composite image is rotated such that the central axis Ax shown in FIG. 8 is directed upward.
  • the data of the composite image adjusted by the direction adjustment unit 353 is output to the display interface unit 36, and a composite image in which the navel is directed upward as shown in FIG.
  • the subject can easily grasp the state of the abdomen.
  • FIG. 9 it goes without saying that the entire composite image may be displayed.
  • the shape of the region r is not particularly limited as long as it is line-symmetric with respect to the central axis, and may be, for example, an isosceles trapezoid, a rhombus, a hexagon, an ellipse, or the like.
  • the size of the region r is not particularly limited, the width of the region r is preferably different from the width of each of the rectus abdominis muscles since the left and right rectus abdominis have a generally symmetrical shape.
  • the transmission direction of the ultrasonic wave is not always perpendicular to the surface of the subject 9.
  • the region set near the umbilicus is different from the direction in which the rectus abdominis muscles continue.
  • the inclination and the degree of symmetry may not be high.
  • the region setting unit 353a sets the angle ⁇ between the axis D indicating the transmission direction of the ultrasonic wave in the selected ultrasonic image and the central axis Ax of the region r to be equal to or smaller than a predetermined value.
  • the region r may be set.
  • the predetermined value is not particularly limited, the predetermined value is set to an assumed maximum value (for example, ⁇ 5 °) of an angle between a transmission direction of the ultrasonic wave and a normal line of the surface of the subject 9 in a normal movement of the probe 2.
  • the region setting unit 353a selects one ultrasonic image, sets the region r, and then moves the region r by changing the angle ⁇ , for example, by 1 °.
  • the symmetry evaluation unit 353b evaluates the symmetry of the region r every time the angle ⁇ changes, and the region selection unit 353c selects the region r having the highest symmetry. As a result, even if the transmission direction of the ultrasonic wave is not perpendicular to the surface of the subject 9, the region r set near the navel has the highest degree of symmetry at any angle. can do.
  • FIG. 11 is a flowchart illustrating a processing procedure of the ultrasonic imaging method according to the present embodiment.
  • step S1 the probe 2 transmits ultrasonic waves from a plurality of different positions on the surface of the subject 9 toward the inside of the subject 9.
  • the probe 2 receives the ultrasonic wave reflected inside the subject 9 and outputs an echo signal from the probe 2.
  • step S2 the ultrasonic image generation unit 351 generates ultrasonic images corresponding to a plurality of different positions on the surface of the subject 9, respectively.
  • the ultrasonic image generation unit 351 generates an ultrasonic image. Steps S1 and S2 are repeated until the scanning of the probe 2 ends (Yes in step S3).
  • step S4 image synthesizing step
  • the image synthesizing unit 352 synthesizes an ultrasonic image at each of the positions to generate a synthetic image of a cross section of the subject 9.
  • step S5 direction adjustment step
  • the direction adjustment unit 353 directs the specific part included in the composite image in a predetermined direction.
  • the adjustment by the direction adjusting unit 353 may be automatically performed after the generation of the composite image, or may be performed when a predetermined operation via the input device 32 or the like is received. A more detailed processing procedure of step S5 will be described later.
  • step S6 display step
  • the composite image whose orientation has been adjusted is displayed on the display 31.
  • FIG. 12 is a flowchart showing a detailed processing procedure of step S5 in the present embodiment.
  • Step S5 has steps S5-1 to S5-7.
  • the region setting unit 353a selects one ultrasonic image from a plurality of ultrasonic images used for generating a composite image.
  • a substantially central ultrasonic image corresponding to the center of the generation order of the ultrasonic images is selected.
  • step S5-2 the region setting unit 353a sets the region r in the synthesized image by matching the center axis Ax of the region r with the axis indicating the transmission direction of the ultrasonic wave in the selected ultrasonic image.
  • step S5-3 the symmetry evaluation unit 353b evaluates the symmetry of the set region r.
  • step S5-4 If the degree of symmetry has not been evaluated for all the regions to be searched (No in step S5-4), the process proceeds to step S5-5, and the region setting unit 353a determines that another ultrasonic wave that has not been selected so far. Select an image. Then, steps S5-2 and S5-3 are performed on the selected other ultrasonic image. Steps S5-2, S5-3, and S5-5 are repeated until the degree of symmetry is evaluated for all areas to be searched (Yes in step S5-4).
  • the region selection unit 353c selects, for example, the region r having the maximum degree of symmetry.
  • the region selector 353c may select a region r having a relatively high degree of symmetry, such as a region having the second highest degree of left-right symmetry.
  • step S5-7 the angle calculation unit 353d calculates the angle difference between the left-right symmetric axis of the composite image and the central axis Ax of the region r selected by the region selection unit 353c, and the direction adjustment unit 353 By adjusting the angle of the composite image based on the angle difference, the composite image is rotated.
  • the technique of the present embodiment can be applied to a portion other than the rectus abdominal muscle as long as the portion includes a generally symmetrical tissue.
  • Such sites include the back, waist, neck and the like.
  • FIG. 13 is a block diagram illustrating a configuration of an ultrasonic imaging apparatus 3 ′ according to the second embodiment.
  • the ultrasonic imaging apparatus 3 ' has a configuration in which the direction adjusting unit 353 is replaced with a direction adjusting unit 353' in the ultrasonic imaging apparatus 3 shown in FIG.
  • the template image T is stored in the auxiliary storage device 33.
  • FIG. 14 is a block diagram showing functions and the like of the direction adjusting unit 353 '.
  • the direction adjustment unit 353 ' includes a virtual rotation unit 353e, a correlation evaluation unit 353f, an angle determination unit 353g, and a rotation unit 353h.
  • the virtual rotation unit 353e is a functional block that virtually rotates at least one of the template image T of the ultrasonic composite image and the composite image generated by the image composite unit 352.
  • the template image T in the present embodiment is an ultrasonic composite image including an umbilicus (specific part) and showing an abdominal section in which the umbilicus is directed upward (predetermined direction).
  • the template image T can be created by averaging abdominal ultrasound composite images of a plurality of individuals.
  • the composite image of the subject whose direction has been adjusted may be used as the template image T.
  • the virtual rotation unit 353e may rotate the template image T, but in the present embodiment, rotates only the composite image F. Further, the virtual rotation unit 353e may rotate the composite image F by 360 °, but in the present embodiment, the outer shape of the cross section in the template image T is a substantially arc shape directed upward, and the cross section in the composite image F The composite image F is rotated counterclockwise, for example, in a range of 45 ° based on the fact that the outer shape of R is a substantially arc shape inclined in the oblique right direction.
  • the outer shape of the cross section in the composite image F includes, for example, a left end corresponding to the contact position at the start of the scan of the probe 2, a right end corresponding to the contact position at the end of the scan, and the start and end of the scan. It can be determined from the coordinates of each part in the center corresponding to the contact position at the center.
  • the angle at which the virtual rotation unit 353e rotates the composite image F at one time is not particularly limited, but in the present embodiment, the composite image F is rotated, for example, by 1 ° as a predetermined angle.
  • FIG. 16 shows an example of the rotated composite image F.
  • the correlation evaluation unit 353f is a functional block for evaluating the degree of correlation between the template image T and the composite image. Specifically, each time the virtual rotation unit 353e rotates the composite image F, the correlation degree evaluation unit 353f, as shown in FIG. The template image T is matched, and a relative position at which the correlation value between the composite image F and the template image T is maximized is specified. Then, the correlation evaluation unit 353f records the correlation value at the specified relative position as a correlation in the memory for each rotation angle from the initial position of the composite image F.
  • the same method as in the first embodiment can be used, and the mutual information may be used instead of the correlation value.
  • the rotation of the composite image F by the virtual rotation unit 353e and the matching between the composite image F and the template image T by the correlation evaluation unit 353f are virtual and need not be displayed on the display 31. Further, the correlation degree evaluation unit 353f may terminate the correlation degree evaluation process when the virtual rotation unit 353e rotates the composite image F once and the correlation degree is equal to or larger than a predetermined threshold.
  • the angle determination unit 353g illustrated in FIG. 14 is a functional block that determines the rotation angle of the composite image F based on the correlation evaluated by the correlation evaluation unit 353f.
  • the rotation angle here means an angle at which the composite image F is actually rotated by the rotation unit 353h described later.
  • the composite image Fmax having the highest correlation is selected from the composite images F for which the degree of correlation has been evaluated, and the angle with respect to the initial position of the composite image Fmax is determined as the rotation angle of the composite image F.
  • the composite image selected by the correlation evaluation unit 353f does not necessarily need to be the composite image having the highest correlation, and may be any composite image having a correlation value equal to or greater than a predetermined threshold. For example, a composite image having a relatively high correlation, such as a composite image having the second highest correlation, may be selected.
  • the rotation unit 353h is a functional block that rotates the composite image F according to the rotation angle determined by the angle determination unit 353g. Since the composite image F rotated by the rotation unit 353h is the composite image evaluated to have the highest degree of correlation with the template image T, the composite image F is adjusted so that the navel is substantially upward.
  • the rotation unit 353h outputs the data of the rotated composite image to the display interface unit 36. In response, the display interface unit 36 displays the composite image in which the navel is in a desired direction (for example, upward). 31.
  • FIG. 18 is a flowchart illustrating a processing procedure of the ultrasonic imaging method according to the present embodiment.
  • the overall processing procedure is the same as the flowchart shown in FIG. 11, but step S5 for adjusting the direction of the composite image is replaced with step S5 ′.
  • FIG. 19 is a flowchart showing a detailed processing procedure of step S5 'in the present embodiment.
  • Step S5 'in cludes steps S5-8 to S5-12.
  • step S5-8 the virtual rotation unit 353e shown in FIG. 14 rotates the composite image F by, for example, 1 °.
  • step S5-9 the correlation evaluation unit 353f evaluates the correlation between the template image T and the composite image F while virtually moving the rotated composite image F.
  • step S5-10 If the rotation angle of the composite image F from the initial position has not reached a predetermined value (for example, 45 °) (No in step S5-10), the process returns to step S5-8. Steps S5-8 and S5-9 are repeated until the rotation angle of the composite image F from the initial position reaches a predetermined value (Yes in step S5-10).
  • a predetermined value for example, 45 °
  • step S5-11 the angle determination unit 353g calculates the rotation angle from the initial position of the composite image Fmax having the highest correlation degree from among the composite images F for which the correlation degree has been evaluated, and the rotation angle of the composite image F. To be determined.
  • step S5-12 the rotating unit 353h rotates the composite image F according to the rotation angle determined by the angle determining unit 353g.
  • the direction of the composite image is adjusted by comparing the template image while rotating the composite image.
  • the orientation can be adjusted for a composite image of any part that does not include the left-right symmetric tissue.
  • the direction of the composite image of the abdominal section is adjusted so that the navel is upward, but the direction of the composite image can be changed as appropriate.
  • the direction of the composite image may be adjusted so that the navel is directed downward or laterally.
  • the direction of the composite image is adjusted by using the left-right symmetry of the biological tissue or by comparing the composite image with the template image.
  • the present invention is not limited to these.
  • the height of the right and left ends corresponding to the contact positions at the start and end of the scan of the probe 2 is also adjusted so that the navel becomes upward. You may.
  • the manner of obtaining an ultrasonic image is not limited to this.
  • a plurality of ultrasonic transmission / reception devices may be arranged on the subject 9 and the ultrasonic transmission / reception devices may transmit ultrasonic waves simultaneously.
  • the present invention is applicable to both medical use and non-medical use, but is particularly suitable for use in which subjects who are not healthcare professionals check their own health condition on a daily basis.
  • All of the processes described herein can be embodied and fully automated by software code modules executed by a computing system including one or more computers or processors.
  • the code modules may be stored on any type of non-transitory computer readable media or other computer storage. Some or all of the methods may be embodied in dedicated computer hardware.
  • any particular operation, event, or function of the algorithms described herein can be performed in a different sequence, added, merged, or omitted altogether. (Eg, not all actions or events described are required to execute the algorithm). Further, in certain embodiments, the operations or events are performed in parallel rather than serially, for example, through multi-threading, interrupt processing, or over multiple processors or processor cores or on other parallel architectures. Can be. Further, different tasks or processes may be performed by different machines and / or computing systems that can function together.
  • the various illustrative logic blocks and modules described in connection with the embodiments disclosed herein may be implemented or performed by a machine such as a processor.
  • the processor may be a microprocessor, but, alternatively, the processor may be a controller, a microcontroller, or a state machine, or a combination thereof.
  • the processor may include an electrical circuit configured to process the computer-executable instructions.
  • the processor includes an application specific integrated circuit (ASIC), a field programmable gate array (FPGA), or other programmable device that performs logical operations without processing computer-executable instructions.
  • ASIC application specific integrated circuit
  • FPGA field programmable gate array
  • a processor may also be a combination of computing devices, such as a combination of a digital signal processor (digital signal processor) and a microprocessor, multiple microprocessors, one or more microprocessors in combination with a DSP core, or any other such device. Such a configuration can be implemented. Although described herein primarily in terms of digital technology, a processor may include primarily analog components. For example, some or all of the signal processing algorithms described herein can be implemented with analog circuits or mixed analog and digital circuits.
  • a computing environment includes any type of computer system, including, but not limited to, a microprocessor, a mainframe computer, a digital signal processor, a portable computing device, a device controller, or a computer system based on a computing engine in the apparatus. be able to.
  • conditional languages such as “could”, “could”, “will” or “possibly” refer to certain embodiments including certain features, elements and / or steps, Embodiments are understood in the context generally used to convey that they do not. Accordingly, such a conditional language is generally general that any feature, element, and / or step is required in one or more embodiments, or that one or more embodiments , Elements and / or steps are not necessarily meant to necessarily include the logic to determine whether they are included or performed in any particular embodiment.
  • a disjunctive language such as the phrase "at least one of X, Y, and Z" is used when the item, term, or the like is X, Y, Z, or any combination thereof, unless otherwise specified. It is understood in the context commonly used to indicate that it can be (eg: X, Y, Z). Thus, such disjunctive languages generally require each of at least one of X, at least one of Y, or at least one of Z for which a particular embodiment exists. It does not mean.
  • a processor configured to execute A, B and C below '' includes a first processor configured to execute A and a second processor configured to execute B and C. Processor.
  • a specific number of enumerations of an introduced example is explicitly recited, one of ordinary skill in the art will appreciate that such enumeration is typically at least the number enumerated (e.g., other modifiers). The mere enumeration of "with two enumerations" without (usually) usually means at least two enumerations, or two or more enumerations).
  • the term “floor” can be interchanged with the terms “ground” or “water surface”.
  • the term “vertical / vertical” refers to the direction perpendicular / vertical to the defined horizontal line. Terms such as “upper”, “lower”, “lower”, “upper”, “side”, “higher”, “lower”, “upper”, “beyond” and “below” are defined relative to the horizontal plane. ing.
  • connection As used herein, the terms “attach,” “connect,” “pair,” and other related terms, unless otherwise noted, are removable, movable, fixed, adjustable, And / or shall be construed to include a removable connection or connection. Connections / connections include direct connections and / or connections having an intermediate structure between the two components described.
  • numbers such as “about”, “about”, and “substantially” are inclusive of the recited number and Represents an amount close to the stated amount that performs the desired function or achieves the desired result.
  • “approximately”, “about”, and “substantially” refer to a value that is less than 10% of the stated value, unless otherwise indicated.
  • features of embodiments in which terms such as “approximately”, “about”, and “substantially” have been previously disclosed may further perform the desired function. Or a feature that has some variability to achieve the desired result for that feature.

Abstract

【課題】被検者が被検体の状態を把握しやすい超音波合成画像を表示できる超音波撮像装置を提供する。 【解決手段】被検体(9)の表面上の互いに異なる複数の位置から被検体(9)の内部に向けて送信されて内部で反射された超音波を受信して、前記各位置に対応した超音波画像をそれぞれ生成する超音波画像生成部(351)と、前記各位置における超音波画像を合成して被検体(9)の断面の合成画像を生成する画像合成部(352)と、前記合成画像を角度調整し、前記合成画像に含まれる特定部位を所定の方向に指向させる方向調整部(353)とを備えた、超音波撮像装置(3)。

Description

超音波撮像装置、超音波撮像システム、超音波撮像方法および超音波撮像プログラム
 本発明は、超音波によって被検体の内部を撮像する超音波撮像装置、超音波撮像システム、超音波撮像方法および超音波撮像プログラムに関する。
 例えば、メタボリックシンドロームの健診では、腹部の断層画像を取得するために、CT(Computed Tomography)装置やMRI(Magnetic Resonance Imaging)装置が用いられることが多い。これらの装置は、大がかりで高額であり、被爆の問題もあるため、近年では、超音波を用いて断層画像を取得する技術が開発されている。例えば、特許文献1には、プローブを被検体の表面に沿って移動させながら、プローブから超音波を断続的に送信することにより得られた複数の超音波画像を合成して、合成画像(パノラマ画像)を生成する技術が開示されている。この技術では、被検者自身がプローブを腹部に当接させながら移動させるだけで、腹部の断面を示す合成画像を得ることができる。
特許第5935344号
 例えば腹部の断層画像を取得する場合、まず脇腹付近にプローブを当て、その後、臍部を経て反対側の脇腹付近まで移動させる。このとき、現行の合成画像では、図20に示すように、プローブの初期位置に対応する脇腹付近が上向きになる。このような合成画像では、臍部が上向きになっていないため、被検者等が腹部の状態を把握し難いという問題がある。
 本発明は、上記問題を解決するためになされたものであって、被検者等が被検体の状態を把握しやすい超音波合成画像を表示できる超音波撮像装置を提供することを課題とする。
 本発明に係る超音波撮像装置は、被検体の表面上の互いに異なる複数の位置から該被検体の内部に向けて送信されて内部で反射された超音波を受信して、前記各位置に対応した超音波画像をそれぞれ生成する超音波画像生成部と、前記各位置における超音波画像を合成して前記被検体の断面の合成画像を生成する画像合成部と、前記合成画像を角度調整し、前記合成画像に含まれる特定部位を所定の方向に指向させる方向調整部とを備えたことを特徴とする。
 本発明に係る超音波撮像システムは、超音波を前記被検体の表面上の互いに異なる複数の位置から該被検体の内部に向けて送信し、前記被検体の内部で反射された超音波を受信するプローブと、本発明に係る超音波画像装置とを備えることを特徴とする。
 本発明に係る超音波撮像方法は、被検体の表面上の互いに異なる複数の位置から該被検体の内部に向けて送信されて内部で反射された超音波を受信して、前記各位置に対応した超音波画像をそれぞれ生成する超音波画像生成ステップと、前記各位置における超音波画像を合成して前記被検体の断面の合成画像を生成する画像合成ステップと、前記合成画像を角度調整し、前記合成画像に含まれる特定部位を所定の方向に指向させる方向調整ステップとを備えることを特徴とする。
 本発明に係る超音波撮像プログラムは、被検体の表面上の互いに異なる複数の位置から該被検体の内部に向けて送信されて内部で反射された超音波を受信して、前記各位置に対応した超音波画像をそれぞれ生成する超音波画像生成部、前記各位置における超音波画像を合成して前記被検体の断面の合成画像を生成する画像合成部、および、前記合成画像を角度調整し、前記合成画像に含まれる特定部位を所定の方向に指向させる方向調整部、としてコンピュータを動作させる。
 本発明によれば、被検者等が被検体の状態を把握しやすい超音波合成画像を表示することができる。
第1の実施形態に係る超音波撮像システムの構成を示す模式図である。 第1の実施形態に係る超音波撮像装置の構成を示すブロック図である。 腹部断面の合成画像の一例である。 方向調整部の機能ブロック図である。 領域が設定された合成画像の一例である。 プローブの軌跡、および、超音波の送信方向の説明図である。 領域に対応する超音波画像の番号と、相関値との関係の一例を示すグラフである。 腹直筋のほぼ真中に領域が設定された合成画像の一例である。 向きが調整された合成画像の一例である。 領域の他の設定例を説明するための図である。 第1の実施形態に係る超音波撮像方法の処理手順を示すフローチャートである。 第1の実施形態における方向調整ステップの詳細な処理手順を示すフローチャートである。 第2の実施形態に係る超音波撮像装置の構成を示すブロック図である。 第2の実施形態における方向調整部の機能ブロック図である。 調整対象となる合成画像の一例である。 回転された合成画像の一例である。 合成画像とテンプレート画像とのマッチングを説明するための図である。 第2の実施形態に係る超音波撮像方法の処理手順を示すフローチャートである。 第2の実施形態における方向調整ステップの詳細な処理手順を示すフローチャートである。 向きが調整されていない合成画像の一例である。
 以下、本発明の実施形態を、添付の図面を参照して詳細に説明する。なお、以下の説明および図面において、同じ符号は同じまたは類似の構成要素を示すこととし、よって、同じまたは類似の構成要素に関する重複した説明を省略する。
 (全体構成)
 図1は、第1の実施形態に係る超音波撮像システム1の構成を示す模式図である。超音波撮像システム1は、プローブ2と、超音波撮像装置3とを含んでいる。
 プローブ2は、超音波を被検体9の表面上の互いに異なる複数の位置から被検体9の内部に向けて送信し、被検体9の内部で反射された超音波を受信する装置であり、本実施形態では、被検者が把持して動かすことができるように構成されている。プローブ2の下端には、複数の超音波振動子が一列に配列された超音波送受面が設けられている。被検体9の断層画像(あるいは断面画像)を取得する場合、被検者は、被検体9にプローブ2の超音波送受面を当接させて、プローブ2を被検体9の表面に沿って移動させる(プローブ2によりスキャンする)。その間に、プローブ2は、超音波送受面から被検体9の内部に向けて超音波を断続的に送信し、被検体9の内部で反射された超音波を超音波送受面において受信する。これにより、プローブ2は、受信した超音波を示す電気信号(エコー信号)を出力する。
 なお、プローブ2は、リニアスキャン画像を取得するリニアスキャンモードで動作するが、セクタスキャン画像を取得するセクタスキャンモードで動作可能であってもよいし、リニアスキャンモードとセクタスキャンモードの両方で動作可能であってもよいし、他のモードあるいは他のモードとの組み合わせで動作可能であってもよい。また本実施形態では、被検体9は主に腹部であるが、被検体9に含まれる生体部位は特に限定されない。
 超音波撮像装置3は、WiFi(登録商標)などの無線によってプローブ2に接続されている。本実施形態では、超音波撮像装置3は例えばタブレット端末で構成されており、プローブ2から受信したエコー信号に基づき、複数の超音波画像を生成し、さらに、それらの超音波画像を合成した合成画像を表示する機能を有している。
 なお、超音波撮像装置3は画像を表示可能な装置であれば特に限定されず、汎用のパーソナルコンピュータや、スマートフォン等で構成することができる。また、プローブ2と超音波撮像装置3との接続方法は特に限定されず、有線接続であってもよい。
 (超音波撮像装置の機能)
 図2は、超音波撮像装置3の構成を示すブロック図である。超音波撮像装置3は、ハードウェアの構成として、ディスプレイ31と、入力装置32と、補助記憶装置33と、通信インタフェース部(I/F部)34と、表示インタフェース部(I/F部)36とを備えている。
 ディスプレイ31は、例えば液晶ディスプレイ、プラズマディスプレイおよび有機ELディスプレイ等で構成することができる。なお、ディスプレイ31を超音波撮像装置3とは別個の装置として構成してもよい。
 入力装置32は、ディスプレイ31の表面に設けられたタッチパネルである。被検者は、入力装置32を介してディスプレイ31に表示された画像に対する入力操作を行うことができる。
 補助記憶装置33は、オペレーティングシステム(OS)、各種制御プログラム、および、プログラムによって生成されたデータなどを記憶する不揮発性の記憶装置であり、例えば、eMMC(embedded Multi Media Card)やSSD(Solid State Drive)等によって構成される。補助記憶装置33には、超音波撮像プログラムPが記憶されている。超音波撮像プログラムPは、インターネットなどのネットワークを介して超音波撮像装置3にインストールしてもよい。あるいは、超音波撮像プログラムPを記録したSDカード等のコンピュータ読み取り可能な非一時的な有体の記録媒体を超音波撮像装置3に読み取らせることにより、超音波撮像プログラムPを超音波撮像装置3にインストールしてもよい。
 通信インタフェース部34は、外部機器とのデータの送受信を行うものであり、本実施形態では、プローブ2から受信した信号の復調や、プローブ2に送信するための制御信号の変調などを行う。
 表示インタフェース部36は、超音波撮像装置3の演算処理によって生成された各種画像データをVRAMに展開することにより、当該画像をディスプレイ31に表示するものであり、例えば後述する信号処理部35によって生成された合成画像等をディスプレイ31に表示する。
 図示していないが、超音波撮像装置3は、他のハードウェアの構成として、データ処理を行うCPU等のプロセッサ、および、プロセッサがデータ処理の作業領域に使用するメモリ(主記憶装置)などをさらに備えている。
 また、超音波撮像装置3は、ソフトウェアの構成として、信号処理部35を備えている。信号処理部35は、プロセッサが超音波撮像プログラムPを実行することにより実現される機能ブロックであり、プローブ2から受信されたエコー信号を処理して、被検体9の超音波合成画像を、被検者、医師、撮像従事者などが被検体9の状態を把握しやすいようにディスプレイ31に表示する機能を有している。この機能を実現するために信号処理部35は、超音波画像生成部351と、画像合成部352と、方向調整部353とを備えている。なお、信号処理部35を、集積回路上に形成された論理回路によってハードウェア的に実現してもよい。
 超音波画像生成部351は、プローブ2から受信されたエコー信号から、被検体9の内部の超音波画像を生成する。プローブ2は、被検体9の表面を移動しながら、超音波撮像装置3から送信される制御信号にしたがって、被検体9の表面上の互いに異なる複数の位置から被検体9の内部に向けて超音波を送信し、被検体9の内部で反射された超音波を受信して、超音波撮像装置3にエコー信号を出力する。これにより、プローブ2が超音波を受信するたびに、超音波画像生成部351にエコー信号が入力され、超音波画像生成部351は、エコー信号から、被検体9の表面上の互いに異なる複数の位置に対応した超音波画像を生成する。超音波画像の生成数は、プローブ2による超音波の送受信時間、および、送受信の周期によって変動するが、本実施形態では、n枚の超音波画像が生成されるとする。
 なお、超音波画像生成部351の機能を、プローブ2を制御する制御装置に設けてもよい。その場合、制御装置を超音波撮像装置3に接続してもよいし、制御装置に超音波画像を記憶させておき、記録媒体を介して超音波画像を超音波撮像装置3に送信してもよい。
 画像合成部352は、超音波画像生成部351によって生成された、被検体9の表面上の前記各位置における超音波画像を合成して被検体9の断面の合成画像を生成する機能ブロックである。超音波画像の合成は、周知の技術を適用することができ、本実施形態では、例えば各超音波画像間の特徴点マッチングを用いて超音波画像を合成する。なお、本実施形態において、「断面」とは、輪切りの断面だけでなく、部分的な断面も含む概念である。
 この方法では、1番目の超音波画像および2番目の超音波画像から特徴点を検出する。そして、1番目の超音波画像と2番目の超音波画像の特徴点をマッチングして、1番目の超音波画像と2番目の超音波画像の同次変換行列を計算する。具体的には、2番目の超音波画像が1番目の超音波画像に対して、時計周りにθだけ回転し、x軸方向にt、y軸方向にtだけ平行移動させると1番目の超音波画像と2番目の超音波画像の特徴点が一致する場合、2番目の超音波画像の座標系を動かして1番目の超音波画像に合わせる同次変換行列Rは、
Figure JPOXMLDOC01-appb-M000001
となる。すなわち、1番目の超音波画像上の特徴点(x、y)が、2番目の超音波画像上の特徴点(x'、y')に移動するとき、
Figure JPOXMLDOC01-appb-M000002
の関係が成り立つ。なお、特徴点の座標には誤差が含まれており、また、ノイズの影響により決定された対応関係自体に誤りが含まれているため、計算に悪影響を及ぼす外れ値をRANSACアルゴリズムにより除外する。また、位置関係の計算には、ガウス・ニュートン法、レーベンバーグ・マーカート法等の非線形最小二乗法を利用できる。
 同次変換行列Rの計算を、生成順が隣り合う2枚の超音波画像について順次行い、n-1番目の超音波画像およびn番目の超音波画像まで行う。k+1(1≦k≦n-1)番目の超音波画像からk番目の超音波画像への同次変換行列をRとすると、k+1番目の超音波画像から1番目の超音波画像への同次変換行列は、R…Rとなる。1番目の超音波画像の座標系はワールド座標系と呼ばれ、全ての超音波画像について、ワールド座標系への同次変換行列を計算することで、全ての超音波画像の座標が計算できる。その後、全ての超音波画像の画素をブレンドすることにより、1枚の合成画像が生成される。
 本実施形態においては、まず、図20に示す腹部断面を含む合成画像が生成されたとする。
 方向調整部353は、合成画像を角度調整し、前記合成画像に含まれる特定部位を所定の方向に指向させる機能を有している。本実施形態では、方向調整部353は、図20に示す合成画像の向きを、臍部が例えば上方向になるように調整する。調整の具体的な方法については、後述する。
 方向調整部353によって方向調整された合成画像は、表示インタフェース部36に入力される。表示インタフェース部36は、合成画像のデータをVRAMに展開することにより、合成画像をディスプレイ31に表示する。なお、表示インタフェース部36は、下記の方向調整をする前の合成画像をいったんディスプレイ31に表示してもよいし、方向調整を行った後に、合成画像をディスプレイ31に表示してもよい。
 (方向調整)
 以下、方向調整部353が合成画像の向きを調整する一形態について、具体的に説明する。本実施形態では、図3において破線で示すように、腹直筋の断面形状が概ね左右対称であることを利用して、臍部が上方向になるように合成画像の向きを調整する。
 図4に示すように、方向調整部353は、領域設定部353aと、対称度評価部353bと、領域選択部353cと、角度算出部353dと、を備えている。
 領域設定部353aは、中心軸に対して線対称の形状の領域rを任意の位置と任意の角度で1または複数設定する機能ブロックである。本実施形態において、領域rの形状は、図5の白線枠に示すように中心軸Axに対して線対称な長方形である。領域rが左右の腹直筋を均等に含む場合、領域rの中心軸Axが腹部の臍部を通る中心軸とみなせる。領域設定部353aは、左右対称性の高い領域rを探索するため、領域rを移動可能に設定する。
 より具体的には、領域設定部353aは、合成画像の生成に用いられた複数の超音波画像から一つの超音波画像を選択し、被検体9の表面上の位置の超音波の送信方向を示す軸に領域rの中心軸Axを合わせて領域rの設定をする。すなわち、領域設定部353aは、被検体9の表面上の互いに異なる複数の位置における超音波の送信方向を示す各軸にそれぞれ各領域rの中心軸Axを合わせて当該各領域rの設定をする。各超音波画像における超音波の送信方向は、1番目の超音波画像の座標系(ワールド座標系)への同次変換行列に基づいて特定できる。また、超音波画像取得時におけるプローブ2の軌跡は、各超音波画像の上辺に対応する。そのため、図6に示すように、プローブ2の軌跡、および、超音波の送信方向の情報は、合成画像に含まれている。
 領域設定部353aは、1番目の超音波画像からn番目(nは正の整数)の超音波画像までを順に選択してもよいが、本実施形態では、超音波画像の生成された順の略中央に対応する略中央超音波画像の中心軸、および、前記略中央超音波画像の前後の所定数の生成順の超音波画像の前記中心軸を、それぞれ順次選択する。nが偶数の場合、略中央超音波画像は、n/2番の超音波画像に対応する。nが奇数の場合、略中央超音波画像は、(n-1)/2番あるいは(n+1)/2番のいずれかの超音波画像に対応する。また、略中央超音波画像における超音波の送信方向を示す軸をDcとする。領域設定部353aは、n枚の超音波画像から略中央超音波画像を最初に選択し、略中央超音波画像における軸Dcと、図5において一点鎖線で示す領域rの中心軸Axとを合わせて、領域rを設定する。すなわち、略中央超音波画像における超音波の送信方向と中心軸が一致する領域rを探索開始領域とする。なお、以下の説明では、超音波画像における超音波の送信方向と、領域の中心軸とが一致する場合、当該超音波画像と当該領域とが対応しているものとする。
 その後、領域rを移動させる場合、領域設定部353aは、他の超音波画像を選択し、選択した超音波画像における超音波の送信方向と、領域rの中心軸Axが一致するように、再度、領域rを設定する。本実施形態では、領域設定部353aは、略中央超音波画像を選択した後、略中央超音波画像の生成順における前後の所定数mの超音波画像(mが偶数の場合、(n/2)-(m/2)番から(n/2)+(m/2)-1番までの超音波画像)を順次選択することにより、領域rを移動させる。
 ここで、被検者が腹部の超音波画像を取得する場合、通常は、一方の脇腹付近から臍部を経て他方の脇腹付近へプローブ2を移動させる。そのため、略中央超音波画像の取得時におけるプローブ2の位置は、臍部付近である可能性が高い。そのため、左右対称性の高い領域rの探索は、全ての超音波画像に対応する領域について行う必要は無く、m<nとすることができる。これにより、領域rの移動回数を抑えて、演算量を減らすことができる。
 図4に示す対称度評価部353bは、領域rの中心軸Axに対して領域r内の左右にそれぞれある画像の対称度を評価する機能ブロックである。例えば図5に示す領域rが設定された場合、対称度評価部353bは、中心軸Axに対して左側の領域と右側の領域との相関値を計算することにより、領域rの対称度を評価する。相関値の計算手法としては、例えばSum of Abusolute Difference(SAD)、Sum of Squared Difference(SSD)、Normalized Cross-Correlation(NCC)、およびZero-means Normalized Cross-Correlation(ZNCC)等を用いることができるが、明るさの変化に対して頑健なZNCCが特に好ましい。なお、相関値については、例えばhttp://isl.sist.chukyo-u.ac.jp/Archives/tm.html を参照されたい。
 また、合成画像では、腹直筋などの筋肉とその他の組織との境界が高輝度になるため、線状の模様が形成されている。対称度評価部353bは、特に、領域r中の模様について、相関値を計算することが好ましい。
 なお、相関値の代わりに、相互情報量を用いて対称度を評価してもよい。相互情報量については、例えばhttps://lp-tech.net/articles/9pF3Zを参照されたい。
 対称度評価部353bは、領域設定部353aが設定した全ての領域rについて、対称度を評価し、領域rが移動するたびに対称度をメモリに記録しておく。図7は、領域に対応する超音波画像の番号(画像No.)と、相関値との関係の一例を示すグラフである。
 領域選択部353cは、対称度に基づいて領域rを選択する機能ブロックである。本実施形態では、領域選択部353cは、対称度が評価された領域rの中から、最大の対称度を有する領域r(図7に示す例では、p番目の超音波画像に対応する領域)を選択する。これにより、図8に示すように、中心軸Axが左右の腹直筋のほぼ真中に位置する領域rが選択される。
 なお、領域選択部353cによって選択される領域は、必ずしも最大の対称度を有する領域である必要はなく、所定閾値以上の対称度を有する領域のいずれかであってもよい。例えば左右対称度の2番目に高い領域等、対称度の比較的高い領域が選択されてもよい。
 角度算出部353dは、合成画像を通る所定の軸と選択された領域rの中心軸Axとの角度差を算出する機能ブロックであり、方向調整部353は、角度算出部353dが算出した角度差に基づいて、合成画像の角度調整をする。本実施形態では、合成画像を通る所定の軸は、合成画像の左右対称軸である。これにより、図8に示す中心軸Axが上方向に指向するように合成画像が回転する。方向調整部353によって調整された合成画像のデータは表示インタフェース部36に出力され、図9に示すような、臍部が上方向になった合成画像がディスプレイ31に表示される。これにより、被検者は、腹部の状態を容易に把握することができる。なお、図9においては合成画像の一部のみが表示されているが、合成画像の全体が表示されてもよいことはいうまでもない。
 なお、領域rの形状は、中心軸に対して線対称であれば特に限定されず、例えば、等脚台形、菱形、六角形、楕円形などであってもよい。また、領域rの大きさも特に限定されないが、左右の各腹直筋が概ね左右対称の形状を有しているため、領域rの幅を各腹直筋の幅と異ならせることが好ましい。
 また、被検者がプローブ2を被検体9に当接させる場合、超音波の送信方向が被検体9の表面に垂直になるとは限らない。特に、プローブ2が臍部付近を通過したときの超音波の送信方向が被検体9の表面に垂直でなかった場合、臍部付近に設定された領域が、腹直筋が連なる方向に対して傾き、対称度が高くならない可能性がある。
 そこで領域設定部353aは、図10に示すように、選択した超音波画像における超音波の送信方向を示す軸Dと、領域rの中心軸Axとの角度θが所定値以下になるように、領域rを設定してもよい。所定値は特に限定されないが、通常のプローブ2の移動における、超音波の送信方向と被検体9の表面の法線とがなす角度の想定される最大値(例えば±5°)に設定する。この場合、領域設定部353aは、1つの超音波画像を選択して、領域rを設定した後、角度θを例えば1°ずつ変化させることにより、領域rを移動させる。対称度評価部353bは、角度θが変化するたびに、領域rの対称度を評価し、領域選択部353cは、対称度が最も高い領域rを選択する。これにより、超音波の送信方向が被検体9の表面に垂直でなかったとしても、臍部付近に設定された領域rはいずれかの角度において対称度が最も高くなるため、適切な領域を選択することができる。
 (処理手順)
 図11は、本実施形態に係る超音波撮像方法の処理手順を示すフローチャートである。
 ステップS1において、プローブ2が超音波を被検体9の表面上の互いに異なる複数の位置から被検体9の内部に向けて送信する。これにより、プローブ2は、被検体9の内部で反射された超音波を受信し、プローブ2からエコー信号が出力される。
 ステップS2において、超音波画像生成部351が被検体9の表面上の互いに異なる複数の位置に対応した超音波画像をそれぞれ生成する。本実施形態では、プローブ2からエコー信号が出力されるたびに、超音波画像生成部351が超音波画像を生成する。ステップS1およびS2は、プローブ2のスキャンが終了するまで(ステップS3においてYes)、繰り返される。
 プローブ2のスキャンが終了すると、ステップS4(画像合成ステップ)において、画像合成部352が、前記各位置における超音波画像を合成して被検体9の断面の合成画像を生成する。
 続いて、ステップS5(方向調整ステップ)において、方向調整部353が、合成画像に含まれる特定部位を所定の方向に指向させる。方向調整部353による調整は、合成画像の生成後、自動で行ってもよいし、入力装置32等を介した所定の操作を受け付けた場合に行ってもよい。ステップS5のさらに詳細な処理手順は後述する。
 その後、ステップS6(表示ステップ)において、向きが調整された合成画像がディスプレイ31に表示される。
 図12は、本実施形態におけるステップS5の詳細な処理手順を示すフローチャートである。ステップS5は、ステップS5-1~S5-7を有している。
 まず、ステップS5-1において、領域設定部353aが、合成画像の生成に用いられた複数の超音波画像から一つの超音波画像を選択する。本実施形態では、例えば、超音波画像の生成順の中央に対応する略中央超音波画像を選択する。
 続いて、ステップS5-2において、領域設定部353aが、選択した超音波画像における超音波の送信方向を示す軸に領域rの中心軸Axを合わせて、合成画像に領域rを設定する。
 続いて、ステップS5-3において、対称度評価部353bが、設定された領域rの対称度を評価する。
 探索対象となる全ての領域について対称度が評価されていない場合(ステップS5-4においてNo)、ステップS5-5に移行し、領域設定部353aが、これまでに選択されていない他の超音波画像を選択する。そして、当該選択した他の超音波画像について、ステップS5-2およびS5-3を実施する。ステップS5-2、S5-3およびS5-5は、探索対象となる全ての領域について対称度が評価されるまで(ステップS5-4においてYes)、繰り返される。
 その後、ステップS5-6において、領域選択部353cが、例えば最大の対称度を有する領域rを選択する。なお、領域選択部353cが、左右対称度の2番目に高い領域等、対称度の比較的高い領域rを選択してもよい。
 続いて、ステップS5-7において、角度算出部353dが、合成画像の左右対称軸と領域選択部353cによって選択された領域rの中心軸Axとの角度差を算出し、方向調整部353が、該角度差に基づいて前記合成画像の角度調整をすることにより、合成画像を回転させる。
 (総括)
 以上のように、本実施形態では、腹直筋の断面形状が概ね左右対称であることを利用して、臍部が上方向になるように合成画像の向きを調整する。これにより、被検者等には、腹部の状態が把握しやすい合成画像を表示することができる。
 なお、本実施形態の技術は、概ね左右対称な組織を含む部位であれば、腹直筋以外にも適用可能である。そのような部位として、背中、腰、首などが挙げられる。
 〔実施形態2〕
 第2の実施形態では、合成画像を回転させながらテンプレート画像と比較することにより、合成画像の向きを調整する形態について説明する。図13は、第2の実施形態に係る超音波撮像装置3'の構成を示すブロック図である。超音波撮像装置3'は、図2に示す超音波撮像装置3において、方向調整部353を方向調整部353'に置き換えた構成である。また、補助記憶装置33には、テンプレート画像Tが記憶されている。
 図14は、方向調整部353'の機能等を示すブロック図である。方向調整部353'は、仮想回転部353eと、相関度評価部353fと、角度決定部353gと、回転部353hと、を備えている。
 仮想回転部353eは、超音波合成画像のテンプレート画像T、および、画像合成部352によって生成された合成画像の少なくともいずれかを仮想的に回転させる機能ブロックである。本実施形態におけるテンプレート画像Tは、臍部(特定部位)を含み、かつ、臍部が上方向(所定の方向)に指向している腹部断面を示す超音波合成画像である。テンプレート画像Tは、複数の個人の腹部超音波合成画像を平均化することによって作成することができる。あるいは、過去に同じ被検者の超音波合成画像が生成されていた場合は、方向が調整された過去の被検者の合成画像をテンプレート画像Tとしてもよい。本実施形態では、方向が調整された合成画像をテンプレート画像Tとし、図15に示す合成画像Fが新たに生成されたものとする。
 なお、仮想回転部353eは、テンプレート画像Tを回転させてもよいが、本実施形態では、合成画像Fのみを回転させる。また、仮想回転部353eは、合成画像Fを360°回転させてもよいが、本実施形態では、テンプレート画像Tにおける断面の外形が上方向に指向した略円弧状であり、合成画像Fにおける断面の外形が右斜め方向に傾斜した略円弧状であることに基づき、合成画像Fを反時計回りに例えば45°の範囲で回転させる。合成画像Fにおける断面の外形は、例えば、プローブ2のスキャン開始時の当接位置に対応する左端部、スキャン終了時の当接位置に対応する右端部、および、スキャン開始時と終了時との真中の時点における当接位置に対応する中央部の各部の座標から判別することができる。
 また、仮想回転部353eが合成画像Fを一度に回転させる角度は特に限定されないが、本実施形態では、合成画像Fを例えば所定角度として1°ずつ回転させる。回転された合成画像Fの一例を図16に示す。
 相関度評価部353fは、テンプレート画像Tと合成画像との相関度を評価する機能ブロックである。具体的には、仮想回転部353eが合成画像Fを回転させるたびに、相関度評価部353fは、図17に示すように、回転された合成画像Fを仮想的に移動させながら合成画像Fとテンプレート画像Tとをマッチングさせ、合成画像Fとテンプレート画像Tとの相関値が最大になる相対位置を特定する。そして、相関度評価部353fは、特定された相対位置における相関値を、相関度として、合成画像Fの初期位置からの回転角度ごとにメモリに記録しておく。
 なお、相関値の計算手法は、第1の実施形態と同様の手法を用いることができ、相関値の代わりに相互情報量を用いてもよい。また、仮想回転部353eによる合成画像Fの回転、および、相関度評価部353fによる合成画像Fとテンプレート画像Tとのマッチングは仮想的なものであり、ディスプレイ31に表示しなくてもよい。また、相関度評価部353fは、仮想回転部353eが合成画像Fを1回回転させたときに、前記相関度が所定閾値以上であった場合、相関度評価処理を終了してもよい。
 図14に示す角度決定部353gは、相関度評価部353fが評価した相関度に基づいて、合成画像Fの回転角度を決定する機能ブロックである。ここでの回転角度は、後述する回転部353hによって合成画像Fが実際に回転する角度を意味する。本実施形態では、相関度が評価された合成画像Fの中から、相関度が最も高い合成画像Fmaxを選択し、合成画像Fmaxの初期位置に対する角度を、合成画像Fの回転角度として決定する。
 なお、相関度評価部353fによって選択される合成画像は、必ずしも相関度が最も高い合成画像である必要はなく、相関値が所定閾値以上の合成画像のいずれかであってもよい。例えば、相関度の2番目に高い合成画像等、相関度の比較的高い合成画像が選択されてもよい。
 回転部353hは、角度決定部353gによって決定された回転角度に従って、合成画像Fを回転させる機能ブロックである。回転部353hによって回転された合成画像Fは、テンプレート画像Tとの相関度が最も高いと評価された合成画像であるため、臍部がほぼ上方向になるように調整されている。回転部353hは、回転させた合成画像のデータを表示インタフェース部36に出力し、これに応じて、表示インタフェース部36は、臍部が所望の方向(例えば上方向)になった合成画像をディスプレイ31に表示する。
 (処理手順)
 図18は、本実施形態に超音波撮像方法の処理手順を示すフローチャートである。図18に示すフローチャートでは、全体的な処理手順は図11に示すフローチャートと同一であるが、合成画像の向きを調整するステップS5がステップS5'に置き換わっている。
 図19は、本実施形態におけるステップS5'の詳細な処理手順を示すフローチャートである。ステップS5'は、ステップS5-8~S5-12を有している。
 まず、ステップS5-8において、図14に示す仮想回転部353eが、合成画像Fを例えば1°ずつ回転させる。
 続いて、ステップS5-9において、相関度評価部353fが、回転された合成画像Fを仮想的に移動させながら、テンプレート画像Tと合成画像Fとの相関度を評価する。
 合成画像Fの初期位置からの回転角度が所定値(例えば45°)に達していない場合(ステップS5-10においてNo)、ステップS5-8に戻る。そして、ステップS5-8およびS5-9が、合成画像Fの初期位置からの回転角度が所定値に達するまで(ステップS5-10においてYes)、繰り返される。
 その後、ステップS5-11において、角度決定部353gが、相関度が評価された合成画像Fの中から、相関度が最も高い合成画像Fmaxの初期位置からの回転角度を、合成画像Fの回転角度として決定する。
 続いて、ステップS5-12において、回転部353hが、角度決定部353gによって決定された回転角度に従って、合成画像Fを回転させる。
 (総括)
 以上のように、本実施形態では、合成画像を回転させながらテンプレート画像と比較することにより、合成画像の向きを調整する。生体組織の左右対称性を利用する第1の実施形態とは異なり、本実施形態では、左右対称な組織を含まないあらゆる部位の合成画像について、向きの調整が可能である。
 (付記事項)
 本発明は上記実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、各実施形態に開示された技術的手段を適宜組み合わせて得られる形態も本発明の技術的範囲に含まれる。
 上記実施形態では、腹部断面の合成画像の向きを、臍部が上方向になるように調整する場合について説明したが、合成画像の向きは、適宜変更することができる。例えば、臍部が下方向や横方向になるように合成画像の向きを調整してもよい。
 また、上記実施形態では、生体組織の左右対称性を利用する、または、合成画像をテンプレート画像と比較することにより、合成画像の向きを調整しているが、合成画像の向きを調整する方法は、これらに限定されない。例えば、腹部断面の合成画像の場合、プローブ2のスキャン開始時および終了時の当接位置に対応する左右端部の高さを等しくすることによっても、臍部が上方向になるように調整してもよい。
 また、上記実施形態では、被検体9の表面上の互いに異なる複数の位置に対応した超音波画像を得るために、プローブ2を被検体9の表面に沿って移動させながら、プローブ2から超音波を断続的に送信していたが、超音波画像を得る態様はこれに限定されない。例えば、被検体9に超音波送受信装置を複数配置し、各超音波送受信装置から同時に超音波を送信してもよい。
 本発明は、医療用途および非医療用途のいずれにも適用可能であるが、特に、医療従事者ではない被検者が自身の健康状態を日常的に確認する用途に好適である。
1    超音波撮像システム
2    プローブ
3    超音波撮像装置
31   ディスプレイ
32   入力装置
33   補助記憶装置
34   通信インタフェース部
35   信号処理部
351  超音波画像生成部
352  画像合成部
353  方向調整部
353' 方向調整部
353a 領域設定部
353b 対称度評価部
353c 領域選択部
353d 角度算出部
353e 仮想回転部
353f 相関度評価部
353g 角度決定部
353h 回転部
36   表示インタフェース部
9    被検体
Ax   中心軸
D    送信方向を示す軸
Dc   送信方向を示す軸
F    合成画像
Fmax 合成画像
P    超音波撮像プログラム
r    領域
T    テンプレート画像
Tc   略中央超音波画像
用語
 必ずしも全ての目的または効果・利点が、本明細書中に記載される任意の特定の実施形態に則って達成され得るわけではない。従って、例えば当業者であれば、特定の実施形態は、本明細書中で教示または示唆されるような他の目的または効果・利点を必ずしも達成することなく、本明細書中で教示されるような1つまたは複数の効果・利点を達成または最適化するように動作するように構成され得ることを想到するであろう。
 本明細書中に記載される全ての処理は、1つまたは複数のコンピュータまたはプロセッサを含むコンピューティングシステムによって実行されるソフトウェアコードモジュールにより具現化され、完全に自動化され得る。コードモジュールは、任意のタイプの非一時的なコンピュータ可読媒体または他のコンピュータ記憶装置に記憶することができる。一部または全ての方法は、専用のコンピュータハードウェアで具現化され得る。
 本明細書中に記載されるもの以外でも、多くの他の変形例があることは、本開示から明らかである。例えば、実施形態に応じて、本明細書中に記載されるアルゴリズムのいずれかの特定の動作、イベント、または機能は、異なるシーケンスで実行することができ、追加、併合、または完全に除外することができる (例えば、記述された全ての行為または事象がアルゴリズムの実行に必要というわけではない)。さらに、特定の実施形態では、動作またはイベントは、例えば、マルチスレッド処理、割り込み処理、または複数のプロセッサまたはプロセッサコアを介して、または他の並列アーキテクチャ上で、逐次ではなく、並列に実行することができる。さらに、異なるタスクまたはプロセスは、一緒に機能し得る異なるマシンおよび/またはコンピューティングシステムによっても実行され得る。
 本明細書中に開示された実施形態に関連して説明された様々な例示的論理ブロックおよびモジュールは、プロセッサなどのマシンによって実施または実行することができる。プロセッサは、マイクロプロセッサであってもよいが、代替的に、プロセッサは、コントローラ、マイクロコントローラ、またはステートマシン、またはそれらの組み合わせなどであってもよい。プロセッサは、コンピュータ実行可能命令を処理するように構成された電気回路を含むことができる。別の実施形態では、プロセッサは、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、またはコンピュータ実行可能命令を処理することなく論理演算を実行する他のプログラマブルデバイスを含む。プロセッサはまた、コンピューティングデバイスの組み合わせ、例えば、デジタル信号プロセッサ(デジタル信号処理装置)とマイクロプロセッサの組み合わせ、複数のマイクロプロセッサ、DSPコアと組み合わせた1つ以上のマイクロプロセッサ、または任意の他のそのような構成として実装することができる。本明細書中では、主にデジタル技術に関して説明するが、プロセッサは、主にアナログ素子を含むこともできる。例えば、本明細書中に記載される信号処理アルゴリズムの一部または全部は、アナログ回路またはアナログとデジタルの混合回路により実装することができる。コンピューティング環境は、マイクロプロセッサ、メインフレームコンピュータ、デジタル信号プロセッサ、ポータブルコンピューティングデバイス、デバイスコントローラ、または装置内の計算エンジンに基づくコンピュータシステムを含むが、これらに限定されない任意のタイプのコンピュータシステムを含むことができる。
 特に明記しない限り、「できる」「できた」「だろう」または「可能性がある」などの条件付き言語は、特定の実施形態が特定の特徴、要素および/またはステップを含むが、他の実施形態は含まないことを伝達するために一般に使用される文脈内での意味で理解される。従って、このような条件付き言語は、一般に、特徴、要素および/またはステップが1つ以上の実施形態に必要とされる任意の方法であること、または1つ以上の実施形態が、これらの特徴、要素および/またはステップが任意の特定の実施形態に含まれるか、または実行されるかどうかを決定するための論理を必然的に含むことを意味するという訳ではない。
 語句「X、Y、Zの少なくとも1つ」のような選言的言語は、特に別段の記載がない限り、項目、用語等が X, Y, Z、のいずれか、又はそれらの任意の組み合わせであり得ることを示すために一般的に使用されている文脈で理解される(例: X、Y、Z)。従って、このような選言的言語は、一般的には、特定の実施形態がそれぞれ存在するXの少なくとも1つ、Yの少なくとも1つ、またはZの少なくとも1つ、の各々を必要とすることを意味するものではない。
 本明細書中に記載されかつ/または添付の図面に示されたフロー図における任意のプロセス記述、要素またはブロックは、プロセスにおける特定の論理機能または要素を実装するための1つ以上の実行可能命令を含む、潜在的にモジュール、セグメント、またはコードの一部を表すものとして理解されるべきである。代替の実施形態は、本明細書中に記載された実施形態の範囲内に含まれ、ここでは、要素または機能は、当業者に理解されるように、関連する機能性に応じて、実質的に同時にまたは逆の順序で、図示または説明されたものから削除、順不同で実行され得る。
 特に明示されていない限り、「一つ」のような数詞は、一般的に、1つ以上の記述された項目を含むと解釈されるべきである。従って、「~するように設定された一つのデバイス」などの語句は、1つ以上の列挙されたデバイスを含むことを意図している。このような1つまたは複数の列挙されたデバイスは、記載された引用を実行するように集合的に構成することもできる。例えば、「以下のA、BおよびCを実行するように構成されたプロセッサ」は、Aを実行するように構成された第1のプロセッサと、BおよびCを実行するように構成された第2のプロセッサとを含むことができる。加えて、導入された実施例の具体的な数の列挙が明示的に列挙されたとしても、当業者は、このような列挙が典型的には少なくとも列挙された数(例えば、他の修飾語を用いない「2つの列挙と」の単なる列挙は、通常、少なくとも2つの列挙、または2つ以上の列挙を意味する)を意味すると解釈されるべきである。
 一般に、本明細書中で使用される用語は、一般に、「非限定」用語(例えば、「~を含む」という用語は「それだけでなく、少なくとも~を含む」と解釈すべきであり、「~を持つ」という用語は「少なくとも~を持っている」と解釈すべきであり、「含む」という用語は「以下を含むが、これらに限定されない。」などと解釈すべきである。) を意図していると、当業者には判断される。
 説明の目的のために、本明細書中で使用される「水平」という用語は、その方向に関係なく、説明されるシステムが使用される領域の床の平面または表面に平行な平面、または説明される方法が実施される平面として定義される。「床」という用語は、「地面」または「水面」という用語と置き換えることができる。「垂直/鉛直」という用語は、定義された水平線に垂直/鉛直な方向を指します。「上側」「下側」「下」「上」「側面」「より高く」「より低く」「上の方に」「~を越えて」「下の」などの用語は水平面に対して定義されている。
 本明細書中で使用される用語の「付着する」、「接続する」、「対になる」及び他の関連用語は、別段の注記がない限り、取り外し可能、移動可能、固定、調節可能、及び/または、取り外し可能な接続または連結を含むと解釈されるべきである。接続/連結は、直接接続及び/または説明した2つの構成要素間の中間構造を有する接続を含む。
 特に明示されていない限り、本明細書中で使用される、「およそ」、「約」、および「実質的に」のような用語が先行する数は、列挙された数を含み、また、さらに所望の機能を実行するか、または所望の結果を達成する、記載された量に近い量を表す。例えば、「およそ」、「約」及び「実質的に」とは、特に明示されていない限り、記載された数値の10%未満の値をいう。本明細書中で使用されているように、「およそ」、「約」、および「実質的に」などの用語が先行して開示されている実施形態の特徴は、さらに所望の機能を実行するか、またはその特徴について所望の結果を達成するいくつかの可変性を有する特徴を表す。
 上述した実施形態には、多くの変形例および修正例を加えることができ、それらの要素は、他の許容可能な例の中にあるものとして理解されるべきである。そのような全ての修正および変形は、本開示の範囲内に含まれることを意図し、以下の特許請求の範囲によって保護される。

Claims (17)

  1.  被検体の表面上の互いに異なる複数の位置から該被検体の内部に向けて送信されて内部で反射された超音波を受信して、前記各位置に対応した超音波画像をそれぞれ生成する超音波画像生成部と、
     前記各位置における超音波画像を合成して前記被検体の断面の合成画像を生成する画像合成部と、
     前記合成画像を角度調整し、前記合成画像に含まれる特定部位を所定の方向に指向させる方向調整部と
    を備えた、超音波撮像装置。
  2.  前記特定部位に腹部の臍部を含み、
     前記方向調整部は、前記合成画像を画面表示する際に該臍部を該画面表示の所望の方向に一致させる、請求項1に記載の超音波撮像装置。
  3.  前記方向調整部は、
     前記合成画像において、中心軸に対して線対称の形状の領域を任意の位置と任意の角度で1または複数設定する領域設定部と、
     前記中心軸に対して前記領域内の左右にそれぞれある画像の対称度を評価する対称度評価部と、
     前記対称度に基づいて前記領域を選択する領域選択部と、
     前記合成画像を通る所定の軸と選択された前記領域の前記中心軸との角度差を算出する角度算出部とを備え、
     該角度差に基づいて前記合成画像の角度調整をする、請求項1または2に記載の超音波撮像装置。
  4.  前記領域設定部は、前記位置の前記超音波の送信方向を示す軸に前記領域の中心軸を合わせて当該領域の設定をする、請求項3に記載の超音波撮像装置。
  5.  前記領域設定部は、前記複数の位置における前記超音波の送信方向を示す各軸にそれぞれ前記各領域の中心軸を合わせて当該各領域の設定をする、請求項3または4に記載の超音波撮像装置。
  6.  前記領域設定部は、前記領域を前記合成画像に移動可能に設定し、
     前記対称度評価部は、前記領域の移動の毎に前記対称度を評価する、請求項3乃至5のいずれかに記載の超音波撮像装置。
  7.  前記領域選択部は、前記各対称度のうちで所定閾値以上の対称度を有する前記領域のいずれかを選択する、請求項6に記載の超音波撮像装置。
  8.  前記領域選択部は、前記各対称度のうちで最大の対称度を有する前記領域を選択する、請求項6または7に記載の超音波撮像装置。
  9.  前記領域設定部は、前記複数の超音波画像のうち、生成された順の略中央に対応する略中央超音波画像を選択する、請求項3に記載の超音波撮像装置。
  10.  前記領域設定部は、前記複数の超音波画像のうち、生成された順の略中央に対応する略中央超音波画像の中心軸、および、前記略中央超音波画像の前後の所定数の生成順の超音波画像の前記中心軸を、それぞれ順次選択し、前記選択した前記中心軸に前記領域の中心軸を合わせて当該領域の設定をする、請求項3に記載の超音波撮像装置。
  11.  前記方向調整部は、
     前記特定部位を含み、かつ、前記特定部位が前記所定の方向に指向している超音波合成画像のテンプレート画像、および、前記合成画像の少なくともいずれかを仮想的に回転させる仮想回転部と、
     前記テンプレート画像と前記合成画像との相関度を評価する相関度評価部と、
     前記相関度に基づいて、前記合成画像の回転角度を決定する角度決定部と、
     前記角度決定部によって決定された回転角度に従って前記合成画像を回転させる回転部と、
    を備える、請求項1または2に記載の超音波撮像装置。
  12.  前記相関度評価部は、前記仮想回転部が画像を回転させるたびに、前記テンプレート画像と前記合成画像との相関度を評価する、請求項11に記載の超音波撮像装置。
  13.  前記角度決定部は、前記相関度評価部によって前記相関度が評価された合成画像の中で、前記相関度の最も高い合成画像の初期位置に対する角度を、前記回転角度として決定する、請求項11または12に記載の超音波撮像装置。
  14.  前記合成画像をディスプレイに表示する表示部をさらに備える、請求項1乃至13のいずれかに記載の超音波撮像装置。
  15.  超音波を前記被検体の表面上の互いに異なる複数の位置から該被検体の内部に向けて送信し、前記被検体の内部で反射された超音波を受信するプローブと、
     請求項1乃至14のいずれかに記載の超音波画像装置とを備える、超音波撮像システム。
  16.  被検体の表面上の互いに異なる複数の位置から該被検体の内部に向けて送信されて内部で反射された超音波を受信して、前記各位置に対応した超音波画像をそれぞれ生成する超音波画像生成ステップと、
     前記各位置における超音波画像を合成して前記被検体の断面の合成画像を生成する画像合成ステップと、
     前記合成画像を角度調整し、前記合成画像に含まれる特定部位を所定の方向に指向させる方向調整ステップと
    を備える、超音波撮像方法。
  17.  被検体の表面上の互いに異なる複数の位置から該被検体の内部に向けて送信されて内部で反射された超音波を受信して、前記各位置に対応した超音波画像をそれぞれ生成する超音波画像生成部、
     前記各位置における超音波画像を合成して前記被検体の断面の合成画像を生成する画像合成部、および、
     前記合成画像を角度調整し、前記合成画像に含まれる特定部位を所定の方向に指向させる方向調整部、
    としてコンピュータを動作させる、超音波撮像プログラム。
PCT/JP2019/024012 2018-07-13 2019-06-18 超音波撮像装置、超音波撮像システム、超音波撮像方法および超音波撮像プログラム WO2020012883A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2020530059A JP7112492B2 (ja) 2018-07-13 2019-06-18 超音波撮像装置、超音波撮像システム、超音波撮像方法および超音波撮像プログラム
EP19835100.9A EP3821814A4 (en) 2018-07-13 2019-06-18 ULTRASOUND IMAGING DEVICE, ULTRASOUND IMAGING SYSTEM, ULTRASOUND IMAGING METHOD AND ULTRASOUND IMAGING PROGRAM
CN201980045503.1A CN112367923A (zh) 2018-07-13 2019-06-18 超声波拍摄装置、超声波拍摄系统、超声波拍摄方法、以及超声波拍摄程序
US17/147,028 US11948324B2 (en) 2018-07-13 2021-01-12 Ultrasound imaging device, ultrasound imaging system, ultrasound imaging method, and ultrasound imaging program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-133146 2018-07-13
JP2018133146 2018-07-13

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/147,028 Continuation US11948324B2 (en) 2018-07-13 2021-01-12 Ultrasound imaging device, ultrasound imaging system, ultrasound imaging method, and ultrasound imaging program

Publications (1)

Publication Number Publication Date
WO2020012883A1 true WO2020012883A1 (ja) 2020-01-16

Family

ID=69142999

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/024012 WO2020012883A1 (ja) 2018-07-13 2019-06-18 超音波撮像装置、超音波撮像システム、超音波撮像方法および超音波撮像プログラム

Country Status (5)

Country Link
US (1) US11948324B2 (ja)
EP (1) EP3821814A4 (ja)
JP (1) JP7112492B2 (ja)
CN (1) CN112367923A (ja)
WO (1) WO2020012883A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5935344A (en) 1995-10-26 1999-08-10 Sanyo Electric Co., Ltd. Photovoltaic element and manufacturing method thereof
JP2003038487A (ja) * 2001-08-03 2003-02-12 Hitachi Medical Corp 超音波画像処理装置
JP2018068494A (ja) * 2016-10-26 2018-05-10 株式会社日立製作所 超音波画像処理装置及びプログラム

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0338976A (ja) * 1989-07-05 1991-02-20 Olympus Optical Co Ltd 撮像のための表示装置
US5795296A (en) * 1996-03-29 1998-08-18 University Of Washington Pipeline process for automatically measuring object boundary from ultrasound image samples
JPH114398A (ja) * 1997-06-11 1999-01-06 Hitachi Ltd デジタルワイドカメラ
JPH11267121A (ja) * 1998-03-20 1999-10-05 Ge Yokogawa Medical Systems Ltd 超音波撮像方法および装置
JP3645727B2 (ja) 1999-01-28 2005-05-11 株式会社日立製作所 超音波診断装置およびパノラマ画像を合成するプログラムおよびその記録媒体
AU2001267813A1 (en) * 2000-06-29 2002-01-21 Technion Research And Development Foundation Ltd. Classifier for image processing
JP2004018375A (ja) * 2002-06-12 2004-01-22 Shiseido Co Ltd オイル状化粧料
JP2006247039A (ja) * 2005-03-09 2006-09-21 Ge Medical Systems Global Technology Co Llc 超音波診断装置
WO2009117419A2 (en) * 2008-03-17 2009-09-24 Worcester Polytechnic Institute Virtual interactive system for ultrasound training
US20110105903A1 (en) * 2008-07-03 2011-05-05 Kenji Ohnuma Organic piezoelectric material, ultrasonic vibrator, and ultrasonic image diagnosis apparatus for medical application
US20130109024A1 (en) * 2010-05-28 2013-05-02 Sridharan Rajagopalan Obtaining analytes from a tissue specimen
JP5935344B2 (ja) 2011-05-13 2016-06-15 ソニー株式会社 画像処理装置、画像処理方法、プログラム、記録媒体、および、画像処理システム
US9632102B2 (en) * 2011-09-25 2017-04-25 Theranos, Inc. Systems and methods for multi-purpose analysis
US8435738B2 (en) * 2011-09-25 2013-05-07 Theranos, Inc. Systems and methods for multi-analysis
US20140170735A1 (en) * 2011-09-25 2014-06-19 Elizabeth A. Holmes Systems and methods for multi-analysis
US8475739B2 (en) * 2011-09-25 2013-07-02 Theranos, Inc. Systems and methods for fluid handling
US9268915B2 (en) * 2011-09-25 2016-02-23 Theranos, Inc. Systems and methods for diagnosis or treatment
WO2013043203A2 (en) * 2011-09-25 2013-03-28 Theranos, Inc. Systems and methods for multi-purpose analysis
US20160320381A1 (en) * 2011-09-25 2016-11-03 Theranos, Inc. Systems and methods for multi-analysis
US20160084863A1 (en) * 2011-09-25 2016-03-24 Theranos, Inc. Systems and methods for multi-analysis
US9958457B2 (en) * 2012-03-26 2018-05-01 Xcellcure, Llc Device and method for detection of analytes
CN103784165A (zh) * 2012-10-31 2014-05-14 株式会社东芝 超声波诊断装置
WO2016142675A1 (en) * 2015-03-06 2016-09-15 Micromass Uk Limited Imaging guided ambient ionisation mass spectrometry
WO2017004153A1 (en) * 2015-06-29 2017-01-05 The Broad Institute Inc. Tumor and microenvironment gene expression, compositions of matter and methods of use thereof
WO2017010193A1 (ja) 2015-07-13 2017-01-19 古野電気株式会社 プローブアダプタ、超音波撮像装置、超音波撮像方法、および、超音波撮像プログラム
JP6574531B2 (ja) * 2016-04-19 2019-09-11 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 体内及び体外超音波プローブの音響的位置合わせ
JP6574532B2 (ja) * 2016-04-26 2019-09-11 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 超音波胎児撮像に対する3d画像合成
US20180153509A1 (en) * 2016-12-06 2018-06-07 General Electric Company Ultrasound imaging with small-angle adjustment

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5935344A (en) 1995-10-26 1999-08-10 Sanyo Electric Co., Ltd. Photovoltaic element and manufacturing method thereof
JP2003038487A (ja) * 2001-08-03 2003-02-12 Hitachi Medical Corp 超音波画像処理装置
JP2018068494A (ja) * 2016-10-26 2018-05-10 株式会社日立製作所 超音波画像処理装置及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3821814A4

Also Published As

Publication number Publication date
JP7112492B2 (ja) 2022-08-03
EP3821814A4 (en) 2022-04-06
US11948324B2 (en) 2024-04-02
US20210174533A1 (en) 2021-06-10
EP3821814A1 (en) 2021-05-19
CN112367923A (zh) 2021-02-12
JPWO2020012883A1 (ja) 2021-07-15

Similar Documents

Publication Publication Date Title
US20110262015A1 (en) Image processing apparatus, image processing method, and storage medium
US8582856B2 (en) Image processing apparatus, image processing method, and program
US9179893B2 (en) Image processing apparatus, image processing method, image processing system, and program
JP2013063342A5 (ja) 超音波画像診断装置
Wong et al. Is radiation-free ultrasound accurate for quantitative assessment of spinal deformity in idiopathic scoliosis (IS): a detailed analysis with EOS radiography on 952 patients
RU2015111244A (ru) Связанная сегментация в стандартных и контрастных ультразвуковых 3d-изображениях
JP2015085192A (ja) 医用画像データ処理装置、医用画像データ処理方法および医用画像データ処理プログラム
US20230355212A1 (en) Ultrasound diagnosis apparatus and medical image processing method
WO2020012883A1 (ja) 超音波撮像装置、超音波撮像システム、超音波撮像方法および超音波撮像プログラム
JP2018509982A (ja) 超音波イメージング装置
US11589841B2 (en) Ultrasound imaging device, ultrasound imaging system, ultrasound imaging method and ultrasound imaging program
US20110170758A1 (en) Tomographic image generating apparatus, tomographic image generating method, and program for generating tomographic images
JP6584231B2 (ja) 画像処理装置、画像処理システム、画像処理方法、及びプログラム
JP7373045B2 (ja) 超音波撮像方法、超音波撮像装置、超音波撮像システムおよび超音波撮像プログラム
JP2012147939A (ja) 画像処理装置
WO2022239400A1 (ja) 超音波撮像装置、超音波撮像方法、超音波撮像システムおよび超音波撮像プログラム
US9974511B2 (en) Medical imaging apparatus and medical imaging method
KR101634045B1 (ko) MR angiography 혈관벽 신호강도 그래디언트 벡터 분석을 통한 혈류의 나선형 각속도와 방향 추출 방법 및 이를 적용한 의료 영상 시스템
CN111292248A (zh) 超声融合成像方法及超声融合导航系统
US20220287686A1 (en) System and method for real-time fusion of acoustic image with reference image
Park et al. Model-Based Needle Identification Using Image Analysis and Needle Library Matching for Ultrasound-Guided Kidney Biopsy: A Feasibility Study
JP6598565B2 (ja) 画像処理装置、画像処理方法及びプログラム
CN116830159A (zh) 利用柱状图视图来改进三维(3d)医学图像的可视化的方法和系统
JP2014083204A5 (ja)
JP2022548063A (ja) 画像診断中に胎児内臓位を測定するための技術

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19835100

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020530059

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2019835100

Country of ref document: EP

Effective date: 20210215