WO2011013346A1 - 超音波診断装置 - Google Patents

超音波診断装置 Download PDF

Info

Publication number
WO2011013346A1
WO2011013346A1 PCT/JP2010/004750 JP2010004750W WO2011013346A1 WO 2011013346 A1 WO2011013346 A1 WO 2011013346A1 JP 2010004750 W JP2010004750 W JP 2010004750W WO 2011013346 A1 WO2011013346 A1 WO 2011013346A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
region
interest
ultrasonic
unit
Prior art date
Application number
PCT/JP2010/004750
Other languages
English (en)
French (fr)
Inventor
有史 西村
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to JP2011524655A priority Critical patent/JPWO2011013346A1/ja
Priority to CN201080033041.0A priority patent/CN102481138B/zh
Priority to EP10804099.9A priority patent/EP2460472A4/en
Priority to US13/320,775 priority patent/US8861824B2/en
Publication of WO2011013346A1 publication Critical patent/WO2011013346A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/467Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/467Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
    • A61B8/469Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means for selection of a region of interest
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • H04N1/3871Composing, repositioning or otherwise geometrically modifying originals the composed originals being of different kinds, e.g. low- and high-resolution originals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5292Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves using additional data, e.g. patient information, image labeling, acquisition parameters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30048Heart; Cardiac

Definitions

  • the present invention relates to an ultrasonic diagnostic apparatus.
  • the present invention particularly relates to a technique for displaying diagnostic information using an ultrasonic diagnostic apparatus.
  • Patent Document 1 As a technique for displaying diagnostic information so as not to overlap with a region of interest of an ultrasonic image in an ultrasonic diagnostic apparatus, methods described in Patent Document 1 and Patent Document 2 have been proposed.
  • Patent Document 1 the display position of an ultrasonic image is stored in advance for each subject, for each diagnostic region, or for each measurement function, and an ultrasonic image and a diagnostic function are selected by selecting a subject, a diagnostic region, or a measurement function corresponding to the diagnosis.
  • a technique for avoiding overlapping diagnostic information is disclosed.
  • Patent Document 2 discloses that an ultrasonic image and diagnostic information overlap each other when an operator manually changes the vertical enlargement ratio, horizontal enlargement ratio, and display position of a character information area by operating a user interface. Techniques to avoid are disclosed.
  • an image is acquired by applying an ultrasonic probe (also referred to as “ultrasonic probe”) to the body surface of the subject.
  • an ultrasonic probe also referred to as “ultrasonic probe”
  • the position of the region of interest on the ultrasound image may differ greatly even if the subject is the same and the same diagnostic site.
  • the display position of the diagnostic information is stored in advance and is uniquely fixed. Therefore, the interest based on the angle of the probe, the posture of the subject, and the like. It is difficult to flexibly cope with variations in the position of the region.
  • the present invention has been made to solve these problems, and an object of the present invention is to provide an ultrasonic diagnostic apparatus capable of avoiding overlapping of an ultrasonic image and diagnostic information without complicated operation by an operator. Is to provide.
  • An ultrasonic diagnostic apparatus transmits an ultrasonic beam to a living tissue, receives an reflected wave reflected by the ultrasonic beam at the living tissue, and based on the reflected wave,
  • An image constructing unit that constructs an image frame of a first image indicating a tomographic image of the tissue, and non-interest other than the region of interest including the tomographic image of the tissue in the image frame based on the image feature amount of the image frame
  • An image analysis unit for identifying a region; an information generation unit for generating a second image for displaying diagnostic information; and a display position of the second image based on an identification result of the image analysis unit, It includes an image combining unit for generating a composite image obtained by superimposing an image frame and the second image of the first image, and a display unit to display the composite image.
  • the image analysis unit may divide the image frame into a plurality of small areas and calculate an image feature amount of each small area based on the luminance of each small area.
  • the image analysis unit calculates an average value and a variance value of luminance of each small area, and when each of the average value and the variance value is smaller than a predetermined threshold, the small area is a non-interest area. You may identify that there is.
  • the image composition unit may determine a region in the image frame identified as the non-interest region by the image analysis unit as a display position of the second image, and generate the composite image.
  • the ultrasonic diagnostic apparatus further includes a user interface for an operator to instruct a change in the display position of the second image in the displayed composite image, and the operator uses the user interface.
  • the image composition unit forcibly positions the display position of the second image on the non-interest region. It may be changed.
  • the image analysis unit continues to identify the non-region of interest, and when the region of interest moves within the image frame, the second image and the region of interest overlap,
  • the image composition unit may change the display position of the second image to a region that is currently identified as a non-interesting region.
  • the image composition unit holds a threshold value regarding a distance between the second image and the region of interest on the screen, and the image composition unit includes the second image displayed on the display unit and the region of interest.
  • the position where the distance between the first image and the second image becomes smaller than the threshold may be determined as the display position of the second image.
  • a non-interest region other than a region of interest including a tomographic image of a tissue in an image frame is identified based on the image feature amount of the image frame, and diagnostic information is displayed based on the identification result.
  • the display position of the second image is determined, and a composite image in which the image frame of the first image and the second image are superimposed is generated.
  • FIG. 1 is an external view of an ultrasonic diagnostic apparatus 100 according to an embodiment of the present invention.
  • 1 is a block diagram illustrating a configuration example of an ultrasonic diagnostic apparatus 100 according to an embodiment of the present invention.
  • 3 is a flowchart showing a processing procedure of the ultrasonic diagnostic apparatus 100. It is a figure which shows the synthesized image 400 displayed on the monitor 107.
  • FIG. (A) is a diagram showing an image 500a when the arrangement of the diagnostic information image 503a is not adjusted
  • (b) is a diagram showing an image 500b on which a reduced diagnostic information image 503b is displayed.
  • FIG. 6 is a diagram illustrating a diagnostic information image 703 that has been forcibly moved. It is a flowchart which shows the procedure of the process which detects a noise area
  • FIG. 1 shows an appearance of the ultrasonic diagnostic apparatus 100 according to the present embodiment.
  • the ultrasonic diagnostic apparatus 100 displays a tomographic image of a body tissue formed using the ultrasonic probe 101 on the monitor 107 in real time. At this time, an image indicating the diagnostic information of the subject is superimposed on the image frame of the tomographic image and displayed on the monitor 107.
  • the “diagnostic information” comprehensively represents information on the subject, diagnostic apparatus, and information on diagnostic work.
  • the ultrasonic diagnostic apparatus 100 provides diagnostic information or the like according to the identification result of the region (region of interest) where the tomographic image of the tissue exists or the other region (non-region of interest) in the image frame.
  • the display position of the image to be shown is determined, and the image frame and the image are superimposed. More specifically, the ultrasonic diagnostic apparatus 100 superimposes an image indicating diagnostic information or the like on a non-interest area in an image frame.
  • the configuration of the ultrasonic diagnostic apparatus 100 will be described, and then, how the ultrasonic diagnostic apparatus 100 identifies the non-interest area and what form on the identified non-interest area. Whether to superimpose an image showing the subject's information or the like will be described in detail.
  • FIG. 2 is a block diagram illustrating a configuration example of the ultrasonic diagnostic apparatus 100 according to the present embodiment.
  • the ultrasonic diagnostic apparatus 100 includes a probe 101, an AD converter 102, a beam former 103, a detection unit 104, an image construction unit 105, a user interface 106, a monitor 107, and a processor 150.
  • the ultrasonic probe 101 transmits and receives an ultrasonic beam.
  • an ultrasonic beam is transmitted from the ultrasonic probe 101 toward the living tissue, and the reflected wave of the ultrasonic beam reflected by the living tissue is received by the ultrasonic probe 101.
  • the AD converter 102 converts the received ultrasonic reflected wave into a digital signal.
  • the beam former 103 performs delayed synthesis of the reflected ultrasonic wave that has been AD converted.
  • the detection unit 104 performs envelope detection on the delay-synthesized ultrasonic echo signal.
  • the image construction unit 105 performs signal processing on the detected ultrasonic echo signal to construct a tomographic image frame of the tissue.
  • the user interface 106 is an input device such as a keyboard used for an operator to input diagnostic information (for example, information about a subject) or information other than diagnostic information (non-diagnostic information).
  • the user interface 106 is also used to instruct display / non-display of information on the monitor 107 or to instruct change of the display position of displayed information.
  • the user interface 106 is also used when the operator instructs to change the display position of a diagnostic information image, which will be described later.
  • the monitor 107 is a display device using a liquid crystal or a cathode ray tube, for example, and displays an ultrasonic image and an image of diagnostic information.
  • a touch panel screen in which the user interface 106 and the monitor 107 are integrated may be provided.
  • the processor 150 is a so-called central processing unit (CPU), analyzes an image frame of a tomographic image (ultrasonic image), and determines a display position of diagnostic information and / or non-diagnostic information.
  • CPU central processing unit
  • the processor 150 includes an image analysis unit 151 that analyzes an ultrasonic image, a diagnostic information image generation unit 152 that generates an image of diagnostic information, and an image synthesis unit 153 that combines the ultrasonic image and diagnostic information.
  • Each component may exist as hardware, or may be realized as a processor 150 that exhibits the function of the component due to execution of software.
  • the processor 150 is a dedicated integrated circuit chip designed and manufactured for the ultrasonic diagnostic apparatus 100, the image analysis unit 151, the diagnostic information image generation unit 152, and the image synthesis unit 153 are included in the processor 150. Implemented as a separate integrated circuit.
  • the image analysis unit 151, the diagnostic information image generation unit 152, and the image composition unit 153 are realized by the processor 150 and a computer program executed by the processor 150. .
  • library programs A, B, and C for realizing the functions of the image analysis unit 151, the diagnostic information image generation unit 152, and the image composition unit 153 are prepared.
  • the processor 150 that has executed the library program A functions as the image analysis unit 151.
  • the processor 150 that has executed the library program B functions as a diagnostic information image generation unit 152. Others are the same.
  • the processor 150 may operate as the image analysis unit 151, the diagnostic information image generation unit 152, and the image synthesis unit 153 at the same time apparently when the processor 150 executes a plurality of programs in parallel.
  • FIG. 3 is a flowchart showing a processing procedure of the ultrasonic diagnostic apparatus 100.
  • the ultrasonic diagnostic apparatus 100 uses the ultrasonic beam of the probe 101 to construct an image frame of a tomographic image of the body tissue.
  • the probe 101 transmits an ultrasonic beam into a living body and receives a reflected wave of the ultrasonic beam reflected by a body tissue or the like.
  • the AD converter 102 converts the received reflected wave of the ultrasonic beam into a digital signal, and the beam former 103 performs delay synthesis processing.
  • the detection unit 104 removes a transmission wave (carrier) component from the received signal by envelope detection and inputs it to the image construction unit 105.
  • the image construction unit 105 performs filtering processing, luminance conversion processing, scanning line conversion (scan conversion) processing, and the like on the input ultrasonic echo signal to construct an ultrasonic tomographic image frame and outputs it to the processor 150.
  • the image frame is first input to the image analysis unit 151 in the processor 150.
  • step S2 the image analysis unit 151 analyzes the tomographic image and identifies a noise region in the image frame.
  • “Noise area” means an area in an image frame other than an area including an image of a body tissue.
  • a noise region is also referred to as a “non-interest region”
  • an image region used by an operator for diagnosis with an image of a body tissue or a basis for diagnosis is also referred to as a “region of interest” or “non-noise region” Call.
  • the noise region identification processing will be described in detail later with reference to FIG.
  • step S3 the diagnostic information image generation unit 152 generates image information based on the diagnostic information input via the user interface.
  • the diagnostic information image generation unit 152 converts the input diagnostic information into image information. This process is, for example, a process for converting diagnostic information input as character information into an image object.
  • the diagnostic information converted into an image object is hereinafter also referred to as “diagnostic information image”.
  • step S4 the image synthesis unit 153 generates a synthesized image by superimposing (or synthesizing) the image frame and the diagnostic information image so that the diagnostic information image is displayed on a noise area (non-interest area) in the image frame.
  • a noise area non-interest area
  • Whether or not the diagnostic information image exists on the noise area in the image frame is determined, for example, if the diagnostic information image is a rectangle, whether or not the entire area of the rectangle is included in the noise area 501. Based on the above.
  • step S5 the monitor 107 displays a composite image.
  • FIG. 4 shows a composite image 400 displayed on the monitor 107.
  • the display position is preferably as close as possible to the interest area. This is because the movement of the operator's line of sight can be minimized. For example, when observing the carotid artery wall and measuring the inner-media thickness, it is preferable to display the measured value in a non-interesting region near the blood vessel wall.
  • the image composition unit 153 may generate a composite image by arranging the diagnostic information image at a position where the distance between the diagnostic information image and the region of interest is smaller than a set threshold value.
  • the operator can set a threshold value in the image composition unit 153 in advance via the user interface 106.
  • the image composition unit 153 holds the threshold value in, for example, an internal memory, and refers to the threshold value when determining which position on the non-interesting area the diagnostic information image 403 is to be displayed.
  • the image analysis unit 151 continues to identify the above-described noise region while the ultrasonic image continues to be generated even after the above-described processing is completed. This is because the positions of the region of interest and the non-region of interest can change depending on the position of the probe 101 and the like. The processing at this time will be described later with reference to FIG.
  • FIG. 5A shows an image 500a when the arrangement of the diagnostic information image 503a is not adjusted.
  • the image 500a shows a diagnostic information image 503a when displayed at a predetermined position and size.
  • a part of the diagnostic information image 503 a exists on the noise region 501, while the other part exists on the region of interest 502.
  • the diagnostic information area is too large, it cannot be displayed so as not to overlap the area of interest.
  • the image combining unit 153 displays the diagnostic information image 503b obtained by reducing the diagnostic information image 503a as shown in FIG. 5 (b).
  • the image composition unit 153 reduces the size of the diagnostic information image step by step, and determines whether or not the diagnostic information image fits in the noise region 501 each time. This determination is the same as the above-described determination as to whether or not the diagnostic information image exists on the noise region in the image frame. If diagnostic information image is a rectangle, it may be performed based on whether the vertices of the four corners are present in all the noise region 501. This makes it possible to display the composite image 500b for diagnostic information image 503b is disposed on the different noise region 501 to the region of interest 502.
  • FIG. 6A shows an example when the position of the region of interest changes from the initial position 604 to the position 602 in the image frame 600a, and the region of interest and the diagnostic information image 603a overlap.
  • a change in the region of interest can be caused by, for example, a change in the angle of the probe 101 or a change in the posture of the subject.
  • the image composition unit 153 can also automatically move the diagnostic information image 603b to the position shown in FIG.
  • the image composition unit 153 analyzes the changed image 600a and identifies the noise region 601 again. Then, the image frame and the diagnostic information image may be superimposed so that the diagnostic information image is displayed on the identified noise region. Thereby, a composite image 600b shown in FIG. 6B can be obtained.
  • FIG. 7A shows an example when the operator tries to move the diagnostic information image from the initial position 704 in the noise region 701 onto the region of interest 702 via the user interface 106.
  • the image composition unit 153 of the processor 501 can automatically (in other words, forcibly) move the diagnostic information image onto the noise region 702 as shown in FIG.
  • FIG. 8 is a flowchart showing a procedure of processing for detecting a noise region.
  • the image analysis unit 151 divides the image frame into small regions.
  • the image analysis unit 151 obtains the average value and the variance value of the luminance values of the respective small areas.
  • these physical quantities are also referred to as “image feature quantities”.
  • the image analysis unit 151 determines the subregion average value of the dispersion value respectively threshold THm, whether THv smaller.
  • the noise component the average value and the variance value of the luminance tend to be smaller than the average value and the variance value of the luminance of the biological tissue component. Therefore, if the average value and the variance value of each small area are smaller than the predetermined thresholds THm and THv, respectively, it is estimated that the small area is a noise area.
  • the small region is estimated to be a non-noise region (region of interest). Therefore, it is possible to identify whether the small region is a noise region or a region of interest by the determination based on the above-described criterion.
  • the size of the small area to be divided can be arbitrarily set, but is preferably the same as the size of the diagnostic information image generated by the diagnostic information image generation unit 152.
  • the threshold values THm and THv can be determined as a function value of the average luminance and variance of the entire image, for example. Note that the threshold value also varies depending on the noise level of the ultrasonic diagnostic apparatus 100, the part to be diagnosed, and each parameter (dynamic range, transmission power, etc.) set by the user. Therefore, it may be determined while adjusting an appropriate value on the ultrasonic diagnostic apparatus 100.
  • each of the small areas is a noise area based on the image feature amount.
  • a noise area is detected as a non-interest area, but there are non-interest areas other than the noise area. Even in such a case, it is possible to detect the non-interest region by using various methods other than the method shown in FIG. For example, since there is a high possibility that a part with a lot of motion in an image is a region of interest, a method of discriminating a region of interest from a region of non-interest using motion detection based on frame correlation can be considered.
  • the image analysis unit 151 uses the pattern matching to identify the region of interest. It may be detected and distinguished from the region of interest and the non-region of interest.
  • a tomographic image (B mode) is described.
  • B mode a tomographic image
  • the scope of the present invention is not limited to the B mode, and other typical ultrasonic images, such as an M mode and a Doppler mode. Needless to say, the same can be applied to images such as.
  • the user inputs diagnostic information using the user interface 106.
  • diagnostic information is an example.
  • non-diagnostic information e.g. the subject's name, information of the generation date and time of the tomographic image
  • diagnostic information or non-diagnostic information need not be input using the user interface 106 and may be generated by the processor 150.
  • the processor 150 may measure and display the tissue thickness in the tomographic image.
  • processing described using the flowchart shown in FIG. 3 can be realized as a computer program executed by the image construction unit 105 and the processor 150.
  • a computer program is recorded on a recording medium such as a CD-ROM and distributed as a product to the market, or transmitted through an electric communication line such as the Internet.
  • a recording medium such as a CD-ROM
  • an electric communication line such as the Internet.
  • the image construction unit 105 it may be realized the function of the image construction unit 105 by the processor 150 executing the computer program.
  • the ultrasonic diagnostic apparatus can display various diagnostic information related to the subject so as not to overlap the region of interest of the ultrasonic image, and is useful for medical applications.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

操作者が煩雑な操作をすることなく、超音波画像と診断情報とが重なって表示されることを回避できる超音波診断装置を提供する。 超音波診断装置は、生体の組織へ超音波ビームを送信し、超音波ビームが生体の組織において反射する反射波を受信する超音波プローブと、反射波に基づいて、組織の断層画像を示す第1画像の画像フレームを構築する画像構築部と、画像フレームの画像特徴量に基づいて、画像フレーム中の、組織の断層画像を含む関心領域以外の非関心領域を識別する画像解析部と、診断情報を表示するための第2画像を生成する情報生成部と、画像解析部の識別結果に基づいて、第2画像の表示位置を決定し、第1画像の画像フレームおよび画像を重畳した合成画像を生成する画像合成部と、合成画像を表示する表示部とを備えている。

Description

超音波診断装置
 本発明は、超音波診断装置に関する。本発明は、特に、超音波診断装置による診断情報の表示技術に関する。
 超音波診断装置において超音波画像の関心領域と重ならないように診断情報を表示させる技術として、特許文献1や特許文献2に記載の方法が提案されている。
 特許文献1には、被検体毎または診断部位毎または計測機能毎に超音波画像の表示位置を予め記憶し、診断時に該当する被検体または診断部位または計測機能を選択することで超音波画像と診断情報が重なることを回避する技術が開示されている。
 また、特許文献2には、文字情報領域の縦方向拡大率、横方向拡大率および表示位置をユーザインタフェースの操作によって操作者が手動で変更することによって超音波画像と診断情報とが重なることを回避する技術が開示されている。
特開平11-326号公報 特開平9-47453号公報
 超音波診断装置を用いた診断においては超音波探触子(「超音波プローブ」とも呼ばれる。)を被検体の体表に当てることにより画像を取得する。この際の探触子の角度や被検体の姿勢等によっては、仮に同一被検体、同一診断部位であっても超音波画像上での関心領域の位置は大きく異なる場合がある。上述した特許文献1に記載の方法を用いた場合には診断情報の表示位置が予め記憶されており一意に固定されているため、このような探触子の角度や被検体の姿勢等による関心領域の位置のばらつきに柔軟に対応することが困難である。
 また、特許文献2に記載の方法を用いれば、診断情報の表示領域の大きさの変更や表示位置の移動を行うことが可能である。しかしながら、これらの操作は操作者が手動で行わなければならないため煩雑であり、診断への集中を妨げる可能性がある。
 本発明は、これらの問題を解決するためになされたものであり、その目的は、操作者が煩雑な操作をすることなく、超音波画像と診断情報が重なることを回避可能な超音波診断装置を提供することである。
 本発明による超音波診断装置は、生体の組織へ超音波ビームを送信し、前記超音波ビームが前記生体の組織において反射する反射波を受信する超音波プローブと、前記反射波に基づいて、前記組織の断層画像を示す第1画像の画像フレームを構築する画像構築部と、前記画像フレームの画像特徴量に基づいて、前記画像フレーム中の、前記組織の断層画像を含む関心領域以外の非関心領域を識別する画像解析部と、診断情報を表示するための第2画像を生成する情報生成部と、前記画像解析部の識別結果に基づいて、前記第2画像の表示位置を決定し、前記第1画像の画像フレームおよび前記第2画像を重畳した合成画像を生成する画像合成部と、前記合成画像を表示する表示部とを備えている。
 前記画像解析部は、前記画像フレームを複数の小領域に分割し、各小領域の輝度に基づいて前記各小領域の画像特徴量を算出してもよい。
 前記画像解析部は、各小領域の輝度の平均値および分散値を算出し、前記平均値および前記分散値の各々が予め定められた閾値よりも小さいときは、前記小領域は非関心領域であると識別してもよい。
 前記画像合成部は、前記画像解析部によって前記非関心領域であると識別された画像フレーム中の領域を、前記第2画像の表示位置として決定し、前記合成画像を生成してもよい。
 前記超音波診断装置は、表示された前記合成画像中の前記第2画像の表示位置の変更を、操作者が指示するためのユーザインタフェースをさらに備えており、操作者が前記ユーザインタフェースを利用して前記第2画像の表示位置を変更することにより、前記関心領域と前記第2画像とが重なるとき、前記画像合成部は、前記第2画像の表示位置を前記非関心領域上に強制的に変更してもよい。
 前記画像解析部は、前記非関心領域の識別を継続して行っており、前記関心領域が前記画像フレーム内で移動することにより、前記第2画像と前記関心領域とが重なったときは、前記画像合成部は、前記第2画像の表示位置をその時点において非関心領域であると識別されている領域上に変更してもよい。
 前記画像合成部は、前記第2画像と前記関心領域との画面上での距離に関する閾値を保持しており、前記画像合成部は、前記表示部に表示された前記第2画像と前記関心領域との距離が前記閾値よりも小さくなる位置を、前記第2画像の表示位置として決定してもよい。
 本発明によれば、画像フレームの画像特徴量に基づいて、画像フレーム中の組織の断層画像を含む関心領域以外の非関心領域を識別し、その識別結果に基づいて、診断情報を表示するための第2画像の表示位置を決定し、第1画像の画像フレームおよび第2画像を重畳した合成画像を生成する。これにより、操作者が煩雑な操作をすることなく、超音波画像と診断情報が重なることを回避できる。
本発明の実施形態による超音波診断装置100の外観を示す図である。 本発明の実施形態に係る超音波診断装置100の一構成例を示すブロック図である。 超音波診断装置100の処理の手順を示すフローチャートである。 モニタ107に表示された合成画像400を示す図である。 (a)は診断情報画像503aの配置を調整しなかった場合の画像500aを示す図であり、(b)は縮小された診断情報画像503bが表示された画像500bを示す図である。 (a)は画像フレーム600a内で、関心領域の位置が当初の位置604から位置602に変化し、関心領域と診断情報画像603aとが重なったときの例を示す図であり、(b)は診断情報画像603bが移動された画像フレーム600bを示す図である。 (a)は操作者がユーザインタフェース106を介して、診断情報画像を、ノイズ領域701中の当初の位置704から関心領域702上に移動しようとしたときの例を示す図であり、(b)は強制的に移動された診断情報画像703を示す図である。 ノイズ領域を検出する処理の手順を示すフローチャートである。
 以下、添付の図面を参照して、本発明による超音波診断装置の実施形態を説明する。
 図1は、本実施形態による超音波診断装置100の外観を示す。超音波診断装置100は、超音波プローブ101を用いて形成された体内組織の断層画像をモニタ107にリアルタイムに表示する。このとき、断層画像の画像フレームには、その被験者の診断情報等を示す画像が重畳され、モニタ107に表示される。なお、この「診断情報」は、被験者に関する情報及び診断装置、診断作業に関する情報を包括的に表す。
 本実施形態による超音波診断装置100は、画像フレーム中の、組織の断層画像が存在する領域(関心領域)かそれ以外の領域(非関心領域)かの識別結果に応じて、診断情報等を示す画像の表示位置を決定し、画像フレームとその画像とを重畳する。より具体的に言えば、超音波診断装置100は、画像フレーム中の非関心領域上に、診断情報等を示す画像を重畳する。
 以下では、まず、超音波診断装置100の構成を説明し、その後、超音波診断装置100が非関心領域をどのように特定するか、および、特定された非関心領域上に、どのような形態で被験者の情報等を示す画像を重畳するかを詳細に説明する。
 図2は、本実施形態に係る超音波診断装置100の一構成例を示すブロック図である。
 超音波診断装置100は、プローブ101と、AD変換器102と、ビームフォーマ103と、検波部104と、画像構築部105と、ユーザインタフェース106と、モニタ107と、プロセッサ150とを備えている。
 超音波プローブ101は、超音波ビームの送受信を行う。超音波診断装置100の利用時には、超音波プローブ101から生体の組織に向けて超音波ビームが送信され、生体の組織において反射されたその超音波ビームの反射波が、超音波プローブ101で受信される。
 AD変換器102は、受信した超音波反射波をデジタル信号に変換する。ビームフォーマ103はAD変換された超音波反射波の遅延合成を行う。検波部104は、遅延合成された超音波エコー信号を包絡線検波する。
 画像構築部105は、検波された超音波エコー信号に対して信号処理を施し組織の断層画像フレームを構築する。
 ユーザインタフェース106は、操作者が診断情報(たとえば被験者に関する情報)または診断情報以外の情報(非診断情報)を入力するために利用されるキーボード等の入力装置である。なお、ユーザインタフェース106は、モニタ107上への情報の表示・非表示を指示し、または、表示された情報の表示位置の変更を指示する際にも利用される。たとえば、後述する診断情報画像の表示位置の変更を操作者が指示するときもまた、ユーザインタフェース106が利用される。
 モニタ107は、たとえば液晶またはブラウン管を利用した表示装置であり、超音波画像および診断情報の画像を表示する。
 なお、ユーザインタフェース106とモニタ107とを一体化したタッチパネルスクリーンを設けてもよい。
 プロセッサ150は、いわゆる中央演算処理部(CPU)であり、断層画像(超音波画像)の画像フレームを解析し、診断情報および/または非診断情報の表示位置を決定する。
 プロセッサ150は、超音波画像を解析する画像解析部151、診断情報の画像を生成する診断情報画像生成部152、超音波画像と診断情報を合成する画像合成部153を有する。各構成要素は、ハードウェアとして存在してもよいし、ソフトウェアの実行に起因してその構成要素の機能を発揮するプロセッサ150として実現されてもよい。
 たとえばプロセッサ150が超音波診断装置100のために設計、製造された専用の集積回路チップである場合には、画像解析部151、診断情報画像生成部152および画像合成部153は、プロセッサ150内の独立した集積回路として実装される。
 また、プロセッサ150が汎用の集積回路チップである場合には、画像解析部151、診断情報画像生成部152および画像合成部153は、そのプロセッサ150とそのプロセッサ150が実行するコンピュータプログラムによって実現される。具体的には、画像解析部151、診断情報画像生成部152および画像合成部153の各機能を実現するためのライブラリ・プログラムA、B、Cが用意されているとする。ライブラリ・プログラムAを実行したプロセッサ150は、画像解析部151として機能する。また、ライブラリ・プログラムBを実行したプロセッサ150は、診断情報画像生成部152として機能する。他も同様である。なお、プロセッサ150が複数のプログラムを並列的に実行することにより、プロセッサ150が見かけ上同時に、画像解析部151、診断情報画像生成部152および画像合成部153として動作してもよい。
 次に、超音波診断装置100の動作を説明する。
 図3は、超音波診断装置100の処理の手順を示すフローチャートである。
 ステップS1において、超音波診断装置100は、プローブ101の超音波ビームを利用して、体内組織の断層画像の画像フレームを構築する。具体的には、プローブ101は、超音波ビームを生体内に送信し、体内組織等で反射した超音波ビームの反射波を受信する。AD変換器102は、受信したその超音波ビームの反射波をデジタル信号に変換し、ビームフォーマ103は遅延合成処理を行う。検波部104は包絡線検波によって受信信号中の送信波(キャリア)成分を除去し、画像構築部105に入力する。画像構築部105は入力された超音波エコー信号に対してフィルタ処理、輝度変換処理、走査線変換(スキャンコンバート)処理等を施して超音波断層画像フレームを構築し、プロセッサ150へ出力する。画像フレームはまずプロセッサ150内の画像解析部151に入力される。
 ステップS2において、画像解析部151は断層画像を解析して、画像フレーム内のノイズ領域を識別する。「ノイズ領域」とは、画像フレーム内の、体内組織の画像を含む領域以外の領域を意味する。本願明細書では、ノイズ領域を「非関心領域」とも呼び、また体内組織の画像で操作者が診断に利用する、もしくは診断の根拠とする画像領域を「関心領域」または「非ノイズ領域」とも呼ぶ。ノイズ領域の識別処理は、図8を参照しながら後に詳述する。
 次に、ステップS3において、診断情報画像生成部152は、ユーザインタフェースを介して入力された診断情報に基づいて画像情報を生成する。
 まず、操作者はユーザインタフェース106を用いて画像計測等を行い、診断情報を入力する。診断情報画像生成部152は、入力された診断情報を画像情報に変換する。この処理は、たとえば文字情報として入力された診断情報を、画像オブジェクトに変換する処理である。画像オブジェクトに変換された診断情報を、以下「診断情報画像」とも呼ぶ。
 ステップS4において、画像合成部153は、診断情報画像が画像フレーム中のノイズ領域(非関心領域)上に表示されるよう画像フレームおよび診断情報画像を重畳(または合成)して、合成画像を生成する。診断情報画像が画像フレーム中のノイズ領域上に存在するか否かの判定は、たとえば、診断情報画像が矩形であるとすると、その矩形の全領域がノイズ領域501内に含まれているか否かに基づいて行えばよい。
 ステップS5において、モニタ107は合成画像を表示する。図4は、モニタ107に表示された合成画像400を示す。合成画像400には、ノイズ領域401と、非ノイズ領域402が含まれており、診断情報画像403は非ノイズ領域402内に表示されている。
 また、診断情報画像403を非関心領域上に表示するとき、その表示位置は関心領域にできるだけ近い方が望ましい。操作者の視線の移動を最小限に抑えられるためである。例えば、頸動脈血管壁を観察し内中膜厚を計測する場合には、計測値は血管壁に近い非関心領域に表示することが好ましい。
 そこで、画像合成部153は、診断情報画像と関心領域との距離が設定された閾値よりも小さくなる位置に、診断情報画像を配置して合成画像を生成してもよい。操作者は、ユーザインタフェース106を介して閾値を画像合成部153に予め設定しておくことができる。画像合成部153はその閾値をたとえば内部メモリに保持しておき、診断情報画像403を非関心領域上のどの位置に表示するかを決定する際、その閾値を参照する。
 なお、本実施形態では、上述の処理が完了した後であっても超音波画像が生成され続けている間は、画像解析部151は上述のノイズ領域の識別を継続する。プローブ101の位置等に応じて関心領域および非関心領域の位置が変化し得るためである。このときの処理は、後に図6を参照しながら説明する。
 以下、具体例を説明する。
 図5(a)は、診断情報画像503aの配置を調整しなかった場合の画像500aを示す。画像500aでは、予め定められた位置およびサイズで表示された場合の診断情報画像503aが示されている。図示されるように、診断情報画像503aの一部はノイズ領域501上に存在するが、他の一部は関心領域502上に存在する。この例では、診断情報領域が大きすぎるために関心領域と重ならないように表示することが不可能である。
 このとき、画像合成部153は、図5(b)のように診断情報画像503aを縮小した診断情報画像503bを表示する。画像合成部153は、段階的に診断情報画像のサイズを縮小し、その都度、診断情報画像がノイズ領域501内に収まるか否かを判定する。この判定は、先に説明した、診断情報画像が画像フレーム中のノイズ領域上に存在するか否かの判定と同様である。診断情報画像が矩形の場合、その4隅の頂点が全てノイズ領域501内に存在するか否かに基づいて行えばよい。これにより、診断情報画像503bが関心領域502と異なるノイズ領域501上に配置された合成画像500bを表示することができる。
 図6(a)は、画像フレーム600a内で関心領域の位置が当初の位置604から位置602に変化し、関心領域と診断情報画像603aとが重なったときの例を示す。このような関心領域の変動は、たとえばプローブ101の角度の変化や被検体の姿勢の変化などに起因して生じ得る。
 このとき、画像合成部153は、自動的に図6(b)に示す位置に診断情報画像603bを移動させることも可能である。画像合成部153は、変化後の画像600aを解析して、再度、ノイズ領域601を識別する。そして、診断情報画像が識別されたノイズ領域上に表示されるよう、画像フレームおよび診断情報画像を重畳すればよい。これにより、図6(b)に示す合成画像600bを得ることができる。
 操作者はユーザインタフェース106を用いて診断情報の表示位置を移動させることも可能である。図7(a)は、操作者がユーザインタフェース106を介して、診断情報画像を、ノイズ領域701中の当初の位置704から関心領域702上に移動しようとしたときの例を示す。このようなとき、プロセッサ501の画像合成部153は、図7(b)のように診断情報画像をノイズ領域702上に自動的に(換言すると、強制的に)移動させることもできる。
 次に、画像解析部151によるノイズ領域の検出方法を説明する。図8はノイズ領域を検出する処理の手順を示すフローチャートである。まずステップS11において、画像解析部151は画像フレームを小領域に分割する。次のステップS12において、画像解析部151はそれぞれの小領域の輝度の平均値、分散値を求める。本願明細書においては、これらの物理量を「画像特徴量」とも呼ぶ。
 次のステップS13では、画像解析部151は、各小領域の平均値、分散値がそれぞれ閾値THm、THvより小さいか否かを判定する。ノイズ成分では輝度の平均値、分散値は、生体組織成分の輝度の平均値、分散値に比べて小さくなる傾向がある。よって、各小領域の平均値、分散値がそれぞれ予め定められた閾値THm、THvより小さければ、その小領域はノイズ領域であると推定される。一方、その条件が満たされない場合には、その小領域は非ノイズ領域(関心領域)であると推定される。よって、上述の基準に基づく判定により、その小領域がノイズ領域であるか、関心領域であるかを識別することができる。なお、分割する小領域の大きさは任意に設定可能であるが、診断情報画像生成部152によって生成される診断情報画像の大きさと同じであることが望ましい。なお、閾値THm、THvはたとえば、画像全体の平均輝度と分散の関数値として決めることができる。なお、閾値は、超音波診断装置100のノイズレベル、診断対象となる部位、ユーザが設定する各パラメータ(ダイナミックレンジ、送信パワー等)によっても異なる。よって、超音波診断装置100上で適切な値を調整しながら決めてもよい。
 上述の処理によれば、画像特徴量に基づいて、小領域の各々がノイズ領域であるか否かを判定できる。全ての小領域についてその判定を行うことにより、小領域の大きさに応じた精度で、体内組織に対応する画像が含まれる関心領域と、ノイズ領域とを識別できる。
 本実施例では、非関心領域としてノイズ領域を検出しているが、ノイズ領域以外にも非関心領域は存在する。そのような場合でも図8に示す方法以外の種々の方法を用いて非関心領域を検出することは可能である。例えば画像中の動きの多い部分は関心領域である可能性が高いので、フレーム相関による動き検出を用いて関心領域と非関心領域を識別する方法などが考えられる。
 また、たとえば頸動脈血管壁の内中膜厚を計測するというような、関心領域の形状や輝度パターンが予め特定されている場合には、画像解析部151は、パターンマッチングを用いて関心領域を検出し関心領域と非関心領域と区別してもよい。
 なお、本実施例においては断層画像(Bモード)について述べているが、本発明の範囲はBモードに限られるものではなく、それ以外の代表的な超音波画像である、Mモード、ドプラモード等の画像についても同様に適用可能であることは言うまでもない。
 上述の実施形態においては、ユーザがユーザインタフェース106を利用して診断情報を入力するとした。しかしながら、「診断情報」は一例である。たとえば診断に関しない、非診断情報(たとえば被験者の氏名、断層画像の生成日時の情報)が入力されてもよい。さらに、診断情報または非診断情報は、ユーザインタフェース106を用いて入力される必要はなく、プロセッサ150が生成してもよい。たとえば、プロセッサ150が断層画像における組織の厚さを測定して表示してもよい。
 なお、図3に示すフローチャートを用いて説明した処理は、画像構築部105およびプロセッサ150によって実行されるコンピュータプログラムとして実現され得る。そのようなコンピュータプログラムは、CD-ROM等の記録媒体に記録されて製品として市場に流通され、または、インターネット等の電気通信回線を通じて伝送される。なお、ハードウェアとして画像構築部105を設けるのではなく、コンピュータプログラムを実行するプロセッサ150によって画像構築部105の機能を実現してもよい。
 本発明に係る超音波診断装置では、被検体に関わる様々な診断情報を超音波画像の関心領域と重ならないように表示させることが可能であり、医療等の用途に有用である。
 101 プローブ
 102 AD変換器
 103 ビームフォーマ
 104 検波部
 105 画像構築部
 106 ユーザインタフェース
 107 モニタ
 150 プロセッサ
 151 画像解析部
 152 診断情報画像生成部
 153 画像合成部

Claims (7)

  1.  生体の組織へ超音波ビームを送信し、前記超音波ビームが前記生体の組織において反射する反射波を受信する超音波プローブと、
     前記反射波に基づいて、前記組織の断層画像を示す第1画像の画像フレームを構築する画像構築部と、
     前記画像フレームの画像特徴量に基づいて、前記画像フレーム中の、前記組織の断層画像を含む関心領域以外の非関心領域を識別する画像解析部と、
     診断情報を表示するための第2画像を生成する情報生成部と、
     前記画像解析部の識別結果に基づいて、前記第2画像の表示位置を決定し、前記第1画像の画像フレームおよび前記第2画像を重畳した合成画像を生成する画像合成部と、
     前記合成画像を表示する表示部と
     を備えた、超音波診断装置。
  2.  前記画像解析部は、前記画像フレームを複数の小領域に分割し、各小領域の輝度に基づいて前記各小領域の画像特徴量を算出する、請求項1に記載の超音波診断装置。
  3.  前記画像解析部は、各小領域の輝度の平均値および分散値を算出し、前記平均値および前記分散値の各々が予め定められた閾値よりも小さいときは、前記小領域は非関心領域であると識別する、請求項2に記載の超音波診断装置。
  4.  前記画像合成部は、前記画像解析部によって前記非関心領域であると識別された画像フレーム中の領域を、前記第2画像の表示位置として決定し、前記合成画像を生成する、請求項1に記載の超音波診断装置。
  5.  表示された前記合成画像中の前記第2画像の表示位置の変更を、操作者が指示するためのユーザインタフェースをさらに備え、
     操作者が前記ユーザインタフェースを利用して前記第2画像の表示位置を指示することにより、前記関心領域と前記第2画像とが重なるとき、前記画像合成部は、前記第2画像の表示位置を前記非関心領域上に強制的に変更する、請求項1に記載の超音波診断装置。
  6.  前記画像解析部は、前記非関心領域の識別を継続して行っており、
     前記関心領域が前記画像フレーム内で移動することにより、前記第2画像と前記関心領域とが重なったときは、前記画像合成部は、前記第2画像の表示位置をその時点において非関心領域であると識別されている領域上に変更する、請求項1に記載の超音波診断装置。
  7.  前記画像合成部は、前記第2画像と前記関心領域との画面上での距離に関する閾値を保持しており、
     前記画像合成部は、前記表示部に表示された前記第2画像と前記関心領域との距離が前記閾値よりも小さくなる位置を、前記第2画像の表示位置として決定する、請求項1に記載の超音波診断装置。
PCT/JP2010/004750 2009-07-29 2010-07-26 超音波診断装置 WO2011013346A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2011524655A JPWO2011013346A1 (ja) 2009-07-29 2010-07-26 超音波診断装置
CN201080033041.0A CN102481138B (zh) 2009-07-29 2010-07-26 超声波诊断装置
EP10804099.9A EP2460472A4 (en) 2009-07-29 2010-07-26 ULTRASOUND DIAGNOSTIC TOOL
US13/320,775 US8861824B2 (en) 2009-07-29 2010-07-26 Ultrasonic diagnostic device that provides enhanced display of diagnostic data on a tomographic image

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009-176041 2009-07-29
JP2009176041 2009-07-29

Publications (1)

Publication Number Publication Date
WO2011013346A1 true WO2011013346A1 (ja) 2011-02-03

Family

ID=43529018

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/004750 WO2011013346A1 (ja) 2009-07-29 2010-07-26 超音波診断装置

Country Status (5)

Country Link
US (1) US8861824B2 (ja)
EP (1) EP2460472A4 (ja)
JP (1) JPWO2011013346A1 (ja)
CN (1) CN102481138B (ja)
WO (1) WO2011013346A1 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012040130A (ja) * 2010-08-18 2012-03-01 Hitachi Aloka Medical Ltd 生体観測用の画像情報生成装置および超音波診断システム
CN102920477A (zh) * 2012-03-05 2013-02-13 杭州弘恩医疗科技有限公司 医学影像的目标区域边界确定装置和方法
CN105877744A (zh) * 2015-02-13 2016-08-24 韦伯斯特生物官能(以色列)有限公司 使用冠状窦导管图像补偿心脏运动
WO2016147460A1 (ja) * 2015-03-18 2016-09-22 株式会社日立製作所 超音波診断装置及び超音波画像表示方法
JP2020099430A (ja) * 2018-12-20 2020-07-02 ゼネラル・エレクトリック・カンパニイ 医用画像装置及びその制御プログラム
JPWO2021033446A1 (ja) * 2019-08-19 2021-02-25
WO2022054805A1 (ja) * 2020-09-14 2022-03-17 テルモ株式会社 情報処理装置、情報処理システム、情報処理方法、及びコンピュータプログラム
WO2022239530A1 (ja) * 2021-05-10 2022-11-17 富士フイルム株式会社 画像処理装置、画像処理システム、画像処理方法、及び画像処理プログラム
JP2022553117A (ja) * 2019-08-01 2022-12-22 ウーシー ハイスカイ メディカル テクノロジーズ カンパニー リミテッド 組織関心領域の位置決め方法、装置、デバイス及び記憶媒体

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2460472A4 (en) * 2009-07-29 2015-08-19 Konica Minolta Inc ULTRASOUND DIAGNOSTIC TOOL
JP2014018392A (ja) * 2012-07-18 2014-02-03 Toshiba Corp 超音波診断装置
JP6833432B2 (ja) * 2016-09-30 2021-02-24 キヤノンメディカルシステムズ株式会社 超音波診断装置、医用画像診断装置、及び、医用画像診断支援プログラム
JP6708529B2 (ja) * 2016-10-07 2020-06-10 キヤノン株式会社 制御装置、制御方法、制御システム及びプログラム。
US20210068788A1 (en) * 2019-09-10 2021-03-11 GE Precision Healthcare LLC Methods and systems for a medical imaging device
CN113180730B (zh) * 2021-03-31 2022-10-18 上海深至信息科技有限公司 一种分布式波束成像方法
CN114613491B (zh) * 2022-03-09 2022-09-06 曜立科技(北京)有限公司 一种用于超声心动图测量结果的诊断决策系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5932444A (ja) * 1982-08-17 1984-02-21 富士通株式会社 生体信号表示装置
JPH05329159A (ja) * 1991-12-17 1993-12-14 Terumo Corp 超音波診断装置
JPH0947453A (ja) 1995-08-08 1997-02-18 Toshiba Medical Eng Co Ltd 超音波診断装置
JPH11326A (ja) 1997-06-10 1999-01-06 Toshiba Iyou Syst Eng Kk 超音波画像診断装置
JP2001017425A (ja) * 1999-07-07 2001-01-23 Aloka Co Ltd 超音波診断装置
JP2006141465A (ja) * 2004-11-16 2006-06-08 Matsushita Electric Ind Co Ltd 超音波診断装置

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60199437A (ja) * 1984-03-24 1985-10-08 株式会社東芝 超音波診断装置
JP2872030B2 (ja) * 1993-12-29 1999-03-17 オリンパス光学工業株式会社 超音波診断装置
US5873830A (en) * 1997-08-22 1999-02-23 Acuson Corporation Ultrasound imaging system and method for improving resolution and operation
JP2000296127A (ja) * 1999-04-14 2000-10-24 Ge Yokogawa Medical Systems Ltd 医用画像撮像装置および超音波撮像装置
JP4294840B2 (ja) * 2000-08-25 2009-07-15 富士フイルム株式会社 画像処理方法および画像処理システム
US7103205B2 (en) * 2000-11-24 2006-09-05 U-Systems, Inc. Breast cancer screening with ultrasound image overlays
JP2003310602A (ja) 2002-04-19 2003-11-05 Fuji Photo Film Co Ltd 画像表示装置
CN1496715A (zh) * 2002-10-15 2004-05-19 松下电器产业株式会社 图像处理装置、方法和程序
US20040077946A1 (en) 2002-10-15 2004-04-22 Jun Ohmiya Image processing apparatus, method and program
JP4137621B2 (ja) * 2002-12-16 2008-08-20 株式会社日立メディコ 医用画像診断装置
US7092749B2 (en) * 2003-06-11 2006-08-15 Siemens Medical Solutions Usa, Inc. System and method for adapting the behavior of a diagnostic medical ultrasound system based on anatomic features present in ultrasound images
JP4643172B2 (ja) * 2004-04-21 2011-03-02 株式会社東芝 可搬型画像診断装置
US7678051B2 (en) * 2005-09-27 2010-03-16 Siemens Medical Solutions Usa, Inc. Panoramic elasticity ultrasound imaging
ES2313223T3 (es) * 2005-10-06 2009-03-01 Medcom Gesellschaft Fur Medizinische Bildverarbeitung Mbh Registro de datos de imagenes de ultrasonidoss 2d y datos de imagenes 3-d de un objeto.
US8303505B2 (en) * 2005-12-02 2012-11-06 Abbott Cardiovascular Systems Inc. Methods and apparatuses for image guided medical procedures
JP4897293B2 (ja) * 2006-01-11 2012-03-14 株式会社日立メディコ 医用画像表示装置
JP2007319342A (ja) * 2006-05-31 2007-12-13 Konica Minolta Medical & Graphic Inc 医用画像処理装置
US20080118136A1 (en) * 2006-11-20 2008-05-22 The General Hospital Corporation Propagating Shell for Segmenting Objects with Fuzzy Boundaries, Automatic Volume Determination and Tumor Detection Using Computer Tomography
WO2008081558A1 (ja) * 2006-12-28 2008-07-10 Kabushiki Kaisha Toshiba 超音波画像取得装置、及び超音波画像の取得方法
JP2008253549A (ja) 2007-04-05 2008-10-23 Toshiba Corp 超音波診断装置
JP2009136505A (ja) * 2007-12-06 2009-06-25 Toshiba Corp 画像表示装置、画像診断装置、及びプログラム
US8167807B2 (en) * 2007-12-20 2012-05-01 Toshiba Medical Systems Corporation Ultrasonic diagnosis device, ultrasonic image analysis device, and ultrasonic image analysis method
JP5619347B2 (ja) * 2007-12-20 2014-11-05 東芝メディカルシステムズ株式会社 超音波診断装置、超音波画像解析装置及び超音波画像解析プログラム
US20100033501A1 (en) * 2008-08-11 2010-02-11 Sti Medical Systems, Llc Method of image manipulation to fade between two images
EP2460472A4 (en) * 2009-07-29 2015-08-19 Konica Minolta Inc ULTRASOUND DIAGNOSTIC TOOL
DE102010022266A1 (de) * 2010-05-31 2011-12-01 Siemens Aktiengesellschaft Verfahren und Vorrichtung zur Registrierung von medizinischen Bilddaten
US8311301B2 (en) * 2010-12-10 2012-11-13 Carestream Health, Inc. Segmenting an organ in a medical digital image
EP2651308B1 (en) * 2010-12-14 2020-03-11 Hologic, Inc. System and method for fusing three dimensional image data from a plurality of different imaging systems for use in diagnostic imaging

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5932444A (ja) * 1982-08-17 1984-02-21 富士通株式会社 生体信号表示装置
JPH05329159A (ja) * 1991-12-17 1993-12-14 Terumo Corp 超音波診断装置
JPH0947453A (ja) 1995-08-08 1997-02-18 Toshiba Medical Eng Co Ltd 超音波診断装置
JPH11326A (ja) 1997-06-10 1999-01-06 Toshiba Iyou Syst Eng Kk 超音波画像診断装置
JP2001017425A (ja) * 1999-07-07 2001-01-23 Aloka Co Ltd 超音波診断装置
JP2006141465A (ja) * 2004-11-16 2006-06-08 Matsushita Electric Ind Co Ltd 超音波診断装置

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012040130A (ja) * 2010-08-18 2012-03-01 Hitachi Aloka Medical Ltd 生体観測用の画像情報生成装置および超音波診断システム
CN102920477A (zh) * 2012-03-05 2013-02-13 杭州弘恩医疗科技有限公司 医学影像的目标区域边界确定装置和方法
WO2013131420A1 (zh) * 2012-03-05 2013-09-12 杭州弘恩医疗科技有限公司 医学影像的目标区域边界确定装置和方法
CN102920477B (zh) * 2012-03-05 2015-05-20 杭州弘恩医疗科技有限公司 医学影像的目标区域边界确定装置和方法
CN105877744B (zh) * 2015-02-13 2021-01-12 韦伯斯特生物官能(以色列)有限公司 使用冠状窦导管图像补偿心脏运动
CN105877744A (zh) * 2015-02-13 2016-08-24 韦伯斯特生物官能(以色列)有限公司 使用冠状窦导管图像补偿心脏运动
WO2016147460A1 (ja) * 2015-03-18 2016-09-22 株式会社日立製作所 超音波診断装置及び超音波画像表示方法
JP2016174639A (ja) * 2015-03-18 2016-10-06 株式会社日立製作所 超音波診断装置及びプログラム
JP2020099430A (ja) * 2018-12-20 2020-07-02 ゼネラル・エレクトリック・カンパニイ 医用画像装置及びその制御プログラム
JP2022553117A (ja) * 2019-08-01 2022-12-22 ウーシー ハイスカイ メディカル テクノロジーズ カンパニー リミテッド 組織関心領域の位置決め方法、装置、デバイス及び記憶媒体
JP7345219B2 (ja) 2019-08-01 2023-09-15 ウーシー ハイスカイ メディカル テクノロジーズ カンパニー リミテッド 組織関心領域の位置決め方法、装置、デバイス及び記憶媒体
JPWO2021033446A1 (ja) * 2019-08-19 2021-02-25
WO2021033446A1 (ja) * 2019-08-19 2021-02-25 富士フイルム株式会社 超音波診断装置、及び超音波診断装置の制御方法
JP7192133B2 (ja) 2019-08-19 2022-12-19 富士フイルム株式会社 超音波診断装置、及び超音波診断装置の制御方法
WO2022054805A1 (ja) * 2020-09-14 2022-03-17 テルモ株式会社 情報処理装置、情報処理システム、情報処理方法、及びコンピュータプログラム
WO2022239530A1 (ja) * 2021-05-10 2022-11-17 富士フイルム株式会社 画像処理装置、画像処理システム、画像処理方法、及び画像処理プログラム

Also Published As

Publication number Publication date
US8861824B2 (en) 2014-10-14
CN102481138B (zh) 2014-05-14
EP2460472A1 (en) 2012-06-06
EP2460472A4 (en) 2015-08-19
CN102481138A (zh) 2012-05-30
US20120063661A1 (en) 2012-03-15
JPWO2011013346A1 (ja) 2013-01-07

Similar Documents

Publication Publication Date Title
WO2011013346A1 (ja) 超音波診断装置
JP4733938B2 (ja) 超音波診断装置および超音波画像処理装置
JP4786150B2 (ja) 超音波診断装置および画像処理装置
JP5925438B2 (ja) 超音波診断装置
JP5417048B2 (ja) 超音波診断装置、及び超音波診断プログラム
JP2012090819A (ja) 超音波診断装置
US9398899B2 (en) Ultrasonic diagnostic apparatus and medical image processing apparatus
KR101776530B1 (ko) 초음파 화상 표시 장치 및 그 제어 프로그램
JP2015177883A (ja) 超音波診断装置
KR20140070428A (ko) 계측 장치 및 그 제어 프로그램
US20240122577A1 (en) Ultrasonic diagnostic apparatus
JP5851971B2 (ja) 計測装置及びその制御プログラム
JP5999935B2 (ja) 超音波診断装置
JP2009000552A (ja) 超音波診断装置
JP4868845B2 (ja) 超音波診断装置、超音波計測方法
JP2012143356A (ja) 超音波診断装置及びプログラム
JP2010194007A (ja) 超音波撮影装置、画像処理装置及び画像処理プログラム
KR101117879B1 (ko) 컬러 재구성 영상을 제공하는 초음파 시스템 및 방법
JP6299194B2 (ja) 超音波診断装置、及び超音波画像表示方法
JP2006020801A (ja) 超音波診断装置
JP5405509B2 (ja) 超音波診断装置および超音波画像処理装置
JP5574793B2 (ja) 超音波診断装置
US20200281566A1 (en) Ultrasonic imaging apparatus and method of controlling the same
JP6389116B2 (ja) 超音波画像表示装置及びその制御プログラム
JP5269430B2 (ja) 超音波診断装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201080033041.0

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10804099

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2011524655

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 13320775

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2010804099

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE