JP2006326310A - Method and system for collecting ultrasonic image data - Google Patents

Method and system for collecting ultrasonic image data Download PDF

Info

Publication number
JP2006326310A
JP2006326310A JP2006142646A JP2006142646A JP2006326310A JP 2006326310 A JP2006326310 A JP 2006326310A JP 2006142646 A JP2006142646 A JP 2006142646A JP 2006142646 A JP2006142646 A JP 2006142646A JP 2006326310 A JP2006326310 A JP 2006326310A
Authority
JP
Japan
Prior art keywords
image
color flow
ultrasound
image information
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006142646A
Other languages
Japanese (ja)
Other versions
JP2006326310A5 (en
Inventor
Thomas James Sabourin
トーマス・ジェイムズ・サボウーリン
Ganiere Angle Michelle
ミッシェル・ガニエール・アングル
Robert B Thompson
ロバート・ビー・トンプソン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
General Electric Co
Original Assignee
General Electric Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by General Electric Co filed Critical General Electric Co
Publication of JP2006326310A publication Critical patent/JP2006326310A/en
Publication of JP2006326310A5 publication Critical patent/JP2006326310A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B42/00Obtaining records using waves other than optical waves; Visualisation of such records by using optical means
    • G03B42/06Obtaining records using waves other than optical waves; Visualisation of such records by using optical means using ultrasonic, sonic or infrasonic waves
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/06Measuring blood flow
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/13Tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/467Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/483Diagnostic techniques involving the acquisition of a 3D volume of data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P5/00Measuring speed of fluids, e.g. of air stream; Measuring speed of bodies relative to fluids, e.g. of ship, of aircraft
    • G01P5/001Full-field flow measurement, e.g. determining flow velocity and direction in a whole region at the same time, flow visualisation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P5/00Measuring speed of fluids, e.g. of air stream; Measuring speed of bodies relative to fluids, e.g. of ship, of aircraft
    • G01P5/24Measuring speed of fluids, e.g. of air stream; Measuring speed of bodies relative to fluids, e.g. of ship, of aircraft by measuring the direct influence of the streaming fluid on the properties of a detecting acoustical wave
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • G01S15/8906Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
    • G01S15/8979Combined Doppler and pulse-echo imaging systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • G01S15/8906Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
    • G01S15/8995Combining images from different aspect angles, e.g. spatial compounding
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52085Details related to the ultrasound signal acquisition, e.g. scan sequences
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52053Display arrangements
    • G01S7/52057Cathode ray tube displays
    • G01S7/52074Composite displays, e.g. split-screen displays; Combination of multiple images or of images and alphanumeric tabular information

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Acoustics & Sound (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Hematology (AREA)
  • Multimedia (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a method and a system for collecting ultrasonic image data. <P>SOLUTION: The method and system for collecting the ultrasonic image data are provided. The method includes: a process for receiving synthetic image information from an ultrasonic system (100); a process for receiving color flow image information from the ultrasonic system; and a process for processing the received synthetic image information and color flow image information in order to generate a synthesized ultrasonic image combined with color flow imaging. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、全般的には超音波システムに関し、さらに詳細には、超音波画像データを収集するための方法及びシステムに関する。   The present invention relates generally to ultrasound systems, and more particularly to methods and systems for collecting ultrasound image data.

超音波システムは、様々な異なる超音波走査(例えば、ボリュームまたは身体に対する異なる撮像)の実行を可能にさせるように異なるトランスジューサを有する超音波探触子などの超音波走査デバイスを含むのが典型的である。さらに、例えば振幅モード(Aモード)、輝度モード(Bモード)などの異なる動作モードが利用可能であるのが典型的である。   The ultrasound system typically includes an ultrasound scanning device such as an ultrasound probe having different transducers to allow for the execution of a variety of different ultrasound scans (eg, different imaging of the volume or body). It is. Furthermore, typically different operating modes such as amplitude mode (A mode) and luminance mode (B mode) are available.

さらに、走査画像の品質(例えば、分解能)を改善するための様々な方法が知られている。例えば、超音波システムによって空間合成(spatial compounding)を提供することがある。具体的には、空間合成は、様々な幾何学構成で収集した画像(例えば、リニア探触子上の様々な角度における画像)からなるフレームを単一の複合画像になるように組み合わせる。この合成済み画像によれば、コントラスト分解能の改善によって従来の走査すなわち未合成走査と比較して改良された画質を提供することができる。しかし、空間合成した画像を収集する方式(とりわけ、空間合成に必要なデータを収集する方式)のため、並びにリアルタイム画像の作成に必要な処理デマンドのために、空間合成を別の動作モードと組み合わせて使用することは困難である。例えば、空間合成をカラーフロー・イメージング、パワードプラ、あるいは例えば血流速度情報を示す別の2次元(2D)画像モードと組み合わせて使用することは困難である。   In addition, various methods are known for improving the quality (eg, resolution) of scanned images. For example, an ultrasound system may provide spatial compounding. Specifically, spatial synthesis combines frames consisting of images collected in different geometric configurations (eg, images at different angles on a linear probe) into a single composite image. This synthesized image can provide improved image quality compared to conventional scanning, ie, unsynthesized scanning, by improving contrast resolution. However, combining spatial synthesis with other modes of operation for collecting spatially synthesized images (especially for collecting data required for spatial synthesis) and for processing demands required to create real-time images It is difficult to use. For example, it is difficult to use spatial synthesis in combination with color flow imaging, power Doppler, or another two-dimensional (2D) image mode that exhibits, for example, blood flow velocity information.

一実施形態では、超音波イメージングを実行するための方法を提供する。本方法は、超音波システムから合成式画像情報を受け取る工程と、超音波システムからカラーフロー画像情報を受け取る工程と、カラーフロー・イメージングと組み合わせた合成済み超音波画像を作成するためにこの受け取った合成式画像情報及びカラーフロー画像情報を処理する工程と、を含む。   In one embodiment, a method for performing ultrasound imaging is provided. The method receives the composite image information from the ultrasound system, receives the color flow image information from the ultrasound system, and receives the composite image information to create a combined ultrasound image combined with color flow imaging. Processing the combined image information and the color flow image information.

別の実施形態では、超音波システムにおいて超音波情報を収集するための収集システムを提供する。本収集システムは、カラーフロー・イメージング情報及び合成式画像情報を収集するためのデータ収集コンポーネントと、収集したカラーフロー・イメージング情報及び合成式画像情報のフレームを保存するためのメモリと、合成式画像情報のフレームを処理するための合成処理コンポーネントと、合成情報のフレームを処理するための未合成処理コンポーネントと、を含む。本収集システムはさらに、合成処理コンポーネントと未合成処理コンポーネントのうちの少なくとも一方によって処理させるフレームをメモリから選択するためのスイッチと、カラーフロー画像情報のフレームを処理するためのカラーフロー処理コンポーネントと、を含む。本収集システムはさらに、ユーザ入力に基づいて処理済み収集情報からの複数の画像を表示するためのディスプレイを含んでおり、この表示させる画像は合成済み画像と未合成画像のうちの少なくとも一方並びにカラーフローを重ね合わせた合成済み画像とカラーフローを重ね合わせた未合成画像のうちの少なくとも一方を含む。   In another embodiment, a collection system for collecting ultrasound information in an ultrasound system is provided. The acquisition system includes a data collection component for collecting color flow imaging information and composite image information, a memory for storing frames of the collected color flow imaging information and composite image information, and a composite image. A composition processing component for processing a frame of information and an uncomposition processing component for processing a frame of composition information are included. The collection system further includes a switch for selecting from the memory a frame to be processed by at least one of the synthesis processing component and the non-synthesis processing component, a color flow processing component for processing a frame of color flow image information, including. The collection system further includes a display for displaying a plurality of images from the processed collection information based on user input, the image to be displayed being at least one of a synthesized image and an unsynthesized image as well as a color. It includes at least one of a synthesized image with the flow superimposed and an unsynthesized image with the color flow superimposed.

超音波画像データ/情報を収集し組み合わせるための超音波システム及び方法の例示的な実施形態について以下に詳細に記載することにする。具体的には、例示的な超音波システムに関する詳細な説明を先ず提示し、続いて超音波データ/情報を収集するための方法及びシステムの様々な実施形態に関する詳細な説明を提示することにする。本明細書ではデータと情報という用語は区別なく使用していることに留意すべきである。   Exemplary embodiments of ultrasound systems and methods for collecting and combining ultrasound image data / information will be described in detail below. Specifically, a detailed description of an exemplary ultrasound system will be presented first, followed by a detailed description of various embodiments of methods and systems for collecting ultrasound data / information. . It should be noted that the terms data and information are used interchangeably herein.

図1は、例えば超音波画像を収集し処理するために使用できる超音波システム100の例示的な一実施形態のブロック図を表している。超音波システム100は、トランスジューサ106の内部にあるかトランスジューサ106の一部として形成した素子104(例えば、圧電結晶)からなるアレイを駆動して身体またはボリューム内にパルス状の超音波信号を放出する送信器102を含んでいる。多種多様な幾何学構成を使用すことができ、また1つまたは複数のトランスジューサ106を探触子(図示せず)の一部として設けることができる。パルス状の超音波信号は、例えば身体内にある血球や筋肉組織などの密度境界面及び/または構造で後方散乱を受けてエコーが発生し、これが素子104に戻される。このエコーは、受信器108によって受け取られてビーム形成器110に提供される。ビーム形成器は受け取ったエコーに対するビーム形成を実行してRF信号を出力する。次いで、RFプロセッサ112によってRF信号が処理される。RFプロセッサ112は、エコー信号を表すIQデータ対を形成させるようにRF信号を復調する複素復調器(図示せず)を含むことがある。次いで、このRFまたはIQ信号データは保存(例えば、一時保存)のためにRF/IQバッファ114に直接導かれることがある。   FIG. 1 depicts a block diagram of an exemplary embodiment of an ultrasound system 100 that can be used, for example, to collect and process ultrasound images. The ultrasound system 100 drives an array of elements 104 (eg, piezoelectric crystals) that are internal to or formed as part of the transducer 106 to emit a pulsed ultrasound signal into the body or volume. A transmitter 102 is included. A wide variety of geometric configurations can be used, and one or more transducers 106 can be provided as part of the probe (not shown). The pulsed ultrasonic signal undergoes backscattering at a density boundary surface and / or structure such as blood cells and muscle tissue in the body, for example, and an echo is generated, which is returned to the element 104. This echo is received by receiver 108 and provided to beamformer 110. The beamformer performs beamforming on the received echo and outputs an RF signal. The RF signal is then processed by the RF processor 112. The RF processor 112 may include a complex demodulator (not shown) that demodulates the RF signal to form IQ data pairs representing the echo signal. This RF or IQ signal data may then be routed directly to the RF / IQ buffer 114 for storage (eg, temporary storage).

超音波システム100はさらに、収集した超音波情報(すなわち、RF信号データまたはIQデータ対)を処理すると共に、表示システム118上に表示させる超音波情報のフレームを作成するために、信号プロセッサ116を含んでいる。信号プロセッサ116は、複数の選択可能な超音波様式に従って、収集した超音波情報に対して1つまたは複数の処理動作を実行するように適応させている。収集した超音波情報は、走査セッション中にエコー信号が受信されるに連れてリアルタイムで処理されることがある。追加または別法として、この超音波情報は走査セッション中にRF/IQバッファ114内に一時的に保存され、ライブ動作またはオフライン動作でリアルタイム性がより低い処理を受けることがある。   The ultrasound system 100 further processes the collected ultrasound information (ie, RF signal data or IQ data pairs) and also includes a signal processor 116 to create a frame of ultrasound information for display on the display system 118. Contains. The signal processor 116 is adapted to perform one or more processing operations on the collected ultrasound information according to a plurality of selectable ultrasound modes. The collected ultrasound information may be processed in real time as echo signals are received during the scanning session. Additionally or alternatively, this ultrasound information may be temporarily stored in the RF / IQ buffer 114 during the scan session and may be subject to less real-time processing in live or offline operation.

超音波システム100は、人間の眼の近似的認知速度である50フレーム毎秒を超えるフレームレートで超音波情報を連続して収集することがある。収集した超音波情報は、これより遅いフレームレートで表示システム118上に表示される。即座に表示させる予定がない収集超音波情報の処理済みフレームを保存するために、画像バッファ122を含めることがある。例示的な一実施形態では、その画像バッファ122は少なくとも数秒分の超音波情報フレームを保存できるだけの十分な容量をもつ。超音波情報のフレームは、収集順序や収集時間に応じたこれらの取り出しが容易となるような方式で保存されることがある。画像バッファ122は周知の任意のデータ記憶媒体を備えることがある。   The ultrasound system 100 may continuously collect ultrasound information at a frame rate that exceeds 50 frames per second, which is the approximate perception rate of the human eye. The collected ultrasound information is displayed on the display system 118 at a slower frame rate. An image buffer 122 may be included to store processed frames of acquired ultrasound information that are not scheduled to be displayed immediately. In one exemplary embodiment, the image buffer 122 has sufficient capacity to store at least a few seconds worth of ultrasound information frames. Ultrasound information frames may be stored in a manner that facilitates their retrieval according to the collection order and collection time. Image buffer 122 may comprise any known data storage medium.

超音波システム100の動作を制御するためにユーザ入力デバイス120が使用されることがある。ユーザ入力デバイス120は、例えば走査の種類または走査で利用されるトランスジューサの種類を制御するためのユーザ入力を受け取るのに適した任意のデバイス及び/またはユーザ・インタフェースとすることがある。   A user input device 120 may be used to control the operation of the ultrasound system 100. User input device 120 may be any device and / or user interface suitable for receiving user input to control, for example, the type of scan or the type of transducer utilized in the scan.

図2は、対象200の画像収集を表している。この収集は、例えば超音波システム100を用いて実行することができる。撮像の対象をボリュームとしているが、例えば2D画像など様々な画像を収集することができることに留意すべきである。対象200の画像は、本明細書でより詳細に記載するような撮像ボリューム216を作成するために複数の合成式フレーム222により収集された複数の断面210によって規定される。   FIG. 2 represents the image collection of the object 200. This collection can be performed using, for example, the ultrasound system 100. It should be noted that although the target of imaging is a volume, various images such as 2D images can be collected. The image of the subject 200 is defined by a plurality of cross-sections 210 collected by a plurality of composite frames 222 to create an imaging volume 216 as described in more detail herein.

さらに図3に示すように、空間合成を提供することができ、またこの空間合成は、同じ解剖領域に対する複数の共平面像(co−planar view)からのBモード・データのフレームを、表示のために1つのデータ・フレームに組み合わせることを含む。フレームは様々な視線から反復方式で収集される。図2は、ボリューム216の同じ断面スライス210がフレーム222に対応する5つの異なる方向から調べられているところを表している。フレーム222のそれぞれは、収集されると直前の4つのフレームと組み合わされ非ステアリング(unsteered)フレームの幾何学空間内で1つの出力フレームが作成される。図3は、出力フレームの様々な領域が入力フレームの重なり合った領域からなるように表している。図示したように、表示される出力フレームは非ステアリング・フレームの幾何学構成を有する。この例において、出力フレームの最上部分は、5つすべての方向(左寄りにステアリングした2つ、右寄りにステアリングした2つ、並びに単一の非ステアリング・フレーム)からのデータを組み合わせることによって形成されている。出力フレームの残りの部分は、その領域と重なり合うフレーム数に応じて3つまたは4つのフレームを組み合わせて得られる。   As further shown in FIG. 3, spatial synthesis can be provided, and this spatial synthesis can display frames of B-mode data from multiple co-planar views for the same anatomical region. To combine them into one data frame. Frames are collected iteratively from various gazes. FIG. 2 shows the same cross-sectional slice 210 of volume 216 being examined from five different directions corresponding to frame 222. Each of the frames 222, when collected, is combined with the previous four frames to create an output frame in the unsteered frame geometric space. FIG. 3 shows that various regions of the output frame are composed of overlapping regions of the input frame. As shown, the displayed output frame has a non-steering frame geometry. In this example, the top part of the output frame is formed by combining data from all five directions (two steered to the left, two steered to the right, and a single non-steering frame). Yes. The remaining portion of the output frame is obtained by combining three or four frames depending on the number of frames overlapping the region.

図4は、超音波システム100と組み合わせて使用できる本発明の例示的な一実施形態に従った収集システム250のブロック図を表している。具体的には、収集システム250は、例えばトランスジューサ106、送信器102及び受信器108(これらはすべて図1及び2に図示)を含むことがあるデータ収集コンポーネント252を含む。データ収集コンポーネント252は、様々な動作モードでかつ様々なトランスジューサすなわち探触子を用いて超音波画像データ/情報を収集できることを理解されたい。例えば図4に示すように、カラーフロー・フレーム254を収集するカラーフロー・イメージングの実行、並びに合成式フレーム256を収集する合成イメージングの実行を、データ収集コンポーネント252を用いてこれらのフレームを収集して実行することができる。   FIG. 4 depicts a block diagram of a collection system 250 according to an exemplary embodiment of the present invention that can be used in combination with the ultrasound system 100. Specifically, the collection system 250 includes a data collection component 252 that may include, for example, a transducer 106, a transmitter 102, and a receiver 108 (all illustrated in FIGS. 1 and 2). It should be understood that the data collection component 252 can collect ultrasound image data / information in various modes of operation and using various transducers or probes. For example, as shown in FIG. 4, a color flow imaging run that collects color flow frames 254 and a synthetic imaging run that collects composite expression frames 256 are collected using data collection component 252. Can be executed.

収集した画像フレームは、例示的な一実施形態では短期記憶(例えば、ランダム・アクセス・メモリ)としているメモリ258内に保存される。後で呼び出して表示できるように選択した画像や所望の画像を保存するために、例えばディスク記憶装置260などの長期記憶が設けられることもある。スイッチ262が設けられることもあり、このスイッチはユーザがユーザ入力デバイス120(図1参照)を用いて動作させることができる。スイッチ262によってユーザは、メモリ258内の情報(例えば、画像フレーム)を選択して合成処理コンポーネント264、未合成処理コンポーネント266、あるいはこれら両者に提供し、収集した画像データ(例えば、フレーム)を処理させることができる。次いで、処理済みの画像データがディスプレイ268上に表示される。またこの処理済み画像データは、データ収集コンポーネント252からの収集済みフレームに基づいて、合成済み画像と未合成画像のうちの一方、あるいはこれら両方を含むことができる。さらに、カラーフロー・フレームを処理して合成処理コンポーネント264及び未合成処理コンポーネント266からの合成済み画像または未合成画像に追加してあるいはこれらと組み合わせてディスプレイ268上に表示するために、カラーフロー処理コンポーネント270がメモリ258に接続されている。例えば本明細書の記載に従って表示させる画像の種類または構成を選択するためにユーザ入力デバイス120(図1参照)を介してユーザ入力が提供されることがある。さらに、ディスプレイ268は、表示システム118(図1参照)を含む適当な任意のディスプレイとすることがあることに留意すべきである。   The collected image frames are stored in memory 258, which in one exemplary embodiment is short-term storage (eg, random access memory). Long-term storage, such as a disk storage device 260, may be provided, for example, to store selected images or desired images that can be recalled and displayed later. A switch 262 may be provided and can be operated by the user using the user input device 120 (see FIG. 1). The switch 262 allows the user to select information (eg, image frames) in the memory 258 and provide it to the compositing processing component 264, the uncombined processing component 266, or both, and process the collected image data (eg, frames). Can be made. The processed image data is then displayed on the display 268. The processed image data can also include one or both of a synthesized image and an unsynthesized image based on the collected frames from the data collection component 252. In addition, the color flow processing for processing the color flow frame to display on the display 268 in addition to or in combination with the synthesized or unsynthesized image from the composition processing component 264 and the unsynthesized processing component 266. A component 270 is connected to the memory 258. For example, user input may be provided via user input device 120 (see FIG. 1) to select the type or composition of images to be displayed according to the description herein. It should further be noted that the display 268 may be any suitable display including the display system 118 (see FIG. 1).

さらに、収集システム250の構成部品は、所望によりまたは必要に応じて(例えば、当該の超音波システムに基づいて)製作される及び/または設けられることがあることに留意すべきである。したがって、本明細書に記載したような様々な動作及び機能を実行するために様々な構成部品を実装することができる。   Furthermore, it should be noted that the components of collection system 250 may be manufactured and / or provided as desired or required (eg, based on the ultrasound system of interest). Accordingly, various components can be implemented to perform various operations and functions as described herein.

動作時において収集システム250並びに以下に記載する方法を用いることによって、所望によりまたは必要に応じてカラーフローと組み合わせた(例えば、重ね合わせた)合成済み画像及び/または未合成画像を提供することができる。例えばディスプレイ268は、ディスプレイ268のある部分に合成済み画像、またディスプレイ268の別の部分にカラーフローと重ね合わせた合成済み画像とするなど2つの別々の画像を表示することがある。   In operation, the collection system 250 and the method described below may be used to provide a synthesized and / or unsynthesized image combined (eg, superimposed) with color flow as desired or required. it can. For example, display 268 may display two separate images, such as a combined image on one portion of display 268 and a combined image superimposed on the color flow on another portion of display 268.

データ収集コンポーネント252を用いた超音波画像データ/情報の収集に関して、単一の走査において合成式フレームとカラーフロー・フレームが収集される。図5に示すように、走査しようとする同じ点及び/または同じ関心領域に関して、合成式フレームが様々な角度で収集されることがある。具体的には、単一のフレームに対するBモード発射について、角度がゼロの中央(M)発射280が提供され、かつ左側2(L2)発射282及び左側1(L1)発射284が中央発射280に対して角度をつけて(例えば、関心領域を基準として左寄りに)提供されるように表している。例えば、中央発射280を基準としてそれぞれ、L1発射284が15度で、またL2発射282が30度で提供されることがある。同様に、中央発射280を基準としたある角度でさらに右側2(R2)発射286及び右側1(R1)発射288が提供されることがある。これらの様々な発射は、トランスジューサ106を機械式にステアリングするすなわち指向させる(例えば、探触子内で走査ヘッドを動かす)こと及び/または電子式とする(例えば、フェーズドアレイを用いる)ことのいずれによっても提供できることを理解されたい。本明細書において発射(firing)について述べる場合、この意味は一般に、例えばトランスジューサの一部として素子のアレイを駆動し身体またはボリューム内にパルス状の超音波信号を放出することなど画像を収集するように超音波システムを起動することを意味する。   For the collection of ultrasound image data / information using the data collection component 252, composite frames and color flow frames are collected in a single scan. As shown in FIG. 5, composite frames may be collected at various angles for the same point to be scanned and / or the same region of interest. Specifically, for B-mode launches for a single frame, a zero angle center (M) launch 280 is provided, and left 2 (L2) launch 282 and left 1 (L1) launch 284 are center launch 280. It is shown to be provided at an angle with respect to the region of interest (eg, to the left with respect to the region of interest). For example, the L1 launch 284 may be provided at 15 degrees and the L2 launch 282 at 30 degrees, respectively, with respect to the central launch 280. Similarly, additional right 2 (R2) launch 286 and right 1 (R1) launch 288 may be provided at an angle relative to central launch 280. These various firings can either mechanically steer or direct transducer 106 (eg, move the scan head within the probe) and / or be electronic (eg, using a phased array). It should be understood that can also be provided. When referring to firing herein, this generally means to collect images, such as driving an array of elements as part of a transducer to emit a pulsed ultrasound signal into the body or volume. Means to activate the ultrasound system.

図6から図10までに示す本発明の様々な実施形態は、リアルタイムとし得る単一の走査中に同じ解剖部位など所与の対象に関してカラーフロー画像データ(例えば、カラーフロー・フレーム254)及び合成済み画像データ(例えば、合成式フレーム256)を収集するためのデータ収集コンポーネント252を含む収集システム250を用いた収集シーケンスを提供する。この収集シーケンスによりユーザは例えば、合成をオンにした状態で走査を行い、さらにまた未合成バージョンの画像と合成済み画像をリアルタイムで隣り合わせてディスプレイ上に表示し、この際に表示画像のどちらかあるいは両方に関して解剖構造情報やカラーフロー画像情報を重ね合わせるように選択することが可能となる。   Various embodiments of the present invention illustrated in FIGS. 6-10 may be used for color flow image data (eg, color flow frame 254) and composition for a given object, such as the same anatomy, during a single scan that may be real time. A collection sequence is provided using a collection system 250 that includes a data collection component 252 for collecting completed image data (eg, composite frame 256). This acquisition sequence allows the user to scan, for example, with synthesis turned on, and also display the unsynthesized version image and the synthesized image next to each other in real time on the display, with either the displayed image or It is possible to select to superimpose anatomical structure information and color flow image information for both.

具体的に例示的な一実施形態では、データ収集コンポーネント252はカラーフロー・フレーム254及び合成式フレーム256を収集し、これらを個別のフレームとしてメモリ258内に保存する。具体的には、図6の例示的な一実施形態に図示したような画像情報の収集では、1シリーズすなわち1組の合成式フレームごとに1つのカラーフロー・データフレームが非交互配置方式で収集されており、この収集は非ステアリング式合成式フレームのBモード・データフレームの前または後のいずれかにくる。例えば、カラーフロー・フレーム全体を作成してからBモード発射に切り換わるようにして発射の全体組が実行される。図6では、以下に示す収集シーケンスすなわち発射シーケンスが提供される。   In a specific exemplary embodiment, the data collection component 252 collects the color flow frame 254 and the composite frame 256 and stores them in the memory 258 as separate frames. Specifically, in the collection of image information as illustrated in one exemplary embodiment of FIG. 6, one colorflow data frame is collected in a non-interleaved fashion for each series, ie, a set of composite frames. This acquisition can occur either before or after the B-mode data frame of the non-steered composite frame. For example, the entire set of firings is performed by creating an entire color flow frame and then switching to B-mode firing. In FIG. 6, the following acquisition sequence or launch sequence is provided.

1.M発射280
2.単一フレーム・カラーフロー発射290
3.L2発射282
4.R1発射288
5.L1発射284
6.R2発射286
このシーケンスは、例えば撮像される解剖構造に関するリアルタイム表示すなわちライブ表示を提供するために、所望によりまた必要に応じて反復されることがある。例えば合成済みフレームでは、収集された最後の5フレーム(5つの異なるステアリング方向によって合成する場合)を組み合わせて表示させる。例えば、フレームの番号付けがゼロから開始されており走査の間に繰り上げられてゆくと仮定し、5つの角度を合成すると仮定する。フレーム0から4までを収集した後、1つの出力フレームが表示のために出力される。次いで、フレーム5が収集されると共に、フレーム1、2、3、4及び5の組み合わせを用いて表示が更新される。次いでフレーム6が収集されると共にフレーム2、3、4、5及び6の組み合わせを用いて表示が更新される。この処理過程が同様にして継続される。
1. M launch 280
2. Single frame color flow launch 290
3. L2 launch 282
4). R1 launch 288
5. L1 launch 284
6). R2 launch 286
This sequence may be repeated as desired and as necessary, for example, to provide a real-time or live display of the anatomy being imaged. For example, in the combined frame, the last five frames collected (when combined with five different steering directions) are displayed in combination. For example, suppose that frame numbering starts at zero and moves up during the scan, and synthesizes five angles. After collecting frames 0 through 4, one output frame is output for display. Frame 5 is then collected and the display is updated with a combination of frames 1, 2, 3, 4 and 5. Frame 6 is then collected and the display is updated with a combination of frames 2, 3, 4, 5 and 6. This process is continued in the same manner.

図7に示す別の例示的な実施形態でも図6に示した収集シーケンスと同様に、以下に示す収集シーケンスすなわち発射シーケンスが提供される。   In another exemplary embodiment shown in FIG. 7, the following acquisition sequence or firing sequence is provided, similar to the acquisition sequence shown in FIG.

1.R2発射286
2.単一フレーム・カラーフロー発射290
3.M発射280
4.L2発射282
5.R1発射288
6.L1発射284
7.R2発射286
この場合も、所望によりまたは必要に応じてこのシーケンスは反復されることがある。
1. R2 launch 286
2. Single frame color flow launch 290
3. M launch 280
4). L2 launch 282
5. R1 launch 288
6). L1 launch 284
7). R2 launch 286
Again, this sequence may be repeated as desired or necessary.

図8に示す別の例示的な実施形態でも、その収集シーケンスは図6及び7に示したシーケンスと同様であるが、非ステアリング・フレームに関してカラーフロー発射はBモード発射と交互配置されている。具体的には、以下に示す収集シーケンスすなわち発射シーケンスが提供される。   In another exemplary embodiment shown in FIG. 8, the collection sequence is similar to the sequence shown in FIGS. 6 and 7, but color flow firing is interleaved with B-mode firing for non-steering frames. Specifically, the following acquisition sequence or launch sequence is provided.

1.交互式発射292
2.L2発射282
3.R1発射288
4.L1発射284
5.R2発射286
この場合も、所望によりまたは必要に応じてこのシーケンスは反復されることがある。
1. Alternating launch 292
2. L2 launch 282
3. R1 launch 288
4). L1 launch 284
5. R2 launch 286
Again, this sequence may be repeated as desired or necessary.

交互式発射292はある具体的なステアリング方向における単一フレームに対するカラーフロー発射と単一フレームに対するBモード発射との交互配置であることに留意すべきである。この例示的な実施形態では、交互式発射292はM発射280と単一フレーム・カラーフロー発射290とを組み合わせたものである。交互式発射は所望によりまたは必要に応じて(例えば、様々な組み合わせで)提供できることに留意すべきである。   It should be noted that alternating firing 292 is an interleave of color flow firing for a single frame and B-mode firing for a single frame in a particular steering direction. In the exemplary embodiment, alternate firing 292 is a combination of M firing 280 and single frame color flow firing 290. It should be noted that alternating firing can be provided as desired or required (eg, in various combinations).

図9に示すような収集シーケンスの別の例示的な実施形態では、個別の合成式フレームごとに1つのカラーフロー・データフレームが、非交互配置方式で収集される(例えば、カラーフロー・フレーム全体を作成してからBモード発射に切り換わるようにして発射の全体組が実行されることがある)。具体的には、以下に示す収集シーケンスすなわち発射シーケンスが提供される。   In another exemplary embodiment of a collection sequence as shown in FIG. 9, one colorflow data frame is collected in a non-interleaved fashion for each individual composite frame (eg, the entire colorflow frame The entire set of firings may be performed by switching to B-mode firing after the Specifically, the following acquisition sequence or launch sequence is provided.

1.M発射280
2.単一フレーム・カラーフロー発射290
3.L2発射282
4.単一フレーム・カラーフロー発射290
5.R1発射288
6.単一フレーム・カラーフロー発射290
7.L1発射284
8.単一フレーム・カラーフロー発射290
9.R2発射286
10.カラーフロー発射290
この場合も、所望によりまたは必要に応じてこのシーケンスは反復されることがある。
1. M launch 280
2. Single frame color flow launch 290
3. L2 launch 282
4). Single frame color flow launch 290
5. R1 launch 288
6). Single frame color flow launch 290
7). L1 launch 284
8). Single frame color flow launch 290
9. R2 launch 286
10. Color Flow Launch 290
Again, this sequence may be repeated as desired or necessary.

図10に示すような収集シーケンスの別の例示的な実施形態では、図9のシーケンスと同様のシーケンスを提供しているが、この場合ステアリングした各合成式フレームごとにカラーフロー発射がBモード発射と交互配置されている。具体的には、以下に示す収集シーケンスすなわち発射シーケンスが提供される。   In another exemplary embodiment of the acquisition sequence as shown in FIG. 10, a sequence similar to that of FIG. 9 is provided, but in this case the color flow launch is B-mode launch for each steered composite frame. Are interleaved. Specifically, the following acquisition sequence or launch sequence is provided.

1.交互式発射292
2.交互式発射294
3.交互式発射296
4.交互式発射298
5.交互式発射300
この場合も、所望によりまたは必要に応じてこのシーケンスは反復されることがある。
1. Alternating launch 292
2. Alternating launch 294
3. Alternate firing 296
4). Alternate launch 298
5. Alternating launch 300
Again, this sequence may be repeated as desired or necessary.

例示的な一実施形態では、交互式発射292は、(i)M発射280と(ii)単一フレーム・カラーフロー発射290とを交互配置させたものである。交互式発射294は、(i)L2発射282と(ii)単一フレーム・カラーフロー発射290とを交互配置させたものである。交互式発射296は、(i)R1発射288と(ii)単一フレーム・カラーフロー発射290とを交互配置させたものである。交互式発射298は、(i)L1発射284と(ii)単一フレーム・カラーフロー発射290とを交互配置させたものである。交互式発射300は、(i)R2発射286と(ii)単一フレーム・カラーフロー発射290とを交互配置させたものである。これらの交互式発射は所望によりまたは必要に応じて(例えば、様々な組み合わせで)提供することができる。   In one exemplary embodiment, alternate firing 292 is an interleave of (i) M firing 280 and (ii) single frame color flow firing 290. Alternate firing 294 is an interleave of (i) L2 firing 282 and (ii) single frame color flow firing 290. Alternate firing 296 is an interleave of (i) R1 firing 288 and (ii) single frame color flow firing 290. Alternate firing 298 is an interleave of (i) L1 firing 284 and (ii) single frame color flow firing 290. Alternate firing 300 is an interleave of (i) R2 firing 286 and (ii) single frame color flow firing 290. These alternating firings can be provided as desired or required (eg, in various combinations).

この交互式発射に関しては、単一フレームに対するカラーフロー発射と単一フレームに対するBモード発射の組み合わせを所望によりまたは必要に応じて提供できることに留意すべきである。例えば、交互式発射292について見ると、M発射280と単一フレーム・カラーフロー発射290のベクトルをカラーの50ラインとBモードの100ラインで交互配置させる場合、これらの発射は各1回あたり10ラインで交互配置すること、すなわちBモードの10ラインに続いてカラーフローの10ラインさらに続いてBモードの10ライン、等々とすることができる。しかし、所望によりまたは必要に応じて別の組み合わせも可能である。例えば、カラーに関する発射の観点からすると、表示される各ラインごとに4〜16ベクトルをある具体的な方向に発射して1つのカラー・ラインを作成して表示させることができる。このベクトルの数は、パケットサイズと呼ばれる。表示用のカラー・ラインが50ラインでBモード・ラインが100ラインであり、かつカラーフロー・ベクトル向けのパケットサイズが8であれば、その発射は次のように提供することができる:Bラインを20、カラーを80(1つのパケットで10ラインの8倍)、次いでBを20、次いでカラーを80とし、そのフレームが完了するまで続く。カラーデータの当該パケットは、PRF、深度及びカラーROIサイズに関するユーザ設定に応じて交互配置することができる。例えば、ROIはそれぞれ25ラインからなる2つの領域に分割する(各セクションごとに全体で200発射すなわち25×8とする)ことができる。ある状況では、第1の発射を第1の領域に関する1つのパケット内で収集し、次いで第1の領域に関する第2の発射の収集前に第2の領域に関する1つのパケット内の第1の発射とすることができる。ラインに「L」を用いまた発射に「F」を用いて表すとすると、シーケンスはL1F1、L26F1、L1F2、L26F2、L1F3、L26F3、...、L1F8、L26F8、次いでBラインがある数だけ続き、次いでL2F1、L27F1、L2F2、L27F2、L2F3、L27F3、...、L2F8、L27F8のように表記することができる。   With respect to this alternating firing, it should be noted that a combination of color flow firing for a single frame and B-mode firing for a single frame can be provided as desired or required. For example, looking at alternating firing 292, if the vectors of M firing 280 and single frame color flow firing 290 are interleaved with 50 lines of color and 100 lines of B mode, these firings are 10 per shot. The lines can be interleaved, that is, 10 lines in B mode, 10 lines in color flow, 10 lines in B mode, and so on. However, other combinations are possible as desired or required. For example, from the viewpoint of firing with respect to color, it is possible to create and display one color line by firing 4 to 16 vectors in a specific direction for each displayed line. This number of vectors is called the packet size. If the display color line is 50 lines, the B-mode line is 100 lines, and the packet size for the color flow vector is 8, the launch can be provided as follows: B line 20 and color 80 (8 times 10 lines in one packet), then B 20 and then color 80 and so on until the frame is complete. The packets of color data can be interleaved according to user settings regarding PRF, depth and color ROI size. For example, the ROI can be divided into two regions each consisting of 25 lines (200 shots or 25 × 8 total for each section). In some situations, the first launch is collected in one packet for the first region, and then the first launch in one packet for the second region before the collection of the second launch for the first region. It can be. Assuming that “L” is used for the line and “F” is used for launch, the sequence is L1F1, L26F1, L1F2, L26F2, L1F3, L26F3,. . . , L1F8, L26F8, followed by a certain number of B lines, then L2F1, L27F1, L2F2, L27F2, L2F3, L27F3,. . . , L2F8, and L27F8.

発射280〜288並びに合成式フレームの収集に関して使用する角度は、所望によりまたは必要に応じて、例えば当該の用途または使用する探触子に基づいてプログラム可能とするすなわち事前決定することができることに留意すべきである。さらに、3、5、7、9及び/または所望によりまたは必要に応じて別の任意の数とするなど様々な数のフレームを合成させることもできる。   Note that the angles used for firings 280-288 as well as the collection of composite frames can be programmed or pre-determined as desired or required, eg, based on the application or probe used. Should. Further, various numbers of frames may be combined, such as 3, 5, 7, 9, and / or any other number as desired or required.

したがって、本発明の様々な実施形態によってユーザは、カラーフロー・イメージングを含み得る合成済み画像と未合成画像の様々な組み合わせを、表示モード間または動作モード間の切り替えを要することなくディスプレイ上で観察することが可能となる。したがって、本発明の様々な実施形態により、例えば血流などの生理学的情報との空間合成の画質を向上させて解剖構造を単一のディスプレイ上に表示させることができる。   Accordingly, various embodiments of the present invention allow a user to view various combinations of synthesized and unsynthesized images on a display that may include color flow imaging on the display without requiring switching between display modes or operating modes. It becomes possible to do. Accordingly, various embodiments of the present invention can display the anatomical structure on a single display with improved image quality of spatial synthesis with physiological information such as blood flow.

本発明を、具体的な様々な実施形態に関して記載してきたが、当業者であれば、本発明が本特許請求の範囲の精神及び趣旨の域内にある修正を伴って実施できることを理解するであろう。また、図面の符号に対応する特許請求の範囲中の符号は、単に本願発明の理解をより容易にするために用いられているものであり、本願発明の範囲を狭める意図で用いられたものではない。そして、本願の特許請求の範囲に記載した事項は、明細書に組み込まれ、明細書の記載事項の一部となる。   While the invention has been described in terms of various specific embodiments, those skilled in the art will recognize that the invention can be practiced with modification within the spirit and scope of the claims. Let's go. Further, the reference numerals in the claims corresponding to the reference numerals in the drawings are merely used for easier understanding of the present invention, and are not intended to narrow the scope of the present invention. Absent. The matters described in the claims of the present application are incorporated into the specification and become a part of the description items of the specification.

本発明の例示的な一実施形態に従った超音波システムのブロック図である。1 is a block diagram of an ultrasound system according to an exemplary embodiment of the present invention. 本発明の例示的な一実施形態に従った図1のシステムを用いた対象の画像収集を表した図である。FIG. 2 is a representation of object image collection using the system of FIG. 1 in accordance with an exemplary embodiment of the present invention. 本発明の例示的な一実施形態に従った空間合成を表した図である。FIG. 3 is a diagram illustrating spatial synthesis according to an exemplary embodiment of the present invention. 本発明の例示的な一実施形態に従った収集システムを表したブロック図である。1 is a block diagram illustrating a collection system according to an exemplary embodiment of the present invention. 本発明の例示的な一実施形態に従った超音波システムの探触子によって収集できる合成式フレームの様々なパースペクティブのブロック図である。FIG. 4 is a block diagram of various perspectives of a composite frame that can be collected by a probe of an ultrasound system according to an exemplary embodiment of the present invention. 本発明の例示的な一実施形態に従った収集シーケンスのブロック図である。FIG. 6 is a block diagram of a collection sequence according to an exemplary embodiment of the present invention. 本発明の別の例示的実施形態に従った収集シーケンスのブロック図である。FIG. 6 is a block diagram of a collection sequence according to another exemplary embodiment of the present invention. 本発明の別の例示的実施形態に従った収集シーケンスのブロック図である。FIG. 6 is a block diagram of a collection sequence according to another exemplary embodiment of the present invention. 本発明の別の例示的実施形態に従った収集シーケンスのブロック図である。FIG. 6 is a block diagram of a collection sequence according to another exemplary embodiment of the present invention. 本発明の別の例示的実施形態に従った収集シーケンスのブロック図である。FIG. 6 is a block diagram of a collection sequence according to another exemplary embodiment of the present invention.

符号の説明Explanation of symbols

100 超音波システム
102 送信器
104 素子
106 トランスジューサ
108 受信器
110 ビーム形成器
112 RFプロセッサ
114 RF/IQバッファ
116 信号プロセッサ
118 表示システム
120 ユーザ入力デバイス
122 画像バッファ
200 対象
210 断面スライス
216 ボリューム
222 フレーム
250 収集システム
252 データ収集コンポーネント
254 カラーフロー・フレーム
256 合成式フレーム
258 メモリ
260 ディスク記憶装置
262 スイッチ
264 合成処理コンポーネント
266 未合成処理コンポーネント
268 ディスプレイ
270 カラーフロー処理コンポーネント
280 M(中央)発射
282 L2発射
284 L1発射
286 R2発射
288 (R1)発射
290 フレーム・カラーフロー発射
292 交互式発射
294 交互式発射
296 交互式発射
298 交互式発射
300 交互式発射
100 Ultrasonic System 102 Transmitter 104 Element 106 Transducer 108 Receiver 110 Beamformer 112 RF Processor 114 RF / IQ Buffer 116 Signal Processor 118 Display System 120 User Input Device 122 Image Buffer 200 Subject 210 Cross Section Slice 216 Volume 222 Frame 250 Collection System 252 Data collection component 254 Color flow frame 256 Composite frame 258 Memory 260 Disk storage 262 Switch 264 Composite processing component 266 Uncombined processing component 268 Display 270 Color flow processing component 280 M (center) launch 282 L2 launch 284 L1 launch 286 R2 launch 288 (R1) launch 290 -Time color flow firing 292 alternately firing 294 alternately firing 296 alternately firing 298 alternately firing 300 alternately firing

Claims (10)

超音波システム(100)から合成式画像情報を受け取る工程と、超音波システムからカラーフロー画像情報を受け取る工程と、カラーフロー・イメージングと組み合わせた合成済み超音波画像を作成するために受け取った合成式画像情報及びカラーフロー画像情報を処理する工程と、を含む超音波イメージングの実行方法。   Receiving composite image information from the ultrasound system (100), receiving color flow image information from the ultrasound system, and a composite equation received to create a combined ultrasound image combined with color flow imaging. Processing the image information and the color flow image information. 超音波システム(100)からパワードプラ画像情報を受け取る工程をさらに含むと共に、前記処理工程がパワードプラ・イメージングと組み合わせた合成済み超音波画像を作成するために該受け取ったパワードプラ画像情報を処理する工程を含む、請求項1に記載の方法。   The method further includes receiving power Doppler image information from the ultrasound system (100), wherein the processing step processes the received power Doppler image information to create a synthesized ultrasound image combined with power Doppler imaging. The method of claim 1, comprising a step. 超音波システム(100)から2次元血液画像情報を受け取る工程をさらに含むと共に、前記処理工程が2次元血液イメージングと組み合わせた合成済み超音波画像を作成するために該受け取った2次元血液画像情報を処理する工程を含む、請求項1に記載の方法。   The method further includes receiving two-dimensional blood image information from the ultrasound system (100), and the processing step includes receiving the received two-dimensional blood image information to create a synthesized ultrasound image combined with two-dimensional blood imaging. The method of claim 1, comprising the step of processing. カラーフロー・イメージングと組み合わせた合成済み超音波画像を、同じ関心領域に対する未合成超音波画像と一緒にディスプレイ(268)上に表示する工程をさらに含む請求項1に記載の方法。   The method of claim 1, further comprising displaying the synthesized ultrasound image combined with color flow imaging on a display (268) along with unsynthesized ultrasound images for the same region of interest. カラーフロー・イメージングと組み合わせた合成済み超音波画像を、同じ関心領域に対するカラーフロー・イメージングと組み合わせた未合成超音波画像と一緒にディスプレイ(268)上に表示する工程をさらに含む請求項1に記載の方法。   2. The method of claim 1, further comprising displaying the synthesized ultrasound image combined with color flow imaging on a display (268) along with the unsynthesized ultrasound image combined with color flow imaging for the same region of interest. the method of. カラーフロー・イメージングと組み合わせた合成済み超音波画像を、同じ関心領域に対する合成済み画像と一緒にディスプレイ(268)上に表示する工程をさらに含む請求項1に記載の方法。   The method of claim 1, further comprising displaying the synthesized ultrasound image combined with color flow imaging on a display (268) along with the synthesized image for the same region of interest. 前記カラーフロー画像情報が前記合成済み超音波画像の上に重ね合わされている、請求項1に記載の方法。   The method of claim 1, wherein the color flow image information is superimposed on the synthesized ultrasound image. 超音波システム(100)によって合成式画像情報を収集する工程と、超音波システムによってカラーフロー画像情報を収集する工程と、表示のために該カラーフロー画像情報を処理する工程と、ユーザ入力に基づいて該合成式画像情報を処理する工程と、ユーザ入力に基づいて該処理済み収集情報からの複数の画像を表示する工程と、を含む超音波イメージングの実行方法であって、表示させる画像は合成済み画像と未合成画像のうちの少なくとも一方並びにカラーフローを重ね合わせた合成済み画像とカラーフローを重ね合わせた未合成画像のうちの少なくとも一方である、超音波イメージング実行方法。   Collecting composite image information with the ultrasound system (100), collecting colorflow image information with the ultrasound system, processing the colorflow image information for display, and based on user input A method for performing ultrasound imaging, comprising: a step of processing the combined image information; and a step of displaying a plurality of images from the processed collection information based on user input, wherein the image to be displayed is combined A method for performing ultrasound imaging, wherein the method is at least one of at least one of a completed image and an unsynthesized image, and a synthesized image obtained by superimposing a color flow and an unsynthesized image obtained by superimposing a color flow. 収集した合成式画像情報の各フレーム(256)と収集したカラーフロー画像情報の各フレーム(254)とを別々に保存する工程をさらに含む請求項8に記載の方法。   9. The method of claim 8, further comprising: separately storing each frame (256) of the collected composite image information and each frame (254) of the collected color flow image information. カラーフロー・イメージング情報及び合成式画像情報を収集するためのデータ収集コンポーネント(252)と、該収集したカラーフロー・イメージング情報及び合成式画像情報のフレーム(254、256)を保存するためのメモリ(258)と、合成式画像情報のフレームを処理するための合成処理コンポーネント(264)と、合成情報のフレームを処理するための未合成処理コンポーネント(266)と、該合成処理コンポーネントと未合成処理コンポーネントのうちの少なくとも一方によって処理させるフレームを該メモリから選択するためのスイッチ(262)と、カラーフロー画像情報のフレームを処理するためのカラーフロー処理コンポーネント(270)と、ユーザ入力に基づいて該処理済み収集情報からの複数の画像を表示するためのディスプレイ(268)と、を備える超音波システム(100)で超音波情報を収集するための収集システム(250)であって、表示させる画像は合成済み画像と未合成画像のうちの少なくとも一方並びにカラーフローを重ね合わせた合成済み画像とカラーフローを重ね合わせた未合成画像のうちの少なくとも一方である、収集システム。   A data collection component (252) for collecting color flow imaging information and composite image information, and a memory for storing frames (254, 256) of the collected color flow imaging information and composite image information ( 258), a compositing processing component (264) for processing a frame of composite image information, an uncombined processing component (266) for processing a frame of composite information, and the compositing processing component and the unsynthesizing processing component A switch (262) for selecting a frame to be processed from at least one of the memories, a color flow processing component (270) for processing a frame of color flow image information, and the processing based on a user input Multiple images from already collected information A collection system (250) for collecting ultrasound information with an ultrasound system (100) comprising a display (268) for displaying, wherein the image to be displayed is one of a synthesized image and an unsynthesized image A collection system that is at least one of at least one and a combined image with color flow superimposed and an unsynthesized image with color flow superimposed.
JP2006142646A 2005-05-26 2006-05-23 Method and system for collecting ultrasonic image data Pending JP2006326310A (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US11/138,199 US20070010747A1 (en) 2005-05-26 2005-05-26 Methods and systems for acquiring ultrasound image data

Publications (2)

Publication Number Publication Date
JP2006326310A true JP2006326310A (en) 2006-12-07
JP2006326310A5 JP2006326310A5 (en) 2009-07-23

Family

ID=37443397

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006142646A Pending JP2006326310A (en) 2005-05-26 2006-05-23 Method and system for collecting ultrasonic image data

Country Status (5)

Country Link
US (1) US20070010747A1 (en)
JP (1) JP2006326310A (en)
KR (1) KR20060122738A (en)
CN (1) CN1869678B (en)
DE (1) DE102006024539A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016040016A (en) * 2010-07-02 2016-03-24 株式会社東芝 Ultrasonic diagnostic device, image processing device and control program

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080119733A1 (en) * 2006-11-22 2008-05-22 Wei Zhang Selectably compounding and displaying breast ultrasound images
JP2009100971A (en) * 2007-10-24 2009-05-14 Ge Medical Systems Global Technology Co Llc Ultrasonic imaging apparatus
CN101711686B (en) * 2008-10-07 2013-04-24 深圳迈瑞生物医疗电子股份有限公司 Imaging method and imaging system for real-time space compound and ultrasonic imaging system thereof
WO2010106379A1 (en) * 2009-03-20 2010-09-23 Mediwatch Uk Limited Ultrasound probe with accelerometer
WO2015076508A1 (en) 2013-11-21 2015-05-28 Samsung Medison Co., Ltd. Method and apparatus for displaying ultrasound image
KR20150118493A (en) * 2014-04-14 2015-10-22 삼성전자주식회사 ultrasonic apparatus and control method for the same
JP6665167B2 (en) * 2014-08-28 2020-03-13 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Parallel acquisition of harmonic and fundamental images for screening applications
US20160310110A1 (en) * 2015-04-23 2016-10-27 Siemens Medical Solutions Usa, Inc. Acquisition control for mixed mode ultrasound imaging
CN111511288B (en) * 2017-11-22 2024-05-28 皇家飞利浦有限公司 Ultrasound lung assessment
CN115680618A (en) * 2021-07-29 2023-02-03 中国石油化工股份有限公司 Array type multi-frequency sound wave oil-gas well casing visualization method and detection device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003527178A (en) * 2000-03-17 2003-09-16 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Spatially mixed 3D ultrasound images
JP2005081154A (en) * 2003-09-10 2005-03-31 Ge Medical Systems Global Technology Co Llc System and method to embody speckle reduction filter
JP2005087730A (en) * 2003-09-09 2005-04-07 Ge Medical Systems Global Technology Co Llc Simultaneous generation of spatial composite image and non-composite image
WO2005059591A1 (en) * 2003-12-16 2005-06-30 Koninklijke Philips Electronics, N.V. Ultrasonic diagnostic contrast imaging with spatial compounding

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5782766A (en) * 1995-03-31 1998-07-21 Siemens Medical Systems, Inc. Method and apparatus for generating and displaying panoramic ultrasound images
US5601085A (en) * 1995-10-02 1997-02-11 Nycomed Imaging As Ultrasound imaging
US6086539A (en) * 1996-12-04 2000-07-11 Acuson Corporation Methods and apparatus for ultrasound image quantification
US5904653A (en) * 1997-05-07 1999-05-18 General Electric Company Method and apparatus for three-dimensional ultrasound imaging combining intensity data with color flow velocity or power data
US6511426B1 (en) * 1998-06-02 2003-01-28 Acuson Corporation Medical diagnostic ultrasound system and method for versatile processing
US6126598A (en) * 1998-10-01 2000-10-03 Atl Ultrasound, Inc. Ultrasonic diagnostic imaging system with adaptive spatial compounding
US6544177B1 (en) * 1998-10-01 2003-04-08 Atl Ultrasound, Inc. Ultrasonic diagnostic imaging system and method with harmonic spatial compounding
US6126601A (en) * 1998-10-29 2000-10-03 Gilling; Christopher J. Method and apparatus for ultrasound imaging in multiple modes using programmable signal processor
US6554770B1 (en) * 1998-11-20 2003-04-29 Acuson Corporation Medical diagnostic ultrasound imaging methods for extended field of view
US6390980B1 (en) * 1998-12-07 2002-05-21 Atl Ultrasound, Inc. Spatial compounding with ultrasonic doppler signal information
JP4218143B2 (en) * 1999-08-10 2009-02-04 Jfeスチール株式会社 Guide roll interval measuring device for continuous casting equipment
US6618493B1 (en) * 1999-11-26 2003-09-09 Ge Medical Systems Global Technology Company, Llc Method and apparatus for visualization of motion in ultrasound flow imaging using packet data acquisition
US6312385B1 (en) * 2000-05-01 2001-11-06 Ge Medical Systems Global Technology Company, Llc Method and apparatus for automatic detection and sizing of cystic objects
US6416477B1 (en) * 2000-08-22 2002-07-09 Koninklijke Philips Electronics N.V. Ultrasonic diagnostic systems with spatial compounded panoramic imaging
US6951542B2 (en) * 2002-06-26 2005-10-04 Esaote S.P.A. Method and apparatus for ultrasound imaging of a biopsy needle or the like during an ultrasound imaging examination
US6814701B1 (en) * 2003-04-16 2004-11-09 Aloka Co., Ltd. Method and apparatus for ultrasound diagnostic imaging
US7338448B2 (en) * 2003-11-07 2008-03-04 Ge Medical Systems Global Technology Company, Llc Method and apparatus for ultrasound compound imaging with combined fundamental and harmonic signals
US7101336B2 (en) * 2003-11-25 2006-09-05 General Electric Company Methods and systems for motion adaptive spatial compounding
US7632229B2 (en) * 2004-08-09 2009-12-15 General Electric Company Range dependent weighting for spatial compound imaging

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003527178A (en) * 2000-03-17 2003-09-16 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Spatially mixed 3D ultrasound images
JP2005087730A (en) * 2003-09-09 2005-04-07 Ge Medical Systems Global Technology Co Llc Simultaneous generation of spatial composite image and non-composite image
JP2005081154A (en) * 2003-09-10 2005-03-31 Ge Medical Systems Global Technology Co Llc System and method to embody speckle reduction filter
WO2005059591A1 (en) * 2003-12-16 2005-06-30 Koninklijke Philips Electronics, N.V. Ultrasonic diagnostic contrast imaging with spatial compounding

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016040016A (en) * 2010-07-02 2016-03-24 株式会社東芝 Ultrasonic diagnostic device, image processing device and control program

Also Published As

Publication number Publication date
CN1869678A (en) 2006-11-29
KR20060122738A (en) 2006-11-30
US20070010747A1 (en) 2007-01-11
CN1869678B (en) 2011-11-23
DE102006024539A1 (en) 2007-01-11

Similar Documents

Publication Publication Date Title
JP2006326310A (en) Method and system for collecting ultrasonic image data
US9874631B2 (en) Ultrasound probe and ultrasound imaging system
US9943288B2 (en) Method and system for ultrasound data processing
EP1546759B1 (en) Ultrasound-imaging system and method for a user-guided three-dimensional volume-scan sequence
JP5432426B2 (en) Ultrasound system
US6951543B2 (en) Automatic setup system and method for ultrasound imaging systems
US20050113689A1 (en) Method and apparatus for performing multi-mode imaging
EP1745745B1 (en) Apparatus for obtaining ultrasonic images and method of obtaining ultrasonic images
US6186948B1 (en) Ultrasonic diagnostic apparatus
JP4995975B2 (en) Ultrasound diagnostic contrast image by spatial synthesis
JP5960970B2 (en) Ultrasound imaging system
US20180206825A1 (en) Method and system for ultrasound data processing
US8348848B1 (en) Methods and apparatus for ultrasound imaging
JP4773074B2 (en) Simultaneous generation of spatially synthesized and non-synthesized images
US8235906B2 (en) System and method for accelerated focused ultrasound imaging
JP2005169123A (en) Volumetric ultrasonic imaging system using two-dimensional array transducer
JP4543025B2 (en) Ultrasonic diagnostic equipment
JP3101301B2 (en) Ultrasound diagnostic equipment
CN115460988A (en) Method and system for obtaining 3D vector flow field

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090525

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20090525

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20090525

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090525

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100421

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110628

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20110829

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20110901

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120403