JP2012157608A - Ultrasonic image processing apparatus - Google Patents

Ultrasonic image processing apparatus Download PDF

Info

Publication number
JP2012157608A
JP2012157608A JP2011020452A JP2011020452A JP2012157608A JP 2012157608 A JP2012157608 A JP 2012157608A JP 2011020452 A JP2011020452 A JP 2011020452A JP 2011020452 A JP2011020452 A JP 2011020452A JP 2012157608 A JP2012157608 A JP 2012157608A
Authority
JP
Japan
Prior art keywords
image
section
sections
processing
cross
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011020452A
Other languages
Japanese (ja)
Other versions
JP5651030B2 (en
Inventor
Atsuko Otake
敦子 大竹
Yasuhiro Ito
安啓 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Aloka Medical Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Aloka Medical Ltd filed Critical Hitachi Aloka Medical Ltd
Priority to JP2011020452A priority Critical patent/JP5651030B2/en
Publication of JP2012157608A publication Critical patent/JP2012157608A/en
Application granted granted Critical
Publication of JP5651030B2 publication Critical patent/JP5651030B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

PROBLEM TO BE SOLVED: To solve the problem of difficulty in grasping the three dimensional position of each section, when observing bull's eye image expressed in one or more sections defined on three sections set for the heart.SOLUTION: A schema image set 104 is displayed together with a synthetic image 100 and a bull's eye image 102. The schema image set 104 consists of three schema images 116, 118, 120 corresponding to three sections. The same processing as color display processing applied to bull's eye image 102 and overlay image 101B is applied to each schema image set 104. That is, the same color is given on each image for three sections mutually having correspondency relations. A frame marker 112 expresses a chosen section as a B-mode image. It is also possible to apply color display processing only to the schema image corresponding to the chosen section or only for the schema images.

Description

本発明は超音波画像処理装置に関し、特に、ブルズアイ(Bullseye)表示像のような展開イメージを表示する装置に関する。   The present invention relates to an ultrasonic image processing apparatus, and more particularly to an apparatus that displays a developed image such as a Bullseye display image.

医療の分野において超音波診断装置が活用されている。超音波診断装置は、生体に対する超音波の送受波によって超音波画像を表示する装置である。超音波画像としては二次元断層画像等が周知であり、それは動画像又は静止画像として表示される。超音波画像を基礎として様々な計測が実行されており、特に循環器の分野においては心臓特に左室の機能が超音波画像を基礎として評価される。例えば、時間軸上に存在する複数の断層画像(あるいはフレーム列)において隣接画像間で各観測点の二次元移動が解析され、その解析結果から心筋の動きが表示される。観測点の二次元移動の解析に当たってはパターンマッチング法が利用される。例えば、基準フレーム上において、左室の心筋の内縁と外縁に沿って複数の観測点が指定され(それらの観測点の間に観測点が自動的に追加されることもある)、それに続くフレーム間において各観測点ごとのパターンマッチングが実行され、個々の観測点につきフレーム間での二次元移動が解析される。各フレームにおいては、内縁トレースライン及び外縁トレースラインにより複数の区画(セグメント)が定義される。各区画は運動評価値を観測する個別領域に相当する。上記のフレーム間パターンマッチングの進行により、各フレームごと(時相ごと)且つ各区画ごとに運動評価値が演算される。運動評価値は、ストレイン、ストレインレート、角度、等であって、それらは心筋における局所部位の動きを表している。   Ultrasound diagnostic apparatuses are used in the medical field. An ultrasonic diagnostic apparatus is an apparatus that displays an ultrasonic image by transmitting and receiving ultrasonic waves to and from a living body. As the ultrasonic image, a two-dimensional tomographic image or the like is well known, and is displayed as a moving image or a still image. Various measurements are performed on the basis of ultrasound images, and in particular in the field of circulatory organs, the function of the heart, particularly the left ventricle, is evaluated on the basis of ultrasound images. For example, the two-dimensional movement of each observation point is analyzed between adjacent images in a plurality of tomographic images (or frame sequences) existing on the time axis, and the movement of the myocardium is displayed from the analysis result. A pattern matching method is used to analyze the two-dimensional movement of the observation point. For example, on the reference frame, a plurality of observation points are specified along the inner and outer edges of the left ventricular myocardium (observation points may be automatically added between these observation points), and the subsequent frames Pattern matching is performed for each observation point in between, and two-dimensional movement between frames is analyzed for each observation point. In each frame, a plurality of segments (segments) are defined by inner edge trace lines and outer edge trace lines. Each section corresponds to an individual area where the motion evaluation value is observed. As the inter-frame pattern matching proceeds, a motion evaluation value is calculated for each frame (for each time phase) and for each section. The motion evaluation value is a strain, a strain rate, an angle, or the like, and represents a motion of a local site in the myocardium.

特開2008−142568号公報JP 2008-142568 A

ところで、心臓特に左室について各時相ごとに求められた運動評価値は数値としてユーザーに提供される。しかし、数値観察では全体の動きや局所の動きを把握し難いので、全区画を展開図のように表現すると共に、各区画に対して着色処理(カラー処理)を施す技術が普及しつつある。このように表示される画像はブルズアイ表示像とも称されている(特許文献1参照)。超音波診断の分野においては、左室に対して3つの断面を設定し、個々の断面上に定義される複数の区画の集合体としてブルズアイ表示像が構成される。より具体的には、左室の長軸を基準として、互いに直交又は交差する三断面が設定され、あるいは、左室の短軸像として互いに平行な三断面が設定される。そして、各断面ごとに心筋の動きが観測される。ブルズアイ表示像においては、多重リングのような複数の同心円ラインと放射状の複数のラインとによって画定された個々のエリアが個々の区画に相当する。各区画について求められた運動評価値に対応する色相及び輝度によって各区画が着色される。   By the way, the motion evaluation value obtained for each time phase for the heart, particularly the left ventricle, is provided to the user as a numerical value. However, since it is difficult to grasp the overall movement and local movement in numerical observation, a technique for expressing all the sections as in a development view and applying a coloring process (color processing) to each section is becoming widespread. The image displayed in this way is also called a bullseye display image (see Patent Document 1). In the field of ultrasonic diagnosis, three cross sections are set for the left ventricle, and a bullseye display image is configured as an aggregate of a plurality of sections defined on each cross section. More specifically, three cross sections orthogonal to or intersecting each other are set with reference to the long axis of the left ventricle, or three cross sections parallel to each other are set as the short axis image of the left ventricle. The movement of the myocardium is observed for each cross section. In the bullseye display image, individual areas defined by a plurality of concentric lines such as multiple rings and a plurality of radial lines correspond to individual sections. Each section is colored by the hue and brightness corresponding to the motion evaluation value obtained for each section.

このようなブルズアイ表示像は、左室の内部から外側に左室を眺め、それを二次元に展開させたような座標系を有する。複数の断面上の複数の区画列を同時に視認、把握することができる反面、そこに表示された個々の区画がどの断面上のどの区画であるのか、とりわけ、個々の区画が左室のどの部位に相当するのか、については直感的に理解し難い。従来、ブルズアイ表示像の表示に際しては、三断面の中からユーザー選択された特定の断面を表す二次元断層画像が表示され、そこでは観測点列や区画列が表わされると同時に各区画の運動評価値がカラーによって表現されている。しかし、ブルズアイ表示像上の個々の区画と断層画像上の個々の区画との対応関係については認識し難い。あるいは、その認識には熟練を要する。   Such a bullseye display image has a coordinate system in which the left ventricle is viewed from the inside of the left ventricle to the outside and is expanded two-dimensionally. While it is possible to see and grasp multiple compartment rows on multiple sections at the same time, which section on which cross section the individual compartments displayed there are, especially where each compartment is in the left ventricle It is difficult to intuitively understand whether it corresponds to. Conventionally, when displaying a bullseye display image, a two-dimensional tomographic image representing a specific cross-section selected by the user from among three cross-sections is displayed. The value is represented by color. However, it is difficult to recognize the correspondence between individual sections on the bullseye display image and individual sections on the tomographic image. Or the recognition requires skill.

本発明の目的は、展開イメージが表示される場合に展開イメージ中の個々の区画と組織部位との対応関係を直感的に認識できるようにすることにある。あるいは、逆に特定の断面が展開イメージ上のどこに相当するかを直感的に認識できるようにすることにある。   An object of the present invention is to make it possible to intuitively recognize the correspondence between individual sections and tissue parts in a developed image when the developed image is displayed. Or, conversely, it is intended to make it possible to intuitively recognize where a specific cross section corresponds to the developed image.

本発明は、生体内の運動組織に対して設定された複数の断面に対応する複数のフレーム列を処理する超音波画像処理装置において、前記各フレーム列を構成する複数のフレームを時間軸方向に順次解析することにより前記各断面上に定義される複数の区画について区画ごとに且つ時相ごとに運動評価値を演算する演算手段と、前記複数の断面上に定義された区画群の三次元配列を表す展開イメージを生成する手段であって、前記展開イメージの全部又は一部に対して第1の区画別表示処理を施す第1のイメージ生成手段と、前記各断面上の組織形態及び複数の区画を表す模擬イメージセットを生成する手段であって、前記模擬イメージセットの全部又は一部に対して第2の区画別表示処理を施す第2のイメージ生成手段と、を含み、前記第1の区画別表示処理及び前記第2の区画別表示処理は、区画ごとに且つ時相ごとに演算される運動評価値に応じて個々の区画の表示態様を変化させる処理であり、前記第1の区画別表示処理後の展開イメージと共に前記第2の区画別表示処理後の模擬イメージセットが表示される、ことを特徴とする。   The present invention relates to an ultrasonic image processing apparatus that processes a plurality of frame sequences corresponding to a plurality of cross-sections set for a moving tissue in a living body, wherein the plurality of frames constituting each frame sequence are arranged in a time axis direction. Calculation means for calculating a motion evaluation value for each section and for each time phase with respect to a plurality of sections defined on each section by sequentially analyzing, and a three-dimensional array of sections defined on the plurality of sections Means for generating a developed image representing a first section, a first image generating means for performing a first section-specific display process on all or a part of the developed image, a tissue form on each cross section, and a plurality of sections Means for generating a simulated image set representing a section, wherein the first image generating means performs a second section-specific display process on all or a part of the simulated image set. The display processing for each section and the second display processing for each section are processes for changing the display mode of each section according to the motion evaluation value calculated for each section and for each time phase. The simulated image set after the second section display process is displayed together with the developed image after the separate display process.

上記構成によれば、第1の区画別表示処理後の展開イメージと共に第2の区画別表示処理が施された模擬イメージセットが表示される。模擬イメージセットの一部又は全部に対して区画別表示処理が施されるので、展開イメージにおける区画別表示処理結果と模擬イメージにおける区画別表示処理結果との対応関係から、展開イメージにおける個々の区画が生体組織におけるどの部分に相当するのかを直感的に認識することができ、あるいは、その認識を支援することが可能となる。このように模擬イメージセットは展開イメージと実空間(実組織)との間で橋渡しを行うものである。各模擬イメージは組織形態の概略を表したシェーマ像であるのが望ましい。但し解剖図のような詳細図であってもよい。複数の断面上に設定される区画数と展開イメージ上に現れる区画数とが一致していてもよいし、不一致であってもよい。運動評価値は、区画内の局所部位あるいは全体の運動を評価するための値であるのが望ましく、移動量、接線方向のストレイン、接線方向に交差する方向(直交方向、筋組織厚み方向)のストレイン、区画面積(面積変化率)、等であってもよい。各区画は一般に4点以上で指定される二次元区画である。   According to the above configuration, the simulated image set that has been subjected to the second divisional display process is displayed together with the developed image after the first divisional display process. Since a part-by-part display process is performed for a part or all of the simulated image set, each part in the developed image is determined from the correspondence between the part-by-part display process result in the developed image and the part-by-part display process result in the simulated image. Can be intuitively recognized as to which part of the living tissue corresponds, or the recognition can be supported. In this way, the simulated image set is a bridge between the developed image and the real space (real organization). Each simulated image is preferably a schema image representing an outline of the tissue form. However, it may be a detailed view such as an anatomical chart. The number of sections set on the plurality of cross sections may match the number of sections appearing on the developed image, or may not match. The motion evaluation value is preferably a value for evaluating the local region in the section or the entire motion. The movement amount, the tangential strain, and the direction intersecting the tangential direction (orthogonal direction, muscle tissue thickness direction) Strain, partition area (area change rate), and the like may be used. Each section is a two-dimensional section generally designated by four or more points.

第2の区画別表示処理は、模擬イメージセットを構成する複数の模擬イメージの全部に対して適用され、あるいは、一部に対して適用される。前者によれば、全区画について断面上での位置を把握しつつ運動評価値を観測でき、後者によれば、注目している断面(望ましくは表示断層画像に対応する断面)を意識しつつ当該断面上の区画について運動評価値を観念できる。   The second section-specific display process is applied to all or a part of the plurality of simulated images constituting the simulated image set. According to the former, it is possible to observe the motion evaluation value while grasping the position on the cross section for all the sections, and according to the latter, it is possible to observe the cross section of interest (preferably the cross section corresponding to the displayed tomographic image). The motion evaluation value can be considered for the section on the cross section.

望ましくは、前記複数の断面の中から選択された選択断面に対応するフレーム列中の各フレームに基づいて断層画像を形成する断層画像形成手段と、前記断層画像に合成され且つ前記選択断面上の複数の区画を表すオーバーレイ画像を生成する手段であって、前記オーバーレイ画像に対して第3の区画別表示処理を施す第3のイメージ生成手段と、を含み、前記第3の区画別表示処理は、区画ごとに且つ時相ごとに演算される運動評価値に応じて個々の区画の表示態様を変化させる処理であり、 前記第1の区画別表示処理後の展開イメージ及び前記断層画像に対して前記第3の区画別表示処理後のオーバーレイ画像を合成することによって生成される合成画像と共に、前記第2の区画別表示処理後の模擬イメージセットが表示される。この構成によれば、展開イメージにおける特定の区画が、断層画像上及び模擬イメージセット中のどの区画に対応するのかを容易に認識できる。あるいは、断層画像上における特定の区画が、展開イメージ上及び模擬イメージ中のどの区画に対応するのかを容易に認識できる。更に、模擬イメージセット中の特定の区画が、断層画像上及び展開イメージ上のどの区画に対応するのかを容易に認識できる。   Preferably, tomographic image forming means for forming a tomographic image based on each frame in a frame sequence corresponding to a selected slice selected from the plurality of slices, and synthesized on the tomographic image and on the selected slice Means for generating an overlay image representing a plurality of sections, and third image generating means for performing a third section display process on the overlay image, wherein the third section display process , A process of changing the display mode of each section according to the motion evaluation value calculated for each section and for each time phase, and for the developed image and the tomographic image after the first section display process A simulated image set after the second section display process is displayed together with a composite image generated by combining the overlay image after the third section display process. According to this configuration, it is possible to easily recognize which section in the developed image corresponds to which section on the tomographic image and in the simulated image set. Alternatively, it can be easily recognized which specific section on the tomographic image corresponds to the section on the developed image and the simulated image. Furthermore, it is possible to easily recognize which section on the tomographic image and the developed image corresponds to a specific section in the simulated image set.

望ましくは、前記第1のイメージ生成手段は、一部処理モードにおいて、前記展開イメージに表示される区画群の中で前記複数の断面の中から選択された選択断面に対応する複数の区画に対して前記第1の区画別表示処理を施し、前記第2のイメージ生成手段は、前記一部処理モードにおいて、前記模擬イメージセットの中で前記選択断面に対応する模擬イメージに対して前記第2の区画別表示処理を施す。望ましくは、前記第1のイメージ生成手段は、全部処理モードにおいて、前記展開イメージに表示される区画群の全部に対して前記第1の区画別表示処理を施し、前記第2のイメージ生成手段は、前記全部処理モードにおいて、前記模擬イメージセットの全部に対して前記第2の区画別表示処理を施す。   Preferably, in the partial processing mode, the first image generation means applies to a plurality of sections corresponding to a selected section selected from the plurality of sections in the group of sections displayed in the development image. The second image generation means performs the second section display processing on the simulated image corresponding to the selected section in the simulated image set in the partial processing mode. A section-specific display process is performed. Preferably, the first image generation means performs the first section-specific display processing on all of the section groups displayed in the developed image in the all processing mode, and the second image generation means In the all processing mode, the second section-specific display processing is performed on all the simulated image sets.

望ましくは、前記演算手段は、前記各フレーム列におけるフレーム間において複数の観測点の二次元移動を演算する手段と、前記複数の観測点の二次元移動に基づいて区画単位で運動評価値を演算する手段と、前記複数の観測点の二次元移動及び前記区画単位の運動評価値の少なくとも一方に基づいて、前記複数の観測点の中でエラー点を判定する手段と、を含み、前記第2のイメージ生成手段は、前記模擬イメージセットに対して前記エラー点に対応する区画が識別されるように識別処理を施す。この構成によれば、運動異常あるいはトラッキング異常が生じた場合にそれを模擬イメージセット上において特定できるから、運動評価値の診断を的確に行える。   Preferably, the calculation means calculates a two-dimensional movement of a plurality of observation points between frames in each frame sequence, and calculates a motion evaluation value for each block based on the two-dimensional movement of the plurality of observation points. Means for determining an error point among the plurality of observation points based on at least one of the two-dimensional movement of the plurality of observation points and the motion evaluation value of the partition unit, and the second The image generation means performs identification processing so that a section corresponding to the error point is identified for the simulated image set. According to this configuration, when a motion abnormality or tracking abnormality occurs, it can be specified on the simulated image set, so that the motion evaluation value can be diagnosed accurately.

望ましくは、前記第1乃至第3の区画別表示処理は、前記運動評価値に応じて互いに同じ色相及び輝度を与える処理である。この構成によれば、3つの画像間において対応関係を把握することが容易となる。同じ色相及び輝度は、ユーザーから見て同じように見えるものであれば足り、厳密な一致を求めるものではない。断層画像上にオーバーレイ表示されるイメージについては背景画像の輝度等を考慮して色相や輝度に固有の変化をもたせてもよい。   Desirably, the first to third segment-specific display processes are processes that give the same hue and luminance to each other according to the motion evaluation value. According to this configuration, it is easy to grasp the correspondence between the three images. The same hue and brightness need only look the same from the user's perspective, and do not require exact matching. The image displayed as an overlay on the tomographic image may be given a specific change in hue and luminance in consideration of the luminance of the background image.

本発明に係るプログラムは、生体内の運動組織に対して設定された複数の断面に対応する複数のフレーム列を処理する超音波画像処理装置において実行される超音波画像処理プログラムであって、前記各フレーム列を時間軸方向に順次解析することにより前記各断面上に定義される複数の区画について区画ごとに且つ時相ごとに運動評価値を演算する機能と、前記複数の断面上に定義された区画群の三次元配列を表す展開イメージを生成する機能であって、前記展開イメージの全部又は一部に対して第1の区画別表示処理を施す機能と、前記各断面上の組織形態及び区画列を表す模擬イメージセットを生成する機能であって、前記模擬イメージセットの全部又は一部に対して第2の区画別表示処理を施す機能と、を含み、前記第1の区画別表示処理及び前記第2の区画別表示処理は、区画ごとに且つ時相ごとに演算される運動評価値に応じて個々の区画の表示態様を変化させる処理であり、前記第1の区画別表示処理後の展開イメージと共に前記第2の区画別表示処理後の模擬イメージセットが表示される、ことを特徴とする。超音波画像処理装置は、超音波診断装置内に組み込まれる装置、それからのデータを処理する情報処理装置、等である。   A program according to the present invention is an ultrasound image processing program executed in an ultrasound image processing apparatus that processes a plurality of frame sequences corresponding to a plurality of cross sections set for a moving tissue in a living body, A function for calculating a motion evaluation value for each section and for each time phase for a plurality of sections defined on each section by sequentially analyzing each frame sequence in the time axis direction, and defined on the plurality of sections. A function of generating a developed image representing a three-dimensional array of divided sections, a function of performing a first classified display process on all or a part of the developed image, A function of generating a simulated image set representing a partition row, and a function of performing a second partition-specific display process on all or a part of the simulated image set, the first partition-specific table The process and the second section-specific display process are processes for changing the display mode of each section according to the motion evaluation value calculated for each section and for each time phase, and the first section-specific display process. A simulated image set after the second section display process is displayed together with a later developed image. The ultrasonic image processing apparatus is an apparatus incorporated in an ultrasonic diagnostic apparatus, an information processing apparatus that processes data from the apparatus, and the like.

上記構成によれば、展開イメージについての全区画につき同時把握できる利点を得つつも、その欠点である空間的把握の困難性を複数の模擬イメージを媒介させることにより補うことができるから、診断上有益な支援を行える。   According to the above configuration, while obtaining the advantage of being able to grasp all sections of the developed image at the same time, it is possible to compensate for the difficulty of spatial grasp, which is a drawback thereof, by mediating multiple simulated images. Can provide useful support.

本発明によれば、展開イメージが表示される場合に展開イメージ中の個々の区画と組織部位との対応関係を直感的に認識できる。あるいは、特定の断面が展開イメージ上のどこに相当するかを直感的に認識できる。   According to the present invention, when a developed image is displayed, it is possible to intuitively recognize a correspondence relationship between each section in the developed image and a tissue part. Alternatively, it is possible to intuitively recognize where a specific cross section corresponds to the developed image.

本発明に係る超音波診断システムの好適な実施形態を示すブロック図である。1 is a block diagram showing a preferred embodiment of an ultrasonic diagnostic system according to the present invention. 3つの断面についての第1配列を示す説明図である。It is explanatory drawing which shows the 1st arrangement | sequence about three cross sections. 3つの断面についての第2配列を示す説明図である。It is explanatory drawing which shows the 2nd arrangement | sequence about three cross sections. 区画群とブルズアイ像とを示す図である。It is a figure which shows a division group and a bullseye image. 表示画像の一例を示す図である。It is a figure which shows an example of a display image. フレーム間パターンマッチング処理を説明するための図である。It is a figure for demonstrating the pattern matching process between frames. カラー表示処理の一例を示す図である。It is a figure which shows an example of a color display process. 図1に示したシステムにおける表示画像生成処理を説明するためのフローチャートである。3 is a flowchart for explaining display image generation processing in the system shown in FIG. 1. 表示画像の形成途中における表示内容を示す図である。It is a figure which shows the display content in the middle of formation of a display image. 表示画像の他の例を示す図である。It is a figure which shows the other example of a display image.

以下、本発明の好適な実施形態を図面に基づいて説明する。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of the invention will be described with reference to the drawings.

図1には、本発明に係る超音波診断システムの好適な実施形態が示されており、図1はその全体構成を示すブロック図である。図1に示される超音波診断システムは医療の分野において用いられるものである。超音波診断システムは、図1に示す例において、上段に示す超音波診断装置と、下段に示すPC(パーソナルコンピュータ)40とにより構成されている。   FIG. 1 shows a preferred embodiment of an ultrasonic diagnostic system according to the present invention, and FIG. 1 is a block diagram showing the overall configuration thereof. The ultrasonic diagnostic system shown in FIG. 1 is used in the medical field. In the example shown in FIG. 1, the ultrasonic diagnostic system includes an ultrasonic diagnostic apparatus shown in the upper stage and a PC (personal computer) 40 shown in the lower stage.

まず、超音波診断装置について説明する。プローブ10は、生体表面上に当接して用いられ、超音波を送受波する送受波器である。本実施形態において、プローブ10は、複数の振動素子からなるアレイ振動子を備えている。そのアレイ振動子は1Dアレイ振動子であり、そのアレイ振動子により超音波ビーム11が形成される。超音波ビーム11に対する電子走査により、走査面が構成される。図において、rが深さ方向すなわちビーム方向を示しており、θが電子走査方向を示している。電子走査方式としては、電子セクタ走査、電子リニア走査等が周知である。1Dアレイ振動子に代えて、2Dアレイ振動子を用いることも可能である。   First, an ultrasonic diagnostic apparatus will be described. The probe 10 is a transducer that is used in contact with the surface of a living body and transmits and receives ultrasonic waves. In the present embodiment, the probe 10 includes an array transducer including a plurality of vibration elements. The array transducer is a 1D array transducer, and an ultrasonic beam 11 is formed by the array transducer. A scanning surface is formed by electronic scanning of the ultrasonic beam 11. In the figure, r indicates the depth direction, that is, the beam direction, and θ indicates the electronic scanning direction. As the electronic scanning method, electronic sector scanning, electronic linear scanning, and the like are well known. It is also possible to use a 2D array transducer instead of the 1D array transducer.

本実施形態においては、心臓、特に左室の機能を超音波診断するために、左室を横断する3つの断面が定められ、各断面に対して繰り返し走査面が形成される。断面の設定にあたっては、画像表示される超音波画像を見ながらプローブ10の当接位置や当接姿勢をユーザーにより調整することにより、適切な位置に断面が定められる。本実施形態においては、左室に対して3つの断面が設定され、その場合において、互いに交差関係をもって3つの断面を設定する第1配列と、互いに平行な関係をもって3つの断面を設定する第2配列とが選択される。もっとも、他の配列が用いられるようにしてもよい。各配列については後に図2、図3を用いて説明する。   In this embodiment, in order to ultrasonically diagnose the function of the heart, particularly the left ventricle, three cross sections that cross the left ventricle are defined, and a scanning surface is repeatedly formed for each cross section. In setting the cross section, the cross section is determined at an appropriate position by adjusting the contact position and the contact posture of the probe 10 while viewing the ultrasonic image displayed on the image. In the present embodiment, three cross sections are set for the left ventricle. In this case, a first array that sets three cross sections with crossing relations with each other and a second array that sets three cross sections with parallel relations with each other. An array is selected. However, other arrangements may be used. Each array will be described later with reference to FIGS.

ちなみに、2Dアレイ振動子を用いれば、プローブの位置等を変更することなく3つの断面についてそれぞれフレーム列(フレームデータ列)を同時に取得することが可能である。いずれにしても、個々の断面毎にフレーム列が取得される。フレーム列は時系列順で並ぶ複数のフレームにより構成され、各フレームは複数のビームデータあるいはラインデータにより構成される。各ビームデータあるいは各ラインデータは複数のエコーデータあるいはピクセルデータにより構成される。   Incidentally, if a 2D array transducer is used, it is possible to simultaneously acquire frame sequences (frame data sequences) for each of the three cross sections without changing the probe position and the like. In any case, a frame row is acquired for each cross section. The frame sequence is composed of a plurality of frames arranged in chronological order, and each frame is composed of a plurality of beam data or line data. Each beam data or each line data is composed of a plurality of echo data or pixel data.

送受信部12は送信ビームフォーマおよび受信ビームフォーマとして機能するものである。送信時において、送受信部12からアレイ振動子に対して複数の送信信号が並列的に供給される。これによって送信ビームが形成される。生体内からの反射波が1Dアレイ振動子にて受波されると、1Dアレイ振動子から複数の受信信号が送受信部12に対して並列的に出力される。送受信部12においては、複数の受信信号に対して整相加算処理を実行し、これによって整相加算後の受信信号すなわちビームデータを生成する。そのビームデータは、図示されていない信号処理部を経由してDSC(デジタルスキャンコンバータ)14へ出力される。   The transmission / reception unit 12 functions as a transmission beamformer and a reception beamformer. At the time of transmission, a plurality of transmission signals are supplied in parallel from the transmission / reception unit 12 to the array transducer. As a result, a transmission beam is formed. When the reflected wave from the living body is received by the 1D array transducer, a plurality of reception signals are output in parallel to the transmission / reception unit 12 from the 1D array transducer. The transmission / reception unit 12 performs phasing addition processing on a plurality of reception signals, thereby generating reception signals after phasing addition, that is, beam data. The beam data is output to a DSC (digital scan converter) 14 via a signal processing unit (not shown).

DSC14は、複数のビームデータに基づいて断層画像データを生成する機能を有し、具体的には、座標変換機能、補間処理機能等を備えている。このDSC14によって、二次元断層画像のデータが生成され、それを構成する複数のラインデータすなわちフレームが表示処理部16へ出力される。   The DSC 14 has a function of generating tomographic image data based on a plurality of beam data, and specifically includes a coordinate conversion function, an interpolation processing function, and the like. The DSC 14 generates two-dimensional tomographic image data, and outputs a plurality of line data constituting the data, that is, frames, to the display processing unit 16.

本実施形態においては、DSC14から出力されたデータがシネメモリ20にも送られており、シネメモリ20上には一定期間にわたるフレーム列が格納される。シネメモリ20は複数のリングバッファとして機能するものであり、本実施形態においては、3つの断面に対応する3つのフレーム列がシネメモリ20に格納される。また、シネメモリ20には、それぞれのフレーム列を取得する際に同時に取得された心電波形も格納される。その心電波形は心電計19から出力されるものである。   In the present embodiment, data output from the DSC 14 is also sent to the cine memory 20, and a frame sequence over a certain period is stored on the cine memory 20. The cine memory 20 functions as a plurality of ring buffers. In the present embodiment, three frame sequences corresponding to three cross sections are stored in the cine memory 20. The cine memory 20 also stores an electrocardiogram waveform acquired at the same time when each frame sequence is acquired. The electrocardiogram waveform is output from the electrocardiograph 19.

符号22は、シネメモリ20の記憶内容を概念的に示したものを表している。シネメモリ20には、3つの断面に対応したデータセットA,B,Cが格納され、ここでデータセットAは、第1断面に対応するフレーム列24と、そのフレーム列24に対応する心電波形26とにより構成される。同様に、第2断面に対応するデータセットBはフレーム列28と心電波形30とにより構成され、第3断面に対応するデータセットCはフレーム列32と心電波形34とにより構成される。それぞれのフレーム列に対して心電波形が対応づけられているのは、それぞれのフレーム列間において時相を合わせるためである。したがって、三次元ボリュームデータが取得され、それぞれのフレーム列の間において時相の対応関係が既知であるならば、心電波形は必ずしも格納する必要はない。   Reference numeral 22 represents a conceptual representation of the storage contents of the cine memory 20. The cine memory 20 stores data sets A, B, and C corresponding to three cross sections, where the data set A includes a frame sequence 24 corresponding to the first cross section and an electrocardiogram waveform corresponding to the frame sequence 24. 26. Similarly, the data set B corresponding to the second cross section is composed of the frame sequence 28 and the electrocardiographic waveform 30, and the data set C corresponding to the third cross section is composed of the frame sequence 32 and the electrocardiographic waveform 34. The reason why the electrocardiographic waveform is associated with each frame sequence is to match the time phase between the frame sequences. Therefore, if the three-dimensional volume data is acquired and the correspondence relationship of the time phases is known between the respective frame sequences, the electrocardiographic waveform does not necessarily need to be stored.

DSC14から出力されるフレームは直接的に表示処理部16へ出力されてもよいし、シネメモリ20を経由して表示処理部16へ出力されてもよい。表示処理部16は、画像合成機能等を有し、表示処理部16から出力された画像データが表示部18へ送られる。表示部18には超音波画像が表示される。超音波画像は、例えば二次元断層画像であり、その他の超音波画像としては、二次元ドプラ画像、三次元画像、ドプラ波形画像等をあげることが可能である。   The frame output from the DSC 14 may be directly output to the display processing unit 16 or may be output to the display processing unit 16 via the cine memory 20. The display processing unit 16 has an image composition function and the like, and the image data output from the display processing unit 16 is sent to the display unit 18. An ultrasonic image is displayed on the display unit 18. The ultrasonic image is, for example, a two-dimensional tomographic image. Examples of other ultrasonic images include a two-dimensional Doppler image, a three-dimensional image, and a Doppler waveform image.

PC40は、超音波診断装置、特にシネメモリ20から取得されるデータに基づいて画像処理を実行する情報処理装置である。PC40が、超音波診断装置に対してオンラインで接続されてもよいし、オフラインで接続されてもよい。例えば記憶媒体を経由して超音波診断装置からPC40へデータが渡されてもよい。もちろん、画像処理における一部の機能が超音波診断と同時にリアルタイムで遂行されてもよい。なお、本実施形態においてはDSC14の後のフレームがPC40に出力されているが、DSC14に入力される前のフレームすなわち座標変換前のフレームがPC40へ渡されるようにしてもよい。その場合においてはPC40においてDSC14と同様の処理を実行するようにすればよい。   The PC 40 is an information processing apparatus that performs image processing based on data acquired from an ultrasonic diagnostic apparatus, particularly, the cine memory 20. The PC 40 may be connected online to the ultrasonic diagnostic apparatus or may be connected offline. For example, data may be passed from the ultrasonic diagnostic apparatus to the PC 40 via a storage medium. Of course, some functions in the image processing may be performed in real time simultaneously with the ultrasonic diagnosis. In this embodiment, the frame after the DSC 14 is output to the PC 40, but the frame before being input to the DSC 14, that is, the frame before coordinate conversion may be passed to the PC 40. In that case, the PC 40 may perform the same process as the DSC 14.

PC40において、トラッキング処理部42は、ユーザーにより選択されたフレーム列に対して時系列順でトラッキング処理を行うモジュールである。具体的には、フレーム間において各観測点毎にパターンマッチング処理を実行している。これにより各観測点の時間軸方向における二次元移動ベクトルが各フレーム毎に演算されることになる。ちなみに、複数の演算により選択された基準フレーム(初期フレーム)上において複数の観測点がマニュアルで指定されており、それ以降の各フレームにおいてはトラッキング処理により各点の動きが自動的に演算されることになる。このような一連の処理は、各フレーム列毎に実行されることになる。   In the PC 40, the tracking processing unit 42 is a module that performs tracking processing in time series on the frame sequence selected by the user. Specifically, pattern matching processing is executed for each observation point between frames. As a result, a two-dimensional movement vector in the time axis direction of each observation point is calculated for each frame. Incidentally, a plurality of observation points are manually specified on a reference frame (initial frame) selected by a plurality of calculations, and the movement of each point is automatically calculated by the tracking process in each subsequent frame. It will be. Such a series of processing is executed for each frame sequence.

計測部44は、フレーム間において演算される観測点毎の二次元移動ベクトルに基づいて、あるいは、各フレーム上における観測点の位置に基づいて、計測値を演算するモジュールである。例えば、各区画のうちの代表観測点について計測値が求められる。そのような計測値としては、長さ、ストレイン、面積、等の各種の計測値をあげることができる。それらのいずれに対しても後述する処理を適用することが可能である。ちなみに計測値の種別についてはユーザーにより選択することが可能である。計測部44は、各フレーム列毎に区画を定義する機能を備えており、すなわち各断面上には複数の区画からなる連結体が定義される。もっとも、各区画の形態は各観測点の運動によって変化することになる。計測部44は、いずれにしても各時相、すなわち各フレーム毎に区画を単位として計測値を演算している。   The measurement unit 44 is a module that calculates a measurement value based on a two-dimensional movement vector for each observation point calculated between frames or based on the position of the observation point on each frame. For example, measurement values are obtained for representative observation points in each section. Examples of such measurement values include various measurement values such as length, strain, and area. The processing described later can be applied to any of them. Incidentally, the type of measurement value can be selected by the user. The measuring unit 44 has a function of defining a section for each frame row, that is, a connected body including a plurality of sections is defined on each cross section. However, the form of each section changes depending on the movement of each observation point. In any case, the measurement unit 44 calculates a measurement value for each time phase, that is, for each frame, in units of sections.

本実施形態において、計測部44は、異常判定部45を備えている。すなわち、計測値の演算において、あるいはトラッキング処理の結果として異常が判定された場合、その異常が判定された区画を識別する機能を備えている。この異常判定部45がトラッキング処理部42内に設けられてもよい。例えばパターンマッチングにおいて相関値が異常値である場合、具体的には類似度が所定値以下である場合に異常を判定するようにしてもよい。このような異常判定によればトラッキング処理や計測値演算において異常が認識された区画をユーザーに提示して、誤った診断を回避することが可能となる。   In the present embodiment, the measurement unit 44 includes an abnormality determination unit 45. In other words, when an abnormality is determined in the calculation of the measured value or as a result of the tracking process, a function for identifying the section where the abnormality is determined is provided. This abnormality determination unit 45 may be provided in the tracking processing unit 42. For example, when the correlation value is an abnormal value in pattern matching, specifically, when the similarity is a predetermined value or less, the abnormality may be determined. According to such abnormality determination, it is possible to present to the user a section in which an abnormality has been recognized in tracking processing or measurement value calculation, and to avoid erroneous diagnosis.

計測部44において演算された計測値はオーバーレイ像生成部46、ブルズアイ像生成部48およびシェーマ像処理部50に送られている。それぞれの生成部46,48および処理部50には必要に応じて他の情報も与えられている。オーバーレイ像生成部46は、二次元断層画像としてのBモード画像上に重ねて表示されるグラフィック画像としてのオーバーレイ像を生成するモジュールである。本実施形態において、オーバーレイ像は、各フレーム毎に特定された複数の観測点により定義される複数の区画を含んでいる。その場合において、必要に応じてカラー表示処理が施され、すなわちカラーペイント処理が施されたオーバーレイ像が生成される。各区画の着色にあたって、色相および輝度(すなわちカラー)が計測値に対応づけられる。   The measurement values calculated by the measurement unit 44 are sent to the overlay image generation unit 46, the bullseye image generation unit 48, and the schema image processing unit 50. Other information is also given to the generating units 46 and 48 and the processing unit 50 as necessary. The overlay image generation unit 46 is a module that generates an overlay image as a graphic image displayed to be superimposed on a B-mode image as a two-dimensional tomographic image. In the present embodiment, the overlay image includes a plurality of sections defined by a plurality of observation points specified for each frame. In that case, color display processing is performed as necessary, that is, an overlay image subjected to color painting processing is generated. In coloring each section, the hue and brightness (that is, color) are associated with the measured values.

ブルズアイ像生成部48は、区画群を含むブルズアイ像を生成するモジュールである。本実施形態においては、カラー表示処理が施されたブルズアイ像が生成される。ブルズアイ像の具体例については後に図4を用いて説明するが、ブルズアイ像は、3つの断面上に設定された複数の区画の全部またはその主な区画を表すものであり、三次元的に存在する複数の区画の展開図に相当するものである。シェーマ像処理部50は、本実施形態における特徴的なモジュールの1つをなすものであり、3つの断面に対応した3つのシェーマ像からなるシェーマ像セットを生成するモジュールである。個々のシェーマ像はそれに対応する断面上の組織形態を模式的に表したものであり、本実施形態においては、さらに組織の形態に対して複数の区画が表現されており、しかも各区画に対してはカラー表示処理を施すことが可能である。オーバーレイ像、ブルズアイ像およびシェーマ像のそれぞれのカラー表示処理にあたっては、基本的に同様のカラー変換が実施されており、すなわち、ある区画に対して与えられた計測値に対応するカラーがそれぞれのイメージにおける対応の区画に与えられている。もっとも、オーバーレイ像はBモード断層画像上に合成されるものであり、すなわち背景の輝度の影響を受けやすいため、その像については輝度を若干変更する等の修正を施すことも可能である。   The bullseye image generation unit 48 is a module that generates a bullseye image including a group of sections. In the present embodiment, a bullseye image subjected to color display processing is generated. A specific example of the bullseye image will be described later with reference to FIG. 4. The bullseye image represents all of the plurality of sections set on the three cross sections or the main sections thereof, and exists in a three-dimensional manner. This corresponds to a development view of a plurality of sections. The schema image processing unit 50 constitutes one of the characteristic modules in the present embodiment, and is a module that generates a schema image set including three schema images corresponding to three cross sections. Each schema image schematically represents a tissue form on a cross section corresponding to the image. In the present embodiment, a plurality of sections are further expressed for the form of the tissue, For example, color display processing can be performed. In the color display processing of the overlay image, the bullseye image, and the schema image, basically the same color conversion is performed, that is, the color corresponding to the measured value given to a certain section is the respective image. Is given to the corresponding section in. However, since the overlay image is synthesized on the B-mode tomographic image, that is, it is easily affected by the luminance of the background, the image can be modified such that the luminance is slightly changed.

イメージメモリ52内には、本実施形態において交差配列に対応する3つの断面を表す3つのシェーマ像と、平行配列に対応する3つの断面を表す3つのシェーマ像とがグラフィックイメージとして格納されている。符号54はイメージメモリ52の中身を模式的に表したものである。符号56は第一配列に対応した3つのシェーマ像を表しており、符号58は第2配列に対応した3つのシェーマ像を表している。いずれのシェーマ像セットを利用するのかについては、ユーザーにより直接的にまたは間接的に選択される。   In the image memory 52, three schema images representing three cross-sections corresponding to the crossed array and three schema images representing three cross-sections corresponding to the parallel array are stored as graphic images in the present embodiment. . Reference numeral 54 schematically represents the contents of the image memory 52. Reference numeral 56 represents three schema images corresponding to the first array, and reference numeral 58 represents three schema images corresponding to the second array. Which schema image set is used is selected directly or indirectly by the user.

なお、後に説明するように、3つの断面を構成する各断面上にはそれぞれ所定個の区画が定義される。本実施形態において、それらの総和としての区画数は、ブルズアイ像を構成する区画の数に必ずしも一致していない。それは三次元空間内において重複関係にある複数の区画がいくつか生じているためである。   As will be described later, a predetermined number of sections are defined on each of the cross sections constituting the three cross sections. In the present embodiment, the total number of sections does not necessarily match the number of sections constituting the bullseye image. This is because there are a plurality of overlapping sections in the three-dimensional space.

表示処理部60は、表示部62に表示される表示画像の内容を構成するモジュールである。表示画像は、後に説明するように、Bモード画像とオーバレイ像とを合成してなる合成画像と、ブルズアイ像と、シェーマ像セットとを含むものであり、さらに必要に応じて数値表示等が含まれる。イメージメモリ64には、生成されたオーバーレイ像、ブルズアイ像、シェーマ像等が格納される。表示部62には、静止画像としての表示画像が表示され、あるいは動画像としての表示画像が表示される。ちなみに、上述したように複数のフレーム列の相互の時相関係を特定するにあたってはそれぞれの心電信号が用いられる。すなわち、それぞれのフレーム列は互いに異なる時間において取得されたものであるが、左室は周期的に運動する臓器であるため、それぞれのフレーム列において心拍時相が一致すれば実質的に同様の組織形態を有するとみなせる。   The display processing unit 60 is a module that configures the content of the display image displayed on the display unit 62. As will be described later, the display image includes a composite image obtained by combining a B-mode image and an overlay image, a bullseye image, and a schema image set, and further includes a numerical display if necessary. It is. The image memory 64 stores the generated overlay image, bullseye image, schema image, and the like. The display unit 62 displays a display image as a still image or a display image as a moving image. Incidentally, as described above, each electrocardiographic signal is used to specify the mutual time phase relationship of a plurality of frame sequences. That is, although each frame sequence was acquired at different times, the left ventricle is an organ that moves periodically, so if the heartbeat time phases match in each frame sequence, substantially the same tissue It can be regarded as having a form.

次に、図2および図3を用いて3つの断面の配列について説明する。図2および図3には対象組織の一例として左室66が模式的に示されている。本実施形態において、第1配列が選択される場合、図2に示されるように、互いに交差関係をもった3つの断面68,70および72が左室に対して設定される。図2においては直交関係をもって3つの断面が設定されている。このような3つの断面はプローブの当接位置および当接姿勢を変えることにより順次設定可能である。図3には、第2配列が示されている。この第2配列においては、左室66に対して互いに平行関係をもって3つの断面74,76,78が設定されている。それぞれの断面上には、左室における心筋の外縁と内縁とに対してそれぞれ観測点列が設定され、2つの観測点列の間を複数のラインでつなげることにより、複数の区画からなる連結体が定義される。3つの断面に対応して3つの連結体が定義されることになるが、それらの全体を同時に表すためにブルズアイ像が用いられる。   Next, the arrangement of the three cross sections will be described with reference to FIGS. 2 and 3 schematically show the left chamber 66 as an example of the target tissue. In the present embodiment, when the first arrangement is selected, as shown in FIG. 2, three cross sections 68, 70, and 72 having a cross relationship with each other are set for the left ventricle. In FIG. 2, three cross sections are set with an orthogonal relationship. Such three cross sections can be sequentially set by changing the contact position and the contact posture of the probe. FIG. 3 shows the second arrangement. In this second arrangement, three cross sections 74, 76, 78 are set in parallel with each other with respect to the left chamber 66. On each cross-section, observation point sequences are set for the outer and inner edges of the myocardium in the left ventricle, and the two observation point sequences are connected by a plurality of lines, thereby connecting a plurality of sections. Is defined. Three connected bodies will be defined corresponding to the three cross-sections, and a bullseye image is used to represent all of them simultaneously.

図4には区画群およびそれを展開したブルズアイ像が例示されている。(A)には三次元的な配列を有する区画群が模式的に表されている。ただし、ここでは左室の下側がやや開いた状態となっている。上方から下方にかけて3つのステージを観念でき、ここにおいて上段は4つの区画H1〜H4で構成され、中段は6つの区画M1〜M6で構成され、下段は6つの区画L1〜L6で構成されている。このような三次元的関係を有する区画群を二次元平面上に展開したものが(B)に示すブルズアイ像82である。上述した3つの段数に対応して、同心円状に3つの領域が存在し、ここで中央領域は4つの区画H1〜H4を有し、中央の領域は6つの区画M1〜M6を有し、外側の領域は6つの区画L1〜L6を有している。三次元的な形状を二次元展開したために各区画の形状サイズは修正あるいは変更されているが、大ざっぱに捉えて区画群全体の配列は維持されている。実際には左室の内部から各区画を眺めたような配列として同心円状のパターンをもってブルズアイ像82が構成されている。ちなみに、(A)に示す区画84Aは(B)に示す区画84Bに対応しており、同じく(A)に示す区画86Aは(B)に示す区画86Bに対応している。   FIG. 4 illustrates a group of compartments and a bullseye image developed therefrom. (A) schematically shows a group of sections having a three-dimensional arrangement. However, the lower side of the left ventricle is slightly open here. Three stages can be considered from the top to the bottom, where the upper stage is composed of four sections H1 to H4, the middle section is composed of six sections M1 to M6, and the lower stage is composed of six sections L1 to L6. . A bullseye image 82 shown in FIG. 5B is obtained by developing a group of partitions having such a three-dimensional relationship on a two-dimensional plane. Corresponding to the three stages described above, there are three regions concentrically, where the central region has four sections H1 to H4, the central region has six sections M1 to M6, and the outside This region has six sections L1 to L6. Since the three-dimensional shape has been developed two-dimensionally, the shape size of each section is modified or changed, but it is roughly understood that the arrangement of the entire section group is maintained. Actually, the bullseye image 82 is formed with a concentric pattern as an array as if each section was viewed from the inside of the left ventricle. Incidentally, the section 84A shown in (A) corresponds to the section 84B shown in (B), and similarly, the section 86A shown in (A) corresponds to the section 86B shown in (B).

なお、本実施形態においては、3つの断面が設定されていたが、2つの断面あるいは4つ以上の断面が設定されてもよい。すなわち図示のようなブルズアイ像の表示を行う場合に限らず、広く展開イメージを表示する場合に本発明を適用することが可能である。   In the present embodiment, three cross sections are set, but two cross sections or four or more cross sections may be set. In other words, the present invention can be applied not only when displaying a bullseye image as shown, but also when displaying a wide spread image.

図5には、図1に示した表示部62に表示される表示画像の一例が示されている。この表示画像は、合成画像100、ブルズアイ像102、シェーマ像セット104、心電波形106および数値表示欄108を備えている。以下それぞれについて説明する。   FIG. 5 shows an example of a display image displayed on the display unit 62 shown in FIG. This display image includes a composite image 100, a bullseye image 102, a schema image set 104, an electrocardiogram waveform 106, and a numerical value display column 108. Each will be described below.

合成画像100は、図示される例において、Bモード画像(二次元断層画像)101Aと、それに重ねて表示されるオーバーレイ像101Bとからなるものである。Bモード画像101Aは白黒の濃淡画像であり、この例においては心臓の断面が表されている。特に左室の断面が表されている。オーバーレイ像101Bは、上述したようにBモード画像に合成表示されるグラフィック画像であり、それは左室における心筋の外縁上に設定された複数の観測点列と、心筋の内縁上に設定された複数の観測点列とを備えている。それらの観測点列の全部または一部がユーザーにより設定される。ユーザーに設定された複数の観測点に基づいて必要に応じて補間処理等により自動的に観測点が付加される。図においては外縁上に設定される複数の観測点に対してスプライン処理を適用することによりトレースラインが生成されており、同じく、内縁上に設定された複数の観測点に対してスプライン処理を適用することによりトレースラインが生成されている。2つのトレースライン間にはその両端間に複数のラインが設定され、これによって複数の区画、図においては6つの区画が定義されている。   In the example shown in the figure, the composite image 100 is made up of a B-mode image (two-dimensional tomographic image) 101A and an overlay image 101B displayed so as to overlap therewith. The B-mode image 101A is a black and white grayscale image, and in this example, a cross section of the heart is represented. In particular, the cross section of the left ventricle is shown. The overlay image 101B is a graphic image synthesized and displayed on the B-mode image as described above, and includes a plurality of observation point sequences set on the outer edge of the myocardium in the left ventricle and a plurality of sets set on the inner edge of the myocardium. And a series of observation points. All or part of the observation point sequence is set by the user. Based on a plurality of observation points set by the user, observation points are automatically added by interpolation processing or the like as necessary. In the figure, trace lines are generated by applying spline processing to multiple observation points set on the outer edge, and similarly, spline processing is applied to multiple observation points set on the inner edge. By doing so, a trace line is generated. Between the two trace lines, a plurality of lines are set between both ends thereof, thereby defining a plurality of sections, that is, six sections in the figure.

各区画は、少なくとも4つの観測点によって定義されるものであり、図示の例においては6つの点で各区画の形状が定義されている。もちろん、さらに多くの観測点によってその形状が定められてもよい。各観測点毎にフレーム間において上述したパターンマッチング処理が適用されフレーム間における二次元移動ベクトルが演算される。   Each section is defined by at least four observation points. In the illustrated example, the shape of each section is defined by six points. Of course, the shape may be determined by more observation points. The pattern matching process described above is applied between frames for each observation point, and a two-dimensional movement vector between frames is calculated.

オーバーレイ像101Bにおいて、複数の区画により連結体が構成され、それは具体的には6つの区画を連ねたものである。本実施形態においては、上述したように各区画毎に各時相で計測値が演算され、その計測値がカラーにより表現される。具体的には、個々の区画毎に設けられた計測値に対応するカラーが当該区画に与えられ、すなわち区画に対する着色処理が施される(図7参照)。ただし、その着色処理は背景としてのBモード画像の観察を必要以上に妨げないような透明感をもった表示処理である。   In the overlay image 101B, a connected body is constituted by a plurality of sections, and specifically, it is a series of six sections. In the present embodiment, as described above, the measurement value is calculated for each section at each time phase, and the measurement value is expressed in color. Specifically, a color corresponding to the measurement value provided for each section is given to the section, that is, the section is colored (see FIG. 7). However, the coloring process is a display process with a transparency that does not unnecessarily obstruct the observation of the B-mode image as the background.

ブルズアイ像102は、図示の例において、カラー表示処理が施された後のブルズアイ像である。上述したように、ブルズアイ像は複数の区画の集合体として構成され、各区画毎に求められた計測値が各区画の着色内容として表現されている。例えば符号114は1つの区画を表しており、その区画については当該区画について求められた計測値に対応する色素および輝度が与えられる。ちなみに各区画に対しては計測値が数値として表示されており(符号114参照)、数値として具体的に計測値を理解することも可能である。ただし、全体の計測値の傾向や変化を直感的に理解するためには上述したようなカラー処理を施すのが望ましい。   The bullseye image 102 is a bullseye image after color display processing is performed in the illustrated example. As described above, the bullseye image is configured as an aggregate of a plurality of sections, and the measurement value obtained for each section is expressed as the coloring content of each section. For example, the code | symbol 114 represents one division, The pigment | dye and brightness | luminance corresponding to the measured value calculated | required about the said division are given about the division. Incidentally, the measured value is displayed as a numerical value for each section (see reference numeral 114), and the measured value can be specifically understood as a numerical value. However, in order to intuitively understand the tendency and change of the entire measurement value, it is desirable to perform the color processing as described above.

シェーマ像セット104は、本実施形態において、3つのシェーマ像により構成される。具体的には、左室に対して設定された3つの断面に対応する。3つのシェーマ像116,118,120が表示される。個々のシェーマ像は、それに対応する断面上に現れる標準的な組織形態を模式図として表したものであり、さらに、本実施形態においては、各シェーマ像は、対応する断面上に設定される複数の区画を表しており、さらに各区画に対してはカラー表示処理が施されている。オーバーレイ像101Bと、ブルズアイ像102と、シェーマ像セット104のそれぞれのカラー表示処理にあたっては同じカラー変換関数が利用されており、すなわち3つのイメージ間においてカラーは互いに対応づけられている。すなわち、ある区画に着目した場合、それぞれのイメージにおいては当該区画が同じカラーによって表現されている。もっとも、その場合におけるカラーの同一性はユーザーの観察上における同一性であれば足りる。   In the present embodiment, the schema image set 104 includes three schema images. Specifically, it corresponds to three cross sections set for the left ventricle. Three schema images 116, 118, and 120 are displayed. Each schema image represents a standard tissue form appearing on a corresponding cross section as a schematic diagram. Further, in the present embodiment, each schema image includes a plurality of schema images set on a corresponding cross section. In addition, color display processing is applied to each of the sections. The same color conversion function is used in the color display processing of the overlay image 101B, the bullseye image 102, and the schema image set 104, that is, colors are associated with each other among the three images. That is, when attention is paid to a certain section, the section is expressed by the same color in each image. However, the identity of the color in that case is sufficient if it is the identity of the user.

図5に示す例においては、表示された3つのシェーマ像116,118,120のそれぞれに対してカラー表示処理が施されている。この例においては、直交関係にある3つの断面に対応する3つのシェーマ像が表されており、そのうちで特定のシェーマ像120に対して枠マーカー112が付されている。この枠マーカー112はハイライト表示体あるいは特定のカラー表示体である。この枠マーカー112が付されているシェーマ像120は、左側に表示されている合成画像100に対応するものであり、すなわち現在選択されている断面を表している。この図5に示す例において、枠マーカー112が付されている断面をブルズアイ像102において認識することはできないが、後に示す図10においては、ブルズアイ像102において、選択されている断面に対応する区画のみがカラー表現されている。これによって断面を直感的に認識することが容易となっている。これについては後に再び説明する。   In the example shown in FIG. 5, color display processing is performed on each of the displayed three schema images 116, 118, and 120. In this example, three schema images corresponding to three cross-sections that are orthogonal to each other are represented, and among them, a frame marker 112 is attached to a specific schema image 120. The frame marker 112 is a highlight display or a specific color display. The schema image 120 to which the frame marker 112 is attached corresponds to the composite image 100 displayed on the left side, that is, represents the currently selected cross section. In the example shown in FIG. 5, the cross section to which the frame marker 112 is attached cannot be recognized in the bullseye image 102, but in FIG. 10 shown later, the section corresponding to the selected cross section in the bullseye image 102 is shown. Only the color is expressed. This makes it easy to intuitively recognize the cross section. This will be explained again later.

心電波形106は心電信号に基づいて生成され、その心電波形はシネメモリ上に記憶された3つの心電波形のうちで特定の波形を表している。いずれの波形を選択するのかについては適宜定めればよい。本実施形態においては、3つの断面間において心電波形が実質的に同一であることが前提となっているためである。符号124は時相バーを表しており、この時相バーは合成画像100が取得されているタイミングを時間軸上において表したものである。すなわち時相バー124が表している時相に対応するものが合成画像100であり、またブルズアイ像102およびシェーマ像セット104である。時相バー124を固定して、すなわち静止画像としてそれぞれのイメージを表示させることもでき、時相バー124をユーザーにより動かすことにより、任意の時相についてそれぞれのイメージを表示させることも可能である。すなわち時相バー124と各イメージの時相とが連動関係にある。また、自動的に時相を変えて動画像として各イメージを連動表示させることも可能である。この場合においては、時相バー124は時間軸方向に運動することになる。   The electrocardiogram waveform 106 is generated based on the electrocardiogram signal, and the electrocardiogram waveform represents a specific waveform among the three electrocardiogram waveforms stored in the cine memory. Which waveform is selected may be appropriately determined. This is because in the present embodiment, it is assumed that the electrocardiographic waveforms are substantially the same between the three cross sections. Reference numeral 124 represents a time phase bar, and this time phase bar represents the timing at which the composite image 100 is acquired on the time axis. That is, what corresponds to the time phase represented by the time phase bar 124 is the composite image 100, and the bullseye image 102 and the schema image set 104. The time phase bar 124 can be fixed, that is, each image can be displayed as a still image. By moving the time phase bar 124 by the user, each image can be displayed for any time phase. . That is, the time phase bar 124 and the time phase of each image are linked. It is also possible to automatically display each image as a moving image by changing the time phase automatically. In this case, the time phase bar 124 moves in the time axis direction.

符号108は上述したように数値表示欄を表しており、本実施形態においてはブルズアイ像102が16個の区画を備えており、数値表示欄108においては各区画毎に計測された計測値が数値により表示される。   Reference numeral 108 represents a numerical value display field as described above. In this embodiment, the bullseye image 102 includes 16 sections. In the numerical value display field 108, the measured value measured for each section is a numerical value. Is displayed.

本実施形態においては、上述したように異常判定機能が備えられており、パターンマッチング処理においてあるいは計測値演算処理においてエラーが判定された場合には、そのエラー判定に係る区画を識別するためにエラーマーカー122が表示される。エラーマーカー122は、本実施形態においてシェーマ像セットにおけるエラー発生にかかる区画の近傍に表示される。もちろんそのようなグラフィックマーカーではなく、カラー表現を利用してエラーを積極的に表示するようにしてもよい。またブルズアイ像においてエラー区画を特定できるように表示を制御してもよい。これはBモード画像上においても同様である。   In the present embodiment, as described above, the abnormality determination function is provided, and when an error is determined in the pattern matching process or in the measurement value calculation process, an error is identified to identify the section related to the error determination. A marker 122 is displayed. In this embodiment, the error marker 122 is displayed in the vicinity of a section related to the occurrence of an error in the schema image set. Of course, an error may be positively displayed using color expression instead of such a graphic marker. Further, the display may be controlled so that the error section can be specified in the bullseye image. The same applies to B-mode images.

以上のように、本実施形態によれば、合成画像とブルズアイ像との他に、シェーマ像セットが表示され、しかもそのシェーマ像セットに対しては一部またはその全部に対して他のイメージと同様のカラー表示処理が適用されるため、そのようなシェーマ像セットを経由してブルズアイ像あるいは合成画像を観察することにより、それらの画像間における区画対応関係を容易に理解することが可能である。また、シェーマ像セットの全てに対してカラー表示処理を適用するならば、それら3つのシェーマ像を観察するだけで、ブルズアイ像を構成する基礎となった計測値の空間的な分布やその変化を容易に認識することが可能となる。すなわちBモード画像には表れていない他の2つの断面上における計測値の変化を画面上で確認することが可能となる。また本実施形態においては、枠マーカーの表示あるいは指定により、現在認識されているBモード断層画像とそれに対応するシェーマ像との関係を即座に認識することが可能である。   As described above, according to the present embodiment, in addition to the composite image and the bullseye image, a schema image set is displayed, and for the schema image set, a part or all of the schema image set is displayed. Since the same color display processing is applied, it is possible to easily understand the partition correspondence between these images by observing the bullseye image or the synthesized image via such a schema image set. . In addition, if color display processing is applied to all of the schema image sets, the spatial distribution of the measurement values that form the basis of the bullseye image and its changes can be determined by simply observing these three schema images. It can be easily recognized. That is, it is possible to confirm on the screen the changes in the measured values on the other two cross sections that do not appear in the B-mode image. Further, in the present embodiment, it is possible to immediately recognize the relationship between the currently recognized B-mode tomographic image and the corresponding schema image by displaying or specifying the frame marker.

次に、図8に基づいて、図1に示したPC40における画像処理についてより具体的に説明する。図8に示すフローチャートは、例えば3つの断面についての配列が選択されている状態において実行される。もちろん、そのような選択がフローチャートの実行途中で行われるようにしてもよい。またこのフローチャートはシネメモリからのデータの取り出し後に実行されるものである。   Next, the image processing in the PC 40 shown in FIG. 1 will be described more specifically based on FIG. The flowchart shown in FIG. 8 is executed in a state where, for example, the arrangement for three cross sections is selected. Of course, such a selection may be made during the execution of the flowchart. This flowchart is executed after the data is fetched from the cine memory.

S10においては、ユーザーによりビューが選択される。すなわち3つの断面における特定の断面が選択されることになる。この選択はシネメモリ上における特定のフレーム列の選択に相当する。S12においては、選択されたフレーム列に基づいて静止画像あるいは動画像としてBモード断層画像が表示される。ユーザーは、そのような断層画像を見ながら複数の観測点を指定するための基準フレーム(初期フレーム)の選択を行う。S14においては、選択された基準フレーム上においてポインティングデバイスを利用して複数の観測点(トラッキングポイント)がマニュアルにより指定される。この場合においては、基準フレームに表れている心筋の外縁および内縁に沿って複数の観測点列がユーザーにより指定されることになる。必要に応じて、観測点列に対しては補間処理が適用され自動的に補間点が加えられる。   In S10, a view is selected by the user. That is, a specific cross section among the three cross sections is selected. This selection corresponds to the selection of a specific frame sequence on the cine memory. In S12, a B-mode tomographic image is displayed as a still image or a moving image based on the selected frame sequence. The user selects a reference frame (initial frame) for designating a plurality of observation points while viewing such a tomographic image. In S14, a plurality of observation points (tracking points) are manually specified on the selected reference frame using a pointing device. In this case, a plurality of observation point sequences are designated by the user along the outer edge and inner edge of the myocardium appearing in the reference frame. As necessary, interpolation processing is applied to the observation point sequence, and interpolation points are automatically added.

このように基準フレームに対して複数の観測点が指定されると、S16においては、基準フレーム以降の各フレーム間において各観測点毎にパターンマッチング処理すなわちトラッキング処理が実行される。これについて図6を用いて説明すると、(A)には前フレームが示されており、(B)には後フレームが示されている。前フレーム上において、今注目点126が特定されている場合、後フレームにおいて注目点126に対応する対応点130が特定され、それを基準として探索エリア132が定義される。探索エリア132内には元ウィンド128と比較される比較ウィンド134がその位置を変化させながら順次設定される。そして各ウィンド位置毎に2つのウィンド間における相関値が演算され、最も良い相関値が得られた位置をもって最良ウィンド位置が特定され、当該ウィンド位置の中心点をなす点が新たな注目点の位置として定められる。従って前フレーム上における注目点と後フレーム上における注目点との間の座標の差として二次元移動ベクトルが定義されることになる。このようなフレーム間におけるパターンマッチング処理が各フレーム毎にすなわち各時相毎に、加えて各観測点毎に実行されることになる。   When a plurality of observation points are designated for the reference frame in this way, in S16, pattern matching processing, that is, tracking processing is executed for each observation point between frames after the reference frame. This will be described with reference to FIG. 6. (A) shows the previous frame, and (B) shows the rear frame. When the attention point 126 is currently specified on the previous frame, the corresponding point 130 corresponding to the attention point 126 is specified in the subsequent frame, and the search area 132 is defined based on that. A comparison window 134 to be compared with the original window 128 is sequentially set in the search area 132 while changing its position. The correlation value between the two windows is calculated for each window position, the best window position is specified at the position where the best correlation value is obtained, and the point that forms the center point of the window position is the position of the new attention point. It is determined as Accordingly, a two-dimensional movement vector is defined as a difference in coordinates between the attention point on the previous frame and the attention point on the rear frame. Such pattern matching processing between frames is executed for each frame, that is, for each time phase, and for each observation point.

図8に戻って、S16において、本実施形態においてはトラッキングにおいてエラーが判定されており、すなわち例えば異常の相関値が得られた場合にエラーが判定されている。続いて、S18においては、画面内にブルズアイ像および選択されたシェーマ像セットが表示される。すでに表示されている場合にはこの工程は省略される。選択されたシェーマ像セットは、上述した第1配列または第2配列の中からユーザーにより選択された配列に対応するものである。現在認識しているBモード画像すなわち断面に対応するシェーマ像に対して枠マーカーが付加される。この状態が図9に示されている。現在においては1番目のフレーム列の処理が行われており、まだ計測値については演算されていないため、図9に示される各イメージに対してはカラー表示処理が未だ適用されていない。合成画像100AはBモード画像101Aとオーバーレイ像101Cとで構成され、ここでオーバーレイ像101Cは複数の観測点とそれらをつなぐトレースラインを含み、さらに2つのトレースライン間をつなぐ複数のラインを含んでいる。ただし、各区画は定義されているものの、それに対する着色処理は施されていない。同様に、ブルズアイ像102およびシェーマ像セット104Aにおいてもカラー表示処理は施されていない。ただし、枠マーカー142が特定のシェーマ像140に対して付されており、その枠マーカー142は現在注目している断面を表している。すなわち当該断面に対応するシェーマ像140に対しては枠マーカーが付加されている。そのような特定のシェーマ像140に対してはグレー表現が施され、あるいは計測値を表すカラーとは別の色づけがなされる。同様に、ブルズアイ像102Aにおいても現在の断面に対応する複数の区画に対して識別処理が施されている(符号136参照)。断面に対応するシェーマ像140およびブルズアイ像102A上の複数の区画に対応する識別処理は当該断面が直感的に認識できるものであればよく、着色処理あるいはグレー表現によらずに、何らかのマーカーを表示するようにしてもよい。例えば符号138で示すような断面を示すライン状のグラフィックを表現するようにしてもよい。   Returning to FIG. 8, in S16, an error is determined in tracking in this embodiment, that is, an error is determined when, for example, an abnormal correlation value is obtained. Subsequently, in S18, the bullseye image and the selected schema image set are displayed on the screen. If already displayed, this step is omitted. The selected schema image set corresponds to the array selected by the user from the first array or the second array described above. A frame marker is added to the currently recognized B-mode image, that is, the schema image corresponding to the cross section. This state is shown in FIG. At present, the processing of the first frame sequence is performed, and the measurement values are not yet calculated. Therefore, the color display processing is not yet applied to each image shown in FIG. The composite image 100A is composed of a B-mode image 101A and an overlay image 101C, where the overlay image 101C includes a plurality of observation points and trace lines connecting them, and further includes a plurality of lines connecting two trace lines. Yes. However, although each section is defined, the coloring process is not applied to it. Similarly, color display processing is not performed on the bullseye image 102 and the schema image set 104A. However, a frame marker 142 is attached to a specific schema image 140, and the frame marker 142 represents a cross section that is currently focused on. That is, a frame marker is added to the schema image 140 corresponding to the cross section. Such a specific schema image 140 is grayed or colored differently from the color representing the measurement value. Similarly, in the bullseye image 102A, identification processing is performed on a plurality of sections corresponding to the current cross section (see reference numeral 136). The identification process corresponding to the plurality of sections on the schema image 140 and the bullseye image 102A corresponding to the cross section only needs to be capable of intuitively recognizing the cross section, and any marker is displayed regardless of the coloring process or the gray expression. You may make it do. For example, a line graphic indicating a cross section as indicated by reference numeral 138 may be expressed.

再び図8に戻って、S20においては、フレーム毎に区画単位で計測が実行され、その計測結果がブルズアイ像等に反映される。計測値の反映は個々のフレームの計測値演算処理を行う都度実施するようにしてもよいし、全てのフレームについての計測値演算が終了した後に実施するようにしてもよい。3つの断面についてのS10〜S20の繰り返し数に応じてブルズアイ像においてカラー表示処理が施されているエリアが拡大していくことになる。   Returning to FIG. 8 again, in S20, the measurement is executed for each frame for each frame, and the measurement result is reflected in the bullseye image or the like. The reflection of the measurement value may be performed every time the measurement value calculation process for each frame is performed, or may be performed after the measurement value calculation for all the frames is completed. The area where the color display processing is performed in the bullseye image is enlarged according to the number of repetitions of S10 to S20 for the three cross sections.

S22においては、3つの断面すなわち3つのビューのうちで処理を行っていないものがあるか否かが判断され、そのような未処理のビューがあればS10以降の各工程が繰り返し実行される。一方、S22においてそのようなビューがないとするならばS24が実行される。   In S22, it is determined whether or not there is an unprocessed view among the three cross sections, that is, the three views. If there is such an unprocessed view, each step after S10 is repeatedly executed. On the other hand, if there is no such view in S22, S24 is executed.

図10には、図8に示したS20の工程が1番目の断面に対して適用された後の状態が示されている。すなわち、ブルズアイ像102Bにおいては、現在選択されている断面に対応する6つの区画に対してのみカラー表示処理が施されている(144参照)。同じく、シェーマ像セット104Bにおいては特定のシェーマ像140に対してのみカラー表示処理が施されており、それを表すために枠マーカー142が表示されている。心電波形106Bにおいては、現在表示している時相が時間軸上において時相マーカー124によって表されている。その合成画像100Bはその時相に対応する断層画像を表しており、具体的には、その合成画像100Bは上述したようにBモード断層画像101Aとカラー表示処理が施されたオーバーレイ像101Bとにより構成されている。オーバーレイ像101Bは透明感をもってペイント処理が施された画像であり、背景としての組織構造をオーバーレイ像101Bを介して観察することが可能である。   FIG. 10 shows a state after step S20 shown in FIG. 8 is applied to the first cross section. That is, in the bullseye image 102B, color display processing is performed only on six sections corresponding to the currently selected cross section (see 144). Similarly, in the schema image set 104B, only a specific schema image 140 is subjected to color display processing, and a frame marker 142 is displayed to represent it. In the electrocardiogram waveform 106B, the currently displayed time phase is represented by a time phase marker 124 on the time axis. The composite image 100B represents a tomographic image corresponding to the time phase. Specifically, the composite image 100B is composed of the B-mode tomographic image 101A and the overlay image 101B subjected to color display processing as described above. Has been. The overlay image 101B is an image that has been painted with a sense of transparency, and a tissue structure as a background can be observed through the overlay image 101B.

従って、図8に示したS10〜S20の処理を繰り返すと、ブルズアイ像およびシェーマ像セットにおいてカラー表示処理される領域が増大していくこととなり、最終的には図5に示したような表示画像を得ることが可能となる。もちろん、ユーザーの選択により、図10に示したような特定の断面だけに対してカラー表示処理が施された表示内容を構成することも可能である。すなわち一部処理モードおよび全部処理モードのいずれをも選択することが可能である。   Therefore, when the processing of S10 to S20 shown in FIG. 8 is repeated, the area subjected to color display processing in the bullseye image and schema image sets increases, and finally the display image as shown in FIG. Can be obtained. Of course, it is also possible to configure display contents in which color display processing is performed only on a specific cross section as shown in FIG. That is, it is possible to select either the partial processing mode or the full processing mode.

図8に戻って、S24においては、ユーザーにより必要に応じて時相が指定され、これによって当該時相に対応する表示内容が画面表示されることになる。その場合においては時相をマニュアルで変更するようにしてもよいし、時相を連続的にすなわち自動的に切り替えるようにしてもよい。   Returning to FIG. 8, in S24, a time phase is designated by the user as necessary, and the display content corresponding to the time phase is displayed on the screen. In that case, the time phase may be changed manually, or the time phase may be switched continuously, that is, automatically.

上記実施形態においては、単一カラー表示モードおよび全部カラー表示モードのいずれを選択した場合であっても、カラー表示処理が施されたオーバーレイ像、ブルズアイ像およびシェーマ像セットを得ることができるので、ユーザーはそのようなイメージ上におけるカラー表示処理結果を参照することによりイメージ間における区画の対応関係を直感的に認識でき、特に三次元空間内における断面の位置を容易に把握することが可能である。   In the above embodiment, an overlay image, a bullseye image, and a schema image set that have been subjected to color display processing can be obtained regardless of whether the single color display mode or the all color display mode is selected. The user can intuitively recognize the correspondence between the partitions between the images by referring to the color display processing result on such an image, and in particular, can easily grasp the position of the cross section in the three-dimensional space. .

20 シネメモリ、42 トラッキング部、44 計測部、45 異常判定部、46 オーバレイ像生成部、48 ブルズアイ像生成部、50 シェーマ像処理部、60 表示処理部。   20 cine memory, 42 tracking unit, 44 measuring unit, 45 abnormality determining unit, 46 overlay image generating unit, 48 bullseye image generating unit, 50 schema image processing unit, 60 display processing unit.

Claims (7)

生体内の運動組織に対して設定された複数の断面に対応する複数のフレーム列を処理する超音波画像処理装置において、
前記各フレーム列を構成する複数のフレームを時間軸方向に順次解析することにより前記各断面上に定義される複数の区画について区画ごとに且つ時相ごとに運動評価値を演算する演算手段と、
前記複数の断面上に定義された区画群の三次元配列を表す展開イメージを生成する手段であって、前記展開イメージの全部又は一部に対して第1の区画別表示処理を施す第1のイメージ生成手段と、
前記各断面上の組織形態及び複数の区画を表す模擬イメージセットを生成する手段であって、前記模擬イメージセットの全部又は一部に対して第2の区画別表示処理を施す第2のイメージ生成手段と、
を含み、
前記第1の区画別表示処理及び前記第2の区画別表示処理は、区画ごとに且つ時相ごとに演算される運動評価値に応じて個々の区画の表示態様を変化させる処理であり、
前記第1の区画別表示処理後の展開イメージと共に前記第2の区画別表示処理後の模擬イメージセットが表示される、ことを特徴とする超音波画像処理装置。
In an ultrasonic image processing apparatus that processes a plurality of frame sequences corresponding to a plurality of cross sections set for a moving tissue in a living body,
A calculation means for calculating a motion evaluation value for each section and for each time phase for a plurality of sections defined on each cross section by sequentially analyzing a plurality of frames constituting each frame sequence in a time axis direction;
Means for generating a developed image representing a three-dimensional arrangement of a group of sections defined on the plurality of sections, wherein a first section-specific display process is performed on all or a part of the developed image; Image generation means;
A means for generating a simulated image set representing a tissue form and a plurality of sections on each cross section, wherein a second image generation is performed by applying a second section-specific display process to all or a part of the simulated image set. Means,
Including
The first section-specific display process and the second section-specific display process are processes for changing the display mode of each section according to the motion evaluation value calculated for each section and for each time phase,
The ultrasonic image processing apparatus, wherein a simulated image set after the second section display process is displayed together with the developed image after the first section display process.
請求項1記載の装置において、
前記複数の断面の中から選択された選択断面に対応するフレーム列中の各フレームに基づいて断層画像を形成する断層画像形成手段と、
前記断層画像に合成され且つ前記選択断面上の複数の区画を表すオーバーレイ画像を生成する手段であって、前記オーバーレイ画像に対して第3の区画別表示処理を施す第3のイメージ生成手段と、
を含み、
前記第3の区画別表示処理は、区画ごとに且つ時相ごとに演算される運動評価値に応じて個々の区画の表示態様を変化させる処理であり、
前記第1の区画別表示処理後の展開イメージ及び前記断層画像に対して前記第3の区画別表示処理後のオーバーレイ画像を合成することによって生成される合成画像と共に、前記第2の区画別表示処理後の模擬イメージセットが表示される、ことを特徴とする超音波画像処理装置。
The apparatus of claim 1.
A tomographic image forming means for forming a tomographic image based on each frame in a frame sequence corresponding to a selected cross section selected from the plurality of cross sections;
Means for generating an overlay image synthesized with the tomographic image and representing a plurality of sections on the selected cross section, wherein a third image generating means for performing a third section-specific display process on the overlay image;
Including
The display processing according to the third section is a process of changing the display mode of each section according to the motion evaluation value calculated for each section and for each time phase,
Together with the combined image generated by synthesizing the expanded image after the first section display processing and the overlay image after the third section display process with the developed image after the first section display processing and the tomographic image, the second section display An ultrasonic image processing apparatus, wherein a simulated image set after processing is displayed.
請求項1又は2記載の装置において、
前記第1のイメージ生成手段は、一部処理モードにおいて、前記展開イメージに表示される区画群の中で前記複数の断面の中から選択された選択断面に対応する複数の区画に対して前記第1の区画別表示処理を施し、
前記第2のイメージ生成手段は、前記一部処理モードにおいて、前記模擬イメージセットの中で前記選択断面に対応する模擬イメージに対して前記第2の区画別表示処理を施す、ことを特徴とする超音波画像処理装置。
The apparatus according to claim 1 or 2,
In the partial processing mode, the first image generation unit performs the first image generation on a plurality of sections corresponding to a selected section selected from the plurality of sections in the section group displayed in the development image. Perform the display processing by 1 division,
In the partial processing mode, the second image generation unit performs the second section-specific display processing on the simulated image corresponding to the selected section in the simulated image set. Ultrasonic image processing device.
請求項1又は2記載の装置において、
前記第1のイメージ生成手段は、全部処理モードにおいて、前記展開イメージに表示される区画群の全部に対して前記第1の区画別表示処理を施し、
前記第2のイメージ生成手段は、前記全部処理モードにおいて、前記模擬イメージセットの全部に対して前記第2の区画別表示処理を施す、ことを特徴とする超音波画像処理装置。
The apparatus according to claim 1 or 2,
The first image generation means performs the first section-specific display processing for all of the section groups displayed in the development image in the all processing mode,
The ultrasonic image processing apparatus, wherein the second image generation means performs the second section-specific display processing on the entire simulated image set in the all processing mode.
請求項1又は2記載の装置において、
前記演算手段は、
前記各フレーム列におけるフレーム間において複数の観測点の二次元移動を演算する手段と、
前記複数の観測点の二次元移動に基づいて区画単位で運動評価値を演算する手段と、
前記複数の観測点の二次元移動及び前記区画単位の運動評価値の少なくとも一方に基づいて、前記複数の観測点の中でエラー点を判定する手段と、
を含み、
前記第2のイメージ生成手段は、前記模擬イメージセットに対して前記エラー点に対応する区画が識別されるように識別処理を施す、ことを特徴とする超音波画像処理装置。
The apparatus according to claim 1 or 2,
The computing means is
Means for calculating a two-dimensional movement of a plurality of observation points between frames in each frame sequence;
Means for calculating a motion evaluation value for each block based on two-dimensional movement of the plurality of observation points;
Means for determining an error point among the plurality of observation points based on at least one of the two-dimensional movement of the plurality of observation points and the motion evaluation value of the partition unit;
Including
The ultrasonic image processing apparatus, wherein the second image generation means performs an identification process on the simulated image set so that a section corresponding to the error point is identified.
請求項2記載の装置において、
前記第1乃至第3の区画別表示処理は、前記運動評価値に応じて互いに同じ色相及び輝度を与える処理である、ことを特徴とする超音波画像処理装置。
The apparatus of claim 2.
The ultrasonic image processing device according to any one of claims 1 to 3, wherein the first to third divisional display processes are processes that give the same hue and luminance according to the motion evaluation value.
生体内の運動組織に対して設定された複数の断面に対応する複数のフレーム列を処理する超音波画像処理装置において実行される超音波画像処理プログラムであって、
前記各フレーム列を時間軸方向に順次解析することにより前記各断面上に定義される複数の区画について区画ごとに且つ時相ごとに運動評価値を演算する機能と、
前記複数の断面上に定義された区画群の三次元配列を表す展開イメージを生成する機能であって、前記展開イメージの全部又は一部に対して第1の区画別表示処理を施す機能と、
前記各断面上の組織形態及び区画列を表す模擬イメージセットを生成する機能であって、前記模擬イメージセットの全部又は一部に対して第2の区画別表示処理を施す機能と、
を含み、
前記第1の区画別表示処理及び前記第2の区画別表示処理は、区画ごとに且つ時相ごとに演算される運動評価値に応じて個々の区画の表示態様を変化させる処理であり、前記第1の区画別表示処理後の展開イメージと共に前記第2の区画別表示処理後の模擬イメージセットが表示される、ことを特徴とする超音波画像処理プログラム。
An ultrasound image processing program executed in an ultrasound image processing apparatus for processing a plurality of frame sequences corresponding to a plurality of cross sections set for a moving tissue in a living body,
A function of calculating a motion evaluation value for each section and for each time phase for a plurality of sections defined on each cross-section by sequentially analyzing each frame sequence in the time axis direction;
A function of generating a developed image representing a three-dimensional arrangement of a group of sections defined on the plurality of sections, a function of performing a first section-specific display process on all or a part of the developed image;
A function of generating a simulated image set representing a tissue form and a row of sections on each cross section, a function of performing a second section-specific display process on all or a part of the simulated image set;
Including
The first section-specific display process and the second section-specific display process are processes for changing the display mode of each section according to the motion evaluation value calculated for each section and for each time phase, An ultrasound image processing program, wherein a simulated image set after the second section display processing is displayed together with a developed image after the first section display processing.
JP2011020452A 2011-02-02 2011-02-02 Ultrasonic image processing device Active JP5651030B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011020452A JP5651030B2 (en) 2011-02-02 2011-02-02 Ultrasonic image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011020452A JP5651030B2 (en) 2011-02-02 2011-02-02 Ultrasonic image processing device

Publications (2)

Publication Number Publication Date
JP2012157608A true JP2012157608A (en) 2012-08-23
JP5651030B2 JP5651030B2 (en) 2015-01-07

Family

ID=46838647

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011020452A Active JP5651030B2 (en) 2011-02-02 2011-02-02 Ultrasonic image processing device

Country Status (1)

Country Link
JP (1) JP5651030B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017159009A (en) * 2016-03-03 2017-09-14 東芝メディカルシステムズ株式会社 Ultrasonic diagnostic equipment and image processing program
JP2018027298A (en) * 2016-08-10 2018-02-22 キヤノンメディカルシステムズ株式会社 Medical processing device, ultrasonic diagnostic device, and medical processing program
JP2020022550A (en) * 2018-08-06 2020-02-13 株式会社日立製作所 Ultrasonic image processing apparatus and program
US11298104B2 (en) 2016-08-10 2022-04-12 Canon Medical Systems Corporation Medical processing apparatus, ultrasound diagnostic apparatus, and medical processing method
US11304681B2 (en) 2016-03-03 2022-04-19 Canon Medical Systems Corporation Ultrasonic diagnostic apparatus and image processing method

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002306483A (en) * 2001-04-18 2002-10-22 Toshiba Corp Medical diagnosis image processing equipment and method thereof
JP2005531352A (en) * 2002-06-28 2005-10-20 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ An image processing system for displaying information on the movement of the top of a deformable three-dimensional object
JP2007312958A (en) * 2006-05-25 2007-12-06 Hitachi Medical Corp Ultrasonic diagnostic system
JP2007319467A (en) * 2006-06-01 2007-12-13 Toshiba Corp Ultrasonic diagnostic apparatus, and diagnostic program for the same
JP2008279095A (en) * 2007-05-11 2008-11-20 Hitachi Medical Corp Ultrasonic diagnostic device
JP2010042151A (en) * 2008-08-13 2010-02-25 Toshiba Corp Ultrasonic diagnostic apparatus, ultrasonic image display device, and ultrasonic image display program
WO2010092918A1 (en) * 2009-02-10 2010-08-19 株式会社 日立メディコ Medical image processing device, medical image processing method, medical image diagnosis device, method for operating medical image diagnosis device, and medical image display method
JP2010279499A (en) * 2009-06-03 2010-12-16 Toshiba Corp Three-dimensional ultrasonic diagnostic apparatus

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002306483A (en) * 2001-04-18 2002-10-22 Toshiba Corp Medical diagnosis image processing equipment and method thereof
JP2005531352A (en) * 2002-06-28 2005-10-20 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ An image processing system for displaying information on the movement of the top of a deformable three-dimensional object
JP2007312958A (en) * 2006-05-25 2007-12-06 Hitachi Medical Corp Ultrasonic diagnostic system
JP2007319467A (en) * 2006-06-01 2007-12-13 Toshiba Corp Ultrasonic diagnostic apparatus, and diagnostic program for the same
JP2008279095A (en) * 2007-05-11 2008-11-20 Hitachi Medical Corp Ultrasonic diagnostic device
JP2010042151A (en) * 2008-08-13 2010-02-25 Toshiba Corp Ultrasonic diagnostic apparatus, ultrasonic image display device, and ultrasonic image display program
WO2010092918A1 (en) * 2009-02-10 2010-08-19 株式会社 日立メディコ Medical image processing device, medical image processing method, medical image diagnosis device, method for operating medical image diagnosis device, and medical image display method
JP2010279499A (en) * 2009-06-03 2010-12-16 Toshiba Corp Three-dimensional ultrasonic diagnostic apparatus

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017159009A (en) * 2016-03-03 2017-09-14 東芝メディカルシステムズ株式会社 Ultrasonic diagnostic equipment and image processing program
JP7019287B2 (en) 2016-03-03 2022-02-15 キヤノンメディカルシステムズ株式会社 Ultrasound diagnostic equipment and image processing program
US11304681B2 (en) 2016-03-03 2022-04-19 Canon Medical Systems Corporation Ultrasonic diagnostic apparatus and image processing method
JP2018027298A (en) * 2016-08-10 2018-02-22 キヤノンメディカルシステムズ株式会社 Medical processing device, ultrasonic diagnostic device, and medical processing program
JP2021168949A (en) * 2016-08-10 2021-10-28 キヤノンメディカルシステムズ株式会社 Medical processing device, ultrasonic diagnostic device, and medical processing program
US11298104B2 (en) 2016-08-10 2022-04-12 Canon Medical Systems Corporation Medical processing apparatus, ultrasound diagnostic apparatus, and medical processing method
JP7179130B2 (en) 2016-08-10 2022-11-28 キヤノンメディカルシステムズ株式会社 Medical processing equipment, ultrasonic diagnostic equipment and medical processing programs
JP2023009211A (en) * 2016-08-10 2023-01-19 キヤノンメディカルシステムズ株式会社 Medical processing device
JP7348372B2 (en) 2016-08-10 2023-09-20 キヤノンメディカルシステムズ株式会社 medical processing equipment
JP2020022550A (en) * 2018-08-06 2020-02-13 株式会社日立製作所 Ultrasonic image processing apparatus and program
JP7099901B2 (en) 2018-08-06 2022-07-12 富士フイルムヘルスケア株式会社 Ultrasound image processing equipment and programs

Also Published As

Publication number Publication date
JP5651030B2 (en) 2015-01-07

Similar Documents

Publication Publication Date Title
US11490877B2 (en) System and method of identifying characteristics of ultrasound images
CN101066211B (en) Displaying information in an ultrasound system
JP6640922B2 (en) Ultrasound diagnostic device and image processing device
US9024971B2 (en) User interface and method for identifying related information displayed in an ultrasound system
JP5661453B2 (en) Image processing apparatus, ultrasonic diagnostic apparatus, and image processing method
JP5469101B2 (en) Medical image processing apparatus, medical image processing method, medical image diagnostic apparatus, operating method of medical image diagnostic apparatus, and medical image display method
CN107072635B (en) Quality metric for multi-hop echocardiography acquisition for intermediate user feedback
CN105025806B (en) Medical diagnostic imaging apparatus, medical image-processing apparatus and medical image processing method
US7907758B2 (en) Method and system for maintaining consistent anatomic views in displayed image data
JP5509437B2 (en) Ultrasonic diagnostic equipment
US20090219301A1 (en) Ultrasonic imaging system and method
CN102202580A (en) Ultrasonic image processing method and device, and ultrasonic image processing program
US20060004291A1 (en) Methods and apparatus for visualization of quantitative data on a model
JP5651030B2 (en) Ultrasonic image processing device
JP4758736B2 (en) Ultrasonic diagnostic equipment
JP4652780B2 (en) Ultrasonic diagnostic equipment
JP4870449B2 (en) Ultrasonic diagnostic apparatus and ultrasonic image processing method
JP2007130063A (en) Ultrasonographic apparatus
JP4276595B2 (en) Ultrasonic diagnostic equipment
JP5063216B2 (en) Ultrasonic diagnostic apparatus and processing program
JP4709937B2 (en) Ultrasonic diagnostic apparatus and image processing apparatus
JP5959880B2 (en) Ultrasonic diagnostic equipment
JP7273708B2 (en) Ultrasound image processor
JP2018068688A (en) Ultrasonic diagnostic device and ultrasonic image processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140106

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140730

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140902

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141023

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141111

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141114

R150 Certificate of patent or registration of utility model

Ref document number: 5651030

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250