JP6793075B2 - Ultrasonic image processing equipment - Google Patents

Ultrasonic image processing equipment Download PDF

Info

Publication number
JP6793075B2
JP6793075B2 JP2017055314A JP2017055314A JP6793075B2 JP 6793075 B2 JP6793075 B2 JP 6793075B2 JP 2017055314 A JP2017055314 A JP 2017055314A JP 2017055314 A JP2017055314 A JP 2017055314A JP 6793075 B2 JP6793075 B2 JP 6793075B2
Authority
JP
Japan
Prior art keywords
rendering
pitch
opacity
sight
ultrasonic image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017055314A
Other languages
Japanese (ja)
Other versions
JP2018157873A (en
Inventor
剛啓 辻田
剛啓 辻田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2017055314A priority Critical patent/JP6793075B2/en
Publication of JP2018157873A publication Critical patent/JP2018157873A/en
Application granted granted Critical
Publication of JP6793075B2 publication Critical patent/JP6793075B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Ultra Sonic Daignosis Equipment (AREA)

Description

本発明は、超音波画像処理装置に関する。 The present invention relates to an ultrasonic image processing apparatus.

超音波を送受することにより得られたデータに基づいて超音波画像を形成する超音波画像処理装置の代表例が超音波診断装置である。超音波画像としては、例えばBモード画像やカラードプラ画像などの二次元画像が良く知られている。また、生体内の組織や胎児などを立体的に映し出す超音波画像(三次元超音波画像)を形成する装置も知られている。例えば、超音波を送受することにより立体的に得られるボリュームデータに基づいて、複数の視線の各視線(レイ)ごとにレンダリング処理を実行することにより、診断対象を立体的に映し出す超音波画像を形成する技術が知られている。 An ultrasonic diagnostic apparatus is a typical example of an ultrasonic image processing apparatus that forms an ultrasonic image based on data obtained by transmitting and receiving ultrasonic waves. As the ultrasonic image, a two-dimensional image such as a B-mode image or a color Doppler image is well known. Further, there is also known a device for forming an ultrasonic image (three-dimensional ultrasonic image) that three-dimensionally projects a tissue or a foetation in a living body. For example, based on the volume data obtained three-dimensionally by transmitting and receiving ultrasonic waves, a rendering process is executed for each line of sight (ray) of a plurality of lines of sight to create an ultrasonic image that three-dimensionally projects the diagnosis target. The technique of forming is known.

例えば、特許文献1には、各視線(レイ)ごとに実行されるボクセル演算において、ボクセル演算の対象となるサンプリングデータが対象組織に対応したデータである場合に、ボクセル演算の途中でサンプリング間隔を密に変更する技術が開示されている。 For example, in Patent Document 1, in the voxel calculation executed for each line of sight (ray), when the sampling data to be the target of the voxel calculation is the data corresponding to the target tissue, the sampling interval is set in the middle of the voxel calculation. The technology to change closely is disclosed.

また、特許文献2には、各視線(レイ)上のオパシティ補正範囲におけるボクセル演算において、演算開始点からの距離に応じて補正されたオパシティを利用する技術が開示されている。 Further, Patent Document 2 discloses a technique of utilizing the opacity corrected according to the distance from the calculation start point in the voxel calculation in the opacity correction range on each line of sight (ray).

特開2008−113868号公報Japanese Unexamined Patent Publication No. 2008-113868 特開2008−18224号公報Japanese Unexamined Patent Publication No. 2008-18224

ところで、ボリュームデータに基づくレンダリング処理により形成される超音波画像において、診断対象の画質(例えば画像の透け具合など)が診断対象のサイズに応じて異なる場合がある。各視線上における診断対象の厚さ(画像に大きく反映されるデータ部分)が診断対象のサイズに依存することが一つの要因として考えられる。例えば、診断対象が胎児の場合、胎児は週数に応じてサイズが大きく異なるため、画質への影響が比較的顕著に現れてしまう。 By the way, in the ultrasonic image formed by the rendering process based on the volume data, the image quality of the diagnosis target (for example, the degree of transparency of the image) may differ depending on the size of the diagnosis target. One factor is that the thickness of the diagnostic object (the data portion largely reflected in the image) on each line of sight depends on the size of the diagnostic object. For example, when the diagnosis target is a foetation, the size of the foetation varies greatly depending on the number of weeks, so that the effect on image quality becomes relatively remarkable.

そこで、本発明は、診断対象のサイズに依存する画質の変動を抑制するレンダリング処理を実現することを目的とする。 Therefore, an object of the present invention is to realize a rendering process that suppresses fluctuations in image quality depending on the size of the diagnosis target.

本発明の態様として好適な超音波画像処理装置は、超音波のボリュームデータに基づいて複数の視線の各視線ごとにレンダリング処理を実行するレンダリング処理手段と、各視線上における前記レンダリング処理のサンプリング間隔であるレンダリングピッチを決定する手段であって、診断対象のサイズ情報に基づいてレンダリングピッチを決定するピッチ決定手段と、前記レンダリング処理により複数の視線の各視線ごとに得られる画素値に基づいて、前記診断対象の超音波画像を形成する画像形成手段と、を有することを特徴とする。 An ultrasonic image processing apparatus suitable as an aspect of the present invention includes a rendering processing means that executes a rendering process for each line of sight of a plurality of lines of sight based on ultrasonic volume data, and a sampling interval of the rendering process on each line of sight. It is a means for determining the rendering pitch, which is based on the pitch determining means for determining the rendering pitch based on the size information of the diagnosis target and the pixel value obtained for each line of sight of a plurality of lines of sight by the rendering process. It is characterized by having an image forming means for forming an ultrasonic image to be diagnosed.

上記構成において、診断対象のサイズ情報は、診断対象のサイズ(大きさ)に係る情報である。診断対象のサイズ情報には、診断対象のサイズを直接的に示す情報、例えば診断対象の長さや断面積や体積や重さなどが含まれる。また、診断対象のサイズ情報は、診断対象のサイズを間接的に示す情報であってもよい。例えば、診断対象が胎児であれば胎児の週数などからその胎児の標準的な大きさが分かるため、胎児の週数などもサイズ情報の好適な具体例に含まれる。 In the above configuration, the size information of the diagnosis target is information related to the size (size) of the diagnosis target. The size information of the diagnosis target includes information that directly indicates the size of the diagnosis target, such as the length, cross-sectional area, volume, and weight of the diagnosis target. Further, the size information of the diagnosis target may be information that indirectly indicates the size of the diagnosis target. For example, if the diagnosis target is a foetation, the standard size of the foetation can be known from the number of weeks of the foetation, and therefore the number of weeks of the foetation is also included in a suitable specific example of size information.

上記構成によれば、診断対象のサイズ情報に基づいて決定されたレンダリングピッチでその診断対象に関するレンダリング処理を実行することができる。例えば、診断対象のサイズに応じてレンダリングピッチを変更することにより、レンダリング処理により得られる超音波画像の画質(例えば画像の透け具合など)を調整することが可能になる。これにより、例えば、診断対象のサイズに依存する画質の変動を抑制することができる。 According to the above configuration, the rendering process for the diagnosis target can be executed at the rendering pitch determined based on the size information of the diagnosis target. For example, by changing the rendering pitch according to the size of the diagnosis target, it is possible to adjust the image quality of the ultrasonic image obtained by the rendering process (for example, the degree of transparency of the image). Thereby, for example, the fluctuation of the image quality depending on the size of the diagnosis target can be suppressed.

例えば、前記ピッチ決定手段は、診断対象のサイズ情報から得られる有効厚みと、基準となる画質を実現するための目標サンプリング数と、に基づいて当該診断対象に適合したレンダリングピッチを決定することが望ましい。この構成により、例えば、診断対象のサイズに依らずに基準となる画質を実現することができる。 For example, the pitch determining means can determine a rendering pitch suitable for the diagnosis target based on the effective thickness obtained from the size information of the diagnosis target and the target sampling number for realizing the reference image quality. desirable. With this configuration, for example, a standard image quality can be realized regardless of the size of the diagnosis target.

また、前記超音波画像処理装置は、前記レンダリング処理で利用される不透明度関数を決定する手段であって、前記レンダリングピッチに基づいて不透明度関数を決定する不透明度決定手段をさらに有することが望ましい。この構成により、レンダリングピッチに基づいて決定された不透明度関数を用いてレンダリング処理を実行することができる。 Further, it is desirable that the ultrasonic image processing apparatus further has an opacity determining means for determining the opacity function used in the rendering process and determining the opacity function based on the rendering pitch. .. With this configuration, the rendering process can be executed using the opacity function determined based on the rendering pitch.

また、前記不透明度決定手段は、不透明度の画像への影響が互いに等しくなるようにレンダリングピッチごとに定められた複数の不透明度関数の中から、前記ピッチ決定手段により決定されたレンダリングピッチに対応した不透明度関数を選択することが望ましい。例えば、各視線上のレンダリング処理において、単位長さあたりの不透明度の程度(画像に与える影響)がレンダリングピッチに依らずに均一になるように、複数の不透明度関数を用意しておくことが望ましい。この構成により、例えば、不透明度の画像への影響をレンダリングピッチに依らずに均一化できる。 Further, the opacity determining means corresponds to the rendering pitch determined by the pitch determining means from among a plurality of opacity functions determined for each rendering pitch so that the influence of the opacity on the image is equal to each other. It is desirable to select the opacity function. For example, in the rendering process on each line of sight, it is possible to prepare a plurality of opacity functions so that the degree of opacity per unit length (effect on the image) becomes uniform regardless of the rendering pitch. desirable. With this configuration, for example, the effect of opacity on an image can be made uniform regardless of the rendering pitch.

また、前記ピッチ決定手段は、診断対象である胎児のサイズ情報である週数に基づいて当該胎児に適合したレンダリングピッチを決定することが望ましい。この構成により、胎児の週数からその胎児に適合したレンダリングピッチを得ることができる。 Further, it is desirable that the pitch determining means determines a rendering pitch suitable for the foetation based on the number of weeks which is the size information of the foetation to be diagnosed. With this configuration, it is possible to obtain a rendering pitch suitable for the foetation from the number of weeks of the foetation.

さらに、上述した好適な超音波画像処理装置(望ましい具体例を含む)が備える各部に対応した機能がコンピュータ(タブレット型の端末を含む)により実現されてもよい。例えば、前記レンダリング処理手段としての機能と、前記ピッチ決定手段としての機能と、前記画像形成手段としての機能と、前記不透明度決定手段としての機能をコンピュータに実現させるプログラムにより、コンピュータを上述した好適な超音波画像処理装置として機能させることができる。なお、そのプログラムは、例えば、ディスクやメモリなどのコンピュータが読み取り可能な記憶媒体に記憶され、その記憶媒体を介してコンピュータに提供されてもよいし、インターネットなどの電気通信回線を介してコンピュータに提供されてもよい。 Further, the functions corresponding to each part of the above-mentioned suitable ultrasonic image processing apparatus (including desirable specific examples) may be realized by a computer (including a tablet type terminal). For example, the computer is preferably described above by a program that causes the computer to realize the function as the rendering processing means, the function as the pitch determining means, the function as the image forming means, and the function as the opacity determining means. It can function as an ultrasonic image processing device. The program may be stored in a computer-readable storage medium such as a disk or memory and provided to the computer via the storage medium, or may be provided to the computer via a telecommunication line such as the Internet. May be provided.

本発明により、診断対象のサイズに依存する画質の変動を抑制するレンダリング処理が実現される。例えば、本発明の好適な態様によれば、診断対象のサイズ情報に基づいて決定されたレンダリングピッチでその診断対象に関するレンダリング処理を実行することができ、これにより、例えば、診断対象のサイズに依存する画質(例えば画像の透け具合など)の変動を抑制することができる。 According to the present invention, a rendering process that suppresses fluctuations in image quality depending on the size of a diagnosis target is realized. For example, according to a preferred embodiment of the present invention, the rendering process for the diagnostic target can be executed at a rendering pitch determined based on the size information of the diagnostic target, whereby, for example, it depends on the size of the diagnostic target. It is possible to suppress fluctuations in the image quality (for example, the degree of transparency of the image).

本発明の好適な具体例である超音波診断装置の全体構成図である。It is an overall block diagram of the ultrasonic diagnostic apparatus which is a preferable specific example of this invention. レンダリング処理の具体例を示す図である。It is a figure which shows the specific example of a rendering process. 各視線上におけるレンダリング処理の説明図である。It is explanatory drawing of the rendering process on each line of sight. 胎児の週数とその胎児のサイズとの対応関係の具体例を示す図である。It is a figure which shows the specific example of the correspondence relationship between the number of weeks of a foetation and the size of the foetation. 複数のオパシティカーブの具体例を示す図である。It is a figure which shows the specific example of a plurality of opacity curves.

図1は、本発明に係る超音波画像処理装置の好適な具体例である超音波診断装置の全体構成図である。プローブ10は、三次元画像用の超音波探触子であり、例えば胎児などの診断対象を含む三次元空間内において超音波を送受する。例えば、二次元的に配列された複数の振動素子を備える二次元アレイプローブ(マトリクスアレイプローブ)や、一次元的に配列された複数の振動素子を機械的に動かすメカニカルプローブなどがプローブ10の好適な具体例である。 FIG. 1 is an overall configuration diagram of an ultrasonic diagnostic apparatus which is a preferable specific example of the ultrasonic image processing apparatus according to the present invention. The probe 10 is an ultrasonic probe for a three-dimensional image, and transmits and receives ultrasonic waves in a three-dimensional space including a diagnostic object such as a foetation. For example, a two-dimensional array probe (matrix array probe) having a plurality of two-dimensionally arranged vibrating elements, a mechanical probe for mechanically moving a plurality of one-dimensionally arranged vibrating elements, and the like are suitable for the probe 10. This is a concrete example.

送受信部12は、送信ビームフォーマおよび受信ビームフォーマとしての機能を備えている。つまり、送受信部12は、プローブ10が備える複数の振動素子の各々に対して送信信号を出力することにより送信ビームを形成し、さらに、複数の振動素子から得られる複数の受波信号に対して整相加算処理などを施して受信ビームを形成する。 The transmission / reception unit 12 has functions as a transmission beam former and a reception beam former. That is, the transmission / reception unit 12 forms a transmission beam by outputting a transmission signal to each of the plurality of vibration elements included in the probe 10, and further, for a plurality of received signals obtained from the plurality of vibration elements. The received beam is formed by performing phasing addition processing or the like.

また、送受信部12は、例えば、診断対象を含む三次元空間内において、超音波ビーム(送信ビームと受信ビーム)を立体的に走査する。これにより、診断対象を含む三次元空間内から超音波の受信データが収集される。 Further, the transmission / reception unit 12 three-dimensionally scans an ultrasonic beam (transmission beam and reception beam) in, for example, a three-dimensional space including a diagnosis target. As a result, the received ultrasonic wave data is collected from within the three-dimensional space including the diagnosis target.

ボリューム構成部20は、三次元空間内から得られた受信データに対してリコンストラクション処理を施すことにより、三次元空間に対応したボリュームデータを形成する。ボリューム構成部20は、走査座標系(例えばrθφ座標系)で得られた受信データに対して、座標変換処理や補間処理などのリコンストラクション処理を施し、直交座標系(例えばxyz座標系)に対応したボリュームデータを形成する。ボリュームデータは、例えば直交座標系のデータ空間内において三次元的に配列された複数のボクセルデータで構成される。 The volume configuration unit 20 forms volume data corresponding to the three-dimensional space by performing reconstruction processing on the received data obtained from the three-dimensional space. The volume configuration unit 20 performs reconstruction processing such as coordinate conversion processing and interpolation processing on the received data obtained in the scanning coordinate system (for example, rθφ coordinate system), and corresponds to the orthogonal coordinate system (for example, xyz coordinate system). Form the volume data. Volume data is composed of a plurality of voxel data arranged three-dimensionally in, for example, a data space of a Cartesian coordinate system.

レンダリング処理部30は、ボリュームデータを構成する複数のボクセルデータに基づいてレンダリング処理(ボクセル演算)を実行する。 The rendering processing unit 30 executes a rendering process (voxel calculation) based on a plurality of voxel data constituting the volume data.

図2は、レンダリング処理の具体例を示す図である。レンダリング処理(レンダリング演算)においては、三次元空間に対応したボリュームデータ32の外側に演算上の仮想的な視点が設定され、その視点側からボリュームデータ32に対して複数の視線(レイ)34が設定される。さらに、画像面として機能する演算上のスクリーン36が設定される。なお、図2において、スクリーン36は、ボリュームデータ32を間に挟んで、視点の反対側に図示されているが、ボリュームデータ32よりも視点側に配置されてもよい。 FIG. 2 is a diagram showing a specific example of the rendering process. In the rendering process (rendering operation), a virtual viewpoint in calculation is set outside the volume data 32 corresponding to the three-dimensional space, and a plurality of lines of sight (rays) 34 are provided to the volume data 32 from the viewpoint side. Set. Further, an arithmetic screen 36 that functions as an image plane is set. Although the screen 36 is shown on the opposite side of the viewpoint with the volume data 32 in between in FIG. 2, the screen 36 may be arranged on the viewpoint side of the volume data 32.

レンダリング処理では、ボリュームデータ32に対して設定された複数の視線(レイ)34の各視線34ごとに、その視線34に対応した複数のボクセルデータが処理対象となる。例えば、ボリュームデータ32を構成する複数のボクセルデータから、補間処理などにより、各視線34に対応した(各視線上に並ぶ)複数のボクセルデータが得られる。そして、各視線34上においてレンダリング処理が実行される。 In the rendering process, for each line of sight 34 of the plurality of line of sight (rays) 34 set for the volume data 32, a plurality of voxel data corresponding to the line of sight 34 is processed. For example, from a plurality of voxel data constituting the volume data 32, a plurality of voxel data corresponding to each line of sight 34 (arranged on each line of sight) can be obtained by interpolation processing or the like. Then, the rendering process is executed on each line of sight 34.

図3は、各視線上におけるレンダリング処理の説明図である。図3には、複数の視線34のうちの代表例である1本の視線34が図示されており、その視線34上に並ぶ複数のボクセルが図示されている。 FIG. 3 is an explanatory diagram of the rendering process on each line of sight. In FIG. 3, one line of sight 34, which is a typical example of the plurality of line of sight 34, is shown, and a plurality of voxels arranged on the line of sight 34 are shown.

レンダリング処理では、各視線34ごとに、視点側からその視線34に対応した複数のボクセルデータ(ボクセルの輝度情報)に対して、不透明度(オパシティ)を用いたレンダリング法に基づくボクセル演算が逐次的に実行される。そして、各視線34ごとに最終のボクセル演算の結果としてその視線34に対応した輝度情報が決定される。 In the rendering process, for each line of sight 34, voxel operations based on the rendering method using opacity (opacity) are sequentially performed on a plurality of voxel data (voxel brightness information) corresponding to the line of sight 34 from the viewpoint side. Is executed. Then, as a result of the final voxel calculation for each line of sight 34, the luminance information corresponding to the line of sight 34 is determined.

各視線34上におけるレンダリング処理(逐次的なボクセル演算)のサンプリング間隔がレンダリングピッチ(Rp)である。つまり、レンダリングピッチで定められたデータ間隔で視線34上のボクセルが次々に演算対象とされ、ボクセル演算が逐次的に実行される。 The sampling interval of the rendering process (sequential voxel calculation) on each line of sight 34 is the rendering pitch (Rp). That is, the voxels on the line of sight 34 are sequentially targeted for calculation at the data interval determined by the rendering pitch, and the voxel calculation is sequentially executed.

図1に戻り、レンダリング処理部30は、レンダリング処理により、複数の視線から各視線ごとに得られる輝度情報を各画素の画素値とすることにより、スクリーン(画像面)内の複数画素の画素値を得る。これにより、スクリーンを投影面とする輝度情報の投影画像データが形成される。 Returning to FIG. 1, the rendering processing unit 30 sets the luminance information obtained for each line of sight from a plurality of lines of sight as the pixel value of each pixel by the rendering process, so that the pixel value of the plurality of pixels in the screen (image surface) is set. To get. As a result, projected image data of luminance information with the screen as the projection surface is formed.

レンダリングピッチ決定部40は、各視線上におけるレンダリング処理のサンプリング間隔であるレンダリングピッチ(図3のRp)を決定する。レンダリングピッチ決定部40は、診断対象のサイズ情報に基づいてレンダリングピッチを決定する。レンダリングピッチは、診断対象のサイズ情報から得られる有効厚みTを利用して決定される。 The rendering pitch determination unit 40 determines the rendering pitch (Rp in FIG. 3), which is the sampling interval of the rendering process on each line of sight. The rendering pitch determination unit 40 determines the rendering pitch based on the size information of the diagnosis target. The rendering pitch is determined by using the effective thickness T obtained from the size information of the diagnosis target.

有効厚みTは、レンダリング処理において投影画像データに反映されるデータの厚みである。例えば、胎児の頭部を通る視線上のレンダリング処理では、胎児の頭皮から頭蓋骨の内側付近までの組織に対応したデータが投影画像に大きく反映されるため、胎児の頭皮から頭蓋骨の内側付近までの厚さが有効厚みTとなる。 The effective thickness T is the thickness of the data reflected in the projected image data in the rendering process. For example, in the rendering process on the line of sight passing through the fetal head, the data corresponding to the tissue from the fetal scalp to the inside of the skull is largely reflected in the projected image, so that the data from the fetal scalp to the inside of the skull is greatly reflected. The thickness is the effective thickness T.

レンダリングピッチ決定部40は、診断対象のサイズ情報からその診断対象の有効厚みTを得る。診断対象が胎児の場合におけるサイズ情報の好適な具体例の一つが胎児の週数である。 The rendering pitch determination unit 40 obtains the effective thickness T of the diagnosis target from the size information of the diagnosis target. One of the preferred specific examples of size information when the diagnosis target is a foetation is the number of weeks of the foetation.

図4は、胎児の週数とその胎児のサイズとの対応関係の具体例を示す図である。図4(A)は、胎児の週数(横軸)とその胎児の頭径(縦軸)の対応関係を示すグラフである。また、図4(B)は、胎児の週数(横軸)と胎児の全長(縦軸)の対応関係を示すグラフである。 FIG. 4 is a diagram showing a specific example of the correspondence between the number of weeks of a foetation and the size of the foetation. FIG. 4A is a graph showing the correspondence between the number of weeks of the foetation (horizontal axis) and the head diameter of the foetation (vertical axis). Further, FIG. 4B is a graph showing the correspondence between the number of weeks of the foetation (horizontal axis) and the total length of the foetation (vertical axis).

例えば、図4に示すように、胎児の週数に応じた標準的な大きさ(頭径や全長など)は指標化されているため、胎児の週数からその胎児の標準的な大きさを知ることができる。そして、その胎児の大きさからその胎児の有効厚みTが導出される。 For example, as shown in FIG. 4, since the standard size (head diameter, total length, etc.) according to the number of weeks of the foetation is indexed, the standard size of the foetation is calculated from the number of weeks of the foetation. You can know. Then, the effective thickness T of the foetation is derived from the size of the foetation.

例えば、診断対象が胎児の頭部であれば、その胎児の週数から得られる頭径に対して一定の割合、例えば10パーセントがその胎児の有効厚みTとされる。この割合は例えば超音波診断装置の設計段階において決定される。もちろん、対象の異なるアプリケーション(例えば心臓)ごとに割合を切り替えてもよいし、ユーザが割合を調整可能な構成としてもよい。また、胎児の身体全体が診断対象となる場合には、例えば、その胎児の週数から得られる全長に応じて、その胎児の有効厚みTを決定すればよい。なお、診断対象となる胎児の週数は、例えば医師や検査技師などのユーザにより指定される。 For example, if the diagnosis target is the head of a foetation, the effective thickness T of the foetation is a fixed ratio, for example, 10% of the head diameter obtained from the number of weeks of the foetation. This ratio is determined, for example, at the design stage of the ultrasonic diagnostic apparatus. Of course, the ratio may be switched for each application having a different target (for example, the heart), or the ratio may be adjusted by the user. When the entire body of the foetation is to be diagnosed, for example, the effective thickness T of the foetation may be determined according to the total length obtained from the number of weeks of the foetation. The number of weeks of the foetation to be diagnosed is specified by a user such as a doctor or a laboratory technician.

また、診断対象となる胎児の頭径や全長などの計測値がサイズ情報とされてもよい。例えば、診断対象となる胎児の超音波診断により計測された頭径や全長などの計測値に基づいて、その胎児の有効厚みTが導出されてもよい。 In addition, measured values such as the head diameter and the total length of the foetation to be diagnosed may be used as size information. For example, the effective thickness T of the foetation may be derived based on the measured values such as the head diameter and the total length measured by the ultrasonic diagnosis of the foetation to be diagnosed.

図1に戻り、レンダリングピッチ決定部40は、診断対象のサイズ情報から得られる有効厚みTと目標サンプリング数Naに基づいて、例えば数1式により、診断対象に適合したレンダリングピッチ(Rp)を決定する。目標サンプリング数Naは、基準となる画質を実現するために必要とされるレンダリング処理のサンプル数であり、例えば図1の超音波診断装置の設計段階において決定される、もちろん、目標サンプリング数Naをユーザが調整可能な構成としてもよい。 Returning to FIG. 1, the rendering pitch determination unit 40 determines the rendering pitch (Rp) suitable for the diagnosis target by, for example, the equation 1 based on the effective thickness T obtained from the size information of the diagnosis target and the target sampling number Na. To do. The target sampling number Na is the number of samples of the rendering process required to realize the reference image quality. For example, the target sampling number Na is determined at the design stage of the ultrasonic diagnostic apparatus of FIG. The configuration may be adjustable by the user.

また、レンダリングピッチ決定部40は、診断対象のサイズ情報から得られる有効厚みTと目標サンプリング数Naに加え、スクリーン上における複数の視線の密度Srと、1つのボクセルの実空間内における長さPvを利用して、例えば数2式により、診断対象に適合したレンダリングピッチ(Rp)を決定してもよい。 Further, the rendering pitch determination unit 40 includes the effective thickness T obtained from the size information of the diagnosis target and the target sampling number Na, the density Sr of a plurality of lines of sight on the screen, and the length Pv of one voxel in the real space. May be used to determine the rendering pitch (Rp) suitable for the diagnosis target, for example, by the equation 2.

レンダリングピッチが決定されると、オパシティ決定部50は、決定されたレンダリングピッチに基づいて、レンダリング処理で利用される不透明度関数(オパシティカーブ)を決定する。オパシティ決定部50は、例えば、レンダリングピッチごとに定められた複数のオパシティカーブの中から、レンダリングピッチ決定部40において決定されたレンダリングピッチに対応したオパシティカーブを選択する。 When the rendering pitch is determined, the opacity determining unit 50 determines the opacity function (opacity curve) used in the rendering process based on the determined rendering pitch. The opacity determination unit 50 selects, for example, an opacity curve corresponding to the rendering pitch determined by the rendering pitch determination unit 40 from a plurality of opacity curves determined for each rendering pitch.

図5は、レンダリングピッチごとに定められた複数のオパシティカーブの具体例を示す図である。図5には、横軸を輝度値として縦軸を不透明度としたオパシティカーブが図示されている。各視線ごとのレンダリング処理では、オパシティカーブを利用して、各ボクセルの輝度値(ボクセル値)に対応した不透明度(オパシティ)が決定される。 FIG. 5 is a diagram showing a specific example of a plurality of opacity curves defined for each rendering pitch. FIG. 5 shows an opacity curve with the horizontal axis as the luminance value and the vertical axis as the opacity. In the rendering process for each line of sight, the opacity corresponding to the brightness value (voxel value) of each voxel is determined by using the opacity curve.

図5には、基準となるレンダリングピッチ「1」に対応したオパシティカーブC1と、レンダリングピッチ「3/4」に対応したオパシティカーブC2と、レンダリングピッチ「1/2」に対応したオパシティカーブC3と、レンダリングピッチ「1/4」に対応したオパシティカーブC4が図示されている。 In FIG. 5, an opacity curve C1 corresponding to the reference rendering pitch “1”, an opacity curve C2 corresponding to the rendering pitch “3/4”, and an opacity curve C3 corresponding to the rendering pitch “1/2” are shown. , The capacity curve C4 corresponding to the rendering pitch "1/4" is shown.

例えば、各視線上のレンダリング処理において、単位長さあたりの不透明度の程度(画像に与える影響)がレンダリングピッチに依らずに均一になるように、複数のオパシティカーブC1〜C4が定められる。そして、例えば複数のオパシティカーブC1〜C4に対応したデータがメモリ等に記憶される。 For example, in the rendering process on each line of sight, a plurality of opacity curves C1 to C4 are defined so that the degree of opacity per unit length (effect on the image) becomes uniform regardless of the rendering pitch. Then, for example, data corresponding to a plurality of opacity curves C1 to C4 is stored in a memory or the like.

オパシティ決定部50(図1)は、例えば、レンダリングピッチごとに定められた複数のオパシティカーブの中から、レンダリングピッチ決定部40において決定されたレンダリングピッチに対応したオパシティカーブを選択する。例えば、決定されたレンダリングピッチが「1」であればオパシティカーブC1が選択され、決定されたレンダリングピッチが「1/2」であればオパシティカーブC3が選択される。 The opacity determination unit 50 (FIG. 1) selects, for example, an opacity curve corresponding to the rendering pitch determined by the rendering pitch determination unit 40 from a plurality of opacity curves determined for each rendering pitch. For example, if the determined rendering pitch is "1", the opacity curve C1 is selected, and if the determined rendering pitch is "1/2", the opacity curve C3 is selected.

図5には、オパシティカーブの具体例として、4つのオパシティカーブC1〜C4を図示しているが、5つ以上の多数のレンダリングピッチに対応した多数のオパシティカーブが利用されてもよい。なお、決定されたレンダリングピッチと同じ値に対応したオパシティカーブが無ければ、例えば、決定されたレンダリングピッチに最も近い値に対応したオパシティカーブが選択されてもよい。 FIG. 5 illustrates four opacity curves C1 to C4 as specific examples of the opacity curves, but a large number of opacity curves corresponding to a large number of five or more rendering pitches may be used. If there is no opacity curve corresponding to the same value as the determined rendering pitch, for example, the opacity curve corresponding to the value closest to the determined rendering pitch may be selected.

また、例えばレンダリングピッチに基づいてオパシティカーブを補正することにより、決定されたレンダリングピッチに対応したオパシティカーブが生成されてもよい。例えば基準となるレンダリングピッチ「1」に対応したオパシティカーブC1のみが予め定められており、決定されたレンダリングピッチが「1/2」の場合に、オパシティカーブC1に対する補正処理によりオパシティカーブC3が生成されてもよい。また、任意のレンダリングピッチに対応したオパシティカーブを計算により導出するようにしてもよい。 Further, for example, by correcting the opacity curve based on the rendering pitch, the opacity curve corresponding to the determined rendering pitch may be generated. For example, when only the opacity curve C1 corresponding to the reference rendering pitch "1" is predetermined and the determined rendering pitch is "1/2", the opacity curve C3 is generated by the correction processing for the opacity curve C1. May be done. Further, the opacity curve corresponding to an arbitrary rendering pitch may be derived by calculation.

図1に戻り、レンダリング処理部30は、レンダリングピッチ決定部40により決定されたレンダリングピッチ(Rp)で、さらに、オパシティ決定部50により決定されたオパシティカーブを利用して、レンダリング処理(図2,図3参照)を実行する。 Returning to FIG. 1, the rendering processing unit 30 uses the rendering pitch (Rp) determined by the rendering pitch determining unit 40 and the opacity curve determined by the opacity determining unit 50 to perform rendering processing (FIGS. 2 and 2). (See Fig. 3) is executed.

画像形成部60は、レンダリング処理により複数の視線の各視線ごとに得られた画素値に基づいて超音波画像を形成する。画像形成部60は、レンダリング処理部30から得られる輝度情報の投影画像データに基づいて、例えば胎児などの診断対象を立体的に映し出した超音波画像を形成する。画像形成部60において形成された超音波画像は表示部62に表示される。 The image forming unit 60 forms an ultrasonic image based on the pixel values obtained for each of the plurality of lines of sight by the rendering process. The image forming unit 60 forms an ultrasonic image in which a diagnosis target such as a foetation is three-dimensionally projected based on the projected image data of the luminance information obtained from the rendering processing unit 30. The ultrasonic image formed in the image forming unit 60 is displayed on the display unit 62.

制御部100は、図1の超音波診断装置内を全体的に制御する。制御部100による全体的な制御には、操作デバイス70を介して医師や検査技師などのユーザから受け付けた指示も反映される。 The control unit 100 controls the inside of the ultrasonic diagnostic apparatus of FIG. 1 as a whole. The overall control by the control unit 100 also reflects instructions received from users such as doctors and laboratory technicians via the operation device 70.

図1に示す構成のうち、送受信部12,ボリューム構成部20,レンダリング処理部30,レンダリングピッチ決定部40,オパシティ決定部50,画像形成部60の各部は、例えば、電気電子回路やプロセッサ等のハードウェアを利用して実現することができ、その実現において必要に応じてメモリ等のデバイスが利用されてもよい。また上記各部に対応した機能の少なくとも一部がコンピュータにより実現されてもよい。つまり、上記各部に対応した機能の少なくとも一部が、CPUやプロセッサやメモリ等のハードウェアと、CPUやプロセッサの動作を規定するソフトウェア(プログラム)との協働により実現されてもよい。 Among the configurations shown in FIG. 1, each unit of the transmission / reception unit 12, the volume configuration unit 20, the rendering processing unit 30, the rendering pitch determination unit 40, the opacity determination unit 50, and the image formation unit 60 includes, for example, an electric / electronic circuit, a processor, or the like. It can be realized by using hardware, and a device such as a memory may be used as needed in the realization. Further, at least a part of the functions corresponding to each of the above parts may be realized by a computer. That is, at least a part of the functions corresponding to each of the above parts may be realized by the cooperation of hardware such as a CPU, a processor, and a memory, and software (program) that defines the operation of the CPU and the processor.

表示部62の好適な具体例は液晶ディスプレイや有機EL(エレクトロルミネッセンス)ディスプレイ等である。操作デバイス70は、例えばマウス、キーボード、トラックボール、タッチパネル、その他のスイッチ類等のうちの少なくとも一つにより実現できる。そして、制御部100は、例えば、CPUやプロセッサやメモリ等のハードウェアと、CPUやプロセッサの動作を規定するソフトウェア(プログラム)との協働により実現することができる。 Preferable specific examples of the display unit 62 are a liquid crystal display, an organic EL (electroluminescence) display, and the like. The operation device 70 can be realized by at least one of, for example, a mouse, a keyboard, a trackball, a touch panel, and other switches. The control unit 100 can be realized, for example, by cooperating with hardware such as a CPU, a processor, and a memory, and software (program) that defines the operation of the CPU and the processor.

また、図1に示す構成のうち、例えばレンダリング処理部30とレンダリングピッチ決定部40とオパシティ決定部50と画像形成部60の機能をコンピュータにより実現し、そのコンピュータを超音波画像処理装置として機能させてもよい。 Further, among the configurations shown in FIG. 1, for example, the functions of the rendering processing unit 30, the rendering pitch determining unit 40, the opacity determining unit 50, and the image forming unit 60 are realized by a computer, and the computer is made to function as an ultrasonic image processing device. You may.

以上、本発明の好適な実施形態を説明したが、上述した実施形態は、あらゆる点で単なる例示にすぎず、本発明の範囲を限定するものではない。本発明は、その本質を逸脱しない範囲で各種の変形形態を包含する。 Although preferred embodiments of the present invention have been described above, the above-described embodiments are merely examples in all respects, and do not limit the scope of the present invention. The present invention includes various modified forms without departing from its essence.

10 プローブ、12 送受信部、20 ボリューム構成部、30 レンダリング処理部、40 レンダリングピッチ決定部、50 オパシティ決定部、60 画像形成部、62 表示部、70 操作デバイス、100 制御部。 10 probe, 12 transmission / reception unit, 20 volume configuration unit, 30 rendering processing unit, 40 rendering pitch determination unit, 50 opacity determination unit, 60 image formation unit, 62 display unit, 70 operation device, 100 control unit.

Claims (4)

生体内の三次元空間に対する超音波の送受により得られた超音波のボリュームデータに基づいて、それに対して設定される複数の視線の各視線ごとに、サンプリングされた輝度値列に対して輝度値ごとに決定される不透明度を用いたレンダリング処理を実行するレンダリング処理手段と、
各視線上における前記レンダリング処理のサンプリング間隔であるレンダリングピッチを決定する手段であって、前記三次元空間内の診断対象のサイズ情報に基づいてレンダリングピッチを決定するピッチ決定手段と、
前記ピッチ決定手段により決定されたレンダリングピッチに応じて、前記レンダリング処理において輝度値に応じて不透明度を決定する不透明度関数を選択する不透明度関数選択手段と、
前記レンダリング処理により複数の視線の各視線ごとに得られる画素値に基づいて、前記診断対象の超音波画像を形成する画像形成手段と、
を有する、
ことを特徴とする超音波画像処理装置。
Based on the ultrasound volume data obtained by transmission and reception of ultrasonic for a three-dimensional space within a living body, to each of a plurality of line of sight of the sight line that is set for it, the luminance values for the sampled luminance value sequence Rendering processing means that executes rendering processing using the opacity determined for each, and
A means for determining a rendering pitch which is a sampling interval of the rendering process on each line of sight, and a pitch determining means for determining a rendering pitch based on size information of a diagnosis target in the three-dimensional space .
An opacity function selection means that selects an opacity function that determines opacity according to a luminance value in the rendering process according to the rendering pitch determined by the pitch determining means.
An image forming means for forming an ultrasonic image to be diagnosed based on a pixel value obtained for each line of sight of a plurality of lines of sight by the rendering process.
Have,
An ultrasonic image processing device characterized by this.
請求項1に記載の超音波画像処理装置において、
前記ピッチ決定手段は、診断対象のサイズ情報から得られる有効厚みと、基準となる画質を実現するための目標サンプリング数と、に基づいて当該診断対象に適合したレンダリングピッチを決定する、
ことを特徴とする超音波画像処理装置。
In the ultrasonic image processing apparatus according to claim 1,
The pitch determining means determines a rendering pitch suitable for the diagnosis target based on the effective thickness obtained from the size information of the diagnosis target and the target sampling number for realizing the reference image quality.
An ultrasonic image processing device characterized by this.
請求項1または2に記載の超音波画像処理装置において、
前記不透明度関数選択手段は、複数のレンダリングピッチに対応した複数の不透明度関数の中から、前記ピッチ決定手段により決定されたレンダリングピッチに応じて、使用する不透明度関数を選択する、
ことを特徴とする超音波画像処理装置。
In the ultrasonic image processing apparatus according to claim 1 or 2.
The opacity function selection means selects an opacity function to be used from a plurality of opacity functions corresponding to a plurality of rendering pitches according to the rendering pitch determined by the pitch determining means.
An ultrasonic image processing device characterized by this.
請求項1からのいずれか1項に記載の超音波画像処理装置において、
前記ピッチ決定手段は、前記診断対象である胎児のサイズ情報である週数に基づいて、当該胎児に適合したレンダリングピッチを決定する、
ことを特徴とする超音波画像処理装置。
In the ultrasonic image processing apparatus according to any one of claims 1 to 3 ,
It said pitch determining means, based on the number of weeks is the size information of the fetus is the diagnosis target, and determines the rendering pitch adapted to the fetus,
An ultrasonic image processing device characterized by this.
JP2017055314A 2017-03-22 2017-03-22 Ultrasonic image processing equipment Active JP6793075B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017055314A JP6793075B2 (en) 2017-03-22 2017-03-22 Ultrasonic image processing equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017055314A JP6793075B2 (en) 2017-03-22 2017-03-22 Ultrasonic image processing equipment

Publications (2)

Publication Number Publication Date
JP2018157873A JP2018157873A (en) 2018-10-11
JP6793075B2 true JP6793075B2 (en) 2020-12-02

Family

ID=63796241

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017055314A Active JP6793075B2 (en) 2017-03-22 2017-03-22 Ultrasonic image processing equipment

Country Status (1)

Country Link
JP (1) JP6793075B2 (en)

Also Published As

Publication number Publication date
JP2018157873A (en) 2018-10-11

Similar Documents

Publication Publication Date Title
JP6393703B2 (en) Continuously adaptive enhanced ultrasound imaging of subvolumes
JP4628645B2 (en) Ultrasonic diagnostic method and apparatus for creating an image from a plurality of 2D slices
JP4969985B2 (en) Ultrasonic diagnostic apparatus and control program for ultrasonic diagnostic apparatus
JP4382374B2 (en) Ultrasonic diagnostic equipment
CN106880378B (en) Image-based user interface for controlling medical imaging
JP5632680B2 (en) Ultrasonic image processing device
JP6556445B2 (en) Ultrasonic diagnostic apparatus, image processing apparatus, and image processing method
JP2007512870A (en) Imaging ultrasound diagnostics with automatic adjustment of beamforming
KR102014504B1 (en) Shadow suppression in ultrasound imaging
KR101100464B1 (en) Ultrasound system and method for providing three-dimensional ultrasound image based on sub region of interest
JP5525930B2 (en) Ultrasound diagnostic device for generating and displaying 3D ultrasound images
JP6073563B2 (en) Ultrasonic diagnostic apparatus, image processing apparatus, and image processing program
JP6415937B2 (en) Medical image processing apparatus, ultrasonic diagnostic apparatus, medical image processing method, and medical image processing program
JP7199972B2 (en) Information processing device, information processing method, program
JPH10277030A (en) Ultrasonic diagnostic system
KR20140137037A (en) ultrasonic image processing apparatus and method
US9050038B2 (en) Ultrasound diagnosis apparatus
JP6890677B2 (en) A virtual light source embedded in a 3D volume and coupled to the crosshairs in the MPR diagram
JP2013165922A (en) Ultrasonic diagnostic apparatus
JP6793075B2 (en) Ultrasonic image processing equipment
WO2013002351A1 (en) Ultrasound diagnostic device and medical image processing device
US10188367B2 (en) Ultrasound diagnostic device, ultrasound image processing method, and non-transitory computer-readable recording medium
JP2018068687A (en) Ultrasonic diagnosis device
JP4909137B2 (en) Volume data processing apparatus and method
JP6596907B2 (en) Ultrasound diagnostic imaging equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190626

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200728

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200915

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201109

R150 Certificate of patent or registration of utility model

Ref document number: 6793075

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250