JP2018157872A - Ultrasonic image processing device - Google Patents

Ultrasonic image processing device Download PDF

Info

Publication number
JP2018157872A
JP2018157872A JP2017055313A JP2017055313A JP2018157872A JP 2018157872 A JP2018157872 A JP 2018157872A JP 2017055313 A JP2017055313 A JP 2017055313A JP 2017055313 A JP2017055313 A JP 2017055313A JP 2018157872 A JP2018157872 A JP 2018157872A
Authority
JP
Japan
Prior art keywords
shielding
pixel
sight
depth
ultrasonic image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017055313A
Other languages
Japanese (ja)
Other versions
JP6793074B2 (en
Inventor
剛啓 辻田
Takeyoshi Tsujita
剛啓 辻田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2017055313A priority Critical patent/JP6793074B2/en
Publication of JP2018157872A publication Critical patent/JP2018157872A/en
Application granted granted Critical
Publication of JP6793074B2 publication Critical patent/JP6793074B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

PROBLEM TO BE SOLVED: To achieve shielding processing suitable for an ultrasonic image.SOLUTION: An evaluation region 52 is a rectangular region (a cube) around coordinates P corresponding to the depth of a pixel of attention. A shielding ratio calculation part calculates a shielding ratio of the pixel of attention based on a plurality of differential values acquired from a plurality of visual lines 34 passing through the inside of the evaluation region 52 by acquiring a differential value between a depth to a shield portion and a depth to a border of the evaluation region 52 for each visual line 34 passing through the inside of the evaluation region 52. The shielding ratio calculation part calculates the differential value between the depth to the shield portion and the depth to the border of the evaluation region 52 for each visual line 34 passing through the inside of the evaluation region 52 using depth data stored in a depth data storage part.SELECTED DRAWING: Figure 3

Description

本発明は、超音波画像処理装置に関する。   The present invention relates to an ultrasonic image processing apparatus.

超音波を送受することにより得られたデータに基づいて超音波画像を形成する超音波画像処理装置の代表例が超音波診断装置である。超音波画像としては、例えばBモード画像やカラードプラ画像などの二次元画像が良く知られている。また、超音波を送受することにより立体的に得られるボリュームデータに基づいて、生体内の組織や胎児などを立体的に映し出す超音波画像(三次元超音波画像)を形成する装置も知られている(例えば特許文献1参照)。   A typical example of an ultrasonic image processing apparatus that forms an ultrasonic image based on data obtained by transmitting and receiving ultrasonic waves is an ultrasonic diagnostic apparatus. As the ultrasound image, for example, a two-dimensional image such as a B-mode image or a color Doppler image is well known. Also known is an apparatus that forms an ultrasonic image (three-dimensional ultrasonic image) that three-dimensionally displays a tissue or fetus in a living body based on volume data obtained three-dimensionally by transmitting and receiving ultrasonic waves. (For example, refer to Patent Document 1).

ところで、コンピュータグラフィックスの分野では、アンビエントオクルージョン(環境遮蔽)と呼ばれる画像処理技術が知られている(例えば特許文献2参照)。アンビエントオクルージョンでは、画像内の各画素が周囲のシーンによってどれくらい遮蔽されているのかに応じて各画素における環境光の影響が評価される。アンビエントオクルージョンにより、画像に対して自然な陰影効果を与えることができる。   Meanwhile, in the field of computer graphics, an image processing technique called ambient occlusion (environmental shielding) is known (see, for example, Patent Document 2). In ambient occlusion, the influence of ambient light on each pixel is evaluated according to how much each pixel in the image is shielded by the surrounding scene. Ambient occlusion can provide a natural shading effect to the image.

特開2012−5593号公報JP 2012-5593 A 米国特許第8878849号明細書U.S. Pat. No. 8,878,849

例えばアンビエントオクルージョンなどの遮蔽処理(画像処理)を利用することにより超音波画像にも自然な陰影効果を与えることが期待される。しかし、例えばアンビエントオクルージョンなどの遮蔽処理の演算量は膨大であるため、超音波画像に適した遮蔽処理の実現が望ましい。   For example, it is expected that a natural shading effect is also given to an ultrasonic image by using a shielding process (image processing) such as ambient occlusion. However, for example, since the amount of computation for shielding processing such as ambient occlusion is enormous, it is desirable to realize shielding processing suitable for an ultrasound image.

そこで、本発明は、超音波画像に好適な遮蔽処理を実現することを目的とする。例えば、比較的少ない演算量で自然な陰影効果を得ることができる遮蔽処理の実現が望ましい。   Therefore, an object of the present invention is to realize a shielding process suitable for an ultrasonic image. For example, it is desirable to realize a shielding process capable of obtaining a natural shadow effect with a relatively small amount of calculation.

本発明の態様として好適な超音波画像処理装置は、超音波のボリュームデータに基づく演算により複数の視線から各視線ごとに得られる輝度情報を画像面内の各画素の画素値とすることにより、画像面内の複数画素の画素値を得る演算手段と、画像面内の各画素を注目画素とし、注目画素に対応した深さにある立体的な評価領域内を遮蔽部位が占める割合に応じて注目画素の遮蔽度を算出する手段であって、評価領域内を通る各視線ごとに遮蔽部位までの深さと評価領域の境界までの深さの差分値を得ることにより、評価領域内を通る複数の視線から得られる複数の差分値に基づいて、注目画素の遮蔽度を算出する遮蔽度算出手段と、画像面内の複数画素の各々を注目画素として各画素ごとに算出される遮蔽度を用いて当該各画素の画素値を補正して遮蔽処理後の画素値とすることにより、画像面内の複数画素の遮蔽処理後の画素値を得る遮蔽処理手段と、画像面内の複数画素の遮蔽処理後の画素値に基づいて超音波画像を形成する画像形成手段を有することを特徴とする。   An ultrasonic image processing apparatus suitable as an aspect of the present invention uses the luminance information obtained for each line of sight from a plurality of lines of sight by calculation based on ultrasonic volume data, as the pixel value of each pixel in the image plane, According to the calculation means for obtaining pixel values of a plurality of pixels in the image plane, and each pixel in the image plane as a target pixel, and according to the ratio of the shielding part in the three-dimensional evaluation area at a depth corresponding to the target pixel A means for calculating the degree of occlusion of the target pixel, and for each line of sight passing through the evaluation area, a plurality of values passing through the evaluation area by obtaining a difference value between the depth to the shielding part and the depth to the boundary of the evaluation area. Based on a plurality of difference values obtained from the line of sight, a shielding degree calculating means for calculating a shielding degree of the target pixel and a shielding degree calculated for each pixel with each of the plurality of pixels in the image plane as the target pixel are used. The pixel value of each pixel Based on the pixel value after the shielding process of the plurality of pixels in the image plane and the shielding processing means for obtaining the pixel value after the shielding process of the plurality of pixels in the image plane by correctly setting the pixel value after the shielding process. It has the image formation means which forms an ultrasonic image, It is characterized by the above-mentioned.

上記装置では、評価領域内を通る各視線ごとに遮蔽部位までの深さと評価領域の境界までの深さの差分値を得ることにより、評価領域内を通る複数の視線から得られる複数の差分値に基づいて注目画素の遮蔽度が算出される。上記装置によれば、遮蔽部位までの深さと評価領域の境界までの深さの差分値に基づいて遮蔽度が算出されるため、例えば、演算量が膨大な空間積分などの演算を利用して遮蔽度を算出する場合に比べて、演算量を大幅に削減できる。また、上記装置では、各画素ごとに算出される遮蔽度を用いて当該各画素の画素値を補正して遮蔽処理後の画素値が得られる。これにより、例えば自然な陰影をもった超音波画像を形成することができる。   In the above apparatus, a plurality of difference values obtained from a plurality of lines of sight passing through the evaluation region by obtaining a difference value between the depth to the shielding part and the depth to the boundary of the evaluation region for each line of sight passing through the evaluation region. Based on this, the degree of occlusion of the target pixel is calculated. According to the above apparatus, since the degree of shielding is calculated based on the difference value between the depth to the shielding part and the depth to the boundary of the evaluation region, for example, using computation such as spatial integration with a large amount of computation Compared with the case of calculating the shielding degree, the amount of calculation can be greatly reduced. Moreover, in the said apparatus, the pixel value after the shielding process is obtained by correcting the pixel value of each pixel using the shielding degree calculated for each pixel. Thereby, for example, an ultrasonic image having a natural shadow can be formed.

例えば、前記遮蔽度算出手段は、前記画像面内の2方向に対応したX軸とY軸と前記各視線の方向に対応したZ軸とにより構成される3次元座標系において、X軸方向とY軸方向とZ軸方向に広がって注目画素に対応した座標を取り囲む3次元領域を前記評価領域とすることが望ましい。Z軸方向は各視線の方向に対応しており、複数の視線が例えばX軸方向とY軸方向によって特定される面内に二次元的に配列される。この構成において、評価領域はX軸方向とY軸方向とZ軸方向に広がっており、複数の視線の幾何学的な配置に適合した評価領域が実現される。なお、評価領域の形状の好適な具体例は直方体または立方体であるがこれらの形状に限定されない。評価領域は、例えばZ軸方向を高さとする柱状(円柱、楕円柱、三角柱、多角柱)などの形状であってもよい。   For example, in the three-dimensional coordinate system including the X axis corresponding to two directions in the image plane, the Y axis, and the Z axis corresponding to the direction of each line of sight, the shielding degree calculating unit It is desirable that a three-dimensional region that extends in the Y-axis direction and the Z-axis direction and surrounds the coordinates corresponding to the target pixel is the evaluation region. The Z-axis direction corresponds to the direction of each line of sight, and a plurality of lines of sight are two-dimensionally arranged in a plane specified by, for example, the X-axis direction and the Y-axis direction. In this configuration, the evaluation area extends in the X-axis direction, the Y-axis direction, and the Z-axis direction, and an evaluation area suitable for the geometrical arrangement of a plurality of lines of sight is realized. In addition, although the preferable specific example of the shape of an evaluation area | region is a rectangular parallelepiped or a cube, it is not limited to these shapes. For example, the evaluation region may have a columnar shape (a cylinder, an elliptical column, a triangular column, a polygonal column) having a height in the Z-axis direction.

また、前記遮蔽度算出手段は、前記評価領域内を通る各視線ごとにZ軸方向の演算結果として前記差分値を算出し、前記評価領域内を通りX軸方向とY軸方向に2次元的に並ぶ複数の視線からZ軸方向の演算結果として得られる複数の前記差分値に基づいて、前記評価領域に対応した注目画素の遮蔽度を算出することが望ましい。この構成によれば、評価領域内を通る複数の視線から各視線ごとに差分値を得ることにより注目画素の遮蔽度を算出することができる。例えば、評価領域内を通る全ての視線から差分値を得てもよいし、評価領域内を通る全ての視線の中から離散的に選択される複数の視線から差分値を得るようにしてもよい。   The shielding degree calculation means calculates the difference value as a calculation result in the Z-axis direction for each line of sight passing through the evaluation area, and passes through the evaluation area in a two-dimensional manner in the X-axis direction and the Y-axis direction. It is desirable to calculate the degree of occlusion of the target pixel corresponding to the evaluation region based on a plurality of the difference values obtained as a calculation result in the Z-axis direction from a plurality of lines of sight. According to this configuration, the degree of occlusion of the pixel of interest can be calculated by obtaining a difference value for each line of sight from a plurality of lines of sight passing through the evaluation region. For example, the difference value may be obtained from all the lines of sight that pass through the evaluation area, or the difference value may be obtained from a plurality of lines of sight that are discretely selected from all the lines of sight that pass through the evaluation area. .

また、前記遮蔽処理手段は、前記遮蔽度を用いて各画素の画素値を補正するにあたり、前記超音波画像の拡大率に応じた補正を加えて、当該各画素の遮蔽処理後の画素値を得ることが望ましい。この構成によれば、超音波画像の拡大率に応じて遮蔽処理の程度を調整することができる。例えば、拡大率が大きいほど遮蔽の程度を強めることにより、超音波画像の見た目の印象を向上させることができる。   Further, when correcting the pixel value of each pixel using the shielding degree, the shielding processing unit adds a correction according to the magnification ratio of the ultrasonic image, and calculates the pixel value after the shielding process of each pixel. It is desirable to obtain. According to this configuration, the degree of the shielding process can be adjusted according to the magnification rate of the ultrasonic image. For example, it is possible to improve the appearance impression of the ultrasonic image by increasing the degree of shielding as the enlargement ratio increases.

また、前記超音波画像処理装置は、複数の視線の各視線ごとに遮蔽部位までの深さを示す深度データを記憶する記憶手段をさらに有し、前記遮蔽度算出手段は、前記記憶手段に記憶された深度データを利用して評価領域内を通る各視線ごとに遮蔽部位までの深さと評価領域の境界までの深さの差分値を算出することが望ましい。この構成によれば、記憶手段に記憶された深度データを利用して深さの差分値を算出することができるため、遮蔽度算出手段における演算負荷が低減される。   The ultrasonic image processing apparatus further includes storage means for storing depth data indicating the depth to the shielding portion for each line of sight of the plurality of lines of sight, and the shielding degree calculation means is stored in the storage means. It is desirable to calculate a difference value between the depth to the shielding part and the depth to the boundary of the evaluation region for each line of sight passing through the evaluation region using the obtained depth data. According to this configuration, since the depth difference value can be calculated using the depth data stored in the storage unit, the calculation load on the shielding degree calculation unit is reduced.

さらに、上述した好適な超音波画像処理装置(望ましい具体例を含む)が備える各部に対応した機能がコンピュータ(タブレット型の端末を含む)により実現されてもよい。例えば、前記演算手段としての機能と、前記遮蔽度算出手段としての機能と、前記遮蔽処理手段としての機能と、前記画像形成手段としての機能をコンピュータに実現させるプログラムにより、コンピュータを上述した好適な超音波画像処理装置として機能させることができる。なお、そのプログラムは、例えば、ディスクやメモリなどのコンピュータが読み取り可能な記憶媒体に記憶され、その記憶媒体を介してコンピュータに提供されてもよいし、インターネットなどの電気通信回線を介してコンピュータに提供されてもよい。   Furthermore, the function corresponding to each part with which the above-mentioned suitable ultrasonic image processing apparatus (including a desirable specific example) is provided may be realized by a computer (including a tablet terminal). For example, the computer described above is preferable by a program that causes a computer to realize the function as the calculation unit, the function as the shielding degree calculation unit, the function as the shielding processing unit, and the function as the image forming unit. It can function as an ultrasonic image processing apparatus. The program may be stored in a computer-readable storage medium such as a disk or a memory, and may be provided to the computer via the storage medium, or may be provided to the computer via an electric communication line such as the Internet. May be provided.

本発明により、超音波画像に好適な遮蔽処理が実現される。例えば、本発明の好適な態様によれば、遮蔽部位までの深さと評価領域の境界までの深さの差分値に基づいて遮蔽度を算出することにより、例えば演算量が膨大な空間積分などの演算を利用して遮蔽度を算出する場合に比べて、演算量を大幅に削減できる。また、本発明の好適な態様によれば、各画素ごとに算出される遮蔽度を用いて当該各画素の画素値を補正して遮蔽処理後の画素値を得ることにより、例えば自然な陰影をもった超音波画像を形成することができる。   According to the present invention, a shielding process suitable for an ultrasonic image is realized. For example, according to a preferred aspect of the present invention, by calculating the shielding degree based on the difference value between the depth to the shielding part and the depth to the boundary of the evaluation region, for example, a spatial integration with a large amount of calculation, etc. Compared to the case where the degree of shielding is calculated using calculation, the calculation amount can be greatly reduced. Further, according to a preferred aspect of the present invention, for example, a natural shadow is obtained by correcting the pixel value of each pixel using the shielding degree calculated for each pixel to obtain a pixel value after the shielding process. An ultrasonic image can be formed.

本発明の好適な具体例である超音波診断装置の全体構成図である。1 is an overall configuration diagram of an ultrasonic diagnostic apparatus that is a preferred specific example of the present invention. レンダリング演算の具体例を示す図である。It is a figure which shows the specific example of a rendering calculation. 立体的な評価領域の具体例を示す図である。It is a figure which shows the specific example of a three-dimensional evaluation area | region. 超音波画像の拡大率を説明するための図である。It is a figure for demonstrating the expansion rate of an ultrasonic image.

図1は、本発明に係る超音波画像処理装置の好適な具体例である超音波診断装置の全体構成図である。プローブ10は、三次元画像用の超音波探触子であり、例えば胎児などの診断対象を含む三次元空間内において超音波を送受する。例えば、二次元的に配列された複数の振動素子を備える二次元アレイプローブ(マトリクスアレイプローブ)や、一次元的に配列された複数の振動素子を機械的に動かすメカニカルプローブなどがプローブ10の好適な具体例である。   FIG. 1 is an overall configuration diagram of an ultrasonic diagnostic apparatus which is a preferred specific example of an ultrasonic image processing apparatus according to the present invention. The probe 10 is an ultrasonic probe for a three-dimensional image, and transmits and receives ultrasonic waves in a three-dimensional space including a diagnostic object such as a fetus. For example, the probe 10 is preferably a two-dimensional array probe (matrix array probe) including a plurality of vibration elements arranged two-dimensionally or a mechanical probe that mechanically moves a plurality of vibration elements arranged one-dimensionally. This is a specific example.

送受信部12は、送信ビームフォーマおよび受信ビームフォーマとしての機能を備えている。つまり、送受信部12は、プローブ10が備える複数の振動素子の各々に対して送信信号を出力することにより送信ビームを形成し、さらに、複数の振動素子から得られる複数の受波信号に対して整相加算処理などを施して受信ビームを形成する。   The transmission / reception unit 12 has functions as a transmission beamformer and a reception beamformer. That is, the transmission / reception unit 12 forms a transmission beam by outputting a transmission signal to each of the plurality of vibration elements included in the probe 10, and further receives a plurality of reception signals obtained from the plurality of vibration elements. A reception beam is formed by performing phasing addition processing or the like.

また、送受信部12は、例えば、診断対象を含む三次元空間内において、超音波ビーム(送信ビームと受信ビーム)を立体的に走査する。これにより、診断対象を含む三次元空間内から超音波の受信データが収集される。   In addition, the transmission / reception unit 12 three-dimensionally scans the ultrasonic beam (transmission beam and reception beam) in a three-dimensional space including the diagnosis target. Thereby, ultrasonic reception data is collected from within the three-dimensional space including the diagnosis target.

ボリューム構成部20は、三次元空間内から得られた受信データに対してリコンストラクション処理を施すことにより、三次元空間に対応したボリュームデータを形成する。ボリューム構成部20は、走査座標系(例えばrθφ座標系)で得られた受信データに対して、座標変換処理や補間処理などのリコンストラクション処理を施し、直交座標系(例えばxyz座標系)に対応したボリュームデータを形成する。ボリュームデータは、例えば直交座標系のデータ空間内において三次元的に配列された複数のボクセルデータで構成される。   The volume construction unit 20 forms volume data corresponding to the three-dimensional space by performing a reconstruction process on the received data obtained from the three-dimensional space. The volume configuration unit 20 performs reconstruction processing such as coordinate conversion processing and interpolation processing on the received data obtained in the scanning coordinate system (for example, rθφ coordinate system), and supports the orthogonal coordinate system (for example, xyz coordinate system). Formed volume data. The volume data is composed of, for example, a plurality of voxel data arranged three-dimensionally in a data space of an orthogonal coordinate system.

レンダリング演算部30は、ボリュームデータを構成する複数のボクセルデータに基づいてレンダリング演算(ボクセル演算)を実行する。   The rendering calculation unit 30 performs a rendering calculation (voxel calculation) based on a plurality of voxel data constituting the volume data.

図2は、レンダリング演算の具体例を示す図である。レンダリング演算(レンダリング処理)においては、三次元空間に対応したボリュームデータ32の外側に演算上の仮想的な視点が設定され、その視点側からボリュームデータ32に対して複数の視線(レイ)34が設定される。さらに、画像面として機能する演算上のスクリーン36が設定される。なお、図2において、スクリーン36は、ボリュームデータ32を間に挟んで、視点の反対側に図示されているが、ボリュームデータ32よりも視点側に配置されて、後に詳述する深さの基準位置とされてもよい。   FIG. 2 is a diagram illustrating a specific example of the rendering operation. In the rendering calculation (rendering process), a virtual viewpoint for calculation is set outside the volume data 32 corresponding to the three-dimensional space, and a plurality of lines of sight (rays) 34 are formed with respect to the volume data 32 from the viewpoint side. Is set. Further, an arithmetic screen 36 that functions as an image plane is set. In FIG. 2, the screen 36 is illustrated on the opposite side of the viewpoint with the volume data 32 interposed therebetween, but is disposed on the viewpoint side with respect to the volume data 32, and a depth reference that will be described in detail later. It may be a position.

レンダリング演算では、ボリュームデータ32に対して設定された複数の視線(レイ)の各視線ごとに、その視線に対応した複数のボクセルデータが処理対象となる。例えば、ボリュームデータ32を構成する複数のボクセルデータから、補間処理などにより、各視線に対応した(各視線上に並ぶ)複数のボクセルデータが得られる。   In the rendering operation, for each line of sight set for the volume data 32, a plurality of voxel data corresponding to the line of sight is processed. For example, a plurality of voxel data corresponding to each line of sight (aligned on each line of sight) is obtained from a plurality of voxel data constituting the volume data 32 by interpolation processing or the like.

図1に戻り、レンダリング演算部30は、輝度のレンダリング演算により、複数の視線から各視線ごとに得られる輝度情報を各画素の画素値とすることにより、スクリーン(画像面)内の複数画素の画素値を得る。これにより、スクリーンを投影面とする輝度情報の投影画像データが形成される。   Returning to FIG. 1, the rendering calculation unit 30 sets the luminance information obtained for each line of sight from a plurality of lines of sight by using the luminance rendering calculation to obtain the pixel value of each pixel, so that a plurality of pixels in the screen (image plane) are obtained. Get the pixel value. Thereby, projection image data of luminance information with the screen as the projection plane is formed.

輝度のレンダリング処理では、各視線ごとに、視点側からその視線に対応した複数のボクセルデータ(ボクセルの輝度情報)に対して、不透明度(オパシティ)を用いたレンダリング法に基づくボクセル演算が逐次的に実行される。そして、各視線ごとに最終のボクセル演算の結果としてその視線に対応した輝度情報が決定され、複数の視線から各視線ごとに得られる輝度情報をスクリーン内の各画素にマッピングすることにより、スクリーンを投影面とする輝度情報の投影画像データが形成される。輝度情報の投影画像データは遮蔽処理部60に出力される。   In luminance rendering processing, for each line of sight, voxel computation based on a rendering method using opacity (opacity) is sequentially performed on a plurality of voxel data (luminance information of voxels) corresponding to the line of sight from the viewpoint side. To be executed. Then, luminance information corresponding to the line of sight is determined for each line of sight as a result of the final voxel calculation, and the luminance information obtained for each line of sight from a plurality of lines of sight is mapped to each pixel in the screen, thereby making the screen Projection image data of luminance information as a projection plane is formed. The projection image data of the luminance information is output to the shielding processing unit 60.

また、レンダリング演算部30は、複数の視線から各視線ごとに得られる深度情報を各画素に対応付けた深度情報の投影画像データを形成する。深度情報の投影画像データの好適な具体例は、特許文献1に記載される距離投影画像データである。   The rendering calculation unit 30 forms projection image data of depth information in which depth information obtained for each line of sight from a plurality of lines of sight is associated with each pixel. A preferred specific example of the projection image data of depth information is the distance projection image data described in Patent Document 1.

レンダリング演算部30は、例えば特許文献1の第0023段落等に詳述される距離のレンダリング処理を実行して、複数の視線の各視線ごとに距離Doutを算出し、各視線ごとに算出される距離Doutをスクリーン(画像面)内の各画素に対応付けることにより、スクリーンを投影面とする距離投影画像データを得る。距離Doutは、例えば数1式により算出される。 Rendering computer 30, for example by performing a rendering process of a distance which is detailed in the 0023 paragraph etc. of Patent Document 1 calculates the distance D out for each line of sight of the plurality of line of sight, is calculated for each line of sight by associating that distance D out to each pixel in the screen (image plane) to obtain the distance projection image data for the screen and the projection plane. The distance D out is calculated by, for example, Equation 1.

数1式において、距離Dは各視線上に存在するi番目(iは自然数)のボクセルの距離であり、例えばボリュームデータ内のボクセルピッチから算定される。Aは各視線上に存在するi番目のボクセルの輝度値に対応した不透明度であり、また、不透明度の積算値であるAout−1は数2式により算出される。 In Equation 1, the distance D i is the distance of the i-th voxel (i is a natural number) existing on each line of sight, and is calculated from, for example, the voxel pitch in the volume data. A i is the opacity corresponding to the luminance value of the i-th voxel present on each line of sight, and A out−1, which is an integrated value of the opacity, is calculated by Equation 2.

距離のレンダリング処理により算出される距離Doutは、各視線上に並ぶ複数のボクセルの距離Dを不透明度Aを利用して積算したものであり、その視線上における輝度のレンダリング処理と同じ条件(Aout=1または視線上の最終ボクセル)で積算が終了する。 The distance D out calculated by the distance rendering process is obtained by integrating the distances D i of a plurality of voxels arranged on each line of sight using the opacity A i , and is the same as the luminance rendering process on the line of sight. Integration ends with the condition (A out = 1 or the last voxel on the line of sight).

距離Doutは、各視線上における基準位置(例えばボリュームデータよりも視点側に設定されるスクリーンの位置)からの積算距離であり、各視線上において基準位置側から見た深さに対応する。そこで、例えば複数の視線の各視線ごとに算出された距離Doutが各視線の深度データとして、深度データ記憶部40に記憶される。 The distance Dout is an integrated distance from a reference position on each line of sight (for example, a screen position set on the viewpoint side with respect to the volume data), and corresponds to a depth viewed from the reference position side on each line of sight. Therefore, for example, the distance D out calculated for each line of sight is stored in the depth data storage unit 40 as depth data for each line of sight.

遮蔽処理部60は、レンダリング演算により得られた超音波画像、例えば胎児等の診断対象を立体的に表現した輝度情報の投影画像データに対して、陰影効果を与えるための遮蔽処理を実行する。自然な陰影効果を得るために、超音波画像内の注目点が周囲の環境からの光である環境光の影響をどの程度受けているのかが評価される。その評価において、例えば、アンビエントオクルージョン(環境遮蔽)の考え方を利用することが望ましい。   The shielding processing unit 60 executes shielding processing for giving a shadow effect to the ultrasound image obtained by the rendering operation, for example, projection image data of luminance information that three-dimensionally represents a diagnosis target such as a fetus. In order to obtain a natural shadow effect, it is evaluated how much the attention point in the ultrasonic image is affected by the ambient light, which is light from the surrounding environment. In the evaluation, for example, it is desirable to use the concept of ambient occlusion (environmental shielding).

アンビエントオクルージョン(環境遮蔽)では、注目点が周囲の環境によってどのくらい遮蔽されているのかを検討する。つまり注目点における遮蔽度(遮蔽の程度)が評価される。その遮蔽度を評価する数値の具体例が遮蔽率であり、遮蔽率算出部50において算出される。   Ambient occlusion (environmental occlusion) considers how much the point of interest is occluded by the surrounding environment. That is, the degree of shielding (degree of shielding) at the point of interest is evaluated. A specific example of a numerical value for evaluating the degree of shielding is the shielding rate, which is calculated by the shielding rate calculation unit 50.

遮蔽率算出部50は、スクリーン(画像面)内の各画素を注目画素とし、注目画素に対応した深さにある立体的な評価領域内を遮蔽部位が占める割合に応じて、その注目画素の遮蔽率を算出する。   The shielding rate calculation unit 50 uses each pixel in the screen (image plane) as a target pixel, and according to the proportion of the target region in the three-dimensional evaluation region at a depth corresponding to the target pixel, The shielding rate is calculated.

図3は、立体的な評価領域の具体例を示す図である。図3には、矩形(立方体)の評価領域52が図示されている。図3に示すXYZ座標系において、X軸はスクリーン36の横方向に対応しており、Y軸はスクリーン36の縦方向に対応している。また、Z軸は、スクリーン36に対して直交する各視線34の方向に対応している。   FIG. 3 is a diagram illustrating a specific example of a three-dimensional evaluation region. FIG. 3 shows a rectangular (cubic) evaluation area 52. In the XYZ coordinate system shown in FIG. 3, the X axis corresponds to the horizontal direction of the screen 36, and the Y axis corresponds to the vertical direction of the screen 36. Further, the Z axis corresponds to the direction of each line of sight 34 orthogonal to the screen 36.

図3に示す具体例の評価領域52は、注目画素の深さに対応した座標Pを中心として、X軸Y軸Z軸の各軸方向の幅が(2K+1)個(Kは自然数)のサンプル点に対応した矩形領域(立方体)である。例えばX軸方向に(2K+1)本かつY軸方向に(2K+1)本の合計(2K+1)×(2K+1)本の視線34が評価領域52を通過する。   The evaluation area 52 of the specific example shown in FIG. 3 is a sample whose width in each axial direction of the X axis, the Y axis, and the Z axis is (2K + 1) (K is a natural number) with the coordinate P corresponding to the depth of the target pixel as the center. A rectangular area (cube) corresponding to the point. For example, a total of (2K + 1) × (2K + 1) lines of sight 34 (2K + 1) in the X-axis direction and (2K + 1) in the Y-axis direction pass through the evaluation region 52.

遮蔽率算出部50(図1)は、評価領域52内を通る各視線34ごとに遮蔽部位までの深さと評価領域52の境界までの深さの差分値を得ることにより、評価領域52内を通る複数の視線34から得られる複数の差分値に基づいて注目画素の遮蔽率を算出する。   The shielding rate calculation unit 50 (FIG. 1) obtains a difference value between the depth to the shielding part and the depth to the boundary of the evaluation region 52 for each line of sight 34 that passes through the evaluation region 52. Based on a plurality of difference values obtained from a plurality of lines of sight 34 that pass through, a shielding rate of the target pixel is calculated.

遮蔽率算出部50は、深度データ記憶部40(図1)に記憶された深度データを利用して評価領域52内を通る各視線34ごとに遮蔽部位までの深さと評価領域52の境界までの深さの差分値を算出する。   The shielding rate calculation unit 50 uses the depth data stored in the depth data storage unit 40 (FIG. 1) to determine the depth to the shielding part and the boundary of the evaluation region 52 for each line of sight 34 that passes through the evaluation region 52. The depth difference value is calculated.

深度データ記憶部40には、複数の視線34の各視線34ごとに遮蔽部位までの深さを示す深度データが記憶される。例えばレンダリング演算部30(図1)における距離のレンダリング処理により、各視線34ごとに算出された距離Doutが深度データの好適な具体例であり、各視線34ごとに算出された距離Doutが遮蔽部位までの深さとされる。 The depth data storage unit 40 stores depth data indicating the depth to the shielding part for each line of sight 34. For example, by rendering the distance in rendering computer 30 (FIG. 1), the distance D out which is calculated for each line of sight 34 is a preferred embodiment of the depth data, the distance D out is calculated for each line of sight 34 It is the depth to the shielding part.

遮蔽率算出部50は、深度データ記憶部40に記憶された深度データに基づいて、例えば数3式を利用することにより、座標(x,y)の注目画素の遮蔽率k(x,y)を算出する。 Based on the depth data stored in the depth data storage unit 40, the shielding rate calculation unit 50 uses, for example, Equation 3 to cover the shielding rate k A (x, y) of the pixel of interest at the coordinates (x, y). ) Is calculated.

数3式において、z(x+i,y+j)は座標(x+i,y+j)を通る視線34の深度データである。z(x,y)は座標(x,y)を通る視線34の深度データであり、注目画素の深さに対応する。また(z(x,y)−K)は、注目画素の深さz(x,y)よりも距離Kだけ浅い位置の深さであり、評価領域52の開始面のz座標(Z軸上の位置)となる。   In Equation 3, z (x + i, y + j) is the depth data of the line of sight 34 that passes through the coordinates (x + i, y + j). z (x, y) is depth data of the line of sight 34 passing through the coordinates (x, y), and corresponds to the depth of the target pixel. Further, (z (x, y) −K) is a depth at a position shallower than the depth z (x, y) of the target pixel by the distance K, and the z coordinate (on the Z axis) of the start surface of the evaluation region 52 Position).

また、X軸方向のサンプル番号(サンプルとなる視線を特定する番号)のiは−Kから+Kの範囲の値であり、Y軸方向のサンプル番号(サンプルとなる視線を特定する番号)のjも−Kから+Kの範囲の値となる。   Further, i of the sample number in the X-axis direction (number for identifying the line of sight as a sample) is a value in the range of −K to + K, and j for the sample number in the Y-axis direction (number for identifying the line of sight as a sample). Is also in the range of -K to + K.

数3式を利用した演算では、評価領域52内を通る全ての視線34を対象とすることが望ましい。なお、数3式の演算は、評価領域52内を遮蔽部位が占める割合(比)を評価するものであるため、評価領域52内を通る全ての視線34を対象とせずに離散的にサンプリングされた複数の視線34のみを対象として演算を簡略化してもよい。   In the calculation using Equation 3, it is desirable to target all lines of sight 34 that pass through the evaluation area 52. In addition, since the calculation of Formula 3 is to evaluate the ratio (ratio) of the shielding part in the evaluation area 52, it is sampled discretely without targeting all the lines of sight 34 that pass through the evaluation area 52. The calculation may be simplified only for a plurality of lines of sight 34.

数3式を利用した演算において、Z軸方向つまり視線方向については、深さの差分値が利用されるため、視線方向に並ぶ全点(全ボクセル)をサンプリング対象とした場合に相当する演算結果を得ることができる。   In the calculation using Equation 3, since the depth difference value is used in the Z-axis direction, that is, the line-of-sight direction, the calculation result corresponding to the case where all points (all voxels) arranged in the line-of-sight direction are subject to sampling. Can be obtained.

遮蔽率算出部50は、スクリーン36内の全画素の各々を注目画素とし、例えば数3式を利用して各画素ごとに遮蔽率を算出する。   The shielding rate calculation unit 50 uses all the pixels in the screen 36 as the target pixel, and calculates the shielding rate for each pixel by using, for example, Equation 3.

図1に戻り、遮蔽処理部60は、レンダリング演算部30による輝度のレンダリング演算により得られた超音波画像、例えば胎児等の診断対象を立体的に表現した輝度情報の投影画像データに対して陰影効果を与えるための遮蔽処理を実行する。遮蔽処理部60は、遮蔽率算出部50によりスクリーン内の各画素ごとに算出された遮蔽率を用いて、その画素の画素値を補正して遮蔽処理後の画素値とすることにより、スクリーン内の全画素についての遮蔽処理後の画素値を得る。   Referring back to FIG. 1, the shielding processing unit 60 shades an ultrasound image obtained by luminance rendering calculation by the rendering calculation unit 30, for example, projection image data of luminance information that three-dimensionally represents a diagnosis target such as a fetus. The shielding process for giving an effect is executed. The shielding processing unit 60 uses the shielding rate calculated for each pixel in the screen by the shielding rate calculation unit 50 to correct the pixel value of the pixel to obtain a pixel value after the shielding process. Pixel values after the shielding process are obtained for all the pixels.

遮蔽処理部60は、例えば数4式を利用することにより、スクリーン内の各画素に関する遮蔽処理後の画素値(輝度値)を算出する。   The shielding processing unit 60 calculates the pixel value (luminance value) after the shielding processing for each pixel in the screen by using, for example, Equation 4.

数4式において、Iorg(x,y)は、スクリーン内の座標(x,y)にある画素の遮蔽処理前の画素値(輝度値)であり、k(x,y)は座標(x,y)にある画素の遮蔽率であり、Inew(x,y)は座標(x,y)にある画素の遮蔽処理後の画素値(輝度値)である。 In Equation 4, I org (x, y) is a pixel value (luminance value) of the pixel at the coordinate (x, y) in the screen before the shielding process, and k A (x, y) is a coordinate ( x (y, y) is the shielding rate of the pixel, and I new (x, y) is the pixel value (luminance value) after the shielding processing of the pixel at coordinates (x, y).

遮蔽処理部60は、スクリーン内の全画素、つまり輝度情報の投影画像データを構成する全画素を対象とし、各画素ごとに例えば数4式により遮蔽処理後の画素値を算出する。   The shielding processing unit 60 calculates all the pixels in the screen, that is, all the pixels constituting the projection image data of the luminance information, and calculates the pixel value after the shielding processing by, for example, Equation 4 for each pixel.

画像形成部70は、スクリーン内の複数画素の遮蔽処理後の画素値に基づいて超音波画像を形成する。画像形成部70は、例えば、遮蔽処理部60から得られる、輝度情報の投影画像データを構成する全画素についての遮蔽処理後の画素値(輝度値)に基づいて、超音波画像を形成する。これにより、例えば胎児等の診断対象を立体的に表現しつつ自然な陰影効果をもった超音波画像が形成されて表示部72に表示される。   The image forming unit 70 forms an ultrasonic image based on the pixel values after the shielding process for a plurality of pixels in the screen. For example, the image forming unit 70 forms an ultrasonic image based on the pixel values (luminance values) after the shielding process for all the pixels constituting the projection image data of the luminance information obtained from the shielding processing unit 60. As a result, for example, an ultrasonic image having a natural shadow effect while three-dimensionally expressing a diagnosis target such as a fetus is formed and displayed on the display unit 72.

なお、遮蔽処理部60は、遮蔽率を用いて各画素の画素値を補正するにあたり、超音波画像の拡大率に応じた補正を加えて、その画素の遮蔽処理後の画素値を得るようにしてもよい。   In addition, when correcting the pixel value of each pixel using the shielding ratio, the shielding processing unit 60 performs correction according to the magnification ratio of the ultrasonic image to obtain a pixel value after the shielding processing of the pixel. May be.

図4は、超音波画像の拡大率を説明するための図である。図4には、拡大前と拡大後の超音波画像の具体例が図示されている。拡大前と拡大後の超音波画像は互いに同じ診断対象を映し出した画像である。例えば、拡大前の画像として胎児の体を全体的に表示した超音波画像が形成され、拡大後の画像として同じ胎児の顔を大きく映し出した超音波画像が形成される。   FIG. 4 is a diagram for explaining an enlargement ratio of an ultrasonic image. FIG. 4 shows specific examples of ultrasonic images before and after enlargement. The ultrasonic images before enlargement and after enlargement are images showing the same diagnosis object. For example, an ultrasound image in which the whole body of the fetus is displayed as an image before enlargement is formed, and an ultrasound image in which the same fetus face is greatly projected is formed as an image after enlargement.

拡大率Sは、例えば「S=D/D」と定義される。ここで、Dは拡大前の診断対象の表示サイズ(例えば表示部72の表示画面上における大きさ)であり、Dは同じ診断対象の拡大後の表示サイズである。 The enlargement ratio S is defined as “S = D L / D S ”, for example. Here, D S is the diagnostic object display size before enlargement (e.g. size on the display screen of the display unit 72), D L is the display size after the enlargement of the same diagnostic object.

超音波画像の拡大率Sに応じた補正を加える場合、遮蔽処理部60は、例えば数5式を利用して、スクリーン内の各画素に関する遮蔽処理後の画素値(輝度値)を算出する。   When correction according to the magnification rate S of the ultrasonic image is applied, the shielding processing unit 60 calculates a pixel value (luminance value) after the shielding processing for each pixel in the screen using, for example, Equation 5.

数5式において、Iorg(x,y)は、スクリーン内の座標(x,y)にある画素の遮蔽処理前の画素値(輝度値)であり、k(x,y)は座標(x,y)にある画素の遮蔽率であり、Sは拡大率であり、Inew(x,y)は座標(x,y)にある画素の遮蔽処理後の画素値(輝度値)である。 In Equation 5, I org (x, y) is a pixel value (luminance value) before the shielding process of a pixel at coordinates (x, y) in the screen, and k A (x, y) is a coordinate ( x is the shielding rate of the pixel located at x), S is the magnification rate, and I new (x, y) is the pixel value (luminance value) after the shielding process for the pixel located at the coordinates (x, y). .

超音波画像の拡大率に応じた補正を加えて、例えば表示サイズに比例して遮蔽された位置の暗さを増加させることにより、例えば医師や検査技師等のユーザの目には、表示サイズが大きいほど遮蔽された影が増加することとなり、さらに臨場感を伴った陰影の効果を与えることができる。   By adding a correction according to the enlargement ratio of the ultrasonic image and increasing the darkness of the shielded position in proportion to the display size, for example, the display size can be reduced for the eyes of users such as doctors and laboratory technicians. The larger the size is, the more shadows are shielded, and a shadow effect with a sense of reality can be given.

なお、超音波画像の拡大率に応じて、複数の視線34(図3)の密度が変更されてもよい。例えば、拡大率が大きいほど複数の視線34の密度が高められてもよい。例えば、拡大後の画像として胎児の顔を大きく映し出した超音波画像を形成する場合に、胎児の顔に対応した領域に複数の視線34が集中的に配置される。また、超音波画像の拡大前と拡大後において、実空間内における評価領域52(図3)の大きさは固定することが望ましいものの、必要に応じて実空間内における評価領域52の大きさが調整されてもよい。   Note that the density of the plurality of lines of sight 34 (FIG. 3) may be changed according to the magnification of the ultrasonic image. For example, the density of the plurality of lines of sight 34 may be increased as the enlargement ratio increases. For example, when forming an ultrasonic image in which a fetal face is greatly projected as an enlarged image, a plurality of lines of sight 34 are intensively arranged in a region corresponding to the fetal face. In addition, it is desirable to fix the size of the evaluation region 52 (FIG. 3) in the real space before and after the enlargement of the ultrasonic image, but the size of the evaluation region 52 in the real space may be set as necessary. It may be adjusted.

図1に戻り、制御部100は、図1の超音波診断装置内を全体的に制御する。制御部100による全体的な制御には、操作デバイス80を介して医師や検査技師などのユーザから受け付けた指示も反映される。   Returning to FIG. 1, the control unit 100 generally controls the inside of the ultrasonic diagnostic apparatus in FIG. 1. The overall control by the control unit 100 also reflects an instruction received from a user such as a doctor or a laboratory technician via the operation device 80.

図1に示す構成のうち、送受信部12,ボリューム構成部20,レンダリング演算部30,遮蔽率算出部50,遮蔽処理部60,画像形成部70の各部は、例えば、電気電子回路やプロセッサ等のハードウェアを利用して実現することができ、その実現において必要に応じてメモリ等のデバイスが利用されてもよい。また上記各部に対応した機能の少なくとも一部がコンピュータにより実現されてもよい。つまり、上記各部に対応した機能の少なくとも一部が、CPUやプロセッサやメモリ等のハードウェアと、CPUやプロセッサの動作を規定するソフトウェア(プログラム)との協働により実現されてもよい。   In the configuration shown in FIG. 1, each of the transmission / reception unit 12, the volume configuration unit 20, the rendering calculation unit 30, the shielding rate calculation unit 50, the shielding processing unit 60, and the image forming unit 70 is, for example, an electric / electronic circuit or a processor It can be realized using hardware, and a device such as a memory may be used as necessary in the realization. Further, at least a part of the functions corresponding to the above-described units may be realized by a computer. That is, at least a part of the functions corresponding to the above-described units may be realized by cooperation between hardware such as a CPU, a processor, and a memory and software (program) that defines the operation of the CPU and the processor.

深度データ記憶部40は、半導体メモリやハードディスクドライブなどの記憶デバイスにより実現できる。表示部72の好適な具体例は液晶ディスプレイや有機EL(エレクトロルミネッセンス)ディスプレイ等である。操作デバイス80は、例えば、マウス、キーボード、トラックボール、タッチパネル、その他のスイッチ類等のうちの少なくとも一つにより実現できる。そして、制御部100は、例えば、CPUやプロセッサやメモリ等のハードウェアと、CPUやプロセッサの動作を規定するソフトウェア(プログラム)との協働により実現することができる。   The depth data storage unit 40 can be realized by a storage device such as a semiconductor memory or a hard disk drive. A suitable specific example of the display unit 72 is a liquid crystal display, an organic EL (electroluminescence) display, or the like. The operation device 80 can be realized by at least one of a mouse, a keyboard, a trackball, a touch panel, and other switches, for example. And the control part 100 is realizable by cooperation with hardwares, such as CPU, a processor, a memory, and the software (program) which prescribes | regulates operation | movement of CPU, a processor, for example.

また、図1に示す構成のうち、例えばレンダリング演算部30と遮蔽率算出部50と遮蔽処理部60と画像形成部70の機能をコンピュータにより実現し、そのコンピュータを超音波画像処理装置として機能させてもよい。   In the configuration shown in FIG. 1, for example, the functions of the rendering calculation unit 30, the shielding rate calculation unit 50, the shielding processing unit 60, and the image forming unit 70 are realized by a computer, and the computer is caused to function as an ultrasonic image processing device. May be.

以上、本発明の好適な実施形態を説明したが、上述した実施形態は、あらゆる点で単なる例示にすぎず、本発明の範囲を限定するものではない。本発明は、その本質を逸脱しない範囲で各種の変形形態を包含する。   As mentioned above, although preferred embodiment of this invention was described, embodiment mentioned above is only a mere illustration in all the points, and does not limit the scope of the present invention. The present invention includes various modifications without departing from the essence thereof.

10 プローブ、12 送受信部、20 ボリューム構成部、30 レンダリング演算部、40 深度データ記憶部、50 遮蔽率算出部、60 遮蔽処理部、70 画像形成部、72 表示部、80 操作デバイス、100 制御部。   DESCRIPTION OF SYMBOLS 10 Probe, 12 Transmission / reception part, 20 Volume structure part, 30 Rendering calculation part, 40 Depth data storage part, 50 Shielding rate calculation part, 60 Shielding process part, 70 Image formation part, 72 Display part, 80 Operation device, 100 Control part .

Claims (5)

超音波のボリュームデータに基づく演算により複数の視線から各視線ごとに得られる輝度情報を画像面内の各画素の画素値とすることにより、画像面内の複数画素の画素値を得る演算手段と、
画像面内の各画素を注目画素とし、注目画素に対応した深さにある立体的な評価領域内を遮蔽部位が占める割合に応じて注目画素の遮蔽度を算出する手段であって、評価領域内を通る各視線ごとに遮蔽部位までの深さと評価領域の境界までの深さの差分値を得ることにより、評価領域内を通る複数の視線から得られる複数の差分値に基づいて、注目画素の遮蔽度を算出する遮蔽度算出手段と、
画像面内の複数画素の各々を注目画素として各画素ごとに算出される遮蔽度を用いて当該各画素の画素値を補正して遮蔽処理後の画素値とすることにより、画像面内の複数画素の遮蔽処理後の画素値を得る遮蔽処理手段と、
画像面内の複数画素の遮蔽処理後の画素値に基づいて超音波画像を形成する画像形成手段と、
を有する、
ことを特徴とする超音波画像処理装置。
Calculating means for obtaining pixel values of a plurality of pixels in the image plane by using luminance information obtained for each line of sight from a plurality of lines of sight by calculation based on ultrasonic volume data; ,
A means for calculating the degree of occlusion of a pixel of interest according to the proportion of the occluded part occupying the three-dimensional evaluation area at a depth corresponding to the pixel of interest, with each pixel in the image plane as the pixel of interest. A pixel of interest based on a plurality of difference values obtained from a plurality of lines of sight passing through the evaluation region by obtaining a difference value between the depth to the shielding part and the depth to the boundary of the evaluation region for each line of sight passing through the inside A shielding degree calculating means for calculating the shielding degree of
By correcting the pixel value of each pixel using the degree of shielding calculated for each pixel with each of the plurality of pixels in the image plane as the target pixel to obtain a pixel value after the shielding process, a plurality of pixels in the image plane are obtained. Shielding processing means for obtaining a pixel value after pixel shielding processing;
An image forming means for forming an ultrasonic image based on pixel values after the shielding processing of a plurality of pixels in the image plane;
Having
An ultrasonic image processing apparatus.
請求項1に記載の超音波画像処理装置において、
前記遮蔽度算出手段は、前記画像面内の2方向に対応したX軸とY軸と前記各視線の方向に対応したZ軸とにより構成される3次元座標系において、X軸方向とY軸方向とZ軸方向に広がって注目画素に対応した座標を取り囲む3次元領域を前記評価領域とする、
ことを特徴とする超音波画像処理装置。
The ultrasonic image processing apparatus according to claim 1,
In the three-dimensional coordinate system configured by the X-axis and Y-axis corresponding to two directions in the image plane and the Z-axis corresponding to the direction of each line of sight, the shielding degree calculating means A three-dimensional region that extends in the direction and the Z-axis direction and surrounds the coordinates corresponding to the target pixel is defined as the evaluation region.
An ultrasonic image processing apparatus.
請求項2に記載の超音波画像処理装置において、
前記遮蔽度算出手段は、前記評価領域内を通る各視線ごとにZ軸方向の演算結果として前記差分値を算出し、前記評価領域内を通りX軸方向とY軸方向に2次元的に並ぶ複数の視線からZ軸方向の演算結果として得られる複数の前記差分値に基づいて、前記評価領域に対応した注目画素の遮蔽度を算出する、
ことを特徴とする超音波画像処理装置。
The ultrasonic image processing apparatus according to claim 2,
The degree-of-shielding calculation means calculates the difference value as a calculation result in the Z-axis direction for each line of sight passing through the evaluation area, and is arranged two-dimensionally in the X-axis direction and the Y-axis direction through the evaluation area. Based on a plurality of the difference values obtained as a calculation result in the Z-axis direction from a plurality of lines of sight, a degree of occlusion of the target pixel corresponding to the evaluation region is calculated.
An ultrasonic image processing apparatus.
請求項1から3のいずれか1項に記載の超音波画像処理装置において、
前記遮蔽処理手段は、前記遮蔽度を用いて各画素の画素値を補正するにあたり、前記超音波画像の拡大率に応じた補正を加えて、当該各画素の遮蔽処理後の画素値を得る、
ことを特徴とする超音波画像処理装置。
The ultrasonic image processing apparatus according to any one of claims 1 to 3,
The shielding processing unit, when correcting the pixel value of each pixel using the shielding degree, adds a correction according to the magnification ratio of the ultrasonic image to obtain a pixel value after the shielding processing of each pixel,
An ultrasonic image processing apparatus.
請求項1から4のいずれか1項に記載の超音波画像処理装置において、
複数の視線の各視線ごとに遮蔽部位までの深さを示す深度データを記憶する記憶手段をさらに有し、
前記遮蔽度算出手段は、前記記憶手段に記憶された深度データを利用して評価領域内を通る各視線ごとに遮蔽部位までの深さと評価領域の境界までの深さの差分値を算出する、
ことを特徴とする超音波画像処理装置。
The ultrasonic image processing apparatus according to any one of claims 1 to 4,
Storage means for storing depth data indicating the depth to the shielding part for each line of sight;
The shielding degree calculating means calculates a difference value between the depth to the shielding part and the depth to the boundary of the evaluation area for each line of sight passing through the evaluation area using the depth data stored in the storage means.
An ultrasonic image processing apparatus.
JP2017055313A 2017-03-22 2017-03-22 Ultrasonic image processing equipment Active JP6793074B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017055313A JP6793074B2 (en) 2017-03-22 2017-03-22 Ultrasonic image processing equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017055313A JP6793074B2 (en) 2017-03-22 2017-03-22 Ultrasonic image processing equipment

Publications (2)

Publication Number Publication Date
JP2018157872A true JP2018157872A (en) 2018-10-11
JP6793074B2 JP6793074B2 (en) 2020-12-02

Family

ID=63796139

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017055313A Active JP6793074B2 (en) 2017-03-22 2017-03-22 Ultrasonic image processing equipment

Country Status (1)

Country Link
JP (1) JP6793074B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002209880A (en) * 2000-12-26 2002-07-30 Ge Medical Systems Global Technology Co Llc X-ray ct system, operation console, and its control method, and recording medium
US20110069069A1 (en) * 2009-09-21 2011-03-24 Klaus Engel Efficient determination of lighting effects in volume rendering
JP2012005593A (en) * 2010-06-23 2012-01-12 Hitachi Medical Corp Ultrasound diagnostic apparatus for generating and displaying three-dimentional ultrasonic image
WO2014076744A1 (en) * 2012-11-19 2014-05-22 株式会社ソニー・コンピュータエンタテインメント Image processing device and image processing method
US20160005218A1 (en) * 2014-07-01 2016-01-07 Kabushiki Kaisha Toshiba Image rendering apparatus and method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002209880A (en) * 2000-12-26 2002-07-30 Ge Medical Systems Global Technology Co Llc X-ray ct system, operation console, and its control method, and recording medium
US20110069069A1 (en) * 2009-09-21 2011-03-24 Klaus Engel Efficient determination of lighting effects in volume rendering
JP2012005593A (en) * 2010-06-23 2012-01-12 Hitachi Medical Corp Ultrasound diagnostic apparatus for generating and displaying three-dimentional ultrasonic image
WO2014076744A1 (en) * 2012-11-19 2014-05-22 株式会社ソニー・コンピュータエンタテインメント Image processing device and image processing method
US20150317826A1 (en) * 2012-11-19 2015-11-05 Sony Computer Entertainment Inc. Image processing device and image processing method
US20160005218A1 (en) * 2014-07-01 2016-01-07 Kabushiki Kaisha Toshiba Image rendering apparatus and method
JP2016013438A (en) * 2014-07-01 2016-01-28 株式会社東芝 Medical image processor

Also Published As

Publication number Publication date
JP6793074B2 (en) 2020-12-02

Similar Documents

Publication Publication Date Title
JP5567502B2 (en) Medical training method and apparatus
JP6688618B2 (en) Medical image processing apparatus and medical image diagnostic apparatus
KR102539901B1 (en) Methods and system for shading a two-dimensional ultrasound image
KR101100464B1 (en) Ultrasound system and method for providing three-dimensional ultrasound image based on sub region of interest
JP2009034521A (en) System and method for volume rendering data in medical diagnostic imaging, and computer readable storage medium
KR101353303B1 (en) Graphics processing unit and image processing apparatus having graphics processing unit and image processing method using graphics processing unit
JP2008259699A (en) Image processing method and apparatus, and program
JP2006055213A (en) Image processor and program
Chen et al. Real-time freehand 3D ultrasound imaging
CN102397082B (en) Method and device for generating direction indicating diagram and ultrasonic three-dimensional imaging method and system
JP5451414B2 (en) Subject information processing apparatus and subject information processing method
KR20110026547A (en) Ultrasound system and method for providing 3-dimensional ultrasound image based on roi of ellipsoid
US20110172534A1 (en) Providing at least one slice image based on at least three points in an ultrasound system
US20110282205A1 (en) Providing at least one slice image with additional information in an ultrasound system
JP6890677B2 (en) A virtual light source embedded in a 3D volume and coupled to the crosshairs in the MPR diagram
KR100466409B1 (en) System and method for displaying a virtual endoscopy and computer-readable recording medium having virtual endoscopy displaying program recorded thereon
JP5065740B2 (en) Image processing method, apparatus, and program
JP6793074B2 (en) Ultrasonic image processing equipment
KR20230159696A (en) Methods and systems for processing multi-modal and/or multi-source data in a medium
JP6793075B2 (en) Ultrasonic image processing equipment
JP2018153561A (en) Ultrasound image processing apparatus
Siang et al. A framework of position tracked freehand 3d ultrasound reconstruction using game controller and pixel nearest neighbour method for marching cubes volume visualization
JP2017093842A (en) Ultrasonic volume data processing apparatus
JP5950291B1 (en) Ultrasonic diagnostic apparatus and program
WO2019163172A1 (en) Ultrasonic signal processing device, ultrasonic diagnostic device, ultrasonic signal arithmetic processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190626

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200728

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200915

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201109

R150 Certificate of patent or registration of utility model

Ref document number: 6793074

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250