JP6793074B2 - Ultrasonic image processing equipment - Google Patents

Ultrasonic image processing equipment Download PDF

Info

Publication number
JP6793074B2
JP6793074B2 JP2017055313A JP2017055313A JP6793074B2 JP 6793074 B2 JP6793074 B2 JP 6793074B2 JP 2017055313 A JP2017055313 A JP 2017055313A JP 2017055313 A JP2017055313 A JP 2017055313A JP 6793074 B2 JP6793074 B2 JP 6793074B2
Authority
JP
Japan
Prior art keywords
shielding
pixel
sight
ultrasonic image
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017055313A
Other languages
Japanese (ja)
Other versions
JP2018157872A (en
Inventor
剛啓 辻田
剛啓 辻田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2017055313A priority Critical patent/JP6793074B2/en
Publication of JP2018157872A publication Critical patent/JP2018157872A/en
Application granted granted Critical
Publication of JP6793074B2 publication Critical patent/JP6793074B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、超音波画像処理装置に関する。 The present invention relates to an ultrasonic image processing apparatus.

超音波を送受することにより得られたデータに基づいて超音波画像を形成する超音波画像処理装置の代表例が超音波診断装置である。超音波画像としては、例えばBモード画像やカラードプラ画像などの二次元画像が良く知られている。また、超音波を送受することにより立体的に得られるボリュームデータに基づいて、生体内の組織や胎児などを立体的に映し出す超音波画像(三次元超音波画像)を形成する装置も知られている(例えば特許文献1参照)。 An ultrasonic diagnostic apparatus is a typical example of an ultrasonic image processing apparatus that forms an ultrasonic image based on data obtained by transmitting and receiving ultrasonic waves. As the ultrasonic image, a two-dimensional image such as a B-mode image or a color Doppler image is well known. In addition, a device that forms an ultrasonic image (three-dimensional ultrasonic image) that three-dimensionally projects a tissue or a foetation in a living body based on volume data obtained three-dimensionally by transmitting and receiving ultrasonic waves is also known. (See, for example, Patent Document 1).

ところで、コンピュータグラフィックスの分野では、アンビエントオクルージョン(環境遮蔽)と呼ばれる画像処理技術が知られている(例えば特許文献2参照)。アンビエントオクルージョンでは、画像内の各画素が周囲のシーンによってどれくらい遮蔽されているのかに応じて各画素における環境光の影響が評価される。アンビエントオクルージョンにより、画像に対して自然な陰影効果を与えることができる。 By the way, in the field of computer graphics, an image processing technique called ambient occlusion (environmental shielding) is known (see, for example, Patent Document 2). In ambient occlusion, the effect of ambient light on each pixel is evaluated according to how much each pixel in the image is shielded by the surrounding scene. Ambient occlusion can give the image a natural shading effect.

特開2012−5593号公報Japanese Unexamined Patent Publication No. 2012-5593 米国特許第8878849号明細書U.S. Pat. No. 8878849

例えばアンビエントオクルージョンなどの遮蔽処理(画像処理)を利用することにより超音波画像にも自然な陰影効果を与えることが期待される。しかし、例えばアンビエントオクルージョンなどの遮蔽処理の演算量は膨大であるため、超音波画像に適した遮蔽処理の実現が望ましい。 For example, it is expected that a natural shading effect can be given to an ultrasonic image by using a shielding process (image processing) such as ambient occlusion. However, since the amount of calculation for shielding processing such as ambient occlusion is enormous, it is desirable to realize shielding processing suitable for ultrasonic images.

そこで、本発明は、超音波画像に好適な遮蔽処理を実現することを目的とする。例えば、比較的少ない演算量で自然な陰影効果を得ることができる遮蔽処理の実現が望ましい。 Therefore, an object of the present invention is to realize a shielding process suitable for an ultrasonic image. For example, it is desirable to realize a shielding process that can obtain a natural shading effect with a relatively small amount of calculation.

本発明の態様として好適な超音波画像処理装置は、超音波のボリュームデータに基づく演算により複数の視線から各視線ごとに得られる輝度情報を画像面内の各画素の画素値とすることにより、画像面内の複数画素の画素値を得る演算手段と、画像面内の各画素を注目画素とし、注目画素に対応した深さにある立体的な評価領域内を遮蔽部位が占める割合に応じて注目画素の遮蔽度を算出する手段であって、評価領域内を通る各視線ごとに遮蔽部位までの深さと評価領域の境界までの深さの差分値を得ることにより、評価領域内を通る複数の視線から得られる複数の差分値に基づいて、注目画素の遮蔽度を算出する遮蔽度算出手段と、画像面内の複数画素の各々を注目画素として各画素ごとに算出される遮蔽度を用いて当該各画素の画素値を補正して遮蔽処理後の画素値とすることにより、画像面内の複数画素の遮蔽処理後の画素値を得る遮蔽処理手段と、画像面内の複数画素の遮蔽処理後の画素値に基づいて超音波画像を形成する画像形成手段を有することを特徴とする。 An ultrasonic image processing apparatus suitable as an aspect of the present invention sets the brightness information obtained for each line of sight from a plurality of lines of sight by calculation based on the volume data of ultrasonic waves as the pixel value of each pixel in the image plane. According to the calculation means for obtaining the pixel values of a plurality of pixels in the image plane, and each pixel in the image plane is a pixel of interest, and the shielding portion occupies the three-dimensional evaluation area at the depth corresponding to the pixel of interest. It is a means for calculating the degree of shielding of the pixel of interest, and by obtaining the difference value between the depth to the shielding portion and the depth to the boundary of the evaluation area for each line of sight passing through the evaluation area, a plurality of pixels passing through the evaluation area. Using a shielding degree calculation means for calculating the shielding degree of the pixel of interest based on a plurality of difference values obtained from the line of sight of, and a shielding degree calculated for each pixel with each of the plurality of pixels in the image plane as the pixel of interest. By correcting the pixel value of each pixel to obtain the pixel value after the shielding process, the shielding processing means for obtaining the pixel value after the shielding process of a plurality of pixels in the image surface and the shielding of the plurality of pixels in the image surface. It is characterized by having an image forming means for forming an ultrasonic image based on a pixel value after processing.

上記装置では、評価領域内を通る各視線ごとに遮蔽部位までの深さと評価領域の境界までの深さの差分値を得ることにより、評価領域内を通る複数の視線から得られる複数の差分値に基づいて注目画素の遮蔽度が算出される。上記装置によれば、遮蔽部位までの深さと評価領域の境界までの深さの差分値に基づいて遮蔽度が算出されるため、例えば、演算量が膨大な空間積分などの演算を利用して遮蔽度を算出する場合に比べて、演算量を大幅に削減できる。また、上記装置では、各画素ごとに算出される遮蔽度を用いて当該各画素の画素値を補正して遮蔽処理後の画素値が得られる。これにより、例えば自然な陰影をもった超音波画像を形成することができる。 In the above device, by obtaining the difference value between the depth to the shielding portion and the depth to the boundary of the evaluation area for each line of sight passing through the evaluation area, a plurality of difference values obtained from a plurality of lines of sight passing through the evaluation area are obtained. The degree of shielding of the pixel of interest is calculated based on. According to the above device, the degree of shielding is calculated based on the difference value between the depth to the shielding portion and the depth to the boundary of the evaluation area. Therefore, for example, an operation such as spatial integration with a huge amount of calculation is used. Compared with the case of calculating the degree of shielding, the amount of calculation can be significantly reduced. Further, in the above device, the pixel value of each pixel is corrected by using the degree of shielding calculated for each pixel, and the pixel value after the shielding process is obtained. Thereby, for example, an ultrasonic image having a natural shadow can be formed.

例えば、前記遮蔽度算出手段は、前記画像面内の2方向に対応したX軸とY軸と前記各視線の方向に対応したZ軸とにより構成される3次元座標系において、X軸方向とY軸方向とZ軸方向に広がって注目画素に対応した座標を取り囲む3次元領域を前記評価領域とすることが望ましい。Z軸方向は各視線の方向に対応しており、複数の視線が例えばX軸方向とY軸方向によって特定される面内に二次元的に配列される。この構成において、評価領域はX軸方向とY軸方向とZ軸方向に広がっており、複数の視線の幾何学的な配置に適合した評価領域が実現される。なお、評価領域の形状の好適な具体例は直方体または立方体であるがこれらの形状に限定されない。評価領域は、例えばZ軸方向を高さとする柱状(円柱、楕円柱、三角柱、多角柱)などの形状であってもよい。 For example, the shielding degree calculation means is in the X-axis direction in a three-dimensional coordinate system composed of an X-axis and a Y-axis corresponding to two directions in the image plane and a Z-axis corresponding to each line-of-sight direction. It is desirable that the evaluation region is a three-dimensional region that extends in the Y-axis direction and the Z-axis direction and surrounds the coordinates corresponding to the pixel of interest. The Z-axis direction corresponds to the direction of each line of sight, and a plurality of lines of sight are two-dimensionally arranged in a plane specified by, for example, the X-axis direction and the Y-axis direction. In this configuration, the evaluation area extends in the X-axis direction, the Y-axis direction, and the Z-axis direction, and an evaluation area suitable for the geometrical arrangement of a plurality of lines of sight is realized. A suitable specific example of the shape of the evaluation region is a rectangular parallelepiped or a cube, but the shape is not limited to these shapes. The evaluation region may have a shape such as a columnar prism (cylinder, elliptical prism, triangular prism, polygonal prism) having a height in the Z-axis direction.

また、前記遮蔽度算出手段は、前記評価領域内を通る各視線ごとにZ軸方向の演算結果として前記差分値を算出し、前記評価領域内を通りX軸方向とY軸方向に2次元的に並ぶ複数の視線からZ軸方向の演算結果として得られる複数の前記差分値に基づいて、前記評価領域に対応した注目画素の遮蔽度を算出することが望ましい。この構成によれば、評価領域内を通る複数の視線から各視線ごとに差分値を得ることにより注目画素の遮蔽度を算出することができる。例えば、評価領域内を通る全ての視線から差分値を得てもよいし、評価領域内を通る全ての視線の中から離散的に選択される複数の視線から差分値を得るようにしてもよい。 Further, the shielding degree calculating means calculates the difference value as a calculation result in the Z-axis direction for each line of sight passing through the evaluation region, passes through the evaluation region, and is two-dimensional in the X-axis direction and the Y-axis direction. It is desirable to calculate the degree of shielding of the pixel of interest corresponding to the evaluation region based on the plurality of difference values obtained as the calculation result in the Z-axis direction from the plurality of lines of sight lined up in. According to this configuration, the degree of shielding of the pixel of interest can be calculated by obtaining a difference value for each line of sight from a plurality of lines of sight passing through the evaluation region. For example, the difference value may be obtained from all the lines of sight passing through the evaluation area, or the difference value may be obtained from a plurality of lines of sight discretely selected from all the lines of sight passing through the evaluation area. ..

また、前記遮蔽処理手段は、前記遮蔽度を用いて各画素の画素値を補正するにあたり、前記超音波画像の拡大率に応じた補正を加えて、当該各画素の遮蔽処理後の画素値を得ることが望ましい。この構成によれば、超音波画像の拡大率に応じて遮蔽処理の程度を調整することができる。例えば、拡大率が大きいほど遮蔽の程度を強めることにより、超音波画像の見た目の印象を向上させることができる。 Further, when the shielding processing means corrects the pixel value of each pixel by using the shielding degree, the shielding processing means adds a correction according to the enlargement ratio of the ultrasonic image to obtain the pixel value of each pixel after the shielding processing. It is desirable to obtain. According to this configuration, the degree of shielding processing can be adjusted according to the enlargement ratio of the ultrasonic image. For example, the larger the magnification, the stronger the degree of shielding, so that the visual impression of the ultrasonic image can be improved.

また、前記超音波画像処理装置は、複数の視線の各視線ごとに遮蔽部位までの深さを示す深度データを記憶する記憶手段をさらに有し、前記遮蔽度算出手段は、前記記憶手段に記憶された深度データを利用して評価領域内を通る各視線ごとに遮蔽部位までの深さと評価領域の境界までの深さの差分値を算出することが望ましい。この構成によれば、記憶手段に記憶された深度データを利用して深さの差分値を算出することができるため、遮蔽度算出手段における演算負荷が低減される。 Further, the ultrasonic image processing device further has a storage means for storing depth data indicating the depth to the shielding portion for each line of sight of the plurality of lines of sight, and the shielding degree calculation means stores in the storage means. It is desirable to calculate the difference value between the depth to the shielded part and the depth to the boundary of the evaluation area for each line of sight passing through the evaluation area using the obtained depth data. According to this configuration, the difference value of the depth can be calculated by using the depth data stored in the storage means, so that the calculation load in the shielding degree calculation means is reduced.

さらに、上述した好適な超音波画像処理装置(望ましい具体例を含む)が備える各部に対応した機能がコンピュータ(タブレット型の端末を含む)により実現されてもよい。例えば、前記演算手段としての機能と、前記遮蔽度算出手段としての機能と、前記遮蔽処理手段としての機能と、前記画像形成手段としての機能をコンピュータに実現させるプログラムにより、コンピュータを上述した好適な超音波画像処理装置として機能させることができる。なお、そのプログラムは、例えば、ディスクやメモリなどのコンピュータが読み取り可能な記憶媒体に記憶され、その記憶媒体を介してコンピュータに提供されてもよいし、インターネットなどの電気通信回線を介してコンピュータに提供されてもよい。 Further, the functions corresponding to each part of the above-mentioned suitable ultrasonic image processing apparatus (including desirable specific examples) may be realized by a computer (including a tablet type terminal). For example, the computer is preferably described above by a program that causes the computer to realize the function as the calculation means, the function as the shielding degree calculation means, the function as the shielding processing means, and the function as the image forming means. It can function as an ultrasonic image processing device. The program may be stored in a computer-readable storage medium such as a disk or memory and provided to the computer via the storage medium, or may be provided to the computer via a telecommunication line such as the Internet. May be provided.

本発明により、超音波画像に好適な遮蔽処理が実現される。例えば、本発明の好適な態様によれば、遮蔽部位までの深さと評価領域の境界までの深さの差分値に基づいて遮蔽度を算出することにより、例えば演算量が膨大な空間積分などの演算を利用して遮蔽度を算出する場合に比べて、演算量を大幅に削減できる。また、本発明の好適な態様によれば、各画素ごとに算出される遮蔽度を用いて当該各画素の画素値を補正して遮蔽処理後の画素値を得ることにより、例えば自然な陰影をもった超音波画像を形成することができる。 According to the present invention, a shielding process suitable for an ultrasonic image is realized. For example, according to a preferred embodiment of the present invention, by calculating the degree of shielding based on the difference value between the depth to the shielding portion and the depth to the boundary of the evaluation region, for example, spatial integration with a huge amount of calculation can be performed. Compared with the case of calculating the degree of shielding using calculation, the amount of calculation can be significantly reduced. Further, according to a preferred embodiment of the present invention, the pixel value of each pixel is corrected by using the degree of shielding calculated for each pixel to obtain the pixel value after the shielding process, so that, for example, a natural shadow can be obtained. An ultrasonic image can be formed.

本発明の好適な具体例である超音波診断装置の全体構成図である。It is an overall block diagram of the ultrasonic diagnostic apparatus which is a preferable specific example of this invention. レンダリング演算の具体例を示す図である。It is a figure which shows the specific example of a rendering operation. 立体的な評価領域の具体例を示す図である。It is a figure which shows the specific example of the three-dimensional evaluation area. 超音波画像の拡大率を説明するための図である。It is a figure for demonstrating the magnification of an ultrasonic image.

図1は、本発明に係る超音波画像処理装置の好適な具体例である超音波診断装置の全体構成図である。プローブ10は、三次元画像用の超音波探触子であり、例えば胎児などの診断対象を含む三次元空間内において超音波を送受する。例えば、二次元的に配列された複数の振動素子を備える二次元アレイプローブ(マトリクスアレイプローブ)や、一次元的に配列された複数の振動素子を機械的に動かすメカニカルプローブなどがプローブ10の好適な具体例である。 FIG. 1 is an overall configuration diagram of an ultrasonic diagnostic apparatus which is a preferable specific example of the ultrasonic image processing apparatus according to the present invention. The probe 10 is an ultrasonic probe for a three-dimensional image, and transmits and receives ultrasonic waves in a three-dimensional space including a diagnostic object such as a foetation. For example, a two-dimensional array probe (matrix array probe) having a plurality of two-dimensionally arranged vibrating elements, a mechanical probe for mechanically moving a plurality of one-dimensionally arranged vibrating elements, and the like are suitable for the probe 10. This is a concrete example.

送受信部12は、送信ビームフォーマおよび受信ビームフォーマとしての機能を備えている。つまり、送受信部12は、プローブ10が備える複数の振動素子の各々に対して送信信号を出力することにより送信ビームを形成し、さらに、複数の振動素子から得られる複数の受波信号に対して整相加算処理などを施して受信ビームを形成する。 The transmission / reception unit 12 has functions as a transmission beam former and a reception beam former. That is, the transmission / reception unit 12 forms a transmission beam by outputting a transmission signal to each of the plurality of vibration elements included in the probe 10, and further, for a plurality of received signals obtained from the plurality of vibration elements. The received beam is formed by performing phasing addition processing or the like.

また、送受信部12は、例えば、診断対象を含む三次元空間内において、超音波ビーム(送信ビームと受信ビーム)を立体的に走査する。これにより、診断対象を含む三次元空間内から超音波の受信データが収集される。 Further, the transmission / reception unit 12 three-dimensionally scans an ultrasonic beam (transmission beam and reception beam) in, for example, a three-dimensional space including a diagnosis target. As a result, the received ultrasonic wave data is collected from within the three-dimensional space including the diagnosis target.

ボリューム構成部20は、三次元空間内から得られた受信データに対してリコンストラクション処理を施すことにより、三次元空間に対応したボリュームデータを形成する。ボリューム構成部20は、走査座標系(例えばrθφ座標系)で得られた受信データに対して、座標変換処理や補間処理などのリコンストラクション処理を施し、直交座標系(例えばxyz座標系)に対応したボリュームデータを形成する。ボリュームデータは、例えば直交座標系のデータ空間内において三次元的に配列された複数のボクセルデータで構成される。 The volume configuration unit 20 forms volume data corresponding to the three-dimensional space by performing reconstruction processing on the received data obtained from the three-dimensional space. The volume configuration unit 20 performs reconstruction processing such as coordinate conversion processing and interpolation processing on the received data obtained in the scanning coordinate system (for example, rθφ coordinate system), and corresponds to the orthogonal coordinate system (for example, xyz coordinate system). Form the volume data. Volume data is composed of a plurality of voxel data arranged three-dimensionally in, for example, a data space of a Cartesian coordinate system.

レンダリング演算部30は、ボリュームデータを構成する複数のボクセルデータに基づいてレンダリング演算(ボクセル演算)を実行する。 The rendering calculation unit 30 executes a rendering calculation (voxel calculation) based on a plurality of voxel data constituting the volume data.

図2は、レンダリング演算の具体例を示す図である。レンダリング演算(レンダリング処理)においては、三次元空間に対応したボリュームデータ32の外側に演算上の仮想的な視点が設定され、その視点側からボリュームデータ32に対して複数の視線(レイ)34が設定される。さらに、画像面として機能する演算上のスクリーン36が設定される。なお、図2において、スクリーン36は、ボリュームデータ32を間に挟んで、視点の反対側に図示されているが、ボリュームデータ32よりも視点側に配置されて、後に詳述する深さの基準位置とされてもよい。 FIG. 2 is a diagram showing a specific example of the rendering operation. In the rendering operation (rendering process), a virtual viewpoint is set outside the volume data 32 corresponding to the three-dimensional space, and a plurality of lines of sight (rays) 34 are set from the viewpoint side to the volume data 32. Set. Further, an arithmetic screen 36 that functions as an image plane is set. In FIG. 2, the screen 36 is shown on the opposite side of the viewpoint with the volume data 32 in between, but is arranged on the viewpoint side of the volume data 32 and is a reference for the depth described in detail later. It may be a position.

レンダリング演算では、ボリュームデータ32に対して設定された複数の視線(レイ)の各視線ごとに、その視線に対応した複数のボクセルデータが処理対象となる。例えば、ボリュームデータ32を構成する複数のボクセルデータから、補間処理などにより、各視線に対応した(各視線上に並ぶ)複数のボクセルデータが得られる。 In the rendering calculation, for each line of sight of the plurality of lines of sight (rays) set for the volume data 32, a plurality of voxel data corresponding to the line of sight is processed. For example, from a plurality of voxel data constituting the volume data 32, a plurality of voxel data corresponding to each line of sight (arranged on each line of sight) can be obtained by interpolation processing or the like.

図1に戻り、レンダリング演算部30は、輝度のレンダリング演算により、複数の視線から各視線ごとに得られる輝度情報を各画素の画素値とすることにより、スクリーン(画像面)内の複数画素の画素値を得る。これにより、スクリーンを投影面とする輝度情報の投影画像データが形成される。 Returning to FIG. 1, the rendering calculation unit 30 sets the luminance information obtained for each line of sight from the plurality of lines of sight as the pixel value of each pixel by the rendering calculation of the brightness, so that the plurality of pixels in the screen (image surface) can be displayed. Get the pixel value. As a result, projected image data of luminance information with the screen as the projection surface is formed.

輝度のレンダリング処理では、各視線ごとに、視点側からその視線に対応した複数のボクセルデータ(ボクセルの輝度情報)に対して、不透明度(オパシティ)を用いたレンダリング法に基づくボクセル演算が逐次的に実行される。そして、各視線ごとに最終のボクセル演算の結果としてその視線に対応した輝度情報が決定され、複数の視線から各視線ごとに得られる輝度情報をスクリーン内の各画素にマッピングすることにより、スクリーンを投影面とする輝度情報の投影画像データが形成される。輝度情報の投影画像データは遮蔽処理部60に出力される。 In the brightness rendering process, for each line of sight, voxel operations based on the rendering method using opacity (opacity) are sequentially performed on a plurality of voxel data (voxel brightness information) corresponding to the line of sight from the viewpoint side. Is executed. Then, as a result of the final voxel calculation for each line of sight, the luminance information corresponding to that line of sight is determined, and the luminance information obtained for each line of sight from the plurality of lines of sight is mapped to each pixel in the screen to display the screen. Projected image data of luminance information used as a projection surface is formed. The projected image data of the luminance information is output to the shielding processing unit 60.

また、レンダリング演算部30は、複数の視線から各視線ごとに得られる深度情報を各画素に対応付けた深度情報の投影画像データを形成する。深度情報の投影画像データの好適な具体例は、特許文献1に記載される距離投影画像データである。 Further, the rendering calculation unit 30 forms projected image data of depth information in which depth information obtained for each line of sight from a plurality of lines of sight is associated with each pixel. A preferred specific example of the projected image data of the depth information is the distance projected image data described in Patent Document 1.

レンダリング演算部30は、例えば特許文献1の第0023段落等に詳述される距離のレンダリング処理を実行して、複数の視線の各視線ごとに距離Doutを算出し、各視線ごとに算出される距離Doutをスクリーン(画像面)内の各画素に対応付けることにより、スクリーンを投影面とする距離投影画像データを得る。距離Doutは、例えば数1式により算出される。 The rendering calculation unit 30 executes, for example, a distance rendering process detailed in paragraph 0023 of Patent Document 1, calculates a distance D out for each line of sight of a plurality of lines of sight, and calculates each line of sight. By associating the distance D out with each pixel in the screen (image plane), the distance projection image data with the screen as the projection plane is obtained. The distance D out is calculated by, for example, the equation 1.

数1式において、距離Dは各視線上に存在するi番目(iは自然数)のボクセルの距離であり、例えばボリュームデータ内のボクセルピッチから算定される。Aは各視線上に存在するi番目のボクセルの輝度値に対応した不透明度であり、また、不透明度の積算値であるAout−1は数2式により算出される。 In the equation 1, the distance Di is the distance of the i-th (i is a natural number) voxel existing on each line of sight, and is calculated from, for example, the voxel pitch in the volume data. A i is the opacity corresponding to the brightness value of the i-th voxel existing on each line of sight, and A out-1, which is the integrated value of the opacity, is calculated by the equation 2.

距離のレンダリング処理により算出される距離Doutは、各視線上に並ぶ複数のボクセルの距離Dを不透明度Aを利用して積算したものであり、その視線上における輝度のレンダリング処理と同じ条件(Aout=1または視線上の最終ボクセル)で積算が終了する。 The distance D out calculated by the distance rendering process is the sum of the distance D i of a plurality of voxels lined up on each line of sight using the opacity A i , and is the same as the brightness rendering process on that line of sight. The integration ends under the condition (A out = 1 or the last voxel on the line of sight).

距離Doutは、各視線上における基準位置(例えばボリュームデータよりも視点側に設定されるスクリーンの位置)からの積算距離であり、各視線上において基準位置側から見た深さに対応する。そこで、例えば複数の視線の各視線ごとに算出された距離Doutが各視線の深度データとして、深度データ記憶部40に記憶される。 The distance D out is the integrated distance from the reference position on each line of sight (for example, the position of the screen set on the viewpoint side of the volume data), and corresponds to the depth seen from the reference position side on each line of sight. Therefore, for example, the distance D out calculated for each line of sight of the plurality of lines of sight is stored in the depth data storage unit 40 as the depth data of each line of sight.

遮蔽処理部60は、レンダリング演算により得られた超音波画像、例えば胎児等の診断対象を立体的に表現した輝度情報の投影画像データに対して、陰影効果を与えるための遮蔽処理を実行する。自然な陰影効果を得るために、超音波画像内の注目点が周囲の環境からの光である環境光の影響をどの程度受けているのかが評価される。その評価において、例えば、アンビエントオクルージョン(環境遮蔽)の考え方を利用することが望ましい。 The shading processing unit 60 executes a shading process to give a shading effect to the ultrasonic image obtained by the rendering calculation, for example, the projected image data of the luminance information that three-dimensionally represents the diagnosis target such as a foetation. In order to obtain a natural shading effect, it is evaluated how much the point of interest in the ultrasonic image is influenced by the ambient light, which is the light from the surrounding environment. In the evaluation, for example, it is desirable to use the concept of ambient occlusion (environmental shielding).

アンビエントオクルージョン(環境遮蔽)では、注目点が周囲の環境によってどのくらい遮蔽されているのかを検討する。つまり注目点における遮蔽度(遮蔽の程度)が評価される。その遮蔽度を評価する数値の具体例が遮蔽率であり、遮蔽率算出部50において算出される。 Ambient occlusion (environmental shielding) examines how much attention is shielded by the surrounding environment. That is, the degree of shielding (degree of shielding) at the point of interest is evaluated. A specific example of a numerical value for evaluating the degree of shielding is the shielding rate, which is calculated by the shielding rate calculation unit 50.

遮蔽率算出部50は、スクリーン(画像面)内の各画素を注目画素とし、注目画素に対応した深さにある立体的な評価領域内を遮蔽部位が占める割合に応じて、その注目画素の遮蔽率を算出する。 The shielding rate calculation unit 50 uses each pixel in the screen (image surface) as a pixel of interest, and the shielding portion 50 occupies a three-dimensional evaluation area at a depth corresponding to the pixel of interest. Calculate the shielding rate.

図3は、立体的な評価領域の具体例を示す図である。図3には、矩形(立方体)の評価領域52が図示されている。図3に示すXYZ座標系において、X軸はスクリーン36の横方向に対応しており、Y軸はスクリーン36の縦方向に対応している。また、Z軸は、スクリーン36に対して直交する各視線34の方向に対応している。 FIG. 3 is a diagram showing a specific example of the three-dimensional evaluation region. FIG. 3 shows a rectangular (cube) evaluation area 52. In the XYZ coordinate system shown in FIG. 3, the X-axis corresponds to the horizontal direction of the screen 36, and the Y-axis corresponds to the vertical direction of the screen 36. Further, the Z axis corresponds to the direction of each line of sight 34 orthogonal to the screen 36.

図3に示す具体例の評価領域52は、注目画素の深さに対応した座標Pを中心として、X軸Y軸Z軸の各軸方向の幅が(2K+1)個(Kは自然数)のサンプル点に対応した矩形領域(立方体)である。例えばX軸方向に(2K+1)本かつY軸方向に(2K+1)本の合計(2K+1)×(2K+1)本の視線34が評価領域52を通過する。 The evaluation region 52 of the specific example shown in FIG. 3 is a sample having (2K + 1) widths (K is a natural number) in each axial direction of the X-axis, Y-axis, and Z-axis with the coordinate P corresponding to the depth of the pixel of interest as the center. It is a rectangular area (cube) corresponding to a point. For example, a total of (2K + 1) × (2K + 1) lines of sight 34 of (2K + 1) lines in the X-axis direction and (2K + 1) lines in the Y-axis direction pass through the evaluation area 52.

遮蔽率算出部50(図1)は、評価領域52内を通る各視線34ごとに遮蔽部位までの深さと評価領域52の境界までの深さの差分値を得ることにより、評価領域52内を通る複数の視線34から得られる複数の差分値に基づいて注目画素の遮蔽率を算出する。 The shielding rate calculation unit 50 (FIG. 1) obtains a difference value between the depth to the shielding portion and the depth to the boundary of the evaluation area 52 for each line of sight 34 passing through the evaluation area 52, thereby performing the inside of the evaluation area 52. The shielding rate of the pixel of interest is calculated based on a plurality of difference values obtained from the plurality of lines of sight 34 passing through.

遮蔽率算出部50は、深度データ記憶部40(図1)に記憶された深度データを利用して評価領域52内を通る各視線34ごとに遮蔽部位までの深さと評価領域52の境界までの深さの差分値を算出する。 The shielding rate calculation unit 50 uses the depth data stored in the depth data storage unit 40 (FIG. 1) to reach the depth to the shielding portion and the boundary of the evaluation area 52 for each line of sight 34 passing through the evaluation area 52. Calculate the difference value of the depth.

深度データ記憶部40には、複数の視線34の各視線34ごとに遮蔽部位までの深さを示す深度データが記憶される。例えばレンダリング演算部30(図1)における距離のレンダリング処理により、各視線34ごとに算出された距離Doutが深度データの好適な具体例であり、各視線34ごとに算出された距離Doutが遮蔽部位までの深さとされる。 The depth data storage unit 40 stores depth data indicating the depth to the shielded portion for each line of sight 34 of the plurality of line of sight 34. For example, the distance D out calculated for each line of sight 34 by the distance rendering process in the rendering calculation unit 30 (FIG. 1) is a suitable specific example of the depth data, and the distance D out calculated for each line of sight 34 is a suitable specific example. It is said to be the depth to the shielded part.

遮蔽率算出部50は、深度データ記憶部40に記憶された深度データに基づいて、例えば数3式を利用することにより、座標(x,y)の注目画素の遮蔽率k(x,y)を算出する。 The shielding rate calculation unit 50 uses, for example, the equation 3 based on the depth data stored in the depth data storage unit 40, so that the shielding rate k A (x, y) of the pixel of interest at the coordinates (x, y) ) Is calculated.

数3式において、z(x+i,y+j)は座標(x+i,y+j)を通る視線34の深度データである。z(x,y)は座標(x,y)を通る視線34の深度データであり、注目画素の深さに対応する。また(z(x,y)−K)は、注目画素の深さz(x,y)よりも距離Kだけ浅い位置の深さであり、評価領域52の開始面のz座標(Z軸上の位置)となる。 In Equation 3, z (x + i, y + j) is the depth data of the line of sight 34 passing through the coordinates (x + i, y + j). z (x, y) is the depth data of the line of sight 34 passing through the coordinates (x, y), and corresponds to the depth of the pixel of interest. Further, (z (x, y) -K) is a depth at a position shallower by a distance K than the depth z (x, y) of the pixel of interest, and is the z coordinate (on the Z axis) of the start surface of the evaluation region 52. Position).

また、X軸方向のサンプル番号(サンプルとなる視線を特定する番号)のiは−Kから+Kの範囲の値であり、Y軸方向のサンプル番号(サンプルとなる視線を特定する番号)のjも−Kから+Kの範囲の値となる。 Further, i of the sample number in the X-axis direction (the number for specifying the line of sight as a sample) is a value in the range of −K to + K, and j in the sample number in the Y-axis direction (the number for specifying the line of sight as a sample). Is also a value in the range of -K to + K.

数3式を利用した演算では、評価領域52内を通る全ての視線34を対象とすることが望ましい。なお、数3式の演算は、評価領域52内を遮蔽部位が占める割合(比)を評価するものであるため、評価領域52内を通る全ての視線34を対象とせずに離散的にサンプリングされた複数の視線34のみを対象として演算を簡略化してもよい。 In the calculation using the equation (3), it is desirable to target all the lines of sight 34 passing through the evaluation area 52. Since the calculation of the equation 3 is to evaluate the ratio (ratio) of the shielding portion in the evaluation area 52, it is sampled discretely without targeting all the lines of sight 34 passing through the evaluation area 52. The calculation may be simplified by targeting only a plurality of lines of sight 34.

数3式を利用した演算において、Z軸方向つまり視線方向については、深さの差分値が利用されるため、視線方向に並ぶ全点(全ボクセル)をサンプリング対象とした場合に相当する演算結果を得ることができる。 In the calculation using the equation 3, since the difference value of the depth is used in the Z-axis direction, that is, the line-of-sight direction, the calculation result corresponding to the case where all the points (all voxels) lined up in the line-of-sight direction are sampled. Can be obtained.

遮蔽率算出部50は、スクリーン36内の全画素の各々を注目画素とし、例えば数3式を利用して各画素ごとに遮蔽率を算出する。 The shading rate calculation unit 50 uses each of all the pixels in the screen 36 as a pixel of interest, and calculates the shading rate for each pixel by using, for example, Equation 3.

図1に戻り、遮蔽処理部60は、レンダリング演算部30による輝度のレンダリング演算により得られた超音波画像、例えば胎児等の診断対象を立体的に表現した輝度情報の投影画像データに対して陰影効果を与えるための遮蔽処理を実行する。遮蔽処理部60は、遮蔽率算出部50によりスクリーン内の各画素ごとに算出された遮蔽率を用いて、その画素の画素値を補正して遮蔽処理後の画素値とすることにより、スクリーン内の全画素についての遮蔽処理後の画素値を得る。 Returning to FIG. 1, the shielding processing unit 60 shades the ultrasonic image obtained by the rendering calculation of the brightness by the rendering calculation unit 30, for example, the projected image data of the brightness information that three-dimensionally expresses the diagnosis target such as a foetation. Performs shielding to give an effect. The shielding processing unit 60 uses the shielding rate calculated for each pixel in the screen by the shielding rate calculation unit 50 to correct the pixel value of the pixel to obtain the pixel value after the shielding process, thereby forming the inside of the screen. Obtain the pixel values after the shielding process for all the pixels of.

遮蔽処理部60は、例えば数4式を利用することにより、スクリーン内の各画素に関する遮蔽処理後の画素値(輝度値)を算出する。 The shielding processing unit 60 calculates the pixel value (luminance value) after the shielding processing for each pixel in the screen by using, for example, the equation (4).

数4式において、Iorg(x,y)は、スクリーン内の座標(x,y)にある画素の遮蔽処理前の画素値(輝度値)であり、k(x,y)は座標(x,y)にある画素の遮蔽率であり、Inew(x,y)は座標(x,y)にある画素の遮蔽処理後の画素値(輝度値)である。 In Equation 4, Iorg (x, y) is the pixel value (luminance value) of the pixel at the coordinates (x, y) in the screen before the shielding process, and k A (x, y) is the coordinate (x, y). It is the shielding rate of the pixel at x, y), and Inew (x, y) is the pixel value (luminance value) of the pixel at the coordinate (x, y) after the shielding process.

遮蔽処理部60は、スクリーン内の全画素、つまり輝度情報の投影画像データを構成する全画素を対象とし、各画素ごとに例えば数4式により遮蔽処理後の画素値を算出する。 The shielding processing unit 60 targets all the pixels in the screen, that is, all the pixels constituting the projected image data of the luminance information, and calculates the pixel value after the shielding processing for each pixel by, for example, the equation four.

画像形成部70は、スクリーン内の複数画素の遮蔽処理後の画素値に基づいて超音波画像を形成する。画像形成部70は、例えば、遮蔽処理部60から得られる、輝度情報の投影画像データを構成する全画素についての遮蔽処理後の画素値(輝度値)に基づいて、超音波画像を形成する。これにより、例えば胎児等の診断対象を立体的に表現しつつ自然な陰影効果をもった超音波画像が形成されて表示部72に表示される。 The image forming unit 70 forms an ultrasonic image based on the pixel values of a plurality of pixels in the screen after the shielding process. The image forming unit 70 forms an ultrasonic image based on, for example, the pixel values (luminance values) after the shielding processing for all the pixels constituting the projected image data of the luminance information obtained from the shielding processing unit 60. As a result, an ultrasonic image having a natural shadow effect while three-dimensionally expressing a diagnosis target such as a foetation is formed and displayed on the display unit 72.

なお、遮蔽処理部60は、遮蔽率を用いて各画素の画素値を補正するにあたり、超音波画像の拡大率に応じた補正を加えて、その画素の遮蔽処理後の画素値を得るようにしてもよい。 In addition, when the shielding processing unit 60 corrects the pixel value of each pixel using the shielding ratio, the shielding processing unit 60 adds the correction according to the enlargement ratio of the ultrasonic image to obtain the pixel value after the shielding processing of the pixel. You may.

図4は、超音波画像の拡大率を説明するための図である。図4には、拡大前と拡大後の超音波画像の具体例が図示されている。拡大前と拡大後の超音波画像は互いに同じ診断対象を映し出した画像である。例えば、拡大前の画像として胎児の体を全体的に表示した超音波画像が形成され、拡大後の画像として同じ胎児の顔を大きく映し出した超音波画像が形成される。 FIG. 4 is a diagram for explaining the enlargement ratio of the ultrasonic image. FIG. 4 shows specific examples of ultrasonic images before and after enlargement. The ultrasonic images before and after enlargement are images showing the same diagnostic object. For example, an ultrasonic image showing the entire body of the foetation is formed as an image before enlargement, and an ultrasonic image is formed as a large image of the face of the same foetation as an image after enlargement.

拡大率Sは、例えば「S=D/D」と定義される。ここで、Dは拡大前の診断対象の表示サイズ(例えば表示部72の表示画面上における大きさ)であり、Dは同じ診断対象の拡大後の表示サイズである。 Enlargement ratio S is defined for example as "S = D L / D S". Here, D S is the diagnostic object display size before enlargement (e.g. size on the display screen of the display unit 72), D L is the display size after the enlargement of the same diagnostic object.

超音波画像の拡大率Sに応じた補正を加える場合、遮蔽処理部60は、例えば数5式を利用して、スクリーン内の各画素に関する遮蔽処理後の画素値(輝度値)を算出する。 When the correction according to the enlargement ratio S of the ultrasonic image is applied, the shielding processing unit 60 calculates the pixel value (luminance value) after the shielding processing for each pixel in the screen by using, for example, Equation 5.

数5式において、Iorg(x,y)は、スクリーン内の座標(x,y)にある画素の遮蔽処理前の画素値(輝度値)であり、k(x,y)は座標(x,y)にある画素の遮蔽率であり、Sは拡大率であり、Inew(x,y)は座標(x,y)にある画素の遮蔽処理後の画素値(輝度値)である。 In the equation 5, Iorg (x, y) is the pixel value (luminance value) of the pixel at the coordinates (x, y) in the screen before the shielding process, and k A (x, y) is the coordinate (x, y). It is the shielding rate of the pixel at x, y), S is the enlargement rate, and Inew (x, y) is the pixel value (luminance value) of the pixel at the coordinate (x, y) after the shielding process. ..

超音波画像の拡大率に応じた補正を加えて、例えば表示サイズに比例して遮蔽された位置の暗さを増加させることにより、例えば医師や検査技師等のユーザの目には、表示サイズが大きいほど遮蔽された影が増加することとなり、さらに臨場感を伴った陰影の効果を与えることができる。 By making corrections according to the magnification of the ultrasonic image and increasing the darkness of the shielded position in proportion to the display size, for example, the display size becomes visible to the eyes of users such as doctors and examination engineers. The larger the value, the more shaded shadows will be, and it is possible to give the effect of shadows with a sense of presence.

なお、超音波画像の拡大率に応じて、複数の視線34(図3)の密度が変更されてもよい。例えば、拡大率が大きいほど複数の視線34の密度が高められてもよい。例えば、拡大後の画像として胎児の顔を大きく映し出した超音波画像を形成する場合に、胎児の顔に対応した領域に複数の視線34が集中的に配置される。また、超音波画像の拡大前と拡大後において、実空間内における評価領域52(図3)の大きさは固定することが望ましいものの、必要に応じて実空間内における評価領域52の大きさが調整されてもよい。 The densities of the plurality of lines of sight 34 (FIG. 3) may be changed according to the enlargement ratio of the ultrasonic image. For example, the higher the magnification, the higher the density of the plurality of lines of sight 34 may be. For example, when forming an ultrasonic image in which the face of a foetation is greatly projected as an enlarged image, a plurality of lines of sight 34 are concentratedly arranged in a region corresponding to the face of the foetation. Further, although it is desirable that the size of the evaluation area 52 (FIG. 3) in the real space is fixed before and after the enlargement of the ultrasonic image, the size of the evaluation area 52 in the real space may be changed as necessary. It may be adjusted.

図1に戻り、制御部100は、図1の超音波診断装置内を全体的に制御する。制御部100による全体的な制御には、操作デバイス80を介して医師や検査技師などのユーザから受け付けた指示も反映される。 Returning to FIG. 1, the control unit 100 controls the inside of the ultrasonic diagnostic apparatus of FIG. 1 as a whole. The overall control by the control unit 100 also reflects instructions received from users such as doctors and laboratory technicians via the operation device 80.

図1に示す構成のうち、送受信部12,ボリューム構成部20,レンダリング演算部30,遮蔽率算出部50,遮蔽処理部60,画像形成部70の各部は、例えば、電気電子回路やプロセッサ等のハードウェアを利用して実現することができ、その実現において必要に応じてメモリ等のデバイスが利用されてもよい。また上記各部に対応した機能の少なくとも一部がコンピュータにより実現されてもよい。つまり、上記各部に対応した機能の少なくとも一部が、CPUやプロセッサやメモリ等のハードウェアと、CPUやプロセッサの動作を規定するソフトウェア(プログラム)との協働により実現されてもよい。 Among the configurations shown in FIG. 1, each unit of the transmission / reception unit 12, the volume configuration unit 20, the rendering calculation unit 30, the shielding rate calculation unit 50, the shielding processing unit 60, and the image forming unit 70 includes, for example, an electric / electronic circuit, a processor, or the like. It can be realized by using hardware, and a device such as a memory may be used as needed in the realization. Further, at least a part of the functions corresponding to each of the above parts may be realized by a computer. That is, at least a part of the functions corresponding to each of the above parts may be realized by the cooperation of hardware such as a CPU, a processor, and a memory, and software (program) that defines the operation of the CPU and the processor.

深度データ記憶部40は、半導体メモリやハードディスクドライブなどの記憶デバイスにより実現できる。表示部72の好適な具体例は液晶ディスプレイや有機EL(エレクトロルミネッセンス)ディスプレイ等である。操作デバイス80は、例えば、マウス、キーボード、トラックボール、タッチパネル、その他のスイッチ類等のうちの少なくとも一つにより実現できる。そして、制御部100は、例えば、CPUやプロセッサやメモリ等のハードウェアと、CPUやプロセッサの動作を規定するソフトウェア(プログラム)との協働により実現することができる。 The depth data storage unit 40 can be realized by a storage device such as a semiconductor memory or a hard disk drive. Preferable specific examples of the display unit 72 are a liquid crystal display, an organic EL (electroluminescence) display, and the like. The operation device 80 can be realized by, for example, at least one of a mouse, a keyboard, a trackball, a touch panel, and other switches. The control unit 100 can be realized, for example, by cooperating with hardware such as a CPU, a processor, and a memory, and software (program) that defines the operation of the CPU and the processor.

また、図1に示す構成のうち、例えばレンダリング演算部30と遮蔽率算出部50と遮蔽処理部60と画像形成部70の機能をコンピュータにより実現し、そのコンピュータを超音波画像処理装置として機能させてもよい。 Further, among the configurations shown in FIG. 1, for example, the functions of the rendering calculation unit 30, the shielding rate calculation unit 50, the shielding processing unit 60, and the image forming unit 70 are realized by a computer, and the computer is made to function as an ultrasonic image processing device. You may.

以上、本発明の好適な実施形態を説明したが、上述した実施形態は、あらゆる点で単なる例示にすぎず、本発明の範囲を限定するものではない。本発明は、その本質を逸脱しない範囲で各種の変形形態を包含する。 Although preferred embodiments of the present invention have been described above, the above-described embodiments are merely examples in all respects, and do not limit the scope of the present invention. The present invention includes various modified forms without departing from its essence.

10 プローブ、12 送受信部、20 ボリューム構成部、30 レンダリング演算部、40 深度データ記憶部、50 遮蔽率算出部、60 遮蔽処理部、70 画像形成部、72 表示部、80 操作デバイス、100 制御部。 10 probe, 12 transmitter / receiver, 20 volume component, 30 rendering calculation unit, 40 depth data storage unit, 50 shielding rate calculation unit, 60 shielding processing unit, 70 image forming unit, 72 display unit, 80 operation device, 100 control unit ..

Claims (5)

超音波のボリュームデータに基づく演算により複数の視線から各視線ごとに得られる輝度情報を画像面内の各画素の画素値とすることにより、画像面内の複数画素の画素値を得る演算手段と、
画像面内の各画素を注目画素とし、注目画素に対応した深さにある立体的な評価領域内を遮蔽部位が占める割合に応じて注目画素の遮蔽度を算出する手段であって、評価領域内を通る各視線ごとに遮蔽部位までの深さと評価領域の境界までの深さの差分値を得ることにより、評価領域内を通る複数の視線から得られる複数の差分値に基づいて、注目画素の遮蔽度を算出する遮蔽度算出手段と、
画像面内の複数画素の各々を注目画素として各画素ごとに算出される遮蔽度を用いて当該各画素の画素値を補正して遮蔽処理後の画素値とすることにより、画像面内の複数画素の遮蔽処理後の画素値を得る遮蔽処理手段と、
画像面内の複数画素の遮蔽処理後の画素値に基づいて超音波画像を形成する画像形成手段と、
を有し、
前記遮蔽処理手段は、前記遮蔽度を用いて各画素の画素値を補正するにあたり、前記超音波画像の拡大率に応じた補正を加えて、当該各画素の遮蔽処理後の画素値を得る、
ことを特徴とする超音波画像処理装置。
A calculation means for obtaining the pixel values of a plurality of pixels in the image plane by converting the luminance information obtained for each line of sight from a plurality of lines of sight into the pixel values of each pixel in the image plane by the calculation based on the volume data of ultrasonic waves. ,
Each pixel in the image plane is regarded as a pixel of interest, and it is a means for calculating the degree of shielding of the pixel of interest according to the ratio of the shielding portion in the three-dimensional evaluation area at the depth corresponding to the pixel of interest. By obtaining the difference value between the depth to the shielding part and the depth to the boundary of the evaluation area for each line of sight passing through the inside, the pixel of interest is based on the plurality of difference values obtained from the plurality of lines of sight passing through the evaluation area. Shielding degree calculation means for calculating the shielding degree of
By using each of the plurality of pixels in the image plane as the pixel of interest and using the degree of shielding calculated for each pixel to correct the pixel value of each pixel to obtain the pixel value after the shielding process, a plurality of pixels in the image plane. A shielding processing means for obtaining the pixel value after the pixel shielding processing, and
An image forming means for forming an ultrasonic image based on the pixel values of a plurality of pixels in the image plane after the shielding process, and
Have a,
When the shielding processing means corrects the pixel value of each pixel by using the shielding degree, the shielding processing means adds a correction according to the enlargement ratio of the ultrasonic image to obtain the pixel value after the shielding processing of each pixel.
An ultrasonic image processing device characterized by this.
請求項1に記載の超音波画像処理装置において、
前記遮蔽度算出手段は、前記画像面内の2方向に対応したX軸及びY軸と前記各視線の方向に対応したZ軸とにより構成される3次元座標系において、X軸方向とY軸方向とZ軸方向に広がって注目画素に対応した座標を取り囲む3次元領域を前記評価領域とする、
ことを特徴とする超音波画像処理装置。
In the ultrasonic image processing apparatus according to claim 1,
The shielding degree calculation means is a three-dimensional coordinate system composed of an X-axis and a Y-axis corresponding to two directions in the image plane and a Z-axis corresponding to each line-of-sight direction, and the X-axis direction and the Y-axis. The evaluation area is a three-dimensional area that extends in the direction and the Z-axis direction and surrounds the coordinates corresponding to the pixel of interest.
An ultrasonic image processing device characterized by this.
請求項2に記載の超音波画像処理装置において、
前記遮蔽度算出手段は、前記評価領域内を通る各視線ごとにZ軸方向の演算結果として前記差分値を算出し、前記評価領域内を通りX軸方向とY軸方向に2次元的に並ぶ複数の視線からZ軸方向の演算結果として得られる複数の前記差分値に基づいて、前記評価領域に対応した注目画素の遮蔽度を算出する、
ことを特徴とする超音波画像処理装置。
In the ultrasonic image processing apparatus according to claim 2,
The shielding degree calculating means calculates the difference value as a calculation result in the Z-axis direction for each line of sight passing through the evaluation region, passes through the evaluation region, and is two-dimensionally arranged in the X-axis direction and the Y-axis direction. The degree of shielding of the pixel of interest corresponding to the evaluation region is calculated based on the plurality of difference values obtained as the calculation results in the Z-axis direction from the plurality of lines of sight.
An ultrasonic image processing device characterized by this.
請求項に記載の超音波画像処理装置において、
前記拡大率が変更されても前記評価領域の実空間内での大きさは固定される、
ことを特徴とする超音波画像処理装置。
In the ultrasonic image processing apparatus according to claim 1 ,
Even if the enlargement ratio is changed, the size of the evaluation region in the real space is fixed.
An ultrasonic image processing device characterized by this.
請求項1から4のいずれか1項に記載の超音波画像処理装置において、
複数の視線の各視線ごとに遮蔽部位までの深さを示す深度データを記憶する記憶手段をさらに有し、
前記遮蔽度算出手段は、前記記憶手段に記憶された深度データを利用して評価領域内を通る各視線ごとに遮蔽部位までの深さと評価領域の境界までの深さの差分値を算出する、
ことを特徴とする超音波画像処理装置。
In the ultrasonic image processing apparatus according to any one of claims 1 to 4.
It further has a storage means for storing depth data indicating the depth to the shielded portion for each line of sight of a plurality of lines of sight.
The shielding degree calculating means calculates the difference value between the depth to the shielding portion and the depth to the boundary of the evaluation area for each line of sight passing through the evaluation area by using the depth data stored in the storage means.
An ultrasonic image processing device characterized by this.
JP2017055313A 2017-03-22 2017-03-22 Ultrasonic image processing equipment Active JP6793074B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017055313A JP6793074B2 (en) 2017-03-22 2017-03-22 Ultrasonic image processing equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017055313A JP6793074B2 (en) 2017-03-22 2017-03-22 Ultrasonic image processing equipment

Publications (2)

Publication Number Publication Date
JP2018157872A JP2018157872A (en) 2018-10-11
JP6793074B2 true JP6793074B2 (en) 2020-12-02

Family

ID=63796139

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017055313A Active JP6793074B2 (en) 2017-03-22 2017-03-22 Ultrasonic image processing equipment

Country Status (1)

Country Link
JP (1) JP6793074B2 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002209880A (en) * 2000-12-26 2002-07-30 Ge Medical Systems Global Technology Co Llc X-ray ct system, operation console, and its control method, and recording medium
DE102009042328B4 (en) * 2009-09-21 2024-02-15 Siemens Healthcare Gmbh Efficient determination of lighting effects during volume rendering
JP5525930B2 (en) * 2010-06-23 2014-06-18 株式会社日立メディコ Ultrasound diagnostic device for generating and displaying 3D ultrasound images
CN104781851B (en) * 2012-11-19 2017-12-12 索尼电脑娱乐公司 Image processing apparatus and image processing method
US10002457B2 (en) * 2014-07-01 2018-06-19 Toshiba Medical Systems Corporation Image rendering apparatus and method

Also Published As

Publication number Publication date
JP2018157872A (en) 2018-10-11

Similar Documents

Publication Publication Date Title
JP5632680B2 (en) Ultrasonic image processing device
JP6688618B2 (en) Medical image processing apparatus and medical image diagnostic apparatus
KR101100464B1 (en) Ultrasound system and method for providing three-dimensional ultrasound image based on sub region of interest
KR102054680B1 (en) Image processing apparatus, ultrasonic imaging apparatus and method for image processing
KR101353303B1 (en) Graphics processing unit and image processing apparatus having graphics processing unit and image processing method using graphics processing unit
JP2006055213A (en) Image processor and program
JP2008259699A (en) Image processing method and apparatus, and program
EP2012140A1 (en) Ultrasound diagnosis apparatus
US20170352134A1 (en) Ultrasound diagnostic device
EP2966468A1 (en) Providing at least one slice image based on at least three points in an ultrasound system
JP2015050482A (en) Image processing device, stereoscopic image display device, image processing method, and program
MX2014000639A (en) Method and system for performing rendering.
JP6793074B2 (en) Ultrasonic image processing equipment
JP6890677B2 (en) A virtual light source embedded in a 3D volume and coupled to the crosshairs in the MPR diagram
KR100466409B1 (en) System and method for displaying a virtual endoscopy and computer-readable recording medium having virtual endoscopy displaying program recorded thereon
JP5065740B2 (en) Image processing method, apparatus, and program
JP5946197B2 (en) Ultrasonic diagnostic equipment
JP4909137B2 (en) Volume data processing apparatus and method
JP6793075B2 (en) Ultrasonic image processing equipment
JP2018187131A (en) Ultrasonic image processing device
JP2018153561A (en) Ultrasound image processing apparatus
JP2013013650A (en) Ultrasonic image processor
JP2017093842A (en) Ultrasonic volume data processing apparatus
JP6809950B2 (en) Ultrasonic image processing equipment
JP5950291B1 (en) Ultrasonic diagnostic apparatus and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190626

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200728

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200915

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201109

R150 Certificate of patent or registration of utility model

Ref document number: 6793074

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250