JP2005111053A - Ultrasonic image pickup device - Google Patents

Ultrasonic image pickup device Download PDF

Info

Publication number
JP2005111053A
JP2005111053A JP2003350687A JP2003350687A JP2005111053A JP 2005111053 A JP2005111053 A JP 2005111053A JP 2003350687 A JP2003350687 A JP 2003350687A JP 2003350687 A JP2003350687 A JP 2003350687A JP 2005111053 A JP2005111053 A JP 2005111053A
Authority
JP
Japan
Prior art keywords
image information
depth direction
imaging apparatus
value
parameter value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003350687A
Other languages
Japanese (ja)
Other versions
JP4515740B2 (en
Inventor
Kazusumi Hayasaka
一純 早坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GE Medical Systems Global Technology Co LLC
Original Assignee
GE Medical Systems Global Technology Co LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GE Medical Systems Global Technology Co LLC filed Critical GE Medical Systems Global Technology Co LLC
Priority to JP2003350687A priority Critical patent/JP4515740B2/en
Publication of JP2005111053A publication Critical patent/JP2005111053A/en
Application granted granted Critical
Publication of JP4515740B2 publication Critical patent/JP4515740B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an ultrasonic image pickup device for reducing non-continuous changes of the boundary of images at the time of performing multi-stage focusing. <P>SOLUTION: The evaluation parameter value of a depth direction using a pixel value indicating luminance, a frequency spectrum or an autocorrelation function or the like is calculated and the positions of sectioning lines 12, 23, 24 and 32 forming the boundaries of superimposing areas 11, 21, 22 and 31 are set at the positions of the depth direction where the evaluation parameter value is most approximate. Thus, the sectioning lines 12, 23, 24 and 32 are set at the depth direction positions where the luminance, the frequency spectrum or an autocorrelation function value is most approximate, and the non-continuous changes of image quality before and after the sectioning line 42 or 43 forming the boundary of composite image information 40 are reduced. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

この発明は、多段フォーカス(focus)を用いて送受信を行う超音波撮像装置に関する。   The present invention relates to an ultrasonic imaging apparatus that performs transmission / reception using a multistage focus.

超音波撮像装置を用いた被検体の撮像においては、超音波ビーム(beam)の指向特性を改善する目的で、複数の探触子エレメント(element)を、遅延時間をもって送受信し、被検体内の所定の深さでフォーカシング(focusing)を行い、より鮮明な画像を取得することが行われる(例えば、非特許文献1参照)。   In imaging of an object using an ultrasonic imaging apparatus, a plurality of probe elements (elements) are transmitted and received with a delay time in order to improve the directivity characteristics of an ultrasonic beam (beam). Focusing is performed at a predetermined depth to obtain a clearer image (see, for example, Non-Patent Document 1).

また、深さの方向のフォーカシング位置が異なる複数の画像を取得し、これら画像を、フォーカシング位置を中心に組み合わせ、さらに鮮明な一枚の画像を合成することも行われる。この多段フォーカスにおいては、特に、動きの少ない撮像部位において、画像全体に渡ってフォーカスされた鮮明な画像が取得される。
岩井 喜典、外2名著、「医用画像診断装置」コロナ社、1988年12月30日、p.217―219
It is also possible to obtain a plurality of images having different focusing positions in the depth direction, combine these images around the focusing position, and synthesize a clearer image. In this multistage focusing, a clear image focused on the entire image is acquired particularly in an imaging region with little movement.
Yoshinori Iwai, 2 authors, “Medical diagnostic imaging device”, Corona, December 30, 1988, p. 217-219

しかしながら、上記背景技術によれば、フォーカシング位置が異なる複数の画像を合成する際に、これら画像のつなぎ目である境界において、画質が不連続的に変化することが生じる。すなわち、画像の輝度が不連続的に変化したり、あるいは、異なるフォーカシング位置に起因する画像テクスチャ(texture)の不連続的な変化等が発生する。   However, according to the above background art, when a plurality of images having different focusing positions are combined, the image quality changes discontinuously at the boundary that is a joint between these images. That is, the luminance of the image changes discontinuously, or a discontinuous change of the image texture (texture) caused by different focusing positions occurs.

特に、この境界の不連続的な変化は、被検体および被検体の撮像部位により変化の程度が異なり、オペレータ(operator)にとって、不連続的な変化が生じたり、生じなかったりし、画質を不安定にする要因となっている。   In particular, the discontinuous change of the boundary varies depending on the subject and the imaging region of the subject, and the discontinuous change may or may not occur for the operator, resulting in poor image quality. It is a factor to stabilize.

これらのことから、多段フォーカスを行う際の、画像の境界の不連続的な変化を軽減する超音波撮像装置をいかに実現するかが重要となる。   For these reasons, it is important how to realize an ultrasonic imaging apparatus that reduces discontinuous changes in image boundaries when performing multistage focusing.

この発明は、上述した背景技術による課題を解決するためになされたものであり、多段フォーカスを行う際の、画像の境界の不連続的な変化を軽減する超音波撮像装置を提供することを目的とする。   The present invention has been made to solve the above-described problems caused by the background art, and an object of the present invention is to provide an ultrasonic imaging apparatus that reduces discontinuous changes in image boundaries when performing multistage focusing. And

上述した課題を解決し、目的を達成するために、第1の観点の発明にかかる超音波撮像装置は、被検体内部の深さ方向への超音波の送受信および前記送受信の前記深さ方向と直交する走査方向への走査によりBモード画像情報を取得する際に、前記超音波の送信時に深さ方向のフォーカス位置が異なる複数の部分画像情報から一枚の合成画像情報を合成する画像合成手段を備える超音波撮像装置であって、前記部分画像情報は、深さ方向に互いに重なり合う重畳領域を有し、前記画像合成手段は、前記重畳領域に複数の前記部分画像情報を合成する境界を設け、前記境界の深さ方向の位置を、前記部分画像情報ごとに前記重畳領域のすべての深さ位置で評価パラメータ値を算定し、前記評価パラメータ値が最も近似する前記部分画像情報の深さ位置に設定する設定手段を備えることを特徴とする。   In order to solve the above-described problem and achieve the object, an ultrasonic imaging apparatus according to the first aspect of the invention includes an ultrasonic transmission / reception in a depth direction inside a subject and the depth direction of the transmission / reception. Image synthesis means for synthesizing one piece of synthesized image information from a plurality of partial image information with different focus positions in the depth direction when transmitting the ultrasonic wave when acquiring B-mode image information by scanning in the orthogonal scanning direction The partial image information includes overlapping regions that overlap each other in the depth direction, and the image composition unit provides a boundary for combining the plurality of partial image information in the overlapping region. Calculating the evaluation parameter values at all the depth positions of the overlapping region for each partial image information, and calculating the depth of the partial image information that approximates the evaluation parameter value most closely. Characterized in that it comprises a setting means for setting the position.

この第1の観点による発明では、設定手段により、境界の深さ方向の位置を、境界を共有する2つの重畳領域で、深さ方向の位置ごとに算定される評価パラメータ値が、最も近似する位置に設定する。   In the invention according to the first aspect, the setting parameter approximates the evaluation parameter value calculated for each position in the depth direction in the two overlapping regions sharing the boundary by the setting means. Set to position.

また、第2の観点の発明にかかる超音波撮像装置は、前記評価パラメータ値が、前記重畳領域の走査方向に配列される画素値の平均値であることを特徴とする。   Further, the ultrasonic imaging apparatus according to the invention of the second aspect is characterized in that the evaluation parameter value is an average value of pixel values arranged in a scanning direction of the overlapping region.

この第2の観点の発明では、設定手段は、重畳領域の画素値、すなわち輝度が最も近似する位置に区切り線を設定する。   In the invention according to the second aspect, the setting means sets a dividing line at a position where the pixel value of the overlapping region, that is, the luminance is most approximate.

また、第3の観点の発明にかかる超音波撮像装置は、前記評価パラメータ値が、前記重畳領域の走査方向に配列される画素値から算出される周波数スペクトルであることを特徴とする。   Moreover, the ultrasonic imaging apparatus according to the invention of the third aspect is characterized in that the evaluation parameter value is a frequency spectrum calculated from pixel values arranged in the scanning direction of the superimposed region.

この第3の観点の発明によれば、設定手段は、周波数スペクトルが最も近似する位置に区切り線を設定する。   According to the third aspect of the invention, the setting means sets a dividing line at a position where the frequency spectrum is closest.

また、第4の観点の発明にかかる超音波撮像装置は、前記評価パラメータ値が、前記重畳領域の深さ方向の自己相関関数値を、走査方向で平均する前記深さ位置ごとの自己相関平均値であることを特徴とする。   In the ultrasonic imaging apparatus according to the fourth aspect of the invention, the evaluation parameter value is an autocorrelation average for each depth position in which the autocorrelation function value in the depth direction of the overlapped region is averaged in the scanning direction. It is a value.

この第4の観点の発明では、設定手段は、自己相関関数値、すなわち冗長性が最も近似する位置に境界を設定する。   In the fourth aspect of the invention, the setting means sets the boundary at the position where the autocorrelation function value, that is, the redundancy is closest.

また、第5の観点の発明にかかる超音波撮像装置は、前記自己相関関数値に、ノイズを除去するローパスフィルタ処理が行われることを特徴とする。   The ultrasonic imaging apparatus according to the invention of the fifth aspect is characterized in that low-pass filter processing for removing noise is performed on the autocorrelation function value.

この第5の観点の発明では、自己相関関数値は、ローパスフィルタ処理が行われ、ノイズ成分が除去される。   In the fifth aspect of the invention, the autocorrelation function value is subjected to low-pass filter processing to remove noise components.

また、第6の観点の発明にかかる超音波撮像装置は、前記自己相関関数値が、すべての前記深さ位置の平均値が差し引かれた値であることを特徴とする。   The ultrasonic imaging apparatus according to the invention of the sixth aspect is characterized in that the autocorrelation function value is a value obtained by subtracting an average value of all the depth positions.

この第6の観点の発明では、自己相関関数値は、重畳領域の画像に含まれる臓器が、全般的に有する成分を除去する。   In the invention according to the sixth aspect, the autocorrelation function value removes the components that the organs included in the image of the superimposed region generally have.

また、第7の観点の発明にかかる超音波撮像装置は、前記設定手段が、初期設定される前記境界の深さ方向の位置および前記評価パラメータ値が最も近似する深さ方向の位置の間に、前記境界を手動で設定する手動設定手段を備えることを特徴とする。   In the ultrasonic imaging apparatus according to the seventh aspect of the invention, the setting unit may be configured such that the setting unit is between a position in the depth direction of the boundary that is initially set and a position in the depth direction that the evaluation parameter value approximates most. A manual setting means for manually setting the boundary is provided.

この第7の観点の発明では、設定手段は、手動設定手段により、初期設定される境界の深さ方向の位置および評価パラメータ値が最も近似する深さ方向の位置の間に、境界を手動で設定する。   In the seventh aspect of the invention, the setting means manually sets the boundary between the initial position of the boundary in the depth direction and the position in the depth direction where the evaluation parameter value is most approximated by the manual setting means. Set.

また、第8の観点の発明にかかる超音波撮像装置は、前記設定手段が、前記重畳領域の前記評価パラメータ値が最も近似する位置の走査方向に配列される画素値の平均値を、2つの前記重畳領域ごとに算出し、前記平均値が2つの前記重畳領域で近似するように前記部分画像情報のいずれか1つを補正することを特徴とする。   Further, in the ultrasonic imaging apparatus according to the invention of the eighth aspect, the setting means calculates two average values of pixel values arranged in the scanning direction at a position where the evaluation parameter value of the superimposition region is closest. One of the partial image information is corrected so that the calculation is performed for each of the overlapping regions and the average value approximates the two overlapping regions.

この第8の観点の発明では、設定手段は、境界の位置で、合成画像情報の輝度が不連続的に変化することを防止する。   In the invention of the eighth aspect, the setting means prevents the luminance of the composite image information from changing discontinuously at the boundary position.

以上説明したように、本発明によれば、設定手段により、境界の深さ方向の位置を、境界を共有する2つの重畳領域の、深さ方向の位置ごとに算定される評価パラメータ値が、最も近似する位置に設定し、画素値あるいは画像のテクスチャが最も近似する位置で画像の合成を行い、合成画像情報の境界の深さ方向の前後で、画質が不連続的に変化することを軽減し、画質の不安定さを改善することができる。   As described above, according to the present invention, the evaluation parameter value calculated for each position in the depth direction of the two overlapping regions that share the boundary by the setting means is determined by the setting unit. Set to the closest position, combine the image at the position where the pixel value or image texture is the closest, and reduce the discontinuity of image quality before and after the depth direction of the boundary of the combined image information Instability of image quality can be improved.

以下に添付図面を参照して、この発明にかかる超音波撮像装置を実施するための最良の形態について説明する。なお、これにより本発明が限定されるものではない。   The best mode for carrying out an ultrasonic imaging apparatus according to the present invention will be described below with reference to the accompanying drawings. Note that the present invention is not limited thereby.

まず、本実施の形態にかかる超音波撮像装置の全体構成について説明する。図1は、この発明の実施の形態である超音波撮像装置の全体構成を示したもので、被検体1に対して超音波を、Bモード画像情報を取得するリニア(linear)型に電子走査するようにした超音波撮像装置を例示している。   First, the overall configuration of the ultrasonic imaging apparatus according to the present embodiment will be described. FIG. 1 shows an overall configuration of an ultrasonic imaging apparatus according to an embodiment of the present invention. Ultrasonic waves are applied to a subject 1 and are linearly scanned electronically to acquire B-mode image information. An example of an ultrasonic imaging apparatus is shown.

この超音波撮像装置は、探触子部101、送受信部102、画像合成手段90、画面表示制御部105、表示部106、入力部107およびコントローラ(controller)部108を含んでいる。また、画像合成手段90は、Bモード処理部103、フレーム(frame)処理部104を含んでいる。   The ultrasonic imaging apparatus includes a probe unit 101, a transmission / reception unit 102, an image synthesis unit 90, a screen display control unit 105, a display unit 106, an input unit 107, and a controller unit 108. The image synthesizing unit 90 includes a B mode processing unit 103 and a frame processing unit 104.

探触子部101は、先端部に超音波を送受信するための圧電素子がリニア型に配列され、この圧電素子を被検体1の表面に密着させ、被検体1内部の撮像を行う。ここで、圧電素子は、被検体1の撮像範囲に超音波を照射する一方で、被検体1内から反射された超音波エコー(echo)を受信しながら電子走査をする部分である。探触子部101は、圧電素子がアレイ(array)状に配置してあるとともに、これら圧電素子を選択的に駆動するスイッチング(switching)回路も内蔵する。   In the probe unit 101, piezoelectric elements for transmitting and receiving ultrasonic waves are arranged in a linear shape at the tip, and the piezoelectric elements are brought into close contact with the surface of the subject 1 to image the inside of the subject 1. Here, the piezoelectric element is a portion that performs electronic scanning while irradiating the imaging range of the subject 1 with ultrasonic waves while receiving ultrasonic echoes (echo) reflected from the subject 1. The probe unit 101 includes piezoelectric elements arranged in an array, and also includes a switching circuit that selectively drives the piezoelectric elements.

送受信部102は、探触子部101と同軸ケーブル(cable)によって接続され、探触子部101の圧電素子を駆動するための電気信号を発生すると同時に、受信した超音波エコー信号の初段増幅を行う部分である。   The transmission / reception unit 102 is connected to the probe unit 101 by a coaxial cable and generates an electric signal for driving the piezoelectric element of the probe unit 101, and at the same time, amplifies the received ultrasonic echo signal at the first stage. It is a part to do.

Bモード処理部103は、送受信部102で増幅された超音波エコー信号から、Bモード画像情報をリアルタイム(real time)で生成する処理を行う部分である。具体的な処理内容としては、例えば、受信した超音波エコー信号の遅延加算処理、A/D(analog/digital)変換処理および変換した後のデジタル(digital)情報をBモード画像情報として生成する処理等である。   The B-mode processing unit 103 is a part that performs processing for generating B-mode image information in real time from the ultrasonic echo signal amplified by the transmission / reception unit 102. Specific processing contents include, for example, delay addition processing of received ultrasonic echo signals, A / D (analog / digital) conversion processing, and processing for generating digital information after conversion as B-mode image information. Etc.

フレーム処理部104は、Bモード処理部103からのBモード画像情報に、フレーム処理、例えば、後述する画像情報の合成処理等を行い、画面表示制御部105へ出力する。なお、Bモード処理部103およびフレーム処理部104は、後述する合成画像情報を合成する際の画像合成手段90をなす。   The frame processing unit 104 performs frame processing on the B-mode image information from the B-mode processing unit 103, for example, image information combining processing described later, and outputs the image information to the screen display control unit 105. Note that the B-mode processing unit 103 and the frame processing unit 104 constitute an image synthesizing unit 90 when synthesizing synthesized image information described later.

画面表示制御部105は、スキャンコンバータ(scan converter)とも呼ばれ、Bモード処理部103で生成されたBモード画像情報の表示フレームレート(frame rate)変換、並びに、リニア、コンベックス(convex)あるいはセクター(sector)等の画像表示形態の変換、さらにこれら画像の表示位置等の制御を行うための部分である。   The screen display control unit 105 is also called a scan converter, converts display frame rate of the B-mode image information generated by the B-mode processing unit 103, linear, convex, or sector. This is a part for converting the image display form such as (sector) and controlling the display position of these images.

入力部107は、キーボード(keyboard)あるいはマウス(mouse)等からなり、オペレータによる操作入力情報、例えば、被検体1の個人情報、ID番号あるいは撮像位置とかの入力情報をコントローラ部108に与える部分である。   The input unit 107 is composed of a keyboard, a mouse, or the like. The input unit 107 provides operation input information by the operator, for example, input information such as personal information, ID number, or imaging position of the subject 1 to the controller unit 108. is there.

表示部106は、画面表示制御部105によって表示フレームレート変換、並びに画像表示形態変換や表示位置が制御された画像情報をオペレータに対して可視表示するための部分である。   The display unit 106 is a part for visually displaying image information whose display frame rate conversion, image display form conversion, and display position are controlled by the screen display control unit 105 to the operator.

コントローラ部108は、入力部107から与えられた操作入力情報、並びに、予め記憶したプログラム(program)やデータ(data)に基づいて上述した超音波撮像装置各部の動作を制御するための部分である。   The controller unit 108 is a unit for controlling the operation of each unit of the above-described ultrasonic imaging apparatus based on the operation input information given from the input unit 107 and the program (program) and data (data) stored in advance. .

つづいて、画像合成手段90をなすBモード処理部103およびフレーム処理部104の構成を図2に示す。図2は、Bモード処理部103およびフレーム処理部104の構成を模式的に示すブロック図である。Bモード処理部103は、メモリ(memory)201および設定手段202を含み、フレーム処理部104は、演算部212およびメモリ211を含む。   Next, the configurations of the B-mode processing unit 103 and the frame processing unit 104 that form the image composition unit 90 are shown in FIG. FIG. 2 is a block diagram schematically showing the configuration of the B mode processing unit 103 and the frame processing unit 104. The B mode processing unit 103 includes a memory 201 and setting means 202, and the frame processing unit 104 includes a calculation unit 212 and a memory 211.

Bモード処理部103は、送受信部102から、深さ方向に送信フォーカス位置の異なる複数のBモード画像情報(以下、部分画像情報と称する)を、メモリ201に読み込む。この部分画像情報は、深さ方向の送信フォーカス位置が浅いものから、順に、部分画像情報10、部分画像情報20および部分画像情報30の3つが取得され、各々深さ方向の撮像位置が異なる。なお、受信フォーカス位置は、部分画像情報10〜30で共通の位置に設定される。また、部分画像情報の数は、3つに限定されず、2つあるいは4つ等でもよい。   The B mode processing unit 103 reads a plurality of B mode image information (hereinafter referred to as partial image information) having different transmission focus positions in the depth direction from the transmission / reception unit 102 into the memory 201. In this partial image information, three pieces of partial image information 10, partial image information 20, and partial image information 30 are acquired in order from a shallow transmission focus position in the depth direction, and the imaging positions in the depth direction are different from each other. The reception focus position is set to a common position in the partial image information 10 to 30. Further, the number of partial image information is not limited to three, and may be two or four.

設定手段202は、これら部分画像情報10〜30から、相関関数値の算出あるいはスペクトル(spectrum)の算出等の演算、および合成情報である、区切り線の位置の算定を行う。そして、フレーム処理部104は、メモリ201からの部分画像情報10〜30および設定手段202からの区切り線の位置情報から、演算部212において、合成画像情報40を作成し、画面表示制御部105へ送信する。   The setting unit 202 performs calculation such as calculation of a correlation function value or spectrum (spectrum) from the partial image information 10 to 30, and calculation of the position of the dividing line which is synthesis information. Then, the frame processing unit 104 creates the composite image information 40 from the partial image information 10 to 30 from the memory 201 and the position information of the dividing line from the setting unit 202, and sends it to the screen display control unit 105. Send.

図3は、部分画像情報10〜30から、合成画像情報40が合成される過程を模式的に示した図である。部分画像情報10〜30は、圧電素子の配列方向である走査方向および超音波の進行方向である深さ方向に2次元的に配列される画素からなる。ここで、部分画像情報10〜30は、取得される画像情報の深さ方向の位置が異なり、番号順により深い位置における画像情報が取得される。   FIG. 3 is a diagram schematically illustrating a process in which the synthesized image information 40 is synthesized from the partial image information 10 to 30. The partial image information 10 to 30 includes pixels that are two-dimensionally arranged in the scanning direction that is the arrangement direction of the piezoelectric elements and the depth direction that is the traveling direction of the ultrasonic waves. Here, as for the partial image information 10-30, the position of the acquired image information in the depth direction is different, and the image information at a deeper position is acquired in numerical order.

図3では、深さ方向位置の座標は、部分画像情報10〜30および合成画像情報40で共通の座標軸を形成し、浅い方から部分画像情報10、中程度の深さは部分画像情報20、深い方は部分画像情報30に対応している。   In FIG. 3, the coordinates of the depth direction position form a common coordinate axis in the partial image information 10 to 30 and the composite image information 40, the partial image information 10 from the shallowest, the intermediate depth is the partial image information 20, The deeper one corresponds to the partial image information 30.

部分画像情報10は、深さ方向に、部分画像情報20と重なり合う重畳領域11を有する。また、部分画像情報20も同様に、部分画像情報10と重なり合う重畳領域21を有する。そして、重畳領域11および21は、走査方向および深さ方向に全く同一の画素数を有する。なお、部分画像情報20および部分画像情報30も、全く同様に重畳領域22および31を有する。   The partial image information 10 has an overlapping region 11 that overlaps the partial image information 20 in the depth direction. Similarly, the partial image information 20 has an overlapping region 21 that overlaps the partial image information 10. The overlapping regions 11 and 21 have exactly the same number of pixels in the scanning direction and the depth direction. Note that the partial image information 20 and the partial image information 30 also have overlapping regions 22 and 31 in exactly the same manner.

部分画像情報10〜30を合成し合成画像情報40を生成する際に、演算部212は、部分画像情報10〜30の境界をなす区切り線12、23、24および32の位置で、部分画像情報10〜30の分割を行う。ここで、演算部212は、重畳領域のみからなる画像情報部分を棄却し、これ以外の画像情報部分を用いて、画像の合成を行う。従って、合成画像情報40の貼り合わせ位置である境界をなす区切り線42および43の位置は、区切り線12および23、並びに、区切り線24および32の深さ方向位置と一致する。なお、図3に示す合成画像情報40の境界をなす区切り線42および43は、単に画像の合成位置を示すものであり、画像内に表示されるものではない。   When combining the partial image information 10 to 30 to generate the combined image information 40, the calculation unit 212 performs partial image information at the positions of the dividing lines 12, 23, 24, and 32 that form the boundary of the partial image information 10 to 30. Divide 10-30. Here, the calculation unit 212 rejects the image information portion consisting only of the overlapping region, and performs image composition using the other image information portion. Accordingly, the positions of the dividing lines 42 and 43 that form the boundary, which is the bonding position of the composite image information 40, coincide with the positions in the depth direction of the dividing lines 12 and 23 and the dividing lines 24 and 32. Note that the dividing lines 42 and 43 forming the boundary of the composite image information 40 shown in FIG. 3 merely indicate the composite position of the image and are not displayed in the image.

合成の際に境界をなす区切り線12および23、並びに、24および32の深さ方向位置は、重畳領域11および21、並びに、重畳領域22および32の中から、最適なものが、設定手段202により、選択される。   As for the position in the depth direction of the dividing lines 12 and 23 and 24 and 32 that form a boundary at the time of composition, the optimum setting is selected from the overlapping regions 11 and 21 and the overlapping regions 22 and 32. Is selected.

つづいて、本実施の形態にかかる、設定手段202の動作について図4を用いて説明する。図4は、設定手段202を用いて、部分画像情報10および20の重畳領域11および21から、区切り線位置を決定する動作を模式的に示す図である。設定手段202は、重畳領域11および21、並びに、重畳領域22および32の中から、深さ方向に最適な区切り線位置を選択する。ここで、設定手段202は、重畳領域11,21、22および32の深さ方向に評価パラメータ(parameter)値を算定し、重畳領域11および21、並びに、重畳領域22および32で、この評価パラメータ値が最も一致する深さ方向位置を、区切り線12および23の位置、並びに、区切り線24および32の位置とする。   Next, the operation of the setting unit 202 according to the present embodiment will be described with reference to FIG. FIG. 4 is a diagram schematically showing an operation of determining the dividing line position from the overlapping regions 11 and 21 of the partial image information 10 and 20 using the setting unit 202. The setting unit 202 selects an optimum dividing line position in the depth direction from the overlapping regions 11 and 21 and the overlapping regions 22 and 32. Here, the setting means 202 calculates an evaluation parameter (parameter) value in the depth direction of the overlapping regions 11, 21, 22, and 32, and the evaluation parameter is calculated in the overlapping regions 11 and 21 and the overlapping regions 22 and 32. The position in the depth direction where the values most closely match is the position of the separator lines 12 and 23 and the position of the separator lines 24 and 32.

なお、評価パラメータ値として、輝度を現す画素値、周波数スペクトルあるいは自己相関関数等が用いられる。そこで、最初に、輝度を現す画素値を、評価パラメータ値とする場合をつぎに示す。   Note that a pixel value representing a luminance, a frequency spectrum, an autocorrelation function, or the like is used as the evaluation parameter value. Therefore, first, the case where the pixel value representing the luminance is set as the evaluation parameter value is described below.

図4は、評価パラメータ値として画素値を用いる場合の例を示す図である。設定手段202は、重畳領域11および21の画素値に対して、深さ方向位置ごとに、走査方向の平均値を求める。図4では、重畳領域11において、浅い位置から順次、走査方向の平均値P1、P2・・・を求め、重畳領域21において、浅い位置から順次、走査方向の平均値Q1、Q2・・・を求める。なお、図4では、平均を行う画素位置を重畳領域11および21内の矢印で模式的に示したが、矢印の向きで示される平均を行う順序は、特に限定されない。   FIG. 4 is a diagram illustrating an example in which a pixel value is used as the evaluation parameter value. The setting means 202 obtains an average value in the scanning direction for each position in the depth direction with respect to the pixel values of the overlapping regions 11 and 21. 4, the average values P1, P2,... In the scanning direction are obtained sequentially from the shallow position in the superimposing region 11, and the average values Q1, Q2,. Ask. In FIG. 4, the pixel positions to be averaged are schematically indicated by the arrows in the overlapping regions 11 and 21, but the order of averaging indicated by the direction of the arrows is not particularly limited.

その後、設定手段202は、重畳領域11および21の、深さ方向位置が同一の平均値の差分、Pi―Qi(iは、深さ方向位置を示すパラメータ)を求め、この差分が最も小さい深さ方向位置iを区切り線12および23の位置とする。なお、重畳領域22および31に対しても、全く同様に区切り線24および32の位置が決定される。   After that, the setting unit 202 obtains the difference between the average values of the overlapping regions 11 and 21 having the same depth direction position, Pi-Qi (i is a parameter indicating the depth direction position), and the depth with the smallest difference. The vertical position i is the position of the dividing lines 12 and 23. Note that the positions of the dividing lines 24 and 32 are determined in the same manner for the overlapping regions 22 and 31 as well.

また、評価パラメータ値として、走査方向の周波数スペクトルを用いることもできる。この場合には、図4に示した平均値P1、P2・・・あるいはQ1、Q2・・・の代わりに、走査方向の画素値の周波数スペクトルSP1、SP2・・・あるいはSQ1、SQ2・・・が用いられる。そして、差分Pi―Qiの代わりに、例えば、周波数スペクトルの差分SPi―SQiを走査方向に加算したものが、最も小さい深さ方向位置iを区切り線12および23の位置とする。   Further, a frequency spectrum in the scanning direction can also be used as the evaluation parameter value. In this case, instead of the average values P1, P2... Or Q1, Q2... Shown in FIG. 4, the frequency spectrums SP1, SP2... SQ1, SQ2. Is used. Then, instead of the difference Pi-Qi, for example, the difference SPi-SQi of the frequency spectrum added in the scanning direction sets the smallest depth direction position i as the positions of the dividing lines 12 and 23.

また、評価パラメータ値として深さ方向の自己相関関数を用いることもできる。自己相関関数は、画像データの冗長性を現すパラメータで、深さ方向の画素値の差分と等価であることが数学的に知られている。そこで、設定手段202は、重畳領域11および21の、走査方向位置ごとに、深さ方向位置の自己相関関数値を求める。ここでは、重畳領域11および21の深さ方向の画素値の平均値を求め、深さ方向位置ごとの、この平均値からの差分を自己相関関数値とする。その後、この自己相関関数値を走査方向に平均した自己相関平均値を、評価パラメータ値として用いる。   Also, an autocorrelation function in the depth direction can be used as the evaluation parameter value. It is mathematically known that the autocorrelation function is a parameter representing the redundancy of image data and is equivalent to a difference between pixel values in the depth direction. Therefore, the setting means 202 obtains an autocorrelation function value at the position in the depth direction for each position in the scanning direction of the overlapping regions 11 and 21. Here, an average value of the pixel values in the depth direction of the superimposed regions 11 and 21 is obtained, and a difference from the average value for each position in the depth direction is set as an autocorrelation function value. Thereafter, an autocorrelation average value obtained by averaging the autocorrelation function values in the scanning direction is used as an evaluation parameter value.

図5に、自己相関平均値の一例を示す。図5(A)は、部分画像情報10全体に渡る自己相関平均値を示す図であり、図5(B)は、部分画像情報20全体に渡るの自己相関平均値を示す図である。ここで、横軸は、深さ方向位置を示し、縦軸は、自己相関平均値を示している。図5(A)および(B)では、自己相関平均値が、重畳領域11および21で、共に存在しており、この領域で自己相関平均値が最も近似する深さ方向位置を、区切り線12および23の位置とする。なお、部分画像情報20および30に対しても、全く同様に区切り線24および32位置を決定することができる。   FIG. 5 shows an example of the autocorrelation average value. 5A is a diagram illustrating an autocorrelation average value over the entire partial image information 10, and FIG. 5B is a diagram illustrating an autocorrelation average value over the entire partial image information 20. Here, the horizontal axis indicates the position in the depth direction, and the vertical axis indicates the autocorrelation average value. In FIGS. 5A and 5B, the autocorrelation average value exists in both the overlapping regions 11 and 21, and the position in the depth direction where the autocorrelation average value approximates most in this region is indicated by the dividing line 12. And 23 positions. For the partial image information 20 and 30, the positions of the separator lines 24 and 32 can be determined in exactly the same manner.

上述してきたように、本実施の形態では、重畳領域11、21、22および31における境界をなす区切り線12、23、24および32の位置を、輝度を現す画素値、周波数スペクトルあるいは自己相関関数等を用いた深さ方向の評価パラメータ値を算定し、この評価パラメータ値が最も近似する深さ方向位置に設定することとしているので、輝度、周波数スペクトルあるいは自己相関関数値が最も近似する深さ方向位置に区切り線12、23、24および32を設定し、ひいては、合成画像情報40の境界をなす区切り線42あるいは43の前後における、画質の不連続的な変化を軽減することができる。   As described above, in the present embodiment, the positions of the dividing lines 12, 23, 24, and 32 that form the boundaries in the overlapping regions 11, 21, 22, and 31 are represented by pixel values that represent luminance, frequency spectra, or autocorrelation functions. The evaluation parameter value in the depth direction using, etc. is calculated and set to the position in the depth direction where this evaluation parameter value is closest to the depth, so that the brightness, frequency spectrum, or autocorrelation function value is the closest depth Separation lines 12, 23, 24, and 32 are set at the directional positions, and as a result, discontinuous changes in image quality before and after the separation line 42 or 43 that forms the boundary of the composite image information 40 can be reduced.

また、本実施の形態では、評価パラメータ値は、重畳領域11、21、22および31で、深さ方向位置ごとに算定されたが、各重畳領域11、21、22および31で、すべての深さ方向位置の評価パラメータ値の平均値を求め、この平均値で評価パラメータ値の補正を行うこともできる。これにより、重畳領域を被う大きさの臓器を含む場合に、この臓器固有の評価パラメータ値への寄与を減らすことができる。   In the present embodiment, the evaluation parameter values are calculated for each position in the depth direction in the overlapping regions 11, 21, 22, and 31, but in each overlapping region 11, 21, 22, and 31, all the depths are calculated. It is also possible to obtain an average value of the evaluation parameter values in the vertical direction and correct the evaluation parameter value with this average value. As a result, when an organ having a size covering the overlapping region is included, the contribution to the evaluation parameter value unique to the organ can be reduced.

また、本実施の形態では、自己相関関数値を求める際に、部分画像情報10〜30に平均あるいは差分を行ったが、部分画像情報10〜30にローパスフィルタ処理を行った後で平均あるいは差分を行うこともできる。これにより、ノイズの影響の少ない評価パラメータ値を得ることができる。   Further, in the present embodiment, when obtaining the autocorrelation function value, the average or difference is performed on the partial image information 10 to 30, but the average or difference is obtained after low-pass filter processing is performed on the partial image information 10 to 30. Can also be done. Thereby, an evaluation parameter value with little influence of noise can be obtained.

また、本実施の形態では、重畳領域11、21、22および31で、評価パラメータ値が最も近似する位置に境界をなす区切り線12、23、24および32を設け、部分画像情報10〜30の合成を行ったが、合成の際に、部分画像情報10〜30の輝度補正を行い、合成画像情報40の区切り線42および43前後における輝度を、連続的に変化させることもできる。例えば、部分画像情報10および20の合成を行う場合には、区切り線12上の画素値の平均値および区切り線23上の画素値の平均値を求め、これら平均値の比率から補正係数が決定され、部分画像情報10あるいは20のすべての画素値の補正が行われる。   Further, in the present embodiment, in the overlapping regions 11, 21, 22, and 31, the separation lines 12, 23, 24, and 32 that form boundaries are provided at positions where the evaluation parameter values are closest to each other, and the partial image information 10 to 30 Although the composition is performed, the brightness of the partial image information 10 to 30 can be corrected at the time of composition, and the brightness before and after the dividing lines 42 and 43 of the composite image information 40 can be continuously changed. For example, when combining the partial image information 10 and 20, the average value of the pixel values on the dividing line 12 and the average value of the pixel values on the dividing line 23 are obtained, and the correction coefficient is determined from the ratio of these average values. Then, all pixel values of the partial image information 10 or 20 are corrected.

また、本実施の形態では、設定手段202は、境界をなす区切り線12、23、24および32の位置を自動で設定することとしたが、オペレータが手動で区切り線を設定できるようにする手動設定手段を設けることもできる。これによれば、手動設定手段により、例えば、初期設定の区切り線位置と自動設定される区切り線位置の中間に、オペレータの好みにより、合成画像情報40の区切り線42および43が設定される。   In the present embodiment, the setting unit 202 automatically sets the positions of the dividing lines 12, 23, 24, and 32 that form the boundary. However, the setting unit 202 manually allows the operator to manually set the dividing lines. Setting means can also be provided. According to this, the manual setting means sets the separator lines 42 and 43 of the composite image information 40 according to the preference of the operator, for example, between the default separator line position and the automatically set separator line position.

また、本実施の形態では、リニア型走査によるBモード画像情報の例を示したが、これに限定されず、セクタ型、コンベックス型の電子式走査あるいは機械式走査、さらには、Bモード画像情報に血流情報を上書きするカラーフローマッピング(Color Flow Mapping)等に用いることもできる。   In the present embodiment, an example of B-mode image information by linear scanning has been described. However, the present invention is not limited to this, and sector-type, convex-type electronic scanning or mechanical scanning, and further B-mode image information. It can also be used for color flow mapping that overwrites blood flow information.

超音波撮像装置の全体構成を示すブロック図である。It is a block diagram which shows the whole structure of an ultrasonic imaging device. 実施の形態のBモード処理部およびフレーム処理部を示すブロック図である。It is a block diagram which shows the B mode process part and frame process part of embodiment. 実施の形態の部分画像情報から合成画像情報を合成する過程を示す図である。It is a figure which shows the process of synthesize | combining synthetic | combination image information from the partial image information of embodiment. 実施の形態の評価パラメータ値として、画素値を用いた場合の一例を示す図である。It is a figure which shows an example at the time of using a pixel value as an evaluation parameter value of embodiment. 実施の形態の評価パラメータ値として、自己相関関数を用いた場合の一例を示す図である。It is a figure which shows an example at the time of using an autocorrelation function as an evaluation parameter value of embodiment.

符号の説明Explanation of symbols

1 被検体
10、20、30 部分画像情報
11、21、22、31 重畳領域
12、23、24、32、42、43 区切り線
40 合成画像情報
90 画像合成手段
101 探触子部
102 送受信部
103 Bモード処理部
104 フレーム処理部
105 画面表示制御部
106 表示部
107 入力部
108 コントローラ部
201、211 メモリ
202 設定手段
212 演算部
1 Subject 10, 20, 30 Partial image information 11, 21, 22, 31 Superimposition region 12, 23, 24, 32, 42, 43 Separation line 40 Composite image information 90 Image composition means 101 Probe unit 102 Transceiver 103 B mode processing unit 104 Frame processing unit 105 Screen display control unit 106 Display unit 107 Input unit 108 Controller unit 201, 211 Memory 202 Setting means 212 Calculation unit

Claims (8)

被検体内部の深さ方向への超音波の送受信および前記送受信の前記深さ方向と直交する走査方向への走査によりBモード画像情報を取得する際に、前記超音波の送信時に深さ方向のフォーカス位置が異なる複数の部分画像情報から一枚の合成画像情報を合成する画像合成手段を備える超音波撮像装置であって、
前記部分画像情報は、深さ方向に互いに重なり合う重畳領域を有し、
前記画像合成手段は、前記重畳領域に複数の前記部分画像情報を合成する境界を設け、前記境界の深さ方向の位置を、前記部分画像情報ごとに前記重畳領域のすべての深さ位置で評価パラメータ値を算定し、前記評価パラメータ値が最も近似する前記部分画像情報の深さ位置に設定する設定手段を備えることを特徴とする超音波撮像装置。
When acquiring B-mode image information by transmitting / receiving ultrasonic waves in the depth direction inside the subject and scanning in the scanning direction orthogonal to the depth direction of the transmission / reception, when transmitting the ultrasonic waves, An ultrasonic imaging apparatus comprising image combining means for combining one piece of combined image information from a plurality of partial image information having different focus positions,
The partial image information has overlapping regions that overlap each other in the depth direction,
The image synthesizing unit provides a boundary for synthesizing the plurality of partial image information in the overlap region, and evaluates the depth direction position of the boundary at all depth positions of the overlap region for each partial image information. An ultrasonic imaging apparatus comprising: setting means for calculating a parameter value and setting the parameter value to a depth position of the partial image information that approximates the evaluation parameter value most closely.
前記評価パラメータ値は、前記重畳領域の走査方向に配列される画素値の平均値であることを特徴とする請求項1に記載の超音波撮像装置。   The ultrasonic imaging apparatus according to claim 1, wherein the evaluation parameter value is an average value of pixel values arranged in a scanning direction of the overlapping region. 前記評価パラメータ値は、前記重畳領域の走査方向に配列される画素値から算出される周波数スペクトルであることを特徴とする請求項1に記載の超音波撮像装置。   The ultrasonic imaging apparatus according to claim 1, wherein the evaluation parameter value is a frequency spectrum calculated from pixel values arranged in a scanning direction of the overlapping region. 前記評価パラメータ値は、前記重畳領域の深さ方向の自己相関関数値を、走査方向で平均する前記深さ位置ごとの自己相関平均値であることを特徴とする請求項1に記載の超音波撮像装置。   2. The ultrasonic wave according to claim 1, wherein the evaluation parameter value is an autocorrelation average value for each depth position that averages an autocorrelation function value in the depth direction of the superimposed region in a scanning direction. Imaging device. 前記自己相関関数値は、ノイズを除去するローパスフィルタ処理が行われることを特徴とする請求項4に記載の超音波撮像装置。   The ultrasonic imaging apparatus according to claim 4, wherein the autocorrelation function value is subjected to low-pass filter processing for removing noise. 前記自己相関関数値は、すべての前記深さ位置の平均値が差し引かれた値であることを特徴とする請求項4あるいは5のいずれか1つに記載の超音波撮像装置。   The ultrasonic imaging apparatus according to claim 4, wherein the autocorrelation function value is a value obtained by subtracting an average value of all the depth positions. 前記設定手段は、初期設定される前記境界の深さ方向の位置および前記評価パラメータ値が最も近似する深さ方向の位置の間に、前記境界を手動で設定する手動設定手段を備えることを特徴とする請求項1ないし6のいずれか1つに記載の超音波撮像装置。   The setting means includes manual setting means for manually setting the boundary between a position in the depth direction of the boundary that is initially set and a position in the depth direction that the evaluation parameter value is closest to. The ultrasonic imaging apparatus according to any one of claims 1 to 6. 前記設定手段は、前記重畳領域の前記評価パラメータ値が最も近似する位置の走査方向に配列される画素値の平均値を、2つの前記重畳領域ごとに算出し、前記平均値が2つの前記重畳領域で近似するように前記部分画像情報のいずれか1つを補正することを特徴とする請求項1ないし7のいずれか1つに記載の超音波撮像装置。   The setting means calculates an average value of pixel values arranged in the scanning direction at a position where the evaluation parameter value of the superimposition area is the closest, for each of the two superimposition areas, and the average value is equal to the two superimposition values. The ultrasonic imaging apparatus according to claim 1, wherein any one of the partial image information is corrected so as to be approximated by a region.
JP2003350687A 2003-10-09 2003-10-09 Ultrasonic imaging device Expired - Lifetime JP4515740B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003350687A JP4515740B2 (en) 2003-10-09 2003-10-09 Ultrasonic imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003350687A JP4515740B2 (en) 2003-10-09 2003-10-09 Ultrasonic imaging device

Publications (2)

Publication Number Publication Date
JP2005111053A true JP2005111053A (en) 2005-04-28
JP4515740B2 JP4515740B2 (en) 2010-08-04

Family

ID=34542170

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003350687A Expired - Lifetime JP4515740B2 (en) 2003-10-09 2003-10-09 Ultrasonic imaging device

Country Status (1)

Country Link
JP (1) JP4515740B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007099824A1 (en) * 2006-02-23 2007-09-07 Hitachi Medical Corporation Ultrasonographic device and ultrasonographic method
JP2011067380A (en) * 2009-09-25 2011-04-07 Ge Medical Systems Global Technology Co Llc Ultrasonic diagnostic apparatus and control program for the same
JP2011212202A (en) * 2010-03-31 2011-10-27 Canon Inc Imaging apparatus and imaging method
JP2014050761A (en) * 2007-05-02 2014-03-20 Canon Inc Image forming device, and image forming method
WO2014077057A1 (en) * 2012-11-19 2014-05-22 株式会社トプコン Optical image measuring device
JP2016174978A (en) * 2016-07-08 2016-10-06 株式会社トプコン Optical image measuring apparatus
CN108836382A (en) * 2018-03-30 2018-11-20 中国科学院苏州生物医学工程技术研究所 Multiple frequency ultrasonic observation method, device and equipment

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01181854A (en) * 1988-01-18 1989-07-19 Hitachi Medical Corp Ultrasonic diagnostic device
JPH01195845A (en) * 1988-02-01 1989-08-07 Hitachi Medical Corp Ultrasonic diagnoser
JPH01256940A (en) * 1988-04-07 1989-10-13 Fuji Electric Co Ltd Ultrasonic diagnoser
JPH0349814U (en) * 1989-09-19 1991-05-15
JPH0614924A (en) * 1990-12-06 1994-01-25 Toshiba Corp Ultrasonic diagnostic system
JPH09135835A (en) * 1995-11-14 1997-05-27 Shimadzu Corp Ultrasonic diagnostic device
JP2000350729A (en) * 1999-06-10 2000-12-19 Ge Yokogawa Medical Systems Ltd Method for suppressing interference artifact and ultrasonic diagnosis system

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01181854A (en) * 1988-01-18 1989-07-19 Hitachi Medical Corp Ultrasonic diagnostic device
JPH01195845A (en) * 1988-02-01 1989-08-07 Hitachi Medical Corp Ultrasonic diagnoser
JPH01256940A (en) * 1988-04-07 1989-10-13 Fuji Electric Co Ltd Ultrasonic diagnoser
JPH0349814U (en) * 1989-09-19 1991-05-15
JPH0614924A (en) * 1990-12-06 1994-01-25 Toshiba Corp Ultrasonic diagnostic system
JPH09135835A (en) * 1995-11-14 1997-05-27 Shimadzu Corp Ultrasonic diagnostic device
JP2000350729A (en) * 1999-06-10 2000-12-19 Ge Yokogawa Medical Systems Ltd Method for suppressing interference artifact and ultrasonic diagnosis system

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007099824A1 (en) * 2006-02-23 2007-09-07 Hitachi Medical Corporation Ultrasonographic device and ultrasonographic method
JP2014050761A (en) * 2007-05-02 2014-03-20 Canon Inc Image forming device, and image forming method
JP2011067380A (en) * 2009-09-25 2011-04-07 Ge Medical Systems Global Technology Co Llc Ultrasonic diagnostic apparatus and control program for the same
JP2011212202A (en) * 2010-03-31 2011-10-27 Canon Inc Imaging apparatus and imaging method
WO2014077057A1 (en) * 2012-11-19 2014-05-22 株式会社トプコン Optical image measuring device
JP2014100230A (en) * 2012-11-19 2014-06-05 Topcon Corp Optical image measuring apparatus
GB2523927A (en) * 2012-11-19 2015-09-09 Topcon Corp Optical image measuring device
US9600886B2 (en) 2012-11-19 2017-03-21 Kabushiki Kaisha Topcon Optical image measuring apparatus
US10102646B2 (en) 2012-11-19 2018-10-16 Kabushiki Kaisha Topcon Optical image measuring apparatus
GB2523927B (en) * 2012-11-19 2018-12-26 Kk Topcon Optical coherence tomography measuring apparatus
JP2016174978A (en) * 2016-07-08 2016-10-06 株式会社トプコン Optical image measuring apparatus
CN108836382A (en) * 2018-03-30 2018-11-20 中国科学院苏州生物医学工程技术研究所 Multiple frequency ultrasonic observation method, device and equipment

Also Published As

Publication number Publication date
JP4515740B2 (en) 2010-08-04

Similar Documents

Publication Publication Date Title
US8206301B2 (en) Ultrasonic imaging apparatus and ultrasonic image processing apparatus, method and program
US20120259225A1 (en) Ultrasound diagnostic apparatus and ultrasound image producing method
JP5637880B2 (en) Ultrasonic diagnostic apparatus and image generation control program
JP5525930B2 (en) Ultrasound diagnostic device for generating and displaying 3D ultrasound images
US20050261583A1 (en) Ultrasonic imaging apparatus, ultrasonic image processing method, and ultrasonic image processing program
JP2004129773A (en) Ultrasonic imaging device and ultrasonic signal processing method
JP6150970B2 (en) Ultrasonic observation apparatus, ultrasonic observation system, operation method of ultrasonic observation apparatus, and operation program of ultrasonic observation apparatus
JPWO2012043569A1 (en) Ultrasonic image generation apparatus, ultrasonic image generation method and program
JP5508829B2 (en) Medical image display device
JP2009131420A (en) Ultrasonic image diagnosing device
JP2009061086A (en) Ultrasonic diagnostic system, image processing method, and program
JP2005152625A (en) System and method for forming ultrasonic image with diverse spatial synthesis
WO2013176045A1 (en) Ultrasonic signal processing device and ultrasonic signal processing method
JP2007167626A (en) Ultrasonographic device, ultrasonographic device control program, and ultrasonic signal processing program
JP4515740B2 (en) Ultrasonic imaging device
JP2006212054A (en) Ultrasonic observation apparatus, and image processing apparatus and program
JP2006280520A (en) Ultrasonic imaging apparatus, ultrasonic image processing method, and ultrasonic image processing program
JP2001340338A (en) Ultrasonic diagnosing device
JP4651379B2 (en) Ultrasonic image processing apparatus, ultrasonic image processing method, and ultrasonic image processing program
JP2012096095A (en) Ultrasonic diagnostic scanner, ultrasonic diagnostic scanner-controlling program, and method for processing ultrasonic signal
JP2008307085A (en) Ultrasonograph
JP2007301218A (en) Ultrasonic diagnostic equipment, image data display device, and three-dimensional image data generation method
JP5781203B2 (en) Ultrasonic diagnostic apparatus and image generation control program
WO2020056616A1 (en) Ultrasonic imaging method and ultrasonic imaging system in multiplex mode
US11690597B2 (en) Ultrasonic diagnostic apparatus

Legal Events

Date Code Title Description
A625 Written request for application examination (by other person)

Free format text: JAPANESE INTERMEDIATE CODE: A625

Effective date: 20060922

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091105

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100413

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100513

R150 Certificate of patent or registration of utility model

Ref document number: 4515740

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130521

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130521

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130521

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140521

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term