JP2003334194A - Image processing equipment and ultrasonic diagnostic equipment - Google Patents

Image processing equipment and ultrasonic diagnostic equipment

Info

Publication number
JP2003334194A
JP2003334194A JP2003064802A JP2003064802A JP2003334194A JP 2003334194 A JP2003334194 A JP 2003334194A JP 2003064802 A JP2003064802 A JP 2003064802A JP 2003064802 A JP2003064802 A JP 2003064802A JP 2003334194 A JP2003334194 A JP 2003334194A
Authority
JP
Japan
Prior art keywords
image
area
image processing
processing
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2003064802A
Other languages
Japanese (ja)
Inventor
Maki Yamauchi
真樹 山内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2003064802A priority Critical patent/JP2003334194A/en
Publication of JP2003334194A publication Critical patent/JP2003334194A/en
Withdrawn legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide image processing equipment and ultrasonic diagnostic equipment which extract the contours of an object, corresponding to a local defect or indistinctness in a tomographic image or the like. <P>SOLUTION: An area dividing part 103 divides an ultrasonic tomographic image into small areas on the basis of initial contours. An evaluation value calculating part 104 calculates an evaluation value from the information on a luminance value (contrast distribution or the like), the information on a position (distance from a reference point or the like), the information on a shape (existence or nonexistence of edge or the like), etc., in each small area, for instance. An area selecting part 106 selects the small area in conformity with the calculated evaluation value. A part 105 for processing by area executes an image processing corresponding to the selected small area. An image reconstructing part 107 reconstructs the tomographic image by using the small area subjected to the image processing. <P>COPYRIGHT: (C)2004,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、臨床医学等に利用
される断層画像を生成する超音波診断装置、又は各種映
像機器や携帯電話機等に表示される画像の処理を行う画
像処理装置に関し、特にそれらの画像に対する輪郭抽出
等の画質改善技術に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an ultrasonic diagnostic apparatus for generating a tomographic image used in clinical medicine or the like, or an image processing apparatus for processing an image displayed on various video equipment, a mobile phone, etc., In particular, it relates to image quality improvement techniques such as contour extraction for those images.

【0002】[0002]

【従来の技術】従来、超音波診断装置や各種映像機器等
において、画像の中の特定の対象物(生体軟部組織や顔
など)の輪郭を抽出するために画像処理が施される場合
がある。
2. Description of the Related Art Conventionally, image processing may be performed in an ultrasonic diagnostic apparatus, various video equipment, etc. in order to extract a contour of a specific object (a soft tissue or a face of a living body) in an image. .

【0003】超音波診断装置は、無侵襲で対象物の2次
元断層画像を得ることができ、例えば臨床医学の分野に
おいては、生体に対しても安全性が高いことから必要不
可欠な装置として広く普及している。また、その他の分
野における超音波を応用する装置においても同様のこと
がいえる。
An ultrasonic diagnostic apparatus is capable of non-invasively obtaining a two-dimensional tomographic image of an object. For example, in the field of clinical medicine, it is highly safe for living organisms and is therefore widely used as an indispensable apparatus. It is popular. Moreover, the same can be said for a device to which ultrasonic waves are applied in other fields.

【0004】一般に、超音波診断装置は、超音波プロー
ブから送信された超音波の一部が対象物内組織の構造変
化点(変化面)において反射されることにより得られた
エコーを受信し、このエコーに基づいて対象物の断層画
像を生成するものである。この反射波(超音波エコー)
は、送信された超音波に比べて微弱であるため、画像表
示を行うための輝度信号を生成する際には、増幅処理
(ゲイン処理)が施される。この際の増幅度(ゲイン)
の調整、即ち画質の輝度調整は、従来、STC(Sensit
ivity Time Control)と呼ばれる、対象物の深度レベル
別に区分された複数のスライダ(例えば、16本のスラ
イダ)を操作することによって行われている(ただし、
対数アンプなどによる処理も一部で実施されている)。
Generally, an ultrasonic diagnostic apparatus receives an echo obtained by reflecting a part of ultrasonic waves transmitted from an ultrasonic probe at a structural change point (changed surface) of tissue in an object, A tomographic image of the object is generated based on this echo. This reflected wave (ultrasonic echo)
Is weaker than the transmitted ultrasonic waves, and therefore an amplification process (gain process) is performed when a luminance signal for displaying an image is generated. Amplification (gain) at this time
Conventionally, the STC (Sensit
This is performed by operating a plurality of sliders (for example, 16 sliders), which are classified by depth level of the object, called “activity time control” (however,
Processing is also performed in part by a logarithmic amplifier).

【0005】このように、従来の超音波装置における増
幅処理は、断層画像のコントラストやダイナミックレン
ジを手動で制御することで画質を調整しようとするもの
である。
As described above, the amplification processing in the conventional ultrasonic apparatus is intended to adjust the image quality by manually controlling the contrast and dynamic range of the tomographic image.

【0006】一方、断層画像に基づいて、胎児や内臓、
循環器官などの面積や体積、変化量等の値を定量的に算
出することより、超音波診断装置におけるスクリーニン
グや精密検査の質を向上させることが可能となる。この
場合、診断対象の器官等の面積や体積を算出するための
輪郭や境界の抽出法が非常に重要である。
On the other hand, based on the tomographic image, the fetus, internal organs,
By quantitatively calculating the values of the area, volume, change amount, etc. of the circulatory organ, it is possible to improve the quality of screening and precision examination in the ultrasonic diagnostic apparatus. In this case, the method of extracting contours and boundaries for calculating the area and volume of the organ or the like to be diagnosed is very important.

【0007】ところが、STCをはじめ、手動によって
コントラスト等を制御することは煩雑であり、熟練を要
する。さらに、注目する器官などの輪郭等を人為的なト
レースのみで抽出する場合は、ポインティングデバイス
等を用いて輪郭等を常に正確にトレースする必要があ
り、多大な労力が必要である。こういった背景を受け
て、これまでに、断層画像上で行う自動画像補正法や、
輪郭・境界抽出法がいくつか提案されている(例えば、
特許文献1参照)。
However, manually controlling the contrast and the like including STC is complicated and requires skill. Furthermore, when extracting the contours of an organ of interest or the like only by artificial tracing, it is necessary to always accurately trace the contours using a pointing device or the like, which requires a great deal of labor. In light of this background, so far, automatic image correction methods performed on tomographic images,
Several contour / boundary extraction methods have been proposed (for example,
See Patent Document 1).

【0008】上記の特許文献1に開示されている「画質
自動調整方法」では、断層画像の特徴(断層画像の輝度
信号の分布は急峻なガウス分布を示すことが多く、実効
的なダイナミックレンジが狭いことなど)を踏まえて、
自動的にゲインをコントロールする方法を提供してい
る。これは、画像全体について一様に輝度値の分布を計
測し、ゲインコントロールを行うものである。
In the "image quality automatic adjustment method" disclosed in the above-mentioned Patent Document 1, the characteristics of the tomographic image (the luminance signal distribution of the tomographic image often shows a steep Gaussian distribution, and the effective dynamic range is (Narrowness etc.)
It provides a way to automatically control the gain. This is to uniformly measure the distribution of luminance values for the entire image and perform gain control.

【0009】断層画像のもう一つの特徴として、画像の
一部の欠損や局所的に不明瞭な箇所が頻繁に現れること
が挙げられるが、上記のような画像全体について一様に
処理する方式では、このような欠損や不明瞭さがある断
層画像に対しては、十分な画質改善ができない場合もあ
る。
Another feature of the tomographic image is that a part of the image is missing or a locally unclear portion frequently appears. However, in the method of uniformly processing the entire image as described above, In some cases, it is not possible to sufficiently improve the image quality of a tomographic image having such a defect or unclearness.

【0010】また、同様の問題が、輪郭や境界の抽出法
に対しても発生している。これまでに提案されてきた輪
郭や境界の抽出法は、断層画像中に輪郭が明瞭に描出さ
れていることを前提としている。これは自動輪郭・境界
抽出法のみならず、予め手作業で初期輪郭を与えた後に
トレースを行う、いわば半自動抽出法においても同様で
ある(例えば、特許文献2参照)。この特許文献2に開
示されている「超音波画像診断装置」では、最初にマウ
ス等で注目する組織の輪郭等を手動で大まかにトレース
して目安となる輪郭等を抽出する。その上で、輪郭等の
抽出のための開始点の設定を行う。この場合、開始点か
らはスキャンラインが放射状に伸び、そのライン上で手
動による輪郭等との交点を中心として、検出範囲の設定
を行う。さらに、この検出範囲内の断層画像の画像デー
タを閾値で2値化処理して補正すべき輪郭等の位置を検
出し、この輪郭等の位置が検出された場合には、さらに
手動で設定した輪郭等の境界を補正することで正しい輪
郭等を得ている。
A similar problem also occurs in the contour and boundary extraction method. The contour and boundary extraction methods that have been proposed so far assume that the contour is clearly drawn in the tomographic image. This applies not only to the automatic contour / boundary extraction method, but also to a so-called semi-automatic extraction method in which tracing is performed after manually providing an initial contour (see, for example, Patent Document 2). In the "ultrasonic image diagnostic apparatus" disclosed in Patent Document 2, first, the outline of the tissue of interest is roughly manually traced with a mouse or the like to extract a reference outline or the like. Then, the starting point for extracting the contour and the like is set. In this case, the scan lines extend radially from the start point, and the detection range is set around the intersection point with the outline or the like manually on the line. Further, the image data of the tomographic image within this detection range is binarized with a threshold to detect the position of the contour or the like to be corrected, and when the position of the contour or the like is detected, it is manually set. Correct boundaries are obtained by correcting boundaries such as contours.

【0011】一方、最近では、各種の映像機器(特に、
携帯電話機やPDAなど)の撮影機能を用いて、人や顔
を撮影した画像(以下、「人物画像」という。)が生成
される機会が多いが、この際、顔などの輪郭を抽出して
より撮影者の希望に添った画像処理を施したい場合があ
る。具体的には、人物画像においては撮影時の背景や湯
気などの現象によって人物(特に顔)の輪郭が不明瞭に
なる場合があるが、この場合は、不自然さを伴わずに人
物の輪郭を明確にするための画像処理が施される。
On the other hand, recently, various video equipment (especially,
An image of a person or a face (hereinafter referred to as a “person image”) is often generated by using a photographing function of a mobile phone, a PDA, or the like. At this time, the contour of the face or the like is extracted. In some cases, it may be desirable to perform image processing that better suits the photographer's wishes. Specifically, in a human image, the outline of a person (especially a face) may become unclear due to phenomena such as the background and steam at the time of shooting, but in this case, the outline of the person does not appear unnatural. Image processing is performed to clarify the above.

【0012】図27および図28は、従来の映像機器に
おいて輪郭抽出を行った場合の2つの例を示す図であ
る。図27(a)〜(c)は、従来の映像機器におけ
る、人物画像に対して実施した輪郭抽出の成功例を示す
図である。
27 and 28 are views showing two examples in the case where the contour extraction is performed in the conventional video equipment. 27A to 27C are diagrams showing a successful example of contour extraction performed on a human image in a conventional video device.

【0013】図27(a)は、携帯電話機によって撮影
された原画像である。図27(a)に示されるように、
この原画像には、人物の顔のみが撮影されている。この
原画像について、輪郭抽出を行う場合を考える(例え
ば、特許文献3参照)。この特許文献3に開示されてい
る2段階で輪郭を抽出する方法によれば、最初に(図2
7(b)に示されるように)初期輪郭を設定し、次に
(図27(c)の示されるように)より細かな輪郭を抽
出する。
FIG. 27A shows an original image taken by a mobile phone. As shown in FIG. 27 (a),
In this original image, only the face of a person is photographed. Consider a case where contour extraction is performed on this original image (see, for example, Patent Document 3). According to the method of extracting contours in two steps disclosed in Patent Document 3, first (see FIG.
Initial contours are set (as shown in FIG. 7 (b)) and then finer contours are extracted (as shown in FIG. 27 (c)).

【0014】しかし、原画像の一部に輪郭抽出を阻害す
る部分がある場合は、期待した輪郭抽出ができない場合
が生じる。図28(a)〜(c)は、従来の映像機器に
おける、人物画像に対して実施した輪郭抽出の失敗例を
示す図である。図28(a)は、上記図27(a)と同
様の原画像であるが、画面の右斜め下方の輪郭抽出を阻
害する部分(例えば、水蒸気が撮影された部分)がある
ため、顔の輪郭が一部不鮮明になっている点が異なって
いる。
However, if a part of the original image interferes with the contour extraction, the expected contour extraction may not be possible. 28A to 28C are diagrams showing an example of failure in contour extraction performed on a human image in a conventional video device. FIG. 28 (a) is an original image similar to that of FIG. 27 (a), but since there is a portion (for example, a portion where water vapor is photographed) that obstructs the contour extraction in the lower right corner of the screen, The difference is that the outline is partially blurred.

【0015】[0015]

【特許文献1】特開2002−209891号公報[Patent Document 1] Japanese Patent Laid-Open No. 2002-209891

【0016】[0016]

【特許文献2】特開平11−164834号公報[Patent Document 2] JP-A-11-164834

【0017】[0017]

【特許文献3】特開2002−224116号公報[Patent Document 3] Japanese Patent Laid-Open No. 2002-224116

【0018】[0018]

【発明が解決しようとする課題】しかしながら、操作に
熟練している場合は手動トレースのみで抽出する場合よ
り迅速に実施が可能であるが、完全に自動化されている
わけではない。また、この手法は、抽出された輪郭等が
間違っていた場合の校正法を提供しているものでもな
い。当然、2値化の前提となる閾値の設定に輪郭抽出結
果は左右され、もともと輪郭が明瞭に描出されていない
領域については成す術がない。
However, if the operator is skilled in the operation, it can be carried out more quickly than the extraction by using only the manual trace, but it is not completely automated. In addition, this method does not provide a calibration method when the extracted contour or the like is incorrect. Naturally, the contour extraction result depends on the setting of the threshold value, which is a prerequisite for binarization, and there is no way to make it for the area where the contour is not clearly drawn originally.

【0019】以上のように、断層画像に一部の欠損や局
所的に不明瞭な部分があると、従来の画像調整法や輪郭
抽出法などは、局所的に(場合によっては完全に)破綻
し、機能しない場合があるという問題がある。
As described above, if the tomographic image has a partial defect or a locally unclear portion, the conventional image adjustment method, contour extraction method, or the like fails locally (in some cases, completely). However, there is a problem that it may not work.

【0020】さらに、上記図28(a)の原画像につい
て、上記図27の場合と同じ方法を適用して輪郭抽出を
行った場合は(図28(b)は初期輪郭を設定した場合
を示す。)、図28(c)に示されるように、細かな輪
郭として抽出した結果は、実際の輪郭とは異なってしま
う。このように、一般に撮影された原画像に輪郭抽出を
阻害する部分がある場合は、期待した輪郭抽出ができな
いという問題もある。
Further, when contour extraction is performed on the original image of FIG. 28 (a) by applying the same method as in FIG. 27 (FIG. 28 (b) shows a case where an initial contour is set). .), As shown in FIG. 28C, the result extracted as a fine contour is different from the actual contour. As described above, in the case where a captured original image generally has a portion that hinders contour extraction, there is also a problem that the expected contour extraction cannot be performed.

【0021】そこで、本発明は、上記課題に鑑みてなさ
れたものであり、超音波画像の局所的な性質を考慮した
上で適用できる各種の画像処理手法を提供し、さらにそ
の手法により、画像の自動補正、輪郭抽出法をも提供す
ることを目的とする。
Therefore, the present invention has been made in view of the above-mentioned problems, and provides various image processing methods that can be applied in consideration of the local properties of an ultrasonic image, and further, by the methods, the image processing method can be used. The purpose is to provide automatic correction and contour extraction method.

【0022】[0022]

【課題を解決するための手段】上記目的を達成するため
に、本発明に係る画像処理装置は、画像データを取得す
る画像取得手段と、前記取得された画像データによって
表わされる画像を複数の小領域に分割する領域分割手段
と、一又は複数の前記小領域を選択する領域選択手段
と、前記選択された小領域毎に画像処理を施す領域別処
理手段とを備える。
In order to achieve the above object, an image processing apparatus according to the present invention includes an image acquisition unit for acquiring image data, and an image represented by the acquired image data. Area dividing means for dividing the area into areas, area selecting means for selecting one or a plurality of the small areas, and area-specific processing means for performing image processing on each of the selected small areas are provided.

【0023】また、上記目的を達成するために、本発明
に係る超音波診断装置は、超音波の反射に基づいて生成
された被検体の断層画像を表示する超音波診断装置であ
って、画像データを取得する画像取得手段と、前記取得
された画像データによって表わされる断層画像を複数の
小領域に分割する領域分割手段と、一又は複数の前記小
領域を選択する領域選択手段と、前記選択された小領域
毎に特定の画像処理を施す領域別処理手段と、前記画像
処理が施された小領域の画像を表示する表示手段とを備
える。
In order to achieve the above object, the ultrasonic diagnostic apparatus according to the present invention is an ultrasonic diagnostic apparatus for displaying a tomographic image of a subject generated based on reflection of ultrasonic waves. Image acquisition means for acquiring data, area division means for dividing the tomographic image represented by the acquired image data into a plurality of small areas, area selection means for selecting one or a plurality of the small areas, and the selection Area-specific processing means that performs specific image processing for each of the small areas that have been processed, and display means that displays the image of the small area that has undergone the image processing.

【0024】なお、上記目的を達成するために、本発明
は、上記画像処理装置や超音波診断装置の特徴的な手段
をステップとし、それらのステップを全て含むプログラ
ムとして実現することもできる。そして、そのプログラ
ムは、画像処理装置や超音波診断装置が備えるROM等
に格納しておくだけでなく、CD−ROM等の記録媒体
や通信ネットワーク等の伝送媒体を介して流通させるこ
ともできる。
In order to achieve the above object, the present invention can be realized as a program including all the steps as the characteristic means of the image processing apparatus and the ultrasonic diagnostic apparatus. The program can be stored not only in the ROM or the like included in the image processing apparatus or the ultrasonic diagnostic apparatus, but also in the distribution via a recording medium such as a CD-ROM or a transmission medium such as a communication network.

【0025】[0025]

【発明の実施の形態】以下、本発明に係る実施の形態に
ついて、図面を参照しながら説明する。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below with reference to the drawings.

【0026】(実施の形態1)図1は、本実施の形態に
おける、画像処理装置の一つである超音波診断装置10
の機能構成の概要を示すブロック図である。本装置10
は、断層画像が局所的に不鮮明であっても、その部分の
状況に応じた画質改善を行う機能を有しており、超音波
探触子11、送受信部12、拍動検出部13、操作部1
4、画像処理部15及びデータ出力部16を備えてい
る。
(Embodiment 1) FIG. 1 shows an ultrasonic diagnostic apparatus 10 which is one of image processing apparatuses in the present embodiment.
3 is a block diagram showing an outline of a functional configuration of FIG. This device 10
Has a function of improving the image quality according to the situation of the portion even if the tomographic image is locally unclear. The ultrasonic probe 11, the transmission / reception unit 12, the pulsation detection unit 13, and the operation are performed. Part 1
4, an image processing unit 15 and a data output unit 16.

【0027】超音波探触子11は、一般にプローブと呼
ばれるものであり、例えばフェーズドアレイ方式の電子
走査型のプローブである。超音波探触子11は、送受信
部12から受信した制御信号に基づいて超音波(例え
ば、超音波パルス)を射出する。さらに、超音波探触子
11は、被検者の生体内から反射してきた超音波(以
下、「超音波エコー」という。)を電気信号に変換して
送受信部12に送信する。
The ultrasonic probe 11 is generally called a probe and is, for example, a phased array type electronic scanning type probe. The ultrasonic probe 11 emits ultrasonic waves (for example, ultrasonic pulses) based on the control signal received from the transmitting / receiving unit 12. Further, the ultrasonic probe 11 converts an ultrasonic wave (hereinafter, referred to as “ultrasonic echo”) reflected from the living body of the subject into an electric signal and transmits the electric signal to the transmitting / receiving unit 12.

【0028】送受信部12は、例えば、CPU、ROM
及びRAM等を備え、本装置10全体の制御を行うと共
に、超音波の送受信を行う機能を有する。さらに、送受
信部12は、超音波探触子11から超音波を発生させる
ための送信ビームフォーマー及び超音波エコーを検出し
た超音波探触子11から送信される電気信号を受信する
受信ビームフォーマー等から構成され、超音波探触子1
1から受信した電気信号に対して増幅等を行って画像処
理部15に送信する。また、送受信部12は、操作部1
4を介してオペレータからの指示を受け付ける。
The transmission / reception unit 12 includes, for example, a CPU and a ROM.
And a RAM and the like, and has a function of controlling the entire apparatus 10 and transmitting / receiving ultrasonic waves. Further, the transmitting / receiving unit 12 is a transmission beamformer for generating ultrasonic waves from the ultrasonic probe 11 and a reception beamformer for receiving electric signals transmitted from the ultrasonic probe 11 that has detected ultrasonic echoes. Ultrasonic probe 1
The electric signal received from 1 is amplified and transmitted to the image processing unit 15. Further, the transmission / reception unit 12 is the operation unit 1
An instruction from an operator is accepted via 4.

【0029】拍動検出部13は、例えば拍動センサであ
り、検知した被検者の拍動を電気信号に変換し、画像処
理部15に送信する。操作部14は、スイッチ、タッチ
パネル等を備え、これらに対するオペレータからの操作
を受け付け、これに対応する制御信号等を送受信部12
や画像処理部15に送信する。
The pulsation detection unit 13 is, for example, a pulsation sensor, converts the detected pulsation of the subject into an electric signal, and transmits the electric signal to the image processing unit 15. The operation unit 14 includes switches, a touch panel, and the like, receives operations performed by an operator on these, and sends and receives control signals corresponding thereto to the transmission / reception unit 12.
Or to the image processing unit 15.

【0030】画像処理部15は、送受信部12から受信
した電気信号に基づいて断層画像の画像データを生成す
る。さらに、画像処理部15は、生成した断層画像を小
領域に分割し、小領域毎に画像処理を行う。さらに、画
像処理部15は、画像処理後の画像データに基づいて断
層画像を再構成し、その画像データをデータ出力部16
に送信する。
The image processing section 15 generates image data of a tomographic image based on the electric signal received from the transmitting / receiving section 12. Further, the image processing unit 15 divides the generated tomographic image into small areas, and performs image processing for each small area. Further, the image processing unit 15 reconstructs a tomographic image based on the image data after the image processing, and the image output unit 16 outputs the image data.
Send to.

【0031】データ出力部16は、画像処理部15で構
成された断層画像(例えば、Bモード断層画像等)の画
像データを受信して観察用モニタである液晶ディスプレ
イ等に表示する機能を有し、グラフィックアクセラレー
タやスキャンコンバータ等から構成される。
The data output unit 16 has a function of receiving image data of a tomographic image (for example, a B-mode tomographic image) formed by the image processing unit 15 and displaying the image data on a liquid crystal display which is an observation monitor. , A graphic accelerator and a scan converter.

【0032】図2は、上記図1における画像処理部15
の詳細な機能構成を示すブロック図である。画像処理部
15は、画像生成部110、輪郭抽出部111、制御部
112、画像メモリ101、汎用メモリ102及び演算
部109から構成されている。演算部109は、本発明
において特徴的な部分であり、専用プロセッサ等のハー
ドウェア又はソフトウェアによって実現される。この演
算部109は、領域分割部103、評価値算出部10
4、領域別処理部105、領域選択部106及び画像再
構成部107から構成されている。
FIG. 2 shows the image processing unit 15 in FIG.
3 is a block diagram showing the detailed functional configuration of FIG. The image processing unit 15 includes an image generation unit 110, a contour extraction unit 111, a control unit 112, an image memory 101, a general-purpose memory 102, and a calculation unit 109. The arithmetic unit 109 is a characteristic part of the present invention, and is realized by hardware such as a dedicated processor or software. The calculation unit 109 includes an area division unit 103 and an evaluation value calculation unit 10.
4, a region-specific processing unit 105, a region selection unit 106, and an image reconstruction unit 107.

【0033】画像生成部110は、送受信部12から受
信した電気信号をA/D変換等することにより画像デー
タを生成する。さらに、画像生成部110は、生成した
画像データを制御部112に送信する。
The image generator 110 generates image data by A / D converting the electric signal received from the transmitter / receiver 12. Further, the image generation unit 110 transmits the generated image data to the control unit 112.

【0034】ここで、画像データとは、超音波探触子1
1による1回の走査毎に生成される2次元の輝度データ
等であり、Bモード等で表示するためのデータをいう。
輪郭抽出部111は、画像メモリ101に格納される画
像データに基づいて心臓左室などの対象物の輪郭を抽出
して輪郭データを生成する。なお、画像データに基づい
て輪郭を抽出する方法については、特開2002−22
4116号公報にその詳細が記載されている。この方法
の概要は、対象物の断層画像に対して「2値化」及び
「縮退」の手法を用いることによって粗い初期輪郭を抽
出し、この初期輪郭に対して動的な輪郭モデル(SNA
KES)を適用して、収束計算を行いながら最終的に細
かな輪郭を求めるものである。ここで、輪郭データと
は、1フレーム分の画像データに基づいて抽出された対
象物の輪郭線を構成する複数の画素の座標(X座標及び
Y座標)のデータ等をいう。
Here, the image data means the ultrasonic probe 1.
It is two-dimensional luminance data or the like generated for each scanning by 1 and is data for displaying in the B mode or the like.
The contour extraction unit 111 extracts the contour of an object such as the left ventricle of the heart based on the image data stored in the image memory 101 to generate contour data. For the method of extracting the contour based on the image data, see JP-A-2002-22.
The details are described in Japanese Patent No. 4116. The outline of this method is to extract a rough initial contour by using the "binarization" and "degeneration" methods for a tomographic image of an object, and to perform a dynamic contour model (SNA) on the initial contour.
KES) is applied to finally obtain a fine contour while performing a convergence calculation. Here, the contour data refers to data of the coordinates (X coordinate and Y coordinate) of a plurality of pixels forming the contour line of the object extracted based on the image data for one frame.

【0035】制御部112は、例えば、ROMやRAM
等を備えるマイクロコンピュータであり、主に画像処理
部15における各部に対してそれぞれの処理の実行を指
示し、それらの処理のタイミングを制御する。
The control unit 112 is, for example, a ROM or a RAM.
And the like, and mainly instructs each unit in the image processing unit 15 to execute each process and controls the timing of these processes.

【0036】画像メモリ101は、例えばRAMであ
り、制御部112の指示により、画像生成部110にお
いて生成された断層画像の画像データや後述する領域別
処理部105において画像処理が施された後の画像デー
タを記憶する。
The image memory 101 is, for example, a RAM, and is subjected to image processing of the image data of the tomographic image generated by the image generation unit 110 and image processing by the region-based processing unit 105 described later according to an instruction from the control unit 112. Store image data.

【0037】汎用メモリ102は、例えばRAMであ
り、制御部112の指示により、画像生成部110にお
いて生成された断層画像に関する画像データ(即ち、画
像メモリ101に記憶されるデータ)以外のデータ(例
えば、領域の分割に関するデータ、輪郭に付随するデー
タ、評価値算出に関するデータ、画像処理に関するデー
タ等)を記憶する。
The general-purpose memory 102 is, for example, a RAM, and data (for example, data stored in the image memory 101) other than image data (that is, data stored in the image memory 101) relating to the tomographic image generated by the image generation unit 110 according to an instruction from the control unit 112. , Data relating to region division, data associated with contours, data relating to evaluation value calculation, data relating to image processing, etc.).

【0038】領域分割部103は、画像生成部110に
よって生成された断層画像を複数の領域に分割する。こ
の場合の分割する方法の具体例としては、 対象物の初期輪郭を自動抽出又はオペレータからの操
作によって特定し、その初期輪郭の重心から放射状に分
割する方法 上記のように特定された初期輪郭から外側に一定の
ピクセル数の幅を有するような境界線を生成し、初期輪
郭と境界線とで挟まれるドーナツ状の領域を所定の角度
(例えば、π/4)で放射状に分割する方法 断層画像の縦軸及び横軸をそれぞれN等分(例えば、
4等分)する方法等がある。
The area dividing section 103 divides the tomographic image generated by the image generating section 110 into a plurality of areas. As a specific example of the dividing method in this case, the initial contour of the object is automatically extracted or specified by an operator's operation, and the initial contour is radially divided from the center of gravity of the initial contour. A method of generating a boundary line having a width of a certain number of pixels outside and radially dividing a donut-shaped region sandwiched by the initial contour and the boundary line at a predetermined angle (eg, π / 4) The vertical axis and the horizontal axis of each are divided into N equal parts (for example,
There is a method of dividing into four equal parts.

【0039】図3は、上記の分割方法の一例を説明す
るための図である。図3において、矩形の外枠200が
データ出力部16の観察用モニタにおける表示可能エリ
アの外縁であり、扇形状の太線201で囲ったエリアが
断層画像の実質的な表示エリアである。図3には、分割
された8個の小領域310〜380が示されている。
FIG. 3 is a diagram for explaining an example of the above division method. In FIG. 3, the rectangular outer frame 200 is the outer edge of the displayable area on the observation monitor of the data output unit 16, and the area surrounded by the fan-shaped thick line 201 is the substantial display area of the tomographic image. In FIG. 3, eight divided small areas 310 to 380 are shown.

【0040】以下では、小領域310が領域分割部10
3によって特定されるまでの手順について説明する。最
初に、初期輪郭210を自動抽出又はオペレータからの
操作によって特定し、その重心G211を算出する。さ
らに、初期輪郭210上の基準点としての頂点T212
(即ち、初期輪郭210のうち、最もY座標の値が大き
い点)を特定し、重心G211と頂点T212とを結ん
だ直線を延長して太線201と交わる点P213、点C
214を求める。
In the following, the small area 310 is referred to as the area dividing unit 10.
The procedure until it is specified by 3 will be described. First, the initial contour 210 is automatically specified or specified by an operator, and the center of gravity G211 is calculated. Further, a vertex T212 as a reference point on the initial contour 210
(That is, the point of the initial contour 210 having the largest Y coordinate value) is specified, and the straight line connecting the center of gravity G211 and the vertex T212 is extended to intersect the thick line 201 at points P213 and C.
Ask for 214.

【0041】次に、上記の点P213と点C214とを
結んだ直線PCに対して(π/2)及び(−π/4)の
角度を有する2つの直線202、203を求め、それぞ
れが前記初期輪郭210と交わる点をそれぞれ点I21
5及び点E217とし、前記太線201と交わる点をそ
れぞれ点R216及び点Q218とする。
Next, two straight lines 202 and 203 having angles of (π / 2) and (−π / 4) are obtained with respect to the straight line PC connecting the point P213 and the point C214, and each of them is the above-mentioned. The points that intersect the initial contour 210 are point I21.
5 and a point E217, and points intersecting with the thick line 201 are a point R216 and a point Q218, respectively.

【0042】以上のように特定された点I215、点R
216、点Q218及び点E217で構成される閉領域
(図3において斜線で示されている領域)が、分割され
た領域の一つである小領域310を表している。同様
に、小領域320〜380を特定することができる。
The point I 215 and the point R specified as described above
A closed area (area hatched in FIG. 3) constituted by 216, a point Q218 and a point E217 represents a small area 310 which is one of the divided areas. Similarly, the small areas 320 to 380 can be specified.

【0043】図4は、上記の分割方法の変形例を説明
するための図である。上記図3に示した分割方法の場合
は、初期輪郭210と太線201で挟まれる領域を分割
の対象とした(実質的な表示エリアに限定した)が、図
4の場合は、分割の対象を矩形の外枠200にまで拡大
している。従って、分割によって点I215、点RR2
19、点V221、点QQ220及び点E217によっ
て構成される閉領域(図4において斜線で示されている
領域)が、この場合の特定された小領域410である。
FIG. 4 is a diagram for explaining a modification of the above division method. In the case of the division method shown in FIG. 3 above, the area sandwiched between the initial contour 210 and the thick line 201 is the target of division (limited to the substantial display area), but in the case of FIG. It is expanded to a rectangular outer frame 200. Therefore, the point I215 and the point RR2 are divided by the division.
A closed area (area indicated by hatching in FIG. 4) constituted by 19, the point V221, the point QQ220, and the point E217 is the identified small area 410 in this case.

【0044】図5は、上記の分割方法の一例を説明す
るための図である。上記図3に示したの分割方法の場
合は、初期輪郭210と太線201で挟まれる領域を分
割の対象としたが、図5では、初期輪郭210から外側
に一定の画素(例えば、50画素)離れた位置に境界線
501を設け、初期輪郭210と境界線501に挟まれ
たドーナツ状の領域を、上記の場合と同様に8分割する
例を示している。従って、この場合は、点I215、点
J502、点F503及び点E217によって構成され
る閉領域(図5において斜線で示されている領域)が、
この分割方法によって特定された小領域510である。
FIG. 5 is a diagram for explaining an example of the above division method. In the case of the division method shown in FIG. 3, the area between the initial contour 210 and the thick line 201 is targeted for division, but in FIG. 5, a fixed pixel (for example, 50 pixels) is located outside the initial contour 210. An example is shown in which a boundary line 501 is provided at a distant position, and a donut-shaped region sandwiched between the initial contour 210 and the boundary line 501 is divided into eight, as in the above case. Therefore, in this case, the closed area (the area shaded in FIG. 5) formed by the point I215, the point J502, the point F503, and the point E217 is
It is the small area 510 specified by this division method.

【0045】図6は、上記の分割方法の変形例を説明
するための図である。上記図5に示した分割方法の場合
は、初期輪郭210と境界線501に挟まれたドーナツ
状の領域を分割の対象としたが、図6では、さらに初期
輪郭210の内側に一定の画素(例えば、12画素)離
れた位置に境界線601を設け、境界線601と境界線
501に挟まれたドーナツ状の領域を、上記の場合と同
様に8分割する例を示している。従って、この場合は、
点H602、点J502、点F503及び点D603に
よって構成される閉領域(図6において斜線で示された
領域)が、この分割方法によって特定された小領域61
0である。
FIG. 6 is a diagram for explaining a modification of the above division method. In the case of the dividing method shown in FIG. 5, the donut-shaped area sandwiched between the initial contour 210 and the boundary line 501 is the target of division, but in FIG. For example, a boundary line 601 is provided at a position apart by 12 pixels), and the donut-shaped region sandwiched between the boundary line 601 and the boundary line 501 is divided into eight, similar to the above case. So in this case,
The closed area (the area shaded in FIG. 6) constituted by the point H602, the point J502, the point F503, and the point D603 is the small area 61 specified by this division method.
It is 0.

【0046】図7は、上記の分割方法の一例を説明す
るための図である。上記の又はの分割方法の場合
は、初期輪郭210の重心G211を基準として放射状
に分割する方法を示したが、図7の分割方法では、観察
用モニタの表示可能エリアにおけるX軸及びY軸の長さ
をそれぞれ4等分して小領域を生成する例を示してい
る。従って、この場合は、表示可能エリアである矩形の
外枠200が、X方向にa画素、Y方向にb画素の矩形
の小領域710と同等の16個の小領域によって分割さ
れることとなる。なお、ここでは、領域分割部103の
分割例として、上記図3〜図7に示すような分割例を示
したが、当該領域を分割する方法は、これらに限定する
ものではなく、任意の既存の分割方法(例えば、図3に
おける重心G211と点T212とを結ぶ直線を基準線
として、反時計回りにπ/3ずつ分割していく方法な
ど)によって分割を行うこととしてもよい。
FIG. 7 is a diagram for explaining an example of the above division method. In the case of the division method of or, the method of radially dividing the center of gravity G211 of the initial contour 210 is used as a reference, but in the division method of FIG. 7, the X axis and the Y axis in the displayable area of the observation monitor are displayed. An example is shown in which the length is divided into four equal parts to generate a small area. Therefore, in this case, the rectangular outer frame 200 which is the displayable area is divided into 16 small areas equivalent to the rectangular small area 710 having a pixels in the X direction and b pixels in the Y direction. . Note that here, as the division example of the area division unit 103, the division examples as shown in FIGS. 3 to 7 are shown, but the method of dividing the area is not limited to these, and any existing method can be used. The division may be performed by the division method (for example, a method of dividing by π / 3 counterclockwise using the straight line connecting the center of gravity G211 and the point T212 in FIG. 3 as a reference line).

【0047】評価値算出部104は、領域分割部103
によって分割された小領域毎に断層画像の品質や特徴等
を定量的に把握するための評価値を算出する。評価値を
算出する方法としては、以下の方法がある。
The evaluation value calculation unit 104 includes the area division unit 103.
An evaluation value for quantitatively grasping the quality and characteristics of the tomographic image is calculated for each of the small regions divided by. The following methods are available for calculating the evaluation value.

【0048】(1)小領域における輝度値を用いる方法 これは、小領域の画像を構成する各画素の輝度値の平均
や分散等に基づいて評価値を算出する方法である。
(1) Method of Using Luminance Value in Small Area This is a method of calculating an evaluation value based on the average or variance of the brightness values of the pixels forming the image of the small area.

【0049】(2)形状に関する情報を用いる方法 これは、小領域内の対象物の輪郭の形状から算出した円
形度φ(輪郭線長をL、断面積をAとした場合に、φ=
4πA/L**2で表し、円の場合は、1.0となる。こ
の円形度は、複雑な形状になる程小さな値になる。)や
尖鋭度等を評価値とする方法である。なお、これら以外
に、例えば、特定された対象物の輪郭の重心位置(即
ち、断層画像全体の基準点)と各小領域の基準点との距
離など、位置に関するデータを用いて評価値とする方法
もある。位置に関するデータを用いて評価値とする方法
の具体例として、図7を参照しながら説明すると、断層
画像全体の基準点を初期輪郭210の重心G211とし
て定め、重心G211から各小領域の基準点(この場
合、各小領域の基準点をそれぞれの重心とする。)まで
の距離を評価値とし、その値が小さいものから4つ選択
する場合などがある。
(2) Method of using information on shape This is the circularity φ calculated from the shape of the contour of the object in the small area (φ = φ where the contour line length is L and the cross-sectional area is A).
It is represented by 4πA / L ** 2, and is 1.0 for a circle. This circularity becomes smaller as the shape becomes more complicated. ) And sharpness are used as evaluation values. In addition to these, for example, the evaluation value is obtained by using position-related data such as the distance between the barycentric position of the contour of the specified object (that is, the reference point of the entire tomographic image) and the reference point of each small area. There is also a method. As a specific example of the method of using the data regarding the position as the evaluation value, it will be explained with reference to FIG. (In this case, the reference point of each small area is taken as the center of gravity of each.) As an evaluation value, there are cases where four of the smaller values are selected.

【0050】(3)エッジ情報を用いる方法 これは、任意のエッジ検出フィルタ(フィルタ窓を用い
た2次元の微分)を小領域内に適用し、その出力結果を
評価値(例えば、x方向やy方向の微分量、エッジの強
さ等)とする方法である。
(3) Method using edge information In this method, an arbitrary edge detection filter (two-dimensional differentiation using a filter window) is applied to a small area, and the output result is evaluated value (for example, x direction or The differential amount in the y direction, the edge strength, etc.).

【0051】(4)2値化情報を用いる方法 これは、小領域内の輝度値を、所定の閾値もしくは小領
域内の輝度値分布から動的に決定する閾値を用いて2値
化し、その2値化されたデータの分布や形状(例えば、
尖度等)のような統計的もしくは形状地理的なデータを
評価値とする方法である。
(4) Method of using binarized information In this method, the brightness value in the small area is binarized using a predetermined threshold value or a threshold value dynamically determined from the brightness value distribution in the small area, Distribution and shape of binarized data (for example,
It is a method that uses statistical or shape geographical data such as kurtosis) as the evaluation value.

【0052】(5)輝度値における分離度を用いる方法 輝度値における分離度とは、輝度値を「0」と「1」の
クラスに分類する場合に、クラス間の変動が全輝度値の
変動に占める割合をいう。輝度値が「0」と「1」に完
全に分離されている場合は、分離度の値は1.0(最大
値)となる。なお、この分離度を用いる方法について
は、福井和弘著「領域間の分離度に基づく物体輪郭抽
出」(信学論D−II vol.J80−D−II,n
o.6,pp.1406−1414,June 199
7)に詳細が記載されている。
(5) Method of using the degree of separation in luminance value The degree of separation in luminance value means that when the luminance values are classified into "0" and "1" classes, the variation between classes is the variation of all luminance values. It refers to the ratio to. When the luminance value is completely separated into “0” and “1”, the value of the degree of separation is 1.0 (maximum value). Regarding the method of using this degree of separation, Kazuhiro Fukui, "Object Contour Extraction Based on Degree of Separation Between Regions" (Society theory D-II vol. J80-D-II, n
o. 6, pp. 1406-1414, June 199
Details are described in 7).

【0053】(6)最高輝度値や最低輝度値を用いる方
法 例えば、最大輝度差=最高輝度値−最低輝度値として、
この最大輝度差を評価値として用いる方法がある。
(6) Method of using maximum brightness value or minimum brightness value For example, the maximum brightness difference = maximum brightness value−minimum brightness value,
There is a method of using this maximum brightness difference as an evaluation value.

【0054】以下では、上記「(1)小領域内の輝度値
を用いる方法」について説明する。例えば、輝度値を用
いる方法の場合、単に「評価値 = 小領域内の輝度分
散」としてもよいし、輝度値の平均値を中心として、
「輝度値ヒストグラムで全体の80%を占める輝度値レ
ンジの幅」を評価値としてもよい。
The above "(1) Method of using brightness value in small area" will be described below. For example, in the case of the method using the luminance value, the evaluation value may be simply “the luminance distribution in the small area”, or the average value of the luminance values may be used as the center.
The “width of the luminance value range that occupies 80% of the entire luminance value histogram” may be used as the evaluation value.

【0055】後者の方法について、図8を用いながら、
より具体的に説明する。図8に示されるように、ある小
領域内の輝度値分布が0〜255、輝度平均値が「12
0」の場合を考える。この場合、その小領域における輝
度値をサンプリングし、総画素の80%(総画素数が1
000からなる小領域であれば800画素)の輝度値が
「120±α(α:自然数)」を満たす場合の「α」を
求め、このときの評価値を「2α」とする。なお、ここ
では、評価値算出部104の評価値算出例として、上記
(1)〜(6)に示すような算出例を挙げて説明した
が、評価値算出部104における評価値算出方法はこれ
らに限定するものではなく、既存の任意の数式や画像処
理に基づいて評価値の算出を行うこととしてもよい。
Regarding the latter method, referring to FIG.
This will be described more specifically. As shown in FIG. 8, the brightness value distribution in a certain small area is 0 to 255, and the brightness average value is “12”.
Consider the case of "0". In this case, the luminance value in the small area is sampled, and 80% of the total pixels (total pixel number is 1
In the case of a small area consisting of 000, “α” is calculated when the luminance value of 800 pixels) satisfies “120 ± α (α: natural number)”, and the evaluation value at this time is set to “2α”. Here, as the evaluation value calculation example of the evaluation value calculation unit 104, the calculation examples as shown in the above (1) to (6) have been described, but the evaluation value calculation method in the evaluation value calculation unit 104 is However, the evaluation value may be calculated based on any existing mathematical expression or image processing.

【0056】領域別処理部105は、領域分割部103
によって分割された小領域別に画像処理を実施する。こ
の場合の画像処理は、主に、各小領域における断層画像
の画質の改善を行う処理をいうが、評価値算出部104
における評価を行いやすくするための処理(例えば、小
領域間の評価値のばらつきを抑えるための正規化処理な
ど)や、後述する画像再構成部107で画像が再構成さ
れるときに、後段に接続される機器の性能向上、動作安
定化および画質向上などを図るための処理等であっても
よい。
The area-specific processing section 105 is an area dividing section 103.
Image processing is performed for each small region divided by. The image processing in this case mainly refers to processing for improving the image quality of the tomographic image in each small area.
Processing for facilitating evaluation in (for example, normalization processing for suppressing variation in evaluation value between small areas) and when an image is reconstructed by an image reconstructing unit 107 described later, It may be a process for improving the performance of the connected device, stabilizing the operation, improving the image quality, or the like.

【0057】上記の画質を改善する処理としては、例え
ば、2値化処理、コントラスト変換処理、バイアス変換
処理、ノイズ除去処理、モルフォロジ処理、エッジ抽出
処理、エッジ強調処理などがあり、勿論、これらの処理
を組み合わせてもよい。
The processing for improving the image quality includes, for example, binarization processing, contrast conversion processing, bias conversion processing, noise removal processing, morphology processing, edge extraction processing, and edge enhancement processing. The treatments may be combined.

【0058】上記の各処理の概要について、図9を参照
しながら説明する。図9(a)は、2値化処理における
入力輝度と出力輝度の様子を示す図である。図9(a)
に示されるように、入力輝度値の閾値を「128」とす
ると、入力輝度値が128以上の場合は、出力輝度値が
0から255に変化する。
An outline of each of the above processes will be described with reference to FIG. FIG. 9A is a diagram showing a state of input luminance and output luminance in the binarization processing. FIG. 9 (a)
As shown in, when the threshold value of the input brightness value is "128", when the input brightness value is 128 or more, the output brightness value changes from 0 to 255.

【0059】図9(b)は、コントラスト変換処理及び
バイアス変換処理における入力輝度値と出力輝度値の関
係を表す図である。図9(b)の曲線901は、コント
ラスト変換処理により、入力輝度値と出力輝度値を非線
形に関係付けるものである。また、図9(b)の曲線9
02は、バイアス変換処理により、入力輝度値に一定の
輝度値を付加(バイアス)して出力輝度値を出力させる
ものである。この場合、バイアスさせる輝度値は「6
0」である。なお、図9(b)には、参考として、入力
輝度値=出力輝度値の曲線903が示されている。
FIG. 9B is a diagram showing the relationship between the input luminance value and the output luminance value in the contrast conversion processing and the bias conversion processing. A curve 901 in FIG. 9B is one that nonlinearly relates the input luminance value and the output luminance value by the contrast conversion processing. In addition, the curve 9 in FIG.
Reference numeral 02 denotes a bias conversion process for adding (biasing) a constant brightness value to the input brightness value and outputting the output brightness value. In this case, the brightness value to be biased is “6
It is 0 ". For reference, a curve 903 of input luminance value = output luminance value is shown in FIG. 9B.

【0060】ノイズ除去処理としては、例えば2次元の
ローパスフィルタ等がある。モルフォロジ処理とは、非
線形のフィルタリング処理の一種であり、与えられた2
値画像又は濃淡画像から特徴抽出を目的として行われる
「ずらし重ね(ダイレーション)」や「掻き出し(エロ
ーション)」等の演算に基づくフィルタリング処理をい
う。なお、このモルフォロジ処理については、小畑秀文
著「モルフォロジー」(コロナ社)に詳細が記載されて
いる。
As the noise removing process, for example, there is a two-dimensional low pass filter or the like. Morphological processing is a type of non-linear filtering processing,
It refers to a filtering process based on an operation such as “shift overlay (dilation)” or “scratch out (erosion)” performed for the purpose of feature extraction from a value image or a grayscale image. Details of this morphological treatment are described in "Morphology" by Hidefumi Obata (Corona Publishing Co.).

【0061】エッジ抽出処理とは、画像における領域の
境界(例えば、対象物と背景)を表わすエッジを抜き出
す処理をいい、1次微分フィルタや2次微分フィルタを
用いる方法等がある。
The edge extraction process is a process of extracting an edge representing a boundary between regions (for example, an object and a background) in an image, and there is a method using a primary differential filter or a secondary differential filter.

【0062】エッジ強調処理とは、断層画像においてエ
ッジとそれ以外の部分の濃淡レベルの差をより増大させ
る処理をいい、輝度値分散を変換する方法等がある。図
10は、輝度値分散を変換する方法の一例を示す図であ
る。図10の例においては、輝度値の平均値(例えば、
120)を中心にして輝度値の分散が集中している曲線
1001を曲線1002のように輝度値の分散が鈍化す
るように変換した場合を示している。
The edge enhancement process is a process for further increasing the difference in gray level between the edge and the other portion in the tomographic image, and there is a method of converting the brightness value dispersion. FIG. 10 is a diagram showing an example of a method for converting the luminance value variance. In the example of FIG. 10, the average value of the brightness values (for example,
The curve 1001 in which the dispersion of the brightness values is concentrated around 120) is converted into a curve 1002 so as to reduce the dispersion of the brightness values.

【0063】領域選択部106は、領域分割部103に
よって分割された小領域の中から任意の個数の小領域を
特定する。この場合の特定方法としては、評価値算出部
104で算出された評価値の高い小領域から順(降順)
に所定の個数選んでもよいし、評価値の低い小領域から
順(昇順)に選んでもよい。例えば、上記の輝度値に基
づく評価値「2α」の場合であれば、「2α」の大きい
ものから順に選択することで、コントラストの明瞭な
(即ち、コントラストのレンジが広い)小領域から順に
選択することができる。また、逆に「2α」の小さいも
のから順に選択することで、コントラストの不明瞭な
(即ち、コントラストのレンジが狭い)小領域から順に
選択することができる。
The area selecting unit 106 specifies an arbitrary number of small areas from the small areas divided by the area dividing unit 103. In this case, as the specifying method, the small areas calculated by the evaluation value calculating unit 104 are ranked in descending order from the highest evaluation value.
Alternatively, a predetermined number may be selected, or small areas having a low evaluation value may be selected in order (ascending order). For example, in the case of the evaluation value “2α” based on the above-mentioned luminance value, by selecting in descending order of “2α”, the small regions with clear contrast (that is, wide contrast range) are selected in order. can do. On the contrary, by selecting in order from the smallest “2α”, it is possible to select in order from the small region where the contrast is unclear (that is, the contrast range is narrow).

【0064】画像再構成部107は、領域分割部103
によって分割され、領域別処理部105によって画像処
理が施された小領域の画像データと画像生成部110に
よって生成された断層画像の画像データとに基づいて、
新たな画像データを生成する。
The image reconstructing unit 107 is a region dividing unit 103.
Based on the image data of the small region divided by the image processing unit 105 and the image data of the tomographic image generated by the image generation unit 110,
Generate new image data.

【0065】例えば、領域選択部106で指定された小
領域の画像だけで画像を再構成する(この場合、一部の
小領域が欠損することとなる)。また、画像再構成部1
07は、領域選択部106で指定された小領域毎に画像
処理が施された場合に、小領域単位の画像をもとの断層
画像にオーバーライド(重ね書き)したり、もとの断層
画像と置き換えることを可能とする。
For example, the image is reconstructed only by the image of the small area designated by the area selecting unit 106 (in this case, some small areas are lost). Also, the image reconstruction unit 1
When the image processing is performed for each of the small areas designated by the area selection unit 106, 07 indicates to overwrite (overwrite) the image of each small area with the original tomographic image, or to replace the original tomographic image with the original tomographic image. It is possible to replace.

【0066】次に、以上のように構成された超音波診断
装置10の動作について説明する。図13は、超音波診
断装置10の全体の処理の流れの一例を示すフローチャ
ートである。最初に、画像生成部110は、超音波探触
子11及び送受信部12を介して受信した超音波エコー
に基づいて断層画像を生成する(S1301)。
Next, the operation of the ultrasonic diagnostic apparatus 10 configured as above will be described. FIG. 13 is a flowchart showing an example of the overall processing flow of the ultrasonic diagnostic apparatus 10. First, the image generation unit 110 generates a tomographic image based on the ultrasonic echo received via the ultrasonic probe 11 and the transmission / reception unit 12 (S1301).

【0067】次に、領域分割部103は、操作部14を
介してオペレータから受け付けた指示によって特定され
た、又は輪郭抽出部111において自動的に抽出された
対象物の初期輪郭を用いて(S1302)、観察用モニ
タ上の断層画像を複数の小領域に分割する(S130
3)。
Next, the area dividing unit 103 uses the initial contour of the object specified by the instruction received from the operator via the operation unit 14 or automatically extracted by the contour extracting unit 111 (S1302). ), The tomographic image on the observation monitor is divided into a plurality of small areas (S130).
3).

【0068】さらに、評価値算出部104は、上記のよ
うに分割された小領域毎に評価値を算出する(S130
4)。このあと、領域別処理部105は、それぞれの小
領域毎に画像処理を施す(S1305)。
Further, the evaluation value calculation unit 104 calculates an evaluation value for each of the small areas divided as described above (S130).
4). After that, the area-specific processing unit 105 performs image processing on each small area (S1305).

【0069】続いて、領域選択部106が、上記の評価
値に基づいて小領域を選択すると(S1306)、画像
再構成部は、選択された小領域の画像に基づいて、観察
用モニタ上に断層画像を再構成する(S1307)。再
構成された断層画像は、データ出力部16に出力され、
観察用モニタ等に表示される。
Then, when the area selection unit 106 selects a small area based on the above-mentioned evaluation value (S1306), the image reconstruction unit displays it on the monitor for observation based on the image of the selected small area. The tomographic image is reconstructed (S1307). The reconstructed tomographic image is output to the data output unit 16,
It is displayed on an observation monitor or the like.

【0070】図14は、上記図13における「領域分割
処理(S1303)」の一例を示すフローチャートであ
る。最初に、領域分割部103は、上記のように特定さ
れた初期輪郭の重心Gを算出し(S1401)、この重
心Gを通る中心線を求める(S1402)。
FIG. 14 is a flow chart showing an example of the "area division process (S1303)" in FIG. First, the area dividing unit 103 calculates the center of gravity G of the initial contour specified as described above (S1401), and obtains the center line passing through the center of gravity G (S1402).

【0071】次に、領域分割部103は、分割方法(例
えば、上記の分割方法)を特定し(S1403)、特
定した分割方法に従って断層画像を複数の小領域に分割
する(S1404)。
Next, the area dividing unit 103 specifies a dividing method (for example, the above dividing method) (S1403), and divides the tomographic image into a plurality of small areas according to the specified dividing method (S1404).

【0072】図15は、図13における「評価値算出処
理」の一例を示すフローチャートである。なお、図15
では、上記の輝度値の分布に関する評価値「2α」を算
出する場合について示している。
FIG. 15 is a flow chart showing an example of the "evaluation value calculation process" in FIG. Note that FIG.
Then, the case where the evaluation value “2α” related to the distribution of the brightness value is calculated is shown.

【0073】最初に、評価値算出部104は、評価値算
出の対象となる全ての画素について、輝度値の平均値
(YA)を算出する(S1501)。次に、評価値算出
部104は、全ての画素について、上記の輝度値の平均
値を中心とする輝度値のヒストグラムを作成する(S1
502)。
First, the evaluation value calculation unit 104 calculates the average value (YA) of the brightness values for all the pixels for which the evaluation value is to be calculated (S1501). Next, the evaluation value calculation unit 104 creates a histogram of brightness values centered on the average value of the brightness values for all pixels (S1).
502).

【0074】さらに、評価値算出部104は、輝度値の
増分α(α:自然数)の初期化(例えば、α=0)を行
った後(S1503)、輝度値が「YA±α」となる画
素を計数する(S1504)。この後、評価値算出部1
04は、αの値に「1」加えて更新し(S1505)、
上記の計数結果が全画素数に対して80%を超えるか否
か、つまり「YA±α>80%」(この不等式における"
α"は更新前の値である。)を満たすか否かを判定する
(S1506)。この条件を満たす場合、評価値算出部
104は、評価値を「2α」とする(S1507)。
Further, the evaluation value calculation unit 104 initializes the increment α (α: natural number) of the luminance value (for example, α = 0) (S1503), and then the luminance value becomes “YA ± α”. The number of pixels is counted (S1504). After this, the evaluation value calculation unit 1
04 adds “1” to the value of α to update (S1505),
Whether or not the above counting result exceeds 80% with respect to the total number of pixels, that is, “YA ± α> 80%” (in this inequality
It is determined whether or not α ″ is a value before the update) (S1506). If this condition is satisfied, the evaluation value calculation unit 104 sets the evaluation value to “2α” (S1507).

【0075】図16は、図13における「領域別処理」
の詳細なフローチャートである。最初に、領域別処理部
105は、操作部14を介してオペレータから、実行す
る画像処理の特定を受け付ける(S1601)。この場
合、実行する画像処理としては、2値化処理、コントラ
スト変換処理、バイアス変換処理、ノイズ除去処理、モ
ルフォロジ処理、エッジ抽出処理及びエッジ強調処理等
がある。そして、領域別処理部105は、特定された画
像処理を実行する(S1602〜S1609)。なお、
デフォルトの画像処理として、少なくとも1つ(例え
ば、エッジ強調処理)を実行するように設定しておいて
もよい。
FIG. 16 shows "region-specific processing" in FIG.
2 is a detailed flowchart of FIG. First, the region-specific processing unit 105 receives the specification of the image processing to be executed from the operator via the operation unit 14 (S1601). In this case, the image processing to be performed includes binarization processing, contrast conversion processing, bias conversion processing, noise removal processing, morphology processing, edge extraction processing, edge enhancement processing, and the like. Then, the region-specific processing unit 105 executes the specified image processing (S1602 to S1609). In addition,
As the default image processing, at least one (for example, edge enhancement processing) may be set to be executed.

【0076】図17は、上記図13における「画像再構
成処理(S1307)」の詳細を示すフローチャートで
ある。最初に、制御部112は、操作部14を介してオ
ペレータから画像として再構成する小領域の選択(S1
701)及び原画像に上書きするか否かの指示を受け付
ける(S1702)。上書きする旨の指示を受けた場合
(S1702:Yes)、制御部112は、画像生成部
110で生成された断層画像に、選択された小領域の画
像を上書きして(S1703)、画像メモリ101に格
納する(S1704)。
FIG. 17 is a flow chart showing the details of the "image reconstruction process (S1307)" in FIG. First, the control unit 112 selects a small area to be reconstructed as an image from the operator via the operation unit 14 (S1).
701) and an instruction whether to overwrite the original image (S1702). When the instruction to overwrite is received (S1702: Yes), the control unit 112 overwrites the image of the selected small area on the tomographic image generated by the image generation unit 110 (S1703), and the image memory 101 is displayed. (S1704).

【0077】図11及び図12は、上記の領域別処理部
105において画像処理が施される前後の断層画像の様
子を簡略的に示した図である。図11では、領域分割部
103によって分割された8個の小領域のうち、小領域
310、330の全体が一様に輝度値が低い(即ち、画
像全体が黒っぽい)ため、対象物の輪郭1110の一部
が不明瞭である。一方、小領域360は、逆に画像全体
が一様に輝度値が高い(即ち、画像全体が白っぽい)た
め、対象物の輪郭1110の一部が不明瞭である。図1
2は、上記図11の断層画像に対して領域別処理部10
5による画像処理を施した結果、不明瞭だった小領域3
10、330、360の画質が改善され、対象物の輪郭
1110の全体が明瞭になった様子を示す。
FIGS. 11 and 12 are diagrams showing the states of the tomographic images before and after the image processing is performed in the area-specific processing section 105. In FIG. 11, among the eight small regions divided by the region dividing unit 103, the small regions 310 and 330 have uniform low luminance values (that is, the entire image is dark), and thus the outline 1110 of the object. Is partly unclear. On the other hand, in the small region 360, on the contrary, the entire image has a uniformly high luminance value (that is, the entire image is whitish), and therefore a part of the outline 1110 of the object is unclear. Figure 1
2 is a region-specific processing unit 10 for the tomographic image of FIG.
Small area 3 which was unclear as a result of image processing by 5
It shows that the image quality of 10, 330, 360 is improved and the outline 1110 of the object becomes clear.

【0078】以上のように、本実施の形態に係る超音波
診断装置を用いることにより、局所的に不鮮明な画像に
対しても対象物(例えば、心臓左室等)の輪郭の抽出等
を確実に行うことが可能となる。
As described above, by using the ultrasonic diagnostic apparatus according to this embodiment, it is possible to reliably extract the contour of the object (for example, the left ventricle of the heart) even for a locally unclear image. It becomes possible to do it.

【0079】なお、本実施の形態における画像処理部1
5は、超音波診断装置の一部として構成したが、画像処
理部15の画像生成部110を、外部から画像データを
入力し得るデータ入力部に代えて、上記と同等の機能を
有する画像処理装置として構成してもよい。
The image processing unit 1 according to the present embodiment
5 is configured as a part of the ultrasonic diagnostic apparatus, the image generation unit 110 of the image processing unit 15 is replaced with a data input unit capable of inputting image data from the outside, and image processing having the same function as the above is performed. It may be configured as a device.

【0080】なお、この画像処理部15はリアルタイム
で連続的に入力される画像データ(動画像データ)をも
扱い得ることとする。この場合、各部はフレーム毎にそ
れぞれの処理を実行する。
The image processing unit 15 can handle image data (moving image data) continuously input in real time. In this case, each unit executes each processing for each frame.

【0081】また、他の例として、断層画像中の一部の
対象物をトラッキングしつつ輪郭を抽出したい場合(例
えば、左室内壁の抽出時に左心室と左心房を隔てる弁の
根元にあたる弁輪部をトラッキングしつつ、左室内壁を
トレースしたい場合など)では、小領域内の処理として
トラッキングを行いつつ、輪郭が不明瞭な小領域につい
ては小領域に対する処理として画質改善を行い、トラッ
キングの結果、弁輪部が存在している小領域の位置を領
域選択部から伝えることで、従来では輪郭抽出が不可能
な画像であっても、トラッキング並びにその抽出が可能
となる。
As another example, when it is desired to extract the contour while tracking a part of the object in the tomographic image (for example, the annulus at the base of the valve that separates the left ventricle and the left atrium when extracting the left ventricle wall). If you want to trace the left interior wall while tracking a part), the tracking is performed as a process within a small area, while the image quality is improved as a process for a small area where the contour is unclear. By transmitting the position of the small area in which the annulus portion is present from the area selection unit, even if the image cannot be contour-extracted in the related art, tracking and extraction thereof can be performed.

【0082】上記の画質改善とは、ヒストグラムイコラ
イザやノイズカットなどによるコントラストの改善、エ
ッジ強調などが利用できる。勿論この限りではなく、任
意の手法を用いることができる。
As the above-mentioned image quality improvement, improvement of contrast by a histogram equalizer or noise cut, edge enhancement, etc. can be used. Of course, the method is not limited to this, and any method can be used.

【0083】また、上記のトラッキングには、例えばパ
ターンマッチングやフレーム間での自己相関、動きベク
トルを検出する手法等の適用が考えられる。勿論、これ
らの手法に限るものではなく任意の手法を用いてもよ
い。
For the above tracking, for example, pattern matching, autocorrelation between frames, detection of motion vector, etc. may be applied. Of course, the method is not limited to these, and any method may be used.

【0084】(実施の形態2)上記実施の形態1では、
超音波診断装置において生成された断層画像に本発明を
適用する実施例について説明したが、本実施の形態で
は、カメラ機能付き携帯電話機等の画像処理装置におい
て生成された画像に対して本発明を適用する実施例につ
いて説明する。
(Second Embodiment) In the first embodiment,
An example in which the present invention is applied to a tomographic image generated in an ultrasonic diagnostic apparatus has been described, but in the present embodiment, the present invention is applied to an image generated in an image processing apparatus such as a mobile phone with a camera function. An applied example will be described.

【0085】図18は、本実施の形態における画像処理
装置20の機能構成を示すブロック図である。この画像
処理装置20は、画像が局所的に不鮮明であっても、そ
の部分の状況に応じた画質改善を行う機能を有してお
り、カメラ部21、全体制御部22、操作部14、画像
処理部15及びデータ出力部16を備える(便宜上、本
画像処理装置20においては、通信機能やメモリ機能な
ど、一般のカメラ機能付き携帯電話機が有する機能は省
略することとする)。
FIG. 18 is a block diagram showing the functional arrangement of the image processing apparatus 20 according to this embodiment. The image processing apparatus 20 has a function of improving the image quality according to the situation of the portion even if the image is locally unclear. The camera unit 21, the overall control unit 22, the operation unit 14, the image The processing unit 15 and the data output unit 16 are provided (for convenience, in the image processing apparatus 20, the functions of a general mobile phone with a camera function, such as the communication function and the memory function, are omitted).

【0086】なお、画像処理装置20の機能について
は、上記実施の形態1の超音波診断装置10における超
音波探触子11に替えてカメラ部21を備え、さらに送
受信部12に替えて全体制御部22を備える点を除いて
同じである。なお、以下においては、上記実施の形態1
の超音波診断装置10と異なる点について、重点的に説
明する。
Regarding the function of the image processing apparatus 20, a camera unit 21 is provided in place of the ultrasonic probe 11 in the ultrasonic diagnostic apparatus 10 according to the first embodiment, and a total control is provided in place of the transmitting / receiving unit 12. It is the same except that the portion 22 is provided. In the following, the first embodiment described above
Differences from the ultrasonic diagnostic apparatus 10 will be mainly described.

【0087】カメラ部21は、操作部14を介して入力
されたオペレータの操作に従って撮影(例えば、光電変
換)及び画像データの生成を行う部分であり、CCD等
を備える。
The camera section 21 is a section for photographing (for example, photoelectric conversion) and generating image data in accordance with an operator's operation input through the operation section 14, and includes a CCD or the like.

【0088】全体制御部22は、画像処理装置20全体
を制御する部分であり、CPU、ROM及びRAM等を
備える。さらに、全体制御部22は、カメラ部21にお
いて生成された画像データを受信してRAM等に記憶す
ると共に、操作部14を介して入力されたオペレータの
操作に従って、受信した画像データをそのまま又はRA
M等から読み出した画像データを画像処理部15に送信
する。なお、操作部14、画像処理部15およびデータ
出力部16の機能は、上記実施の形態1の超音波診断装
置10における対応する各部と同等の機能を有してい
る。
The overall control section 22 is a section for controlling the entire image processing apparatus 20, and comprises a CPU, ROM, RAM and the like. Further, the overall control unit 22 receives the image data generated by the camera unit 21 and stores the image data in the RAM or the like, and according to the operator's operation input via the operation unit 14, the received image data as it is or in the RA.
The image data read from M or the like is transmitted to the image processing unit 15. The functions of the operation unit 14, the image processing unit 15, and the data output unit 16 have the same functions as the corresponding units in the ultrasonic diagnostic apparatus 10 of the first embodiment.

【0089】図19(a)〜(c)は、画像処理装置2
0において、撮影された原画像に対して領域分割を行う
までの様子を示した図である。図19(a)は、撮影さ
れた原画像の一例である。図19(a)に示されているよ
うに、この原画像の左すみには、本来の撮影対象を阻害
する部分(例えば、湯気や煙)が撮影されたため、顔の
輪郭が不明瞭となっている。図19(b)は、図19(a)
の原画像に上記実施の形態1における超音波診断装置1
0と同様の方法によって初期輪郭を設定した様子を示す
図である。
FIGS. 19A to 19C show the image processing device 2.
FIG. 3 is a diagram showing a state up to area division of a captured original image at 0. FIG. 19A is an example of a captured original image. As shown in FIG. 19 (a), in the left corner of this original image, a portion that obstructs the original object to be photographed (for example, steam or smoke) is photographed, so the outline of the face becomes unclear. ing. FIG. 19 (b) shows FIG. 19 (a).
To the original image of the ultrasonic diagnostic apparatus 1 in the first embodiment
It is a figure which shows a mode that the initial contour was set by the method similar to 0.

【0090】図19(c)は、図19(b)の画像に対し
て、上記実施の形態1と同じ方法で領域分割を行った様
子を示す図である。図20(a)および(b)は、本実
施の形態において、領域分割された小領域の中から選択
された一部の小領域23、24に対して画像処理を施す
様子を示す図である。ここで、図20(a)における小領
域23、24が、上記実施の形態1と同じ方法で選択さ
れた2つの小領域を示す。図20(b)は、小領域23、
24に画像処理(例えば、コントラス変換処理)を施し
た結果、顔の輪郭が改善された様子を示す図である。
FIG. 19 (c) is a diagram showing how the image of FIG. 19 (b) is divided into areas by the same method as in the first embodiment. 20A and 20B are diagrams showing a state in which image processing is performed on some of the small areas 23 and 24 selected from the divided small areas in the present embodiment. . Here, the small areas 23 and 24 in FIG. 20A show two small areas selected by the same method as in the first embodiment. FIG. 20B shows a small area 23,
It is a figure which shows a mode that the outline of the face was improved as a result of performing the image processing (for example, contrast conversion processing) to 24.

【0091】図21(a)および(b)は、本実施の形
態において、画像処理が施された一部の小領域を含む画
像に対して、再度初期輪郭の設定および輪郭抽出を行っ
た様子を示す図である。図21(a)は、画像処理が施
された小領域23、24を含む画像に、再度初期輪郭を
設定した様子を示す図である。図21(b)は、図21
(a)の初期輪郭が設定された画像に基づいて、さらに細
かな輪郭抽出を行った結果を示す図である。図21(b)
に示されているように、この場合は、ほぼ実際の顔の輪
郭に沿った好ましい輪郭が抽出されている様子が示され
ている。
FIGS. 21 (a) and 21 (b) show a state in which the initial contour is set and the contour is extracted again for the image including a part of the small region subjected to the image processing in the present embodiment. FIG. FIG. 21A is a diagram showing a state in which the initial contour is set again in the image including the small regions 23 and 24 that have been subjected to the image processing. FIG. 21B is a diagram shown in FIG.
It is a figure which shows the result which performed finer contour extraction based on the image in which the initial contour of (a) was set. Figure 21 (b)
In this case, it is shown that a preferable contour is extracted along the contour of the actual face as shown in FIG.

【0092】図22は、上記の画像処理装置20に付加
されている機能の一例を説明するための図である。図2
2(b)は、図22(a)の原画像に対して輪郭抽出を
行った結果を示している。この場合、画像処理装置20
は、図22(d)に示されるように、抽出された輪郭に
基づいて、顔の「小型化」や「スリム化」を可能とす
る。この「小型化」及び「スリム化」は、例えば図22
(c)に示されるように、縦サイズの縮小率(例えば、
0.9)に対して横サイズの縮小率をさらに小さくする
(例えば、0.7)ことで実現できる。
FIG. 22 is a diagram for explaining an example of the function added to the image processing apparatus 20 described above. Figure 2
2B shows the result of contour extraction performed on the original image of FIG. In this case, the image processing device 20
As shown in FIG. 22D, allows the face to be “miniaturized” or “slimmed” based on the extracted contour. This "miniaturization" and "slimming" are shown in FIG.
As shown in (c), the vertical size reduction ratio (for example,
It can be realized by further reducing the reduction ratio of the lateral size with respect to 0.9) (for example, 0.7).

【0093】図23は、上記の画像処理装置20に付加
されているその他の機能の一例を説明するための図であ
る。図23に示されるように、画像処理装置20は、抽
出された輪郭に基づいて画像の一部を抜き出し、他の画
像(例えば、風景を撮影した画像)と合成して新たな画
像の生成(例えば、クロマキ合成など)を可能にする。
FIG. 23 is a diagram for explaining an example of other functions added to the image processing apparatus 20. As shown in FIG. 23, the image processing device 20 extracts a part of an image based on the extracted contour, combines the extracted image with another image (for example, an image of a landscape), and generates a new image ( For example, chromaki synthesis).

【0094】図24は、上記の画像処理装置20の全体
の処理の流れを示すフローチャートである。最初に、画
像処理部15は、カメラ部21及び全体制御部22を介
して受信したデータに基づいて画像を生成する(S23
01)。
FIG. 24 is a flow chart showing the overall processing flow of the image processing apparatus 20. First, the image processing unit 15 generates an image based on the data received via the camera unit 21 and the overall control unit 22 (S23).
01).

【0095】次に、全体制御部22は、対象物の初期輪
郭をオペレータの操作又は自動抽出によって特定する
(S1302)。これにより、領域分割部103は、デ
ィスプレイ上の画像を複数の小領域に分割する(S13
03)。続いて、全体制御部22は、オペレータから小
領域の選択を受け付け(S1306)、領域別処理部1
05に、小領域毎の画像処理を施すように指示する(S
1305)。
Next, the overall control unit 22 specifies the initial contour of the object by an operator's operation or automatic extraction (S1302). As a result, the area dividing unit 103 divides the image on the display into a plurality of small areas (S13).
03). Subsequently, the overall control unit 22 receives the selection of the small area from the operator (S1306), and the processing unit for each area 1
05 is instructed to perform image processing for each small area (S
1305).

【0096】その後、全体制御部22は、オペレータか
ら再度輪郭抽出を行う旨の指示を受け付けると(S23
02:Yes)、上記と同様に初期輪郭の特定及び対象
物の輪郭の抽出を行うように、各部に指示する(S23
03)。
After that, the overall control unit 22 receives an instruction from the operator to again perform contour extraction (S23).
02: Yes), instructing each part to specify the initial contour and extract the contour of the object in the same manner as described above (S23).
03).

【0097】さらに、画像処理部15は、全体制御部2
2の指示により、上記のように得られた画像に対して、
加工や合成を施す(S2304)。なお、上記実施の形
態1及び実施の形態2において、小領域分割部による領
域の分割方法を図3〜図7、図19に示したが、勿論こ
れらに限られない。例えば、図25(a)および図25
(b)に示されるように、輪郭線を含む画像に対して、
基準点を起点として一辺の長さが「2c」の領域タイル
を並べるように領域を分割してもよい。これにより、図
25(c)に示されるように、8個の領域タイルを用い
て、輪郭線をなぞるように画像の分割を行うことができ
る。この場合、領域タイルの中心が輪郭線上に乗るよう
に領域タイルを配置する。さらに、その他の領域の分割
方法としては、図26に示されるように、外部矩形と内
部矩形に挟まれる領域を小領域(領域タイル)に分割し
ても良い。図26(a)は、最初に輪郭線に外接する外
接矩形(幅W1、長さH1)を定義し、この外接矩形の形
状に基づいて、外部矩形(幅W2、長さH2)及び内部矩
形(幅W3、長さH3)を定義する。具体的には、W2=
5W1/3、H2=5H1/3、W3=W1/3、H3=H1
/3となるように定義する。図26(b)は、最初に輪
郭線をその内部に含むように外部矩形(幅W4、長さH
4)を定義し、輪郭線の内部に内部矩形(幅W5、長さH
5)を定義する。具体的には、W5=W4/3、H5=H3
/3となるように定義する。さらに、外部矩形と内部矩
形に挟まれる領域を領域タイル(幅W6、長さH6)で分
割する。具体的には、W6=W4/3、H6=H4/6とな
るような領域タイルを定義する。
Further, the image processing unit 15 includes the overall control unit 2
By the instruction of 2, for the image obtained as described above,
Processing and synthesis are performed (S2304). In addition, in the above-described first and second embodiments, the area dividing method by the small area dividing unit is shown in FIGS. 3 to 7 and FIG. 19, but is not limited to these. For example, FIG. 25 (a) and FIG.
As shown in (b), for an image including a contour line,
The area may be divided such that the area tiles having a side length of “2c” are arranged from the reference point as a starting point. As a result, as shown in FIG. 25C, the image can be divided by tracing the contour line using eight area tiles. In this case, the area tiles are arranged so that the centers of the area tiles are on the contour line. Further, as another method of dividing the area, as shown in FIG. 26, the area sandwiched between the outer rectangle and the inner rectangle may be divided into small areas (area tiles). FIG. 26A defines a circumscribed rectangle (width W1 and length H1) that circumscribes the contour line first, and based on the shape of the circumscribed rectangle, the outer rectangle (width W2 and length H2) and the inner rectangle. (Width W3, length H3) is defined. Specifically, W2 =
5W1 / 3, H2 = 5H1 / 3, W3 = W1 / 3, H3 = H1
It is defined to be / 3. In FIG. 26 (b), an outer rectangle (width W4, length H) is first included so that the contour line is included therein.
4) is defined, and an inner rectangle (width W5, length H) is defined inside the contour line.
5) is defined. Specifically, W5 = W4 / 3, H5 = H3
It is defined to be / 3. Further, the area sandwiched between the outer rectangle and the inner rectangle is divided into area tiles (width W6, length H6). Specifically, the area tiles such that W6 = W4 / 3 and H6 = H4 / 6 are defined.

【0098】なお、操作部14を介してオペレータから
指示を受け付けることにより、上記のc、W1〜W6及び
H1〜H6の値を変更し、変更した値を用いてそれぞれの
方法で領域を分割することとしてもよい。さらに、上記
の各寸法は一例であり、勿論これら以外の各寸法で画像
の分割を行うこととしてもよい。
By accepting an instruction from the operator via the operation unit 14, the values of c, W1 to W6 and H1 to H6 are changed, and the area is divided by each method using the changed values. It may be that. Further, each of the above dimensions is an example, and it goes without saying that the image may be divided according to other dimensions.

【0099】以上のように、本実施の形態の画像処理装
置を用いることにより、顔等の輪郭が不鮮明な画像に対
しても、上記実施の形態1における超音波診断装置と同
様の方法を用いることによって、その輪郭を抽出するこ
と(即ち、画像を改善すること)が可能となる。なお、
本実施の形態では、特に顔を対象として説明したが、云
うまでもなく、本発明を任意の対象物の輪郭を抽出する
場合に適用することが可能である。
As described above, by using the image processing apparatus according to the present embodiment, the same method as that of the ultrasonic diagnostic apparatus according to the first embodiment is used even for an image with an unclear contour such as a face. This makes it possible to extract the contour (ie to improve the image). In addition,
In the present embodiment, the face has been described as a target, but it goes without saying that the present invention can be applied to the case of extracting the contour of an arbitrary target.

【0100】[0100]

【発明の効果】以上のように、本発明に係る画像処理装
置や超音波診断装置は、画像を小領域に分割し、個々の
小領域の状況に応じた画像処理を行っているため、従来
の装置における画像の一部欠損や局所的にコントラスト
が低くエッジが不明瞭なために画質の自動調整機能が十
分に機能しないといった欠点を克服することが可能とな
る。また、同様の原因による、輪郭や境界の抽出法が十
分に機能しないといった欠点を克服することができる。
As described above, the image processing apparatus and the ultrasonic diagnostic apparatus according to the present invention divide an image into small areas and perform image processing according to the situation of each small area. It is possible to overcome the drawbacks that the automatic image quality adjustment function does not function sufficiently due to partial loss of the image and local low contrast and unclear edges in the device. Further, it is possible to overcome the drawback that the contour and boundary extraction methods do not function sufficiently due to the same cause.

【0101】即ち、従来の輪郭や境界の抽出法は、輪郭
が明瞭に描出されることを前提としているために上記の
ような欠点を有しているが、本発明によれば、局所的に
コントラストが低い画像について鮮明化を図ることがで
きので、当該装置を介して診断医療の質を高めると共
に、国民医療費の削減にも資するものである。
That is, the conventional method for extracting contours and boundaries has the above-mentioned drawbacks because it is premised that the contours are clearly drawn. Since an image with low contrast can be sharpened, the quality of diagnostic medical treatment can be improved and the national medical cost can be reduced through the device.

【図面の簡単な説明】[Brief description of drawings]

【図1】実施の形態1に係る超音波診断装置の機能構成
の概要を示すブロック図である。
FIG. 1 is a block diagram showing an outline of a functional configuration of an ultrasonic diagnostic apparatus according to a first embodiment.

【図2】図1における画像処理部の詳細な機能構成を示
すブロック図である。
FIG. 2 is a block diagram showing a detailed functional configuration of an image processing unit in FIG.

【図3】対象物の初期輪郭を自動抽出又はオペレータか
らの操作によって特定し、その初期輪郭の重心から放射
状に分割する方法を説明するための図である。
FIG. 3 is a diagram for explaining a method of automatically extracting an initial contour of an object or specifying it by an operator's operation and radially dividing the center of gravity of the initial contour.

【図4】上記図3に示される方法の変形例を説明するた
めの図である。
FIG. 4 is a diagram for explaining a modified example of the method shown in FIG.

【図5】特定された初期輪郭から外側に一定のピクセル
数の幅を有するような境界線を生成し、初期輪郭と境界
線とで挟まれるドーナツ状の領域を所定の角度で放射状
に分割する方法を説明するための図である。
FIG. 5 is a diagram illustrating a boundary line having a width of a certain number of pixels outside the specified initial contour, and radially dividing a donut-shaped region sandwiched between the initial contour and the boundary line at a predetermined angle. It is a figure for demonstrating a method.

【図6】上記図5に示される方法の変形例を説明するた
めの図である。
FIG. 6 is a diagram for explaining a modified example of the method shown in FIG.

【図7】断層画像の縦軸及び横軸の長さをそれぞれN等
分する方法を説明するための図である。
FIG. 7 is a diagram for explaining a method of equally dividing the lengths of the vertical axis and the horizontal axis of a tomographic image into N equal parts.

【図8】断層画像の小領域における輝度値の分布の様子
の一例である。
FIG. 8 is an example of how luminance values are distributed in a small area of a tomographic image.

【図9】(a)は、2値化処理における入力輝度と出力
輝度の様子を示す図である。(b)は、コントラスト変
換処理及びバイアス変換処理における入力輝度値と出力
輝度値の関係を表す図である。
FIG. 9A is a diagram showing a state of input luminance and output luminance in the binarization processing. (B) is a figure showing the relationship between an input brightness value and an output brightness value in contrast conversion processing and bias conversion processing.

【図10】輝度値分散を変換する方法の一例を示す図で
ある。
FIG. 10 is a diagram showing an example of a method of converting luminance value dispersion.

【図11】領域別処理部によって画像処理が施される前
の断層画像の様子を簡略的に示した図である。
FIG. 11 is a diagram schematically showing a state of a tomographic image before being subjected to image processing by a region-specific processing unit.

【図12】領域別処理部によって画像処理が施された後
の断層画像の様子を簡略的に示した図である。
FIG. 12 is a diagram schematically showing a state of a tomographic image after being subjected to image processing by a region-specific processing unit.

【図13】超音波診断装置の全体の処理の流れの一例を
示すフローチャートである。
FIG. 13 is a flowchart showing an example of the overall processing flow of the ultrasonic diagnostic apparatus.

【図14】図12における「領域分割処理」の一例を示
すフローチャートである。
FIG. 14 is a flowchart showing an example of “area division processing” in FIG.

【図15】図12における「評価値算出処理」の一例を
示すフローチャートである。
15 is a flowchart showing an example of "evaluation value calculation processing" in FIG.

【図16】図12における「領域別処理」の一例を示す
フローチャートである。
16 is a flowchart showing an example of "region-specific processing" in FIG.

【図17】図12における「画像再構成処理」の一例を
示すフローチャートである。
FIG. 17 is a flowchart showing an example of “image reconstruction processing” in FIG.

【図18】実施の形態2に係る画像処理装置の機能構成
の概要を示すブロック図である。
FIG. 18 is a block diagram showing an outline of a functional configuration of an image processing apparatus according to a second embodiment.

【図19】(a)は、携帯電話機によって撮影された原
画像の一例である。(b)は、上記図19(a)に初期
輪郭を設定した様子を示す図である。(c)は、上記図
19(b)の画像に対して領域分割を行った様子を示す
図ある。
FIG. 19A is an example of an original image taken by a mobile phone. FIG. 19B is a diagram showing how the initial contour is set in FIG. FIG. 19C is a diagram showing how the image of FIG. 19B is divided into regions.

【図20】(a)は、上記図19(c)で分割された画
像の中から小領域の選択を行う様子を示す図ある。
(b)は、上記図20(a)で選択された小領域に対し
て画像処理を施した様子を示す図ある。
20A is a diagram showing how a small area is selected from the images divided in FIG. 19C. FIG.
20B is a diagram showing a state in which image processing has been performed on the small area selected in FIG. 20A.

【図21】(a)は、上記図20(b)の画像処理が施
された画像に初期輪郭を設定した様子を示す図ある。
(b)は、上記図21(a)の画像に基づいて細かな輪
郭を抽出した様子を示す図ある。
FIG. 21A is a diagram showing a state in which an initial contour is set in the image subjected to the image processing of FIG. 20B.
FIG. 21B is a diagram showing a state in which a fine contour is extracted based on the image of FIG.

【図22】(a)は、携帯電話機によって撮影された原
画像の一例である。(b)は、上記図22(a)の画像
に対して細かな輪郭を抽出した様子を示す図ある。
(c)は、抽出された顔輪郭を「小型化」する場合のイ
メージを示す図である。(d)は、抽出された顔輪郭に
基づいて、顔を「スリム化」かつ「小顔化」した様子を
示す図である。
FIG. 22 (a) is an example of an original image taken by a mobile phone. FIG. 22B is a diagram showing a state in which fine contours are extracted from the image of FIG.
(C) is a figure which shows the image at the time of "miniaturizing" the extracted face outline. (D) is a figure which shows a mode that the face was made "slim" and "small" based on the extracted face outline.

【図23】別途撮影した画像に上記輪郭抽出によって特
定した顔をクロマキ合成した様子を示す図である。
FIG. 23 is a diagram showing a state in which a face specified by the contour extraction is chroma-synthesized in a separately captured image.

【図24】画像処理装置の全体の処理の流れの一例を示
すフローチャートである。
FIG. 24 is a flowchart illustrating an example of the overall processing flow of the image processing apparatus.

【図25】(a)は、輪郭線上に特定された基準点を示
す図である。(b)は、上記図(a)の基準点を中心と
して、領域タイルを定義する様子を示す図である。
(c)は、上記図(b)で定義された領域タイルに基づ
いて、輪郭線に沿って画像全体に領域タイルを定義する
様子を示す図である。
FIG. 25A is a diagram showing reference points specified on a contour line. FIG. 6B is a diagram showing how area tiles are defined around the reference point of FIG.
FIG. 13C is a diagram showing how area tiles are defined for the entire image along the contour line based on the area tiles defined in FIG.

【図26】(a)は、輪郭線、外接矩形、外部矩形およ
び内部矩形に基づいて定義された領域タイルによって画
像を分割する様子を示す図である。(b)は、輪郭線、
外部矩形および内部矩形に基づいて定義された領域タイ
ルによって画像を分割する様子を示す図である。
FIG. 26A is a diagram showing how an image is divided by area tiles defined based on a contour line, a circumscribed rectangle, an outer rectangle, and an inner rectangle. (B) is a contour line,
It is a figure which shows a mode that an image is divided | segmented by the area tile defined based on the outer rectangle and the inner rectangle.

【図27】(a)は、従来の携帯電話機によって撮影さ
れた原画像の一例である。(b)は、上記図27(a)
に初期輪郭を設定した様子を示す図である。(c)は、
上記図27(b)の画像に基づいて細かな輪郭を抽出し
た場合の成功例である。
FIG. 27A is an example of an original image taken by a conventional mobile phone. FIG. 27B is the above FIG. 27A.
It is a figure which shows a mode that the initial contour was set to. (C) is
This is a successful example when a fine contour is extracted based on the image of FIG. 27 (b).

【図28】(a)は、従来の携帯電話機によって撮影さ
れた原画像のその他の例である。(b)は、上記図28
(a)に初期輪郭を設定した様子を示す図である。
(c)は、上記図28(b)の画像に基づいて細かな輪
郭を抽出した場合の失敗例である。
FIG. 28A is another example of an original image captured by a conventional mobile phone. (B) is the above-mentioned FIG.
It is a figure which shows a mode that the initial contour was set to (a).
(C) is a failure example when a fine contour is extracted based on the image of FIG. 28 (b).

【符号の説明】[Explanation of symbols]

10 超音波診断装置 11 超音波探触子 12 送受信部 13 拍動検出部 14 操作部 15 画像処理部 16 データ出力部 20 画像処理装置 21 カメラ部 22 全体制御部 101 画像メモリ 102 汎用メモリ 103 領域分割部 104 評価値算出部 105 領域別処理部 106 領域選択部 107 画像再構成部 109 演算部 110 画像生成部 111 輪郭抽出部 112 制御部 10 Ultrasonic diagnostic equipment 11 Ultrasonic probe 12 Transmitter / receiver 13 Beat detector 14 Operation part 15 Image processing unit 16 Data output section 20 Image processing device 21 camera section 22 Overall control unit 101 image memory 102 general-purpose memory 103 area division unit 104 Evaluation value calculation unit 105 Area-specific processing unit 106 area selector 107 Image reconstruction unit 109 arithmetic unit 110 Image generator 111 contour extraction unit 112 control unit

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 4C601 BB02 EE09 JC06 JC07 JC08 JC09 JC10 JC12 JC20 KK25 LL23 LL38 5B057 AA07 BA05 CA02 CA08 CA12 CA16 CB08 CB12 CB16 CE02 CE09 CE11 DC06 DC16 5L096 AA06 BA06 BA13 EA35 EA43 FA06 FA14 FA60    ─────────────────────────────────────────────────── ─── Continued front page    F term (reference) 4C601 BB02 EE09 JC06 JC07 JC08                       JC09 JC10 JC12 JC20 KK25                       LL23 LL38                 5B057 AA07 BA05 CA02 CA08 CA12                       CA16 CB08 CB12 CB16 CE02                       CE09 CE11 DC06 DC16                 5L096 AA06 BA06 BA13 EA35 EA43                       FA06 FA14 FA60

Claims (24)

【特許請求の範囲】[Claims] 【請求項1】 画像データを取得する画像取得手段と、 前記取得された画像データによって表わされる画像を複
数の小領域に分割する領域分割手段と、 一又は複数の前記小領域を選択する領域選択手段と、 前記選択された小領域毎に画像処理を施す領域別処理手
段とを備えることを特徴とする画像処理装置。
1. An image acquisition means for acquiring image data, an area division means for dividing an image represented by the acquired image data into a plurality of small areas, and an area selection for selecting one or a plurality of the small areas. An image processing apparatus comprising: a unit; and a region-specific processing unit that performs image processing on each of the selected small regions.
【請求項2】 前記画像データは、超音波エコーに基づ
いて生成された断層画像に係る画像データであり、 前記画像取得手段は、超音波診断装置から前記画像デー
タを取得することを特徴とする請求項1記載の画像処理
装置。
2. The image data is image data relating to a tomographic image generated based on ultrasonic echoes, and the image acquisition means acquires the image data from an ultrasonic diagnostic apparatus. The image processing apparatus according to claim 1.
【請求項3】 前記画像データは、電荷結合素子を用い
て撮影された画像に係る画像データであり、 前記画像取得手段は、CCDカメラから前記画像データ
を取得することを特徴とする請求項1記載の画像処理装
置。
3. The image data is image data relating to an image captured by using a charge-coupled device, and the image acquisition means acquires the image data from a CCD camera. The image processing device described.
【請求項4】 前記領域選択手段は、 前記画像全体の基準点と前記分割された各小領域の基準
点との距離に基づいて、前記選択を行うことを特徴とす
る請求項1記載の画像処理装置。
4. The image according to claim 1, wherein the area selecting unit performs the selection based on a distance between a reference point of the entire image and a reference point of each of the divided small areas. Processing equipment.
【請求項5】 前記画像処理装置は、さらに、 前記分割された小領域について、画像の明瞭さを示す評
価値を算出する評価値算出手段を備え、 前記領域選択手段は、前記算出された評価値に基づい
て、前記選択を行うことを特徴とする請求項1記載の画
像処理装置。
5. The image processing apparatus further comprises evaluation value calculation means for calculating an evaluation value indicating the clarity of the image for the divided small areas, and the area selection means includes the calculated evaluation value. The image processing apparatus according to claim 1, wherein the selection is performed based on a value.
【請求項6】 前記領域選択手段は、 前記評価値が明瞭でないことを示す小領域から順に小領
域を選択することを特徴とする請求項5記載の画像処理
装置。
6. The image processing apparatus according to claim 5, wherein the area selection unit selects small areas in order from a small area indicating that the evaluation value is not clear.
【請求項7】 前記評価値算出手段は、 小領域における輝度値情報、形状情報、エッジ情報、2
値化情報、分離度情報及び最高・最低輝度値情報のう
ち、少なくとも一つの情報を用いて評価値を算出するこ
とを特徴とする請求項5記載の画像処理装置。
7. The evaluation value calculation means includes brightness value information, shape information, edge information, and 2 in a small area.
The image processing apparatus according to claim 5, wherein the evaluation value is calculated using at least one of the binarization information, the separation degree information, and the maximum / minimum luminance value information.
【請求項8】 前記領域別処理手段は、 エッジ抽出処理、エッジ強調処理、2値化処理、コント
ラスト変換処理、バイアス変換処理、ノイズ除去処理及
びモルフォロジ処理のうち、少なくとも一つを前記画像
処理として施すことを特徴とする請求項7記載の画像処
理装置。
8. The area-specific processing means uses at least one of edge extraction processing, edge enhancement processing, binarization processing, contrast conversion processing, bias conversion processing, noise removal processing, and morphology processing as the image processing. The image processing apparatus according to claim 7, which is performed.
【請求項9】 前記領域分割手段は、 前記画像におけるX軸及びY軸の長さをそれぞれ所定の
数で等分することにより、前記分割を行うことを特徴と
する請求項8記載の画像処理装置。
9. The image processing according to claim 8, wherein the area dividing unit performs the division by equally dividing the lengths of the X axis and the Y axis of the image by a predetermined number. apparatus.
【請求項10】 前記領域分割手段は、 前記画像における対象物の輪郭を表す輪郭情報を取得す
る輪郭情報取得部と、 取得した輪郭情報に係る輪郭によって表される図形の重
心を算出する重心算出部と、 前記輪郭上の基準点を特定する基準点特定部とを備え、 前記重心と前記基準点とを結ぶ直線に基づいて、前記重
心から放射状に前記画像を所定の角度づつ区切ることに
より、前記分割を行うことを特徴とする請求項8記載の
画像処理装置。
10. The area dividing unit includes a contour information acquisition unit that acquires contour information indicating a contour of an object in the image, and a center of gravity calculation that calculates a center of gravity of a figure represented by the contour according to the acquired contour information. And a reference point identifying unit that identifies a reference point on the contour, based on a straight line connecting the center of gravity and the reference point, by radially dividing the image by a predetermined angle from the center of gravity, The image processing apparatus according to claim 8, wherein the division is performed.
【請求項11】 前記領域分割手段は、 前記画像における対象物の輪郭を表す輪郭情報を取得す
る輪郭情報取得部と、前記輪郭に外接する矩形を設定す
る外接矩形設定部と、 前記外接矩形の内部に内部矩形を設定する内部矩形設定
部と、 前記外接矩形の外部に外部矩形を設定する外部矩形設定
部と、 前記内部矩形と前記外部矩形との間の領域を前記外接矩
形に基づいて分割する小領域分割部とを備えることを特
徴とする請求項8記載の画像処理装置。
11. The area dividing unit includes a contour information acquisition unit that acquires contour information representing a contour of an object in the image, a circumscribed rectangle setting unit that sets a rectangle circumscribing the contour, and a circumscribed rectangle of the circumscribed rectangle. An inner rectangle setting unit that sets an inner rectangle inside, an outer rectangle setting unit that sets an outer rectangle outside the circumscribing rectangle, and a region between the inner rectangle and the outer rectangle is divided based on the circumscribing rectangle. The image processing apparatus according to claim 8, further comprising:
【請求項12】 前記領域分割手段は、 前記画像における対象物の輪郭を表す輪郭情報を取得す
る輪郭情報取得部と、前記輪郭上の基準点を特定する基
準点特定部と、前記基準点を中心とする所定の形状の小
領域を前記輪郭上に配置する小領域配置部とを備え、前
記画像には、前記配置された小領域が含まれることを特
徴とする請求項8記載の画像処理装置。
12. The area dividing unit includes a contour information acquisition unit that acquires contour information representing a contour of an object in the image, a reference point identification unit that identifies a reference point on the contour, and the reference point. 9. The image processing according to claim 8, further comprising: a small area arranging unit that arranges a small area having a predetermined shape as a center on the contour, and the image includes the arranged small area. apparatus.
【請求項13】 前記領域分割手段は、さらに、前記小
領域の形状を変更するための指示を受け付ける小領域変
更部を備えることを特徴とする請求項12記載の画像処
理装置。
13. The image processing apparatus according to claim 12, wherein the area dividing unit further includes a small area changing unit that receives an instruction for changing the shape of the small area.
【請求項14】 前記画像処理装置は、さらに、 前記画像処理が施された小領域の画像を用いて画像を再
構成する画像再構成手段を備えることを特徴とする請求
項9〜12の何れか1項に記載の画像処理装置。
14. The image processing apparatus further comprises an image reconstructing unit that reconstructs an image using the image of the small area that has been subjected to the image processing. The image processing device according to item 1.
【請求項15】 前記画像再構成手段は、 前記画像処理が施された小領域の画像で、前記取得され
た画像における当該小領域に対応する画像を置き換える
ことを特徴とする請求項14記載の画像処理装置。
15. The image reconstructing means replaces an image corresponding to the small area in the acquired image with an image of the small area subjected to the image processing. Image processing device.
【請求項16】 前記画像処理装置は、さらに、 前記置き換え後の画像における対象物の輪郭を表す輪郭
情報を取得する再輪郭取得手段を備えることを特徴とす
る請求項15記載の画像処理装置。
16. The image processing apparatus according to claim 15, further comprising a re-contour acquisition unit that acquires contour information indicating a contour of an object in the image after the replacement.
【請求項17】 画像データを取得する画像取得ステッ
プと、 前記取得された画像データによって表わされる画像を複
数の小領域に分割する領域分割ステップと、 一又は複数の前記小領域を選択する領域選択ステップ
と、 前記選択された小領域毎に特定の画像処理を施す領域別
処理ステップとを含むことを特徴と画像処理方法。
17. An image obtaining step of obtaining image data, an area dividing step of dividing an image represented by the obtained image data into a plurality of small areas, and an area selecting step of selecting one or a plurality of the small areas. An image processing method comprising: a step; and an area-specific processing step for performing specific image processing on each of the selected small areas.
【請求項18】 画像データを取得する画像取得ステッ
プと、 前記取得された画像データによって表わされる画像を複
数の小領域に分割する領域分割ステップと、 前記分割された小領域について、画像の明瞭さを示す評
価値を算出する評価値算出ステップと、 前記算出された評価値に基づいて、一又は複数の前記小
領域を選択する領域選択ステップと、 前記選択された小領域毎に特定の画像処理を施す領域別
処理ステップとを含むことを特徴と画像処理方法。
18. An image obtaining step of obtaining image data, an area dividing step of dividing an image represented by the obtained image data into a plurality of small areas, and an image clarity of the divided small areas. An evaluation value calculation step of calculating an evaluation value indicating, an area selection step of selecting one or a plurality of the small areas based on the calculated evaluation value, and a specific image processing for each of the selected small areas. An image processing method, comprising:
【請求項19】 画像処理装置のためのプログラムであ
って、 前記画像の画像データを取得する画像取得ステップと、 前記取得された画像データによって表わされる画像を複
数の小領域に分割する領域分割ステップと、 一又は複数の前記小領域を選択する領域選択ステップ
と、 前記選択された小領域毎に特定の画像処理を施す領域別
処理ステップとをコンピュータに実行させることを特徴
とするプログラム。
19. A program for an image processing device, comprising: an image acquiring step of acquiring image data of the image; and an area dividing step of dividing an image represented by the acquired image data into a plurality of small areas. A program for causing a computer to execute an area selecting step of selecting one or a plurality of the small areas, and an area-specific processing step of performing specific image processing for each of the selected small areas.
【請求項20】 画像処理装置のためのプログラムであ
って、 前記画像の画像データを取得する画像取得ステップと、 前記取得された画像データによって表わされる画像を複
数の小領域に分割する領域分割ステップと、 前記分割された小領域について、画像の明瞭さを示す評
価値を算出する評価値算出ステップと、 前記算出された評価値に基づいて、一又は複数の前記小
領域を選択する領域選択ステップと、 前記選択された小領域毎に特定の画像処理を施す領域別
処理ステップとをコンピュータに実行させることを特徴
とするプログラム。
20. A program for an image processing apparatus, comprising: an image acquisition step of acquiring image data of the image; and an area division step of dividing an image represented by the acquired image data into a plurality of small areas. An evaluation value calculation step of calculating an evaluation value indicating the clarity of the image for the divided small areas, and an area selection step of selecting one or a plurality of the small areas based on the calculated evaluation values. A program for causing a computer to execute a region-specific processing step of performing specific image processing for each of the selected small regions.
【請求項21】 超音波の反射に基づいて生成された被
検体の断層画像を表示する超音波診断装置であって、 画像データを取得する画像取得手段と、 前記取得された画像データによって表わされる断層画像
を複数の小領域に分割する領域分割手段と、 一又は複数の前記小領域を選択する領域選択手段と、 前記選択された小領域毎に特定の画像処理を施す領域別
処理手段と、 前記画像処理が施された小領域の画像を表示する表示手
段とを備えることを特徴とする超音波診断装置。
21. An ultrasonic diagnostic apparatus for displaying a tomographic image of a subject generated based on the reflection of ultrasonic waves, which is represented by image acquisition means for acquiring image data, and the acquired image data. Area dividing means for dividing the tomographic image into a plurality of small areas, area selecting means for selecting one or more of the small areas, and area-specific processing means for performing specific image processing for each of the selected small areas, An ultrasonic diagnostic apparatus comprising: a display unit that displays an image of the small area that has been subjected to the image processing.
【請求項22】 超音波の反射に基づいて生成された被
検体の断層画像を表示する超音波診断装置であって、 画像データを取得する画像取得手段と、 前記取得された画像データによって表わされる断層画像
を複数の小領域に分割する領域分割手段と、 前記分割された小領域について、画像の明瞭さを示す評
価値を算出する評価値算出手段と、 前記算出された評価値に基づいて、一又は複数の前記小
領域を選択する領域選択手段と、 前記選択された小領域毎に特定の画像処理を施す領域別
処理手段と、 前記画像処理が施された小領域の画像を用いて被検体の
断層画像を再構成する画像再構成手段と、 前記再構成された断層画像を表示する表示手段とを備え
ることを特徴とする超音波診断装置。
22. An ultrasonic diagnostic apparatus for displaying a tomographic image of a subject generated based on the reflection of ultrasonic waves, which is represented by image acquisition means for acquiring image data, and the acquired image data. Area dividing means for dividing the tomographic image into a plurality of small areas, for the divided small areas, an evaluation value calculating means for calculating an evaluation value indicating the clarity of the image, based on the calculated evaluation value, Area selecting means for selecting one or a plurality of the small areas, area-specific processing means for performing a specific image processing for each of the selected small areas, An ultrasonic diagnostic apparatus comprising: an image reconstructing unit that reconstructs a tomographic image of a sample; and a display unit that displays the reconstructed tomographic image.
【請求項23】 超音波の反射に基づいて生成された被
検体の断層画像を表示する超音波診断装置のためのプロ
グラムであって、 画像データを取得する画像取得ステップと、 前記取得された画像データによって表わされる断層画像
を複数の小領域に分割する領域分割ステップと、 一又は複数の前記小領域を選択する領域選択ステップ
と、 前記選択された小領域毎に特定の画像処理を施す領域別
処理ステップと、 前記画像処理が施された小領域の画像を表示する表示ス
テップとをコンピュータに実行させることを特徴とする
プログラム。
23. A program for an ultrasonic diagnostic apparatus for displaying a tomographic image of a subject generated based on the reflection of ultrasonic waves, the image acquiring step of acquiring image data, and the acquired image. A region dividing step of dividing the tomographic image represented by the data into a plurality of small regions, a region selecting step of selecting one or a plurality of the small regions, and a region to be subjected to specific image processing for each of the selected small regions. A program that causes a computer to execute a processing step and a display step for displaying an image of a small area subjected to the image processing.
【請求項24】 超音波の反射に基づいて生成された被
検体の断層画像を表示する超音波診断装置のためのプロ
グラムであって、 画像データを取得する画像取得ステップと、 前記取得された画像データによって表わされる断層画像
を複数の小領域に分割する領域分割ステップと、 前記分割された小領域について、画像の明瞭さを示す評
価値を算出する評価値算出ステップと、 前記算出された評価値に基づいて、一又は複数の前記小
領域を選択する領域選択ステップと、 前記選択された小領域毎に特定の画像処理を施す領域別
処理ステップと、 前記画像処理が施された小領域の画像を用いて被検体の
断層画像を再構成する画像再構成ステップと、 前記再構成された断層画像を表示する表示ステップとを
コンピュータに実行させることを特徴とするプログラ
ム。
24. A program for an ultrasonic diagnostic apparatus for displaying a tomographic image of a subject generated based on reflection of ultrasonic waves, the image acquiring step of acquiring image data, and the acquired image. An area dividing step of dividing the tomographic image represented by the data into a plurality of small areas, an evaluation value calculating step of calculating an evaluation value indicating image clarity for the divided small areas, and the calculated evaluation value Based on the area selection step of selecting one or more of the small areas, processing step by area to perform a specific image processing for each of the selected small areas, the image of the small area subjected to the image processing Characterized by causing a computer to execute an image reconstruction step of reconstructing a tomographic image of a subject using Program to be.
JP2003064802A 2002-03-14 2003-03-11 Image processing equipment and ultrasonic diagnostic equipment Withdrawn JP2003334194A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003064802A JP2003334194A (en) 2002-03-14 2003-03-11 Image processing equipment and ultrasonic diagnostic equipment

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2002-70562 2002-03-14
JP2002070562 2002-03-14
JP2003064802A JP2003334194A (en) 2002-03-14 2003-03-11 Image processing equipment and ultrasonic diagnostic equipment

Publications (1)

Publication Number Publication Date
JP2003334194A true JP2003334194A (en) 2003-11-25

Family

ID=29714150

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003064802A Withdrawn JP2003334194A (en) 2002-03-14 2003-03-11 Image processing equipment and ultrasonic diagnostic equipment

Country Status (1)

Country Link
JP (1) JP2003334194A (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005253636A (en) * 2004-03-11 2005-09-22 Hitachi Medical Corp Image diagnostic apparatus
JP2007117344A (en) * 2005-10-27 2007-05-17 Aloka System Engineering Co Ltd Ultrasonic diagnostic apparatus and ultrasonic image processing method
JP2007152120A (en) * 2005-12-06 2007-06-21 Medison Co Ltd Image processing system and method for controlling gains for color flow images
JP2007222533A (en) * 2006-02-27 2007-09-06 Aloka Co Ltd Ultrasonic diagnostic apparatus and ultrasonic image processing method
US7602836B2 (en) 2003-12-01 2009-10-13 Samsung Electronics Co., Ltd Receiver
JP2010505558A (en) * 2006-10-10 2010-02-25 セダラ ソフトウェア コーポレイション System and method for segmenting regions in medical images
JP2010055257A (en) * 2008-08-27 2010-03-11 Seiko Epson Corp Image processing device, image processing method, and image processing program
US8107725B2 (en) 2007-11-30 2012-01-31 Toyota Jidosha Kabushiki Kaisha Image processor and image processing method
JP2012216179A (en) * 2011-03-31 2012-11-08 Casio Comput Co Ltd Image processing device, image processing method, and program
JP2017536856A (en) * 2014-10-21 2017-12-14 无錫海斯凱尓医学技術有限公司Wuxi Hisky Medical Technologies Co.,Ltd. Method and apparatus for selecting detection region and elasticity detection system
JP2018143416A (en) * 2017-03-03 2018-09-20 国立大学法人 東京大学 In-vivo motion tracking device
JP2019076541A (en) * 2017-10-26 2019-05-23 コニカミノルタ株式会社 Medical image processing apparatus

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7602836B2 (en) 2003-12-01 2009-10-13 Samsung Electronics Co., Ltd Receiver
JP2005253636A (en) * 2004-03-11 2005-09-22 Hitachi Medical Corp Image diagnostic apparatus
JP4528247B2 (en) * 2005-10-27 2010-08-18 アロカ株式会社 Ultrasonic diagnostic apparatus and ultrasonic image processing method
JP2007117344A (en) * 2005-10-27 2007-05-17 Aloka System Engineering Co Ltd Ultrasonic diagnostic apparatus and ultrasonic image processing method
JP2007152120A (en) * 2005-12-06 2007-06-21 Medison Co Ltd Image processing system and method for controlling gains for color flow images
JP2007222533A (en) * 2006-02-27 2007-09-06 Aloka Co Ltd Ultrasonic diagnostic apparatus and ultrasonic image processing method
JP2010505558A (en) * 2006-10-10 2010-02-25 セダラ ソフトウェア コーポレイション System and method for segmenting regions in medical images
US8107725B2 (en) 2007-11-30 2012-01-31 Toyota Jidosha Kabushiki Kaisha Image processor and image processing method
JP2010055257A (en) * 2008-08-27 2010-03-11 Seiko Epson Corp Image processing device, image processing method, and image processing program
US8494230B2 (en) 2008-08-27 2013-07-23 Seiko Epson Corporation Image deforming apparatus, image deforming method, and image deforming program
JP2012216179A (en) * 2011-03-31 2012-11-08 Casio Comput Co Ltd Image processing device, image processing method, and program
US9020255B2 (en) 2011-03-31 2015-04-28 Casio Computer Co., Ltd. Image processing apparatus, image processing method, and storage medium
JP2017536856A (en) * 2014-10-21 2017-12-14 无錫海斯凱尓医学技術有限公司Wuxi Hisky Medical Technologies Co.,Ltd. Method and apparatus for selecting detection region and elasticity detection system
US10925582B2 (en) 2014-10-21 2021-02-23 Wuxi Hisky Medical Technologies Co., Ltd. Method and device for selecting detection area, and elasticity detection system
JP2018143416A (en) * 2017-03-03 2018-09-20 国立大学法人 東京大学 In-vivo motion tracking device
JP2019076541A (en) * 2017-10-26 2019-05-23 コニカミノルタ株式会社 Medical image processing apparatus

Similar Documents

Publication Publication Date Title
US20030174890A1 (en) Image processing device and ultrasonic diagnostic device
JP6367425B2 (en) Ultrasonic diagnostic equipment
US8021300B2 (en) Three-dimensional fly-through systems and methods using ultrasound data
US8270696B2 (en) Image slice segmentation using midpoints of contour anchor points
RU2677055C2 (en) Automated segmentation of tri-plane images for real time ultrasound imaging
EP2793703B1 (en) Method for visualizing blood and blood-likelihood in vascular images
EP2016905B1 (en) Ultrasound diagnostic apparatus
US20180160981A1 (en) Fully automated image optimization based on automated organ recognition
KR101121396B1 (en) System and method for providing 2-dimensional ct image corresponding to 2-dimensional ultrasound image
US9119559B2 (en) Method and system of generating a 3D visualization from 2D images
US20110125016A1 (en) Fetal rendering in medical diagnostic ultrasound
JP7078487B2 (en) Ultrasound diagnostic equipment and ultrasonic image processing method
EP2633818B1 (en) Ultrasonic diagnostic apparatus
WO2011015952A1 (en) Method and system for stabilizing a series of intravascular ultrasound images and extracting vessel lumen from the images
JP7358457B2 (en) Identification of fat layer using ultrasound images
US10832405B2 (en) Medical image processing apparatus with awareness of type of subject pattern
JP2003334194A (en) Image processing equipment and ultrasonic diagnostic equipment
JP2020068797A (en) Medical imaging device, image processing device, and image processing method
CN103096809B (en) Diagnostic ultrasound equipment, ultrasonic diagnosis apparatus control method and medical diagnostic imaging apparatus
CN109949274B (en) Image processing method, device and system
KR101120700B1 (en) Ultrasound system and method for providing color doppler mode image
JPH08293025A (en) Image sorting device
JP2019181183A (en) Medical diagnostic apparatus, medical image processing apparatus, and image processing program
US20030114743A1 (en) Method of improving the resolution of a medical nuclear image
JP2015073798A (en) Medical image diagnostic apparatus, image processing apparatus and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051205

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080919

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20090106