JPH08329254A - Outline extraction device - Google Patents

Outline extraction device

Info

Publication number
JPH08329254A
JPH08329254A JP8054367A JP5436796A JPH08329254A JP H08329254 A JPH08329254 A JP H08329254A JP 8054367 A JP8054367 A JP 8054367A JP 5436796 A JP5436796 A JP 5436796A JP H08329254 A JPH08329254 A JP H08329254A
Authority
JP
Japan
Prior art keywords
contour
model
contour model
unit
outline
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8054367A
Other languages
Japanese (ja)
Inventor
Shoichi Araki
昭一 荒木
Naokazu Yokoya
直和 横矢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP8054367A priority Critical patent/JPH08329254A/en
Publication of JPH08329254A publication Critical patent/JPH08329254A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE: To realize an automatic editor for picture which doesn't require the intervention of human beings by detecting the intersections of an outline model to split it into plural parts. CONSTITUTION: An outline model deforming part 3 moves outline candidate points stored in an outline model storage part 2 in accordance with a preliminarily determined rule. With respect to the polygonal outline model constituted by connecting the outline candidate points based on a prescribed connection order, an outline model intersection detection part 4 detects whether a certain side on this outline model comes into contact with or crosses another side on the outline model or not. An outline model splitting part 5 splits the outline model into two outline models by two segments first detected by the outline model intersection detection part 4. An extraction completion discrimination part 7 discriminates that outline extraction is completed when all the outline candidate points are not moved and new outline candidate points are not generated neither disappear.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、例えば、CCDや
赤外線カメラなどの視覚センサを用いてとらえた対象物
の輪郭を抽出する、輪郭抽出装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a contour extracting device for extracting a contour of an object captured by using a visual sensor such as a CCD or an infrared camera.

【0002】[0002]

【従来の技術】CCDカメラなどを用いて撮像された画
像から対象物の輪郭を抽出する技術としては、特にノイ
ズなどの影響を受けにくい輪郭抽出技術として、情報処
理Vol.30、No.9、pp.1047〜pp.1057等に記載されている
SNAKESや特願平319051の画像処理装置が知られて
いる。
2. Description of the Related Art As a technique for extracting the contour of an object from an image picked up by using a CCD camera or the like, information extraction Vol. 30, No. 9, Image processing apparatuses of SNAKES and Japanese Patent Application No. 319051 described in pp.1047 to pp.1057 and the like are known.

【0003】これらの技術によれば、抽出したい対象物
の概略の輪郭をあらかじめ与えてやれば、輪郭および画
像特徴から定義されるエネルギー関数を極小化すること
により、対象物の正確な輪郭を得ることができる。これ
らの技術は、インタラクティブな画像編集などのマルチ
メディア機器に応用可能である。
According to these techniques, if an outline of the object to be extracted is given in advance, the energy function defined by the outline and the image feature is minimized to obtain an accurate outline of the object. be able to. These techniques can be applied to multimedia devices such as interactive image editing.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、上記の
ような従来技術では、抽出したい対象物について予めそ
の数を指定しなければ、複数の対象物を抽出することが
できないという課題があった。
However, the above-mentioned conventional technique has a problem that a plurality of objects cannot be extracted unless the number of the objects to be extracted is specified in advance.

【0005】SNAKESでは、予め対象物の概略の輪
郭を初期輪郭として与える必要がある。このため、対象
物の数や処理する画像の枚数が多い場合、この初期輪郭
の設定に対する処理負担が増大する。
In SNAKES, it is necessary to give a rough outline of an object as an initial outline in advance. Therefore, when the number of objects and the number of images to be processed are large, the processing load for setting the initial contour increases.

【0006】また、SNAKESでは、例えば、セキュ
リティシステムにおける侵入者数の検出や空調制御にお
ける在室者数の検出等のように、画像に含まれる対象物
がいくつあるかを自動的に知りたい場合には対応できな
い欠点があった。
Further, in SNAKES, when it is desired to automatically know how many objects are included in an image, such as detection of the number of intruders in a security system or detection of the number of people in a room in air conditioning control. There was a drawback that could not be dealt with.

【0007】本発明は、かかる点に鑑み、抽出したい対
象物の数とその概略輪郭を予め与えることなく、画像中
の複数対象物の輪郭抽出を可能とする輪郭抽出装置を提
供することを目的とする。
In view of the above point, the present invention has an object to provide a contour extracting apparatus capable of extracting contours of a plurality of objects in an image without previously providing the number of objects to be extracted and their outlines. .

【0008】また本発明は、抽出したい対象物の数とそ
の概略輪郭を予め与えることなく、所定の条件(例えば
大きさなど)を満たす複数対象物の輪郭のみを抽出する
ことができる輪郭抽出装置を提供することを目的とす
る。
The present invention also provides a contour extracting apparatus capable of extracting only the contours of a plurality of objects satisfying a predetermined condition (for example, size) without giving the number of objects to be extracted and their outlines in advance. The purpose is to do.

【0009】また本発明は、抽出したい対象物の数とそ
の概略輪郭を予め与えることなく、複数の移動する物体
を抽出することができる輪郭抽出装置を提供することを
目的とする。
Another object of the present invention is to provide a contour extracting device capable of extracting a plurality of moving objects without previously giving the number of objects to be extracted and their outlines.

【0010】また本発明は、抽出したい対象物の数とそ
の概略輪郭を予め与えることなく、移動物体か静止物体
かの識別を可能とする輪郭抽出装置を提供することを目
的とする。
It is another object of the present invention to provide a contour extracting device capable of discriminating between a moving object and a stationary object without giving in advance the number of objects to be extracted and their outlines.

【0011】[0011]

【課題を解決するための手段】上記の課題を解決するた
めの本発明は、画像を記憶する画像記憶部と、前記画像
に含まれる少なくとも1つの対象物を囲み、その対象物
の輪郭を抽出するための輪郭モデルを記憶する輪郭モデ
ル記憶部と、所定の規則に従って、前記輪郭モデルを収
縮変形させる輪郭モデル変形部と、前記輪郭モデル変形
部により収縮変形される輪郭モデルにおいて、その輪郭
モデルの一部がその輪郭モデルの別の部分に接触又は交
差している場合、その接触又は交差を検出する輪郭モデ
ル交差検出部と、その輪郭モデル交差検出部により接触
又は交差が検出された場合、その接触又は交差に基づい
て、前記輪郭モデルを複数に分裂させる輪郭モデル分裂
部と、前記対象物の輪郭の抽出が完了したか否かを判定
する抽出完了判定部とを備えた輪郭抽出装置である。
According to the present invention for solving the above-mentioned problems, an image storage unit for storing an image and at least one object contained in the image are surrounded, and a contour of the object is extracted. A contour model storage unit that stores a contour model for performing the contour model deformation unit that contracts and deforms the contour model according to a predetermined rule, and a contour model that is contracted and deformed by the contour model deformation unit. When a part touches or intersects with another part of the contour model, the contour model crossing detection unit that detects the touching or crossing, and when the touching or crossing is detected by the contour model crossing detection unit, Based on contact or intersection, a contour model splitting unit that splits the contour model into a plurality, and extraction completion determination that determines whether or not the extraction of the contour of the target object is completed A contour extraction apparatus comprising and.

【0012】また、前記輪郭モデル記憶部は、前記輪郭
モデルを構成する複数の輪郭候補点とそれらの連結順序
とを記憶するとしてもよい。
Further, the contour model storage section may store a plurality of contour candidate points forming the contour model and a connecting order thereof.

【0013】また、前記輪郭モデル記憶部に記憶されて
いる複数の輪郭候補点とそれらの連結順序は、それぞれ
前記輪郭モデル分裂部により分裂されて得られる複数の
別の輪郭モデルの各々を構成する複数の輪郭候補点とそ
れらの連結順序に更新されるとしてもよい。
Further, the plurality of contour candidate points stored in the contour model storage unit and their connecting order constitute each of a plurality of different contour models obtained by being divided by the contour model dividing unit. A plurality of contour candidate points and their connecting order may be updated.

【0014】また、前記輪郭モデル変形部は、前記輪郭
モデルを構成する複数の輪郭候補点の各々を移動又は停
止させて、その輪郭モデルを収縮変形させるとしてもよ
い。
Further, the contour model deforming unit may move or stop each of the plurality of contour candidate points forming the contour model to shrink and deform the contour model.

【0015】また、前記輪郭抽出装置は、所定の条件を
満たせば、前記輪郭モデルに少なくとも1つの新規の輪
郭候補点を追加し、及び/又は前記輪郭モデルにおける
少なくとも1つの輪郭候補点を削除する輪郭候補点生成
・消滅部を更に備えたとしてもよい。
Further, the contour extracting device adds at least one new contour candidate point to the contour model and / or deletes at least one contour candidate point in the contour model if a predetermined condition is satisfied. The contour candidate point generation / elimination unit may be further provided.

【0016】また、前記輪郭抽出装置は、前記輪郭モデ
ル分裂部により分裂されて得られる複数の別の輪郭モデ
ルの各々が所定の条件を満足しない場合、その満足しな
い輪郭モデルを前記輪郭モデル記憶部から削除する輪郭
モデル選択部を更に備えたとしてもよい。
Further, when each of a plurality of other contour models obtained by dividing the contour model by the contour model dividing unit does not satisfy a predetermined condition, the contour extracting device stores the contour model that does not satisfy the condition in the contour model storage unit. A contour model selection unit to be deleted from may be further provided.

【0017】また、前記画像記憶部は、前記画像に対し
て所定の時間間隔をおいて連続する少なくとも1つの別
の画像を更に記憶し、前記輪郭抽出装置は、前記画像記
憶部に記憶されている複数の連続する画像に基づいて、
移動ベクトルを検出する動き検出部を更に備えたとして
もよい。
Further, the image storage unit further stores at least one other image which is continuous with the image at a predetermined time interval, and the contour extracting device is stored in the image storage unit. Based on multiple consecutive images
A motion detection unit that detects a movement vector may be further provided.

【0018】更に、前記画像記憶部は、所定の時間間隔
をおいて連続する複数の画像を記憶し、前記輪郭抽出装
置は、前記複数の画像の少なくとも1つの画像に対し
て、その輪郭抽出装置により抽出された少なくとも1つ
の対象物の輪郭モデルを構成する各輪郭候補点の所定範
囲内で、移動ベクトルを検出する輪郭モデル別動き検出
部を更に備えたとしてもよい。
Further, the image storage unit stores a plurality of continuous images at a predetermined time interval, and the contour extracting device selects the contour extracting device for at least one of the plurality of images. It is also possible to further include a motion detection unit for each contour model that detects a movement vector within a predetermined range of each contour candidate point that constitutes the contour model of at least one object extracted by.

【0019】[0019]

【発明の実施の形態】以下、本発明の実施の形態につい
て図面を参照しながら説明する。 (実施例1)図1は、本発明の輪郭抽出装置に係る第1
の実施例を示す構成図である。図1において、1は対象
物を含むシーンを撮像した画像を記憶する画像記憶部、
2は画像記憶部1に記憶されている画像中の対象物の輪
郭位置を探索する輪郭候補点を記憶する輪郭モデル記憶
部、3は輪郭モデル記憶部2に記憶されている輪郭候補
点をあらかじめ定められた規則により移動させる輪郭モ
デル変形部、4は輪郭候補点が予め定められた規則によ
り結ばれて構成される輪郭モデルにおいて、交差が生じ
た場合、その交差を検出するための輪郭モデル交差検出
部、5は輪郭モデル交差検出部4により交差が検出され
た場合、輪郭候補点により構成される輪郭モデルを複数
に分裂させる輪郭モデル分裂部、6は輪郭モデル交差検
出部4により交差が検出されなかった場合、輪郭候補点
を新たに追加あるいは消滅させる輪郭候補点生成・消滅
部、7は画像中の対象物の輪郭の抽出が完了したか否か
を判定する抽出完了判定部である。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below with reference to the drawings. (Embodiment 1) FIG. 1 shows a first embodiment of a contour extracting apparatus of the present invention.
It is a block diagram which shows the Example of. In FIG. 1, 1 is an image storage unit that stores an image of a scene including an object,
Reference numeral 2 denotes a contour model storage unit that stores contour candidate points for searching contour positions of an object in an image stored in the image storage unit 1, and reference numeral 3 denotes contour contour points stored in the contour model storage unit 2 in advance. The contour model transforming unit 4 which moves according to a predetermined rule is a contour model crossing for detecting the crossing in a contour model configured by connecting contour candidate points according to a predetermined rule. A detection unit 5 divides a contour model composed of contour candidate points into a plurality of contour model divisions when an intersection is detected by the contour model intersection detection unit 4, and 6 an intersection is detected by the contour model intersection detection unit 4. If not, a contour candidate point generation / disappearance unit for newly adding or erasing contour candidate points, and 7 is an extraction completion determining whether or not the contour extraction of the object in the image is completed. A determination unit.

【0020】ところで、8は1〜7の各部と接続され、
各部の動作の開始、停止又は各部間のデータのやりとり
を制御する制御部である。その制御部8は、ROM又は
RAMなどのメモリとCPUとから構成されるコンピュ
ータであって、各種のインタフェースを介すことによ
り、図1に示すようなCCDカメラやスキャナーなどの
撮像装置9、CRTなどの表示装置10およびキーボー
ドやマウスなどの入力装置11と接続されている。ま
た、画像記憶部1と輪郭モデル記憶部2は、通常RAM
で構成される。
By the way, 8 is connected to each part of 1 to 7,
The control unit controls the start and stop of the operation of each unit or the exchange of data between each unit. The control unit 8 is a computer including a memory such as a ROM or a RAM and a CPU, and an imaging device 9 such as a CCD camera or a scanner as shown in FIG. 1 and a CRT through various interfaces. And a display device 10 and an input device 11 such as a keyboard and a mouse. The image storage unit 1 and the contour model storage unit 2 are normally RAMs.
Composed of.

【0021】次に、本実施例の動作について説明する。
図2は、本実施例の輪郭抽出装置の動作を示すフローチ
ャートである。図3は、本実施例の動作をより分かりや
すくするために、顕微鏡写真から細胞の輪郭を抽出する
例を示した図である。このことは、本発明が癌細胞の医
療診断などの自動化システムに応用できることを意味す
る。画像記憶部1には、スキャナーなどの撮像装置9に
より取り込まれデジタル化された細胞の顕微鏡写真の画
像が記憶されている。そのデジタル化された画像の各画
素データは、例えば、その輝度を8ビットで表すなどし
て記憶されている。以下に本実施例の動作手順を示す。 [STEP1a] 輪郭候補点の初期配置 画像記憶部1に記憶されている画像に含まれる対象物の
全てを包含する1つの多角形(輪郭モデル)を構成する
n個の点は、初期の輪郭候補点vi(xi(0),yi(0))(i=1,2,
…,n)として輪郭モデル記憶部2に記憶されている。i
は輪郭候補点を連結して輪郭モデルを構成するための輪
郭候補点の連結順序を示す。なお、操作者が表示装置1
0に表示された画像を見ながらキーボードやマウスなど
の入力装置11を操作して、その初期の輪郭候補点を輪
郭モデル記憶部2に記憶させるとしてもよい。或いは、
画像の大きさにほぼ等しい長方形の辺がn等分された点
が、初期の輪郭候補点として、あらかじめ輪郭モデル記
憶部2に記憶されているとしてもよい。 [STEP2a] 輪郭モデルの変形 輪郭モデル変形部3は、すべての輪郭候補点の位置を1
回移動させる。これにより、輪郭候補点が連結された輪
郭モデルが変形することになる。輪郭モデル変形部3
は、予め定義された輪郭モデルのエネルギーEsnake(vi)
が最小となる方向に、各輪郭候補点を移動させる。
Next, the operation of this embodiment will be described.
FIG. 2 is a flow chart showing the operation of the contour extracting apparatus of this embodiment. FIG. 3 is a diagram showing an example of extracting the contour of a cell from a micrograph in order to make the operation of the present embodiment easier to understand. This means that the present invention can be applied to automated systems such as medical diagnosis of cancer cells. The image storage unit 1 stores an image of a cell micrograph captured by an imaging device 9 such as a scanner and digitized. Each pixel data of the digitized image is stored, for example, by representing its brightness with 8 bits. The operation procedure of this embodiment is shown below. [STEP1a] Initial placement of contour candidate points Configure one polygon (contour model) that includes all the objects included in the image stored in the image storage unit 1
The n points are initial contour candidate points v i (x i (0), y i (0)) (i = 1,2,
, N) are stored in the contour model storage unit 2. i
Shows the order of connecting the contour candidate points for constructing the contour model by connecting the contour candidate points. In addition, the operator is
The initial contour candidate points may be stored in the contour model storage unit 2 by operating the input device 11 such as a keyboard or a mouse while looking at the image displayed at 0. Alternatively,
A point obtained by equally dividing a rectangular side substantially equal to the size of the image into n may be stored in advance in the contour model storage unit 2 as an initial contour candidate point. [STEP2a] Deformation of contour model The contour model transformation unit 3 sets the positions of all contour candidate points to 1
Move it twice. As a result, the contour model in which the contour candidate points are connected is deformed. Contour model transformation unit 3
Is the energy E snake (v i ) of the predefined contour model
Each contour candidate point is moved in the direction that minimizes.

【0022】例えば、輪郭モデル変形部3は、輪郭候補
点vi(xi,yi)(i=1,2,…,n)ごとに、E snake(vi)の最急降
下ベクトル(-∂Esnake/ ∂xi, -∂Esnake/∂yi)を求め
て、次式の(数1)を用いて、輪郭に沿って逐次的に又
は各点ごとに独立して並列に、各輪郭候補点を移動させ
る。
For example, the contour model transformation unit 3 uses the contour candidate
Point vi(xi, yi) (i = 1,2, ..., n), E snake(vi) Steepest descent
Lower vector (-∂Esnake/ ∂xi, -∂Esnake/ ∂yi)
Then, using (Equation 1) of the following equation,
Move each contour candidate point in parallel independently for each point.
It

【0023】[0023]

【数1】xi(t+1)=xi(t)-Kx(∂Esnake/∂xi) yi(t+1)=yi(t)-Ky(∂Esnake/∂yi) なお、(数1)におけるt(i=0,1,…)は各輪郭候補点の
移動回数を表す。また、Kx>0, Ky>0は輪郭候補点の移動
量を制御する定数である。
[Equation 1] x i (t + 1) = x i (t) -Kx (∂E snake / ∂x i ) y i (t + 1) = y i (t) -Ky (∂E snake / ∂y i ) Note that t (i = 0, 1, ...) In (Equation 1) represents the number of movements of each contour candidate point. Kx> 0 and Ky> 0 are constants that control the movement amount of the contour candidate points.

【0024】但し、移動によりエネルギーEsnake(vi)が
増加する場合には、輪郭モデル変形部3は輪郭候補点を
移動させない。
However, when the energy E snake (v i ) increases due to the movement, the contour model deforming section 3 does not move the contour candidate points.

【0025】また、輪郭モデル変形部3は、フラグF
(vi)(i=1,2,…,n)を用いて、移動の有無を輪郭モデル記
憶部2に記憶する。即ち、輪郭モデル変形部3は、移動
させた輪郭候補点についてはF(vi)=1とし、移動させな
かった輪郭候補点についてはF(v i)=0とする。
Further, the contour model transforming section 3 uses the flag F
(vi) (i = 1,2, ..., n)
It is stored in the memory 2. That is, the contour model transformation unit 3 moves
F (vi) = 1, do not move
F (v i) = 0.

【0026】ところで、輪郭モデルのエネルギーEsnake
(vi)は、例えば、以下の(数2)から(数6)で表され
るエネルギー項の各々の和であるとしてもよい。 (1)輪郭モデルの滑らかさを表すEspline
By the way, the energy E snake of the contour model
(v i) may be, for example, is the sum of each of the energy terms represented by the following from equation (2) (6). (1) E spline that represents the smoothness of the contour model

【0027】[0027]

【数2】 [Equation 2]

【0028】(数2)を最小にするように各輪郭候補点
を移動させると、輪郭モデルは収縮する。 (2)輪郭モデルが囲む閉領域の面積に相当するEarea
When each contour candidate point is moved so as to minimize (Equation 2), the contour model contracts. (2) E area corresponding to the area of the closed area enclosed by the contour model

【0029】[0029]

【数3】 (Equation 3)

【0030】なお、xn+1=x1,yn+1=y1とする。Note that x n + 1 = x 1 and y n + 1 = y 1 .

【0031】(数3)を最小にするように各輪郭候補点
を移動させると、各輪郭候補点は輪郭モデルに対して垂
直な方向に移動する。Eareaを用いれば、くぼんだ形状
の対象物の輪郭が抽出できる。 (3)輪郭候補点間の距離を平均化するEdist
When each contour candidate point is moved so as to minimize (Equation 3), each contour candidate point moves in a direction perpendicular to the contour model. If E area is used, the contour of the concave object can be extracted. (3) E dist that averages the distances between contour candidate points

【0032】[0032]

【数4】 [Equation 4]

【0033】なお、davは輪郭候補点間の平均距離を表
す。 4)画像の輝度I(vi)の勾配の大きさEedge
Note that d av represents the average distance between contour candidate points. 4) Gradient magnitude E edge of image brightness I (v i )

【0034】[0034]

【数5】 (Equation 5)

【0035】(数5)を最小にするように各輪郭候補点
を移動させると、各輪郭候補点は、輝度勾配の大きくな
る方向、即ち対象物の輪郭部分に向かう方向に移動す
る。 (5)画像の輝度値Eintens
When each contour candidate point is moved so as to minimize (Equation 5), each contour candidate point moves in the direction in which the brightness gradient increases, that is, in the direction toward the contour portion of the object. (5) Image brightness value E intens

【0036】[0036]

【数6】 (Equation 6)

【0037】(数6)を最小にするように各輪郭候補点
を移動させると、各輪郭候補点は、wintens>0の場合に
は輝度が小さくなる(暗い)方向に、wintens<0の場合
には輝度が大きくなる(明るい)方向に移動する。
When each contour candidate point is moved so as to minimize ( Equation 6), when w intens > 0, each of the contour candidate points becomes w intens <0 in the direction in which the brightness becomes smaller (darker). In the case of, it moves in the direction in which the brightness becomes larger (brighter).

【0038】なお、(数2)から(数6)における
wsp1,wsp2,warea,wdist,wedge,wintensの各々は、エネ
ルギー項の重み係数である。
In addition, in (Equation 2) to (Equation 6)
Each of w sp1 , w sp2 , w area , w dist , w edge , and w intens is a weighting coefficient of the energy term.

【0039】(数2)から(数6)の各エネルギー項の
和である輪郭モデルのエネルギーEs nake(vi)を最小化す
るように輪郭モデルを変形すれば、輪郭モデルは収縮し
ていくが、最終的には、各輪郭候補点を移動させる(数
2)から(数6)の各エネルギー項によるベクトルが、
対象物の輪郭部分でつりあって停止する。このときの輪
郭候補点により構成される輪郭モデルが、対象物の輪郭
として抽出されることになる。 [STEP3a] 輪郭モデルの交差検出 所定の連結順序に基づいて各輪郭候補点が連結されて構
成される多角形をなす輪郭モデルについて、輪郭モデル
交差検出部4は、その輪郭モデル上のある一辺が、その
輪郭モデル上の別の辺と接触又は交差しているか否かの
検出を行う。但し、互いに隣接する2辺についてはその
検出の対象から除かれる。なお、各輪郭候補点の移動を
画素単位で行えば、ほとんどの場合、辺のどちらかの端
点が別の辺に接触した段階で検出される(図4参照)。
If the contour model is deformed so as to minimize the energy E s nake (v i ) of the contour model, which is the sum of the energy terms of ( Equation 2) to ( Equation 6), the contour model contracts. However, in the end, the vector by each energy term of (Equation 2) to (Equation 6) that moves each contour candidate point is
It stops at the contour of the target object. The contour model formed by the contour candidate points at this time is extracted as the contour of the object. [STEP3a] Detecting Contour of Contour Model For a contour model forming a polygon formed by concatenating each contour candidate point based on a predetermined concatenation order, the contour model intersection detection unit 4 detects that one side on the contour model , It detects whether or not it is in contact with or intersects with another side on the contour model. However, two adjacent sides are excluded from the detection target. If each contour candidate point is moved in pixel units, in most cases, it is detected when one of the end points of the side comes into contact with another side (see FIG. 4).

【0040】例えば、輪郭モデル交差検出部4は、次の
ようにして接触又は交差を検出してもよい。
For example, the contour model intersection detector 4 may detect contact or intersection as follows.

【0041】輪郭モデル上の線分vivi+1と線分vjvj+1
交点を持つと仮定すれば、次の(数7)を満たす実数p
(0≦p≦1), q(0≦q≦1)が存在する。
Assuming that the line segment v i v i + 1 and the line segment v j v j + 1 on the contour model have an intersection, a real number p satisfying the following (Equation 7)
There are (0 ≦ p ≦ 1) and q (0 ≦ q ≦ 1).

【0042】[0042]

【数7】p(vi+1-vi) + vi = q(vj+1-vj) + vj (数7)はp, qに関する連立方程式であり、次の(数
8)で計算される行列式detが0でないとき解を持つ。
[Equation 7] p (v i + 1 -v i ) + v i = q (v j + 1 -v j) + v j ( number 7) is a system of equations p, on q, the following (number 8 ) Has a solution when the determinant det calculated by is not 0.

【0043】[0043]

【数8】det = (xi - xi+1)(yj+1 - yj) - (xj+1 - xj)
(yi - yi+1) なお、det=0のとき、線分vivi+1と線分vjvj+1は一致す
る場合があるため、行列式detの計算前にこの一致を検
出しておくものとする。
(8) det = (x i -x i + 1 ) (y j + 1 -y j )-(x j + 1 -x j )
(y i -y i + 1 ) When det = 0, the line segment v i v i + 1 and the line segment v j v j + 1 may match. A match should be detected.

【0044】次の(数9)は、線分vivi+1と線分vjvj+1
が接触又は交差した場合のその接触又は交差した点の位
置を表す。
The following (Formula 9) is the line segment v i v i + 1 and the line segment v j v j + 1.
Represents the position of the point of contact or intersection when touches or crosses.

【0045】[0045]

【数9】 p = ( (yj+1 - yj)(xi - xj) + (xj - xj+1)(yi - yj) ) / det q = ( (yi+1 - yi)(xi - xj) + (xi - xi+1)(yi - yj) ) / det 要するに、輪郭モデル交差検出部4は、i, jを順次変化
させていき、det≠0の場合に、(数9)により算出され
るp,qが、それぞれ0≦p≦1,0≦q≦1を満たすとき、線分
vivi+1と線分vjvj+1は、輪郭モデル上の1点(p,q)で接触
又は交差しているとみなして、その接触又は交差を検出
する。輪郭モデル交差検出部4は、最初に接触又は交差
を検出した時点で、その検出動作を終了させる。
(9) p = ((y j + 1 -y j ) (x i -x j ) + (x j -x j + 1 ) (y i -y j )) / det q = ((y i + 1 -y i ) (x i -x j ) + (x i -x i + 1 ) (y i -y j )) / det In short, the contour model intersection detection unit 4 sequentially changes i and j. Then, when det ≠ 0, when p and q calculated by (Equation 9) satisfy 0 ≦ p ≦ 1 and 0 ≦ q ≦ 1, respectively, the line segment
The v i v i + 1 and the line segment v j v j + 1 are regarded as touching or intersecting at one point (p, q) on the contour model, and the touching or crossing is detected. The contour model intersection detection unit 4 terminates the detection operation when the contact or the intersection is first detected.

【0046】制御部8は、接触又は交差が検出された場
合にはSTEP4aを実行させて、それ以外の場合にはSTEP5a
を実行させる。 [STEP4a] 輪郭モデルの分裂 輪郭モデルのエネルギーとして、Eareaを用いた場合に
起こる典型的な交差の例を図4に示す。輪郭モデル分裂
部5は輪郭モデルを複数に分裂させる。制御部8は、輪
郭モデル分裂部5によるこの分裂の処理が終了すれば再
度STEP2aを実行させる。
The control unit 8 executes STEP4a when contact or intersection is detected, and otherwise STEP5a.
To execute. [STEP4a] Discontinuity of contour model Fig. 4 shows an example of a typical intersection that occurs when E area is used as the energy of the contour model. The contour model dividing unit 5 divides the contour model into a plurality of pieces. When the contour model dividing unit 5 completes the division process, the control unit 8 executes STEP2a again.

【0047】輪郭モデル分裂部5は、輪郭モデル交差検
出部4により最初に検出された交点を持つ線分vivi+1
線分vjvj+1で、輪郭モデル(=図4に示す輪郭モデル1
及び2)を輪郭モデル1と輪郭モデル2とに分裂させ
る。即ち、輪郭モデル分裂部5は、交点を持つ線分viv
i+1における先の番号を有する輪郭候補点viと、交点を
持つ他方の線分vjvj+1における後の番号を有する輪郭候
補点vj+1とを結んで、輪郭モデル(=輪郭モデル1及び
2)を輪郭モデル2に分裂させる。同様に、輪郭モデル
分裂部5は、交点を持つ線分vjvj+1における先の番号を
有する輪郭候補点vjと、交点を持つ他方の線分vivi+1
おける後の番号を有する輪郭候補点vi+1とを結んで、輪
郭モデル(=輪郭モデル1及び2)を輪郭モデル1に分
裂させる。
The contour model dividing unit 5 uses the line segment v i v i + 1 and the line segment v j v j + 1 having the intersections first detected by the contour model intersection detection unit 4 to calculate the contour model (= FIG. 4). Contour model 1 shown in
And 2) are divided into contour model 1 and contour model 2. That is, the contour model division unit 5 uses the line segment v i v
A contour model point v i having a previous number in i + 1 and a contour candidate point v j + 1 having a subsequent number in the other line segment v j v j + 1 having an intersection are connected to each other to form a contour model ( = Split contour models 1 and 2) into contour model 2. Similarly, the contour model division unit 5 determines the contour candidate point v j having the previous number in the line segment v j v j + 1 having the intersection point and the contour candidate point v j in the other line segment v i v i + 1 having the intersection point. The contour model (= contour model 1 and 2) is divided into contour models 1 by connecting the contour candidate points v i + 1 having numbers.

【0048】その結果、輪郭モデル(=輪郭モデル1及
び2)は、連結順序が{v1,…,vi,vj +1,…,vn}と{vi+1,
…,vj}である輪郭候補点の組に分裂される。
As a result, the contour models (= contour models 1 and 2) are connected in the order of {v 1 , ..., v i , v j +1 , ..., v n } and {v i + 1 ,.
,, v j } is divided into a set of contour candidate points.

【0049】制御部8は、上記の分裂の後、STEP3aで接
触又は交差の検出処理が行われなかった線分vivi+1より
後の線分についても、接触又は交差が生じているか否か
を輪郭モデル交差検出部4に検出させる。この場合も、
線分vivi+1より後の線分において、最初に検出された線
分のところでその検出処理が中断され、再度STEP4aの分
裂処理が適用される。このような再帰的な処理は、輪郭
モデル(=輪郭モデル1及び2)上の全ての線分につい
て完了するまで繰り返される。 [STEP5a] 輪郭候補点の生成・消滅判定 輪郭候補点生成・消滅部6は、新たな輪郭候補点の生成
・消滅を行う。
After the above division, the control unit 8 determines whether contact or intersection has occurred also with respect to the line segment after the line segment v i v i + 1 for which the contact or intersection detection processing has not been performed in STEP 3a. The contour model intersection detection unit 4 is caused to detect whether or not it is. Also in this case,
In the line segment after the line segment v i v i + 1 , the detection process is interrupted at the first detected line segment, and the division process of STEP 4a is applied again. Such recursive processing is repeated until all line segments on the contour model (= contour models 1 and 2) are completed. [STEP5a] Generation / disappearance determination of contour candidate points The contour candidate point generation / disappearance unit 6 performs generation / disappearance of new contour candidate points.

【0050】輪郭候補点生成・消滅部6は、例えば、次
のような場合に輪郭候補点を新たに生成する。輪郭候補
点生成・消滅部6は、隣接する輪郭候補点間の距離が|v
i+1-vi|>DTHを満たす時、2点vi,vi+1間に新たに輪郭候
補点を生成する。但し、DTHは予め定められた輪郭候補
点間の最大距離である。この時、輪郭候補点生成・消滅
部6は、輪郭候補点を生成すればGflag=1とし、生成し
なければGflag=0とする。
The contour candidate point generation / elimination unit 6 newly generates contour candidate points in the following cases, for example. The contour candidate point generation / annihilation unit 6 determines that the distance between adjacent contour candidate points is | v.
When i + 1- v i |> D TH is satisfied, a new contour candidate point is generated between two points v i and v i + 1 . However, D TH is a predetermined maximum distance between contour candidate points. At this time, the contour candidate point generation / annihilation unit 6 sets G flag = 1 if the contour candidate points are generated, and sets G flag = 0 if they are not generated.

【0051】また、輪郭候補点生成・消滅部6は、例え
ば、次のような場合に輪郭候補点を消滅させる。輪郭候
補点生成・消滅部6は、cosθ>θTH(θはvivi-1とviv
i+1のなす角)を満たす輪郭候補点viを消滅させる。但
し、θTHは予め定められた輪郭モデルの尖りを判定する
閾値である。この時、輪郭候補点生成・消滅部6は、輪
郭候補点を消滅させればDflag=1とし、消滅させなけれ
ばDflag=0とする。
Further, the contour candidate point generation / elimination unit 6 eliminates the contour candidate points in the following cases, for example. The contour candidate point generation / annihilation unit 6 uses cos θ> θ TH (θ is v i v i-1 and v i v
The contour candidate points v i satisfying the ( i + 1 angle) are eliminated. However, θ TH is a threshold value for determining the sharpness of a predetermined contour model. At this time, the contour candidate point generation / annihilation unit 6 sets D flag = 1 if the contour candidate points are to be eliminated, and sets D flag = 0 if they are not eliminated.

【0052】輪郭候補点の追加生成により、分裂により
減少する対象物1つあたりの輪郭候補点の数を補って、
複数対象物の輪郭を正しく抽出することができる。
The additional generation of contour candidate points compensates for the number of contour candidate points per object, which decreases due to division,
The contours of multiple objects can be extracted correctly.

【0053】またこの消滅手順によれば、対象物の輪郭
以外の位置で停止している輪郭候補点が削除され、誤っ
た輪郭抽出を避けることができる。 [STEP6a] 抽出完了判定 抽出完了判定部7は、全輪郭候補点に移動がなく(∀i;
F(vi)=0)、かつ、新たな輪郭候補点の生成 ・消滅がな
いとき(Gflag=0かつDflag=0)、輪郭の抽出は完了した
と判定する。
Further, according to this disappearance procedure, the contour candidate points stopped at positions other than the contour of the object are deleted, and erroneous contour extraction can be avoided. [STEP6a] Extraction completion determination The extraction completion determination unit 7 does not move to all contour candidate points (∀i;
When F (v i ) = 0) and there is no generation / disappearance of new contour candidate points (G flag = 0 and D flag = 0), it is determined that the contour extraction is completed.

【0054】制御部8は、抽出完了判定部7により輪郭
の抽出が完了したと判定された場合には、輪郭抽出の処
理を終了し、それ以外はSTEP2aに戻る。
When the extraction completion judgment unit 7 judges that the contour extraction is completed, the control unit 8 terminates the contour extraction process, and otherwise returns to STEP 2a.

【0055】以上の手順によれば、図5に示すように、
対象物(細胞)の集合全体を包含した初期の輪郭モデル
(図5(a))が、変形過程で逐次交差・分裂することに
より(図5(b)〜(e))、複数の対象物をそれぞれを独立
に抽出できていることがわかる(図5(f))。
According to the above procedure, as shown in FIG.
An initial contour model (Fig. 5 (a)) that includes the entire set of objects (cells) is sequentially crossed and divided in the transformation process (Figs. 5 (b) to (e)), so that a plurality of objects can be obtained. It can be seen that each can be extracted independently (Fig. 5 (f)).

【0056】以上説明したように、本実施例によれば、
輪郭モデルの交差を検出して複数に分裂させることによ
り、画像中の複数対象物の輪郭を自動的に抽出すること
ができる。 (実施例2)次に、本発明の輪郭抽出装置に係る第2の
実施例について説明する。第1の実施例では、輪郭モデ
ルの交差又は接触を検出して、その輪郭モデルを複数に
分裂させることにより、画像中の複数の対象物の輪郭を
自動的に抽出できることを説明した。本実施例は、指定
した条件を満たす対象物のみを選択的に抽出できるよう
に考慮したものである。例えば、指定する条件として
は、対象物の大きさがある。第1の実施例では、細胞の
輪郭抽出を例として説明したが、医療診断においては特
定の大きさの細胞のみを抽出することが必要であること
が多い。
As described above, according to this embodiment,
By detecting the intersection of the contour models and dividing the intersection into a plurality of contours, the contours of a plurality of objects in the image can be automatically extracted. (Embodiment 2) Next, a second embodiment of the contour extracting apparatus of the present invention will be described. In the first embodiment, it has been explained that the contours of a plurality of objects in the image can be automatically extracted by detecting the intersection or contact of the contour models and dividing the contour model into a plurality of pieces. The present embodiment takes into consideration that only objects that satisfy the specified conditions can be selectively extracted. For example, the condition to be specified is the size of the object. In the first embodiment, cell contour extraction has been described as an example, but in medical diagnosis, it is often necessary to extract only cells of a specific size.

【0057】図6は本実施例の構成図である。図1に示
した第1の実施例と同じ構成部分には同一番号を付して
いるので、同一番号を付した構成部分の詳細な説明は省
略する。第1の実施例の構成を基準にすれば、本実施例
は、更に、輪郭モデル記憶部2に記憶されている少なく
とも1つの輪郭モデルがあらかじめ定められた条件を満
たさないとき、その輪郭モデルを輪郭モデル記憶部2か
ら削除する輪郭モデル選択部12を備えている。これに
より、大きさなどを考慮した対象物の選択的な抽出が可
能となる。
FIG. 6 is a block diagram of this embodiment. Since the same components as those of the first embodiment shown in FIG. 1 are designated by the same reference numerals, detailed description of the components designated by the same reference numerals is omitted. On the basis of the configuration of the first embodiment, this embodiment further uses the contour model stored in the contour model storage unit 2 when the contour model does not satisfy a predetermined condition. A contour model selection unit 12 to be deleted from the contour model storage unit 2 is provided. As a result, it is possible to selectively extract the target object in consideration of the size and the like.

【0058】次に、本実施例の動作について説明する。
図7は、本実施例における郭抽出装置の動作を示すフロ
ーチャートである。そのフローチャートにおけるSTEP1b
およびSTEP3b〜STEP7bは、それぞれ第1の実施例におけ
るSTEP1aおよびSTEP2a〜STEP6aと全く同様である為、異
なるSTEP2bについて説明する。 [STEP2b] 輪郭モデルの選択 輪郭モデル選択部12は、所定の条件を満たさない輪郭
モデルを輪郭モデル記憶部2から削除する。
Next, the operation of this embodiment will be described.
FIG. 7 is a flowchart showing the operation of the contour extracting device in this embodiment. STEP 1b in the flowchart
And STEP3b to STEP7b are exactly the same as STEP1a and STEP2a to STEP6a in the first embodiment, respectively. Therefore, different STEP2b will be described. [STEP2b] Selection of Contour Model The contour model selection unit 12 deletes a contour model that does not satisfy a predetermined condition from the contour model storage unit 2.

【0059】例えば、(数3)におけるEareaに対する
しきい値を、その所定の条件として設定する。そして、
ある輪郭モデルのEareaがそのしきい値以下であれば、
その輪郭モデルを輪郭モデル記憶部2から削除する。
For example, the threshold value for E area in (Equation 3) is set as the predetermined condition. And
If the E area of a contour model is below its threshold,
The contour model is deleted from the contour model storage unit 2.

【0060】以上の手順により、図8に示すように、所
定の面積値を持たない輪郭モデルを逐次消滅させること
により、画像中央部分にある相対的に大きな細胞のみを
抽出することができる。
By the above procedure, as shown in FIG. 8, by sequentially erasing the contour model having no predetermined area value, it is possible to extract only relatively large cells in the central portion of the image.

【0061】以上説明したように、本実施例によれば、
各対象物の輪郭の抽出が完了した時点で、又は全ての対
象物の輪郭の抽出が完了した時点で、各輪郭モデルによ
る閉領域の面積(Earea)を算出することにより、所定
の面積よりも小さい、所定の面積よりも大きい、所定の
面積の範囲内にある、又は所定の面積の範囲外の輪郭モ
デルを削除することができる。これにより、所望の大き
さの対象物のみを抽出することができる。 (実施例3)次に、本発明の輪郭抽出装置に係る第3の
実施例について説明する。第1、第2の実施例では、静
止した複数対象物の抽出について説明した。本実施例
は、移動する複数対象物の抽出を考慮したものである。
基本的には、エッジの動きの有無を検出し、動きのある
エッジのみを輪郭モデルにより滑らかに連結することに
より移動物体を抽出する。
As described above, according to this embodiment,
By calculating the area (E area ) of the closed region by each contour model at the time when the contour extraction of each object is completed or when the contour extraction of all the objects is completed, Contours that are smaller, larger than a predetermined area, within a predetermined area, or outside a predetermined area can be deleted. As a result, it is possible to extract only the target object having a desired size. (Embodiment 3) Next, a third embodiment of the contour extracting apparatus of the present invention will be described. In the first and second embodiments, the extraction of stationary plural objects has been described. The present embodiment considers extraction of a plurality of moving objects.
Basically, a moving object is extracted by detecting the presence or absence of movement of an edge and smoothly connecting only the moving edge by a contour model.

【0062】具体的には、時間的に連続して撮像された
複数の画像を用いて移動ベクトルを求める。輪郭モデル
を変形させる際に、その輪郭モデルの各輪郭候補点の位
置における移動ベクトルの大きさが、抽出対象の移動速
度(例えば1画素/フレーム)以下である時、画像エネ
ルギー(例えばEedge)の重み係数(例えばWedge)を0
とする。これにより、輪郭モデルを動きのあるエッジに
のみ引き寄せることができ、その動きのあるエッジを滑
らかに連結することにより、移動する複数対象物の輪郭
を抽出することができる。
Specifically, the movement vector is obtained by using a plurality of images which are taken continuously in terms of time. When the contour model is deformed, when the magnitude of the movement vector at the position of each contour candidate point of the contour model is equal to or lower than the movement speed of the extraction target (for example, 1 pixel / frame), the image energy (for example, E edge ) The weighting factor (eg W edge ) of 0
And As a result, the contour model can be drawn only to a moving edge, and the moving edges can be smoothly connected to extract the contours of a plurality of moving objects.

【0063】図9は、本実施例の構成図である。図1に
示した第1の実施例と同じ構成部分には同一番号を付し
ているので、同一番号の構成部分の詳細な説明は省略す
る。第1の実施例の構成を基準にすれば、本実施例は、
更に、時間的に連続して撮像された複数の画像から動き
を検出する動き検出部13を備えている。また、画像記
憶部1には連続して撮像された複数の画像が記憶されて
いる。
FIG. 9 is a block diagram of this embodiment. Since the same components as those in the first embodiment shown in FIG. 1 are designated by the same reference numerals, detailed description of the components having the same reference numerals will be omitted. Based on the configuration of the first embodiment, this embodiment
Furthermore, it is provided with a motion detection unit 13 that detects motion from a plurality of images that are temporally continuously captured. Further, the image storage unit 1 stores a plurality of images that are continuously captured.

【0064】次に、本実施例の動作について説明する。
図10は、本実施例の輪郭抽出装置の動作を示すフロー
チャートである。そのフローチャートにおけるSTEP2c及
びSTEP4c〜STEP7cは、それぞれ、第1の実施例のSTEP1a
及びSTEP3a〜STEP6aと同様であるため、異なるSTEP1c、
STEP3cのみについて説明する。本実施例では、図11に
示すような居室内を歩いている人物を、移動物体として
抽出する。 [STEP1c] 動きの検出 動き検出部13は、画像記憶部1に記憶されている複数
の画像から移動ベクトルを検出する。
Next, the operation of this embodiment will be described.
FIG. 10 is a flow chart showing the operation of the contour extracting apparatus of this embodiment. STEP2c and STEP4c to STEP7c in the flowchart are respectively STEP1a of the first embodiment.
And since it is the same as STEP3a ~ STEP6a, different STEP1c,
Only STEP3c will be explained. In this embodiment, a person walking in a living room as shown in FIG. 11 is extracted as a moving object. [STEP1c] Motion Detection The motion detection unit 13 detects a movement vector from a plurality of images stored in the image storage unit 1.

【0065】例えば、動き検出部13は、勾配法に基づ
き最小2乗法により移動ベクトルを求める。勾配法で
は、画像の輝度I(x,y)の時間・空間に関する偏微分と、
物体の見かけの速度(u,v)=(dx/dt,dy/dt)に関する次の
拘束式が用いられる。
For example, the motion detection unit 13 obtains a movement vector by the least square method based on the gradient method. In the gradient method, the partial derivative of the image brightness I (x, y) with respect to time and space,
The following constraint on the apparent velocity (u, v) = (dx / dt, dy / dt) of the object is used.

【0066】[0066]

【数10】Ix(x,y)u+Iy(x,y)v+It(x,y)=0 なお、Ix=∂I/∂x、Iy=∂I/∂y、It=∂I/∂tとする。[Expression 10] Ix (x, y) u + Iy (x, y) v + It (x, y) = 0 Note that Ix = ∂I / ∂x, Iy = ∂I / ∂y, It = ∂I / T.

【0067】今、画像中の局所的な小領域で移動ベクト
ルが同一、すなわち、局所的な小領域Sで(数10)式
の拘束式が同じ解を持つと仮定すれば、移動ベクトル
は、次の(数11)を最小にする(u,v)として求められ
る。
Assuming that the movement vector is the same in the local small area in the image, that is, the constraint equation of the equation (10) has the same solution in the local small area S, the movement vector is The following (Equation 11) is obtained as (u, v) that minimizes.

【0068】[0068]

【数11】E = Σ(Ix(i,j)u+Iy(i,j)v+It(i,j))2 (i,j)∈S したがって、次の(数12)により∂E/∂u=0, ∂E/∂v
=0を満たす(u,v)を求めればよい。
[Equation 11] E = Σ (Ix (i, j) u + Iy (i, j) v + It (i, j)) 2 (i, j) εS Therefore, by the following (Equation 12), ∂E / ∂u = 0, ∂E / ∂v
It is sufficient to find (u, v) that satisfies = 0.

【0069】[0069]

【数12】 u = (ΣIxIy・ΣItIy - Σ(Iy)2・ΣItIx)/Det v = (ΣIxIy・ΣItIx - Σ(Ix)2・ΣItIy)/Det 但し、Ix, Iy, Itは、それぞれ、(数11)に示したIx
(i, j), Iy(i, j), It(i, j)であり、i,jはそれぞれ画
像中の小領域Sに属する画素のx,y座標であり、Σは(i,
j)∈Sについて算出する。また、Detは次式により計算さ
れる。
(12) u = (ΣIxIy · ΣItIy-Σ (Iy) 2 · ΣItIx) / Det v = (ΣIxIy · ΣItIx-Σ (Ix) 2 · ΣItIy) / Det However, Ix, Iy, It are respectively ( Ix shown in equation 11)
(i, j), Iy (i, j), It (i, j), where i and j are the x and y coordinates of the pixels belonging to the small area S in the image, and Σ is (i, j
j) Calculate for εS. Det is calculated by the following formula.

【0070】[0070]

【数13】Det=Σ(Iy)2・Σ(Ix)2 - (ΣIxIy)2 [STEP3c] 輪郭モデルの変形 輪郭モデル変形部3は、すべての輪郭候補点の位置を1
回移動させる。この際、STEP1cにより動きが検出されな
かった位置では、Eedgeの重み係数wedgeを0にする。こ
れにより動きの検出されたエッジにのみ輪郭モデルが引
き寄せられる。
[Formula 13] Det = Σ (Iy) 2 · Σ (Ix) 2- (ΣIxIy) 2 [STEP3c] Deformation of contour model The contour model transformation unit 3 sets the positions of all contour candidate points to 1
Move it twice. At this time, the weight coefficient w edge of E edge is set to 0 at the position where the motion is not detected in STEP 1c. As a result, the contour model is drawn only to the edge in which the motion is detected.

【0071】以上の手順によれば、図12に示すよう
に、勾配法により動きを検出し(図12(a))、輪郭候
補点の移動の際に、動きが検出されない位置で、Eedge
の重み係数wedgeを0にすれば、動きのあるエッジにのみ
輪郭モデルを引き寄せることができる。これにより、本
実施例における輪郭抽出装置は、移動する複数の対象物
として、例えば歩行者を抽出することができる(図12
(b))。
According to the above procedure, as shown in FIG. 12, the motion is detected by the gradient method (FIG. 12 (a)), and when the contour candidate points are moved, the E edge is detected at the position where the motion is not detected.
If the weighting coefficient w edge of is set to 0, the contour model can be attracted only to the moving edge. As a result, the contour extracting device according to the present embodiment can extract, for example, a pedestrian as the plurality of moving objects (FIG. 12).
(b)).

【0072】以上説明したように、本実施例によれば、
連続して撮像された複数の画像から動きを検出し、動き
のあるエッジのみを滑らかに連結することにより、複数
の移動物体を抽出することができる。 (実施例4)次に、本発明の輪郭抽出装置の第4の実施
例について説明する。第1〜第3の実施例では、CCD
カメラなどから得られる可視画像から対象物を抽出する
装置について説明した。しかしながら、可視画像の情報
のみでは人体などの抽出は困難であることが多い。本実
施例は、赤外線カメラから得られる熱画像を用いて人体
のような発熱物体を抽出するとともに、パーソナルコン
ピュータのCRTなどの静止発熱機器と人体を識別でき
るように考慮したものである。
As described above, according to this embodiment,
It is possible to extract a plurality of moving objects by detecting a motion from a plurality of continuously captured images and smoothly connecting only the moving edges. (Fourth Embodiment) Next, a fourth embodiment of the contour extracting apparatus of the present invention will be described. In the first to third embodiments, the CCD
The device for extracting an object from a visible image obtained from a camera or the like has been described. However, it is often difficult to extract a human body or the like only with information on a visible image. In this embodiment, a heat generating object such as a human body is extracted by using a thermal image obtained from an infrared camera, and at the same time, a stationary heat generating device such as a CRT of a personal computer can be distinguished from the human body.

【0073】図13は、本実施例の構成図である。図1
に示した第1の実施例と同じ構成部分には同一番号を付
し、同じ構成部分の詳細な説明は省略する。第1の実施
例の構成を基準にすれば、本実施例は、更に、輪郭モデ
ル記憶部2に記憶されている輪郭候補点の近傍におい
て、動きを検出する輪郭モデル別動き検出部14を備え
ている。また、画像記憶部1には時間的に連続して撮像
された複数の熱画像が記憶されている。
FIG. 13 is a block diagram of this embodiment. FIG.
The same components as those of the first embodiment shown in are attached with the same numbers, and detailed description of the same components is omitted. On the basis of the configuration of the first embodiment, the present embodiment further includes a contour model-specific motion detection unit 14 that detects motion in the vicinity of the contour candidate points stored in the contour model storage unit 2. ing. In addition, the image storage unit 1 stores a plurality of thermal images captured continuously in time.

【0074】これにより、動きの検出された輪郭モデル
は人体に対する輪郭モデルであるとして、静止発熱機器
に対する輪郭モデルと区別することができる。
As a result, the contour model in which the motion is detected can be distinguished from the contour model for the stationary heat-generating device, assuming that it is the contour model for the human body.

【0075】次に、本実施例の動作について説明する。
図14は、本実施例の輪郭抽出装置の動作を示すフロー
チャートである。そのフローチャートにおけるSTEP1d〜
STEP6dは、それぞれ第1の実施例のSTEP1a〜STEP6aと全
く同様の手順であるため、異なるSTEP7dのみを説明す
る。 [STEP7d]輪郭モデル別の動きの検出 輪郭モデル別動き検出部14は、[STEP6d]で抽出完了
と判定された少なくとも1つの輪郭モデルを構成する輪
郭候補点の近傍で、動きを検出する。
Next, the operation of this embodiment will be described.
FIG. 14 is a flow chart showing the operation of the contour extracting apparatus of this embodiment. STEP 1d in the flow chart
Steps 6d are exactly the same as steps 1a to 6a of the first embodiment, so only different steps 7d will be described. [STEP7d] Detection of Motion by Contour Model The motion detection unit by contour model 14 detects motion in the vicinity of the contour candidate points forming at least one contour model determined to be extracted in [STEP6d].

【0076】例えば、第3の実施例における勾配法を用
いて、動きを検出してもよい。予め定められた数の輪郭
モデルの輪郭候補点について動きが検出されたとき、そ
の輪郭モデルは動きのある発熱物体(例えば人体)を抽
出していると判定する。
For example, the motion may be detected by using the gradient method in the third embodiment. When motion is detected for a predetermined number of contour candidate points of the contour model, it is determined that the contour model is extracting a moving heat-generating object (for example, a human body).

【0077】以上の手順によれば、図15に示すよう
に、輪郭モデル別に動きを検出することにより、人体と
静止発熱機器を識別することができる。
According to the above procedure, as shown in FIG. 15, the human body and the stationary heat generating device can be discriminated by detecting the movement for each contour model.

【0078】以上説明したように、第4の実施例によれ
ば、時間的に連続して得られる熱画像を用いて輪郭モデ
ル別に動きを検出することにより、人体と静止発熱機器
を識別することが可能となる。
As described above, according to the fourth embodiment, the human body and the stationary heat-generating device are distinguished by detecting the movement for each contour model using the thermal images continuously obtained in time. Is possible.

【0079】[0079]

【発明の効果】以上のことから明らかなように、本発明
によれば、輪郭モデルの交差を検出して複数に分裂させ
ることにより、画像中の複数対象物の輪郭を自動的に抽
出することができる。したがって、人間の介在を必要と
しない画像の自動編集装置などが実現できる。
As is apparent from the above, according to the present invention, the contours of a plurality of objects in an image are automatically extracted by detecting the intersection of contour models and dividing them into a plurality of divisions. You can Therefore, it is possible to realize an automatic image editing device that does not require human intervention.

【0080】また、本発明によれば、所定の条件を満た
さない輪郭モデルを削除することにより、例えば、所定
の大きさの物体のみを抽出することができる。したがっ
て、例えば特定の大きさの細胞のみを対象とするような
医療診断の自動化システムに応用できる。
Further, according to the present invention, by deleting the contour model which does not satisfy the predetermined condition, for example, only the object having the predetermined size can be extracted. Therefore, it can be applied to, for example, an automated system for medical diagnosis that targets only cells of a specific size.

【0081】また、本発明によれば、連続して撮像され
た複数の画像から動きを検出し、動きのあるエッジのみ
を滑らかに連結することにより、複数の移動物体を抽出
することができる。したがって、例えば居室内で歩いて
いる人物のみを抽出することができるので、人間の活動
状態に適応した空調制御などに応用できる。
Further, according to the present invention, it is possible to extract a plurality of moving objects by detecting a motion from a plurality of continuously picked-up images and smoothly connecting only moving edges. Therefore, for example, since only the person walking in the living room can be extracted, the present invention can be applied to the air conditioning control adapted to the human activity state.

【0082】更に、本発明によれば、連続して撮像され
た複数の熱画像を用いて輪郭モデル別に動きを検出する
ことにより、人体と静止発熱機器を識別することができ
る。したがって、人体のいる場所に空調機の吹き出し口
をむけるなど、在室者の状況に応じたきめ細かな空調制
御などが実現できる。
Further, according to the present invention, the human body and the stationary heat generating device can be distinguished by detecting the movement for each contour model using a plurality of consecutively taken thermal images. Therefore, it is possible to realize detailed air conditioning control according to the situation of the person in the room, such as opening the air outlet of the air conditioner in a place where the human body is present.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の輪郭抽出装置に係る第1の実施例のブ
ロック図である。
FIG. 1 is a block diagram of a first embodiment according to a contour extraction device of the present invention.

【図2】本実施例の動作手順を示すフローチャートであ
る。
FIG. 2 is a flowchart showing an operation procedure of this embodiment.

【図3】対象物(細胞)を含む画像の一例を示す図であ
る。
FIG. 3 is a diagram showing an example of an image including an object (cell).

【図4】輪郭モデルの交差・分裂の一例を示す図であ
る。
FIG. 4 is a diagram showing an example of intersection / division of a contour model.

【図5】対象物(細胞)抽出の様子を示す図である。FIG. 5 is a diagram showing how an object (cell) is extracted.

【図6】本発明の輪郭抽出装置に係る第2の実施例のブ
ロック図である。
FIG. 6 is a block diagram of a second embodiment according to the contour extraction device of the present invention.

【図7】本実施例の動作手順を示すフローチャートであ
る。
FIG. 7 is a flowchart showing an operation procedure of this embodiment.

【図8】大きさを考慮した対象物(細胞)の抽出の様子
を示す図である。
FIG. 8 is a diagram showing how an object (cell) is extracted in consideration of size.

【図9】本発明の輪郭抽出装置に係る第3の実施例のブ
ロック図である。
FIG. 9 is a block diagram of a third embodiment according to the contour extraction device of the present invention.

【図10】本実施例の動作手順を示すフローチャートで
ある。
FIG. 10 is a flowchart showing an operation procedure of this embodiment.

【図11】移動対象物(歩行者)を含む画像の一例を示
す図である。
FIG. 11 is a diagram showing an example of an image including a moving object (pedestrian).

【図12】動きの検出結果と移動物体(歩行者)の抽出
結果を示す図である。
FIG. 12 is a diagram showing a motion detection result and a moving object (pedestrian) extraction result.

【図13】本発明の輪郭抽出装置に係る第4の実施例の
ブロック図である。
FIG. 13 is a block diagram of a fourth embodiment according to the contour extraction device of the present invention.

【図14】本実施例の動作手順を示すフローチャートで
ある。
FIG. 14 is a flowchart showing an operation procedure of this embodiment.

【図15】人体と発熱機器の識別結果を示す図である。FIG. 15 is a diagram showing a result of identifying a human body and a heat-generating device.

【符号の説明】[Explanation of symbols]

1 画像記憶部 2 輪郭モデル記憶部 3 輪郭モデル変形部 4 輪郭モデル交差検知部 5 輪郭モデル分裂部 6 輪郭候補点生成・消滅部 7 抽出完了判定部 8 制御部 9 撮像装置 10 表示装置 11 入力装置 12 輪郭モデル選択部 13 動き検出部 14 輪郭モデル別動き検出部 DESCRIPTION OF SYMBOLS 1 Image storage unit 2 Contour model storage unit 3 Contour model transformation unit 4 Contour model intersection detection unit 5 Contour model division unit 6 Contour candidate point generation / disappearance unit 7 Extraction completion determination unit 8 Control unit 9 Imaging device 10 Display device 11 Input device 12 Contour Model Selection Unit 13 Motion Detection Unit 14 Contour Model-Specific Motion Detection Unit

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 画像を記憶する画像記憶部と、 前記画像に含まれる少なくとも1つの対象物を囲み、そ
の対象物の輪郭を抽出するための輪郭モデルを記憶する
輪郭モデル記憶部と、 所定の規則に従って、前記輪郭モデルを収縮変形させる
輪郭モデル変形部と、 前記輪郭モデル変形部により収縮変形される輪郭モデル
において、その輪郭モデルの一部がその輪郭モデルの別
の部分に接触又は交差している場合、その接触又は交差
を検出する輪郭モデル交差検出部と、 その輪郭モデル交差検出部により接触又は交差が検出さ
れた場合、その接触又は交差に基づいて、前記輪郭モデ
ルを複数に分裂させる輪郭モデル分裂部と、 前記対象物の輪郭の抽出が完了したか否かを判定する抽
出完了判定部とを備えたことを特徴とする輪郭抽出装
置。
1. An image storage unit that stores an image; a contour model storage unit that surrounds at least one object included in the image and stores a contour model for extracting the contour of the object; In accordance with the rule, in the contour model deforming unit that contracts and deforms the contour model, and in the contour model that is contracted and deformed by the contour model deforming unit, a part of the contour model touches or intersects with another part of the contour model. If a contact or intersection is detected by the contour model intersection detection unit that detects the contact or intersection, and if the contact or intersection is detected by the contour model intersection detection unit, the contour that divides the contour model into a plurality of sections based on the contact or intersection. A contour extraction device comprising: a model division unit; and an extraction completion determination unit that determines whether or not the contour extraction of the object is completed.
【請求項2】 前記輪郭モデル記憶部は、前記輪郭モデ
ルを構成する複数の輪郭候補点とそれらの連結順序とを
記憶することを特徴とする請求項1に記載の輪郭抽出装
置。
2. The contour extraction device according to claim 1, wherein the contour model storage unit stores a plurality of contour candidate points forming the contour model and a connecting order thereof.
【請求項3】 前記輪郭モデル記憶部に記憶されている
複数の輪郭候補点とそれらの連結順序は、それぞれ前記
輪郭モデル分裂部により分裂されて得られる複数の別の
輪郭モデルの各々を構成する複数の輪郭候補点とそれら
の連結順序に更新されることを特徴とする請求項2に記
載の輪郭抽出装置。
3. A plurality of contour candidate points stored in the contour model storage unit and their connecting order constitute each of a plurality of different contour models obtained by being divided by the contour model dividing unit. The contour extracting apparatus according to claim 2, wherein the contour extracting points are updated to a plurality of contour candidate points and their connecting order.
【請求項4】 前記輪郭モデル変形部は、前記輪郭モデ
ルを構成する複数の輪郭候補点の各々を移動又は停止さ
せて、その輪郭モデルを収縮変形させることを特徴とす
る請求項2又は3に記載の輪郭抽出装置。
4. The contour model deforming unit moves or stops each of a plurality of contour candidate points forming the contour model to shrink and deform the contour model. The described contour extraction device.
【請求項5】 所定の条件を満たせば、前記輪郭モデル
に少なくとも1つの新規の輪郭候補点を追加し、及び/
又は前記輪郭モデルにおける少なくとも1つの輪郭候補
点を削除する輪郭候補点生成・消滅部を更に備えたこと
を特徴とする請求項2、3又は4に記載の輪郭抽出装
置。
5. If at least one new contour candidate point is added to the contour model if a predetermined condition is satisfied, and / or
Alternatively, the contour extracting device according to claim 2, further comprising a contour candidate point generating / erasing unit that deletes at least one contour candidate point in the contour model.
【請求項6】 前記輪郭モデル分裂部により分裂されて
得られる複数の別の輪郭モデルの各々が所定の条件を満
足しない場合、その満足しない輪郭モデルを前記輪郭モ
デル記憶部から削除する輪郭モデル選択部を更に備えた
ことを特徴とする請求項2から5の何れかに記載の輪郭
抽出装置。
6. A contour model selection for deleting the unsatisfactory contour model from the contour model storage unit when each of a plurality of different contour models obtained by being divided by the contour model dividing unit does not satisfy a predetermined condition. The contour extracting device according to claim 2, further comprising a section.
【請求項7】 前記画像記憶部は、前記画像に対して所
定の時間間隔をおいて連続する少なくとも1つの別の画
像を更に記憶し、 前記輪郭抽出装置は、前記画像記憶部に記憶されている
複数の連続する画像に基づいて、移動ベクトルを検出す
る動き検出部を更に備えたことを特徴とする請求項1か
ら6の何れかに記載の輪郭抽出装置。
7. The image storage unit further stores at least one other image continuous with a predetermined time interval with respect to the image, and the contour extraction device is stored in the image storage unit. The contour extraction device according to claim 1, further comprising a motion detection unit that detects a movement vector based on a plurality of continuous images that are present.
【請求項8】 前記画像記憶部は、所定の時間間隔をお
いて連続する複数の画像を記憶し、 前記輪郭抽出装置は、前記複数の画像の少なくとも1つ
の画像に対して、その輪郭抽出装置により抽出された少
なくとも1つの対象物の輪郭モデルを構成する各輪郭候
補点の所定範囲内で、移動ベクトルを検出する輪郭モデ
ル別動き検出部を更に備えたことを特徴とする請求項1
から6の何れかに記載の輪郭抽出装置。
8. The image storage unit stores a plurality of continuous images at a predetermined time interval, and the contour extracting device selects a contour extracting device for at least one image of the plurality of images. 3. The motion detection unit for each contour model for detecting a movement vector within a predetermined range of each contour candidate point constituting the contour model of at least one target object extracted by 1.
7. The contour extraction device according to any one of 1 to 6.
JP8054367A 1995-03-24 1996-03-12 Outline extraction device Pending JPH08329254A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8054367A JPH08329254A (en) 1995-03-24 1996-03-12 Outline extraction device

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP7-66566 1995-03-24
JP6656695 1995-03-24
JP8054367A JPH08329254A (en) 1995-03-24 1996-03-12 Outline extraction device

Publications (1)

Publication Number Publication Date
JPH08329254A true JPH08329254A (en) 1996-12-13

Family

ID=26395125

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8054367A Pending JPH08329254A (en) 1995-03-24 1996-03-12 Outline extraction device

Country Status (1)

Country Link
JP (1) JPH08329254A (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000215319A (en) * 1999-01-22 2000-08-04 Canon Inc Method and device for extracting image, and storage medium
JP2004301607A (en) * 2003-03-31 2004-10-28 Honda Motor Co Ltd Moving object detection device, moving object detection method, and moving object detection program
US6920248B2 (en) 2000-09-14 2005-07-19 Honda Giken Kogyo Kabushiki Kaisha Contour detecting apparatus and method, and storage medium storing contour detecting program
US7224831B2 (en) * 2004-02-17 2007-05-29 Honda Motor Co. Method, apparatus and program for detecting an object
US7277559B2 (en) 2002-11-19 2007-10-02 Honda Motor Co., Ltd. Mobile apparatus
US7340100B2 (en) 2002-08-09 2008-03-04 Honda Giken Kogyo Kabushiki Kaisha Posture recognition apparatus and autonomous robot
US7376250B2 (en) 2004-01-05 2008-05-20 Honda Motor Co., Ltd. Apparatus, method and program for moving object detection
US7418139B2 (en) 2003-07-01 2008-08-26 Honda Motor Co., Ltd. Contour extraction apparatus, contour extraction method, and contour extraction program
JP2009254533A (en) * 2008-04-15 2009-11-05 Konan Medical Inc Analysis method of corneal endothelial cell and analysis apparatus of corneal endothelial cell
WO2010026688A1 (en) 2008-09-04 2010-03-11 株式会社ソニー・コンピュータエンタテインメント Image processing device, object tracking device, and image processing method
JP2010191827A (en) * 2009-02-19 2010-09-02 Sony Computer Entertainment Inc Apparatus and method for processing information
JP2010263872A (en) * 2009-05-18 2010-11-25 Olympus Corp Cell image analyzer
US8331619B2 (en) 2008-03-14 2012-12-11 Sony Computer Entertainment Inc. Image processing apparatus and image processing method
US10216987B2 (en) 2008-12-24 2019-02-26 Sony Interactive Entertainment Inc. Image processing device and image processing method
JP2020017051A (en) * 2018-07-25 2020-01-30 日本車輌製造株式会社 Method for creating shape-indication placement processed data

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000215319A (en) * 1999-01-22 2000-08-04 Canon Inc Method and device for extracting image, and storage medium
US6920248B2 (en) 2000-09-14 2005-07-19 Honda Giken Kogyo Kabushiki Kaisha Contour detecting apparatus and method, and storage medium storing contour detecting program
US7340100B2 (en) 2002-08-09 2008-03-04 Honda Giken Kogyo Kabushiki Kaisha Posture recognition apparatus and autonomous robot
US7277559B2 (en) 2002-11-19 2007-10-02 Honda Motor Co., Ltd. Mobile apparatus
JP2004301607A (en) * 2003-03-31 2004-10-28 Honda Motor Co Ltd Moving object detection device, moving object detection method, and moving object detection program
US7418139B2 (en) 2003-07-01 2008-08-26 Honda Motor Co., Ltd. Contour extraction apparatus, contour extraction method, and contour extraction program
US7376250B2 (en) 2004-01-05 2008-05-20 Honda Motor Co., Ltd. Apparatus, method and program for moving object detection
US7224831B2 (en) * 2004-02-17 2007-05-29 Honda Motor Co. Method, apparatus and program for detecting an object
US8331619B2 (en) 2008-03-14 2012-12-11 Sony Computer Entertainment Inc. Image processing apparatus and image processing method
JP2009254533A (en) * 2008-04-15 2009-11-05 Konan Medical Inc Analysis method of corneal endothelial cell and analysis apparatus of corneal endothelial cell
WO2010026688A1 (en) 2008-09-04 2010-03-11 株式会社ソニー・コンピュータエンタテインメント Image processing device, object tracking device, and image processing method
US8503726B2 (en) 2008-09-04 2013-08-06 Sony Corporation Image processing device, object tracking device, and image processing method
US10216987B2 (en) 2008-12-24 2019-02-26 Sony Interactive Entertainment Inc. Image processing device and image processing method
JP2010191827A (en) * 2009-02-19 2010-09-02 Sony Computer Entertainment Inc Apparatus and method for processing information
US8879787B2 (en) 2009-02-19 2014-11-04 Sony Corporation Information processing device and information processing method
JP2010263872A (en) * 2009-05-18 2010-11-25 Olympus Corp Cell image analyzer
JP2020017051A (en) * 2018-07-25 2020-01-30 日本車輌製造株式会社 Method for creating shape-indication placement processed data

Similar Documents

Publication Publication Date Title
KR100414432B1 (en) Contour extraction device
US7940957B2 (en) Object tracker for visually tracking object motion
JPH08329254A (en) Outline extraction device
US8369574B2 (en) Person tracking method, person tracking apparatus, and person tracking program storage medium
JP4216668B2 (en) Face detection / tracking system and method for detecting and tracking multiple faces in real time by combining video visual information
US8374392B2 (en) Person tracking method, person tracking apparatus, and person tracking program storage medium
JP2003039365A (en) Computer system recognizing gesture, walking robot, and method
EP1403817A1 (en) Abnormal behavior detector
JP2006524394A (en) Delineation of human contours in images
JP7085812B2 (en) Image processing device and its control method
JP5371040B2 (en) Moving object tracking device, moving object tracking method, and moving object tracking program
JP2017076288A (en) Information processor, information processing method and program
JP2005503731A (en) Intelligent 4-screen simultaneous display through collaborative distributed vision
JP2008035301A (en) Mobile body tracing apparatus
JP2006244272A (en) Hand position tracking method, device and program
US11544926B2 (en) Image processing apparatus, method of processing image, and storage medium
JP3093346B2 (en) Moving object detection device
JP5448952B2 (en) Same person determination device, same person determination method, and same person determination program
JP6893812B2 (en) Object detector
JPH09270014A (en) Extraction device for moving body
Munoz-Salinas et al. People detection and tracking through stereo vision for human-robot interaction
JP2020071717A (en) Information processing device, information processing method, and program
Agouris et al. Uncertainty in image-based change detection
JP2018185623A (en) Object detection device
JP3810755B2 (en) POSITION JUDGING DEVICE, MOVING ROUTE CALCULATION DEVICE, POSITION JUDGING METHOD AND PROGRAM