JPS61141081A - Interesting area recognizer - Google Patents

Interesting area recognizer

Info

Publication number
JPS61141081A
JPS61141081A JP59263514A JP26351484A JPS61141081A JP S61141081 A JPS61141081 A JP S61141081A JP 59263514 A JP59263514 A JP 59263514A JP 26351484 A JP26351484 A JP 26351484A JP S61141081 A JPS61141081 A JP S61141081A
Authority
JP
Japan
Prior art keywords
vector
calculation means
pixel
point
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP59263514A
Other languages
Japanese (ja)
Other versions
JPH0650518B2 (en
Inventor
Michitaka Sugawara
通孝 菅原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP59263514A priority Critical patent/JPH0650518B2/en
Publication of JPS61141081A publication Critical patent/JPS61141081A/en
Publication of JPH0650518B2 publication Critical patent/JPH0650518B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

PURPOSE:To recognize an interesting area at a high speed by generating coordinate values and a moving vector of each pixel and recognizing all pixels in an area enclosed by a locus composed of points moving from a basic point. CONSTITUTION:A vector as a closed curve generated by a closed curve generating means 15 is inputted to the 1st arithmetic means 16 through the 1st vector storing memory 14. Coordinate values of each pixel in a locus composed of moving points from the basis point are calculated, and simultaneously the moving vector of each pixel is produced. After the output of the 1st arithmetic means 16 is re-arranged by the 2nd arithmetic means 18, it is inputted to the 3rd arithmetic means 20. It obtains an intersectional angle between a horizontal line and the moving vector of each pixel, and recognizes all pixels in an area enclosed by the locus of the basic point moving by discriminating it with the aid of said intersectional angle.

Description

【発明の詳細な説明】 [発明め技術分野] 本発明は画像データの処理を行う画像処理装置の技術分
野に属し、さらに詳しくは、ROI (II心領領域の
!!麿を行・う関心領域認識装置・に関する。
[Detailed Description of the Invention] [Technical Field of the Invention] The present invention belongs to the technical field of image processing devices that process image data. Regarding recognition devices.

[発明の技術的背景とその″問題点J 第11図に従来の′両画像処理装置のブロック図を示す
。例え&fXllICT装置本体より伝送された両像デ
ータDDは、画像メモリ1に一日記憶され、表示インタ
ーフIイス2を介してモニタ3に表示される。オペレー
タはモニタ3に表示された画像を見ながら、入゛力手段
例えばトラッカボール4を操作してROIを指定する。
[Technical background of the invention and its problems] Figure 11 shows a block diagram of a conventional image processing device.For example, the image data DD transmitted from the ICT device is stored in the image memory 1 for one day. The image is displayed on the monitor 3 via the display interface 2. While viewing the image displayed on the monitor 3, the operator operates input means such as the tracker ball 4 to designate the ROI.

すなわち、例えばX線CT¥MM本体より伝送される。That is, for example, it is transmitted from the X-ray CT\MM main body.

基点(ROIの開始点)の座゛標(xo、yo)がトラ
ッカボール4の操作により移動され、この基点座標の移
動軌跡が閉曲IROIとしてR−,01メモリ5に一旦
記憶され゛、表示イ゛ンターフエイス2を介してモニタ
3に表゛示される。       ・ −・方、関心領域認識装置16では、トラッカボール4
による基点座標の移動軌跡を基に閉曲線ROI内のII
Iが行われ、その認識結果が統計値計算部7に出力され
る。この開曲線Rot内の認識結果を受は取った統計値
計算部7は、画像データDDの閉曲線Rotに対応する
領域内の統計値計算を行い、その計算結果が、表示イン
ターフェイス2を介してモニタ3に表示される。
The coordinates (xo, yo) of the base point (starting point of the ROI) are moved by the operation of the tracker ball 4, and the movement locus of this base point coordinate is temporarily stored in the R-01 memory 5 as a closed IROI and displayed. It is displayed on the monitor 3 via the interface 2. - On the other hand, in the region of interest recognition device 16, the tracker ball 4
II in the closed curve ROI based on the movement trajectory of the base point coordinates by
I is performed, and the recognition result is output to the statistical value calculation section 7. The statistical value calculation unit 7 that receives the recognition result within the open curve Rot calculates the statistical value within the area corresponding to the closed curve Rot of the image data DD, and the calculation result is displayed on the monitor via the display interface 2. 3.

次に、第12図を参照しながら前記関心領域認識装置!
6の詳細について説明する。
Next, referring to FIG. 12, the region of interest recognition device!
6 will be explained in detail.

第12図は第11図における関心領域認識装置の詳細を
示すプ1】ツク図である。
FIG. 12 is a diagram showing details of the region of interest recognition device in FIG. 11.

同図において、ROI作成手段8は、トラッカボール4
による基点座標(Xo 、Vo)の移動軌跡に応じたR
OI閉曲線パターンを作成する。作成されたROII1
1曲線パターンはR01メモリ9を介してRot内Nl
1手段10に伝送される。このROI内認識手段10は
、伝送されたRot閉曲線パターンを基にRot内のぬ
りつぶし処理を行い、その処理結果がROIメモリ11
を介して統計値計算部7に出力される。
In the same figure, the ROI creation means 8 includes a tracker ball 4
R according to the movement trajectory of the base point coordinates (Xo, Vo) by
Create an OI closed curve pattern. Created ROI1
1 curve pattern is stored in Rot through R01 memory 9.
1 means 10. The ROI recognition means 10 performs a filling process within the Rot based on the transmitted Rot closed curve pattern, and the processing result is stored in the ROI memory 11.
It is output to the statistical value calculation section 7 via.

ところで、上述した従来の関心領域認識装置6によれば
、ファームウェアによる探索的な方法で閏曲線Rot内
のW1識を行うことになる。なぜなら、閉曲線Rot内
の全ピクセルについて、特定のピクセルから次のピクセ
ルに移動する度毎に8方向をテストし、このテスト結果
より移動方向を決定するという方法が採られているから
で蕊る。
By the way, according to the above-described conventional region of interest recognition device 6, W1 recognition within the incline curve Rot is performed using an exploratory method using firmware. This is because a method is adopted in which eight directions are tested for all pixels within the closed curve Rot each time the pixel moves from a specific pixel to the next pixel, and the direction of movement is determined based on the test results.

このため、閉曲線ROIの認識に時間がかかり、RO[
指定から統計値計算結果を得るまでに長時間を要すると
いう問題点がある。
Therefore, it takes time to recognize the closed curve ROI, and RO[
There is a problem in that it takes a long time from specification to obtaining statistical value calculation results.

[発明の目的] 本発明は上記事情に鑑みて成されたものであり、その目
的とするところは、トラッカボール等の入力手段により
設定された関心領域の認識を^速に行うことのできる関
心領域認識装置を提供することにある。
[Object of the Invention] The present invention has been made in view of the above-mentioned circumstances, and its purpose is to provide an area of interest that can quickly recognize a region of interest set by an input means such as a tracker ball. An object of the present invention is to provide an area recognition device.

[発明の概要] 上記目的達成するための本発明の概要は、基点移動の軌
跡における各ピクセル毎の座標値を算出すると共に、各
ピクセル毎の移動ベクトルを作成する第1の演算手段と
、この第1の演算手段の出力を並べ替える第2の演算手
段と、この第2の演算手段の出力より各ピクセル毎の移
動ベクトルと水平線との交差角度を得ると共に、この交
差角度より、基点移動の軌跡で囲まれた領域の内外を判
別することにより、該領域内の全ピクセルをWllする
第3の演算手段とを具備することを特徴とするものであ
つ1、関心領域l!!識の高、連化を図ったものである
[Summary of the Invention] The outline of the present invention for achieving the above object is as follows: a first calculating means that calculates the coordinate value of each pixel in the locus of movement of the base point, and creates a movement vector for each pixel; A second calculation means rearranges the outputs of the first calculation means, and from the output of the second calculation means, the intersection angle between the movement vector and the horizontal line for each pixel is obtained, and from this intersection angle, the base point movement can be calculated. The device is characterized by comprising a third calculation means that processes all pixels within the region by determining whether it is inside or outside the region surrounded by the locus.1. Region of interest l! ! This is an attempt to increase knowledge and connect people.

[発明の実施例] 以下、本発明を実施例により具体的に説明する。[Embodiments of the invention] Hereinafter, the present invention will be specifically explained with reference to Examples.

第1図は本発明の一実施例たる関心領域211ml装置
の構成を示すブロック図であり、12で示すのが、本発
明に係る関心領域認識装置である。
FIG. 1 is a block diagram showing the configuration of a region of interest 211ml device which is an embodiment of the present invention, and 12 indicates the region of interest recognition device according to the present invention.

同図13は入力手段例えばトラッカボール4の出力をX
−Y座標におけるX成分及、びY成分のベクトルとして
取り込むためのインターフェイス、14はこのインター
フェイス13の出力を記憶する第1のベクトル格納用メ
モリ、15はこの第1のベクトル格納用メモリ14に記
憶されたベクトルを基に、前記トラッカボール4により
指定された曲線の開始点と終点とを直線で結ぶことによ
り閉曲線を作成する閉曲線作成手段、16はこの閉曲線
作成手段15によって作成されたところの閉曲線として
のベクトルを前記第1のベクトル格納用メモリ14を介
して取り込み、この取り込んだベクトルと基点の座標(
Xo 、 yo )との関係より、基点移動の軌跡にお
ける各ピクセル毎の座標値を算出すると共に、、各ピク
セル毎の移動、ベクトルを作成する第1の演算手段であ
る。また、17はこの第1の演算手段16の出力を記憶
する第2のベクトル格納用メモリ、18はこの第2のベ
クトル格納用メモリ17の記憶内容をX−Y座標を用い
て行列方向に並べ替える(ソートする)第2の演算手段
である。さらに、19はこの第2の演算手段18の出力
を記憶する第3のベクトル格納用メモリ、20はこの第
3のベクトル格納用メモリ19の記憶内容を基に、各ピ
クセル毎の移動座標と水平線(X−Y座標におけるX軸
に平行となる線)との交差角痕を得ると共に、この交差
角廓より、基点移動の軌跡で囲まれた領域の内外(内側
と外側)を判別することにより、該領域内に属する全ピ
クセルを認識する第3の演褌部である。
13 shows the output of the input means, for example, the tracker ball 4.
- An interface for importing the X component and Y component in the Y coordinate as vectors, 14 is a first vector storage memory that stores the output of this interface 13, and 15 is stored in this first vector storage memory 14. A closed curve creating means creates a closed curve by connecting the starting point and end point of the curve specified by the tracker ball 4 with a straight line based on the vector, and 16 is a closed curve created by the closed curve creating means 15. The vector is fetched via the first vector storage memory 14, and the coordinates of this fetched vector and the base point (
This is the first calculating means that calculates the coordinate value of each pixel in the trajectory of the base point movement based on the relationship between Xo, yo), and creates a movement and vector for each pixel. Further, 17 is a second vector storage memory for storing the output of the first calculation means 16, and 18 is a memory for arranging the stored contents of the second vector storage memory 17 in the matrix direction using X-Y coordinates. This is a second calculation means for changing (sorting). Furthermore, 19 is a third vector storage memory that stores the output of this second calculation means 18, and 20 is a moving coordinate for each pixel and a horizontal line based on the stored contents of this third vector storage memory 19. (A line parallel to the X-axis in the , a third operator that recognizes all pixels belonging to the region.

そして、21はこの第3の演算部20の認識結果を記憶
するRotメモリであり、このRotメモリ21の記憶
内容が、本実施例装置の出力すなわち関心領域として、
例えば第1゛1図に示す画像処理装置にJ3ける統計値
計算i!17に出力され、統計値計算等の画像処理に供
される。
Reference numeral 21 denotes a Rot memory that stores the recognition result of the third calculation unit 20, and the stored contents of the Rot memory 21 serve as the output of the device of this embodiment, that is, the region of interest.
For example, statistical value calculation i! in J3 using the image processing device shown in FIG. 17, and subjected to image processing such as statistical value calculation.

次に、第2図に示すフローチャートを基に、上記構成に
よる実施例装置の作用について説明する。
Next, the operation of the embodiment apparatus having the above configuration will be explained based on the flowchart shown in FIG.

第2図は本実施例装置の作用を説明するためのノローチ
1?−トである。
FIG. 2 is a diagram illustrating the operation of the apparatus of this embodiment. - It is.

トラッカボール4の出力はインターフェイス13を介す
ことによりX−Y座標におけるX成分とY成分とに分け
られ、これら全てが第1のベクトル格納用メモリ14に
記憶される。ここに、第1のベクトル格納用メモリ14
の記憶内容は第3図に示すようになる。同図Vyに属す
る矢印はベクトルのY成分を意味し、またVxGL:f
iする矢印はベクトルのX成分を意味する。尚、X軸の
正方向(原点0より増加する方向)への移動は「+1」
、負方向(原点より減少する方向)への移動は「−1」
として、また、Y軸の正方向への移動は「−1」、負方
向への移動は「+1」として、さらに、移動なしの場合
は「0」としてそれぞれ記憶される。
The output of the tracker ball 4 is divided into an X component and a Y component in the XY coordinates via the interface 13, and all of these components are stored in the first vector storage memory 14. Here, the first vector storage memory 14
The stored contents are shown in FIG. The arrow belonging to Vy in the same figure means the Y component of the vector, and VxGL:f
The arrow pointing to i means the X component of the vector. Furthermore, movement in the positive direction of the X axis (increasing direction from the origin 0) is "+1".
, movement in the negative direction (direction decreasing from the origin) is "-1"
Also, movement in the positive direction of the Y axis is stored as "-1", movement in the negative direction is stored as "+1", and no movement is stored as "0".

前記トラッカボール4の操作により設定されるROIが
閉曲線を形成しない場合、すなわち、トラッカボール4
により入力される曲線の開始点と終点とが一致しない場
合には、閉曲線作成手段15において、曲線の開始点と
終点とを直線で結ぶことにより閉曲線が作成される(ス
テップS1)。
If the ROI set by the operation of the tracker ball 4 does not form a closed curve, that is, the tracker ball 4
If the start point and end point of the curve input by the above do not match, the closed curve creation means 15 creates a closed curve by connecting the start point and end point of the curve with a straight line (step S1).

作成された閉曲線は第3図(a)のようになり、これが
第3図(b)のような形で第1のベクトル格納用メモリ
14に記憶される。尚、第3図(a)におけるstは曲
線の開始点を意味する。
The created closed curve is as shown in FIG. 3(a), and is stored in the first vector storage memory 14 in the form as shown in FIG. 3(b). Note that st in FIG. 3(a) means the starting point of the curve.

次に、第1の演算手段16は、前記第1のベクトル格納
用メモリ14の記憶内容と基点の座標(Xo 、 yo
 )との関係より、基点移動の軌跡における各ピクセル
毎の座標値を算出すると共に、各ピクセル毎の移動ベク
トル(フロント・テールのベクトル)を作成する(ステ
ップ82)。
Next, the first calculation means 16 calculates the storage contents of the first vector storage memory 14 and the coordinates of the base point (Xo, yo
), the coordinate value of each pixel in the trajectory of the base point movement is calculated, and a movement vector (front/tail vector) for each pixel is created (step 82).

ここに、基点移動の軌跡における各ピクセル毎の座標値
は、次式による演算を実行することにより得られる。
Here, the coordinate value of each pixel in the trajectory of the base point movement can be obtained by executing the calculation according to the following equation.

X (0) =Xo             ・・・
(1)Y(0)=Vo             ・・
・(2(ただし、n#0) 上式において、Xa、Vaは例えばXl1CT装置等の
画像データ源より伝送される基点座標、X(n)、Y 
(n)は基点移動の軌跡における各ピクセルの座標であ
る。
X (0) =Xo...
(1)Y(0)=Vo...
・(2 (however, n#0) In the above formula, Xa, Va are the base point coordinates, X(n), Y
(n) is the coordinate of each pixel in the locus of movement of the base point.

また、基点移動の軌跡における各ピクセル毎の移動ベク
トルの作成は例えば第4図(a)に示ずように、基点移
動の軌跡における各ピクセルから出るベクトル(フロン
ト)fと各ピクセルに入るベクトル(テール)tとを計
算することにより行われる。すなわち、■fx、 vr
yをフロントのベク ゛トルとすれば、 Vfx(n)=Vx (n)     ・−[5]Vf
y(n)=Vy (n)     ・(61と表される
。ただし、O<n< (m−1)、mは基点移動の軌跡
における全ピクセル数である。そして、テールのベクト
ルtは、一つ前のピクセルのフロントのベクトルfと同
じ値でるから、フロントのベクトルfを作成し、これを
−・つずらしてテールのベクトルtとする。従って、 Vfx(n+1)=Vx(n)   ・・・(7))V
fy(n+1)=Vy(n)   ・(8)と表され(
ただし、Q<n< (m−2) 、また、Vfx(m)
=Vx (0)     ・(9)Vfy(m)=Vy
 (0)     −(Dと表される。
In addition, to create a movement vector for each pixel in the trajectory of the base point movement, for example, as shown in Fig. 4(a), the vector (front) f coming out of each pixel in the trajectory of the base point movement and the vector (front) entering each pixel ( tail) t. That is, fx, vr
If y is the front vector, Vfx(n)=Vx(n) ・-[5]Vf
It is expressed as y(n)=Vy(n)・(61. However, O<n<(m-1), m is the total number of pixels in the trajectory of the base point movement.Then, the tail vector t is Since the value is the same as the front vector f of the previous pixel, create the front vector f and shift it by - to make the tail vector t. Therefore, Vfx (n + 1) = Vx (n) ・...(7))V
fy(n+1)=Vy(n) ・(8)
However, Q<n< (m-2), and Vfx(m)
=Vx (0) ・(9)Vfy(m)=Vy
(0) −(Denoted as D.

このようにして作成された移動ベクトルは基点移動の軌
跡おける各ピクセル毎の座標値と共に第4図(b)に示
すような形で第2のベクトル格納用メモリ17に記憶さ
れる。
The movement vector created in this manner is stored in the second vector storage memory 17 in the form shown in FIG. 4(b) together with the coordinate values for each pixel on the locus of movement of the base point.

尚、閏曲線の形状によっては、後述する第3の演算手段
20の判別において無効となるベクトルが存在する場合
がある。例えば、第4図(a)においてはinsで示す
点が後述する第3の演算手段20の処理において何の意
味も持たないことから、次のような手順によって無効点
を検出し排除する。以F、第5図のフローチャートを基
に無効点探索の手順について説明する。
Note that depending on the shape of the leap curve, there may be vectors that are invalid in the determination by the third calculation means 20, which will be described later. For example, in FIG. 4(a), since the point indicated by ins has no meaning in the processing of the third calculation means 20, which will be described later, invalid points are detected and eliminated by the following procedure. Hereinafter, the procedure for searching for invalid points will be explained based on the flowchart in FIG.

無効点探索アルゴリズムにより無効点を探すためには、
Wa始点が曲がり角になくてはならない。
To search for invalid points using the invalid point search algorithm,
The starting point of Wa must be at a corner.

そのため先ず、開始点が曲がり角に来るまでポインタを
進める(ステップ510)。
Therefore, first, the pointer is advanced until the starting point reaches the corner (step 510).

次に、ポインタの指す位置のフロントのベクトルはX軸
に対して平行であるか否かの判別を行う(ステップ51
1)。この判別において、YESと判断された場合、す
なわちポインタの指す位置のフロントのベクトルがX軸
に対して平行であると判断された場合には、現在のポイ
ンタとポインタの指す点(ピクセル)をa点として認識
しくステップ512)、カウンタをインクリメントとす
ると共にポインタを進める(ステップ513)。
Next, it is determined whether the front vector of the position pointed by the pointer is parallel to the X axis (step 51).
1). In this determination, if it is determined as YES, that is, if it is determined that the front vector of the position pointed by the pointer is parallel to the X axis, the current pointer and the point (pixel) pointed by the pointer are It is recognized as a point (step 512), the counter is incremented, and the pointer is advanced (step 513).

そして、a点のフロントとポインタの指す点のフロント
とは同じ向きであるか否かの判別を行う(ステップ51
4)。この判別において、Noと判断された場合、すな
わち同じ向きではないと判断された場合には、a点のテ
ールのベクトルとポインタの指すフロントのベクトルと
はY方向において同じか否かの判別を行い(ステップ5
15)、また、YESと判断された場合には前記ステッ
プS13に戻る。
Then, it is determined whether the front of point a and the front of the point pointed to by the pointer are in the same direction (step 51
4). In this determination, if the determination is No, that is, if it is determined that they are not in the same direction, it is determined whether the tail vector of point a and the front vector pointed by the pointer are the same in the Y direction. (Step 5
15) If the determination is YES, the process returns to step S13.

前記ステップS15の判別におい1、YESと判断され
た場合、すなわちa点のテールのベクトルとポインタの
指すフロントのベクトルとはY方向において同じと判断
された場合には、a点の座標がポインタの指す点のX座
標よりも小さいか否かの判別を行う(ステップ816)
。この判別において、Noと判断された場合、すなわち
a点のX座標はポインタの指す点のX座標より小さくな
いと判断された場合には、a点を無効点として認識しく
ステップ517)、また、YESと判断された場合には
、ポインタの指す点を無効点として認識する(ステップ
818)。
If the determination in step S15 is 1, YES, that is, if it is determined that the tail vector of point a and the front vector pointed to by the pointer are the same in the Y direction, then the coordinates of point a are Determine whether it is smaller than the X coordinate of the pointed point (step 816)
. In this determination, if the determination is No, that is, if it is determined that the X coordinate of point a is not smaller than the X coordinate of the point pointed to by the pointer, point a is recognized as an invalid point (step 517); If the determination is YES, the point pointed by the pointer is recognized as an invalid point (step 818).

そして、カンタをインクリメントし、ポインタを再び進
める。但し、ベクトルの総点数よりもポインタが大きく
なった場合には、ポインタよりベクトルの総点数を減じ
、その結果をポインタとする(ステップ519)。また
、前記ステップS11の判別においてNoと判断された
場合、すなわちポインタが指す位置のフロントのベクト
ルはX軸に対して平行でないと判断された場合及び前記
ステップ815の判別においてNOと判断された場合、
すなわちa点のテールのベクトルとポインタの指すフロ
ントのベクトルとはY方向において同じではないと判断
された場合にも、前記ステップ81.9を実行する。
Then increment the canter and advance the pointer again. However, if the pointer becomes larger than the total number of vector points, the total number of vector points is subtracted from the pointer, and the result is used as the pointer (step 519). Also, if the determination in step S11 is NO, that is, if it is determined that the front vector of the position pointed by the pointer is not parallel to the X axis, and if the determination in step 815 is NO ,
That is, even if it is determined that the tail vector at point a and the front vector pointed to by the pointer are not the same in the Y direction, step 81.9 is executed.

このステップS19の実行の後、カウンタの計数結果は
ベクトルの総点数よりも大きいか否かの判別を行う(ス
テップ520)。この判別において、YESと判断され
た場合、すなわちカウンタの計数結果がベクトルの数点
数を越えたと判断された場合には本アルゴリズムの実行
を終了し、また、NOと判断された場合には前記ステッ
プS11の判別に戻る。
After executing step S19, it is determined whether the count result of the counter is greater than the total number of vector points (step 520). In this determination, if it is determined to be YES, that is, if it is determined that the count result of the counter exceeds the number of vector points, the execution of this algorithm is terminated, and if it is determined to be NO, the step Returning to the determination in S11.

以上説明したアルゴリズムの実行により探索される無効
点aは、例えば第6図(a)、(b)。
The invalid point a searched for by executing the algorithm described above is shown in FIGS. 6(a) and 6(b), for example.

(c)、(d)に示す移動ベクトルにおい又はそれぞれ
insで示す点となる。これら無効点の排除の仕方につ
いては種々の方法が考えられるが、ここでは、第1の演
算手段16によって探索された無効点を、例えば第4図
(b)の■O1dに示すように第2のベクトル格納用メ
モリ17内にフラグとして記憶する。第4図(b)にお
いては■oidのフラグが「1」となる個所が無効点を
意味し、この無効点は後述する第3の演算手段20の処
理において無視される。
In the movement vectors shown in (c) and (d), the points are respectively indicated by ins. Various methods can be considered for eliminating these invalid points, but here, the invalid points searched for by the first calculation means 16 are removed from the second is stored as a flag in the vector storage memory 17. In FIG. 4(b), the location where the ■oid flag is "1" means an invalid point, and this invalid point is ignored in the processing of the third calculation means 20, which will be described later.

次に、第2の演算手段18は、第2のベクトル格納用メ
モリ17の記憶内容の並べ替え(ソート処理)を行う(
ステップS4)。すなわち、後述する第3の演算手段2
0の・処理において各行毎に例えば左から右へ順次行い
得るように、前記ベクトル格納用・メモリ17の記憶内
容を座標のX、Yを用いて行列方向にソートする。そし
てソート処理の結果は第3のベクトル格納用メモリ19
に記憶される。
Next, the second calculation means 18 rearranges (sorting) the contents of the second vector storage memory 17 (
Step S4). That is, the third calculation means 2 described later
The stored contents of the vector storage memory 17 are sorted in the matrix direction using the X and Y coordinates so that the process can be performed sequentially from left to right for each row. The results of the sorting process are stored in the third vector storage memory 19.
is memorized.

次に、第3の演算手段20は、前記第3のベクトル格納
用メモリ19の記憶内容を基に、各ピクセル毎の移動ベ
クトルと水平線との交差角度を得ると共に、この交差角
度より、基点の移動の軌跡で囲まれた領域の内外を判別
することにより、該領域内の全ピクセルのm*すなわち
、ぬりつぶし処理を行う(ステップ85)。
Next, the third calculation means 20 obtains the intersection angle between the movement vector and the horizontal line for each pixel based on the stored contents of the third vector storage memory 19, and uses this intersection angle to determine the intersection angle of the base point. By determining whether the area is inside or outside the area surrounded by the locus of movement, m* of all pixels in the area, that is, coloring processing is performed (step 85).

ここで、第3の演算手段20によるぬりつぶし処理の手
順について、第7図のフローチャートを基に説明する。
Here, the procedure of the filling process by the third calculation means 20 will be explained based on the flowchart of FIG. 7.

先ず、ポインタの値を0にする(ステップ530)。尚
、ポインタの値がOのときに、テーブルにおけるベクト
ルの先頭(フロント)を指すものとする。
First, the value of the pointer is set to 0 (step 530). It is assumed that when the value of the pointer is O, it points to the beginning (front) of the vector in the table.

次に、ポインタが指す点のフロントとテールとのy方向
ベクトルは互いに反対向き否かの判別を行う(ステップ
531)。この判別においてN。
Next, it is determined whether the front and tail y-direction vectors of the point pointed to by the pointer are in opposite directions (step 531). N in this judgment.

と判断された場合、すなわちフロントとテールとのy方
向ベクトルは互いに反対向きではないと判断された場合
には、′ポインタの示す点が無効点として登録されてい
るか否かの判別を行う(ステップ532)。この判別に
おいて、Noと判断された場合、すなわちVoidのフ
ラグがOであると判断された場合には、ポインタが指す
点のフロントあるいはテールの方向は上か下かの判別を
行う(ステップ533)。この判別において、ポインタ
が指す点のフロントあるいはテールの方向は下であると
判断された場合には、当該ベクトルに対して左に交差し
た回数に1を加え(ステップ534)、また、ポインタ
が指す点のフロントあるいはテール方向は上であると判
断された場合には、当該ベクトルに対して右に交差した
口数に1を加える(ステップ535)。そして、右に交
差した   □回数より左に交差した回数を減じ、その
絶対値がOより大きいか否かの判別を行う(ステップ5
36)。また、前記ステップ831.832の判別にお
いてYESと判断された場合にも前記ステップ836の
判別を行う。この判別において、YESと判断された場
合、すなわち前記減算結果の絶対値が0より大きいと判
断された場合には、ポインタの指す点の一つ前のX座標
を×1とし、また、ポインタの指す点のY座標なYとす
る(ステップ537)。
If it is determined that the y-direction vectors of the front and tail are not opposite to each other, it is determined whether the point indicated by the 'pointer is registered as an invalid point or not (step 532). In this determination, if the determination is No, that is, if the Void flag is determined to be O, it is determined whether the front or tail direction of the point pointed to is upward or downward (step 533). . In this determination, if it is determined that the front or tail direction of the point pointed to by the pointer is downward, 1 is added to the number of times the vector crosses to the left (step 534), and If it is determined that the front or tail direction of the point is upward, 1 is added to the number of points that intersect the vector to the right (step 535). Then, subtract the number of times it crossed to the left from the number of times it crossed to the right, and determine whether the absolute value is greater than O (step 5).
36). Also, if the determination in steps 831 and 832 is YES, the determination in step 836 is performed. In this determination, if YES is determined, that is, if the absolute value of the subtraction result is determined to be greater than 0, the X coordinate of the point before the point pointed to by the pointer is set to x1, and the pointer's Let Y be the Y coordinate of the pointed point (step 537).

ここに、例えば第8図(a)及び第9図(a)に示すよ
うな閉曲線の場合にはベクトルの方向に対して左右いず
れか一方がROIの内側となり、他方がROIの外側と
なるはずである。第8図(a)に示すように閉曲線が交
差し、多重Rotとなっている場合には同図(b)に示
すようにベクトルの左側から交差した回数または右側か
ら交差した回数を増加させ(前記ステップ834.33
5)、右、左の差が0の間はRotの外側であると5!
識する。但し、交差する点が先に求めた無効点であれば
、交差しなかったものとし、交差回数をそのままとする
。また、第9図(a)における点89点りにおいては、
ベクトルが水平線と平行であり、交差しないから、;−
図(b)に示すように前状態をそのまま維持することに
なる。
For example, in the case of closed curves as shown in Figures 8(a) and 9(a), either the left or right side should be inside the ROI, and the other should be outside the ROI. It is. As shown in FIG. 8(a), when the closed curves intersect, resulting in multiple Rots, the number of times the vector intersects from the left side or the right side is increased, as shown in FIG. 8(b). Said step 834.33
5), if the difference between the right and left is 0, it is outside of Rot, 5!
Understand. However, if the point of intersection is the previously determined invalid point, it is assumed that the point did not intersect, and the number of intersections remains unchanged. Also, at point 89 in FIG. 9(a),
Since the vector is parallel to the horizontal line and does not intersect, ;-
As shown in Figure (b), the previous state will be maintained as it is.

次に、前記ステップ837におけるXl、Yを、ROI
メモリ21のビットプレーン上にて1としくステップ8
38)、X1+1を再びXlとする(ステップ539)
。     □ そして、×1よりもポインタの指す点のX座標の方が大
きいか否かの判別を行う(ステップ540)。この判別
において、NOと判断された場合、すなわちポインタの
指す点のX座標の方が×1より小さいと判断され゛た場
合及び前記ステップ836の判別においてNOと判断さ
れた場合には、ポインタの指す点のX、Y座標をX、Y
とおき(ステップ841)、ビットプレーンにおける(
X。
Next, set Xl and Y in step 837 to ROI
1 on the bit plane of memory 21 Step 8
38), set X1+1 to Xl again (step 539)
. □ Then, it is determined whether the X coordinate of the point pointed to by the pointer is greater than x1 (step 540). If this determination is NO, that is, if the X coordinate of the point pointed to by the pointer is smaller than x1, and if the determination in step 836 is NO, the pointer X, Y coordinates of the point you are pointing to
(step 841), (
X.

Y)を1とする(ステップ542)。Y) is set to 1 (step 542).

そして、総点数だけ繰り返したか否かの判別を行い(ス
テップ843) 、この判別においてYESと別画され
た場合、すなわち総点数だけ繰り返したと判断された場
合には本アルゴリズムの実行を終了し、また、NOと判
断された場合には、前記ステップS31の判別に戻る。
Then, it is determined whether or not the total number of points has been repeated (step 843), and if YES is determined in this determination, that is, if it is determined that the total number of points has been repeated, the execution of this algorithm is terminated, and , if the determination is NO, the process returns to step S31.

以上のアルゴリズムの実行によりぬりつぶし処理が行わ
れ、Rotメモリ21内には、基点移動の軌跡で囲まれ
た領域内の全ピクセルにフラグ1が立てられる。
The filling process is performed by executing the above algorithm, and a flag 1 is set in the Rot memory 21 for all pixels within the area surrounded by the locus of movement of the base point.

尚、本アルゴリズムにあっては、水平線と平行な移動ベ
クトルをその左端の状態と同一とするので、基点移動の
軌跡上がぬりつぶされる場合とぬりつぶされない場合と
があるが、これは第3の演算手段20において一度ぬり
つぶし処理を行った後、再度スクリーン上にぬりつぶす
ことで解決する。
In addition, in this algorithm, the movement vector parallel to the horizontal line is the same as the state of its left end, so the trajectory of the base point movement may or may not be filled in, but this is due to the third The problem is solved by performing the coloring process once in the calculation means 20 and then filling the screen again.

また、第1の演算手段16によって探索された無効点を
、第3の演算手段20のぬりつぶし処理において無視す
ることにより、例えば第10図(a)、(b)にそれぞ
れ示すような不規則ROIであっても、斜線で示ず部分
のみをぬりつぶすことができ、0LITで示す領域がぬ
りつぶされることはない。
Furthermore, by ignoring the invalid points searched by the first calculation means 16 in the filling process of the third calculation means 20, irregular ROIs as shown in FIGS. 10(a) and 10(b), for example, can be created. Even if it is, only the part not shown by diagonal lines can be filled in, and the area shown by 0LIT will not be filled in.

このように、本実施例装置にあっては、基点移動の軌跡
における各ピクセル毎の座標値を算出すると共に、各ピ
クセル毎の移動ベクトルを作成し、これを並べ替えた後
に、水平線と各ピクセル毎の移動ベクトルとの交差角度
を基に基点移動の軌跡で囲まれた領域の認識を行うもの
であり、従来装置のように、8方向に対して探索的に関
心領域を認識するものではないから、関心領域の内/外
の判定の回数が大幅に減少し、しかもその判定自体が従
来力°式よりも簡単であることから、関心領域の認識を
高速に行うことができる。例えば、基点移動の軌跡が円
である場合、従来方式によれば、8xπr2×2である
のに対し、本実施例装置の場合には2πrとなり、結果
的に8r対1の速度差となるから、半径rに比例して!
am速度差が広がることになる。
In this way, the device of this embodiment calculates the coordinate value of each pixel in the trajectory of the base point movement, creates a movement vector for each pixel, rearranges this, and then The system recognizes the area surrounded by the trajectory of the base point movement based on the angle of intersection with each movement vector, and does not recognize the area of interest in an exploratory manner in eight directions, unlike conventional devices. Therefore, the number of times of determining whether the region of interest is inside or outside the region of interest is greatly reduced, and the determination itself is simpler than the conventional force type, so that the region of interest can be recognized at high speed. For example, if the trajectory of the base point movement is a circle, according to the conventional method, it is 8xπr2x2, but in the case of the device of this embodiment, it is 2πr, resulting in a speed difference of 8r to 1. , in proportion to the radius r!
The am speed difference will widen.

以上、本発明の一実施例について説明したが、本発明は
上記実施例に限定されるものではなく、本発明の要旨の
範囲内で適宜に変形実施が可能であるのはいうまでもな
い。
Although one embodiment of the present invention has been described above, it goes without saying that the present invention is not limited to the above-mentioned embodiment, and can be modified as appropriate within the scope of the gist of the present invention.

[発明の効果] 以上詳述したように本発明によれば、トラッカボール等
の入力手段により設定された関心領域のm識を高速に行
うことのできる関心領域認識装置を提供することができ
る。
[Effects of the Invention] As described in detail above, according to the present invention, it is possible to provide a region of interest recognition device that can quickly identify a region of interest set by an input means such as a tracker ball.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明の一実施例たる関心領域認識装置のブロ
ック図、第2図は第1図に示す実施例装置の作用を説明
するためのフローチャート、第3図(a)、(b)及び
第4図(a)、(b)はそれぞれ第1図における第1及
び第2のベクトル格納用メモリの記憶内容の一例を示す
説明図、第5図は第1図における第1の演算手段の作用
を説明するためのフローチャート、第6図(a)、(b
)、(c)、(d)は無効点を示す説明図、第7図は第
1図における第3の演算手段の作用を説明するためのノ
ロ−チャート、第8図(a)、(b)及び第9図(a)
、(b)並びに第10図(a)。 (b)は上記第3の演算手段の作用を説明するための説
明図、第11図は画像処理装置の一例を示すブロック図
、第12図は第11図における関心領域Wjtm@Mの
従来例を示すブロック図である。 4−1−ラッカボール(入力手段)、 16・・・第1の演算手段、18・・・第2の演算手段
、20−・・第3の演算手段。 CG ’j (b) (d) 第8図 (b) (b)
FIG. 1 is a block diagram of a region of interest recognition device according to an embodiment of the present invention, FIG. 2 is a flowchart for explaining the operation of the embodiment device shown in FIG. 1, and FIGS. 3(a) and (b) 4(a) and 4(b) are explanatory diagrams showing examples of the storage contents of the first and second vector storage memories in FIG. 1, respectively, and FIG. 5 is an explanatory diagram showing an example of the storage contents of the first and second vector storage memories in FIG. Flowchart for explaining the action of FIG. 6(a),(b)
), (c), and (d) are explanatory diagrams showing invalid points, FIG. 7 is a noro chart for explaining the action of the third calculation means in FIG. ) and Figure 9(a)
,(b) and FIG. 10(a). (b) is an explanatory diagram for explaining the operation of the third calculation means, FIG. 11 is a block diagram showing an example of an image processing device, and FIG. 12 is a conventional example of the region of interest Wjtm@M in FIG. 11. FIG. 4-1-Racker ball (input means), 16--first calculation means, 18--second calculation means, 20--third calculation means. CG 'j (b) (d) Figure 8 (b) (b)

Claims (2)

【特許請求の範囲】[Claims] (1)入力手段の操作による基点移動の軌跡で囲まれた
領域を関心領域として認識し、画像処理に供する関心領
域認識装置において、前記基点移動の軌跡における各ピ
クセル毎の座標値を算出すると共に、各ピクセル毎の移
動ベクトルを作成する第1の演算手段と、この第1の演
算手段の出力を並べ替える第2の演算手段と、この第2
の演算手段の出力より各ピクセル毎の移動ベクトルと水
平線との交差角度を得ると共に、この交差角度より、前
記基点移動の軌跡で囲まれた領域の内外を判別すること
により、該領域内の全ピクセルを認識する第3の演算手
段とを具備することを特徴とする関心領域認識装置。
(1) In a region of interest recognition device that recognizes as a region of interest the area surrounded by the trajectory of the base point movement by operating the input means and performs image processing, the coordinate value of each pixel in the trajectory of the base point movement is calculated, and , a first calculation means for creating a movement vector for each pixel, a second calculation means for rearranging the outputs of the first calculation means, and a second calculation means for rearranging the outputs of the first calculation means.
The intersection angle between the movement vector and the horizontal line for each pixel is obtained from the output of the calculation means, and from this intersection angle, it is determined whether the area is inside or outside the area surrounded by the locus of the base point movement. A region of interest recognition device comprising: third calculation means for recognizing pixels.
(2)前記第1の演算手段は、前記第3の演算手段の判
別において無効となる移動ベクトルを予め排除するもの
である特許請求の範囲第1項に記載の関心領域認識装置
(2) The region of interest recognition device according to claim 1, wherein the first calculation means eliminates in advance movement vectors that are invalid in the determination made by the third calculation means.
JP59263514A 1984-12-13 1984-12-13 Region of interest recognizer Expired - Lifetime JPH0650518B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP59263514A JPH0650518B2 (en) 1984-12-13 1984-12-13 Region of interest recognizer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP59263514A JPH0650518B2 (en) 1984-12-13 1984-12-13 Region of interest recognizer

Publications (2)

Publication Number Publication Date
JPS61141081A true JPS61141081A (en) 1986-06-28
JPH0650518B2 JPH0650518B2 (en) 1994-06-29

Family

ID=17390587

Family Applications (1)

Application Number Title Priority Date Filing Date
JP59263514A Expired - Lifetime JPH0650518B2 (en) 1984-12-13 1984-12-13 Region of interest recognizer

Country Status (1)

Country Link
JP (1) JPH0650518B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2752620A1 (en) * 1996-08-21 1998-02-27 Smv Int Gamma-ray image acquisition device for medical applications
JP2012005714A (en) * 2010-06-25 2012-01-12 Toshiba Corp Ultrasonograph, ultrasonic image processor and medical image processor
JP2015057108A (en) * 2014-11-17 2015-03-26 株式会社東芝 Ultrasonic diagnostic apparatus, ultrasonic image processor, medical diagnostic imaging apparatus and medical image processor

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2752620A1 (en) * 1996-08-21 1998-02-27 Smv Int Gamma-ray image acquisition device for medical applications
JP2012005714A (en) * 2010-06-25 2012-01-12 Toshiba Corp Ultrasonograph, ultrasonic image processor and medical image processor
JP2015057108A (en) * 2014-11-17 2015-03-26 株式会社東芝 Ultrasonic diagnostic apparatus, ultrasonic image processor, medical diagnostic imaging apparatus and medical image processor

Also Published As

Publication number Publication date
JPH0650518B2 (en) 1994-06-29

Similar Documents

Publication Publication Date Title
US20230252670A1 (en) Method for detecting hand key points, method for recognizing gesture, and related devices
CN107220995B (en) Improved method of ICP (inductively coupled plasma) rapid point cloud registration algorithm based on ORB (object-oriented bounding Box) image features
CN111680594B (en) Gesture recognition-based augmented reality interaction method
US20220301295A1 (en) Recurrent multi-task convolutional neural network architecture
CN107450714A (en) Man-machine interaction support test system based on augmented reality and image recognition
US4941111A (en) Video picking and clipping method and apparatus
JPH0528873B2 (en)
Si et al. Hand-raising gesture detection in real classrooms using improved R-FCN
CN106780704B (en) The direct lighting effect proximity rendering method of three-dimensional scenic reused based on visibility
CA1319996C (en) Method and apparatus for decomposing a quadrilateral figure for display and manipulation by a computer system
JPS61141081A (en) Interesting area recognizer
Zoev et al. Convolutional neural networks of the YOLO class in computer vision systems for mobile robotic complexes
Shashev Image processing in intelligent medical robotic systems
JPH03119387A (en) Method and apparatus for forming contour of digital type surface
CN113989374A (en) Method, device and storage medium for object positioning under discontinuous observation conditions
JPH0498367A (en) Three-dimensional shape generation system
US20230290065A1 (en) Digital garment generation
JPS642953B2 (en)
CN115115758B (en) Method, intersection testing device and medium for determining intersection in ray tracing system
JPH01126774A (en) Graphic input device
Du et al. A rapid oriented detection method of virtual components for augmented assembly
JP2017033359A (en) Image recognition device
US8363053B2 (en) Method and apparatus for rendering outline of multimedia character image
Yu et al. Skeleton-based human activity analysis using deep neural networks with adaptive representation transformation
Chunilal Object Detection and Recognition for Multiple Packing Items Using a Deep Learning YOLO Algorithm