JPH04148283A - Separation processing method for mobile object by clustering - Google Patents
Separation processing method for mobile object by clusteringInfo
- Publication number
- JPH04148283A JPH04148283A JP2270176A JP27017690A JPH04148283A JP H04148283 A JPH04148283 A JP H04148283A JP 2270176 A JP2270176 A JP 2270176A JP 27017690 A JP27017690 A JP 27017690A JP H04148283 A JPH04148283 A JP H04148283A
- Authority
- JP
- Japan
- Prior art keywords
- clustering
- pixel
- optical flow
- objects
- moving
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title claims description 3
- 238000000926 separation method Methods 0.000 title description 2
- 230000003287 optical effect Effects 0.000 claims abstract description 48
- 238000000034 method Methods 0.000 claims description 28
- 230000033001 locomotion Effects 0.000 claims description 17
- 238000000605 extraction Methods 0.000 claims description 6
- 238000010586 diagram Methods 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 239000000284 extract Substances 0.000 description 4
- 230000005484 gravity Effects 0.000 description 4
- 238000002372 labelling Methods 0.000 description 3
- 230000002123 temporal effect Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- FFBHFFJDDLITSX-UHFFFAOYSA-N benzyl N-[2-hydroxy-4-(3-oxomorpholin-4-yl)phenyl]carbamate Chemical compound OC1=C(NC(=O)OCC2=CC=CC=C2)C=CC(=C1)N1CCOCC1=O FFBHFFJDDLITSX-UHFFFAOYSA-N 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 230000009012 visual motion Effects 0.000 description 1
Landscapes
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
【発明の詳細な説明】
〔概 要]
本発明は1画像に写し出されている物体の時間的な動き
に対応するオプティカル・フローを抽出し、移動物体ご
との動きを分離して判定するようにしたクラスタリング
による移動物体の分離処理方法に関し
画像上で複数の物体が重なって表示されていた場合にで
も2個々の物体を識別できるようにすることを目的とし
画像上の画素ごとのオプティカル・フローを抽出するオ
プティカル・フロー抽出処理過程と。[Detailed Description of the Invention] [Summary] The present invention extracts an optical flow corresponding to the temporal movement of an object shown in one image, and separates and determines the movement of each moving object. Regarding the separation processing method of moving objects using clustering, we aim to identify two individual objects even when multiple objects are displayed overlapping each other on an image. Optical flow extraction processing process.
得られたオプティカル・フローについて速度空間上でク
ラスタリングするクラスタリング処理過程と。a clustering process for clustering the obtained optical flows in velocity space;
クラスタリングされたオプティカル、フロー群に対応し
て画素にラベルを与える画素とりまとめ処理過程と
同一ラベルを与えられた画素に対応して移動物体を抽出
する画素群出力処理過程と
をもつよう構成する。The present invention is configured to have a pixel grouping process that gives labels to pixels corresponding to clustered optical and flow groups, and a pixel group output process that extracts moving objects corresponding to pixels that have been given the same label.
本発明は1画像に写し出されている物体の時間的な動き
に対応するオプティカル・フローを抽出し、移動物体ご
との動きを分離して判定するようにしたクラスタリング
による移動物体の分離処理方法に関する。The present invention relates to a method for separating moving objects using clustering, which extracts optical flows corresponding to temporal movements of objects depicted in one image, and separates and determines the movements of each moving object.
画像からの動きの違いによって物体を分離することは、
FA(ファクトリ−オートメーション)のロボットアイ
や、無人で走行する自動車に用いる物体識別などにとっ
て必須の技術である。Separating objects by their differences in motion from an image is
This technology is essential for robot eyes in factory automation (FA) and object identification for unmanned vehicles.
画像から移動物体を分離することは、与えられた動画像
から動きの違いによって画像内の物体を分離することで
ある0例えば、第1O図に示す画像が入力として与えら
れた場合においては、r円は右上に移動している。1つ
の長方形は上に移動している。もう一つの長方形は右に
移動しているjという出力を得ることである。Separating a moving object from an image is to separate the objects in the image from a given moving image based on the difference in motion.For example, when the image shown in Figure 1O is given as input, r The circle has moved to the upper right. One rectangle is moving up. Another rectangle is to get the output j moving to the right.
ここで、第1O図内の矢印は各画素毎における画像間で
の動き(オプティカル・フロー)を表わしたものである
。オプティカル・フローの算出方式は公知技術である。Here, the arrows in FIG. 1O represent the movement (optical flow) between images for each pixel. The optical flow calculation method is a known technique.
実際にはすべての画素に対して密に求まるが1間引いて
表示しである。またオプティカル・フローの算出にはか
なりの誤差がともなう。In reality, all pixels are densely calculated, but they are displayed after being thinned out by one. Furthermore, calculation of optical flow involves a considerable amount of error.
従来技術においては、オプティカル・フローの算出誤差
を回避するため、ラベリングという手法を用いてあらか
しめ各物体を分離しておき、物体毎にオプティカル・フ
ローを平均化して処理を行っていた。第11図は処理結
果を示す。In the conventional technology, in order to avoid calculation errors in optical flow, a method called labeling is used to roughly separate each object, and processing is performed by averaging the optical flow for each object. FIG. 11 shows the processing results.
第11図に示す如く1画像上で重なってみえる物体につ
いては、上記ラベリングによっては分離できない、この
ために、第11図における如く円に関しては正しく右上
に移動していると算出されているが1重なっている2つ
の長方形は1つの物体として扱われており、全体として
右上に移動している。と間違って算出されている。Objects that appear to overlap on one image as shown in Figure 11 cannot be separated by the above labeling.For this reason, the circle in Figure 11 is calculated to have moved to the upper right, but 1 The two overlapping rectangles are treated as one object, and are moved as a whole to the upper right. is calculated incorrectly.
このように、ラベリングを用いた従来技術においては1
重なった物体に関して動きによる物体の分離を行うこと
ができなかった。In this way, in the conventional technology using labeling, 1
It was not possible to separate objects by movement regarding overlapping objects.
本発明は3画像上で複数の物体が重なって表示されてい
た場合にでも1個々の物体を識別できるようにすること
を目的としている。An object of the present invention is to enable individual objects to be identified even when a plurality of objects are displayed overlappingly on three images.
第1図は本発明の原理構成図を示す0図中の符号IA、
IBは夫々画像であって時間的にずれた状態での画像を
表わしている。2は円形体、また3、4は夫々長方形体
の夫々像を表わしている。FIG. 1 shows the principle configuration diagram of the present invention, and the reference numeral IA in FIG.
Each IB is an image and represents an image in a temporally shifted state. 2 represents a circular object, and 3 and 4 each represent an image of a rectangular object.
処理■ニオブティカル・フロー抽出処理過程101であ
って、iI像IAとIBとの差にもとづいて画像上のい
わばすべての画素についてのオプティカル・フローを抽
出する(すべての画素でなくてもよいが処理対象の画素
が平均化されかつ密に選択される)。Processing ■Niobtical flow extraction processing step 101, in which the optical flow for all pixels on the image is extracted based on the difference between the iI images IA and IB (although it does not have to be for all pixels). (the pixels to be processed are averaged and densely selected).
処理■:クラスタリング処理過程102であって。Processing ■: Clustering processing step 102.
上記得られたクラスタリングについて、速度空間上でク
ラスタリングを行う、即ち、今の場合52次元面上での
動きを考えるとすると、XY軸平面上で、各オプティカ
ル・フローを表わす矢印の尖端をプロットすることによ
って、グループ化する。Regarding the clustering obtained above, clustering is performed on the velocity space. In other words, in this case, considering the movement on a 52-dimensional plane, the tips of the arrows representing each optical flow are plotted on the XY-axis plane. By grouping.
処理■:8画素りまとめ処理過程103であって。Processing ■: 8-pixel grouping processing step 103.
グループ化されたオプティカル・フロー群に対応した画
素にラベルを与える。Labels are given to pixels corresponding to the grouped optical flows.
処理■:yti素群出力処理過程104であって、同一
ラベルを与えられた画素に対応する移動物体を他の移動
物体と区別して抽出する。図示の長方形体3と4とは、
長方形体3が上方に移動し。Process (2): yti prime group output processing step 104, in which moving objects corresponding to pixels given the same label are extracted while being distinguished from other moving objects. The illustrated rectangular bodies 3 and 4 are:
Rectangular body 3 moves upward.
長方形体4が右方向に移動しているものとして区別して
抽出される。The rectangular body 4 is distinguished and extracted as moving to the right.
円形体2や長方形体3,4に対応する画素ごとに1画像
IAとIBとを対応づけてオプティカル・フローを得る
(処理■)。An optical flow is obtained by associating one image IA and IB for each pixel corresponding to the circular body 2 and the rectangular bodies 3 and 4 (process ①).
円形体2に対応する画素に関しては1図示の例の場合に
は斜右上方向のオプティカル・フローが得られる(矢印
で表わすと斜右上方向のものとなる)、長方形体3に対
応する画素に関しては、上方向のオプティカル・フロー
が得られる。長方形体4に対応する画素に関しては、右
方向のオプティカル・フローが得られる(処理■)。For the pixel corresponding to the circular body 2, in the example shown in Figure 1, an optical flow is obtained in the diagonally upper right direction (represented by an arrow, it is in the diagonally upper right direction), and for the pixel corresponding to the rectangular body 3, an optical flow is obtained. , an upward optical flow is obtained. For the pixels corresponding to the rectangular body 4, a rightward optical flow is obtained (processing ■).
矢印で表わされた各オプティカル・フローを。Each optical flow is represented by an arrow.
XY軸平面上で矢印の尖端をプロットすることによって
表示すると1円形体2の画素に対応するプロットは、X
軸に対して略45@の線に対応した領域に分散する。ま
た長方形体3の画素に対応するプロットはY軸上に対応
した領域に分散する。When displayed by plotting the tip of the arrow on the XY axis plane, the plot corresponding to the pixel of 1 circular body 2 is
It is distributed in an area corresponding to a line approximately 45@ with respect to the axis. Further, the plots corresponding to the pixels of the rectangular body 3 are distributed in corresponding regions on the Y axis.
同様に長方形体4の画素に対応するプロットはX軸上に
対応した領域に分散する。これによって。Similarly, the plots corresponding to the pixels of the rectangular body 4 are distributed in corresponding regions on the X axis. by this.
各グループ化された画素が得られ、同一グループ内の画
素には同一ラベルを与える(処理■)。Each grouped pixel is obtained, and the same label is given to the pixels in the same group (processing ■).
同一ラベルを与えられた画素に対応する物体を判定し、
当該物体を構成する各画素ごとのオプティカル・フロー
を例えば平均し、当該物体に対応す°る動きとして決定
する(ij素群出力処理過程)。Determine the object corresponding to the pixel given the same label,
For example, the optical flow for each pixel constituting the object is averaged and determined as the motion corresponding to the object (ij element group output processing process).
与えられた動画像から、オプティカル・フローを算出す
る方法は公知技術である。詳細については。A method of calculating optical flow from a given moving image is a known technique. For more information.
Hildreth、 E、C,、The 5eas
uresent of VisualMotion
、 MIT Press、 Cambridge+ M
ass、+ 1984゜(ヒルドレス、 E、 C
,著、視覚的な動きの測定マサチューセッツ工科大学出
版局ケンプリッチ。Hildreth, E.C., The 5eas
uresent of VisualMotion
, MIT Press, Cambridge+M
ass, + 1984° (Hildreth, E, C
, Author, Measuring Visual Movement Kemprich, Massachusetts Institute of Technology Press.
マス語列、 1984)
を参照されたい、ただし、正確にはオプティカル・フロ
ーとは、各画素毎に(Vx、Vy)などというベクトル
の形で与えられるべきものである。However, to be precise, the optical flow should be given in the form of a vector such as (Vx, Vy) for each pixel.
次に、クラスタリングについて説明する。これは、統計
学上の手法であり、誤差を含む観測データをいくつかの
クラスに分類する手法の総称である。もっとも簡単な例
としては、おもちゃの積木をその形によって2つの箱に
わけて入れるようなこともクラスタリングの1つである
。Next, clustering will be explained. This is a statistical method, and is a general term for methods for classifying observed data containing errors into several classes. The simplest example is dividing toy blocks into two boxes based on their shape, which is one type of clustering.
例えば第1O図において、各物体上の画素に対応づけて
、オプティカル・フローを矢印で表わしているが、当該
各矢印を第2図図示の如<、 XY軸平面上で矢印の
尖端をプロットする。オプティカル・フローが物体の移
動速度に対応していることから、当該プロットを行うこ
とを称して速度空間上でクラスタリングすると呼ぶこと
にする。For example, in Figure 1O, optical flow is represented by arrows in correspondence with pixels on each object, but each arrow is plotted on the XY-axis plane as shown in Figure 2. . Since the optical flow corresponds to the moving speed of the object, the process of plotting this will be referred to as clustering in the velocity space.
第2図図示の如くプロットされた状態で、略同じ領域内
に存在すると考えられるプロット点をまとめて群をつく
る。第3図はこの状態を表わしており、各オプティカル
・フローに対応したプロット点にラベルを与えている。In the plotted state shown in FIG. 2, plot points that are considered to exist in approximately the same area are grouped together. FIG. 3 represents this situation, and labels are given to plot points corresponding to each optical flow.
このことは2画素にラベルを与えることと同じことであ
る。This is the same as giving labels to two pixels.
第4図はiij素にラベルを与えられた状態を表わして
いる。第4図図示の如く、同一ラベルを付された画素に
対応する物体2.3.4が夫々別々の物体として識別さ
れる。FIG. 4 shows a state in which labels are given to element iij. As shown in FIG. 4, objects 2.3.4 corresponding to pixels with the same label are identified as separate objects.
第5図および第6図は物体の動きを表わす画像を出力す
る処理を説明する図である。FIGS. 5 and 6 are diagrams for explaining the process of outputting an image representing the movement of an object.
第4図図示の如く同しラベルを付された画素についての
重心位置を求めて、第5図図示の如く当該重心位置に該
当するラベルを記述しておく。As shown in FIG. 4, the center of gravity of pixels with the same label is determined, and a label corresponding to the center of gravity is written as shown in FIG.
方、上記の如く同しラベルを付された画素についてのオ
プティカル・フローの平均値を計算する。On the other hand, as described above, the average value of the optical flow for the pixels with the same label is calculated.
そして、第6図図示の如く9分離された物体23.4に
対応して、上記夫々の重心位置から上記平均値に相当す
る矢印をつけて表示するようにする。Then, as shown in FIG. 6, arrows corresponding to the average values are displayed from the center of gravity of each object 23.4 separated by nine.
勿論、上記平均値を計算する代わりに、最大のオプティ
カル・フローを与える矢印を上記重心位置に付けて表示
するようにしてもよい。Of course, instead of calculating the average value, an arrow giving the maximum optical flow may be displayed at the center of gravity position.
以下、オプティカル・フローの抽出と、クラスタリング
の方法とについて、より具体的に説明すなお、オプティ
カル・フローの抽出については例えば、「新技術]ミュ
ニケーションズ出版・別冊Q plus E (オープ
ラスイー)画像処理アルゴリズムの最新動向」を参照さ
れたい、a像上の画素についてはその明るさを与えるデ
ータをもってその画素を代表させると、第7図図示の如
く2次元配列されたデータをもって画像が与えられる。The extraction of optical flows and the clustering method will be explained in more detail below. For the extraction of optical flows, for example, see "New Technology" Communications Publishing / Special Edition Q plus E Image Processing Algorithm If a pixel on an image a is represented by data that gives its brightness, an image is provided with two-dimensionally arranged data as shown in FIG. 7.
全第7図図示左側の画像を時間的に前のものとし右側の
画像を時間的に後のものとすると、この2つの画像から
オプティカル・フローが算出される。Assuming that the image on the left side of FIG. 7 is the earlier image in time, and the image on the right side is the later image in time, the optical flow is calculated from these two images.
そして、以下の手順でオプティカル・フローを算出する
ことができる。Then, the optical flow can be calculated using the following procedure.
(1)初期化:左上の原点を注目する画素とする(2)
演 算:現在注目している画素に対して5時間的に前の
画像の値と同じ値を持つ画素を時間的に後の画像から探
す。(1) Initialization: Set the origin at the top left as the pixel of interest (2)
Operation: Search for a pixel that has the same value as the value of the image 5 hours before the current pixel of interest from the image that is 5 hours later.
(3)書込み:現在注目している画素からいくつ移動し
たかを、X成分とY成分別々に表に書き込む
(4)移 動:現在注目している画素を一つ右に動かす
、右に行けないときは1−股下の左端へ移動する。ii
!j像の右下まで来たら終了する。(3) Write: Write the number of moves from the current pixel of interest in the table separately for the X and Y components. (4) Move: Move the current pixel of interest one step to the right, move to the right. If not, move to the left end of 1-crotch. ii
! It ends when you reach the bottom right of the J statue.
(5)ループ:再度、演算を行う
第8図は第7図図示のものに対して上記手順を行った結
果を表わしている。第8図図示の場合第7図図示左側の
図に示す値「20」をもつ画素に関して第7図図示右側
の図においてX軸方向に値「工」だけ移動していること
が示され、Y軸方向には移動していないことが示されて
いる。第7図図示の図に示す値「10」をもつ2つの画
素に関しても同様である。(5) Loop: Calculate again. FIG. 8 shows the result of performing the above procedure on the one shown in FIG. In the case shown in FIG. 8, it is shown that the pixel with the value "20" shown in the left side of FIG. It is shown that there is no movement in the axial direction. The same applies to the two pixels having the value "10" shown in the diagram shown in FIG.
このようにしてオプティカル・フローが各画素に対応し
て抽出される。In this way, optical flow is extracted corresponding to each pixel.
クラスタリングを行うに当っては、入力される各画素の
オプティカル・フコ−(v、、v、> を。When performing clustering, the optical fucoid (v,,v,>) of each input pixel is used.
(V、(1)、Vy(1))、 (Vll fil 、
y、 (!l )・・・・ (V、(−1、Vア(
″))とする場合1次の如く処理が行われる。即ち。(V, (1), Vy(1)), (Vll fil,
y, (!l)... (V, (-1, Va(
″)), the processing is performed as follows.
(6)初期化二番号を記憶する変数iを1にする。(6) Set the variable i that stores the initialization number to 1.
分 類されたクラスを記憶する領域を空にする。minutes Empty the area that stores categorized classes.
(7)演 算=i番目の入力(■、fll 、 V、
ill )に対して、それとの距離が指定された値よ
りも小さいクラスを探す、クラスと入力との距離は
■、(1)−今のクラス平均のX成分]2+V、 01
−今のクラス平均のY成分1χとする。(7) Operation = i-th input (■, full, V,
ill ), find a class whose distance from it is smaller than the specified value, the distance between the class and the input is ■, (1) - X component of current class average] 2 + V, 01
- Let the Y component of the current class average be 1χ.
(8)書込み:上の演算によりクラスがみつかった場合
には、i番目の入力をそのクラスに分類する。みつから
なかった場合には、新しいクラスを作成し51番目の入
力をその新しいクラスに分類する。(8) Writing: If a class is found by the above calculation, classify the i-th input into that class. If not found, a new class is created and the 51st input is classified into the new class.
(9)繰り返し:iがnであったら、終了する。そうで
ないときは、iの値を、I増して再度演算を行う。(9) Repeat: If i is n, end. If not, the value of i is increased by I and the calculation is performed again.
第9図は本発明を実施する一実施例構成を示す。FIG. 9 shows the configuration of an embodiment of the present invention.
図中の符号11は画像入力部であって画像を読込む、1
2はオプティカル・フロー算出部であって上記第7図お
よび第8図を参照して説明した如くオプティカル・フロ
ーを抽出する。13はクラスタリング部であって、上記
処理(6)ないしく9)に示した如き処理によってクラ
スタリングを行う、14は画素毎まとめ部であって、同
じラベルを付された画素をまとめる。15は表示部であ
って1例えば第6図を参照して説明した如く表示を行う
。Reference numeral 11 in the figure is an image input unit that reads an image.
Reference numeral 2 denotes an optical flow calculating section which extracts an optical flow as explained with reference to FIGS. 7 and 8 above. Reference numeral 13 denotes a clustering unit, which performs clustering by the processes shown in the above processes (6) to 9). Reference numeral 14 denotes a pixel-by-pixel grouping unit, which groups pixels with the same label. Reference numeral 15 denotes a display section 1, which performs display as described with reference to FIG. 6, for example.
以上説明した如く1本発明によれば、N像の上で重なっ
て表示されている物体についても1分離して識別しかつ
移動の状態を知ることが可能となる。As explained above, according to the present invention, it is possible to separately identify objects that are displayed overlappingly on N images and to know the state of movement.
第1図は本発明の原理構成図、第2図ないし第6図は本
発明における処理を説明する説明図、第7図および第8
図はオプティカル・フローに関する処理を説明する説明
図、第9図は本発明を実施する一実施例構成、第10図
および第11図は夫々従来技術を説明する説明図を示す
。
図中IA、IBは夫々画像、2は円形体、34は長方形
体、101はオプティカル・フロー抽出処理過程、10
2はクラスタリング処理過程、 103は画素とりま
とめ処理過程、104は画素群出力処理過程を表わす。FIG. 1 is a diagram showing the principle configuration of the present invention, FIGS. 2 to 6 are explanatory diagrams explaining the processing in the present invention, and FIGS.
9 is an explanatory diagram for explaining processing related to optical flow, FIG. 9 is an explanatory diagram for explaining the configuration of an embodiment of the present invention, and FIGS. 10 and 11 are explanatory diagrams for explaining the prior art, respectively. In the figure, IA and IB are images, 2 is a circular object, 34 is a rectangular object, 101 is an optical flow extraction process, 10
2 represents a clustering process, 103 represents a pixel grouping process, and 104 represents a pixel group output process.
Claims (3)
にずれた2つの画像にもとづいて、上記移動物体の動き
に対応したオプティカル・フローを抽出するよう構成し
、 物体ごとのオプティカル・フローを平均化して、当該物
体ごとの移動を決定する移動物体の判定処理方法におい
て、 上記画像上のすべての物体について当該物体に対応する
画素に対応して上記オプティカル・フローを抽出するオ
プティカル・フロー抽出処理過程(101)と、 当該抽出されたオプティカル・フローにもとづいて、速
度空間上で当該各オプティカル・フローをクラスタリン
グするクラスタリング処理過程(102)と、 上記速度空間上でクラスタリングされたオプティカル・
フロー群に対応した画素にラベルを与える、画素とりま
とめ処理過程(103)と、同一ラベルを与えられた画
素に対応する移動物体を他の移動物体と区別して抽出す
る画素群出力処理過程(104)と を逐次実行するようにした ことを特徴とするクラスタリングによる移動物体の分離
処理方法。(1) The system is configured to extract optical flows corresponding to the movement of the moving object based on two temporally shifted images in which the moving object is shown, and the optical flows for each object are averaged. In the moving object determination processing method in which the movement of each object is determined by determining the movement of each object, an optical flow extraction processing step of extracting the optical flow corresponding to the pixel corresponding to the object for all objects on the image. (101); a clustering process (102) for clustering each of the optical flows on the velocity space based on the extracted optical flows;
A pixel grouping process (103) in which labels are given to pixels corresponding to a flow group, and a pixel group output process (104) in which moving objects corresponding to pixels given the same label are extracted while being distinguished from other moving objects. A method for separating and processing moving objects by clustering, characterized in that the following steps are performed sequentially.
一ラベルを与えられた画素群について、当該画素ごとの
オプティカル・フローについての平均値を計算し、当該
平均値に対応する表示を当該画素群に対応づけて出力す
るようにしたことを特徴とする請求項(1)記載のクラ
スタリングによる移動物体の分離処理方法。(2) In the pixel group output processing step (104), the average value of the optical flow for each pixel is calculated for the pixel group given the same label, and the display corresponding to the average value is displayed for the pixel group. 2. The method of separating and processing moving objects by clustering according to claim 1, wherein the moving object is output in association with the clustering.
一ラベルを与えられた画素群について、当該画素ごとの
オプティカル・フローの中での最大値を抽出し、当該最
大値に対応する表示を当該画素群に対応づけて出力する
ようにしたことを特徴とする請求項(1)記載のクラス
タリングによる移動物体の分離処理方法。(3) In the pixel group output processing step (104), the maximum value in the optical flow for each pixel is extracted for the pixel group given the same label, and the display corresponding to the maximum value is 2. The method for separating moving objects by clustering according to claim 1, wherein the moving object is output in association with a pixel group.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2270176A JPH04148283A (en) | 1990-10-08 | 1990-10-08 | Separation processing method for mobile object by clustering |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2270176A JPH04148283A (en) | 1990-10-08 | 1990-10-08 | Separation processing method for mobile object by clustering |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH04148283A true JPH04148283A (en) | 1992-05-21 |
Family
ID=17482587
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2270176A Pending JPH04148283A (en) | 1990-10-08 | 1990-10-08 | Separation processing method for mobile object by clustering |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH04148283A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0863601A (en) * | 1994-08-22 | 1996-03-08 | Nec Corp | Method and device for dividing area |
JP2013210942A (en) * | 2012-03-30 | 2013-10-10 | Fujitsu Ten Ltd | Detection device and detection method |
WO2019116517A1 (en) * | 2017-12-14 | 2019-06-20 | オリンパス株式会社 | Image processing device and image processing method |
JP2022177147A (en) * | 2018-10-03 | 2022-11-30 | ホーチキ株式会社 | Smoke detection device and smoke identification method |
-
1990
- 1990-10-08 JP JP2270176A patent/JPH04148283A/en active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0863601A (en) * | 1994-08-22 | 1996-03-08 | Nec Corp | Method and device for dividing area |
JP2013210942A (en) * | 2012-03-30 | 2013-10-10 | Fujitsu Ten Ltd | Detection device and detection method |
WO2019116517A1 (en) * | 2017-12-14 | 2019-06-20 | オリンパス株式会社 | Image processing device and image processing method |
US11164320B2 (en) | 2017-12-14 | 2021-11-02 | Olympus Corporation | Image processing apparatus and method for appropriately synthesizing a plurality of images using projection transform matrix calculation |
JP2022177147A (en) * | 2018-10-03 | 2022-11-30 | ホーチキ株式会社 | Smoke detection device and smoke identification method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107194559B (en) | Workflow identification method based on three-dimensional convolutional neural network | |
Poirson et al. | Fast single shot detection and pose estimation | |
CN111886600B (en) | Apparatus and method for instance level segmentation of images | |
US6556692B1 (en) | Image-processing method and apparatus for recognizing objects in traffic | |
Tsuji et al. | Tracking and segmentation of moving objects in dynamic line images | |
CN112446363A (en) | Image splicing and de-duplication method and device based on video frame extraction | |
EP3213297B1 (en) | System for real-time moving target detection using vision based image segmentation | |
CN111667005B (en) | Human interactive system adopting RGBD visual sensing | |
CN102222341A (en) | Method and device for detecting motion characteristic point and method and device for detecting motion target | |
CN106845338B (en) | Pedestrian detection method and system in video stream | |
CN110176028B (en) | Asynchronous corner detection method based on event camera | |
Wiesmann et al. | Event-driven embodied system for feature extraction and object recognition in robotic applications | |
Budvytis et al. | Large scale joint semantic re-localisation and scene understanding via globally unique instance coordinate regression | |
CN115375736A (en) | Image-based pedestrian trajectory tracking method and device | |
Pumrin et al. | Roadside camera motion detection for automated speed measurement | |
JPH04148283A (en) | Separation processing method for mobile object by clustering | |
Nandashri et al. | An efficient tracking of multi object visual motion using Hungarian method | |
CN116205973A (en) | Laser point cloud continuous frame data labeling method and system | |
CN112258575B (en) | Method for quickly identifying object in synchronous positioning and map construction | |
WO2021192024A1 (en) | Work management device and work status determination method | |
CN112150507B (en) | 3D model synchronous reproduction method and system for object posture and displacement | |
Jain et al. | Abnormal behaviour detection at traffic junctions using Lucas Kanade and Harris Corner detector | |
CN110736465B (en) | Navigation method, navigation device, robot and computer readable storage medium | |
Somani et al. | Scene perception and recognition in industrial environments for human-robot interaction | |
CN113837143A (en) | Action recognition method |