JP2004021888A - Object extraction method - Google Patents

Object extraction method Download PDF

Info

Publication number
JP2004021888A
JP2004021888A JP2002179494A JP2002179494A JP2004021888A JP 2004021888 A JP2004021888 A JP 2004021888A JP 2002179494 A JP2002179494 A JP 2002179494A JP 2002179494 A JP2002179494 A JP 2002179494A JP 2004021888 A JP2004021888 A JP 2004021888A
Authority
JP
Japan
Prior art keywords
block
blocks
image
coordinates
points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002179494A
Other languages
Japanese (ja)
Inventor
Yoshiaki Inaba
稲葉 佳秋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Meidensha Corp
Meidensha Electric Manufacturing Co Ltd
Original Assignee
Meidensha Corp
Meidensha Electric Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Meidensha Corp, Meidensha Electric Manufacturing Co Ltd filed Critical Meidensha Corp
Priority to JP2002179494A priority Critical patent/JP2004021888A/en
Publication of JP2004021888A publication Critical patent/JP2004021888A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To extract an object from an image automatically and correctly. <P>SOLUTION: The method divides an image into blocks (S1), scans the image blocks beginning with the upper left corner of the image (S2), classifies the blocks into two types of edge blocks, that is, blocks with two-directional edges and blocks with one-directional edges (S4, S5, S6), and determines the block, which occurs first during block scanning, as a starting block (S7). The method evaluates one of the change points of the starting block and the remaining change points to determine the direction in which the blocks forming the outline of the object exist, and compares the difference of change points among neighboring blocks in the determined scan direction with the threshold value to determine the change point of the next block as the feature point of the object. By repeating the compairing process, the method extracts the object from the image. Whether to extract the object is also determined based on the motion vector of the feature points of the extracted object. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、画像中のオブジェクト抽出方法に関する。
【0002】
【従来の技術】
画像符号化の技術として、MPEG−2に比べて、より圧縮度を高めると共にマルチメディアに対応できるよう、映像をコンテンツ単位でハンドリングできるようにしたMPEG−4が標準化され、その中で規定されているオブジェクトごとに符号化を行う方法が高圧縮率を得るためには不可欠な技術となっている。そのために画像からオブジェクトをいかに正確に抽出することができるかが重要な点である。
【0003】
【発明が解決しようとする課題】
現在、画像からオブジェクトを抽出する方法は、MPEG−4でも具体的には規定されてなく、人の手で行っているのが現状である。すなわち、オブジェクト抽出が自動化されていないため、リアルタイムでの処理も不可能となり、汎用性に乏しいものになってしまう。
【0004】
本発明の目的は、画像中のオブジェクトを自動的かつ正確に抽出できるようにしたオブジェクト抽出方法を提供することにある。
【0005】
【課題を解決するための手段】
本発明は、前記の課題を解決するため、画像中のエッジを検出し、オブジェクトの軌跡を描いていくことでオブジェクトを抽出し、そのオブジェクトに対して、動きベクトルを基にその抽出の可否を判断するようにしたもので、以下の方法を特徴とする。
【0006】
(1)画像中のオブジェクトを自動的に抽出する方法であって、
画像を一様な大きさのブロックに分割する過程と、
前記分割されたブロックをスキャンしていき、各ブロックについて2方向のエッジが入っている第1のブロックと、1方向のみのエッジが入っている第2のブロックとの2種類のエッジブロックに分類する過程と、
前記第1のブロックに対しては3つの変化点の座標を求め、前記第2のブロックに対しては2つの変化点の座標を求める過程と、
前記ブロックのスキャンで最も早く現れたブロックを起点ブロックとし、この起点ブロックの1つの変化点と残りの変化点との評価からオブジェクトの輪郭を形成するブロックが存在する方向を決定する過程と、
前記決定されたスキャン方向における隣接ブロック間の変化点の差分としきい値との大小比較で、次ブロックの変化点をオブジェクトの特徴点として決定する過程と、
を繰り返すことで、画像中のオブジェクトを抽出することを特徴とする。
【0007】
(2)前記評価は、
当該ブロック左上の座標とブロック内の変化点の座標を取得し、変化点の座標のうち、X軸の値がブロックの大きさと一致すれば隣接するブロック方向をX方向と判定し、一致しなければY軸の値がブロックの大きさと一致することで隣接するブロック方向をY方向と判定することを特徴とする。
【0008】
(3)前記抽出されたオブジェクトの各特徴点の動きベクトルを求め、大部分の特徴点の動きベクトルが同じ方向にあるか否かによって、オブジェクト抽出の可否の判断材料とすることを特徴とする。
【0009】
(4)前記特徴点の動きベクトルのうち、方向が異なる特徴点の動きベクトルは時間スパンを変えて判定することを特徴とする。
【0010】
【発明の実施の形態】
図1〜図3は、本発明の実施形態を示すオブジェクト抽出手順図である。以下、図4〜図9を参照して詳細に説明する。
【0011】
図1において、まず、図4に示すように、画像Gを大きさ16×16の一様なブロックに分割した画像BGを生成する(S1)。この画像BGを構成する各ブロックに左上からスキャンして行き、代表的な2種類のエッジブロックに分類する(S2)。
【0012】
この分類は、図5に示すように、エッジブロック1は、1つのブロックに2方向のエッジが入っているブロック、エッジブロック2は1つのブロックに1方向のみのエッジが入っているブロックである。それぞれのエッジブロック(エッジブロック1に対しては3点、エッジブロック2に対しては2点)ごとに輝度値の変化点がある。
【0013】
図6に示すように、エッジブロック1に対しては輝度値の変化点α(X1,Y1)、β(X2,Y2)、γ(X3,Y3)を求め、座標αを起点座標Aとして決定する。
【0014】
次に、起点座標Aから右のブロックにスキャンを進める。このブロックに対して、エシジブロック1かエッジブロック2の識別を行い(S3)、各エッジブロックについて、同様に輝度値の変化点の座標を計算する(S4,S5)。例えば、図6のエッジブロック2には座標δ(X3,Y3)、ε(X4,Y4)とする。更に、同様に順次スキャンを進めて変化点の座標をエッジブロックごとに計算していく(S6)。
【0015】
これにより、スキャンが画像右下で完了するまでにエッジブロックには、それぞれ変化点の座標が与えられる。
【0016】
最後に、スキャン後、最も早く現れたブロックを起点ブロックとし起点座標A点を決定する(S7)。
【0017】
次に、図2は、画像中の特徴点の抽出処理を示す。まず、起点ブロック中の起点座標Aに対する変化点β、γの評価を行い、X,Yのいずれの方向にエッジブロックが存在するかを決定する(S11)。この評価手法は後に図3で説明する。
【0018】
エッジブロックが存在する方向がX方向であれば、起点ブロックからX方向にエッジブロックの軌跡を求めていく。起点ブロック中、X座標のもっとも大きなβ(X2,Y2)と次ブロックのX座標がもっとも小さな座標δ(X4,Y4)の差分を計算し、あるしきい値Th1以内に収まっていることを確認する(S12)。上記の場合、X2+1=X4,Y2=Y4となることが期待される。
【0019】
同様に、エッジブロックが存在する方向がY方向であれば、起点ブロックからY方向にエッジブロックの軌跡を求めていき、その差分がしきい値Th1以内に収まっていることを確認する(S13)。
【0020】
次に、起点ブロックに対して、XまたはY方向の次ぎブロックのδ点とε点の差分を求め、この差分があるしきい値Th2との大小をチェックする(S14)。このチェックで、差分があるしきい値Th2以下の場合は、ε点を次の比較のための座標とする(S16)。しきい値Th2より大きくなっている場合は、δ点を軌跡の特徴点Bとして保持しておき、ε点を次の比較のための座標とする(S15)。
【0021】
同様に、次ぎブロックにおいて、δ点とε点のX方向の座標の差分を取り、ブロックの大きさ(ここでは16)より小さかったらスキャン方向をY方向に変更する。大きければ同様にX方向(右方向)にスキャンする。これを繰り返していくことで、各エッジブロック部の特徴点を得ることができる。これらの特徴点を直線にて結ぶことでオブジェクトの抽出が可能となる。このようなスキャンで抽出された特徴点A〜Pの軌跡として抽出されたオブジェクトの例を図7に示す。
【0022】
前記の画像ブロックの変化点に対する評価手法を説明する。図3において、判定回数i=1と初期設定し(S21)、判定回数iが4よりも小さい、つまり最大3方向の変化点を限度とし(S22)、まずブロック左上の座標(XL,YL)として変化点の座標(Xi,Yi)を取得する(S23)。
【0023】
この座標(Xi,Yi)のうち、X軸の値Xi=XL+16か否かをチェックし(S24)、一致すればエッジブロック方向をX方向とする(S25)。一致しなければ、Y軸の値Yi=YL+16か否かをチェックし(S26)、一致しなければ次の判定に戻り(S27)、一致すればエッジブロック方向をY方向とする(S28)。
【0024】
次に、図7における、オブジェクトの抽出結果で得られた各特徴点A〜Pまでの16点に対して、動きベクトルを算出する。この動きベクトルが全くランダムな方向を向いていたら、オブジェクト抽出の失敗となる。また、1点または2点が違った方向を向いていた場合、その近辺のブロックを更に細かく分離すればオブジェクトの抽出をより正確に行うことができる。
【0025】
動きベクトルは、図8のようになり、そのうち、オブジェクト中の何点かについて求める。これら動きベクトルのうち、ある部分の動きベクトルが他の部分と少し違った動きをしている場合は、その部分の動きベクトルを詳しく調べる必要はある。この部分(図8の例では、車のタイヤの部分)は、短い時間スパンで見た場合、図9に示すように複雑な動きをしているが、長い時間スパンで見れば、同じ方向を向いた動きベクトルであることが分かる。
【0026】
このように、動きベクトルを調べることで、エッジ情報を基にオブジェクト抽出した部分が、正しく抽出できていることを確認することができる。
【0027】
【発明の効果】
以上のとおり、本発明によれば、画像のオブジェクトを抽出する方法として、エッジ情報を利用してオブジェクトを抽出し、さらに抽出したオブジェクトの特徴点の動きベクトルによりそのオブジェクトの抽出の可否を判断するようにしたため、従来人手に頼っていたオブジェクトの抽出が自動的にかつ正確にできる効果がある。
【図面の簡単な説明】
【図1】本発明の実施形態を示すオブジェクト抽出手順(その1)。
【図2】本発明の実施形態を示すオブジェクト抽出手順(その2)。
【図3】本発明の実施形態を示すオブジェクト抽出手順(その3)。
【図4】画像を16×16の一様なブロックに分割する例。
【図5】エッジブロックの説明図。
【図6】エッジブロックの特徴点の説明図。
【図7】オブジェクトの抽出例。
【図8】オブジェクトの動きベクトルの方向例。
【図9】長い時間、短い時間スパンの動きベクトルの例。
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a method for extracting an object from an image.
[0002]
[Prior art]
As a technology of image encoding, MPEG-4, which can handle video in content units, has been standardized so as to increase the degree of compression and support multimedia, as compared with MPEG-2, and has been defined therein. A method of encoding each object is an indispensable technique for obtaining a high compression rate. Therefore, it is important how accurately the object can be extracted from the image.
[0003]
[Problems to be solved by the invention]
At present, a method of extracting an object from an image is not specifically defined in MPEG-4, and is currently performed manually. That is, since object extraction is not automated, real-time processing becomes impossible, resulting in poor versatility.
[0004]
An object of the present invention is to provide an object extraction method that can automatically and accurately extract an object in an image.
[0005]
[Means for Solving the Problems]
In order to solve the above-described problem, the present invention detects an edge in an image, extracts an object by drawing a locus of the object, and determines whether or not the object can be extracted based on a motion vector. This is characterized by the following method.
[0006]
(1) A method for automatically extracting an object in an image,
Dividing the image into blocks of uniform size;
The divided blocks are scanned, and each block is classified into two types of edge blocks: a first block having edges in two directions and a second block having edges in only one direction. The process of
Determining the coordinates of three transition points for the first block and determining the coordinates of two transition points for the second block;
Determining the direction in which the block forming the contour of the object exists from the evaluation of one change point and the remaining change points of the start block, the block appearing earliest in the scan of the block;
Determining the change point of the next block as a feature point of the object by comparing the difference between the change point between adjacent blocks in the determined scan direction and the threshold value;
Is repeated to extract the object in the image.
[0007]
(2) The evaluation is
The coordinates of the upper left corner of the block and the coordinates of the change point in the block are acquired. If the value of the X axis of the coordinates of the change point matches the size of the block, the direction of the adjacent block is determined to be the X direction. For example, when the value of the Y axis matches the size of the block, the adjacent block direction is determined to be the Y direction.
[0008]
(3) A motion vector of each feature point of the extracted object is obtained, and whether or not the motion vectors of most of the feature points are in the same direction is used as a material for determining whether or not the object can be extracted. .
[0009]
(4) Among the motion vectors of the feature points, a motion vector of a feature point having a different direction is determined by changing a time span.
[0010]
BEST MODE FOR CARRYING OUT THE INVENTION
1 to 3 are object extraction procedure diagrams showing the embodiment of the present invention. The details will be described below with reference to FIGS.
[0011]
In FIG. 1, first, as shown in FIG. 4, an image BG obtained by dividing the image G into uniform blocks of size 16 × 16 is generated (S1). Each block constituting the image BG is scanned from the upper left, and classified into two representative types of edge blocks (S2).
[0012]
In this classification, as shown in FIG. 5, edge block 1 is a block in which one block contains edges in two directions, and edge block 2 is a block in which one block contains edges in only one direction. . Each edge block (three points for edge block 1 and two points for edge block 2) has a change point in luminance value.
[0013]
As shown in FIG. 6, for the edge block 1, the change points α (X1, Y1), β (X2, Y2), and γ (X3, Y3) of the luminance value are obtained, and the coordinate α is determined as the starting point coordinate A. I do.
[0014]
Next, the scan proceeds from the starting point coordinates A to the right block. For this block, the edge block 1 or the edge block 2 is identified (S3), and the coordinates of the luminance value change point are similarly calculated for each edge block (S4, S5). For example, coordinates δ (X3, Y3) and ε (X4, Y4) are set for the edge block 2 in FIG. Further, similarly, the scanning is sequentially advanced to calculate the coordinates of the changing point for each edge block (S6).
[0015]
As a result, the coordinates of the change points are given to the edge blocks until the scan is completed at the lower right of the image.
[0016]
Lastly, the block appearing earliest after the scanning is set as the starting block, and the starting coordinate A is determined (S7).
[0017]
Next, FIG. 2 shows a process of extracting feature points in an image. First, the change points β and γ with respect to the starting point coordinates A in the starting point block are evaluated to determine in which direction of the X or Y the edge block exists (S11). This evaluation method will be described later with reference to FIG.
[0018]
If the direction in which the edge block exists is the X direction, the trajectory of the edge block is obtained in the X direction from the starting block. In the starting block, the difference between β (X2, Y2) having the largest X coordinate and the coordinate δ (X4, Y4) having the smallest X coordinate of the next block is calculated, and it is confirmed that the difference is within a certain threshold value Th1. (S12). In the above case, it is expected that X2 + 1 = X4 and Y2 = Y4.
[0019]
Similarly, if the direction in which the edge block exists is the Y direction, the trajectory of the edge block is obtained in the Y direction from the starting block, and it is confirmed that the difference is within the threshold value Th1 (S13). .
[0020]
Next, the difference between the δ point and the ε point of the next block in the X or Y direction with respect to the starting block is determined, and the magnitude of this difference with a certain threshold Th2 is checked (S14). If it is determined in this check that the difference is equal to or smaller than the threshold value Th2, the point ε is set as coordinates for the next comparison (S16). If it is larger than the threshold value Th2, the δ point is held as the characteristic point B of the trajectory, and the ε point is set as the coordinates for the next comparison (S15).
[0021]
Similarly, in the next block, the difference between the coordinates of the δ point and the ε point in the X direction is obtained, and if it is smaller than the block size (here, 16), the scan direction is changed to the Y direction. If it is larger, it is scanned in the X direction (rightward). By repeating this, the characteristic points of each edge block can be obtained. An object can be extracted by connecting these feature points with a straight line. FIG. 7 shows an example of an object extracted as a trajectory of feature points A to P extracted by such a scan.
[0022]
An evaluation method for a change point of the image block will be described. In FIG. 3, the number of determinations i is initially set to 1 (S21), and the number of determinations i is smaller than 4, that is, the change point in the maximum of three directions is limited (S22). First, the upper left coordinates (XL, YL) of the block To obtain the coordinates (Xi, Yi) of the change point (S23).
[0023]
It is checked whether or not the X-axis value Xi = XL + 16 of the coordinates (Xi, Yi) (S24), and if they match, the edge block direction is set to the X direction (S25). If they do not match, it is checked whether the Y-axis value Yi = YL + 16 (S26). If they do not match, the process returns to the next determination (S27). If they match, the edge block direction is set to the Y direction (S28).
[0024]
Next, a motion vector is calculated for 16 feature points A to P obtained from the object extraction result in FIG. If this motion vector points in a completely random direction, the object extraction will fail. If one or two points are in different directions, the object can be extracted more accurately by separating blocks in the vicinity thereof more finely.
[0025]
The motion vector is as shown in FIG. 8, and some of the motion vectors are obtained. If a certain part of the motion vectors moves slightly differently from other parts, it is necessary to examine the motion vector of the part in detail. This portion (in the example of FIG. 8, the portion of the car tire) moves in a complicated manner as shown in FIG. 9 when viewed in a short time span, but moves in the same direction when viewed in a long time span. It can be seen that the motion vector is directed.
[0026]
In this way, by examining the motion vector, it can be confirmed that the portion where the object has been extracted based on the edge information has been correctly extracted.
[0027]
【The invention's effect】
As described above, according to the present invention, as a method of extracting an object of an image, an object is extracted using edge information, and it is determined whether or not the object can be extracted based on a motion vector of a feature point of the extracted object. As a result, there is an effect that the object can be automatically and accurately extracted, which has conventionally depended on manual labor.
[Brief description of the drawings]
FIG. 1 is an object extraction procedure (part 1) showing an embodiment of the present invention.
FIG. 2 is an object extraction procedure (part 2) showing the embodiment of the present invention.
FIG. 3 is an object extraction procedure (part 3) showing the embodiment of the present invention.
FIG. 4 is an example of dividing an image into 16 × 16 uniform blocks.
FIG. 5 is an explanatory diagram of an edge block.
FIG. 6 is an explanatory diagram of feature points of an edge block.
FIG. 7 is an example of object extraction.
FIG. 8 is an example of a direction of a motion vector of an object.
FIG. 9 shows an example of a motion vector having a long time and a short time span.

Claims (4)

画像中のオブジェクトを自動的に抽出する方法であって、
画像を一様な大きさのブロックに分割する過程と、
前記分割されたブロックをスキャンしていき、各ブロックについて2方向のエッジが入っている第1のブロックと、1方向のみのエッジが入っている第2のブロックとの2種類のエッジブロックに分類する過程と、
前記第1のブロックに対しては3つの変化点の座標を求め、前記第2のブロックに対しては2つの変化点の座標を求める過程と、
前記ブロックのスキャンで最も早く現れたブロックを起点ブロックとし、この起点ブロックの1つの変化点と残りの変化点との評価からオブジェクトの輪郭を形成するブロックが存在する方向を決定する過程と、
前記決定されたスキャン方向における隣接ブロック間の変化点の差分としきい値との大小比較で、次ブロックの変化点をオブジェクトの特徴点として決定する過程と、
を繰り返すことで、画像中のオブジェクトを抽出することを特徴とするオブジェクトの抽出方法。
A method for automatically extracting objects in an image,
Dividing the image into blocks of uniform size;
The divided blocks are scanned, and each block is classified into two types of edge blocks: a first block having edges in two directions and a second block having edges in only one direction. The process of
Determining the coordinates of three transition points for the first block and determining the coordinates of two transition points for the second block;
Determining the direction in which the block forming the contour of the object exists from the evaluation of one change point and the remaining change points of the start block, the block appearing earliest in the scan of the block;
Determining the change point of the next block as a feature point of the object by comparing the difference between the change point between adjacent blocks in the determined scan direction and the threshold value;
A method for extracting an object in an image by repeating the above-mentioned steps.
前記評価は、
当該ブロック左上の座標とブロック内の変化点の座標を取得し、変化点の座標のうち、X軸の値がブロックの大きさと一致すれば隣接するブロック方向をX方向と判定し、一致しなければY軸の値がブロックの大きさと一致することで隣接するブロック方向をY方向と判定することを特徴とする請求項1に記載のオブジェクトの抽出方法。
The evaluation is
The coordinates of the upper left corner of the block and the coordinates of the change point in the block are acquired. If the value of the X axis of the coordinates of the change point matches the size of the block, the direction of the adjacent block is determined to be the X direction. 2. The method according to claim 1, wherein the direction of the adjacent block is determined to be the Y direction when the value of the Y axis matches the size of the block.
前記抽出されたオブジェクトの各特徴点の動きベクトルを求め、大部分の特徴点の動きベクトルが同じ方向にあるか否かによって、オブジェクト抽出の可否の判断材料とすることを特徴とする請求項1または2に記載のオブジェクトの抽出方法。2. The method according to claim 1, wherein a motion vector of each feature point of the extracted object is obtained, and whether or not the motion vectors of most of the feature points are in the same direction is used as a material for determining whether or not the object can be extracted. Or the method for extracting an object according to 2. 前記特徴点の動きベクトルのうち、方向が異なる特徴点の動きベクトルは時間スパンを変えて判定することを特徴とする請求項3に記載のオブジェクトの抽出方法。4. The object extraction method according to claim 3, wherein, among the motion vectors of the feature points, a motion vector of a feature point having a different direction is determined by changing a time span.
JP2002179494A 2002-06-20 2002-06-20 Object extraction method Pending JP2004021888A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002179494A JP2004021888A (en) 2002-06-20 2002-06-20 Object extraction method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002179494A JP2004021888A (en) 2002-06-20 2002-06-20 Object extraction method

Publications (1)

Publication Number Publication Date
JP2004021888A true JP2004021888A (en) 2004-01-22

Family

ID=31176877

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002179494A Pending JP2004021888A (en) 2002-06-20 2002-06-20 Object extraction method

Country Status (1)

Country Link
JP (1) JP2004021888A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007188294A (en) * 2006-01-13 2007-07-26 Central Res Inst Of Electric Power Ind Method for detecting moving object candidate by image processing, moving object detection method for detecting moving object from moving object candidate, moving object detection apparatus, and moving object detection program
KR100966876B1 (en) * 2008-07-08 2010-06-29 삼성전자주식회사 Object detection method and apparatus
CN102088544A (en) * 2011-02-16 2011-06-08 天津大学 Fast image stabilization method of dynamic scene video with foreground object
CN106546233A (en) * 2016-10-31 2017-03-29 西北工业大学 A kind of monocular visual positioning method towards cooperative target
KR101789513B1 (en) * 2016-07-11 2017-10-26 주식회사 인피니트헬스케어 Method of determining image quality in digital pathology system
CN111553928A (en) * 2020-04-10 2020-08-18 中国资源卫星应用中心 Urban road high-resolution remote sensing self-adaptive extraction method assisted by Openstreetmap information

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007188294A (en) * 2006-01-13 2007-07-26 Central Res Inst Of Electric Power Ind Method for detecting moving object candidate by image processing, moving object detection method for detecting moving object from moving object candidate, moving object detection apparatus, and moving object detection program
KR100966876B1 (en) * 2008-07-08 2010-06-29 삼성전자주식회사 Object detection method and apparatus
US8811659B2 (en) 2008-07-08 2014-08-19 Samsung Electronics Co., Ltd. Object detection method and apparatus
CN102088544A (en) * 2011-02-16 2011-06-08 天津大学 Fast image stabilization method of dynamic scene video with foreground object
KR101789513B1 (en) * 2016-07-11 2017-10-26 주식회사 인피니트헬스케어 Method of determining image quality in digital pathology system
CN106546233A (en) * 2016-10-31 2017-03-29 西北工业大学 A kind of monocular visual positioning method towards cooperative target
CN111553928A (en) * 2020-04-10 2020-08-18 中国资源卫星应用中心 Urban road high-resolution remote sensing self-adaptive extraction method assisted by Openstreetmap information
CN111553928B (en) * 2020-04-10 2023-10-31 中国资源卫星应用中心 Urban road high-resolution remote sensing self-adaptive extraction method assisted with Openstreetmap information

Similar Documents

Publication Publication Date Title
US7428335B2 (en) Method of extracting contour of image, method of extracting object from image, and video transmission system using the same method
WO2016192494A1 (en) Image processing method and device
CN1157060C (en) Image interpolation system and image interpolocation method
EP1308049A2 (en) Method for segmenting multi-resolution video objects
JP2005520361A (en) Method and apparatus for motion estimation between video frames
JP2000293696A (en) Picture recognizing device
WO2009026857A1 (en) Video image motion processing method introducing global feature classification and implementation device thereof
JP2006072770A (en) Face detection device and face direction estimation device
JP2004021888A (en) Object extraction method
US11605184B2 (en) Point cloud global tetris packing
Ückermann et al. Realtime 3D segmentation for human-robot interaction
CN109087326A (en) Otsu algorithm based on local auto-adaptive
JP3659426B2 (en) Edge detection method and edge detection apparatus
WO2002067590A8 (en) Video encoding of still images
CN110033488B (en) Self-adaptive light source direction analysis method and system based on compressed information
CN104486633B (en) Video error hides method and device
US20030091113A1 (en) Motion search apparatus for determining motion vector in accordance with motion vector of macro block neighboring object macro block
CN105740864A (en) LBP-based image feature extraction method
US20220139007A1 (en) Image forming apparatus, determination apparatus, image forming method, and non-transitory computer readable medium storing image forming program
CN111046727A (en) Video feature extraction method and device, electronic equipment and storage medium
TWI498831B (en) System of adaptive variable shape region of interest determination and its control method
KR100493718B1 (en) Method for pursuiting posture of golf swinger feature
JP2004192080A (en) Object recognition device and recognition method
JP2005079675A (en) Cut-point detecting apparatus and cut-point detecting program
JP2005309870A (en) Image processor