JP2507182B2 - Video region segmentation device - Google Patents
Video region segmentation deviceInfo
- Publication number
- JP2507182B2 JP2507182B2 JP33238090A JP33238090A JP2507182B2 JP 2507182 B2 JP2507182 B2 JP 2507182B2 JP 33238090 A JP33238090 A JP 33238090A JP 33238090 A JP33238090 A JP 33238090A JP 2507182 B2 JP2507182 B2 JP 2507182B2
- Authority
- JP
- Japan
- Prior art keywords
- area
- frame
- storage means
- moving image
- result
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Processing Of Color Television Signals (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Image Analysis (AREA)
- Color Television Systems (AREA)
Description
【発明の詳細な説明】 産業上の利用分野 本発明は、TVやHTV、テレビ電話等での動画像データ
の高能率圧縮の実現方式や、TV番組等の作成における映
像合成のための部品物体の切り出し方式、動画象データ
ベース構築のための検索キー映像の抽出方式等に適用で
きる動画像領域分割装置に関するものである。Description: TECHNICAL FIELD The present invention relates to a method for realizing a highly efficient compression of moving image data in a TV, an HTV, a videophone, etc., and a component object for video composition in the creation of a TV program etc. The present invention relates to a moving image region dividing device applicable to a clipping method, a retrieval key image extracting method for constructing a moving image database, and the like.
従来の技術 従来、動画像において領域分割を行なうには、フレー
ム毎に得られた(分割された)領域の、フレーム間での
対応付けを行なうために、時間的に連続する複数のフレ
ーム間で領域の大きさや濃淡の分布、重心や領域内の特
徴点の位置等をもとにして類似度を算出し、それを判断
基準として連続するフレーム間の領域の対応付けを行う
方法が知られている。例えば、「Automatic Analysis o
f Moving images」[オートマチック アナリシス オ
ブ ムービング イメージ](谷内田正彦他:アイイー
イーイー トランスアクションズ オン パターン ア
ナリンス アンド マシーン インテリジェンス 第3
巻1981年1月1日;IEEE TRANSACTIONS ON PATTERN ANAL
YSIS AND MACHINE INTELLIGENCE,VOL.PAMI−3,NO.1、JA
NUARY,1981)には、この方法を用いて、静止した背景の
中の動物体を探索し追跡する手法が述べられている。こ
の方法の特徴は、フレーム内の各領域をその領域の特徴
を表現するパラメタで記述し、パラメタ空間での距離を
もとにフレーム間での領域の対応を求めるところにあ
る。以下、第11図を用いて従来の技術による装置の概念
的構成について述べる。1101は時間の流れに沿って入力
された動画像データを記憶する動画像メモリ、1102は動
画像メモリ中のフレームの領域分割を行うフレーム領域
分割装置、1103はその結果を記憶するフレーム領域分割
結果記憶装置、1104はフレーム毎に分割された各領域を
パラメタで表現する表現装置、1105は表現装置1104で表
現されたパラメタ空間での距離をもとにフレーム間の領
域の対応を探索するフレーム間領域対応探索装置であ
る。2. Description of the Related Art Conventionally, in order to perform area division in a moving image, in order to associate the (divided) areas obtained for each frame between frames, a plurality of temporally consecutive frames are used. A method is known in which the similarity is calculated based on the size of the area, the distribution of shading, the center of gravity, the position of the feature point in the area, and the like, and the areas are associated with each other between consecutive frames using the similarity as a criterion. There is. For example, "Automatic Analysis o
f Moving images ”[Automatic Analysis of Moving Images] (Masahiko Yachida et al .: EYE TRANSACTIONS ON PATTERN ANALINS AND MACHINE INTELLIGENCE 3rd
Volume January 1, 1981; IEEE TRANSACTIONS ON PATTERN ANAL
YSIS AND MACHINE INTELLIGENCE, VOL.PAMI−3, NO.1, JA
NUARY, 1981) describes a method for searching and tracking a moving object in a stationary background using this method. The feature of this method is that each area in a frame is described by a parameter expressing the characteristics of that area, and the correspondence of the areas between the frames is obtained based on the distance in the parameter space. The conceptual configuration of the conventional device will be described below with reference to FIG. 1101 is a moving image memory that stores moving image data input according to the flow of time, 1102 is a frame region dividing device that divides the regions of the frames in the moving image memory, and 1103 is a frame region dividing result that stores the result. A storage device, 1104 is an expression device that expresses each area divided for each frame with parameters, and 1105 is an inter-frame search that searches for the correspondence between areas based on the distance in the parameter space expressed by the expression device 1104. It is an area correspondence search device.
発明が解決しようとする課題 しかし、以上のような構成でフレーム間での領域のお
おまかな対応を見い出すだけではフレーム毎の領域分割
の結果が完全でない場合、即ち、あるフレームで領域に
欠損があったり、逆に他の領域まで含んでしまっている
場合はそれを補正することができず、全体的な領域分割
の精度に限界があるという課題があった。However, if the result of the area division for each frame is not perfect just by finding out the rough correspondence of the areas between the frames with the above configuration, that is, there is a defect in the area in a certain frame. On the other hand, if it includes other areas, on the other hand, it cannot be corrected, and there is a problem in that the accuracy of the overall area division is limited.
本発明は上記課題に鑑み、フレーム毎の領域分割を補
正することができ、全体としての領域分割の精度を大幅
に向上させることができる動画像領域分割装置を提供す
るものである。In view of the above problems, the present invention provides a moving image area dividing device capable of correcting the area division for each frame and significantly improving the accuracy of the area division as a whole.
課題を解決するための手段 一般に動画像データに於いては、時間的に連続する2
枚のフレーム間では、その内部に存在する物体の領域の
位置や形は大きくは変化しない。そこで、本発明では、
上記問題を解決するために、フレーム毎に分割された領
域の境界の対応を連続するフレーム間で見い出す演算手
段と、対応付けされた領域境界をもとに領域の欠損や他
の領域への侵食等を補正する演算手段を設けるものであ
る。Means for Solving the Problems In general, in moving image data, two consecutive
The position and shape of the region of the object existing inside the frame do not change significantly between the frames. Therefore, in the present invention,
In order to solve the above problem, a calculation means for finding correspondence between boundaries of regions divided for each frame between consecutive frames, and loss of a region or erosion to another region based on the associated region boundaries The calculation means for correcting the above is provided.
作用 本発明は上記構成により、動画像の領域分割で、各フ
レーム毎の領域分割結果からフレーム間での領域境界の
対応を探索することにより、フレーム毎の領域分割結果
からフレーム間での領域境界の対応を探索することによ
り、フレーム毎の領域分割を補正することができ、全体
としての領域分割の精度を大幅に向上させることができ
る。従って、本発明は、例えばTV電話やTV会議での高効
率動画像圧縮や、放送系に於ける映像合成のための動画
像部品データベースの構築等に応用することができる。The present invention has the above-described configuration, and in the area division of a moving image, by searching the area division result for each frame for a correspondence of the area boundary between frames, the area division result for each frame can be applied to the area boundary between frames. It is possible to correct the area division for each frame by searching the correspondence of, and it is possible to significantly improve the accuracy of the area division as a whole. Therefore, the present invention can be applied to, for example, highly efficient moving image compression in a TV telephone or a video conference, and construction of a moving image component database for image synthesis in a broadcasting system.
実施例 以下、本発明の一実施例について、第1図を用いて説
明する。第1図は本発明の一実施例における動画像領域
分割装置のブロック概念図である。第1図において、時
間の流れに沿って入力された動画像データは記憶手段10
1に記憶される。102は記憶手段101に記憶された動画像
データの一枚のフレームを領域分割する演算手段であ
り、103は演算手段102を動画像データ101の各フレーム
に対して作用させた結果をフレーム毎に記憶する記憶手
段である。記憶手段103に記憶されたフレーム毎の領域
分割の結果は一般的には不完全であるが、時間的に連続
したフレーム間では対応する領域の位置や形はさほど変
化しないので、分割された領域の境界をフレーム間でお
おまかな対応付けを記憶手段103に記憶された領域分割
結果に対して行う。対応付けの結果は記憶手段105に記
憶され、これと、記憶手段102に記憶されている最初の
領域分割の結果から、演算手段106が、フレーム毎の領
域分割を補正し、結果を記憶手段107に記憶する。108は
記憶手段107に記憶されたフレーム毎の補正領域分割結
果から、全てのフレームの対応する領域内の全画素にラ
ベル付けを行う演算手段である。Embodiment An embodiment of the present invention will be described below with reference to FIG. FIG. 1 is a block conceptual diagram of a moving picture area dividing device in an embodiment of the present invention. In FIG. 1, the moving image data input according to the flow of time is stored in the storage means 10
Memorized in 1. Reference numeral 102 denotes an operation unit that divides one frame of the moving image data stored in the storage unit 101 into regions, and 103 denotes, for each frame, a result of operating the operation unit 102 on each frame of the moving image data 101. It is a storage means for storing. The result of the area division for each frame stored in the storage unit 103 is generally incomplete, but since the position and shape of the corresponding area do not change much between temporally consecutive frames, the divided area is divided. The boundaries of the frames are roughly associated with each other with respect to the area division result stored in the storage unit 103. The result of the association is stored in the storage means 105, and from this and the result of the first area division stored in the storage means 102, the calculation means 106 corrects the area division for each frame, and the result is stored in the storage means 107. Remember. Reference numeral 108 denotes an operation unit that labels all pixels in the corresponding regions of all frames from the correction region division result for each frame stored in the storage unit 107.
以下、本発明のより具体的な実施例を第2図を用いて
説明する。201は時間の流れに沿って動画像データを入
力する。複数個のフレームメモリからなる記憶装置、20
2は記憶装置201の各フレームメモリの画像を領域分割す
る専用プロセッサ、203は領域分割の結果をフレーム毎
に保存するメモリ、204はその分割結果からフレーム間
で領域の境界の対応を探索する専用プロセッサ、205は
対応結果を保存するメモリ、206は対応結果から領域分
割の補正を行うプロセッサで、メモリ203の内容を補正
(変更)する。207はメモリ205の領域境界の対応情報と
メモリ203のフレーム毎の領域分割結果をもとに、同一
の領域に属する画素に共通のラベルを付けるプロセッサ
である。A more specific embodiment of the present invention will be described below with reference to FIG. 201 inputs moving image data along the flow of time. Storage device consisting of multiple frame memories, 20
2 is a dedicated processor that divides the image of each frame memory of the storage device 201 into areas, 203 is a memory that saves the results of area division for each frame, and 204 is a dedicated search for the correspondence of area boundaries between frames from the division results A processor, 205 is a memory for storing the correspondence result, and 206 is a processor for correcting the area division from the correspondence result, and corrects (changes) the contents of the memory 203. A processor 207 assigns a common label to pixels belonging to the same area based on the area boundary correspondence information of the memory 205 and the area division result for each frame of the memory 203.
フレーム毎の領域分割の方法には、そのフレームのデ
ータのみを用いる方法としてエッジ検出を行う方法があ
るが、詳細はローセンフィールド;デジタルピクチャ
プロセッシング セコンド エディション 第2巻84頁
〜112頁[ROSENFELD:Digital Picture Processing seco
nd edition Vol.2pp84−112(1982)]等に記述されて
いる。また、近傍時間のフレームのデータを使用してフ
レーム内の速度境界を算出し、これをもとに領域分割を
行う方法が、安藤:動画像分類のための微分積和型演算
子(計測自動制御学会論文集Vol.25,No4,496/503(198
9)に記載されている。As a method of dividing an area for each frame, there is a method of performing edge detection as a method of using only the data of the frame, but details are Rosen field; Digital picture
Processing Second Edition Volume 2 pp. 84-112 [ROSENFELD: Digital Picture Processing seco
nd edition Vol.2 pp84-112 (1982)], etc. In addition, the method of calculating the velocity boundary in a frame using the data of the frame of the neighborhood time and performing the region segmentation based on this is the Ando: Differential product-sum operator (automatic measurement Journal of Control Society Vol.25, No4, 496/503 (198
9).
以下、第3図〜第10図を用いて、フレーム間で領域境
界の対応を探索し、最初にメモリ203に記憶されていた
領域分割の結果データを補正する方法について詳細に説
明する。記憶装置201のフレームメモリには第4図に示
す様な映像が記憶されているとする。第3図中の301は
第2図のメモリ203の領域分割の結果を保存するための
メモリで、第5図に示す様なデータが記憶される。第5
図中同一の模様で示される領域は分割されたひとつの領
域に対応する。302〜303は第2図の専用プロセッサ204
のフレーム間で領域境界の対応を探索する専用プロセッ
サである。301のデータはフレーム毎の、即ち、ある時
刻に於ける領域分割の結果であり、各領域はその時刻に
於いて映像の対象世界に存在していた物体の2次元平面
への投影である。今、第6図の様に一枚のフレーム上に
X−Y座標軸を、フレームと直行する方向にZ軸をとり
3次元の座標系を設定する。ここで、フレームの系列を
時間の順にZ軸方向に配置し、時刻tに於けるフレーム
内の領域Aに対応する部分を追跡するとこれは、3次元
空間内でひとつの立体を形成する。第7図の斜線部はこ
の立体の平面Y=C(Cは定数)に於ける断面を示すも
のである。第7図における黒丸(・)は領域の境界上の
格子点を表す。第3図中302はこのような、X−Y−Z3
次元空間内の立体の、XZ平面やYZ平面に平行な平面によ
る断面を生成する装置であり、303はこの断面の境界を
探索するプロセッサである。この断面図を0≦Y≦≪フ
レームの高さ≫の範囲で生成し、それぞれの断面図に於
いて領域境界を探索すれば、これは上述の立体の表面を
探索したことに相当し、フレーム間で領域境界の対応を
探索したことになる。第8図は、第7図の断面図の境界
を探索した結果を示すものである。通常は、映像の対象
世界の物体の動きはフレームのサンプリング間隔に対し
て充分小さいと仮定できるので、第7図に示すような断
面図中の領域境界は、滑らかな曲線となるはずである。
これが、第8図に示すように滑らかでなくなるのは、最
初のフレーム毎の領域分割の精度が充分でないからであ
り、これを補正して、第9図に示すような滑らかな領域
境界を有する断面を生成するのが、第2図中の206のプ
ロセッサの主な役割である。206はまず、第8図に示す
ような領域境界曲線から第9図に示すような滑らかな近
似曲線を生成し、続いて、これを境界曲線として断面上
の補正分割領域を生成する。0≦Y≦≪フレームの高さ
≫の全てのYに於ける断面に対して同様の補正分割領域
生成し、これをもとに第2図中の203のメモリの内容を
変更(補正)して、最終的に第10図に示すものを得る。Hereinafter, a method of searching for correspondences between area boundaries between frames and correcting the result data of the area division initially stored in the memory 203 will be described in detail with reference to FIGS. 3 to 10. It is assumed that the frame memory of the storage device 201 stores an image as shown in FIG. Reference numeral 301 in FIG. 3 is a memory for storing the result of area division of the memory 203 in FIG. 2, and stores data as shown in FIG. Fifth
The regions shown by the same pattern in the figure correspond to one divided region. 302 to 303 are dedicated processors 204 in FIG.
It is a dedicated processor that searches the correspondence of the area boundary between the frames. The data of 301 is a result of the area division for each frame, that is, at a certain time, and each area is a projection on the two-dimensional plane of the object existing in the target world of the image at that time. Now, as shown in FIG. 6, a three-dimensional coordinate system is set by taking the XY coordinate axes on one frame and the Z axis in the direction orthogonal to the frame. Here, when a series of frames is arranged in the Z-axis direction in time order and the portion corresponding to the area A in the frame at time t is traced, this forms one solid in the three-dimensional space. The hatched portion in FIG. 7 shows a cross section of the solid plane Y = C (C is a constant). The black circles (•) in FIG. 7 represent grid points on the boundary of the region. In FIG. 3, 302 is such an XYZ3.
A device for generating a cross section of a solid in a dimensional space by a plane parallel to the XZ plane or the YZ plane, and 303 is a processor for searching the boundary of this cross section. If this cross-sectional view is generated in the range of 0 ≦ Y ≦ << height of frame >>, and the area boundary is searched in each cross-sectional view, this corresponds to searching the surface of the solid body described above. This means that the correspondence between the area boundaries was searched between. FIG. 8 shows the result of searching the boundary of the sectional view of FIG. Normally, it can be assumed that the motion of the object in the target world of the image is sufficiently small with respect to the sampling interval of the frame, so that the region boundary in the cross sectional view as shown in FIG. 7 should be a smooth curve.
This is not smooth as shown in FIG. 8 because the accuracy of the area division for each initial frame is not sufficient, and this is corrected to have a smooth area boundary as shown in FIG. Generating the cross section is the main role of the 206 processor in FIG. First, 206 generates a smooth approximated curve as shown in FIG. 9 from the area boundary curve as shown in FIG. 8, and then uses this as a boundary curve to generate a corrected divided area on the cross section. The same correction division area is generated for all Y cross sections of 0 ≦ Y ≦ << frame height >>, and the content of the memory 203 in FIG. 2 is changed (corrected) based on this. Finally, what is shown in FIG. 10 is obtained.
発明の効果 以上のように、本発明によれば、動画像の領域分割で、
各フレーム毎の領域分割結果からフレーム間での領域境
界の対応を探索することにより、フレーム毎の領域分割
を補正することができ、全体としての領域分割の精度を
大幅に向上させることができる。従って、本発明は、TV
電話やTV会議での高効率動画像圧縮や、放送系に於ける
映像合成のための動画像部品データベースの構築等に応
用することができ、その効果は大きい。EFFECTS OF THE INVENTION As described above, according to the present invention, in the area division of a moving image,
It is possible to correct the area division for each frame by searching the correspondence of the area boundaries between the frames from the area division result for each frame, and it is possible to greatly improve the accuracy of the area division as a whole. Therefore, the present invention is a TV
It can be applied to high-efficiency moving image compression in telephones and video conferences, and construction of moving image parts database for video composition in broadcasting system, and its effect is great.
第1図は本発明の動画像領域分割装置の概念的構成を示
したブロック図、第2図は本発明の一実施例における動
画像領域分割装置の全体ブロック図、第3図は第2図中
の領域分割結果保存メモリと境界対応探索プロセッサの
詳細なブロック図、第4図〜第10図は第3図の説明及
び、実施例に於ける領域分割の補正の方法について詳細
に説明するために用いたサンプルデータや中間結果等を
示す図,第11図は従来の動画像分割装置のブロック結線
図である。 101…動画像データの記憶手段、102…領域分割を行う演
算手段、103…領域分割結果の記憶手段、104…フレーム
間領域境界対応探索を行う演算手段、105…境界対応の
記憶手段、106…領域分割補正を行う演算手段、107…領
域分割補正結果の記憶手段、108…ラベル付けを行う演
算手段。FIG. 1 is a block diagram showing a conceptual configuration of a moving image area dividing device according to the present invention, FIG. 2 is an overall block diagram of a moving image area dividing device according to an embodiment of the present invention, and FIG. 3 is FIG. A detailed block diagram of the region division result storage memory and the boundary correspondence search processor in FIGS. 4 to 10 is for explaining FIG. 3 and a method for correcting the region division in the embodiment in detail. FIG. 11 is a block diagram of a conventional moving image segmentation device, which shows sample data used in the above, intermediate results, and the like. 101 ... Moving image data storage means, 102 ... Area division operation means, 103 ... Area division result storage means, 104 ... Interframe area boundary correspondence search means, 105 ... Boundary correspondence storage means, 106 ... Calculation means for performing area division correction, 107 ... Area storage correction result storage means, 108 ... Labeling operation means.
Claims (1)
タを記憶する第1の記憶手段と、前記第1の記憶手段に
記憶された動画像データの一枚のフレームを領域分割す
る第1の演算手段と、前記演算手段によって、時間的に
連続する複数枚のフレームからそれぞれ得られた領域分
割の結果を記憶する第2の記憶手段と、前記第2の記憶
手段に記憶されたフレーム毎の領域分割の結果データを
もとに、連続した複数のフレーム間で領域の境界の対応
を探索する第2演算手段と、前記第2の演算手段によっ
て探索された領域の境界の対応を記憶する第3の記憶手
段と、前記第3の記憶手段に記憶されたフレーム間の領
域境界の対応をもとに、前記第2の記憶手段に記憶され
ているフレーム毎の領域分割の結果を補正する第3の演
算手段と、前記第3の演算手段によって補正されたフレ
ーム毎の領域分割結果を記憶する第4の記憶手段と、前
記第4の記憶手段に記憶されたフレーム毎の補正領域分
割の結果データをもとに、前記第1の記憶手段に記憶さ
れた動画像データの全てのフレームの中の同一の領域に
属する全ての画素に領域毎のラベルを付ける第4の演算
手段とを具備する動画像領域分割装置。1. A first storage means for storing moving image data input along a flow of time, and a section for dividing one frame of the moving image data stored in the first storing means into regions. No. 1 calculation means, second storage means for storing the results of area division respectively obtained from a plurality of temporally consecutive frames by the calculation means, and frames stored in the second storage means. Second operation means for searching correspondence of area boundaries between a plurality of consecutive frames based on the result data of each area division, and storage of correspondence of area boundaries searched by the second operation means The result of the area division for each frame stored in the second storage means is corrected based on the correspondence between the third storage means and the area boundary between the frames stored in the third storage means. A third calculation means for Fourth storage means for storing the result of the area division for each frame corrected by the calculation means, and the first data based on the result data of the correction area division for each frame stored in the fourth storage means. Moving image area dividing device, which includes a fourth calculating means for labeling all pixels belonging to the same area in all frames of moving image data stored in the storage means.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP33238090A JP2507182B2 (en) | 1990-11-28 | 1990-11-28 | Video region segmentation device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP33238090A JP2507182B2 (en) | 1990-11-28 | 1990-11-28 | Video region segmentation device |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH04195688A JPH04195688A (en) | 1992-07-15 |
JP2507182B2 true JP2507182B2 (en) | 1996-06-12 |
Family
ID=18254319
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP33238090A Expired - Fee Related JP2507182B2 (en) | 1990-11-28 | 1990-11-28 | Video region segmentation device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2507182B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2283876B (en) * | 1993-11-09 | 1998-06-24 | Matsushita Electric Ind Co Ltd | Encoding and decoding code sequences and frames |
JP4895044B2 (en) * | 2007-09-10 | 2012-03-14 | 富士フイルム株式会社 | Image processing apparatus, image processing method, and program |
-
1990
- 1990-11-28 JP JP33238090A patent/JP2507182B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH04195688A (en) | 1992-07-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Mitrokhin et al. | EV-IMO: Motion segmentation dataset and learning pipeline for event cameras | |
CN106210449B (en) | Multi-information fusion frame rate up-conversion motion estimation method and system | |
US7573478B2 (en) | Multi-image-frame sprite recognition in animated sequences | |
Gümeli et al. | Roca: Robust cad model retrieval and alignment from a single image | |
Nakajima et al. | Fast and accurate semantic mapping through geometric-based incremental segmentation | |
JPH0935061A (en) | Image processing method | |
CN111179281A (en) | Human body image extraction method and human body action video extraction method | |
Wu et al. | Study of multiple moving targets’ detection in fisheye video based on the moving blob model | |
Mazoul et al. | Fast spatio-temporal stereo for intelligent transportation systems | |
JP2507182B2 (en) | Video region segmentation device | |
Zheng et al. | Deep learning algorithm for picture frame detection on social media videos | |
Fang et al. | Direct Monocular Visual Odometry Based on Lidar Vision Fusion | |
Zhu et al. | A Pose Estimation Method in Dynamic Scene with Yolov5, Mask R-CNN and ORB-SLAM2 | |
CN113870307A (en) | Target detection method and device based on interframe information | |
Wong et al. | Tracking, segmentation and optical flow | |
JP2001307104A (en) | Object extraction device for moving image | |
Hoanh et al. | A multi-task framework for car detection from high-resolution uav imagery focusing on road regions | |
Yous et al. | An Assignment Scheme to Control Multiple Pan/Tilt Cameras for 3D Video. | |
Mahakud et al. | Bias Removal Blending to Create Panorama | |
Wang et al. | Motion-based feature selection and adaptive template update strategy for robust visual tracking | |
AU768455B2 (en) | A method for analysing apparent motion in digital video sequences | |
Loesch et al. | A hybrid structure/trajectory constraint for visual slam | |
Georgoulis et al. | Out of the Room: Generalizing Event-Based Dynamic Motion Segmentation for Complex Scenes | |
Geng et al. | Multi-Sensor Fusion SLAM Based on Fast Euclidean Clustering to Filter Dynamic Targets | |
Liu et al. | Motion compensation based on mosaic with near compatible frames |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
LAPS | Cancellation because of no payment of annual fees |