JPH04326181A - Picture processor - Google Patents

Picture processor

Info

Publication number
JPH04326181A
JPH04326181A JP3095514A JP9551491A JPH04326181A JP H04326181 A JPH04326181 A JP H04326181A JP 3095514 A JP3095514 A JP 3095514A JP 9551491 A JP9551491 A JP 9551491A JP H04326181 A JPH04326181 A JP H04326181A
Authority
JP
Japan
Prior art keywords
image
frame
area
moving
moving object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP3095514A
Other languages
Japanese (ja)
Other versions
JP3166976B2 (en
Inventor
Masafumi Wataya
雅文 綿谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP09551491A priority Critical patent/JP3166976B2/en
Publication of JPH04326181A publication Critical patent/JPH04326181A/en
Application granted granted Critical
Publication of JP3166976B2 publication Critical patent/JP3166976B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE:To offer a moving object indication system by which the moving object in a moving image can be easily indicated. CONSTITUTION:A frame image constituting the moving image is successively inputted through an input terminal 301. Then, the previously inputted frame image is delayed for one frame by a frame delay equipment 303, so that the frame image is synchronized with the frame image inputted at that time. Then, a difference between the two frame images is searched by a difference equipment 305, and the result is stored in a differential buffer 306. Afterwards, an area computing element 307 searches the data stored in the differential buffer 306, and detects the existing area of the moving object. The detected existing area of the moving object is compared with an indicated coordinate position in order to judge whether or not the indicated position indicates the moving object.

Description

【発明の詳細な説明】[Detailed description of the invention]

【0001】0001

【産業上の利用分野】本発明は画像処理装置、特に、表
示された動画像中の動物体を指示する画像処理装置に関
するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus, and more particularly to an image processing apparatus for indicating a moving object in a displayed moving image.

【0002】0002

【従来の技術】従来より既存情報を効率よく活用する手
段として、情報を蓄積/検索するデータベースシステム
が利用されてきた。このようなデータベースシステムは
、蓄積された情報をキーワードにより検索するリレーシ
ョナルデータベース方式が多く、キーワードの登録/運
用方法にシステムの機能/能力/規模が大きく左右され
る等の問題があった。
2. Description of the Related Art Database systems for storing and retrieving information have been used as a means for efficiently utilizing existing information. Many of these database systems are relational database systems in which stored information is searched by keywords, and there are problems in that the functions, capabilities, and scale of the system are largely influenced by the method of registering and operating keywords.

【0003】近年、これに代わり、蓄積された情報をよ
りダイナミックかつ直接的に関連付けする(リンクを張
る)オブジェクト指向データベースシステムが提案され
ており、ハイパーテキストまたはハイパーメディアとし
て一般に知られている。
In recent years, alternative object-oriented database systems have been proposed that link stored information more dynamically and directly, and are commonly known as hypertext or hypermedia.

【0004】これらのシステムはテキスト画像または静
止画像の全体又は一部に対して関連情報間とリンクを張
るものである。
[0004] These systems link related information to all or part of a text image or a still image.

【0005】尚、このリンクを張る際の対象は一般にオ
ブジェクトと呼ばれる。
[0005] The object to which this link is created is generally called an object.

【0006】このように従来、画像情報データベースシ
ステムは静止画像を中心としたものであった。しかし、
光ディスクや光磁気ディスクに代表される安価な大容量
記憶デバイスの開発や高速MPU(Micro Pro
cessingUnito)、DSP(Digital
 Signal Processor)等の演算専用L
SIの開発、及び高効率な動画像符号化方式に伴い動画
像も扱えるデータベースシステムの開発が進められてい
る。
As described above, image information database systems have conventionally focused on still images. but,
The development of inexpensive large-capacity storage devices such as optical disks and magneto-optical disks, and the development of high-speed MPUs (Micro Pro
cessingUnito), DSP (Digital
L for calculations such as Signal Processor)
Along with the development of SI and highly efficient video encoding methods, the development of database systems that can also handle video images is progressing.

【0007】このようなデータベースシステムは一般に
マルチメディアデータベースと呼ばれるものであり、先
に述べたオブジェクト指向データベース形成を採用して
いるが摘要範囲はテキスト画像と静止画像までに留まっ
ている。
[0007] Such a database system is generally called a multimedia database, and although it employs the object-oriented database formation described above, the scope of abstractions is limited to text images and still images.

【0008】[0008]

【発明が解決しようとしている課題】動画像については
画像全体に対して、フレーム単位又はその集合(即ちシ
ーン)をオブジェクトとして定義づければ相互間、及び
テキスト画像や静止画像間でリンクを張ることは可能で
ある。
[Problem to be solved by the invention] Regarding moving images, if a frame unit or a set of frames (i.e., a scene) is defined as an object for the entire image, it is possible to create links between each other and between text images and still images. is possible.

【0009】しかし、動画像中の動物体は一般に人物や
動物が対象であり、空間的動きに加え、自身の動作、即
ち、対象物体の形状変化を伴うため、動物体を如何なる
手法法でオブジェクトとして定義し運用するかが課題と
なる。
[0009] However, moving objects in moving images are generally people or animals, and in addition to spatial movement, they also involve their own movements, that is, changes in the shape of the object. The challenge is how to define and operate it as such.

【0010】本発明はかかる問題に鑑みなされたもので
あり、動画像における動物体を容易に指示することを可
能ならしめる画像処理装置を提供しようとするものであ
る。
[0010] The present invention has been made in view of this problem, and an object thereof is to provide an image processing device that makes it possible to easily indicate a moving object in a moving image.

【0011】[0011]

【課題を解決するための手段】この課題を解決するため
、本発明は以下に示す構成を備える。すなわち、動画像
を構成する個々のフレーム画像を順次入力する入力手段
と、入力した複数フレーム画像を比較することでフレー
ム画像中の動物体の存在領域を検出する検出手段と、所
望の位置を指示する指示手段と、該指示手段によって指
示された位置が前記検出手段によって検出された領域中
にあるか否かを判別する判別手段とを備える。
[Means for Solving the Problems] In order to solve this problem, the present invention has the configuration shown below. That is, an input means for sequentially inputting individual frame images constituting a moving image, a detection means for detecting an area where a moving object exists in a frame image by comparing input multiple frame images, and an input means for indicating a desired position. and a determining means for determining whether or not the position designated by the pointing means is within the area detected by the detecting means.

【0012】0012

【作用】かかる本発明の構成において、入力手段によっ
て順次入力される隣接する動画像のフレームを比較する
ことで、動物体の存在領域を検出する。そして、指示手
段で指示された位置が検出された領域内にあるか否かを
判別することで、その指示が動物体を指示したものか否
かを識別可能とする。
[Operation] In the configuration of the present invention, the area where the moving object exists is detected by comparing adjacent moving image frames that are sequentially input by the input means. Then, by determining whether or not the position indicated by the indicating means is within the detected area, it is possible to identify whether or not the instruction indicates a moving object.

【0013】[0013]

【実施例】以下、添付図面に従って本発明に係る実施例
を詳細に説明する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

【0014】実施例における動画像におけるオブジェク
トの概念を図1を元にして説明する。図中、101、1
04、107は動画像フアイル中の或るフレームを示し
ており、それぞれ第n−m番目、第n番目、第n+m番
目のフレームを示している。また各フレーム中の102
、105、108は対象動物体である。103、106
、109は対象動物体を含む領域であり、本実施例によ
り定義したオブジェクトである。
The concept of an object in a moving image in this embodiment will be explained with reference to FIG. In the figure, 101, 1
04 and 107 indicate certain frames in the moving image file, and indicate the n-m-th, n-th, and n+m-th frames, respectively. Also, 102 in each frame
, 105 and 108 are target animals. 103, 106
, 109 is a region containing the target moving object, which is an object defined according to this embodiment.

【0015】図2は対象動物体とオブジェクトの関係を
説明するための図である。図中、201はあるフレーム
画像、202はそのフレーム画像中の対象動物体である
。203はフレーム画像の付属情報を記録する属性フレ
ームであり各フレーム画像毎に付随するものであり、2
04は属性フレーム203上に記録されたオブジェクト
の領域を示している。
FIG. 2 is a diagram for explaining the relationship between a target moving body and an object. In the figure, 201 is a certain frame image, and 202 is a target moving object in the frame image. Reference numeral 203 denotes an attribute frame for recording attached information of a frame image, which is attached to each frame image;
04 indicates the area of the object recorded on the attribute frame 203.

【0016】従って、マルチメディアシステム上で実際
に運用される場合、マウス等のポインテイング手段によ
る指示点が、属性フレーム203中のオブジェクト20
4で示す領域内であれば、対象動物体202が指示され
たと判断する。換言すれば、オブジェクト204で示す
領域外が指示された場合には、対象動物体202は指示
されなたったと判断する。
Therefore, when actually operating on a multimedia system, the point indicated by a pointing means such as a mouse is the object 20 in the attribute frame 203.
If it is within the area indicated by 4, it is determined that the target moving object 202 has been designated. In other words, if the area indicated by the object 204 is specified, it is determined that the target moving object 202 is not specified.

【0017】実施例におけるオブジェクト算出にかかる
装置構成を図3に示す。図中、301は動画像データを
入力するための入力端子、302は入力されたアナログ
画像をデジタル画像に変換するためのA/D変換器、3
03、304はそれぞれ1フレーム分のフレーム遅延器
であり、一般にDRAM(Dynamic Randa
m Access Memory)により構成される。 305は隣接する2つのフレームの画素同士の例えば輝
度の差分を算出する差分器であり、306は差分器30
5の1フレーム分の結果を一旦記憶する差分バッファで
ある。307は差分バッファ306のデータを基にオブ
ジェクトとして定義すべき領域を算出する領域算出器、
308は領域算出器307の結果を一旦記憶する属性メ
モリであり、309は2フレーム分遅延された画像デー
タを出力する端子であり、この2フレーム分の遅延の間
にオブジェクト領域を算出するのである。310は属性
メモリ308の内容を出力する端子であり、端子309
から出力される画像データ309に同期して、属性メモ
リ308の内容が出力される。
FIG. 3 shows the configuration of an apparatus related to object calculation in this embodiment. In the figure, 301 is an input terminal for inputting moving image data, 302 is an A/D converter for converting the input analog image into a digital image, and 3
03 and 304 are frame delayers for one frame each, and are generally DRAM (Dynamic Random DRAM).
m Access Memory). 305 is a difference device that calculates a difference in luminance, for example, between pixels of two adjacent frames; 306 is a difference device 30;
This is a difference buffer that temporarily stores the results for one frame of 5. 307 is an area calculator that calculates an area to be defined as an object based on the data in the difference buffer 306;
308 is an attribute memory that temporarily stores the result of the area calculator 307, and 309 is a terminal that outputs image data delayed by two frames, and the object area is calculated during this two frame delay. . 310 is a terminal that outputs the contents of the attribute memory 308;
The contents of attribute memory 308 are output in synchronization with image data 309 output from.

【0018】上記構成における処理の流れを図4に従っ
て説明する。
The flow of processing in the above configuration will be explained with reference to FIG.

【0019】図4(a)における、401はある時間の
フレーム画像であり、402はフレーム画像401中の
対象動物体である。同様に、図4(b)における403
はフレーム画像401に隣接(後続)するフレーム画像
であり、404はフレーム画像403中の対象動物体で
ある。つまり、入力端子より先ずフレーム画像401が
入力され、その後にフレーム画像403が入力された時
を想定する。従って、当然のことながら、対象動物体4
04は対象動物体402と同一のものである。
In FIG. 4A, 401 is a frame image at a certain time, and 402 is a target moving object in the frame image 401. In FIG. Similarly, 403 in FIG. 4(b)
is a frame image adjacent to (following) the frame image 401, and 404 is a target moving object in the frame image 403. In other words, assume that the frame image 401 is first input from the input terminal, and then the frame image 403 is input. Therefore, as a matter of course, the target animal 4
04 is the same as the target animal 402.

【0020】さて、このとき、フレーム遅延器303に
はフレーム画像401が格納されることになるので、差
分器305にはそのフレーム画像401とたった今入力
したフレーム画像403が入力されることになる。そし
て、これらフレーム画像401及び403はともに差分
器305に入力される。実際には、各フレーム画像は不
図示の画素クロックに同期しながら1画素単位に入力さ
れることになるが、差分器305は入力した2つの画素
データ(モノクロ画像であれば輝度)の差を算出し、そ
れを対応する差分バッファ306の位置に書き込む処理
を行っている。
Now, at this time, the frame image 401 will be stored in the frame delay unit 303, so the frame image 401 and the frame image 403 that has just been input will be input to the subtractor 305. Both of these frame images 401 and 403 are input to the subtractor 305. In reality, each frame image is input pixel by pixel in synchronization with a pixel clock (not shown), but the subtractor 305 calculates the difference between the two input pixel data (luminance in the case of a monochrome image). A process is performed to calculate and write it to the corresponding position of the difference buffer 306.

【0021】対象物体以外の領域における差分は実質的
に“0”になるので、差分バッファ306には結局、図
4(c)に示すようなデータ405(値が或程度以上の
画素分布)が構築されることになる。つまり、動画像を
構成している隣接するフレーム間の差分をとることで、
動物体を検出することが可能となる。
Since the difference in the area other than the target object is essentially "0", the difference buffer 306 ends up containing data 405 (pixel distribution with values above a certain level) as shown in FIG. 4(c). will be constructed. In other words, by taking the difference between adjacent frames that make up a video image,
It becomes possible to detect moving objects.

【0022】さて、領域演算器307は、この差分バッ
ファ306内に格納されたデータを調べ、差分の大きい
領域の上下方向の最上点と最下点、そして、左右方向の
最右点と最左点を検出する。つまり、図4(d)におけ
る点408、409、410、411で特定される矩形
領域412、すなわち、オブジェクトとすべき領域を検
出する。検出されたオブジェクト領域を表すデータは属
性メモリ308に格納され、不図示のシステム側に送出
される。システム側では、例えばマウスによって指示さ
れた座標位置とオブジェクト領域を示すデータとを照ら
し合わせて、マウスによって指示されたのがオブジェク
トを指したものであるか否かを判断し、対応する処理を
行う。尚、座標位置を指示する手段はこれ以外のどよう
なものであっても良いし、指示された座標位置が検出さ
れた領域内にあるか否かは簡単な比較判定で済むので、
ここでの説明は割愛する。
Now, the area calculator 307 examines the data stored in the difference buffer 306, and calculates the top and bottom points in the vertical direction and the rightmost and leftmost points in the horizontal direction of the area where the difference is large. Detect points. That is, a rectangular area 412 specified by points 408, 409, 410, and 411 in FIG. 4(d), that is, an area to be an object is detected. Data representing the detected object area is stored in the attribute memory 308 and sent to the system side (not shown). The system side, for example, compares the coordinate position indicated by the mouse with data indicating the object area, determines whether or not the point indicated by the mouse points to an object, and performs the corresponding processing. . Note that the means for specifying the coordinate position may be any other means, and whether or not the specified coordinate position is within the detected area can be determined by a simple comparison.
I will omit the explanation here.

【0023】[他の実施例の説明]上述した本実施例で
は、オブジェクト領域の定義を外接矩形としたが、これ
に限定されるものではない。
[Description of Other Embodiments] In the present embodiment described above, the object area is defined as a circumscribed rectangle, but the object area is not limited to this.

【0024】図5は、オブジェクト領域定義の際の他の
例を説明するものであり、図中、501はフレーム画像
であり、502はフレーム画像中の対象動物体である。
FIG. 5 illustrates another example of defining an object area. In the figure, 501 is a frame image, and 502 is a target moving object in the frame image.

【0025】さて、図5(a)は外接円による領域定義
を示しており、503はその結果である。
Now, FIG. 5(a) shows the area definition by the circumscribed circle, and 503 is the result.

【0026】同様に図5(b)は外接多角形による領域
定義を示しており、504はその結果である。
Similarly, FIG. 5(b) shows area definition using circumscribed polygons, and 504 is the result.

【0027】また図5(c)は対象動物体の重心を中心
とした最大内接円による領域定義を示しており、図5(
d)は重心を中心とした最大内接四辺形による領域定義
を示している。
Further, FIG. 5(c) shows the area definition by the maximum inscribed circle centered on the center of gravity of the target animal body, and FIG.
d) shows region definition by the largest inscribed quadrilateral centered on the center of gravity.

【0028】尚、ここで重心を中心点としたのは人間が
動物体を視線追跡する場合、動物体の重心を追っている
のではないかという考えに基づくものである。
The reason why the center of gravity is set as the center point here is based on the idea that when a human follows the line of sight of an animal, he or she is following the center of gravity of the animal.

【0029】また、フレーム画像間の差分を2フレーム
間で演算したがこの限りではなく、対象フレームの前後
を含めた3フレーム間で演算すればより動きに適応した
領域をオブジェクトと定義できる。更に、隣接フレーム
間ではなく数フレーム離れたフレーム間で演算すればよ
り広い領域をオブジェクトと定義できる可能性がある。 但し、本実施例と比較するとハードウェア規模は大きく
なる。
Further, although the difference between frame images is calculated between two frames, the difference is not limited to this, and if the difference is calculated between three frames including the front and rear of the target frame, an area more adapted to movement can be defined as an object. Furthermore, if the calculation is performed not between adjacent frames but between frames several frames apart, it is possible to define a wider area as an object. However, compared to this embodiment, the hardware scale is larger.

【0030】本実施例ではオブジェクト領域を記憶する
ために、属性メモリを用いたがこれに限定することなく
、例えば画像データの一部にフラグ形式で挿入しても実
現可能であり、また画像データとは完全独立に一括管理
しそれを適時読み出す方式でも実現可能である。
In this embodiment, the attribute memory is used to store the object area, but the invention is not limited to this, and it can also be realized by inserting it in a flag format into a part of the image data. It is also possible to implement a method of managing the data in a batch completely independently from the data and reading it out at the appropriate time.

【0031】更に、本実施例ではオブジェクト領域を画
像データと空間的に対応するビットマップ方法で説明し
たが、これに限定することなく、オブジェクト領域をベ
クトルデータで持つことも可能である。
Furthermore, although this embodiment has been described using a bitmap method in which the object area spatially corresponds to image data, the object area is not limited to this, and it is also possible to have the object area as vector data.

【0032】また本実施例ではオブジェクト領域の算出
の際には画像データと同期を取る方式で説明したが、パ
ッケージメディア(テープ、光ディスク、磁気ディスク
等)で画像データを供給するシステムの場合は必ずしも
同期を取る必要はなく領域演算は個別に行いパッケージ
ングの際に同期を取ればよい。
Furthermore, in this embodiment, a method of synchronizing with image data was explained when calculating the object area, but this is not always the case in the case of a system that supplies image data using package media (tape, optical disk, magnetic disk, etc.). There is no need to synchronize; area calculations can be performed individually and synchronized during packaging.

【0033】尚、本発明は、ハードウェアによって実現
させたが、装置にプログラムを供給することによつて達
成される場合にも適用できることは言うまでもない。
[0033]Although the present invention is realized by hardware, it goes without saying that it can also be applied to a case where it is achieved by supplying a program to an apparatus.

【0034】以上説明したように本実施例によれば、動
画像中の動物体をオブジェクトとして定義する際に、動
物体自身及び移動範囲を含むより広い領域をオブジェク
トと定義することにより、動画像中の動物体を確実かつ
容易に指示することが可能になる。
As explained above, according to this embodiment, when a moving object in a moving image is defined as an object, a wider area including the moving object itself and the moving range is defined as an object. It becomes possible to reliably and easily point out the animal body inside.

【0035】[0035]

【発明の効果】以上説明したように本発明によれば、動
画像における動物体を容易に指示することが可能になる
As described above, according to the present invention, it becomes possible to easily indicate a moving object in a moving image.

【図面の簡単な説明】[Brief explanation of drawings]

【図1】実施例における動画像におけるオブジェクトの
概念を説明するための図である。
FIG. 1 is a diagram for explaining the concept of an object in a moving image in an embodiment.

【図2】実施例における対象動物体とオブジェクトとの
関係を説明する図である。
FIG. 2 is a diagram illustrating the relationship between a target moving body and an object in an example.

【図3】本実施例の具体ブロツク構成を示す図である。FIG. 3 is a diagram showing a specific block configuration of this embodiment.

【図4】実施例におけるオブジェクト領域検出の行程を
示す図である。
FIG. 4 is a diagram showing the process of object area detection in the embodiment.

【図5】実施例におけるオブジェクト領域検出の他の原
理を示す図である。
FIG. 5 is a diagram illustrating another principle of object area detection in the embodiment.

【符号の説明】[Explanation of symbols]

101  フレーム画像 102  対象動物体 103  オブジェクト領域 301  入力端子 302  A/D変換器 303及び304  フレーム遅延器 305  差分器 306  差分バッファ 307  領域演算器 308  属性メモリ 101 Frame image 102 Target animal 103 Object area 301 Input terminal 302 A/D converter 303 and 304 Frame delay device 305 Differentiator 306 Difference buffer 307 Area calculator 308 Attribute memory

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】  動画像を構成する個々のフレーム画像
を順次入力する入力手段と、入力した複数フレーム画像
を比較することでフレーム画像中の動物体の存在領域を
検出する検出手段と、所望の位置を指示する指示手段と
、該指示手段によって指示された位置が前記検出手段に
よって検出された領域中にあるか否かを判別する判別手
段とを備えることを特徴とする画像処理装置。
1. An input means for sequentially inputting individual frame images constituting a moving image, a detection means for detecting an area where a moving object exists in a frame image by comparing the input plurality of frame images, An image processing apparatus comprising an instruction means for indicating a position, and a determination means for determining whether the position specified by the instruction means is within the area detected by the detection means.
JP09551491A 1991-04-25 1991-04-25 Image processing apparatus and method Expired - Fee Related JP3166976B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP09551491A JP3166976B2 (en) 1991-04-25 1991-04-25 Image processing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP09551491A JP3166976B2 (en) 1991-04-25 1991-04-25 Image processing apparatus and method

Publications (2)

Publication Number Publication Date
JPH04326181A true JPH04326181A (en) 1992-11-16
JP3166976B2 JP3166976B2 (en) 2001-05-14

Family

ID=14139684

Family Applications (1)

Application Number Title Priority Date Filing Date
JP09551491A Expired - Fee Related JP3166976B2 (en) 1991-04-25 1991-04-25 Image processing apparatus and method

Country Status (1)

Country Link
JP (1) JP3166976B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0764847A (en) * 1993-08-27 1995-03-10 Oki Electric Ind Co Ltd Hypermedium system
JPH07152927A (en) * 1993-11-30 1995-06-16 Matsushita Electric Ind Co Ltd Moving picture generating device
JPH07334654A (en) * 1994-06-13 1995-12-22 Mitsubishi Electric Corp Method and device for detecting motion
JPH0981361A (en) * 1995-09-12 1997-03-28 Toshiba Corp Image display method, data collection method and object specifying method
JP2003109013A (en) * 2001-09-28 2003-04-11 Toshiba Corp Method for processing spatio-temporal area information
US7426286B2 (en) 1999-01-28 2008-09-16 Kabushiki Kaisha Toshiba Method of describing object region data, apparatus for generating object region data, video processing apparatus and video processing method

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0352070A (en) * 1989-07-20 1991-03-06 Nippon Telegr & Teleph Corp <Ntt> Related information reference system for moving image

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0352070A (en) * 1989-07-20 1991-03-06 Nippon Telegr & Teleph Corp <Ntt> Related information reference system for moving image

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0764847A (en) * 1993-08-27 1995-03-10 Oki Electric Ind Co Ltd Hypermedium system
JPH07152927A (en) * 1993-11-30 1995-06-16 Matsushita Electric Ind Co Ltd Moving picture generating device
JPH07334654A (en) * 1994-06-13 1995-12-22 Mitsubishi Electric Corp Method and device for detecting motion
JPH0981361A (en) * 1995-09-12 1997-03-28 Toshiba Corp Image display method, data collection method and object specifying method
US7426286B2 (en) 1999-01-28 2008-09-16 Kabushiki Kaisha Toshiba Method of describing object region data, apparatus for generating object region data, video processing apparatus and video processing method
US7428317B2 (en) 1999-01-28 2008-09-23 Kabushiki Kaisha Toshiba Method of describing object region data, apparatus for generating object region data, video processing apparatus and video processing method
US7428316B2 (en) 1999-01-28 2008-09-23 Kabushiki Kaisha Toshiba Method of describing object region data, apparatus for generating object region data, video processing apparatus and video processing method
US7440588B2 (en) 1999-01-28 2008-10-21 Kabushiki Kaisha Toshiba Method of describing object region data, apparatus for generating object region data, video processing apparatus and video processing method
JP2003109013A (en) * 2001-09-28 2003-04-11 Toshiba Corp Method for processing spatio-temporal area information

Also Published As

Publication number Publication date
JP3166976B2 (en) 2001-05-14

Similar Documents

Publication Publication Date Title
US4783833A (en) Method of extracting an image of a moving object
KR101499498B1 (en) Apparatus and method for ultra-high resoultion video processing
US7346109B2 (en) Motion vector computation for video sequences
US20140056358A1 (en) Temporal Motion Vector Filtering
CN109308469B (en) Method and apparatus for generating information
US6977649B1 (en) 3D graphics rendering with selective read suspend
JP2002536729A (en) System and method for representing trajectories of moving objects for indexing and searching visual animated data based on content
US8599320B2 (en) Picture processing apparatus, processing method for use therewith, and program
TW201234862A (en) Method of detecting logos, titles, or sub-titles in video frames
JP2000106661A (en) Image processing method and system and device
CN111310759B (en) Target detection inhibition optimization method and device for dual-mode cooperation
CN112101344B (en) Video text tracking method and device
US20230368033A1 (en) Information processing device, control method, and program
US6606636B1 (en) Method and apparatus for retrieving dynamic images and method of and apparatus for managing images
JPH04326181A (en) Picture processor
US20120176536A1 (en) Adaptive Frame Rate Conversion
EP3474224B1 (en) Graphics processing method and device
JPH0220988A (en) Moving vector detection system for animation encoding device
JPH06149985A (en) Processing system for image information
Fukusato et al. Computational cartoonist: A comic-style video summarization system for anime films
US7542054B2 (en) Apparatus and method for image quality improvement while scaling and scrolling the image
JP2006146823A (en) Video object trajectory adding system and video object trajectory adding program
GB2306836A (en) Video presentation system
CN109816685A (en) A kind of position compensation method tracked in video for rapid moving object
US20020057273A1 (en) Method of and apparatus for reproducing facial expressions

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20010126

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080309

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090309

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100309

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100309

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110309

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees