JPH0352070A - Related information reference system for moving image - Google Patents

Related information reference system for moving image

Info

Publication number
JPH0352070A
JPH0352070A JP1187967A JP18796789A JPH0352070A JP H0352070 A JPH0352070 A JP H0352070A JP 1187967 A JP1187967 A JP 1187967A JP 18796789 A JP18796789 A JP 18796789A JP H0352070 A JPH0352070 A JP H0352070A
Authority
JP
Japan
Prior art keywords
frame
information
related information
image
section
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP1187967A
Other languages
Japanese (ja)
Inventor
Yoshinobu Tonomura
佳伸 外村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP1187967A priority Critical patent/JPH0352070A/en
Publication of JPH0352070A publication Critical patent/JPH0352070A/en
Pending legal-status Critical Current

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

PURPOSE:To execute the reference of related information with regard to a partial image in a frame, and also, to eliminate the need of executing the definition of a related information reference area therefor with respect to all frames by instructing a part of a displayed moving image screen. CONSTITUTION:A reference area definition for related information to a partial image in an arbitrary frame in a moving image is executed only in both ends of a section in which a variation of the partial image is monotonous, and in the case a part of a moving image screen is instructed, a reference area related to the frame is obtained by interpolating from area information in both ends of the section. Therefore, it is unnecessary to execute the reference area definition to all the frames in the section. Also, to area information, a pointer of related information of an object partial image is given, therefore, a related information reference can be executed to a partial image in an arbitrary frame, and a user can refer immediately to the frame in which he is interested without necessitating search of the frame to which he can refer.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は動画像の関連情報参照方式に係り、特に動画像
情報の検索および関連情報の参照等を基本機能として持
つマルチメディア処理システムを構築するのに好適な動
画像の関連情報参照方式に関する. 〔従来の技術〕 従来、表示画像の一部分に着目して,その部分に関連す
る情報を参照する方式は.静止画像についてのものがほ
とんどである.第7図はアップル社のハイバーカードマ
ニュアルrApple Mac.ht−ntosh H
yperCardUser’s GuideJで説明さ
れている方式の概略を示したものである.即ち,ディス
プレイ70に表示された静止画像71中に、着目する対
象部分画像74をとりまく領域をボタン73として埋め
込み,ボタン73に関連した処理76をあらかじめ決め
ておく.ボタン73は矩形領域で定義され、会話的に位
置・大きさを定義することができる.該当定義領域に対
応するボタン73が指示カーソル72によってポイント
された場合,その関連情報の参照(例えば百科辞典べ一
スをアクセスし、帽子に関するデータを獲得するなど)
などの処理76を実行する。
[Detailed Description of the Invention] [Industrial Application Field] The present invention relates to a method for referring to information related to moving images, and in particular to constructing a multimedia processing system having basic functions such as searching for moving image information and referencing related information. This paper relates to a method for referring to related information of moving images suitable for [Prior Art] Conventionally, there is a method of focusing on a part of a displayed image and referring to information related to that part. Most of them are about still images. Figure 7 is from Apple's hypercard manual rApple Mac. ht-ntosh H
This is an outline of the method explained in yperCardUser's GuideJ. That is, the area surrounding the target partial image 74 of interest is embedded as a button 73 in the still image 71 displayed on the display 70, and the processing 76 related to the button 73 is determined in advance. The button 73 is defined as a rectangular area, and its position and size can be defined interactively. When the button 73 corresponding to the relevant definition area is pointed by the instruction cursor 72, the related information is referenced (for example, accessing the encyclopedia base and acquiring data regarding hats, etc.)
Processing 76 such as the following is executed.

〔発明が解決しようとする課題〕[Problem to be solved by the invention]

従来技術では,参照領域の定義および関連参照処理を静
止画像について実現することを基本としているためミ動
画像に対して同様のことを実現するためには、動画像中
の代表的なフレームについてのみ参照領域の定義/関連
付け/参照を行うか、または動画像を構成するすべての
フレーム列に対して参照領域の定義/関連付け/参照を
行うかしなければならない。しかしながら、前者の方法
の場合は,利用者の希望するフレームがかならずしも関
連情報参照のために定義されているフレームと一致しな
いため、利用者は希望するフレームの前後を探索して参
照領域が定義されているフレームを探さなければならな
い.一方、後者の方法では,利用者は任意の関連情報を
参照することができるものの,動画像中のフレーム数は
膨大なために参照領域定義をすべてのフレームに対して
行うのは、人間の意志判断に匹敵する自動領域認識が可
能とならない限り現実的ではない. 本発明の目的は.表示された動画像画面の一部分を指示
することにより、当該部分に対してあらかじめ用意され
た関連情報を参照するにあたり、利用者が動画像中の任
意のフレームに対して、フレーム中の部分画像について
関連情報の参照を可能にするとともに、そのための関連
情報参照領域定義についてはすべてのフレームに対して
行う必要のない効率的な方式を提供することにある。
Conventional technology is based on the definition of reference areas and related reference processing for still images, so in order to achieve the same thing for moving images, it is necessary to define only the representative frames in the moving images. Either a reference area must be defined/associated/referenced, or a reference area must be defined/associated/referenced for all frame sequences that make up a moving image. However, in the case of the former method, the frame desired by the user does not necessarily match the frame defined for referencing related information, so the user searches before and after the desired frame to define the reference area. We need to find the frame that is On the other hand, with the latter method, users can refer to any related information, but since the number of frames in a video is enormous, it is difficult for humans to define the reference area for every frame. It is not practical unless automatic region recognition comparable to judgment becomes possible. The purpose of this invention is. By pointing to a part of the displayed video screen, the user can refer to the related information prepared in advance for that part. The object of the present invention is to provide an efficient method that allows related information to be referenced and does not require definition of related information reference areas for all frames.

〔課題を解決するための手段〕[Means to solve the problem]

上記目的を達成するために、本発明は、動画像の一連の
フレーム列から、対象の部分画像を含む複数フレームの
区間を抽出し、該区間を当該部分画像の変化の単調な複
数の部分区間に分割し、当該部分画像を囲む領域情報を
部分区間の両端フレームに対して格納し、該領域情報に
当該部分画像の関連情報のポインタを付与しておき、表
示された動画像の一部分が指示された場合、当該フレー
ムが含まれる部分区間の領域情報をリストアップし、各
部分区間の両端フレームの領域情報から補間により当該
フレームに係わる参照領域を求めて、指示された当該部
分を含む参照領域をみつけ、当該領域情報に付与されて
いるポインタにより関連情報を参照するようにしたこと
である.〔作 用〕 本発明では、動画像中の任意のフレーム中の部分画像に
対する関連情報のための参照領域定義を、該部分画像の
変化が単調な区間に着目して、該区間の両端においての
み行い、動画像画面の一部が指示された場合、該フレー
ムに係わる参照領域を区間両端の領域情報から補間して
得る.これにより、区間中全部のフレームに対して参照
領域定義を行う必要がない.また、領域情報には,対象
部分画像の関連情報のポインタが付与されているため、
動画像中の任意のフレーム中の部分画像に対して関連情
報参照が可能となり、利用者は参照のできるフレームを
探す必要なく、興味を覚えたフレームについてすぐに参
照ができる. 〔実施例〕 以下、本発明の一実施例について図面により説明する. 第1図は本発明方式を実現するシステムの概略ブロック
図である.動画像プレイヤ11はレーザディスクプレイ
ヤ、ビデオテープレコーダ、CD−ROMプレイヤなど
がらなり、コンピュータ12と映像信号RIA15、制
御線16で接続される。
In order to achieve the above object, the present invention extracts a plurality of frame sections including a target partial image from a series of frames of a moving image, and converts the section into a plurality of partial sections in which the partial image changes monotonically. The area information surrounding the partial image is stored for both end frames of the partial section, and a pointer of information related to the partial image is attached to the area information, so that the displayed part of the video is If so, list up the area information of the partial section that includes the frame, calculate the reference area related to the frame by interpolation from the area information of both end frames of each partial section, and create the reference area that includes the specified part. , and reference related information using the pointer attached to the area information. [Operation] In the present invention, the reference area definition for the information related to a partial image in an arbitrary frame in a moving image focuses on a section in which the change in the partial image is monotonous, and defines the reference area only at both ends of the section. When a part of the video screen is specified, the reference area related to the frame is obtained by interpolating from the area information at both ends of the section. This eliminates the need to define reference regions for all frames in the interval. In addition, since the area information is attached with a pointer to information related to the target partial image,
It is now possible to refer to related information for partial images in any frame in a video, and users can immediately refer to frames that interest them without having to search for frames that can be referenced. [Example] An example of the present invention will be described below with reference to the drawings. Figure 1 is a schematic block diagram of a system that implements the method of the present invention. The moving image player 11 includes a laser disc player, a video tape recorder, a CD-ROM player, etc., and is connected to the computer 12 via a video signal RIA 15 and a control line 16.

コンピュータ12は、動画像プレイヤ1lがら動画像を
取り込んで、ディスプレイ13に表示すると共に、マウ
スなどのポインティングデバイス14を用いて会話形式
に所望の処理を実行する.関連情報ファイル17には、
動画像中の各部分画像に関する情報(関連情報)があら
かじめ蓄積されている.利用者がディスプレイ13に表
示された動画像画面の一部分を指示することにより、コ
ンピュータ13は関連情報ファイル17をアクセスし、
当該部分の関連情報を読出してディスプレイ13に表示
する。例えば,表示されている動画像画面中の或る人物
が指示された場合、該人物に関連する情報が関連情報フ
ァイル17から読出されて表示される. コンピュータ13での処理は、動画像中の部分画像と関
連情報ファイル17中の関連情報との対応付けを定義し
てあらかじめ登録しておく処理(以下、参照領域定義処
理と称す)と,表示された動画像中の一部分を指示する
ことにより関連情報ファイル17から関連情報を読み出
す処理(以下、関連参照処理と称す)に大別される.以
下、これらの処理について詳述する. 第2図は動画像中の部分画像の参照領域定義処理のフロ
ーチャートである. 処理2lにおいては、処理対象とする動画倣中の部分画
像を選択する.この部分画像の選択は、動画像プレイヤ
11から動画像を入力し、ディスプレイ13に表示され
た動画像中から,登録者が、登録する目的に合う部分画
像を順に選択することにより行う.この場合、登録者は
各対象部分画像の名称、ID等を入力する.次に、処理
22においては、動画像を構成するフレーム列から,選
択された部分画像が実際に登場する部分フレーム列を対
象区間として抽出する.この対象区間の抽出は,動画像
プレイヤ11を制御し、会話的に、登録者がディスプレ
イ13に表示される動画像を流し見しながら、対象とす
る部分画像が登場するフレームにマーキングすることに
より行う.処理23においては、処理22で抽出した対
象区間を調べ、対象部分画像について動き等の変化が単
調な部分区間に更に分割する.この場合も,動画像プレ
イヤl1を制御し,会話的に、登録者が対象区間の対象
部分画像の動き等の変化を見て、分割点のフレームにマ
ーキングすることで行う。また、登録者は、分割した各
部分区間を識別するために、部分区間番号等を入力する
.次に、処理24においては、分割されマーキングされ
た各部分区間の両端のフ!ノームを区間始点フレーム、
区間終了フレームとし、フレーム中に表示される対象部
分画像に関する参照領域を定義する。参照領域の定義は
,領域を囲む輪郭図形をフレーム画像に重豊し、登録者
が会話的に変形・移動できるようにすることにより実現
する. 処理25においては,対象部分画像を含む全ての分割部
分区間に対して処理24の参照領域定義の処理を終了し
たか判定する.分割した全ての部分区間に対する24の
処理が終了すると、処理26において、当該対象部分画
像と関連情報ファイル17中の関連情報との対応付けを
行う.これは、処理21での対象部分画像の選択の際に
入力した当該部分画像の名称、ID等により関連情報フ
ァイルl7を検索し、関連情報の格納アドレス(ポイン
タ)を処理24で作成した参照領域定義情報に付加する
ことで行う.次に、処理27において,定義すべきすべ
ての部分画像に対して21〜26の処理の終了を判断す
ると、参照領域定義処理が終了する. 第3図は動画像画面の一部を指示することにより、その
関連情報を獲得する関連参照処理のフローチャートであ
る. 処理3 1においては、ディスプレイ13に表示された
動画像画面に対し,利用者からの参照指示を検出する.
この参照指示の検出は、例えば表示スクリーン上にタッ
チスクリーンを設けてタッチを検出するか,またはマウ
ス等に連動して表示動画像中に重畳される指示カーソル
とボタンによって実現する.処理3lにより参照指示を
検出すると,処理32において.あらかじめ登録してあ
る各部分画倣に対応する定義区間から、指示のあったフ
レームを含む定義区間をすべてリストアップする.次に
、処理33においては、このリストアップされたそれぞ
れの定義区間に対して、その部分区間の両端についての
み定義されている参照領域定義情報、例えば領域の位置
や大きさなどを読み出す.さらに.処理34において,
部分区間両端のフレーム番号および参照指示のあった対
象フレーム番号と、処理33において得た参照領域定義
情報から、対象フレーム中での参照領域を補間により求
める.次に,処理35においては、対象フレーム中で参
照指示のあった点が処理34で求めた参照領域に含まれ
るか判断し.含まれない場合にはリストアップされてい
る別の定義区間について33〜35の処理を行う.含ま
れる場合には当該定義区間が目的の区間ヒ判定し,処理
36において、その部分区間の参照領域定義情報に付与
されているポインタにより関連情報ファイル17をアク
セスし、指示された部分画像の関連情報を読み出す. 第4図及び第5図に区間分割、補間処理の具体例を示す
.第4図中,40はフレーム列からなる動画像、41は
その内の1フレームを示す.第4図の例は、着目する部
分画像が43のような人物であるとした場合,関連する
対象区間が45で,かつ、部分画像の変化ヒして、人物
の位置の変化が単調な区間1,区間2の46.47に分
割されたことを示している.さらに,区間1の始点フレ
ームにおける参照定義領域が42、区間1の終点(区間
の始点)については43、区間2の終点については44
であることを示している,実際に利用者からの参照指示
が49で示すフレ一ムであるとした場合、当該指示フレ
ーム上での参照領域を、例えば第5図に示すような補間
を行って求める.第5図は,対象区間中のフレームを重
畳して示したもので.あらかじめ定a(登録)されてい
る参照定義領域は区間1の始点、終点(区間2の始点)
、区間2の終点の3つである.本例の場合、領域定義は
矩形で表わし、部分画像の変化の単調性が線形な区間に
分割されており、53の参照指示フレーム対応の参照定
義領域を単に区間幅εフレーム番号差から比例配分する
ことで求めている. 第6図は、参照領域定義処理で生戒され登録されるデー
タ構造の一例を示したものである.61は動画像中の対
象ヒする部分画像のリストであり、対象部分画像の名称
、工D等で示される.各対象画像ごとに,部分区間リス
1・62へのポインタを持つ。部分区間リスト62は、
対象部分画像に関連するフレーム区間を複数に分割した
部分区間のリストを示し、各部分区間ごヒに、当該部分
区間の始点/終点を示す区間足義情報63へのポイン夕
を持つ。一つの区間定義憤報63は、当該部分区間の始
点フレーム番号、終点フレームを1組として構成される
。各区間定義情報63は、参照領域定義情報64へのポ
インタを持ち,一つの参照領域定義情報64は、参照領
域を定義するための情報として例えば領域の重心、領域
の広がりを重心を中心にして定めるための水平/垂直オ
フセット,さらに参照時の関連情報処理へのポインタな
どからなる. 参照時J指示された点のフレームの含まれる区間定義情
報63が全てリストアップされ、その参照領域定義情報
64により対象フレーム上での参照領域を補間により求
め、指示点が参照定義領域に含まれる該当参照領域定義
情報64を認識する。
The computer 12 captures a moving image from the moving image player 1l, displays it on the display 13, and executes desired processing in a conversational manner using a pointing device 14 such as a mouse. Related information file 17 contains
Information regarding each partial image in a video image (related information) is stored in advance. When the user indicates a part of the video screen displayed on the display 13, the computer 13 accesses the related information file 17,
The relevant information of the relevant portion is read out and displayed on the display 13. For example, when a certain person in the displayed moving image screen is designated, information related to the person is read from the related information file 17 and displayed. The processing performed by the computer 13 includes processing for defining and pre-registering the correspondence between partial images in a moving image and related information in the related information file 17 (hereinafter referred to as reference area definition processing), and processing for displaying the displayed image. This process is broadly divided into a process of reading out related information from the related information file 17 by specifying a part of the video image (hereinafter referred to as related reference process). Below, these processes will be explained in detail. Figure 2 is a flowchart of reference area definition processing for partial images in a moving image. In process 2l, a partial image during moving image copying is selected as a processing target. This selection of partial images is performed by the registrant inputting a moving image from the moving image player 11 and sequentially selecting partial images suitable for the purpose of registration from among the moving images displayed on the display 13. In this case, the registrant inputs the name, ID, etc. of each target partial image. Next, in process 22, a partial frame sequence in which the selected partial image actually appears is extracted as a target section from the frame sequence forming the moving image. This target section can be extracted by controlling the video player 11 and interactively marking frames in which the target partial image appears while the registrant pans through the video displayed on the display 13. conduct. In process 23, the target section extracted in process 22 is examined, and the target partial image is further divided into partial intervals in which changes in movement and the like are monotonous. In this case as well, the registrant controls the video player l1 and interactively observes changes in the movement of the target partial image in the target section and marks the frames at the dividing points. The registrant also inputs the partial section number, etc. in order to identify each divided partial section. Next, in process 24, the edges of each divided and marked partial section are checked! The gnome is the interval start frame,
This is the end frame of the section, and a reference area regarding the target partial image displayed in the frame is defined. The definition of the reference area is achieved by adding a contour figure surrounding the area to the frame image and allowing the registrant to transform and move it interactively. In process 25, it is determined whether the reference area definition process in process 24 has been completed for all divided partial sections including the target partial image. When the processing in step 24 for all the divided partial sections is completed, in step 26, the target partial image is associated with the related information in the related information file 17. This is done by searching the related information file 17 using the name, ID, etc. of the partial image input when selecting the target partial image in process 21, and searching the related information storage address (pointer) in the reference area created in process 24. This is done by adding it to the definition information. Next, in process 27, when it is determined that the processes 21 to 26 have been completed for all partial images to be defined, the reference area definition process ends. FIG. 3 is a flowchart of a related reference process for acquiring related information by specifying a part of a moving image screen. In process 3 1, a reference instruction from the user to the moving image screen displayed on the display 13 is detected.
Detection of this reference instruction is achieved, for example, by providing a touch screen on the display screen and detecting a touch, or by using an instruction cursor and buttons that are superimposed on the displayed video image in conjunction with a mouse or the like. When a reference instruction is detected in process 3l, in process 32. List all defined sections that include the specified frame from the pre-registered defined sections corresponding to each partial image copy. Next, in process 33, for each of the listed defined sections, reference area definition information defined only for both ends of the partial section, such as the position and size of the area, is read out. moreover. In process 34,
The reference area in the target frame is determined by interpolation from the frame numbers at both ends of the partial interval, the target frame number with the reference instruction, and the reference area definition information obtained in step 33. Next, in process 35, it is determined whether the reference point in the target frame is included in the reference area determined in process 34. If it is not included, perform steps 33 to 35 for another defined interval listed. If it is included, it is determined that the defined section is the target section, and in step 36, the related information file 17 is accessed using the pointer attached to the reference area definition information of that partial section, and the related information of the specified partial image is determined. Read out information. Figures 4 and 5 show specific examples of section division and interpolation processing. In FIG. 4, numeral 40 indicates a moving image consisting of a sequence of frames, and numeral 41 indicates one frame of the moving image. In the example of Fig. 4, if the partial image of interest is a person like 43, the relevant target section is 45, and the change in the partial image is a section in which the position of the person changes monotonically. 1, it shows that it was divided into 46.47 of section 2. Furthermore, the reference definition area in the start point frame of section 1 is 42, the end point of section 1 (start point of section) is 43, and the end point of section 2 is 44.
If the reference instruction from the user is actually the frame indicated by 49, the reference area on the instruction frame is interpolated as shown in FIG. 5, for example. Find it. Figure 5 shows the frames in the target section superimposed. The reference definition areas that are predefined a (registered) are the start point and end point of section 1 (start point of section 2)
, are the three end points of section 2. In this example, the region definition is represented by a rectangle, and the partial image is divided into sections in which the monotony of change is linear.The reference definition region corresponding to the 53 reference instruction frames is simply distributed proportionally from the section width ε frame number difference. I am asking for it by doing. Figure 6 shows an example of the data structure that is registered and registered in the reference area definition process. 61 is a list of target partial images in the moving image, and is indicated by the name of the target partial image, D, etc. Each target image has a pointer to the subinterval list 1.62. The partial interval list 62 is
A list of subsections obtained by dividing the frame section related to the target partial image into a plurality of sections is shown, and each subsection has a pointer to the section foot prosthesis information 63 indicating the start point/end point of the subsection. One section definition report 63 is composed of a set of a starting point frame number and an ending point frame of the partial section. Each section definition information 63 has a pointer to the reference area definition information 64, and one reference area definition information 64 is information for defining the reference area, such as the center of gravity of the area, the spread of the area, and the center of gravity. It consists of horizontal/vertical offsets to determine, and pointers to related information processing when referencing. At the time of reference, all the section definition information 63 including the frame of the designated point is listed, and the reference region definition information 64 is used to find the reference region on the target frame by interpolation, and the designated point is included in the reference definition region. The relevant reference area definition information 64 is recognized.

そして、この認識された参照領域定義情報64に付与さ
れている関連処理ポインタで関連情報ファイル65をア
クセスし、関連情報リストを読み出す. 〔発明の効果〕 以上説明したように,本発明によれば、一連のフレーム
列からなる動画像に効率的な参照領域定義を行うことが
できるとともに,実際の利用時には動画像のうちの任意
のフレーム中の部分画像に対して関連参照することがで
きるため、例えば映像データベース検索システムなどに
応用すれば、映像中に登場する人物・事物に関連する情
報の参照や,関連する新たな場面へのジャンプなどが迅
速に行えるなどの効果がある.
Then, the related information file 65 is accessed using the related processing pointer attached to the recognized reference area definition information 64, and the related information list is read out. [Effects of the Invention] As explained above, according to the present invention, it is possible to efficiently define a reference area for a moving image consisting of a series of frames, and in actual use, it is possible to define an arbitrary reference area in a moving image. Since it is possible to refer to partial images in a frame, if it is applied to a video database search system, for example, it can be used to refer to information related to people or things appearing in a video, or to search for new related scenes. It has the effect of allowing you to jump quickly.

【図面の簡単な説明】[Brief explanation of drawings]

第11jAは本発明を実現するシステムの概略ブロック
図、第2図は本発明の参照領域定義処理の一実施例のフ
ローチャート、第3図は本発明の関連参照処理の一実施
例のフローチャート,第4図及び第5図は本発明の具体
例を示す図、第6図は参照領域定義処理で登録されるデ
ータ構造例を示す図,第7@は従来方式を説明するため
の図である.11・・・動画像プレイヤ、  12・・
・コンピュータ、13・・・ディスプレイ、 14・・
・ポインティンングデバイス,  17・・・関連情報
ファイル.第1 図 第7図 第2図
11jA is a schematic block diagram of a system that realizes the present invention, FIG. 2 is a flowchart of an embodiment of reference area definition processing of the present invention, FIG. 3 is a flowchart of an embodiment of related reference processing of the present invention, 4 and 5 are diagrams showing specific examples of the present invention, Figure 6 is a diagram showing an example of a data structure registered in the reference area definition process, and Figure 7 is a diagram for explaining the conventional method. 11...Video image player, 12...
・Computer, 13...Display, 14...
・Pointing device, 17...Related information file. Figure 1 Figure 7 Figure 2

Claims (1)

【特許請求の範囲】[Claims] (1)動画像の表示画面の一部を指示することにより、
当該部分に対してあらかじめ設定された関連情報を参照
する方式であって、 動画像の一連のフレーム列から、対象の部分画像を含む
複数フレームの区間を抽出し、該区間を当該部分画像の
変化の単調な複数の部分区間に分割し、当該部分画像を
囲む領域情報を部分区間の両端フレームに対して格納し
、該領域情報に当該部分画像の関連情報のポインタを付
与し、 表示された動画像の一部分が指示された場合、当該フレ
ームが含まれる部分区間の領域情報をリストアップし、
各部分区間の両端フレームの領域情報から補間により当
該フレームに係わる参照領域を求めて、指示された当該
部分を含む参照領域をみつけ、当該領域情報に付与され
ているポインタにより関連情報を参照することを特徴と
する動画像の関連情報参照方式。
(1) By specifying a part of the video display screen,
This is a method that refers to related information set in advance for the relevant part, and extracts a section of multiple frames that includes the target partial image from a series of frames of a video image, and uses this method to calculate changes in the partial image. The video is divided into a plurality of monotonous sub-intervals, the area information surrounding the sub-image is stored for both end frames of the sub-interval, a pointer of information related to the sub-image is attached to the area information, and the displayed video is When a part of the image is specified, list the area information of the partial section that includes the frame,
Find the reference area related to the frame by interpolation from the area information of both end frames of each partial section, find the reference area that includes the specified part, and refer to the related information using the pointer attached to the area information. A video related information reference method characterized by:
JP1187967A 1989-07-20 1989-07-20 Related information reference system for moving image Pending JPH0352070A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1187967A JPH0352070A (en) 1989-07-20 1989-07-20 Related information reference system for moving image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1187967A JPH0352070A (en) 1989-07-20 1989-07-20 Related information reference system for moving image

Publications (1)

Publication Number Publication Date
JPH0352070A true JPH0352070A (en) 1991-03-06

Family

ID=16215286

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1187967A Pending JPH0352070A (en) 1989-07-20 1989-07-20 Related information reference system for moving image

Country Status (1)

Country Link
JP (1) JPH0352070A (en)

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04291678A (en) * 1991-03-20 1992-10-15 Canon Inc User interface control system
JPH04326181A (en) * 1991-04-25 1992-11-16 Canon Inc Picture processor
JPH05189153A (en) * 1991-04-24 1993-07-30 Oki Electric Ind Co Ltd Moving image pointing system
JPH05204990A (en) * 1992-01-29 1993-08-13 Hitachi Ltd Key word imparting method for animation image information
JPH05282379A (en) * 1992-02-06 1993-10-29 Internatl Business Mach Corp <Ibm> Method and device for retrieval of dynamic image
JPH05334374A (en) * 1992-05-28 1993-12-17 Ibm Japan Ltd System for scene information input and method therefor
JPH06295312A (en) * 1993-04-06 1994-10-21 Fujitsu Sooshiaru Sci Raboratori:Kk Method for retrieving data
JPH07175816A (en) * 1993-10-25 1995-07-14 Hitachi Ltd Video associative retrieving device and method
JPH0855131A (en) * 1994-08-12 1996-02-27 Nippon Telegr & Teleph Corp <Ntt> Method and device for identifying object in dynamic image
JPH0981361A (en) * 1995-09-12 1997-03-28 Toshiba Corp Image display method, data collection method and object specifying method
JPH1021261A (en) * 1996-07-05 1998-01-23 Hitachi Ltd Method and system for multimedia data base retrieval
JPH10187759A (en) * 1996-01-31 1998-07-21 Mitsubishi Electric Corp Moving picture anchor displaying, selecting, and stetting device, moving picture hypermedia device using moving picture anchor, and moving picture provision system
JPH11161664A (en) * 1997-11-28 1999-06-18 Toshiba Corp Reproduction system for av information and reproducing method applied to same
US5970504A (en) * 1996-01-31 1999-10-19 Mitsubishi Denki Kabushiki Kaisha Moving image anchoring apparatus and hypermedia apparatus which estimate the movement of an anchor based on the movement of the object with which the anchor is associated
JP2000076463A (en) * 1998-09-03 2000-03-14 Jisedai Joho Hoso System Kenkyusho:Kk Analyzing method of video stream structure, structure analyzing process displaying method, and structure displaying method
US6144972A (en) * 1996-01-31 2000-11-07 Mitsubishi Denki Kabushiki Kaisha Moving image anchoring apparatus which estimates the movement of an anchor based on the movement of the object with which the anchor is associated utilizing a pattern matching technique
US6195497B1 (en) 1993-10-25 2001-02-27 Hitachi, Ltd. Associated image retrieving apparatus and method
JP2001344251A (en) * 2000-06-05 2001-12-14 Nippon Telegr & Teleph Corp <Ntt> Method and device for contents retrieval, and recording medium with contents retrieval program recorded thereon
JP2004127311A (en) * 1993-10-25 2004-04-22 Hitachi Ltd Associative retrieval device of image
JP2005173716A (en) * 2003-12-08 2005-06-30 Epson Kowa Corp Method for discriminating and controlling moving area in moving picture manual
JP2005295167A (en) * 2004-03-31 2005-10-20 Toshiba Corp Meta-data, and device, method and program for distributing meta-data, and device, system, method and program for reproducing moving picture
US7440675B2 (en) 1997-11-28 2008-10-21 Kabushiki Kaisha Toshiba AV information reproducing system and a reproducing method applied to the same system

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04291678A (en) * 1991-03-20 1992-10-15 Canon Inc User interface control system
JPH05189153A (en) * 1991-04-24 1993-07-30 Oki Electric Ind Co Ltd Moving image pointing system
JPH04326181A (en) * 1991-04-25 1992-11-16 Canon Inc Picture processor
JPH05204990A (en) * 1992-01-29 1993-08-13 Hitachi Ltd Key word imparting method for animation image information
JPH05282379A (en) * 1992-02-06 1993-10-29 Internatl Business Mach Corp <Ibm> Method and device for retrieval of dynamic image
JPH05334374A (en) * 1992-05-28 1993-12-17 Ibm Japan Ltd System for scene information input and method therefor
JPH06295312A (en) * 1993-04-06 1994-10-21 Fujitsu Sooshiaru Sci Raboratori:Kk Method for retrieving data
JPH07175816A (en) * 1993-10-25 1995-07-14 Hitachi Ltd Video associative retrieving device and method
JP2004127311A (en) * 1993-10-25 2004-04-22 Hitachi Ltd Associative retrieval device of image
US6195497B1 (en) 1993-10-25 2001-02-27 Hitachi, Ltd. Associated image retrieving apparatus and method
JPH0855131A (en) * 1994-08-12 1996-02-27 Nippon Telegr & Teleph Corp <Ntt> Method and device for identifying object in dynamic image
JPH0981361A (en) * 1995-09-12 1997-03-28 Toshiba Corp Image display method, data collection method and object specifying method
US6144972A (en) * 1996-01-31 2000-11-07 Mitsubishi Denki Kabushiki Kaisha Moving image anchoring apparatus which estimates the movement of an anchor based on the movement of the object with which the anchor is associated utilizing a pattern matching technique
US5970504A (en) * 1996-01-31 1999-10-19 Mitsubishi Denki Kabushiki Kaisha Moving image anchoring apparatus and hypermedia apparatus which estimate the movement of an anchor based on the movement of the object with which the anchor is associated
JPH10187759A (en) * 1996-01-31 1998-07-21 Mitsubishi Electric Corp Moving picture anchor displaying, selecting, and stetting device, moving picture hypermedia device using moving picture anchor, and moving picture provision system
JPH1021261A (en) * 1996-07-05 1998-01-23 Hitachi Ltd Method and system for multimedia data base retrieval
JPH11161664A (en) * 1997-11-28 1999-06-18 Toshiba Corp Reproduction system for av information and reproducing method applied to same
US7440675B2 (en) 1997-11-28 2008-10-21 Kabushiki Kaisha Toshiba AV information reproducing system and a reproducing method applied to the same system
US8396345B2 (en) 1997-11-28 2013-03-12 Kabushiki Kaisha Toshiba AV information reproducing system and a reproducing method applied to the same system
JP2000076463A (en) * 1998-09-03 2000-03-14 Jisedai Joho Hoso System Kenkyusho:Kk Analyzing method of video stream structure, structure analyzing process displaying method, and structure displaying method
JP2001344251A (en) * 2000-06-05 2001-12-14 Nippon Telegr & Teleph Corp <Ntt> Method and device for contents retrieval, and recording medium with contents retrieval program recorded thereon
JP2005173716A (en) * 2003-12-08 2005-06-30 Epson Kowa Corp Method for discriminating and controlling moving area in moving picture manual
JP2005295167A (en) * 2004-03-31 2005-10-20 Toshiba Corp Meta-data, and device, method and program for distributing meta-data, and device, system, method and program for reproducing moving picture

Similar Documents

Publication Publication Date Title
JPH0352070A (en) Related information reference system for moving image
US7110592B2 (en) Image recording apparatus, image reproducing apparatus and methods therefor
JP2994177B2 (en) System and method for locating boundaries between video segments
US5963203A (en) Interactive video icon with designated viewing position
US5892520A (en) Picture query system using abstract exemplary motions of a pointing device
JPH06208500A (en) Device for preparing video data with hyper-text
JP2000224542A (en) Image storage device, monitor system and storage medium
JP4165160B2 (en) Design production support system and design production support program
JP2756073B2 (en) Data search method
US20020111939A1 (en) Image data retrieval apparatus and method capable of facilitating retrieval of desired image data from image database
KR100489890B1 (en) Apparatus and Method to Provide Stereo Video or/and Detailed Information of Geographic Objects
EP0636994B1 (en) Method of and apparatus for retrieving dynamic images and method of and apparatus for managing images
US8265463B2 (en) Information processing apparatus, method for the same and information gathering system
JP3221028B2 (en) Keyword assignment method for moving image information
JPH07200632A (en) Information processor
JP2019093152A (en) Information processing device, information processing method and program
JP2002262233A (en) Behavior measurement system
JP4334898B2 (en) Database construction device, database construction program, image retrieval device, image retrieval program, and image recording / reproducing device
JP2012242878A (en) Similar image search system
JP2013164667A (en) Video retrieval device, method for retrieving video, and video retrieval program
JP5012644B2 (en) Presentation recording apparatus, presentation playback apparatus, and program
JPH0680510B2 (en) Image information retrieval device
JP2007279923A (en) Support device and support program for design production
JPH05242166A (en) Multi-media data editing and display system
JP2004110096A (en) User operation log visualizing method, user operation log visualizing device, program and its recording medium