JP3711993B2 - Video associative search device - Google Patents

Video associative search device Download PDF

Info

Publication number
JP3711993B2
JP3711993B2 JP2003384488A JP2003384488A JP3711993B2 JP 3711993 B2 JP3711993 B2 JP 3711993B2 JP 2003384488 A JP2003384488 A JP 2003384488A JP 2003384488 A JP2003384488 A JP 2003384488A JP 3711993 B2 JP3711993 B2 JP 3711993B2
Authority
JP
Japan
Prior art keywords
video
information
displayed
scene
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2003384488A
Other languages
Japanese (ja)
Other versions
JP2004127311A (en
Inventor
晃朗 長坂
孝文 宮武
博唯 上田
和明 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2003384488A priority Critical patent/JP3711993B2/en
Publication of JP2004127311A publication Critical patent/JP2004127311A/en
Application granted granted Critical
Publication of JP3711993B2 publication Critical patent/JP3711993B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は,映像を連想的に検索し任意の映像を見つけ出す装置及び方法に関する。   The present invention relates to an apparatus and a method for associatively searching for an image and finding an arbitrary image.

近年,計算機の高速化と大容量化を背景にして,従来は扱えなかった映画やビデオなどの映像情報を対象としたデータベースの構築が活発になっている。これに伴い,蓄積された大量の映像の中から,所望のシーンを効率良く選び出す検索技術の実用化が進められている。こうした検索のための方法としては,ユーザが所望のシーンの特徴もしくはキーワード等を指示し,計算機がそれに合致したキーワードが付けられているシーンを見つけ出す方法が,映像データベースの分野で一般的となっている。しかし,シーンの特徴を的確に指定することは,検索に不慣れなユーザにとってはもちろん,熟練者にとっても非常に難しく,思い通りの検索結果が得られないことが多い。   In recent years, with the increase in speed and capacity of computers, the construction of databases for video information such as movies and videos that could not be handled in the past has become active. Along with this, search technology is being put to practical use for efficiently selecting a desired scene from a large amount of stored video. As a method for such a search, a method in which a user designates a desired scene feature or keyword and a computer finds a scene to which a keyword matching the keyword is attached has become common in the field of video databases. Yes. However, it is very difficult not only for users who are unfamiliar with the search but also for the skilled person to specify the features of the scene accurately, and the desired search results are often not obtained.

古典的な情報である本には,検索の補助情報として,目次と索引が用意されている。目次は,本文のひとまとまりを象徴するキーワードを,本文中における進行順に列挙した情報である。索引は,本文中の重要なキーワードを,五十音順などの見つけやすい順番で整理して列記した情報である。両者に共通する最大の特徴は,そうしたキーワードが一覧表示されていることにある。そして,必ず巻頭もしくは巻末にあると決まっており,探す手間がかからないことである。読者は
,本文中の一節を,目次や索引を用いることで,自らキーワードを考えることなく探し当てることができる。また,目次を見れば,本文の概要を把握でき,その本が読むに値するかどうかも短時間でわかる。
The book, which is classical information, has a table of contents and an index as auxiliary information for searching. The table of contents is information in which keywords that symbolize a group of texts are listed in order of progress in the text. The index is information in which important keywords in the text are arranged and arranged in an easy-to-find order such as alphabetical order. The biggest feature common to both is that such keywords are listed. And it is always at the beginning or end of the book, so it doesn't take time to search. Readers can find passages in the text without thinking about keywords themselves by using the table of contents and index. Also, if you look at the table of contents, you can get an overview of the main text and see if the book is worth reading in a short time.

目次や索引による検索には,表示されているキーワードが多すぎると適当な部分が見つけにくい,逆に少ないと適当なキーワードがそもそも存在しない,という問題点もある。しかし,これらの問題点は,ハイパーテキストやフルテキスト検索との併用で解決できる。すなわち,まず目次・索引の項目数をある程度限定してユーザに提示する。ユーザは,その中から,とりあえず目的の部位に関係しそうな次善のキーワードを使って本文を参照し,その本文中に意中の部位に直接関係ありそうなキーワードがないか探せばよい。見つかれば,ハイパーテキストの機構を使って,意中の部位を参照することで目的は達せられる。これはオンラインマニュアルでの検索などで日常的に行われるテクニックである。ハイパーテキストには,あらかじめキーワードが登録されていることが必要であるが,フルテキスト検索を使えば,登録されていないキーワードでも同様のことができる。このように,キーワードを連想的に辿る機構によって,目次や索引の利用できる範囲が広がり,多くの場合,眼前に現れるキーワードをただ取捨選択していくだけの処理で目的の部位が検索できる(以下,連想検索と呼ぶ)ようになる。   Searching by table of contents or index has the problem that it is difficult to find the appropriate part if there are too many keywords displayed, and conversely, if there are too few keywords, there are no appropriate keywords in the first place. However, these problems can be solved by using hypertext and full text search together. That is, first, the number of items in the table of contents / index is limited to some extent and presented to the user. The user simply refers to the text using the second best keyword that seems to be related to the target part, and searches the text for a keyword that seems to be directly related to the intended part. Once found, the goal can be achieved by referring to the intended site using the hypertext mechanism. This is a technique that is routinely used for searching online manuals. Hypertext requires keywords to be registered in advance, but if you use full-text search, you can do the same with keywords that are not registered. In this way, the associative tracking of keywords expands the range of contents and indexes that can be used, and in many cases, the target site can be searched by simply selecting keywords that appear in front of you (see below). This is called associative search).

こうした機構は,映像の検索においても有効と考えられる。映像においては,その中に登場する人や物などの様々な事物が,上記のキーワードに相当するものとして用いることができる。これを用いた連想検索を実現する要素技術としては
,例えば,映像の表示画面中の事物から関連するシーンや情報を参照する方式として,特開平3-52070号公報「動画像の関連情報参照方式」がある。これ
によれば,映像中の各事物の登場する画像区間及び位置を記憶する手段と,対応する関連情報と結び付ける手段とを設けることにより,各事物の表示されている画面上の一点をマウス等によってポイントすることで容易に関連するシーンにジャンプしたり,関連情報を呼び出すことができる。また,画像処理を用いることによって,各事物とその関連情報との対応づけを省力化する手段として,例えば
,発明者らによる特開平5−204990号公報がある。
Such a mechanism is considered to be effective in video retrieval. In video, various things such as people and objects appearing in the video can be used as equivalent to the above keywords. As an elemental technology for realizing an associative search using this, for example, as a method of referring to related scenes and information from things in a video display screen, Japanese Patent Laid-Open No. 3-52070, “Related information reference method of moving image” There is. According to this, by providing means for storing the image section and position where each thing in the video appears and means for linking with the corresponding related information, a point on the screen on which each thing is displayed is provided by a mouse or the like. You can easily jump to related scenes by calling and call related information. Further, as means for saving the correspondence between each thing and its related information by using image processing, there is, for example, Japanese Patent Laid-Open No. 5-204990 by the inventors.

特開平5−204990号公報Japanese Patent Laid-Open No. 5-204990

上記で挙げた先行技術は,専ら各事物とその関連情報との対応づけを行うための手段であって,検索システム全体としての構成やユーザの側の使い勝手については十分検討されているとはいえない。また,あらかじめ関連情報との対応づけが済んでいる事物についてしか連想的に辿ることはできないという問題点がある。   The prior art mentioned above is a means for associating each thing with its related information exclusively, and although the configuration of the entire search system and the usability on the user side have been sufficiently studied. Absent. In addition, there is a problem that it can only be traced associatively only for things that have been associated with related information in advance.

本発明の目的は,映像の検索にあたって,計算機が提示する限定された情報の中から,ただ取捨選択していくだけの操作で,ユーザが記憶を連想的に辿りながら所望のシーンを見つけることができるインタフェースを提供することにある。   An object of the present invention is to allow a user to find a desired scene while associatively tracing a memory by simply selecting and selecting from limited information presented by a computer when searching for a video. To provide an interface.

本発明の第二の目的は,あらかじめ対応づけのされていない事物についても連想的に辿ることができるような手段を提供することにある。   A second object of the present invention is to provide means that can associatively trace things that have not been associated in advance.

本発明は,画面上に任意の映像を表示するための映像表示領域と,映像の再生状態を制御するための操作パネル領域と,映像の目次や索引に相当するインデクス情報を表示する領域とを具備し,それらの表示領域のうち,いずれがポイントされたかを検出する手段と,このポイント情報と別途蓄積してある映像の記述情報とから次に再生すべき映像の状態を定める手段を有する。また,表示中の事物とその位置とを把握して,その事物の関連情報を重畳して表示する手段と,関連情報登録変更手段を設ける。また,これら処理に必要な情報を登録し管理する手段を設ける。   The present invention includes a video display area for displaying an arbitrary video on the screen, an operation panel area for controlling the playback state of the video, and an area for displaying index information corresponding to the video table of contents and index. And a means for detecting which of the display areas is pointed, and a means for determining the state of the video to be reproduced next from the point information and the video description information stored separately. Also, a means for grasping the displayed object and its position and displaying the related information of the object in a superimposed manner and a related information registration changing means are provided. Also, a means for registering and managing information necessary for these processes is provided.

さらに,表示中のシーンに現れている特定の事物を指定する手段と,その事物の特徴量を抽出するための手段と,その特徴量と合致する特徴量を持つ他の映像シーンを探し出す手段と,見つかった映像シーンに直ちにジャンプする手段とを設ける。   Furthermore, means for designating a specific thing appearing in the scene being displayed, means for extracting the feature amount of the thing, means for searching for another video scene having a feature amount that matches the feature amount, , Means for immediately jumping to the found video scene.

本発明によれば,所望のシーンを探すとき,映像のインデクス情報の中に所望のシーンに直接関係のある事物の情報がなくても,所望のシーンを連想させる何らかの事物を次々と辿りながら目的のシーンまで到達することができる。このように,インデクス表示と連想検索を有機的に組み合わせることにより,インデクスの利用できる範囲が大幅に広がり,多くの場合,計算機が提示する情報をただ取捨選択していくだけの処理で目的のシーンが検索できるようになる。そのため,目的のシーンを一意に決定づける適切なキーワードもしくは画像特徴量を考えたり指示する必要がなくなり,あやふやな記憶でも検索ができ,初心者にもわかりやすい。また,関連情報重畳手段によって,再生中の映像に現れている事物の関連情報のうち選択された一部または全部の情報を,再生映像中の該事物の位置に重畳,もしくは該事物とその関連情報とが対応していることを明示される形態で表示されるので,連想検索途中で現れた事物に関する情報を即座に,かつ,どの事物の情報なのか混同することなく正確に知ることができる。また,関連情報登録変更手段を設けることにより,再生中の映像に現れている事物の関連情報の一部または全部の情報を,その事物が現れたその場で直ちに登録もしくは変更できる。   According to the present invention, when searching for a desired scene, even if there is no information of an object directly related to the desired scene in the index information of the video, the object is traced one after another for associating the desired scene. Can reach the scene. In this way, organically combining index display and associative search greatly expands the range of indexes that can be used, and in many cases, the target scene can be obtained by simply selecting the information presented by the computer. It becomes possible to search. Therefore, it is not necessary to think or instruct an appropriate keyword or image feature that uniquely determines the target scene, and it is possible to search even with ambiguous memory, which is easy for beginners to understand. In addition, the related information superimposing means superimposes a part or all of the selected information related to the thing appearing in the video being played back at the position of the thing in the playback video, or the thing and its relation. Because it is displayed in a form that clearly shows that it corresponds to information, it is possible to immediately and accurately know information about an object that appears during an associative search without confusing what information it is. . In addition, by providing a related information registration changing means, it is possible to immediately register or change part or all of the related information of the thing appearing in the video being reproduced when the thing appears.

また,現在画面に表示されている事物が,関連するシーンにジャンプするための情報を未だ付与されていない場合にも,表示画面から事物についての特徴量を抽出し,特徴量の照合を行う手段によって,その事物が現れている別のシーンをその場で検索して映し出すことができる。   In addition, even when an item currently displayed on the screen has not yet been given information for jumping to a related scene, a feature amount is extracted from the display screen and a feature amount is collated. By doing this, you can search and display another scene where the thing appears.

本発明によれば,所望のシーンを探すときには,インデクス情報から特定しきれなくても,そのシーンに関係する何らかの手掛かりが現れているシーンさえ見つかれば,その手掛かりが現れるシーンを連想的に検索しながら最終的に所望のシーンが得られる,というように,それぞれの表示を融合的に用いた多面的な映像検索ができる。また,再生中の映像中の事物に関する情報を即座に,かつ,どの事物の情報なのか混同することなく正確に知ることができる。また,再生中の映像に現れている事物の関連情報の一部または全部の情報を,該事物が現れたその場で直ちに変更できる。また,本発明のモニタウインドウによれば,再生中のシーンの全映像の中での位置を常に監視することもでき,連想検索でシーンがジャンプしても,ワイプ等の特殊効果と相俟って,そのことが明示的にわかり,通常のシーン変わりと混同することがなくなる。また,重畳表示された関連情報の表示領域をポイントしても,事物をポイントしたのと同じ効果が得られるので,シーンごとに都合のよいポイントの方法を選ぶことができ操作性が向上する。また,表示する関連情報を一覧にすることで,キーを直接入力する手間が省け,またキーを忘れてしまった場合でも,メニューを見て思いだせる。以上のように,本発明によれば,使い勝手のよい連想検索が実現できる。   According to the present invention, when searching for a desired scene, even if a scene where some clue related to the scene appears even if it cannot be specified from the index information, the scene where the clue appears is associatively searched. However, a multi-faceted video search using each display can be performed such that a desired scene is finally obtained. In addition, it is possible to know information about an object in the video being played back immediately and accurately without being confused as to what information it is. In addition, it is possible to immediately change a part or all of the related information of the thing appearing in the video being reproduced at the place where the thing appears. In addition, according to the monitor window of the present invention, it is possible to always monitor the position of the scene being played in all the images, and even if the scene jumps by associative search, it is combined with special effects such as wipe. This is clearly understood and is no longer confused with normal scene changes. Also, pointing the display area of related information displayed in a superimposed manner provides the same effect as pointing to an object, so that a convenient point method can be selected for each scene, improving operability. Also, by listing related information to be displayed, you can save time and effort to enter keys directly, and even if you forget a key, you can think of it by looking at the menu. As described above, according to the present invention, a user-friendly associative search can be realized.

以下,本発明の1実施例を詳細に説明する。   Hereinafter, an embodiment of the present invention will be described in detail.

図2は,本発明を実現するためのシステム構成例の概略ブロック図である。1はCRT等のディスプレイ装置であり,コンピュータ4の出力画面を表示する。12は,音声を再生するためのスピーカである。コンピュータ4に対する命令は,マウス等の間接的なポインティングデバイス5,タッチパネル等の直接的なポインティングデバイス13,あるいはキーボード11を使って行うことができる。10の映像再生装置は,光ディスクやビデオデッキ等の映像を再生するための装置である。映像再生装置10から出力される映像信号は,逐次,3の映像入力装置によってコンピュータ4の扱えるフォーマット形式に変換され,コンピュータ4に送られる。コンピュータ内部では,映像データは,インタフェース8を介してメモリ9に入り,メモリ9に格納されたプログラムに従って,CPU7によって処理される。10が扱う映像の各フレームには,映像の先頭から順に番号,例えばフレーム番号が付けられている。フレーム番号を制御線2によってコンピュータ4から映像再生装置10に送ることで,フレーム番号に対応する場面の映像が再生される。映像データや各種情報は,外部情報記憶装置6に格納することもできる。メモリ9にはプログラムの他に,以下に説明する処理によって作成される各種のデータが格納され,必要に応じて参照される。   FIG. 2 is a schematic block diagram of a system configuration example for realizing the present invention. Reference numeral 1 denotes a display device such as a CRT, which displays an output screen of the computer 4. Reference numeral 12 denotes a speaker for reproducing sound. Commands to the computer 4 can be performed using an indirect pointing device 5 such as a mouse 5, a direct pointing device 13 such as a touch panel, or the keyboard 11. The video playback device 10 is a device for playing back video from an optical disk or a video deck. The video signal output from the video playback device 10 is sequentially converted into a format that can be handled by the computer 4 by the video input device 3 and sent to the computer 4. Inside the computer, the video data enters the memory 9 via the interface 8 and is processed by the CPU 7 in accordance with a program stored in the memory 9. Each frame of the video handled by 10 is numbered sequentially from the top of the video, for example, a frame number. By sending the frame number from the computer 4 to the video reproduction apparatus 10 through the control line 2, the video of the scene corresponding to the frame number is reproduced. Video data and various types of information can also be stored in the external information storage device 6. In addition to the program, the memory 9 stores various data created by the processing described below and is referred to as necessary.

以下では,まず連想検索システムの概要について説明し,次に各技術の詳細な実行手順について説明する。   Below, the outline of the associative search system is explained first, and then the detailed execution procedure of each technology is explained.

映像の連想検索を実現するシステムの画面例を図1に示す。1はディスプレイ装置であり,12は音声やBGM等を出力するスピーカ,5はマウスやジョイステイツク等の間接的なポインティングデバイス,11はキーボード,13はタッチパネルのような直接的なポインティングデバイスである。   FIG. 1 shows a screen example of a system that realizes associative video search. 1 is a display device, 12 is a speaker for outputting sound, BGM, etc., 5 is an indirect pointing device such as a mouse or joystick, 11 is a keyboard, and 13 is a direct pointing device such as a touch panel. .

ディスプレイ装置1中のモニタウインドウ1100は,モニタ画面になっており,VCRと同形式の操作パネル1102があって,映像を自由に再生し視聴することができる。モニタ画面に表示される映像が「本」における「本文」,パネル(ボタン)操作は「頁めくり」に対応する。右下のウインドウ1108は,対象とする映像の各シーンの代表画像のシーン一覧表示,右中のウインドウ1112は,その映像に登場する被写体の一覧表示である。これらの一覧表示を総称して,「インデクス」と呼ぶ。ウインドウ1108のシーン一覧表示は,映像中の各シーンから典型的なフレーム画像を選び,縮小して時間順にアイコン1110として一覧に並べたものである。これらの画像はシーンの「見出し」に相当するものとして考えることができ,それらを時系列に並べたシーン一覧は「本」の「
目次」にあたる。一方,被写体は,シーンの重要な構成要素の一つであり,その意味でテキストにおける「キーワード」に相当する。したがって,ウインドウ1112の被写体の一覧表示は,「索引」に当たる。シーン一覧表示中のアイコン1110がマウスクリックされると,モニタ画面の映像が切り替わり,そのアイコンの示すシーンが再生される。被写体の一覧表示は,被写体が何であるかを示すアイコン1114と,その右側の時間軸表示部(棒グラフ)1116から成る。時間軸表示部(棒グラフ)は,左端が映像の先頭,右端が末尾を示す時間軸になっていて,棒として表示された部分が,その被写体の現れている時間区間を示している。棒の部分をクリックすると,その区間の映像をモニタ画面に表示する。尚,1104は,マウスのようなポインティングデバイスの動きに合わせて移動するカーソル,1106のウインドウは,映像の各種関連情報を表示する汎用入出力ウインドウである。
The monitor window 1100 in the display device 1 is a monitor screen, and has an operation panel 1102 of the same format as the VCR, so that the video can be freely reproduced and viewed. The video displayed on the monitor screen corresponds to “text” in “book”, and the panel (button) operation corresponds to “page turning”. The lower right window 1108 is a scene list display of representative images of each scene of the target video, and the right middle window 1112 is a list display of subjects appearing in the video. These list displays are collectively referred to as “index”. In the scene list display of the window 1108, typical frame images are selected from each scene in the video, reduced, and arranged in the list as icons 1110 in time order. These images can be thought of as equivalent to the “heading” of the scene.
It corresponds to "Contents". On the other hand, the subject is one of the important components of the scene, and in that sense, corresponds to a “keyword” in the text. Therefore, the list display of subjects in the window 1112 corresponds to “index”. When the icon 1110 in the scene list display is clicked with the mouse, the video on the monitor screen is switched and the scene indicated by the icon is reproduced. The subject list display includes an icon 1114 indicating what the subject is, and a time axis display portion (bar graph) 1116 on the right side thereof. In the time axis display part (bar graph), the left end is the time axis indicating the beginning of the video and the right end is the end, and the portion displayed as a bar indicates the time interval in which the subject appears. Clicking on the bar will display the video for that section on the monitor screen. Note that reference numeral 1104 denotes a cursor that moves in accordance with the movement of a pointing device such as a mouse, and reference numeral 1106 denotes a general-purpose input / output window that displays various types of related information of video.

次に,本発明にかかる連想検索の基本的な考え方をシンプルな例で説明する。あるユーザが一連の映像の中から被写体Bが出ている特定のシーンを見つけたいとする。インデクスに表示される代表画像のシーン一覧表示や被写体の一覧表示の中に目的のシーン(被写体Bが出ているシーン)や被写体Bそのもののアイコンが運よく存在すれば,それを直接クリックし,再生することにより所期の目的は達成される。しかし,通常,映像情報は膨大であり,容易に目的のシーンが見つけられないことが多い(例えば,映像中,被写体Bが出ている時間が短かければ,検索が簡単にできないことは容易に理解されよう)。そこで,本発明の連想検索が重要な意味を持ってくる。つまり,目的のシーン(被写体B)は直接探せなくとも,ユーザは目的のシーン(被写体B)に関する何らかの知識を持っていることが多く,本発明ではその知識を利用して連想という名のリンクを施すというものである。例えば,ユーザが,被写体Bと被写体Aが同時に現われていた(シーンがあったはずだ)ということを記憶しているか,若しくは同時に現われている可能性が高いという予測が成り立つと考えているならば,まず被写体Aを検索することを試みる。   Next, the basic concept of associative search according to the present invention will be described with a simple example. Assume that a user wants to find a specific scene in which a subject B appears in a series of videos. If the icon of the target scene (the scene where subject B appears) or the subject B itself is luckily present in the scene list display or the subject list display of the representative image displayed in the index, click it directly, By replaying, the intended purpose is achieved. However, the video information is usually enormous, and the target scene is often not easily found (for example, if the time during which the subject B appears in the video is short, it is easy that the search cannot be easily performed). Will be understood). Therefore, the associative search of the present invention has an important meaning. That is, even if the target scene (subject B) cannot be searched directly, the user often has some knowledge about the target scene (subject B). It is to give. For example, if the user remembers that subject B and subject A appeared at the same time (there should be a scene), or thinks that the prediction that there is a high possibility that they will appear at the same time holds First, an attempt is made to search for the subject A.

図3に本発明の映像の連想検索機能のイメージを示す。図中の3枚の絵(シーン1〜3)は,連想検索を行ったときに,モニタ画面に表示される映像中の1シーンをそれぞれ表したイラストである。例えば,ユーザは,インデクス(ウインドウ1112の被写体のアイコン1114)の中から目的の被写体Bを連想できる被写体Aが写っているシーンを1つ探してモニタ画面に表示する。モニタウインドウ1100のモニタ画面に最左側のシーン1が再生されているときに,登場している被写体A,Cのうちの被写体Aをマウスカーソルでクリックすると,その被写体Aが現れている図中中央のシーン2に画面が切り替わる。このシーン2に一緒に現れている別の被写体Bをクリックすれば,Bが現れている図中右側のシーン3に到達することができる。このシーンが目的のシーンであれば,連想検索は終了する。   FIG. 3 shows an image of the video associative search function of the present invention. Three pictures (scenes 1 to 3) in the figure are illustrations each representing one scene in the video displayed on the monitor screen when an associative search is performed. For example, the user searches the index screen (subject icon 1114 of the window 1112) for one scene that includes the subject A that can be associated with the target subject B and displays it on the monitor screen. When the leftmost scene 1 is reproduced on the monitor screen of the monitor window 1100, when the subject A of the appearing subjects A and C is clicked with the mouse cursor, the subject A appears in the center in the figure. The screen switches to scene 2. If another subject B appearing together in this scene 2 is clicked, the scene 3 on the right side in the figure where B appears can be reached. If this scene is the target scene, the associative search ends.

すなわち,被写体Bが出ている特定のシーンを見つける場合,被写体Bが被写体Aと同時に現れるという連想を基に,インデクスに登録されている被写体Aを通して連想的に目的のシーンである被写体Bの特定のシーンまで辿ることができる。このとき,キーワードを考えるといった面倒な操作は不要であり,画面に現れる情報だけを見て,ただ取捨選択すればよい。   That is, when finding a specific scene in which subject B appears, based on the association that subject B appears at the same time as subject A, identification of subject B that is associatively the target scene through subject A registered in the index Can be traced to. At this time, troublesome operations such as thinking about keywords are unnecessary, and only the information appearing on the screen is viewed and selected.

尚,後述するように単に複数の被写体間の連想に限らず,シーン自体や言葉,BGM,字幕といった,映像のあらゆるマルチメディア情報に基づいた連想を用いて検索を行なうことが可能である。   As will be described later, it is possible to perform a search using associations based on all multimedia information such as scenes, words, BGM, and subtitles, as well as associations between a plurality of subjects.

さて,こうした連想検索の機能を実現するのに必要となる情報は,基本的に,(1)被写体の現れている映像区間(出現区間),(2)被写体の画面上での位置(出現位置),(3)クリックされたときに切り替わるべき他の映像区間(リンク情報)の3つである。これら3つの情報は組にして扱われる。   The information necessary to realize such an associative search function basically includes (1) a video section where an object appears (appearance section), and (2) a position on the screen of the subject (appearance position). ), (3) Other video sections (link information) to be switched when clicked. These three pieces of information are handled as a set.

映像再生中にどの被写体がクリックされたかは,(1),(2)の出現区間・出現位置情報から判定され,同じ組に格納された(3)のリンク情報から映像の切り替え先が決定される。ここで,映像は,フレームと呼ばれる静止画が毎秒30枚の割合で連続的に表示されることによって実現されている。これらのフレームに,映像の先頭から順にフレーム番号と呼ばれる連続番号を割り振れば,(1)の出現区間は,その区間の先頭のフレーム番号と末尾のフレーム番号とで表現することができる。(2)の出現位置は,(1)の区間中の各フレームのどの領域に被写体が映されているのかを表す座標情報である。(3)のリンク情報としては,同じ被写体が現れている別のシーンを次々と巡れるようなリンクを施しておく。1本の映像中には,同じ被写体が何度も現れることが多いが,このリンクにより,その被写体が登場する全てのシーンをクリックだけで簡単に呼び出すことができる。   Which subject is clicked during video playback is determined from the appearance section / appearance position information of (1) and (2), and the video switching destination is determined from the link information of (3) stored in the same set. The Here, the video is realized by continuously displaying still images called frames at a rate of 30 frames per second. If consecutive numbers called frame numbers are assigned to these frames in order from the top of the video, the appearance section of (1) can be expressed by the top frame number and the end frame number of that section. The appearance position in (2) is coordinate information indicating in which area of each frame in the section (1) the subject is shown. As the link information of (3), a link is provided so that different scenes in which the same subject appears can be visited one after another. In many cases, the same subject appears many times in one video, but this link makes it easy to call all scenes where the subject appears by simply clicking.

上述の構成による連想検索方法は,すでにリンク情報が設定されている被写体にしか用いることができない。しかし,先に挙げた連想検索に必要な3種の情報のうち,被写体の出現区間と出現位置は,例えば,発明者らによる特願平4−261033等の被写体自動検索技術により求めることができる。   The associative search method having the above-described configuration can be used only for a subject for which link information has already been set. However, among the three types of information necessary for the associative search mentioned above, the appearance section and the appearance position of the subject can be obtained by subject search technology such as Japanese Patent Application No. 4-261103 by the inventors. .

被写体自動検索アルゴリズムの概略を図4に示す。探そうとする被写体に固有の色の組み合わせをフレーム中から見つけ出すのが基本である。まずユーザがビデオ映像中からその被写体が現れているフレームを例示画像として一枚だけ選び,その画像中から特徴的な色を抽出する。その後,システムは映像中の全てのフレームについて一枚一枚小さなブロックに分割し,特徴色を含むブロックを探していく。1枚のフレーム中に,特徴色を含むブロックが各色について一定数以上あれば,そのフレームにその被写体があると判定する。フレームにおけるその被写体の出現位置は,上述の被写体検索の処理において,その被写体の特徴色を含むブロックがフレーム中のどの位置に分布しているかを調べることで容易に求められる。   An outline of the automatic subject search algorithm is shown in FIG. Basically, a combination of colors unique to the subject to be found is found in the frame. First, the user selects only one frame in which the subject appears from the video image as an example image, and extracts a characteristic color from the image. After that, the system divides all the frames in the video into small blocks one by one and searches for blocks containing the feature color. If there are more than a certain number of blocks including characteristic colors in one frame, it is determined that the subject is in that frame. The appearance position of the subject in the frame can be easily obtained by examining in which position in the frame the blocks including the characteristic color of the subject are distributed in the subject search process described above.

しかし,この被写体検索方法そのものは,例示画像をシステムに提示することを原則とし,探したい被写体が現れている区間を最低1つは手作業によって見つける必要があり,これが面倒な場合が多い。しかし,本発明のような連想検索の場合には,モニタ画面上の被写体を例示画像として直ちに利用することができるため,この被写体検索方法を非常に効果的に活用できる。   However, this subject search method itself is based on the fact that an example image is presented to the system, and at least one section where the subject to be searched for needs to be found manually, which is often troublesome. However, in the case of the associative search as in the present invention, the subject on the monitor screen can be immediately used as an example image, so this subject search method can be used very effectively.

更に,映像中の全てのフレームについて,あらかじめブロック分割し,各ブロックごとに含まれる色の種類のリストを記憶装置に格納しておけば,上記被写体検索から毎フレームごとのブロック分割処理が不要になり非常に高速になる。その速度は,現行のワークステーション程度の性能でもリアルタイムの100倍速が可能となっており,1時間の映像の中から30秒程度で全ての被写体出現区間を見つけることができる。現在表示されている映像から最も近い出現区間を1つだけ探せばよいのであれば,平均して数秒程度で見つけることができる。当然ながら,記憶装置に格納された色のリストは,検索する被写体に関わらず同じものを使うことができる。   Furthermore, if all the frames in the video are divided into blocks in advance, and a list of color types included in each block is stored in the storage device, the block division processing for each frame is unnecessary from the subject search. Become very fast. The speed is 100 times faster in real time than the performance of current workstations, and all subject appearance sections can be found in about 30 seconds from one hour video. If it is only necessary to find the nearest appearance section from the currently displayed video, it can be found in about a few seconds on average. Of course, the same list of colors stored in the storage device can be used regardless of the subject to be searched.

以下では,本発明を実現するシステムの実行手順を,メモリ9に格納されたプログラムに従ってCPU7により実行されるソフトウエアモジュールのブロック図を用いて説明する。ここで説明する各モジュールは,ハードウエア自体で実現することも可能である。   Below, the execution procedure of the system which implement | achieves this invention is demonstrated using the block diagram of the software module performed by CPU7 according to the program stored in the memory 9. FIG. Each module described here can also be realized by hardware itself.

図5は,本発明によるシーンの連想検索を実現するための処理ブロック図の一例である。連想検索の手掛かりとなる映像中の被写体などの事物が,映像中のどの時間にどの位置に現れるかの情報(出現区間,出現位置),並びにその関連情報・飛び先となるシーンの情報(リンク情報)は,後述するオブジェクトと呼ぶデータ構造体の形式で,あらかじめ図2のメモリ9もしくは外部情報記憶装置6に蓄積されているものとする。   FIG. 5 is an example of a processing block diagram for realizing scene associative search according to the present invention. Information on what position in the video the subject, etc. in the video, which is a clue for the associative search, appears at which time in the video (appearance section, appearance location), and related information and scene information that is the destination (link) Information) is stored in advance in the memory 9 or the external information storage device 6 in FIG. 2 in the form of a data structure called an object described later.

ここで,映像中の被写体などの事物に関する情報は,出現区間ごとに1つずつ作成されるオブジェクト指向型のデータ構造体の中で管理している。図6は,その概念を表す説明図である。これを,以下,映像オブジェクト,もしくは単にオブジェクトと呼ぶ。映像は動画部分と音声部分とに分けられるが,動画については,その全体をフレーム画像を成すxy平面,および時間tの軸からなる3次元空間で表現でき,被写体の出現区間と出現位置は,その部分空間であると考えることができる。この部分空間と1対1に対応づけられるデータ構造体として映像オブジェクトを定義する。(つまり,同一被写体であっても,原則として出現区間ごとにそれぞれの映像オブジェクトとして定義され,それらの映像オブジェクト間(被写体間)にはリンクが施される。)映像オブジェクトには,被写体をは
じめ,字幕やシーンなど映像中の様々な情報を対応づけることができる。言葉やBGMといった音声情報についても,同様に時間軸を持つ音声情報空間の任意の部
分区間と1対1に対応づけられるデータ構造体として映像オブジェクトを定義できる。そして,リンク情報は,映像オブジェクトを相互に参照しあうポインタとして格納する。このように,動画・音声間など,対応するメディアが異なっても共通のデータ構造体の枠組みで管理することで,映像中のあらゆる情報の間に自由にリンクを設定することができる。
Here, information on things such as subjects in the video is managed in an object-oriented data structure created one by one for each appearance section. FIG. 6 is an explanatory diagram showing the concept. This is hereinafter referred to as a video object or simply an object. The video is divided into a moving image portion and an audio portion. The entire moving image can be expressed in a three-dimensional space consisting of an xy plane that forms a frame image and an axis of time t. It can be considered that subspace. A video object is defined as a data structure associated with this partial space on a one-to-one basis. (In other words, even for the same subject, as a rule, each video object is defined for each appearance section, and a link is provided between those video objects (between subjects).) Various information in video such as subtitles and scenes can be associated. Similarly, for audio information such as words and BGM, a video object can be defined as a data structure associated with an arbitrary partial section of an audio information space having a time axis. The link information is stored as a pointer that refers to the video objects. In this way, even if the corresponding media is different, such as between video and audio, by managing with a common data structure framework, it is possible to freely set a link between all information in the video.

さて,図5に戻って,処理ブロック図を詳細に説明する。オブジェクト管理部120は,これらオブジェクトを管理するモジュールであり,オブジェクトの登録・変更・削除の処理を行うとともに,他のモジュールから要求があれば,示された条件に合致するオブジェクトの情報122を取り出し,そのモジュールに提示する。100の映像再生表示部は,図1のディスプレイ装置1のモニタ画面であるモニタウインドウ1100に,映像の再生及び表示処理を行うとともに,現在表示している映像の再生位置情報218を102のポイント事物識別部に送る。ポイント位置検出部104は,図1のマウス等の間接的なポインティングデバイス5やタッチパネルのような直接的なポインティングデバイス13を常時監視し,ユーザがポイントの動作を行った表示画面上の位置情報112をポイント事物識別部102に送る。また,併せてその位置情報112はインデクス管理部108,操作パネル部110にも送られる。ポイント事物識別部102は,映像再生表示部100から受け取った再生位置情報218をオブジェクト管理部120に送り,その再生位置に出現しているとして登録されている全ての事物の情報をオブジェクトとして得る。もし該当するオブジェクトがあれば,さらにそれらから事物の位置情報を取得して,ポイント位置検出部104からの位置情報112との照合を行い,どの事物がポイントされたのかを識別する。ポイント事物識別部102は,識別された事物に関する情報114を映像制御部106に送る。映像制御部106は,識別された事物に関する情報114の中でリンク情報に基づき,その事物が現れている別のシーンにジャンプする等の処理を行うため,映像再生表示部100に制御情報208を送る。また,後述するように,事物の関連情報を表示する際には制御情報210を映像再生表示部100に送る。108のインデクス管理部は,登録されている映像の代表的なフレーム画像をアイコン1110として記憶するとともに,それらのアイコンの一覧にしてウインドウ1108に表示する。インデクス管理部108はアイコン1110と一緒にそのフレーム番号も記憶しており,ポイント位置検出部104が,あるアイコンをポイントしていることを検出すると,そのアイコンに対応するシーンを再生するように,制御情報116を映像制御部106に伝える。また,ポイント事物識別部102から,どの事物がポイントされたかの情報124をもらい,その事物がポイントされたことがインデクスからもわかるような表示を行う。また,インデクス管理部108は,図1のウインドウ1112の被写体の一覧表示も管理する。つまり,被写体が何であるかを示すアイコン1114を表示すると共に,その被写体の時間軸表示(棒グラフ表示)を行ない,棒の部分がクリックされるとその区間の映像を再生するように制御情報116を映像制御部106に送る。操作パネル部110は,再生・早送り・巻戻し等の各種再生状態を表す図1の操作パネル1102を表示し,ポイント位置検出部104によって,その操作パネルがポイントされていることが検出されると,ポイントされた操作パネルに対応する再生状態にするよう制御情報118を映像制御部106に送る。   Now, returning to FIG. 5, the processing block diagram will be described in detail. The object management unit 120 is a module for managing these objects. The object management unit 120 performs processing for registering, changing, and deleting objects, and if there is a request from another module, takes out information 122 of the object that matches the indicated condition. , Present in that module. The video playback / display unit 100 performs video playback and display processing on the monitor window 1100 which is the monitor screen of the display device 1 in FIG. 1, and sets the playback position information 218 of the currently displayed video to 102 points. Send to the identification unit. The point position detection unit 104 constantly monitors the indirect pointing device 5 such as a mouse and the direct pointing device 13 such as a touch panel in FIG. 1, and position information 112 on a display screen on which the user performs a point operation. Is sent to the point object identification unit 102. In addition, the position information 112 is also sent to the index management unit 108 and the operation panel unit 110. The point thing identification unit 102 sends the reproduction position information 218 received from the video reproduction display unit 100 to the object management unit 120, and obtains information on all things registered as appearing at the reproduction position as objects. If there is a corresponding object, the position information of the thing is further acquired from them and collated with the position information 112 from the point position detecting unit 104 to identify which thing is pointed. The point thing identifying unit 102 sends information 114 about the identified thing to the video control unit 106. Based on the link information in the information 114 relating to the identified thing, the video control unit 106 performs processing such as jumping to another scene in which the thing appears, so that the control information 208 is sent to the video reproduction display unit 100. send. Further, as will be described later, control information 210 is sent to the video reproduction display unit 100 when related information of an object is displayed. The index management unit 108 stores representative frame images of registered videos as icons 1110 and displays them as a list of these icons in the window 1108. The index management unit 108 also stores the frame number together with the icon 1110. When the point position detection unit 104 detects that an icon is pointed, the scene corresponding to the icon is reproduced. The control information 116 is transmitted to the video control unit 106. In addition, information 124 indicating which thing has been pointed is obtained from the pointed thing identification unit 102, and a display is made so that the fact that the thing has been pointed can also be understood from the index. The index management unit 108 also manages the list display of subjects in the window 1112 of FIG. That is, the control information 116 is displayed so that the icon 1114 indicating the subject is displayed, the time axis display (bar graph display) of the subject is performed, and the video of the section is reproduced when the bar portion is clicked. The image is sent to the video controller 106. The operation panel unit 110 displays the operation panel 1102 in FIG. 1 representing various playback states such as playback, fast forward, and rewind. When the point position detection unit 104 detects that the operation panel is pointed, , Control information 118 is sent to the video control unit 106 so as to set the playback state corresponding to the pointed operation panel.

図7は,映像再生表示部100をより詳しく示した処理ブロック図の一例である。200の映像再生部は,映像制御部106から送られる制御情報208によって,どの映像をどこからどのように再生するか等の指示を受けて映像を再生する。現在表示されている映像の再生位置情報212は,逐次事物有無判定部202に送られる。202は,その再生位置の映像に,あらかじめ登録されている事物が登場しているかどうかをチェックし,あれば,登場している全ての事物の表示画面上での位置情報216を取得して,関連情報表示部204に送る。この位置情報216は,先述のポイント事物識別部102で取得する位置情報と同じものであり,位置情報取得処理の重複を避けるため,事物情報218としてポイント事物識別部102に送ることができる。関連情報表示部204は,再生中の各事物の関連情報を画面上に合わせて表示することができる。制御情報210により,関連情報を表示するのか否か,表示するのならどの関連情報をどのような形態で表示するのか等が決定される。特に,事物の位置情報216によって,表示中のどの位置と対応する情報なのかを明示することができる。この表示方法については後述する。表示方法によっては,映像214に重畳合成処理を行い,その映像を映像表示部206で表示する。   FIG. 7 is an example of a processing block diagram showing the video reproduction / display unit 100 in more detail. The video reproduction unit 200 reproduces the video in response to an instruction such as which video is reproduced from where by the control information 208 transmitted from the video control unit 106. The reproduction position information 212 of the currently displayed video is sequentially sent to the thing presence / absence determination unit 202. 202 checks whether or not a pre-registered thing has appeared in the video of the playback position, and if there is, acquires position information 216 on the display screen of all the appearing things, The information is sent to the related information display unit 204. This position information 216 is the same as the position information acquired by the above-described point thing identifying unit 102, and can be sent to the point thing identifying unit 102 as the matter information 218 in order to avoid duplication of position information acquisition processing. The related information display unit 204 can display the related information of each item being reproduced on the screen. The control information 210 determines whether or not related information is displayed, and if it is displayed, which related information is displayed in what form. In particular, the position information 216 of an object can clearly indicate which position is being displayed. This display method will be described later. Depending on the display method, the image 214 is superimposed and combined, and the image is displayed on the image display unit 206.

図8は,映像オブジェクトのデータ構造を示す一例である。500はデータ構造体の大枠である。502は,オブジェクトのID番号で,他のオブジェクトと識別するための一意な数が与えられる。504は,オブジェクトが,例えば,人を表すのか,字幕であるのか,あるいは音声なのかを示す分類コードである。506は,そのオブジェクトが登場する映像へのポインタである。この例では,後述するように,映像は物理映像600と論理映像900の2階層に分けたデータ構造になっており,506は,物理映像へのポインタである。510は,オブジェクトが表す映像中の事物が登場する区間の始点のフレーム番号,512は終点のフレーム番号である。508は,その事物を代表する映像のフレーム番号であり,オブジェクトを視覚的に扱うインタフェースの下においては,この事物を表すアイコンの絵柄として用いられる。514は,オブジェクトの表す事物の画面上での位置を示すための構造体700へのポインタである。   FIG. 8 shows an example of the data structure of the video object. Reference numeral 500 denotes a large frame of the data structure. Reference numeral 502 denotes an object ID number which is given a unique number for identification from other objects. Reference numeral 504 denotes a classification code indicating whether the object represents, for example, a person, a caption, or a sound. Reference numeral 506 denotes a pointer to a video in which the object appears. In this example, as will be described later, the video has a data structure divided into two layers of a physical video 600 and a logical video 900, and 506 is a pointer to the physical video. 510 is the frame number of the start point of the section in which the thing in the video represented by the object appears, and 512 is the frame number of the end point. Reference numeral 508 denotes a frame number of a video representing the thing, and is used as a picture of an icon representing the thing under an interface for visually handling the object. Reference numeral 514 denotes a pointer to the structure 700 for indicating the position on the screen of the thing represented by the object.

図9に,オブジェクト位置構造体700の一例を示す。この構造体は,事物の動きがないか,あるいは十分小さい区間ごとに1つずつ作成され,それらが数珠つなぎになった連接リストの形をとる。702は,その動きのない区間の始点フレーム番号,704が終点フレーム番号である。706から712は,事物を矩形領域で囲んだときの矩形領域の原点座標と大きさである。516は,より抽象度の高い上位のオブジェクトへのポインタである。全てのオブジェクトは固有の関連情報を持つことができるが,幾つかのオブジェクトで関連情報を共有したほうが都合のいい場合がある。例えば,映像中の人や物などの被写体は,同じ被写体が複数のシーンで現れることが多い。もちろん,現れたときの姿や挙動は各シーンごとに違うため,各シーンごとに固有の関連情報が存在するが,名前であるとか,性別・年齢・職業といった抽象度の高い情報は共有したほうがデータ量が少なくて済み,また,情報が更新されたときにも整合性に破綻をきたすことがない。その意味で,こうした抽象度の高い情報は,より上位のオブジェクトの関連情報にもたせ,そのオブジェクトへのポインタを516に持つデータ構造としている。518は,上位のオブジェクトから下位のオブジェクトを参照するためのポインタである。これは,上位のオブジェクトも下位のオブジェクトも同じ500のデータ構造体を用いるためによる。もちろん,上位のオブジェクトには,始点・終点フレームや位置情報等の映像に直接関係する情報は不要であるので,それらを省いた簡略版の構造体を用いることもできる。   FIG. 9 shows an example of the object position structure 700. This structure takes the form of a concatenated list that is created one by one for each sufficiently small interval where there is no movement of things or is small. Reference numeral 702 denotes the start frame number of the section without movement, and reference numeral 704 denotes the end frame number. Reference numerals 706 to 712 denote the origin coordinates and size of the rectangular area when the object is surrounded by the rectangular area. Reference numeral 516 denotes a pointer to a higher-order object having a higher abstraction level. Every object can have its own related information, but it may be convenient to share related information among several objects. For example, subjects such as people and objects in an image often appear in a plurality of scenes. Of course, the appearance and behavior when it appears differ from scene to scene, so there is related information unique to each scene, but it is better to share information with a high degree of abstraction such as name, gender, age, and occupation. The amount of data is small, and when information is updated, consistency is not broken. In this sense, such information with a high degree of abstraction is given to related information of a higher-level object, and has a data structure having a pointer 516 to the object. Reference numeral 518 denotes a pointer for referring to a lower object from an upper object. This is because the upper 500 object and the lower object use the same 500 data structures. Of course, since the information directly related to the image such as the start point / end point frame and the position information is not necessary for the upper object, a simplified structure without them can be used.

520は,事物の関連情報を記憶するディクショナリ800へのポインタである。ディクショナリは,図10に示されるように,関連情報を呼び出すためのキーとなる文字列804へのポインタであるキー802と,そのキー文字列に対応づけて登録する関連情報の文字列808へのポインタである内容806,及び関連するオブジェクトへのポインタを持つリンク810から構成され,登録する関連情報の項目数だけ作られ,それらが数珠つなぎになった連接リスト形式をとる。オブジェクトの関連情報の読み出しは,キーを指定して,そのキーと合致するディクショナリ構造体の内容を返すことで行う。例えば,キーが「名前」で内容が「太郎」の場合には,「名前」というキーを指定すると「太郎」という関連情報が得られる。関連情報表示部204では,どの関連情報を表示するかの選択は
,どのキーに対応する内容を表示するかという処理に帰着する。リンクは,連想検索を行うときのジャンプ先の事物へのポインタであり,内容806には,例えば,「他のシーンに現れている同じ被写体」といったリンクの意味を表す文字列あるいは記号が入り,リンク先810には,その被写体のオブジェクトへのポインタが入る。連想検索でジャンプするときには,映像制御部106は,このオブジェクトの構造体から,その被写体が現れている映像と先頭フレーム番号を読み出して,その映像位置から再生するように映像再生部200を制御する。
Reference numeral 520 denotes a pointer to the dictionary 800 for storing related information of things. As shown in FIG. 10, the dictionary includes a key 802 that is a pointer to a character string 804 that is a key for calling up related information, and a related information character string 808 that is registered in association with the key character string. It consists of a link 810 having contents 806 as pointers and pointers to related objects, and is formed in the number of items of related information to be registered, and takes a linked list form in which they are connected in a daisy chain. Reading related information of an object is performed by specifying the key and returning the contents of the dictionary structure that matches the key. For example, when the key is “name” and the content is “Taro”, the related information “Taro” can be obtained by specifying the key “name”. In the related information display unit 204, selection of which related information is displayed results in a process of displaying the content corresponding to which key. The link is a pointer to a jump destination object when performing an associative search, and the content 806 includes a character string or a symbol representing the meaning of the link such as “the same subject appearing in another scene”, for example. In the link destination 810, a pointer to the subject object is entered. When jumping by associative search, the video control unit 106 reads the video in which the subject appears and the first frame number from the structure of the object, and controls the video playback unit 200 to play back from the video position. .

図11は,映像再生部200のより詳しい処理ブロック図である。映像は,論理映像と物理映像の2階層構造になっている。論理映像はシーンの集合体としての構造情報だけを持ち,物理映像は映像の実データを持つ。論理映像呼出部300は,映像制御部から送られる再生位置設定情報310から,論理映像のライブラリ304から合致する論理映像を呼び出す。   FIG. 11 is a more detailed processing block diagram of the video playback unit 200. The video has a two-layer structure of logical video and physical video. A logical video has only structural information as a collection of scenes, and a physical video has actual video data. The logical video calling unit 300 calls the matching logical video from the logical video library 304 from the reproduction position setting information 310 sent from the video control unit.

図12に論理映像のデータ構造体900の一例を示す。902は,論理映像を一意に特定するID番号である。904は,論理映像を代表するシーンの番号である。906は,構成シーンを表す連接リストで,シーン1000が再生されるべき順番に連なっている。908は,シーン間のデゾルブやワイプといった特殊効果の設定情報である。910には,各種関連情報が入る。   FIG. 12 shows an example of a logical video data structure 900. Reference numeral 902 denotes an ID number that uniquely identifies a logical video. Reference numeral 904 denotes a scene number representing a logical image. Reference numeral 906 denotes a concatenation list representing the constituent scenes, which are consecutive in the order in which the scenes 1000 should be reproduced. Reference numeral 908 denotes setting information for special effects such as dissolve and wipe between scenes. In 910, various related information is entered.

図13に,シーン構造体1000の一例を示す。1002がシーンの代表フレーム番号で,1004が始点,1006が終点のフレーム番号である。対応する物理映像へのポインタが1008に入る。1010には,このシーンの中に登場する全ての事物のデータ構造体,すなわちオブジェクトへのポインタが連接リスト形式で入る。シーンは,その映像内容のつながりを単位にまとめることができ,ピラミッド状の階層的な管理を行うことができる。1012の上位シーンは,そうした上位のシーンへのポインタであり,1014の下位シーンは,1段下位にある全てのシーンを連接リストにしたものへのポインタである。1016はシーンの属性情報である。物理映像呼出部302は,フレーム番号に300でシーン情報が加わった情報312によって,物理映像のライブラリ308から呼び出す物理映像と再生するフレーム位置を決定する。   FIG. 13 shows an example of the scene structure 1000. Reference numeral 1002 denotes a scene representative frame number, reference numeral 1004 denotes a start point, and reference numeral 1006 denotes an end point frame number. A pointer to the corresponding physical image enters 1008. In 1010, data structures of all things appearing in this scene, that is, pointers to objects are entered in a linked list format. Scenes can be organized in units of video content connections, and can be managed in a pyramid-like hierarchy. The upper scene of 1012 is a pointer to such an upper scene, and the lower scene of 1014 is a pointer to a linked list of all the scenes one level lower. Reference numeral 1016 denotes scene attribute information. The physical video calling unit 302 determines the physical video to be called from the physical video library 308 and the frame position to be reproduced based on the information 312 in which the scene information is added to the frame number 300.

図14は,物理映像構造体600の一例である。602は,物理映像を一意に特定するID番号である。604は,レーザーディスクの映像なのか,ビデオテープのものか,あるいは外部情報記憶装置に格納されたデータなのかを識別するための分類コードである。606は代表フレーム番号,608が始点,610が終点フレーム番号である。616には属性情報が入る。他は,映像データが物理映像のデータ構造体の中に持っている場合に必要となる情報である。612が映像の画面幅,614が同高さであり,618は,あるフレーム番号に対応するフレーム画像データが,物理映像のどのアドレスから存在するかを記憶したディレクトリである。620はフレーム番号,622にフレームの画素データ,624に音声データという形式がフレーム数だけ繰り返される。物理映像呼出部は,分類コードにより,レーザディスク等の映像再生装置10を用いる映像であるとわかれば,映像再生装置に制御命令を送って該当する映像を呼び出す処理を行い,物理映像中にある場合には,該当する映像を呼び出す。   FIG. 14 is an example of a physical video structure 600. Reference numeral 602 denotes an ID number that uniquely identifies a physical video. Reference numeral 604 denotes a classification code for identifying whether the image is a laser disk image, a video tape, or data stored in an external information storage device. 606 is a representative frame number, 608 is a start point, and 610 is an end point frame number. 616 contains attribute information. The other information is necessary when the video data is contained in a physical video data structure. Reference numeral 612 denotes a video screen width, reference numeral 614 denotes the same height, and reference numeral 618 denotes a directory that stores from which address of the physical video frame image data corresponding to a certain frame number exists. The format 620 is a frame number, 622 is a frame pixel data, and 624 is audio data. If the physical video calling unit knows that the video using the video playback device 10 such as a laser disk is obtained from the classification code, the physical video calling unit sends a control command to the video playback device to call the corresponding video and is in the physical video. If so, call the appropriate video.

論理映像を用いるメリットの一つは,大きなデータ量になりがちな物理映像の1本から,その映像を用い,様々に編集された多種多様の映像作品を少ないデータ量で作れることにある。特に,ニュースなど過去の資料映像を頻繁に使い回すような映像ほど,論理映像を用いる利点が大きい。もう一つのメリットは,シーンごとに登場するオブジェクトをあらかじめ記憶しておくことにより,映像再生中にどの事物が現れているのかを,全てのオブジェクトについて調べる必要がなくなり,迅速な処理が期待できる。   One of the merits of using logical video is that, from one physical video that tends to have a large amount of data, a variety of edited video works using that video can be created with a small amount of data. In particular, the advantage of using logical images is greater for images that frequently use past material images such as news. Another merit is that by storing objects that appear in each scene in advance, it is not necessary to check all objects to see what is appearing during video playback, and rapid processing can be expected.

先に簡単に説明した図1のコンピュータ画面例を用いて,連想検索のインタフェース部分の実行手順について詳細に説明する。モニタウインドウ1100には
,前述の映像再生表示部100により任意の映像が表示される。表示と合わせ,音声もスピーカ12から出力される。1104がカーソルで,マウスやジョイスティク等の間接的なポインティングデバイス5の操作に合わせて画面上を移動しポイント操作を行う。同様のポイント操作はタッチパネルのような直接的なポイティングデバイス13によっても行うことができ,その際はカーソルは不要にできる。前述のポイント位置検出部104は,これらのポインティングデバイスを常時監視し,マウスの移動に合わせてカーソル1104を移動したり,マウスのボタンが押されたときには,ポイント操作があったとして,そのときの画面上のカーソルの位置情報を,その位置情報を必要とする各処理モジュールに送る。タッチパネルの場合には,タッチがあった時点で,そのタッチされた位置を検出し
,その位置情報を送る。1102は,映像の再生状態を制御するための操作パネルであり,操作パネル部110によって,再生・早送りなどの再生状態を示す絵や文字が描かれたボタンと,モードを変更するためのボタン,映像再生表示部からの各種情報を表示するためのディスプレイ領域などが表示される。操作パネルの表示領域がポイントされたことが,ポイント位置検出部104から伝えられると,その位置情報から,さらにどのボタンがポイントされたかを検出し,そのボタンに対応づけられた制御コードが映像再生表示部100に送られる。1106は,汎用入出力ウインドウで,キーボード11等を使って各種情報をコンピュータとやりとりできる。ファイル名を入力することで,連想検索を行う映像の指定をこのウインドウから行うことができる。入力されたファイル名は,再生開始位置を示す先頭フレームの番号と一緒に再生位置設定情報310として映像再生表示部100に送られ,100の中の論理映像呼出部300は,その情報から対応する映像を呼び出し,物理映像呼出部を経由して映像がモニタウインドウ1100に表示される。また,映像の各種関連情報をこの汎用入出力ウインドウ1106に表示することもできる。
The execution procedure of the associative search interface portion will be described in detail using the example of the computer screen of FIG. 1 briefly described above. An arbitrary video is displayed on the monitor window 1100 by the video reproduction display unit 100 described above. Along with the display, sound is also output from the speaker 12. Reference numeral 1104 denotes a cursor, which moves on the screen in accordance with the operation of an indirect pointing device 5 such as a mouse or a joystick, and performs a point operation. A similar point operation can also be performed by a direct pointing device 13 such as a touch panel, in which case the cursor can be made unnecessary. The above-described point position detection unit 104 constantly monitors these pointing devices, and when the cursor 1104 is moved in accordance with the movement of the mouse or when the mouse button is pressed, it is assumed that there is a point operation. The position information of the cursor on the screen is sent to each processing module that needs the position information. In the case of a touch panel, when a touch is made, the touched position is detected and the position information is sent. Reference numeral 1102 denotes an operation panel for controlling the playback state of the video. A button on which a picture or character indicating the playback state such as playback / fast-forward is drawn by the operation panel unit 110, a button for changing the mode, A display area for displaying various kinds of information from the video reproduction display unit is displayed. When the point position detection unit 104 informs that the display area of the operation panel has been pointed, it detects which button is pointed further from the position information, and the control code associated with the button reproduces the video. It is sent to the display unit 100. A general-purpose input / output window 1106 can exchange various information with the computer using the keyboard 11 or the like. By inputting the file name, the video for associative search can be specified from this window. The input file name is sent to the video playback / display unit 100 as playback position setting information 310 together with the number of the first frame indicating the playback start position, and the logical video calling unit 300 in 100 responds from the information. The video is called and the video is displayed on the monitor window 1100 via the physical video calling unit. Various related information of the video can be displayed on the general-purpose input / output window 1106.

ウインドウ1108に表示中のアイコン1110の一つがポイントされたことがポイント位置検出部によって検出されると,インデクス管理部108は,そのアイコンに対応するシーンの先頭フレーム番号を再生位置設定情報として映像再生表示部100に伝える。100は,モニタウインドウ1100にそのシーンの映像を表示する。表示された映像は,1102の操作パネルによって再生や早送りなどの制御ができる。これにより映像の再生が開始されると,論理映像呼出部300が出力する再生位置情報314が,インデクス管理部108に伝えられ,108は,1108のウインドウにおいて,例えば,再生中のシーンのアイコンがハイライトしたり点滅するといった強調表示を行い,現在モニタウインドウ1100で再生されている映像に対応するシーンが一目でわかるようにする。   When the point position detection unit detects that one of the icons 1110 displayed in the window 1108 has been pointed, the index management unit 108 reproduces the video by using the first frame number of the scene corresponding to the icon as reproduction position setting information. Tell the display unit 100. 100 displays the video of the scene on the monitor window 1100. The displayed video can be controlled such as reproduction and fast-forward by the operation panel 1102. Thus, when the video playback is started, the playback position information 314 output from the logical video calling unit 300 is transmitted to the index management unit 108. In the window 1108, for example, the icon of the scene being played back is displayed. Highlighting such as highlighting or blinking is performed so that the scene corresponding to the video currently reproduced in the monitor window 1100 can be seen at a glance.

1108におけるシーンの表示は階層的に行うことができる。まず,ポイントのしかたを,例えば,クリックとダブルクリックとの2種類用意し,クリックを上述の映像呼び出しのためのポイント手段として,ダブルクリックを後述するシーンの階層管理のためのポイント手段に用いる。1108に表示されたアイコンの一つがポイントされたことがポイント位置検出部によって検出されると,インデクス管理部108は,それがダブルクリックかどうかを調べる。ダブルクリックでなければ,上述の映像呼び出しの処理を行い,ダブルクリックならば,ポイントされたシーンに対応するシーン構造体1000の中の下位シーン1014を参照し,1108と同様のウインドウを新たに作成して,それら下位シーンのアイコンを一覧表示する。こうして新たに作成されたウインドウは,1108と同様にポイントを検出する対象となり,このウインドウ上のアイコンがポイントされると,インデクス管理部は,対応するシーンをモニタウインドウに表示したり,さらに下位のシーンがあれば,それら下位のシーンの一覧表示を行うウインドウを新たに作成する。こうした階層的な管理は,映像の選択の際にも用いることができ,1本の映像ごとに,その全てのシーンを束ねる最上位のシーン1個を対応づけておけば,上記の枠組みの範疇で,登録されている映像の中から所望の映像をウインドウから選択したり,さらに下位のシーンの一覧を表示させたりすることができる。   The scene display in 1108 can be performed hierarchically. First, two types of points are prepared, for example, click and double click, and the click is used as a point means for calling the above-mentioned video, and double click is used as a point means for managing the hierarchy of a scene to be described later. When the point position detection unit detects that one of the icons displayed in 1108 has been pointed, the index management unit 108 checks whether it is a double click. If it is not double-clicked, the above-mentioned video call processing is performed. If it is double-clicked, a lower window 1014 in the scene structure 1000 corresponding to the pointed scene is referred to, and a window similar to 1108 is newly created. Then, the icons of the lower scenes are displayed in a list. The newly created window becomes a target for detecting points in the same manner as 1108. When the icon on this window is pointed, the index management unit displays the corresponding scene on the monitor window or lower level. If there is a scene, a new window for displaying a list of the subordinate scenes is created. Such hierarchical management can also be used for video selection, and if one top-level scene that bundles all the scenes is associated with each video, the category of the above-mentioned framework. Thus, it is possible to select a desired video from the registered video from the window and display a list of lower scenes.

1112は,アイコン1114と時間軸表示部1116からなり,例えば,別々のシーンに現れているが実は同じ被写体である,などといった基準で分類された幾つかの事物をまとめ,代表する一つのアイコン1114を表示して,その横に,映像全体の中でそれらの事物が登場する区間を,横軸を時間軸にとった棒グラフで表示したインデクスである。同じ分類の事物は各々オブジェクト構造体500で管理されており,共通のオブジェクト構造体へのポインタを上位オブジェクト516に持つ。逆に上位オブジェクトは,各事物のオブジェクト構造体へのポインタを下位オブジェクト518に連接リスト形式で持つ。インデクス管理部108は,上位オブジェクトを記憶管理する。アイコンとして表示されるのは,上位オブジェクトの構造体が記憶する代表フレームの縮小画像である。棒グラフは,下位オブジェクトの各々を調べ,その始点・終点フレーム番号から映像全体に占める区間を計算して描画する。この棒グラフにおける事物の登場区間に対応する部分がポイントされたことが検出されると,インデクス管理部108は,その部分の映像をモニタウインドウ1100に表示させる。アイコンをポイントしてオブジェクトを選択し関連情報を付与・変更すれば,上位オブジェクトの関連情報として,すなわち,同じ分類の全ての事物に共通の情報として登録される。   Reference numeral 1112 includes an icon 1114 and a time axis display unit 1116. For example, a single icon 1114 that summarizes several things classified by criteria such as appearing in different scenes but actually being the same subject. This is an index that displays a bar graph with the horizontal axis as the time axis, and the section where those things appear in the entire video. Things of the same classification are managed by the object structure 500, and the upper object 516 has a pointer to the common object structure. Conversely, the upper object has a pointer to the object structure of each thing in the lower object 518 in a linked list format. The index management unit 108 stores and manages higher-order objects. What is displayed as an icon is a reduced image of the representative frame stored in the structure of the upper object. The bar graph examines each of the subordinate objects, and calculates and draws the section that occupies the entire video from the start point and end point frame numbers. When it is detected that the part corresponding to the appearance section of the object in the bar graph is pointed, the index management unit 108 displays the video of that part on the monitor window 1100. If an object is selected by pointing to an icon and related information is given / changed, it is registered as related information of a higher-level object, that is, information common to all things of the same classification.

一方,モニタウインドウ1100がポイントされたことが検出されると,そのポイント位置の情報から,ポイント事物識別部102によって,映像中のどの事物がポイントされたかを検出する。この処理は,現在再生中のシーンがどれであるかを示す再生位置情報314を論理映像呼出部300から受け,そのシーンに対応するシーン構造体の対応オブジェクト1010に記憶されているオブジェクトのそれぞれについて,その始点・終点を調べて,現在再生中のフレーム番号を示す再生位置情報316と比較し,そのオブジェクトで表される事物が現在画面上に現れているのかどうかを判定する。現れていると判定された事物の各々について,事物の位置,すなわちオブジェクトの位置514と再生位置情報316とから,現在の事物の存在領域を求め,その中にポイントされた位置が含まれているかどうかを判定する。複数合致した場合には,優先順位の高いものを1つだけ選択する。優先順位は,例えば,連接リストの登録順で表現できる。この方法だと,優先順位のために特別なデータ領域を用意する必要がない。ポイントされたと判定された事物がある場合には,その事物のオブジェクト構造体中のオブジェクト属性情報520を調べて,「連想検索のジャンプ先」を意味するキーを持つディクショナリ構造体800を探し,リンク810に登録されたオブジェクトの始点フレーム番号を読みだして,そのフレームにジャンプする。オブジェクト属性情報520に該当するキーがないときには,共通の上位オブジェクトを持つ別の事物が登場しているシーンにジャンプするようにする。これは,ポイントされた事物の1ランク上位のオブジェクトに登録されている下位オブジェクトの連接リストを参照し,その事物に連接する次のオブジェクトの始点フレーム番号を読みだして,そのフレームにジャンプする。   On the other hand, when it is detected that the monitor window 1100 has been pointed, the point thing identifying unit 102 detects which thing in the video has been pointed from the information on the point position. This processing receives reproduction position information 314 indicating which scene is currently being reproduced from the logical video calling unit 300, and for each object stored in the corresponding object 1010 of the scene structure corresponding to the scene. The start and end points are checked and compared with the reproduction position information 316 indicating the frame number currently being reproduced, and it is determined whether or not the thing represented by the object is currently appearing on the screen. For each of the things that are determined to appear, the current area of the current thing is obtained from the position of the thing, that is, the object position 514 and the reproduction position information 316, and whether the pointed position is included in it. Determine if. If there are multiple matches, only one with the highest priority is selected. The priority can be expressed, for example, in the order of registration in the linked list. With this method, there is no need to prepare a special data area for priority. When there is an object determined to be pointed, the object attribute information 520 in the object structure of the object is checked, and a dictionary structure 800 having a key meaning “jump destination of associative search” is searched for and linked. The start point frame number of the object registered in 810 is read and jumped to that frame. When there is no corresponding key in the object attribute information 520, a jump is made to a scene in which another thing having a common upper object appears. This refers to the connection list of the lower objects registered in the object one rank higher than the pointed thing, reads the start frame number of the next object connected to the thing, and jumps to that frame.

以上のように,階層的にシーンを探して当りをつけてから映像をモニタウインドウで確認し,連想検索を行い,またインデクスウインドウで確認するといったことが可能になる。これは,シーンによって構成された論理映像による映像管理手段を導入したことによって達成されている。   As described above, it is possible to search for scenes hierarchically, hit the screen, check the video in the monitor window, perform associative search, and check in the index window. This is achieved by introducing video management means using logical video composed of scenes.

図15に,モニタウインドウ1100の詳細な画面例を示す。1200が実際に映像が表示される領域で,1202は,映像再生部200から送られる再生中のフレーム番号を表示する。フレーム番号を表示している部分は,数値入力部を兼ねており,キーボード等によって数字を修正すると,修正された数字を新たなフレーム番号と見做して,その番号に対応するシーンから映像を再生することができる。1204は,映像全体中で,現在どの部分を再生しているのかを表示するためのインジケータパネルである。このパネル上のどの位置に指示棒1206があるかによって,再生位置を示す。指示棒の位置は,上述のフレーム番号と,再生中の論理映像の構造体データから計算される。1208の縦棒は,シーンの変わり目を表す線であり,これによって,どのシーンが再生されているのかも直感的に知ることができる。このパネルによって,連想検索によってジャンプしたことが指示棒1206の大きな移動によって明確に知ることができ,映像の中で自然にシーンが変わっただけなのか区別がつかないといった混乱がなくなる。ポイント位置検出部が指示棒1206がポイントされ,ドラッグ操作によって強制的に動かされた場合,操作パネル部110は,ポイント位置検出部104によって得られる移動後確定した位置情報を使って,その位置に対応するシーンとフレーム番号が計算され,その位置に対応する映像部分から再生するように,映像制御部106にこの情報を伝えることができる。1210は,このモニタウインドウを閉じる場合のボタンである。   FIG. 15 shows a detailed screen example of the monitor window 1100. Reference numeral 1200 denotes an area where an image is actually displayed. Reference numeral 1202 denotes a frame number being reproduced sent from the image reproducing unit 200. The part displaying the frame number also serves as a numerical value input part. When the number is corrected using a keyboard, the corrected number is regarded as a new frame number, and the video from the scene corresponding to that number is displayed. Can be played. Reference numeral 1204 denotes an indicator panel for displaying which part is currently being reproduced in the entire video. The playback position is indicated by the position on the panel where the pointing bar 1206 is located. The position of the pointer is calculated from the frame number and the structure data of the logical image being reproduced. The vertical bar 1208 is a line that represents the transition of the scene, which makes it possible to intuitively know which scene is being reproduced. By this panel, it is possible to clearly know that the jump has been made by the associative search by the large movement of the pointer 1206, and the confusion that it is impossible to distinguish whether the scene has naturally changed in the video is eliminated. When the point position detection unit is pointed to the pointing rod 1206 and is forcibly moved by a drag operation, the operation panel unit 110 uses the position information determined by the point position detection unit 104 and determined after the movement to move to the position. The corresponding scene and frame number are calculated, and this information can be communicated to the video control unit 106 so as to reproduce from the video portion corresponding to the position. Reference numeral 1210 denotes a button for closing the monitor window.

図16は,音声にマッピングされたオブジェクトがある場合の映像表示画面の例である。音声は目で見えない情報であるので,ボタン1400及び1402の形で可視化している。音声かどうかの判定は,事物有無判定部202が,オブジェクト分類コード504を調べることで行える。202は,現在再生中のシーンとフレームの情報を用い,どのオブジェクトが現れているかをチェックするとき,現れているオブジェクトの分類コードが音声のものであれば,ボタンを表示する。ボタンの表示位置は,オブジェクトの位置514に登録される。これにより,ポイント事物識別部の処理に変更を加えることなく,このボタンをポイントすることにより,その音声に関連するシーンにジャンプすることができる。ボタンは現在再生中の音声にマッピングされたオブジェクトの種類だけ表示され,ボタン面のタイトルで区別される。   FIG. 16 is an example of a video display screen when there is an object mapped to audio. Since the voice is invisible information, it is visualized in the form of buttons 1400 and 1402. Whether or not it is a sound can be determined by the object presence / absence determination unit 202 by examining the object classification code 504. When the information of the currently reproduced scene and frame is used to check which object appears, 202 displays a button if the classification code of the appearing object is audio. The display position of the button is registered at the object position 514. As a result, it is possible to jump to a scene related to the sound by pointing to this button without changing the processing of the point object identifying unit. Buttons are displayed only for the type of object mapped to the currently playing audio, and are distinguished by the title of the button face.

図17の(a)〜(c)は,連想検索で別のシーンにジャンプするときの表示画面例である。画面上の事物がポイントされると,映像再生表示部100は,映像中の通常のシーンの変わり目と区別がつきやすいように特殊効果を加えた変化をするようにする。例えば,ポイントされた事物の領域の重心から,飛び先のシーンの縮小された映像がみるみる大きくなるようなシーンの変わり方をさせる。これにより,どの事物がポイントされたのかもすぐにわかる。   17A to 17C show display screen examples when jumping to another scene by associative search. When an item on the screen is pointed, the video playback / display unit 100 makes a change with a special effect so that it can be easily distinguished from the transition of a normal scene in the video. For example, the scene is changed so that the reduced image of the destination scene becomes larger from the center of gravity of the area of the pointed object. This makes it easy to see what was pointed to.

ところで,図15における1212は,事物の関連情報を表示するかどうかを決めるためのボタンである。このボタンをポイントすると,例えば,図18に示す1300のようなメニューが現れる。このメニューには,関連情報を表示をしなくするOFFのほか,現在表示可能な関連情報の種類が表示される。ユーザは,このメニューの中から見たい関連情報の種類を選ぶことができる。この情報は,映像制御部106を通じて,制御信号210として映像再生表示部100の関連情報表示部204に伝えられ,関連情報を表示するのか,するならば,どのキーに対応する情報なのかが決定される。このメニューは1本の映像ごとに作られて,その映像について登録されている全てのオブジェクト構造体500におけるオブジェクト属性情報520のディクショナリ全てのキーを調べ,全種類をメニューに載せている。1214は,モードを変更するためのボタンで,連想検索のモード,関連情報を変更するモードなどを切り替えることができる。これによって,ポイント事物識別部102の内部状態を変化させ,ポイント位置検出部からポイントが伝えられたときの対応処理が各内部状態に応じたものにする。   By the way, 1212 in FIG. 15 is a button for deciding whether or not to display related information of things. When this button is pointed, a menu such as 1300 shown in FIG. 18 appears. In this menu, in addition to turning off the display of related information, the type of related information that can be displayed is displayed. The user can select the type of related information he wants to see from this menu. This information is transmitted to the related information display unit 204 of the video reproduction display unit 100 as a control signal 210 through the video control unit 106, and it is determined whether the related information is displayed or, if so, which key corresponds to the information. Is done. This menu is created for each video, and all the dictionary keys of the object attribute information 520 in all object structures 500 registered for the video are checked, and all types are listed on the menu. Reference numeral 1214 denotes a button for changing the mode, and can switch an associative search mode, a mode for changing related information, and the like. As a result, the internal state of the point thing identification unit 102 is changed, and the corresponding processing when a point is transmitted from the point position detection unit is made in accordance with each internal state.

図19は,関連情報を表示する画面の一例である。映像中の事物1500とその関連情報1502との関係が一目でわかるように,事物の上に重畳するように関連情報を表示する。事物有無判定部202が,前述した手順で現在現れている事物を確定したとき,それらの事物についてオブジェクトの位置514を読みだし,その位置情報から重心を求め,また,関連情報の表示に必要となる領域の重心を求めて,その重心が一致するように関連情報の表示位置を定める。但し,複数の事物が密に接している場合には,相互にオフセットをかけて1502の表示が重ならないようにする。関連情報1502は図のようなテキストに限定されるものではなく,アイコンなどの画像であっても一向に構わない。また,連想検索時には,ポイント事物識別部102が,関連情報1502の表示領域をポイントすることでも,対応する事物がポイントされたと識別できるようにし,別のシーンにジャンプできるようにする。これは,一つの事物につき,2つの位置情報を持たせ,そのORで判定することで行う。また,図20に示すように,関連情報1502と事物1500の間を連結線1504で結ぶことでも対応づけのわかりやすい表示を行うことができる。特に,関連情報1502の表示位置を固定にしておき,連結線だけを事物の動きに合わせて変化させることで,事物の動きが激しく事物をポイントすることが困難な場合でも,固定している1502をポイントすることで容易に連想検索を行うことができる。   FIG. 19 is an example of a screen that displays related information. The related information is displayed so as to be superimposed on the thing so that the relationship between the thing 1500 in the video and the related information 1502 can be understood at a glance. When the thing presence / absence determination unit 202 determines the things currently appearing in the above-described procedure, the object position 514 is read for those things, the center of gravity is obtained from the position information, and necessary for displaying related information. The centroid of the area to be obtained is determined, and the display position of the related information is determined so that the centroids coincide. However, when a plurality of things are in close contact with each other, an offset is applied to each other so that the display of 1502 does not overlap. The related information 1502 is not limited to text as shown in the figure, and may be an image such as an icon. Further, at the time of associative search, the pointed thing identification unit 102 can identify that the corresponding thing is pointed by pointing to the display area of the related information 1502, and can jump to another scene. This is done by giving two pieces of positional information for one thing and judging by the OR. In addition, as shown in FIG. 20, it is possible to display the association easily by connecting the related information 1502 and the thing 1500 with a connecting line 1504. In particular, by fixing the display position of the related information 1502 and changing only the connecting line in accordance with the movement of the object, even if the movement of the object is intense and it is difficult to point to the object, the fixed information 1502 is fixed. It is possible to easily perform an associative search by pointing to.

システムの内部状態が関連情報変更モードのときには,図21に示すように,表示されている関連情報のテキスト1502をポイントすると文字修正カーソル1506が現れ,キーボード等を使って,その場で直ちに変更することができる。表示された情報が上位のオブジェクトに格納されている関連情報であれば,この変更により,同じ上位オブジェクトを共有する全ての事物について一斉に関連情報が更新されることになる。表示されている以外の関連情報を変更するときには,図22に示すような関連情報変更ウインドウ1600が現れる。1602は,関連情報のキーのリストである。このリスト中には,その事物の関連情報のほか,その上位オブジェクトの関連情報もある。1604のボタンをポイントすると,文字入力ウインドウが現れて,そこに新しいキーを入力すると登録されて1602のリストに登録される。1602のリストに表示されているキーはポイントによって選択でき,選択されると強調表示される。この状態で,1608の文字入力領域に何か入力すると,それが,その選択されたキーに対応する関連情報として登録される。1606は,キーを抹消するためのボタンで,キーを選択した状態で1606をポイントすると,そのキーに対応する関連情報ごと登録抹消される。1610は,このようにして行った変更を受容して完了する場合にポイントするボタンで,1612は,変更を全てキャンセルして取りやめる場合にポイントするボタンである。   When the internal state of the system is in the related information change mode, as shown in FIG. 21, when the related information text 1502 displayed is pointed, a character correction cursor 1506 appears, and it is immediately changed on the spot using a keyboard or the like. be able to. If the displayed information is related information stored in a higher-level object, the related information is updated for all things sharing the same higher-level object by this change. When related information other than the displayed information is changed, a related information change window 1600 as shown in FIG. 22 appears. Reference numeral 1602 denotes a list of related information keys. In this list, there is related information of the superordinate object in addition to related information of the thing. When the button 1604 is pointed, a character input window appears, and when a new key is input there, it is registered and registered in the list 1602. Keys displayed in the list 1602 can be selected by points and are highlighted when selected. In this state, if something is input to the character input area 1608, it is registered as related information corresponding to the selected key. Reference numeral 1606 denotes a button for deleting a key. When 1606 is pointed with a key selected, the associated information corresponding to the key is deleted. Reference numeral 1610 denotes a button which is pointed when the change made in this way is accepted and completed, and reference numeral 1612 denotes a button which is pointed out when all the changes are canceled and canceled.

また,システムの内部状態が事物複写モードのときには,再生中の映像に現れた事物を複写して,他の映像に貼り付けるといったことも動画間・音声間のそれぞれで可能である。複写は,ポイントされた事物のオブジェクトの構造体をそっくり複製することによって行う。複写されたオブジェクトは,上位オブジェクトを共有し,また,その上位のオブジェクトの下位オブジェクトとして追加される。貼り付けについては,映像中の事物は映像情報の部分空間と対応づけられているので,貼り付け先の映像情報の同じ形状の部分空間と置換することで行える。そして,この複写・貼り付けは,関連情報も合わせて複写・貼り付けが行えるので,関連情報に関する作業量はほとんどない。   In addition, when the internal state of the system is the thing copy mode, it is possible to copy the thing that appeared in the video being played and paste it on another video between the moving images and between the sounds. Duplication is done by duplicating the object structure of the pointed object. The copied object shares the upper object and is added as a lower object of the upper object. As for pasting, since the thing in the video is associated with the partial space of the video information, it can be replaced with a partial space of the same shape of the pasted video information. Since this copying / pasting can be performed by copying and pasting related information together, there is almost no amount of work related to the related information.

以上の実施例では,ワークステションレベルのコンピュータを用いて検索を行なう例で説明したが,VTRやTVなどの一機能として実現することも可能である。   In the above-described embodiments, the example in which a search is performed using a workstation-level computer has been described. However, the search can be realized as one function such as a VTR or a TV.

映像の連想検索を実現するシステムの画面の構成例である。It is a structural example of the screen of the system which implement | achieves the associative search of an image | video. 本発明の一実施例に係る映像の連想検索システムの装置構成のブロック図である。1 is a block diagram of an apparatus configuration of a video associative search system according to an embodiment of the present invention. 映像の連想検索機能の説明図である。It is explanatory drawing of the video associative search function. 被写体検索方法を説明する図である。It is a figure explaining a to-be-photographed object search method. 映像の連想検索を実現するための処理ブロック図である。It is a process block diagram for implement | achieving the associative search of an image | video. オブジェクト指向型のデータ構造体の概略図である。It is a schematic diagram of an object-oriented data structure. 映像再生表示部の詳細処理ブロック図である。It is a detailed processing block diagram of a video reproduction display unit. 映像オブジェクトを記憶する構造体を示す図である。It is a figure which shows the structure which memorize | stores a video object. オブジェクトの位置を記憶する構造体を示す図である。It is a figure which shows the structure which memorize | stores the position of an object. ディクショナリを記憶する構造体を示す図である。It is a figure which shows the structure which memorize | stores a dictionary. 映像再生部の詳細処理ブロック図である。It is a detailed processing block diagram of a video reproduction unit. 論理映像を記憶する構造体を示す図である。It is a figure which shows the structure which memorize | stores a logic image | video. シーンを記憶する構造体を示す図である。It is a figure which shows the structure which memorize | stores a scene. 物理映像を記憶する構造体を示す図である。It is a figure which shows the structure which memorize | stores a physical image | video. モニタウインドウを示す画面例である。It is an example of a screen which shows a monitor window. モニタウインドウの表示画面例である。It is an example of a display screen of a monitor window. モニタウインドウの表示画面例である。It is an example of a display screen of a monitor window. メニュー表示の例である。It is an example of a menu display. モニタウインドウの表示画面例である。It is an example of a display screen of a monitor window. モニタウインドウの表示画面例である。It is an example of a display screen of a monitor window. モニタウインドウの表示画面例である。It is an example of a display screen of a monitor window. 関連情報を変更するためのウインドウを示す図である。It is a figure which shows the window for changing related information.

符号の説明Explanation of symbols

1…ディスプレイ,2…制御信号線,3…映像入力装置,4…コンピュータ,5…ポインティングデバイス,6…外部情報記憶装置,7…CPU,8…接続インタフェース,9…メモリ,10…映像再生装置,11…キーボード,12…スピーカ,13…タッチパネル。
DESCRIPTION OF SYMBOLS 1 ... Display, 2 ... Control signal line, 3 ... Video input device, 4 ... Computer, 5 ... Pointing device, 6 ... External information storage device, 7 ... CPU, 8 ... Connection interface, 9 ... Memory, 10 ... Video reproducing device 11 ... Keyboard, 12 ... Speaker, 13 ... Touch panel.

Claims (7)

記録手段に記録される映像を視聴するための映像表示領域と映像のインデクス情報を表示するインデクス表示領域とを有する映像表示部と、
前記映像を構成する全フレームを予めブロック分割し、該ブロックごとの第1の特徴量を記憶する記憶部と
前記映像表示部に表示された映像のフレームの中のオブジェクトを指し示すポイントを検出するポイント位置検出部と、
前記ポイント位置検出部により指し示されたオブジェクトを検出するためのポイント検出部と、
前記検出されたオブジェクトの第2の特徴量を抽出する抽出部と
第1と第2の特徴量の照合により、記録される映像から検索された映像区間のうち、上記映像表示部に表示される映像から最も近い映像区間を検索し、前記映像表示部に表示される映像に替えて該検索された映像区間を表示させる制御部とを有し、
上記ポイントが検出される度に上記表示部に表示される映像を切り替えることを特徴とする映像の連想検索装置。
A video display unit having a video display area for viewing the video recorded in the recording means and an index display area for displaying video index information;
A storage unit that preliminarily divides all frames constituting the video and stores a first feature amount for each block; and a point indicating an object in the video frame displayed on the video display unit A point position detection unit for detecting
A point detector for detecting the object pointed to by the point position detector;
An extraction unit for extracting a second feature amount of the detected object ;
By comparing the first and second feature amounts, the video section searched from the recorded video is searched for the video section closest to the video displayed on the video display unit and displayed on the video display unit. A control unit that displays the searched video section instead of the video
A video associative search device, wherein the video displayed on the display unit is switched every time the point is detected.
前記記憶部は、上記ブロックごとに含まれる色の種類のリストを記憶することを特徴とする請求項1記載の連想検索装置。2. The associative search device according to claim 1, wherein the storage unit stores a list of types of colors included for each of the blocks. 映像区間のショットのフレームに含まれるオブジェクトの特性及び該オブジェクトが現れたときの次の映像区間の位置を示すリンク情報を含むオブジェクト情報を記憶する記憶部をさらに有し、
前記制御部は、前記検出されたオブジェクトの前記オブジェクト情報が記録される場合には、前記オブジェクト情報と前記ポイント検出部により指し示されたオブジェクトとから次に再生すべき映像区間を定め、前記映像表示部に表示される映像に替えて該映像区間を表示させることを特徴とする請求項1又は2に記載の連想検索装置。
A storage unit that stores object information including characteristics of an object included in a shot frame of a video section and link information indicating a position of a next video section when the object appears;
When the object information of the detected object is recorded, the control unit determines a video section to be reproduced next from the object information and the object pointed to by the point detection unit, and the video The associative search device according to claim 1 or 2, wherein the video section is displayed instead of the video displayed on the display unit.
前記制御部は、さらに情報重畳手段を備え、再生中の映像に現れているオブジェクトのオブジェクト情報のうち選択された少なくとも一部の情報を、再生映像中の該オブジェクトの位置に重畳表示、もしくは該オブジェクトとその属性情報とが対応していることを明示される形態で表示することを特徴とする請求項3に記載の映像の連想検索装置。   The control unit further includes information superimposing means, and at least a part of the selected object information of the object appearing in the video being reproduced is superimposed on the position of the object in the reproduced video, or 4. The video associative search apparatus according to claim 3, wherein an object and its attribute information are displayed in a clearly specified form. 前記制御部は、さらに情報変更手段を備え、再生中の映像に現れているオブジェクト情報の少なくとも一部の情報を、該オブジェクトが現れている時点で変更させることを特徴とする請求項3又は4に記載の映像の連想検索装置。   5. The control unit according to claim 3 or 4, further comprising information changing means for changing at least a part of the object information appearing in the video being reproduced when the object appears. The video associative search device described in 1. 前記表示部に表示される映像のシーンが変わる場合、
その変化を特殊映像効果を加えて実行することにより、通常のシーンの変化と区別して表示することを特徴とする請求項1乃至5の何れかに記載の映像の連想検索装置。
When the scene of the video displayed on the display unit changes,
By executing the change by adding special video effects, associative search device of a video according to claim 1乃optimum 5, characterized in that the displayed differently from normal changes in a scene.
前記表示部にオブジェクトの情報が表示されているときには、該オブジェクトのオブジェクト情報の表示領域がポイントされたときにも該オブジェクトがポイントされたと判定することを特徴とする請求項3乃至5の何れかに記載の映像の連想検索装置。   6. When the object information is displayed on the display unit, it is determined that the object is pointed even when the object information display area of the object is pointed. The video associative search device described in 1.
JP2003384488A 1993-10-25 2003-11-14 Video associative search device Expired - Lifetime JP3711993B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003384488A JP3711993B2 (en) 1993-10-25 2003-11-14 Video associative search device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP26607193 1993-10-25
JP2003384488A JP3711993B2 (en) 1993-10-25 2003-11-14 Video associative search device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP6260013A Division JPH07175816A (en) 1993-10-25 1994-10-25 Video associative retrieving device and method

Publications (2)

Publication Number Publication Date
JP2004127311A JP2004127311A (en) 2004-04-22
JP3711993B2 true JP3711993B2 (en) 2005-11-02

Family

ID=32300003

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003384488A Expired - Lifetime JP3711993B2 (en) 1993-10-25 2003-11-14 Video associative search device

Country Status (1)

Country Link
JP (1) JP3711993B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5080368B2 (en) * 2008-06-06 2012-11-21 日本放送協会 Video content search apparatus and computer program
WO2011158406A1 (en) 2010-06-16 2011-12-22 パナソニック株式会社 Video search device, video search method, recording medium, program, and integrated circuit
KR102161230B1 (en) * 2013-05-28 2020-09-29 삼성전자주식회사 Method and apparatus for user interface for multimedia content search

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02121058A (en) * 1988-10-31 1990-05-08 Matsushita Electric Ind Co Ltd Data file device, method and device for retrieving data associative memory
JPH0352070A (en) * 1989-07-20 1991-03-06 Nippon Telegr & Teleph Corp <Ntt> Related information reference system for moving image
JPH0520366A (en) * 1991-05-08 1993-01-29 Nippon Telegr & Teleph Corp <Ntt> Animated image collating method
JPH0546682A (en) * 1991-08-14 1993-02-26 Nippon Telegr & Teleph Corp <Ntt> Moving image extracting method
JP2940247B2 (en) * 1991-08-27 1999-08-25 松下電器産業株式会社 Moving object contour detection device

Also Published As

Publication number Publication date
JP2004127311A (en) 2004-04-22

Similar Documents

Publication Publication Date Title
US6195497B1 (en) Associated image retrieving apparatus and method
US5532833A (en) Method and system for displaying selected portions of a motion video image
US8250490B2 (en) Display image control apparatus
JP4364190B2 (en) Method and apparatus for nonlinear playback control of multimedia data stream
US8549442B2 (en) Voice and video control of interactive electronically simulated environment
EP0555028A2 (en) An apparatus and method for manipulating digital data relating to motion video images
USRE38401E1 (en) Interactive video icon with designated viewing position
JP4188889B2 (en) Video browsing method using information about relations between segments of multimedia stream
US20070101266A1 (en) Video summary description scheme and method and system of video summary description data generation for efficient overview and browsing
US20020126143A1 (en) Article-based news video content summarizing method and browsing system
KR20070093084A (en) Distributed software construction for user interfaces
JPH0778804B2 (en) Scene information input system and method
JP3574606B2 (en) Hierarchical video management method, hierarchical management device, and recording medium recording hierarchical management program
KR100370247B1 (en) Video browser based on character relation
KR100335817B1 (en) Method for representing abstract/detail relationship among segments in order to provide efficient browsing of video stream and video browsing method using the abstract/detail relationships among segments
JPH07175816A (en) Video associative retrieving device and method
JP4955179B2 (en) Search user interface for building and managing user profiles and search criteria
Lee et al. Implementation and analysis of several keyframe-based browsing interfaces to digital video
KR100319158B1 (en) Video browsing system based on event
JP3711993B2 (en) Video associative search device
JP2001306579A (en) Device and method for retrieving information and computer-readable recording medium recorded with program for computer to execute the same method
JPH06309381A (en) Moving image processor
JP2001078091A (en) Device and method for displaying and editing media scene information and storage medium storing program related to the method
JP3751608B2 (en) Information processing device
KR100361499B1 (en) Method for representing cause/effect relationship among segments in order to provide efficient browsing of video stream and video browsing method using the cause/effect relationships among segments

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20041026

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050419

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050613

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050726

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050808

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080826

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090826

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100826

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100826

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110826

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120826

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130826

Year of fee payment: 8

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term