JP2004265433A - Construction method of image in image storage device - Google Patents

Construction method of image in image storage device Download PDF

Info

Publication number
JP2004265433A
JP2004265433A JP2004113551A JP2004113551A JP2004265433A JP 2004265433 A JP2004265433 A JP 2004265433A JP 2004113551 A JP2004113551 A JP 2004113551A JP 2004113551 A JP2004113551 A JP 2004113551A JP 2004265433 A JP2004265433 A JP 2004265433A
Authority
JP
Japan
Prior art keywords
image
data
search
text
relation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004113551A
Other languages
Japanese (ja)
Inventor
Hitoshi Abe
仁 阿部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2004113551A priority Critical patent/JP2004265433A/en
Publication of JP2004265433A publication Critical patent/JP2004265433A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To easily search for target data to construct them as an image by using a plurality of pieces of data having different data types as search keys. <P>SOLUTION: This image storage device is provided with a part data storage part 1 which stores a plurality of objects as part data capable of raster-drawing on an image, and a relation storage part 3 storing relation information which is constructed of a plurality of objects and image processing operation carried out for drawing a plurality of objects to raster images, for each image. In this image construction method in the image storage device, the part data necessary for the construction of an image are searched from the part data storage part 1 according to desired image relation information stored in the relation storage part 3, and the image is constructed by performing image processing operation, which is defined by the relation information on the searched part data. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

本発明は、マルチメディア文書等の画像を記憶する装置において、画像を構成する方法に関するものである。   The present invention relates to a method for composing an image in an apparatus for storing an image such as a multimedia document.

テキストデータ、音声データ、画像データ、動画データ等の複数のタイプのデータから構成されるデータは、一般にマルチメディアデータと呼ばれている。従来より、このマルチメディアデータを説明・補助する情報についての文字・数値型データベースを作成し、そのデータ項目の1つとしてマルチメディアデータへのポインタを用意するシステムが多く提案されている。   Data composed of a plurality of types of data, such as text data, audio data, image data, and moving image data, is generally called multimedia data. 2. Description of the Related Art Conventionally, many systems have been proposed in which a character / numerical database of information for explaining and assisting multimedia data is created and a pointer to the multimedia data is prepared as one of the data items.

例えば、画像データの場合であれば、ランドサット画像データベースの記憶装置として、IMDS(非特許文献1参照)や、LIMS(非特許文献2参照)が開発されている。   For example, in the case of image data, IMDS (see Non-Patent Document 1) and LIMS (see Non-Patent Document 2) have been developed as storage devices for a Landsat image database.

他にも、例えば特許文献1などに記載されている様に、1つの画像が1枚の画像データからだけでなく、複数枚の部品画像データから構成され、検索する際にデータの内容を利用し、従来技術におけるキーワードの付け方や、検索の際の優先順位の無さを補うシステムも提案されている。   In addition, as described in Patent Document 1, for example, one image is composed of not only one piece of image data but also a plurality of parts image data, and the content of the data is used when searching. In addition, a system has been proposed that supplements the prior art with how to assign a keyword and the lack of priority in a search.

また、同じく画像データの例であるが、画像部品データの相互関係を記述した関係情報を用いて内容依存型データ検索を行うものもある。イリノイ大学のGRAIN(非特許文献3参照)がそれで、各画像内部の対象物を最小外接矩形領域としてとらえ[対象物名前−包含関係−位置座標−諸属性]の表であらわしているため、例えば論理画像の位置座標を用いた検索ができる。   In addition, there is also an example of image data, in which a content-dependent data search is performed using relation information describing the mutual relation of image part data. Since GRAIN of the University of Illinois (see Non-Patent Document 3) regards an object inside each image as a minimum circumscribed rectangular area and represents it in a table of [object name-inclusion relation-position coordinate-attribute], for example, A search using the position coordinates of the logical image can be performed.

更に、内容を参照する検索方式としては、特許文献2に示される様なものがある。同文献に記載の画像情報検索装置は、検索情報として、識別記号やキーワードの代わりに、画像情報を構成する構成要素と各構成要素の画像情報内での大きさ、向き、姿勢、位置関係等の様々な属性を用いるキーイメージ検索法において、ユーザ自身が個々の検索毎に近似度の判定基準を容易に変更できるようにしたものである。   Further, as a search method for referring to the contents, there is a method as shown in Patent Document 2. The image information search device described in the document uses, as search information, components constituting image information and sizes, orientations, postures, positional relationships, etc. in the image information instead of identification symbols or keywords. In the key image search method using various attributes described above, the user himself / herself can easily change the criterion for determining the degree of approximation for each search.

また、写真などのデータと文字が混在する場合、それら全てを1つのデータタイプ、例えば画像として扱い、例えば特許文献3に示される様に、圧縮符号化して記憶しておき、検索時にはテキストを含むブロックのみ高解像度で復号化し、人間がテキストデータを読み取って、画像とそこに書かれている文字列から目的とするファイルであるかどうかを判断する様な手法もある。
特開平3−139768号公報 特開平2−51775号公報 特開平3−87977号公報 Y.E.Lien, et al.:“Design of an Image Database”, Proc. of Picture Database Description and Management 77,p.131(1977) 篠田,木戸出;画像データベース信学誌,63,12,(1981) N.S.Chang:“Image Analysis and Image Database Management”,UMI Research Press, Ann Arbar,Michigan,(1981)
Further, when data such as a photograph and characters are mixed, all of them are treated as one data type, for example, an image. For example, as shown in Patent Document 3, compression encoding is performed and stored. There is also a method in which only a block is decoded at a high resolution, a human reads text data, and determines whether or not the file is a target file from an image and a character string written therein.
JP-A-3-139768 JP-A-2-51775 JP-A-3-87977 Y. E. FIG. Lien, et al. : "Design of an Image Database", Proc. of Picture Database Description and Management 77, p. 131 (1977) Shinoda, Kido; Image Database Science Journal, 63, 12, (1981) N. S. Chang: "Image Analysis and Image Database Management", UMI Research Press, Ann Arbar, Michigan, (1981)

しかしながら、これら従来の方法では、検索のキーとなるデータのタイプとして、テキストや画像といった複数のデータタイプの中の1つの特定のデータタイプを前提としている(例えばGRAINの場合ならば画像)ため、例えば「胸部レントゲン写真に『昭和63年2月14日撮影』という説明文をテキストで追加記入したファイル」を自動検索する事は困難であった。   However, in these conventional methods, one specific data type among a plurality of data types such as text and image is assumed as a data type serving as a search key (for example, an image in the case of GRAIN). For example, it was difficult to automatically search for "a file in which an explanatory note of" photographed on February 14, 1988 "was additionally written in text on a chest radiograph".

そこで本発明は、それぞれ異なったデータタイプの複数のデータを検索のキーとして、目的のデータを容易に検索し画像として構成できるようにすることを目的とする。   Accordingly, an object of the present invention is to make it possible to easily search target data and configure an image using a plurality of data of different data types as search keys.

本発明においては、検索の対象となるデータを複数の部品データの組み合わせから構成し、様々なデータタイプの部品データを保持しながら、それらを複合的に利用し、各部品データおよび部品データの集合の持つ内容自体と、それらに与えられた属性、及びそれら同士の関係の記述から、目的とする部品データあるいは部品データの集合を検索し画像として構成する。   In the present invention, data to be searched is composed of a combination of a plurality of component data, and while holding component data of various data types, these are used in a complex manner, and a set of component data and component data is used. The target component data or a set of component data is retrieved from the content itself, the attribute given to them, and the description of the relationship between them, and configured as an image.

画像にラスター描画することが可能な部品データとしてのオブジェクトを複数記憶する部品データ記憶部と、前記複数のオブジェクトと当該複数のオブジェクトの各々をラスター画像に描画する際に施す画像処理操作とから構成された関係情報を、画像毎に記憶するための関係記憶部とを備えた画像記憶装置における画像の構成方法であって、前記関係記億部に記憶された所望の画像の関係情報から、画像の構成に必要な部品データを前記部品データ記憶部から検索し、前記検索された部品データに前記関係情報に定義された画像処理操作を施して画像を構成することを特徴とする。   A component data storage unit that stores a plurality of objects as component data that can be raster-drawn on an image, and an image processing operation performed when each of the plurality of objects and each of the plurality of objects is drawn on a raster image A relation storage unit for storing, for each image, a relation storage unit for storing an image, wherein the relation information of a desired image stored in the relation storage unit is stored in the image storage device. The component data required for the above configuration is retrieved from the component data storage unit, and an image processing operation defined in the related information is performed on the retrieved component data to form an image.

本発明によれば、複数種類のデータタイプの部品データの内容を元に、所望の画像を検索し構成できる。また、1つのデータタイプを検索するにつれて、検索対象領域が絞りこまれていくため、高速な検索が可能である。   According to the present invention, a desired image can be searched for and configured based on the contents of component data of a plurality of types of data. Further, as one data type is searched, the search target area is narrowed down, so that a high-speed search is possible.

図1は本発明の概要を説明するための基本的なブロック図である。   FIG. 1 is a basic block diagram for explaining the outline of the present invention.

図1に示す様に、本発明のマルチメディア文書記憶装置は、記憶部として、各部品データおよび部品データの集合を蓄積するための部品データ記憶部1、これらの各部品データおよび部品データの集合に与えられた属性を蓄積するための属性記憶部2、及び各部品データおよび部品データの集合同士の関係の記述を蓄積するための関係記憶部3をそれぞれ備えている。また検索部として、内容検索部4、属性検索部5、文書・関係検索部6、およびそれら3つの検索部4,5,6を用いて所望の部品データの集合を得るための複合検索部7を備えている。上記、内容検索部4は、後述するようにテキスト検索部4a及び画像検索部4bを備えている。さらに演算のためのプロセッサ8や、検索結果の表示/編集のためのディスプレイ装置とキー入力用キーボード、及びマウス/デジタイザなどのポインティングデバイス、そして音声や画像などのマルチメディアデータ入出力部9を備えている。   As shown in FIG. 1, in the multimedia document storage device of the present invention, as a storage unit, a component data storage unit 1 for storing each component data and a set of component data, and a set of each of the component data and the component data And a relation storage unit 3 for storing a description of the relationship between each component data and a set of component data. As a search unit, a content search unit 4, an attribute search unit 5, a document / relation search unit 6, and a compound search unit 7 for obtaining a desired set of component data using the three search units 4, 5, and 6 It has. The content search unit 4 includes a text search unit 4a and an image search unit 4b as described later. It further includes a processor 8 for calculation, a display device for displaying / editing search results, a keyboard for key input, a pointing device such as a mouse / digitizer, and a multimedia data input / output unit 9 for voice and images. ing.

マルチメディアデータ入出力部9により入力されたテキストデータ,画像データ等のマルチメディアデータは、各種の属性を自動的に或いは人為的に付与され、データの内容は部品データ記憶部1に、また属性は属性記憶部2に格納される。自動的に付与される属性としては、日付,解像度,登録者名,データサイズ,画像データのアドレス,データ種別等があり、人為的に付与される属性としては、画像名,アクセス権,有効期限,有効期限後の扱い等がある。また、それらの部品データは、内容検索部4によって検索されマルチメディアデータ入出力部9から出力され、合成/切り貼り等の編集が行われる。なお、各部品データの位置情報は関係記憶部3に含まれている。その後、編集された結果、生成される複数の部品データ間の相互関係や施された演算を記述した関係ファイルが、関係記憶部3に格納される。なお、関係ファイルには、拡大/縮小、色変換、アフィン変換等の編集操作の情報も含まれる。   The multimedia data such as text data and image data input by the multimedia data input / output unit 9 are automatically or artificially given various attributes, and the contents of the data are stored in the component data storage unit 1 and the attributes. Are stored in the attribute storage unit 2. Attributes that are automatically assigned include date, resolution, registrant name, data size, image data address, data type, etc. Attributes that are artificially assigned include image name, access right, and expiration date , And treatment after the expiration date. The component data is retrieved by the content retrieval unit 4 and output from the multimedia data input / output unit 9, where editing such as combining / cutting / pasting is performed. The position information of each component data is included in the relation storage unit 3. Thereafter, a relation file describing a mutual relation between a plurality of pieces of component data generated as a result of editing and a performed operation is stored in the relation storage unit 3. The relation file also includes information on editing operations such as enlargement / reduction, color conversion, and affine conversion.

以上の手順で生成された部品データの内容、属性、関係から、複合検索部7によって、内容検索部4、属性検索部5、文書・関係検索部6を用いてファイルが検索され、マルチメディアデータ入出力部9に表示される。   From the contents, attributes, and relationships of the part data generated by the above procedure, a file is searched by the compound search unit 7 using the contents search unit 4, the attribute search unit 5, and the document / relation search unit 6, and the multimedia data It is displayed on the input / output unit 9.

本発明の実施例を図面に従って説明する。なお、図1に示す構成と対応する部材には同一符号を付している。   An embodiment of the present invention will be described with reference to the drawings. Members corresponding to those shown in FIG. 1 are denoted by the same reference numerals.

図2で示す様に、図1における内容検索部4は、テキスト検索部4aと画像検索部4bとを備えている。また、マルチメディアデータ入出力部9は、音声入出力のためのマイク/スピーカ9a、画像入力のためのスキャナ9b、座標入力のためのマウス9c、そしてテキスト入力と画像表示用のためのディスプレイ/キーボード9dを備え、外部との通信用のネットワークインタフェース9eも備えている。更に、マルチメディアデータ入出力部9からのデータを保持するため、部品データ記憶部1には、図3の様に、画像部品データ記憶部1a、テキスト部品データ記憶部1b、音声部品データ記憶部1cを備えている。   As shown in FIG. 2, the content search unit 4 in FIG. 1 includes a text search unit 4a and an image search unit 4b. The multimedia data input / output unit 9 includes a microphone / speaker 9a for voice input / output, a scanner 9b for image input, a mouse 9c for coordinate input, and a display / input for text input and image display. It has a keyboard 9d and a network interface 9e for communication with the outside. Further, in order to hold data from the multimedia data input / output unit 9, the component data storage unit 1 stores image component data storage unit 1a, text component data storage unit 1b, and audio component data storage unit as shown in FIG. 1c.

以上の構成で、簡単のため、まず画像データとテキストデータが混在するマルチメディアデータの文書について考える。   With the above configuration, for simplicity, first consider a multimedia data document in which image data and text data are mixed.

まず、登録時の動作について説明する。スキャナ9bから入力された画像データ(例えば木)は、まず画像部品データ記憶部1aに一つのファイルとして登録される。図4(a)は、この登録された木の画像データを模式的に示すものである。他の画像データ、たとえば、人や道路等の画像データも必要に応じて同様に登録される。画像部品データ記憶部1aは、複数の画像データを記憶することができるだけの容量を有しており、たとえば、先頭アドレスから各画像データが順次書き込まれていく。各画像データには固有の識別子、たとえば、「画像1」,「画像2」,・・・というファイル名が付されている。なお、このファイル名自体は、属性記憶部2に記憶されており対応する画像データの先頭アドレスと共に管理されている。図4(b)は、これらの複数の画像データの登録状態を模式的に示しており、この例では、木の画像データが「画像2」として登録される。なお、ファイル名と実際に画像データが格納されているアドレスの関係は、たとえば、ファイル名とアドレスポインタの対応テーブルに記憶される。また、登録の際には、各画像データには、その画像データの内容を示すキーワードが付される。たとえば、「画像2」の画像データには「木」というキーワードが付され、属性記憶部2に格納される。   First, the operation at the time of registration will be described. The image data (for example, a tree) input from the scanner 9b is first registered as one file in the image component data storage unit 1a. FIG. 4A schematically shows the image data of the registered tree. Other image data, for example, image data of people, roads, and the like are similarly registered as necessary. The image component data storage unit 1a has a capacity enough to store a plurality of image data. For example, each image data is sequentially written from a head address. Each image data is given a unique identifier, for example, a file name such as “image 1”, “image 2”,. Note that the file name itself is stored in the attribute storage unit 2 and is managed together with the head address of the corresponding image data. FIG. 4B schematically shows the registration state of the plurality of image data. In this example, the image data of the tree is registered as “image 2”. The relationship between the file name and the address where the image data is actually stored is stored in, for example, a correspondence table between the file name and the address pointer. At the time of registration, each image data is provided with a keyword indicating the content of the image data. For example, the keyword “tree” is attached to the image data of “image 2” and stored in the attribute storage unit 2.

次に、編集のため、ディスプレイ/キーボード9dのキーボード部を通してキーワード「木」が入力されると、このキーワードと、属性記憶部2に登録されている各画像データのキーワードが順次比較され、前述の「画像2」として登録された木が検索される。この木の画像データの表示位置をマウス9cで指定することにより、ディスプレイ/キーボード9dのディスプレイ部に表示されている編集中の画像に、木の画像データID2が合成表示される(図4(c)参照)。他の画像部品、例えば人や道路などの画像データID3,ID4も同様である。各画像データの表示画面上での座標のデータは、各画像データに付随するデータとして後述の関係記憶部3に格納するため、メモリ中に編集作業が終了するまで保持しておく。画像の位置を示すデータとしては、たとえば、画像に外接する矩形の左上隅の点の座標を使用することができる。   Next, when a keyword "tree" is input through the keyboard section of the display / keyboard 9d for editing, the keyword and the keyword of each image data registered in the attribute storage section 2 are sequentially compared. The tree registered as "image 2" is searched. By designating the display position of the tree image data with the mouse 9c, the tree image data ID2 is superimposed on the image being edited displayed on the display unit of the display / keyboard 9d (FIG. 4 (c)). )reference). The same applies to other image components, for example, image data ID3 and ID4 of people and roads. The coordinate data on the display screen of each image data is stored in the relation storage unit 3 described later as data accompanying each image data, and is retained in the memory until the editing operation is completed. As the data indicating the position of the image, for example, the coordinates of a point at the upper left corner of a rectangle circumscribing the image can be used.

更にディスプレイ/キーボード9dのキーボード部から入力された『横浜にて<CR>平成2年10月7日撮影』というテキストデータTDが、図4(c)に示すように編集中の画像のマウス9cで指定した任意の部分に書き込まれ、書き終わった時点で、テキスト部品データ記憶部1bに「テキスト1」として登録される(図4(d)参照)。なお、<CR>は改行を示す制御記号である。図示しないが、他のテキストデータに関しても同様であり、テキスト部品データ記憶部1bには複数のテキストデータが順次登録される。なお、各テキストデータの表示画面上での座標のデータは、各テキストデータに付随するデータとして記憶される。   Further, the text data TD “<CR> taken on October 7, 1990” input from the keyboard part of the display / keyboard 9d is converted to the mouse 9c of the image being edited as shown in FIG. Is written in an arbitrary part designated by the above, and when the writing is completed, it is registered as "text 1" in the text component data storage unit 1b (see FIG. 4D). <CR> is a control symbol indicating a line feed. Although not shown, the same applies to other text data, and a plurality of text data are sequentially registered in the text component data storage unit 1b. The data of the coordinates of each text data on the display screen is stored as data accompanying the text data.

上述のようにして、画像及びテキストを組み合わせて一つの文書の作成が作成され、文書作成終了が指示されると、その文書にファイル名、たとえば、「文書1」が付される。他の文書についても同様に編集作業を行う。   As described above, the creation of one document is created by combining the image and the text, and when the end of the document creation is instructed, a file name, for example, “document 1” is given to the document. Editing work is similarly performed for other documents.

最後に編集操作が終わると、作成された各文書が、どの部品データを用いてどういう関係から構成されているかを示すファイル(以後関係ファイルと呼ぶ)が生成され、ファイル名と共に、関係記憶部3に登録される(図4(e)参照)。図4(e)の例では、「文書1」に対応する関係ファイルとして「テキスト1(x1,y1)+画像2(x2,y2)+画像3(x3,y3)+・・・」が登録されている。この関係ファイルは、「文書1」が、座標(x1,y1)の「テキスト1」と、座標(x2,y2)の「画像2」と、座標(x3,y3)の「画像3」等を合成することにより構成されていることを示す。なお、実際には、関係ファイルの内容としては、各部品データの座標だけではなく、各部品データが他の部品データに対してどの程度の大きさになるかを記述するための拡大/縮小比を示す相対比の情報も持っている。   Finally, when the editing operation is completed, a file (hereinafter referred to as a relation file) indicating which relation is used for each created document and which part data is used is generated. (See FIG. 4E). In the example of FIG. 4E, “text 1 (x1, y1) + image 2 (x2, y2) + image 3 (x3, y3) +...” Is registered as a relation file corresponding to “document 1”. Have been. In this relation file, “document 1” includes “text 1” at coordinates (x1, y1), “image 2” at coordinates (x2, y2), and “image 3” at coordinates (x3, y3). It shows that it is composed by combining. Actually, the contents of the relation file include not only the coordinates of each component data but also the enlargement / reduction ratio for describing how large each component data is with respect to other component data. The information also has the relative ratio indicating

次に、文書検索時の動作について図5で説明する。   Next, the operation at the time of document search will be described with reference to FIG.

例えば「文書1」を検索しようとした場合、まず関係記憶部3(図5(a)参照)から「文書1」というファイル名がつけられた関係ファイルを検索し、「文書1」がどんな部品データのどの様な関係から成り立っているかの情報を得る。すなわち、図5(b)に示す関係ファイルから、「文書1」が、座標(x1,y1)の「テキスト1」と、座標(x2,y2)の「画像2」と、座標(x3,y3)の「画像3」等を合成することにより構成されているという情報を得る。   For example, when an attempt is made to search for “document 1”, the relation storage unit 3 (see FIG. 5A) first searches for a relation file with the file name “document 1”, Obtain information about the relationship between data. That is, from the relation file shown in FIG. 5B, “document 1” includes “text 1” at coordinates (x1, y1), “image 2” at coordinates (x2, y2), and coordinates (x3, y3). ) Is obtained by synthesizing “image 3” and the like.

次に、関係ファイルから得られた、文書の再構成に必要な部品データを部品データ記憶部1から検索し、関係ファイル中の部品間の関係を元にマルチメディア文書の再構成を行う。図に示す例の場合、「文書1」の再現には、「テキスト1」,「画像2」,「画像3」,・・・が必要であるので、「テキスト1」のデータをテキスト部品データ記憶部1b(図5(c)参照)から検索し、「画像2」,「画像3」,・・・のデータを画像部品データ記憶部1a(図5(d)参照)から検索して、各データ部品データの座標を参照しながら図5(e)に示すようなマルチメディア文書を構成する。   Next, the part data necessary for document reconstruction obtained from the relation file is retrieved from the part data storage unit 1, and the multimedia document is reconstructed based on the relation between the parts in the relation file. In the example shown in the figure, "text 1", "image 2", "image 3",... Are necessary to reproduce "document 1". The data of “image 2”, “image 3”,... Is searched from the image component data storage unit 1a (see FIG. 5 (d)). A multimedia document as shown in FIG. 5E is constructed by referring to the coordinates of each data component data.

以上が、本発明の基本となる文書記憶装置の動作の概要であるが、以降、本発明の特徴となる部分を説明する。   The above is the outline of the operation of the document storage device that is the basis of the present invention. Hereinafter, the characteristic portions of the present invention will be described.

上の例では、まず関係記憶部3が参照され、その中の「文書1」というファイル名の関係ファイルをもとに「文書1」が再構成されたが、例えば『平成2年10月7日撮影』というテキスト部品の内容から所望の文書を検索したい場合、図3で示す部品データ記憶部1のテキスト部品データ記憶部1b中から、図2の内容検索部4中に設けられたテキスト検索部4aにより、テキスト内容が検索される。これにより、『横浜にて<CR>平成2年10月7日撮影』という内容のテキスト部品である「テキスト1」が得られる。そこで、次に関係記憶部3を参照し、「テキスト1」が使われている「文書1」の関係ファイルが得られ、これをもとに「文書1」が再構成される。   In the above example, first, the relation storage unit 3 is referred to, and “document 1” is reconstructed based on the relation file having the file name “document 1” therein. When it is desired to search for a desired document from the contents of the text part "Shooting Date", a text search provided in the contents search part 4 of FIG. 2 is performed from the text parts data storage part 1b of the parts data storage part 1 shown in FIG. The text content is searched by the unit 4a. As a result, "text 1", which is a text component having the content "<CR> shot on October 7, 1990 in Yokohama", is obtained. Then, referring to the relation storage unit 3, a relation file of "Document 1" using "Text 1" is obtained, and "Document 1" is reconstructed based on this.

同様に木が描かれている画像を検索したい場合、まず部品データ記憶部1中に格納された画像部品データ記憶部1aから、内容検索部4中の画像検索部4bにより、木の部品データを検索する。この検索は、各部品データにキーワードが付されている場合には、キーワードにより行える。キーワードが付されている場合には、木の基準ビットマップパターンと画像部品データのビットマップパターンとの比較により行われる。この検索の結果、「画像2」が木の画像部品データであることが判る。次に、この「画像2」を使用している関係ファイルを関係記憶部3中から検索することにより、「文書1」が「画像2」を使用していることが判る。最後に、「文書1」を構成している「テキスト1」,「画像2」,「画像3」,・・・から「文書1」を再構成する。   Similarly, when a user wants to search for an image in which a tree is drawn, first, the image search unit 4b in the content search unit 4 reads the tree part data from the image part data storage unit 1a stored in the part data storage unit 1. Search for. This search can be performed using a keyword when a keyword is attached to each component data. When a keyword is added, the comparison is performed by comparing the reference bitmap pattern of the tree with the bitmap pattern of the image component data. As a result of this search, it is found that “image 2” is image part data of a tree. Next, by searching the relation storage unit 3 for a relation file using “image 2”, it is found that “document 1” uses “image 2”. Finally, “Document 1” is reconstructed from “Text 1”, “Image 2”, “Image 3”,... Constituting “Document 1”.

以上で本発明の特徴となる部分を画像データとテキストデータを例に説明したが、音声の場合も同様となる。   In the above, the characteristic part of the present invention has been described by taking the image data and the text data as examples, but the same applies to the case of audio.

次に、これらを複合検索する場合を述べる。ここでいう複合検索とは、異なったデータタイプの複数のデータによる検索を意味する。以下の例では、テキストデータと画像データの二つを検索キーとして複合検索を行う。   Next, a case of performing a compound search of these will be described. Here, the compound search means a search using a plurality of data of different data types. In the following example, a compound search is performed using text data and image data as search keys.

いま、各文書の関係ファイルの内容が以下に示すような状態であったとする。   Now, it is assumed that the content of the related file of each document is as shown below.

文書1:テキスト1+画像2+画像3+・・+
文書2:テキスト2+画像1+画像8+・・+
・・・・・・・・・
文書7:テキスト7+画像5+画像6+・・+
・・・・・・・・・
文書11:テキスト11+画像8+画像22+・・+
文書12:テキスト12+画像7+画像9+・・+
文書13:テキスト13+画像10+画像15 +・・+
上記の例を用いると、『平成2年に撮影した並木道のある風景』を検索する場合、まず『平成2年』と『撮影』というテキストをテキスト部品データ記憶部1b中から検索する。「テキスト1」、「テキスト7」、「テキスト12」、「テキスト13」に『平成2年』と『撮影』というテキストデータが含まれているとすると、これらのテキストデータを関係ファイル中に含んだ文書を求めると、「文書1」、「文書7」、「文書12」、「文書13」が得られる。
Document 1: text 1 + image 2 + image 3 + ... +
Document 2: text 2 + image 1 + image 8 + ... +
・ ・ ・ ・ ・ ・ ・ ・ ・
Document 7: text 7 + image 5 + image 6 + ... +
・ ・ ・ ・ ・ ・ ・ ・ ・
Document 11: text 11 + image 8 + image 22 + ... +
Document 12: text 12 + image 7 + image 9+... +
Document 13: text 13 + image 10 + image 15 + .. +
Using the above example, when searching for "landscape with a tree-lined road taken in 1990", first, the text "1990" and "photographed" are searched from the text component data storage unit 1b. Assuming that "text 1", "text 7", "text 12", and "text 13" include text data of "1990" and "photographing", these text data are included in the related file. When a document is requested, "document 1", "document 7", "document 12", and "document 13" are obtained.

次に、画像部品データ記憶部1a中から並木、あるいは木の画像部品データを検索すると、「画像2」、「画像8」、「画像22」が該当していたとする。   Next, it is assumed that, when the image part data of the row of trees or the tree is searched from the image part data storage unit 1a, "image 2," "image 8," and "image 22" are applicable.

これらテキスト及び画像を関係ファイル中に含む文書を、上記4つの文書から探すと、「文書1」が得られる。   When a document containing these texts and images in the related file is searched from the above four documents, "Document 1" is obtained.

更に、特に本発明の特徴となる部分についてフローチャートで動作を説明する。   Further, the operation of the characteristic part of the present invention will be described with reference to a flowchart.

図6に示す様に、まず検索要求を受け付ける(ステップ101)と、それが複合処理を必要とするものであるかどうかを判断し(ステップ102)、必要なら複合検索処理を行って(ステップ103)、検索結果を表示する(ステップ104)。複合検索処理の詳細については後述する。   As shown in FIG. 6, first, when a search request is received (step 101), it is determined whether or not the request requires compound processing (step 102). If necessary, compound search processing is performed (step 103). ), And display the search result (step 104). Details of the compound search process will be described later.

それ以外の場合には、どの検索処理が要求されているかを順に調べていき(ステップ105〜107)、それに応じて検索処理を行い(ステップ105〜107)、検索結果を表示する(ステップ104)。   Otherwise, which search process is requested is checked in order (steps 105 to 107), the search process is performed accordingly (steps 105 to 107), and the search result is displayed (step 104). .

検索要求を受けながら、それらのどの検索処理でも無い場合には、エラー表示を行って(ステップ111)終了する。   If none of the search processes is performed while receiving the search request, an error message is displayed (step 111) and the process ends.

次に、複合検索処理について図7を参照して説明する。   Next, the compound search processing will be described with reference to FIG.

複合検索処理においては、属性検索を行うか(ステップ201)、関係検索を行うか(ステップ203)、内容検索を行うか(ステップ205)、を順に調べ、必要ならそれぞれの検索を実行して(ステップ202,204,206)対象検索領域を絞り込みながら次に進む。   In the complex search process, whether to perform an attribute search (step 201), a relation search (step 203), or a content search (step 205) is checked in order, and if necessary, each search is executed ( Steps 202, 204, and 206) The process proceeds to the next step while narrowing down the target search area.

なお、ここでの属性検索および関係検索は、部品データに付された属性、あるいは部品データ間の演算などを定めた関係データから所望の文書を検索するもので、ここでは後述するテキスト検索と同様に、Unix(登録商標)オペレーティングシステムの“grep”コマンドを用いて全文検索を行っているが、その他に、属性値などの値を既存の関係型データベースに保持することによって検索の効率化をはかる事も無論可能である。   Note that the attribute search and the relation search here are for searching for a desired document from the attribute attached to the part data or relation data defining an operation between the part data, and are similar to the text search described later. The full text search is performed using the “grep” command of the Unix (registered trademark) operating system. In addition, the search efficiency is improved by retaining values such as attribute values in an existing relational database. Of course things are possible.

属性検索の例としては、画像登録者名での検索、キーワードでの検索、検索者に対してアクセス権のある文書の検索、画像名での検索等がある。また、関係検索の例としては、左隅の部品データの座標が(10,25)のもの、木と人が横に並んでいるもの、木の画像中に他の部品データ、たとえば、リンゴが合成されているもの等がある。   Examples of the attribute search include a search using an image registrant name, a search using a keyword, a search for a document to which the searcher has access right, a search using an image name, and the like. In addition, examples of the relation search include those in which the coordinates of the component data in the left corner are (10, 25), those in which a tree and a person are arranged side by side, and other component data such as an apple in a tree image. There are things that have been done.

更に内容検索に関しては、データタイプに応じて複数の内容検索が行われる場合があるので、処理後、検索が終了したかどうかの判定を行っている(ステップ207)。   Further, regarding the content search, since a plurality of content searches may be performed depending on the data type, it is determined whether or not the search has been completed after the processing (step 207).

内容検索に関しては、図8のように、テキスト部品であるか(ステップ301)、音声部品であるか(ステップ302)、画像部品であるか(ステップ303)を見て、それに応じた検索を行い(ステップ304,305,306)、もしも要求に該当する検索処理がなければ『unknown parts data type』などのエラーメッセージを表示して(ステップ307)終了する。   Regarding the content search, as shown in FIG. 8, it is determined whether the component is a text component (step 301), a voice component (step 302), or an image component (step 303). If there is no search processing corresponding to the request (steps 304, 305, and 306), an error message such as "unknown parts data type" is displayed (step 307), and the process ends.

実際のテキスト検索/音声検索/画像検索などの内容検索の手法に関しては、適当な既存のどの方式を用いても良いが、簡単にはUnix(登録商標)オペレーティングシステム上で使用されるコマンド“grep”を用いてテキスト検索が、またコマンド“cmp”によりパターンマッチングによるバイナリ(比較)検索が可能であるため、これらを用いても可能である。特に画像の内容検索に関しては、特開平2−293977号公報に開示されているような、検索対象となる複数の登録画像の特徴量とと検索の条件として与えた条件画像との特徴量との一致度を算出し、一致度が所定許容範囲内であるときに検索対象が存在すると判断する手法を用いれば、色などを含む画像の様々な特徴量を利用した検索を行う事ができる。   Regarding the actual content search method such as text search / voice search / image search, any appropriate existing method may be used, but simply the command “grep” used on the Unix (registered trademark) operating system is used. "And" binary (comparison) search by pattern matching using the command "cmp". In particular, regarding image content search, as disclosed in Japanese Patent Application Laid-Open No. 2-293977, the feature amount of a plurality of registered images to be searched and the feature amount of a condition image given as a search condition are determined. If a method of calculating the degree of coincidence and determining that a search target exists when the degree of coincidence is within a predetermined allowable range is used, it is possible to perform a search using various feature amounts of an image including colors and the like.

また、本実施例では挙げなかったが、動画に関しても入出力装置や部品データ記憶部などを設け、同様に扱う事は可能である。   Although not described in the present embodiment, an input / output device, a component data storage unit, and the like can be provided for a moving image and handled in the same manner.

なお、上述の実施例においては、複数の部品を合成して一つの文書として関係ファイルに登録したが、複数の部品を合成し合成部品として関係ファイルに登録するようにしてもよい。     In the above-described embodiment, a plurality of components are combined and registered as one document in the related file. However, a plurality of components may be combined and registered as a combined component in the related file.

更に、構造化画像を例にとった、第2の実施例を説明する。   Further, a second embodiment will be described using a structured image as an example.

構造化画像自体の目的とする所は、
1.ディスプレイ解像度の画像で最小限のメモリで対話的に操作でき、なおかつ高解像度で高品質な出力画像を生成する事が可能な画像フォーマットを提供する。
2.出力を描画する為に、オブジェクトのガミュート全体の獲得、ストレージ、編集/調整、そして配送/伝送を取り扱う事を可能にする。
3.ディスク容量の低減。特に再利用性の高い画像は構造化画像では原画像だけを格納する為、共有などにより、より効果を発揮する。
4.描画する前のデータを保存しておく事により、高品質の画像を提供する。
5.画像操作自体を保存する事により、画像操作を再利用したり、操作の編集を可能にする。
などである。
The purpose of the structured image itself is
1. Provided is an image format that can be operated interactively with a minimum of memory using images of a display resolution and can generate a high-resolution and high-quality output image.
2. It allows you to handle the acquisition, storage, editing / adjustment, and delivery / transmission of an entire gamut of objects to render output.
3. Reduce disk space. In particular, an image having a high reusability is a structured image, in which only the original image is stored.
4. By storing data before drawing, high-quality images are provided.
5. By saving the image operation itself, the image operation can be reused or the operation can be edited.
And so on.

構造化画像で本発明の部品データに相当するのは、ラスター画像に描画する事が可能なデータを表す“オブジェクト”である。その“オブジェクト”は、絵画におけるキャンバスの様な役割を持つ“ペーストボード”上に、要求された画像処理操作を施され描画される。   What corresponds to the component data of the present invention in the structured image is an “object” representing data that can be drawn on a raster image. The "object" is rendered on a "paste board" having a role like a canvas in a painting by performing a required image processing operation.

ここで言う画像処理操作とは、画像処理命令の装置独立な記述であり、その多くは実装に依存するのものであるが、その中で、望ましい基本機能としての画像処理操作には以下の様なものがある。
1)Transform:画像のサイズや形を空間的に変形する。
2)Formatter:あるフォーマットから他のものに画素を変換する。
3)Filter:様々なフィルタリング操作の実行をする。
4)Colorizer:画像の色の値を調整する。
5)Mask:マスク操作の適用を行なう。
6)misc.:その他の様々な操作の適用を行なう。
Here, the image processing operation is a device-independent description of an image processing instruction, and most of the description depends on the implementation. Among them, the image processing operation as a desirable basic function is as follows. There is something.
1) Transform: spatially deforms the size and shape of an image.
2) Formatter: Converts pixels from one format to another.
3) Filter: performs various filtering operations.
4) Colorizer: adjusts the color value of the image.
5) Mask: Apply a mask operation.
6) misc. : Apply other various operations.

構造化画像は、この様にオブジェクトと画像処理操作から構成された、複合ラスター画像の階層的な記述である。   A structured image is a hierarchical description of a composite raster image composed of objects and image processing operations in this way.

この記述は、構造化画像記述と呼ばれるファイルになっており、本発明の関係記憶部に記憶されている関係情報がこれに相当する。   This description is a file called a structured image description, and the relation information stored in the relation storage unit of the present invention corresponds to this file.

構造化画像は構造化画像記述の中に絶対サイズを持たず、各、子オブジェクトのサイズはペーストボード中にサブオブジェクトの親との相対サイズとして格納されている。   The structured image does not have an absolute size in the structured image description, and the size of each child object is stored in the pasteboard as a relative size to the parent of the sub-object.

構造化画像オブジェクトをラスター画像に変換するには、例えばオブジェクト、ペーストボードとともに、ディスプレイ/キーボード装置9dから親オブジェクトの絶対サイズなどを変数として用いる適当な制御命令によって描画処理が起動され、それによって構造化画像オブジェクトと全ての子オブジェクトは自動的に適当な出力サイズに描画される。   In order to convert the structured image object into a raster image, for example, the drawing process is started by an appropriate control command using the absolute size of the parent object or the like as a variable from the display / keyboard device 9d together with the object and the pasteboard. The rendered image object and all child objects are automatically drawn to the appropriate output size.

ラスター画像に描画可能なあらゆるデータ表現が、構造化画像オブジェクトになりうるものである(図9(a)参照)。このデータは、アルダスコポレーションとマイクロソフト社の間で取り決められ、広くパーソナルコンピュータ間の画像交換用に用いられているタグベースの画像フォーマットであるTiFF(Tag Image File Format)ファイルの様な単純なラスター画像を表している事もあれば、子オブジェクトの階層的な集合と関連するラスター処理操作によって構成される、より複雑なデータを表している事もある。   Any data representation that can be drawn on a raster image can be a structured image object (see FIG. 9A). This data is negotiated between Aldas Corporation and Microsoft, and is a simple raster such as a Tag Image File Format (TiFF) file, which is a tag-based image format widely used for image exchange between personal computers. It may represent an image, or it may represent more complex data composed of a hierarchical set of child objects and associated raster processing operations.

扱う事が可能なオブジェクト・データ・タイプとしては、
1)ラスター画像−TiFF、あるいは他のディジタルディスプレイなど
2)トーイ(toy)テキスト−単純なテキスト記述
3)CGM(Computer Graphics−Metafile for the Storage and Transfer of Picture Description Information)グラフィック−単純なグラフィック表現
4)IPD(Image Processing Definition)−構造化画像定義
5)MR(Multiple Representation)ファイル−多重画像表現の記述を含むファイル
などがある。
Object data types that can be handled include:
1) Raster image-TiFF or other digital display, etc. 2) Toy text-Simple text description 3) CGM (Computer Graphics-Metafile for the Storage and Transfer of Picture Description Graphics Simple-graphic representation) ) IPD (Image Processing Definition)-Structured Image Definition 5) MR (Multiple Representation) File-There is a file including a description of a multiple image expression.

この内、ラスター画像については図3の1aにある様な画像部品データ記憶部に、また、トーイテキストについては、図3の1bのテキスト部品データ記憶部に格納され、他のデータタイプについても、各々、そのデータタイプをサポートする部品データ記憶部に格納されるものである。   Among them, the raster image is stored in the image part data storage unit as shown in FIG. 3A, the toy text is stored in the text part data storage unit in FIG. 3B, and the other data types are also stored in the text part data storage unit. Each is stored in the component data storage unit supporting the data type.

ここでMRファイルについて若干補足しておくと、1つの構造化画像オブジェクトは1つ以上のデータタイプとデータファイルで表わされるものである(図9(b)参照)。例えば、1つの構造化画像オブジェクトは、異なる解像度で格納された複数のTiFFファイルを含むディレクトリを参照している場合もありうる。各TiFFファイルは同じ画像を表しているが、異なる絶対画素サイズと明るさを持っている。こういった概念が多重表現として知られているものである。構造化画像では多重表現が動的に決定されるものとして扱っている。なお、図中の“sunras”は、サンマイクロ社で使用している画像フォーマット型式(Sun Raster file format)を意味している。   Here, to supplement the MR file a little, one structured image object is represented by one or more data types and data files (see FIG. 9B). For example, one structured image object may refer to a directory containing a plurality of TiFF files stored at different resolutions. Each TiFF file represents the same image, but has different absolute pixel sizes and brightness. These concepts are known as multiple representations. In the structured image, multiple expressions are treated as dynamically determined. Note that “sunras” in the figure means an image format type (Sun Raster file format) used by Sun Micro Corporation.

構造化画像オブジェクトを実際にこの様なペーストボード上に、ラスター画像として描画する手順では、まずペーストボード、構造化画像オブジェクト、そして変数として親オブジェクトの絶対サイズが渡される。   In the procedure for actually drawing a structured image object as a raster image on such a pasteboard, first, the pasteboard, the structured image object, and the absolute size of the parent object are passed as variables.

適切なラスター画像を描画する為に、幾つかの操作が実行される。すなわち、
1)ペーストボードの絶対サイズの決定
2)オブジェクトに依って参照される全ての表現の決定
3)利用可能な情報に基づく、描画するのに適切な表現の選定
4)フィットモードやジャスティフィケーションなどに従って、適切な描画プロシジャーを起動する事に依って、データをラスターに描画
5)Angle属性によって指定された角度に描画されたラスターを回転そして
6)コントロールポイントの位置の調整
などを行なう。
Several operations are performed to render an appropriate raster image. That is,
1) Determination of the absolute size of the pasteboard 2) Determination of all expressions referenced by the object 3) Selection of an appropriate expression to draw based on available information 4) Fit mode, justification, etc. Activate the appropriate drawing procedure according to the above, and draw the data on the raster. 5) Rotate the raster drawn at the angle specified by the Angle attribute. 6) Adjust the position of the control point.

そして、親の大きさにペーストボード中に指定された相対サイズを乗ずる事により、ペーストボードの絶対サイズを決定する。   Then, the absolute size of the pasteboard is determined by multiplying the size of the parent by the relative size specified in the pasteboard.

ここで与えられる構造化画像オブジェクトは、実際にはデータファイルへの参照、あるいは(テキストなど)ラスター画像へ描画可能な表現として存在する。また、1つのオブジェクトは複数の表現を参照でき、各々同じ画像を表わすが、格納形式や、サイズあるいは解像度が異なるかもしれない。どの表現が描画するのに“最適な”表現であるかが、検索される。ここでの最適な表現とは、たとえば、異なる解像度で格納された複数の画像ファイルのうち、どの大きさで描画するかによって画像の拡大/縮小率が異なるので、最速に描画ができる画像ファイルを選んだことによる表現をいう。   The structured image object given here actually exists as a reference to a data file or a representation that can be drawn on a raster image (such as text). Also, one object can refer to multiple expressions, each representing the same image, but may have different storage formats, sizes, or resolutions. A search is made to determine which expression is the "optimal" expression to render. The optimal expression here means, for example, an image file that can be drawn at the fastest speed because the image enlargement / reduction ratio differs depending on the size of the image file among a plurality of image files stored at different resolutions. The expression by the choice.

表現が検索されると、それはラスター画像に描画されるが、サポートされる表現の各データタイプに合わせて、ラスター画像に変換する為の描画プロシジャーを持たねばならない。   When the representation is retrieved, it is rendered into a raster image, but must have a rendering procedure to convert it to a raster image for each data type of the supported representation.

出力ラスター画像に描画する為のオブジェクトの位置をつきとめ、データを返す際には、構造化画像の描画に伴なって、6つの動作が必要となる。すなわち、
1)オブジェクトの全ての表現の位置をつきとめる
2)各表現のTiFF、テキスト、グラフィックスといったタイプを特定する
3)最適な表現を選ぶ為に必要な、各表現の属性を決定する
4)各利用可能な表現に価値関数を適用し、価値の高い値を持つ表現を選ぶ
5)表現データへのポインタを返す
6)表現データのタイプを返す
である。
When locating the object to be drawn on the output raster image and returning the data, six operations are required along with the drawing of the structured image. That is,
1) Determine the position of all expressions of the object 2) Specify the type of each expression such as TiFF, text, graphics 3) Determine the attributes of each expression necessary to select the optimal expression 4) Use each Applying a value function to a possible expression and selecting an expression with a high value 5) Return a pointer to the expression data 6) Return the type of the expression data.

構造化画像記述言語の現在のシンタックスでは、構造化画像オブジェクトは以下の3通りのうちのどれかである。
(1) Object = {
External = {
System = “AAA”
Name = “bird.TiF”;
};
};
(2) Object = {
Internal = {
Bytecount = 1024;
Data = {
...
};
};
};
(3) Object = {
IPD = {
AspectRatio = 1.5;
DefaultWidth = 4in;
...
};
};
In the current syntax of the structured image description language, the structured image object is one of the following three types.
(1) Object = {
External = {
System = "AAA"
Name = “bird.TiF”;
};
};
(2) Object = {
Internal = {
Bytecount = 1024;
Data = {
. . .
};
};
};
(3) Object = {
IPD = {
AspectRatio = 1.5;
DefaultWidth = 4in;
. . .
};
};

Externalとして定義されたオブジェクトは、オブジェクトによって参照されるデータであり、現在の構造化画像記述中には格納されない。一般的には、実際のデータは別のファイルとして格納される。システムフィールドは、データの位置をどの様につきとめるかを知る為に用いられる記述である。   An object defined as External is data referenced by the object and is not stored in the current structured image description. Generally, the actual data is stored as a separate file. The system field is a description used to know how to locate the data.

ネームエントリーは、要求されたデータの位置を実際につきとめるのに用いるキーワードの集合である。上述の例では、システムエントリの“AAA”は、適当なシステムであるAAAファイルシステム上のパスをネームエントリーが“bird.TiF”であるファイルを探索する事によって実際のデータが見つかる事を示す、と解釈するように実装されている。もしもシステムエントリーが“BBB”であったならば、ネームフィールドのキーワードをBBBデータベースのデータを探索する際のキーワードとして扱う。   A name entry is a set of keywords used to actually locate the requested data. In the above example, the system entry "AAA" indicates that the actual data can be found by searching for the path on the appropriate system AAA file system for the file whose name entry is "bird.TiF". Is implemented to be interpreted as: If the system entry is "BBB", the keyword in the name field is handled as a keyword when searching data in the BBB database.

Internalとして定義されたオブジェクトは、構造化画像記述中に直接格納されたデータを含んでいる。これはラスターアイコンやシンプルテキストファイルの様な小さなオブジェクトを直接構造化画像記述に格納するのに役立ち、外部に記憶装置を必要としない。   An object defined as Internal contains data stored directly in the structured image description. This is useful for storing small objects, such as raster icons and simple text files, directly in the structured image description and does not require external storage.

構造化画像定義は、構造化画像が他の構造化画像オブジェクトや画像処理操作から成る事を可能にする為の、構造化画像のオブジェクトデータタイプの一つである。   A structured image definition is one of the object data types of a structured image that allows the structured image to consist of other structured image objects and image processing operations.

構造化画像オブジェクト中に格納された情報に基づいて、全ての利用可能な表現の位置をつきとめ、データタイプと、描画の為に“最適な”表現の選択の為に必要な属性を決定しなければならない。これらは、本発明においては、例えばネームフィールドのキーワードを利用して、そのまま属性検索部に問い合わせる、などの検索要求により決定可能である。   Based on the information stored in the structured image object, all available representations must be located and the data type and attributes required to select the "optimal" representation for rendering must be determined. Must. In the present invention, these can be determined by a search request such as inquiring directly to the attribute search unit using a keyword in the name field.

全ての表現が決定されると、出力ラスター画像に描画するのに最も適切な表現を選択する。この機構は各表現に価値関数の計算を適用する事によって実装される。厳密な価値関数は実装依存であり、構造化画像中には記述されていない。しかし、それは表現の属性と、要求される出力画像の属性、ターゲット出力装置(すなわちモノクロプリンターとかカラーディスプレイなど)、そして処理の複雑さに基づくべきものである。いったん表現が選ばれると、処理を開始できる様に、実際のデータへのポインタと、データタイプを返す。   Once all expressions have been determined, the most appropriate expression to render on the output raster image is selected. This mechanism is implemented by applying a value function computation to each expression. The exact value function is implementation dependent and is not described in the structured image. However, it should be based on the attributes of the representation, the attributes of the output image required, the target output device (ie monochrome printer or color display, etc.) and the complexity of the processing. Once the representation is chosen, it returns a pointer to the actual data and the data type so that processing can begin.

構造化画像定義についてもう少し説明すると、構造化画像定義は要素オブジェクトへの参照と、それら要素オブジェクトに適用する画像処理操作の構造化記述を表す。図10は構造化画像定義のグラフィカル表現である。   To explain the structured image definition a little more, the structured image definition represents a reference to element objects and a structured description of an image processing operation applied to the element objects. FIG. 10 is a graphical representation of a structured image definition.

構造化画像定義は以下の記述子から成る。
1)デフォルトサイズ
2)ReadObject
3)パス
4)画像処理操作
5)マージ
6)ペーストボード
7)initializer
そして
8)コンポーネントペーストボード
である。
The structured image definition consists of the following descriptors:
1) Default size 2) ReadObject
3) Pass 4) Image processing operation 5) Merge 6) Paste board 7) Initializer
And 8) Component pasteboard.

図10で各垂直線はパスと呼ばれ、画像処理操作の集まりである。ReadObjectは構造化画像オブジェクトをパス中の画像処理操作によって処理されるのに適したラスター画像に変換するプロシジャーを表す。描画されたオブジェクトはパスを通って各画像処理操作に順に処理される。各パスは、その中にReadObjectにより、構造化画像オブジェクトが描画される“フレーム”を定義するのに用いられるペーストボードが格納される。このペーストボードはコンポーネントペーストボードとして参照される。水平線は構造化画像定義オブジェクトのペーストボードで、コンポーネントペーストボードがマージされる“空の”ラスター画像を表す。黒い三角はコンポーネントペーストボードがオブジェクトペーストボードのどこに結びつけられるかを示すマージ操作を表す。コンポーネントペーストボードをマージする順序は明らかであり、それゆえ“上”や“下”といった意味の画像がサポートされる。図11には構造化画像の最中のラスターデータの流れ(すなわちReadObjectからマージへの制御の流れ)を描いている。   In FIG. 10, each vertical line is called a path and is a group of image processing operations. ReadObject represents a procedure that converts the structured image object into a raster image suitable for processing by the image processing operations in the pass. The drawn object is processed in sequence for each image processing operation through a path. Each path stores therein a pasteboard used by ReadObject to define a “frame” in which the structured image object is drawn. This pasteboard is referred to as a component pasteboard. The horizontal line is the structured image definition object pasteboard, representing the "empty" raster image into which the component pasteboard is merged. The black triangle represents a merge operation that indicates where the component pasteboard is bound to the object pasteboard. The order in which the component pasteboards are merged is clear, and therefore images with meanings such as "up" and "down" are supported. FIG. 11 illustrates the flow of raster data during a structured image (that is, the flow of control from ReadObject to merge).

さて、以上に述べた様な構造化画像を、本発明に示す様なマルチメディア文書記憶装置で扱う場合、図1に示すブロック図の記憶部それぞれに、何が格納されるかを説明する。   Now, when the structured image as described above is handled by the multimedia document storage device as shown in the present invention, what is stored in each storage unit of the block diagram shown in FIG. 1 will be described.

今、他のシステムで生成された構造化画像が、構造化画像記述言語 の形で本マルチメディア文書記憶装置にネットワークインターフェース(図2の9e)を通して転送されてきた場合を考える。   Now, consider a case where a structured image generated by another system is transferred to the multimedia document storage device in the form of a structured image description language through a network interface (9e in FIG. 2).

関係記憶部には、構造化画像記述が解釈された結果として構造化画像定義が格納され、属性記憶部には、自動的に付与される格納日時、登録者名、データサイズなどの他に、構造化画像記述中のネームフィールドに記載されたオブジェクトの検索の為のキーワードが記録される。これらは、後の検索に利用される。部品データ記憶部には、Externalとして定義された構造化画像オブジェクトが選択され、その内容が格納される。それと同時に、構造化画像記述のExternalに定義されているシステムフィールドには、元々記載されていたAAAやBBBの代わりに、本マルチメディア文書記憶装置の名前が記される。   The relationship storage unit stores the structured image definition as a result of the interpretation of the structured image description, and the attribute storage unit automatically stores the storage date and time, registrant name, data size, etc. A keyword for searching for an object described in the name field in the structured image description is recorded. These are used for later search. In the component data storage unit, a structured image object defined as External is selected and its contents are stored. At the same time, the name of the multimedia document storage device is described in the system field defined in the External of the structured image description instead of AAA or BBB originally described.

またInternalとして定義されていた、オブジェクトも、後の検索の為に、データフィールドに記述されたオブジェクトの内容そのものが、部品データ記憶部にも複写され、格納される。   Also, for the object defined as Internal, the content itself of the object described in the data field is copied and stored in the component data storage unit for later retrieval.

検索時には、図6のフローチャートに従って、まず検索要求を受け付け(ステップ101)、それが複合処理を必要とするものであるかどうかを判断し(ステップ102)、例えば、画像AとテキストBが描かれた構造化画像の様に、複合検索が必要な場合には、複合検索処理を行って(ステップ103)、検索結果を表示する(ステップ104)。   At the time of retrieval, according to the flowchart of FIG. 6, first, a retrieval request is accepted (step 101), and it is determined whether or not it requires compound processing (step 102). For example, an image A and a text B are drawn. When a complex search is required, as in the case of a structured image, a complex search process is performed (step 103), and the search result is displayed (step 104).

それ以外の場合には、どの検索処理が要求されているかを順に調べていき(ステップ105〜107)、それに応じて検索処理を行い(ステップ108〜110)、検索結果を表示する(ステップ104)。   Otherwise, which search process is requested is checked in order (steps 105 to 107), the search process is performed accordingly (steps 108 to 110), and the search result is displayed (step 104). .

検索要求を受けながら、それらのどの検索処理でも無い場合には、エラー表示を行って(ステップ111)終了する。   If none of the search processes is performed while receiving the search request, an error message is displayed (step 111) and the process ends.

次に、複合検索処理について図7を参照して説明する。   Next, the compound search processing will be described with reference to FIG.

複合検索処理においては、属性検索を行うか(ステップ201)、関係検索を行うか(ステップ203)、内容検索を行うか(ステップ205)、を順に調べ、必要ならそれぞれの検索を実行して(ステップ202,204,206)対象検索領域を絞り込みながら次に進む。   In the complex search process, whether to perform an attribute search (step 201), a relation search (step 203), or a content search (step 205) is checked in order, and if necessary, each search is executed ( Steps 202, 204, and 206) The process proceeds to the next step while narrowing down the target search area.

ここでの属性検索では、部品データに付された属性から所望の文書を検索するものである事は第1の実施例でも述べた通りであり、また、関係検索では上記関係記憶部に格納された構造化画像定義を参照し、所望の構造化画像定義を検索する事によって、求めた構造化画像定義から画像を再構築するものである。   As described in the first embodiment, the attribute search here is to search for a desired document from the attribute added to the component data. In the relation search, the document is stored in the relation storage unit. An image is reconstructed from the obtained structured image definition by referring to the structured image definition and searching for a desired structured image definition.

204の関係検索処理では、前記構造化画像の説明で述べた様な、画像処理操作や各オブジェクトのマージポイントなどの、所望の画像構造を別途エディタ(これは、Unix(登録商標)オペレーティングシステムの“vi”エディタで構造化画像記述を作成しても良いし、あるいは専用の構造化画像エディタを用意しても良い)で生成し、Unix(登録商標)オペレーティングシステムの“grep”コマンドなどで比較したり、あるいは、あらかじめ関係型データベースなどに保持することによって検索の効率化をはかっても良い。   In the relation search process 204, a desired image structure such as an image processing operation and a merge point of each object as described in the description of the structured image is separately edited by an editor (this is a Unix (registered trademark) operating system). A structured image description may be created with a “vi” editor, or a dedicated structured image editor may be prepared) and compared using the “grep” command of the Unix (registered trademark) operating system. Alternatively, search efficiency may be improved by storing the information in a relational database or the like in advance.

更に内容検索に関しては、データタイプに応じて複数の内容検索が行われる場合があるので、処理後、検索が終了したかどうかの判定を行っている(ステップ207)。   Further, regarding the content search, since a plurality of content searches may be performed depending on the data type, it is determined whether or not the search has been completed after the processing (step 207).

内容検索に関しては、図8のように、テキスト部品であるか(ステップ301)、音声部品であるか(ステップ302)、画像部品であるか(ステップ303)を見て、それに応じた検索を行い(ステップ304,305,306)、もしも要求に該当する検索処理がなければ『unknown parts data type』などのエラーメッセージを表示して(ステップ307)終了する。   Regarding the content search, as shown in FIG. 8, it is determined whether the component is a text component (step 301), a voice component (step 302), or an image component (step 303). If there is no search processing corresponding to the request (steps 304, 305, and 306), an error message such as "unknown parts data type" is displayed (step 307), and the process ends.

内容検索に関しては第1の実施例と同様に、従来あるどの技法を用いても良く、例えば一例を挙げると、画像部品の内容検索などでは、スキャナ9bから探索すべき画像Aと同じラスター画像をスキャン入力し、その内容と、画像部品データ記憶部に格納されたデータを順次比較し、所望の内容を持つ画像部品データが画像検索部4bで発見されたならば、それを参照している構造化画像を、関係検索部に格納された構造化画像記述から再構成し、結果を表示する。   As with the first embodiment, any conventional technique may be used for the content search. For example, for example, in the content search of an image part, the same raster image as the image A to be searched from the scanner 9b is used for the content search of the image parts. Scan input is performed, and the contents are sequentially compared with data stored in the image part data storage unit. If image part data having desired contents is found in the image search unit 4b, the structure referring to the image part data is searched. The structured image is reconstructed from the structured image description stored in the relation search unit, and the result is displayed.

本発明の概要を説明するための基本的なブロック図である。FIG. 1 is a basic block diagram for describing an outline of the present invention. 本発明のマルチメディア文書記憶装置の実施例のブロック図である。FIG. 2 is a block diagram of an embodiment of the multimedia document storage device of the present invention. 部品データ記憶部の詳細構成を示す模式図である。FIG. 3 is a schematic diagram illustrating a detailed configuration of a component data storage unit. 本発明における登録時の基本概念を示す説明図である。FIG. 4 is an explanatory diagram showing a basic concept at the time of registration in the present invention. 本発明における検索時の基本概念を示す説明図である。FIG. 4 is an explanatory diagram showing a basic concept at the time of search in the present invention. 本発明における検索時の基本的なフローチャートである。5 is a basic flowchart at the time of retrieval according to the present invention. 複合検索処理のフローチャートである。It is a flowchart of a compound search process. 内容検索処理のフローチャートである。It is a flowchart of a content search process. 構造化画像オブジェクトを構成する多様なデータタイプを示すグラフィック表現である。5 is a graphical representation showing the various data types that make up a structured image object. 構成オブジェクトへの参照と、それら構成オブジェクトに適用する画像処理操作の構造化記述を表す出力構造化画像の関係を説明する画像処理表現のグラフィック表現である。7 is a graphic representation of an image processing expression illustrating the relationship between references to configuration objects and output structured images representing a structured description of image processing operations applied to those configuration objects. 構造化画像の描画最中のラスターデータの流れを描写する図である。FIG. 4 is a diagram illustrating a flow of raster data during drawing of a structured image.

符号の説明Explanation of reference numerals

1…部品データ記憶部、1a…画像部品データ記憶部、1b…テキスト部品データ記憶部、1c…音声部品データ記憶部、2…属性記憶部、3…関係記憶部、4…内容検索部、4a…テキスト検索部、4b…画像検索部、5…属性検索部、6…文書・関係検索部、7…複合検索部、8…プロセッサ、9…マルチメディアデータ入出力部、9a…マイク/スピーカ、9b…スキャナ、9c…マウス、9e…ネットワークインタフェース   DESCRIPTION OF SYMBOLS 1 ... Part data storage part, 1a ... Image part data storage part, 1b ... Text part data storage part, 1c ... Sound part data storage part, 2 ... Attribute storage part, 3 ... Relationship storage part, 4 ... Content search part, 4a ... Text search unit, 4b ... Image search unit, 5 ... Attribute search unit, 6 ... Document / relation search unit, 7 ... Compound search unit, 8 ... Processor, 9 ... Multimedia data input / output unit, 9a ... Microphone / speaker, 9b: scanner, 9c: mouse, 9e: network interface

Claims (1)

画像にラスター描画することが可能な部品データとしてのオブジェクトを複数記憶する部品データ記憶部と、前記複数のオブジェクトと当該複数のオブジェクトの各々をラスター画像に描画する際に施す画像処理操作とから構成された関係情報を、画像毎に記憶するための関係記憶部とを備えた画像記憶装置における画像の構成方法であって、
前記関係記億部に記憶された所望の画像の関係情報から、画像の構成に必要な部品データを前記部品データ記憶部から検索し、前記検索された部品データに前記関係情報に定義された画像処理操作を施して画像を構成することを特徴とする画像記憶装置における画像の構成方法。
A component data storage unit that stores a plurality of objects as component data that can be raster-drawn on an image, and an image processing operation performed when each of the plurality of objects and each of the plurality of objects is drawn on a raster image A relation storage unit for storing the obtained relation information for each image, a method of configuring an image in an image storage device,
From the relation information of the desired image stored in the relation storage section, component data necessary for the configuration of the image is retrieved from the component data storage section, and the image data defined in the retrieved component data is stored in the retrieved component data. An image forming method in an image storage device, wherein an image is formed by performing a processing operation.
JP2004113551A 1993-08-13 2004-04-07 Construction method of image in image storage device Pending JP2004265433A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004113551A JP2004265433A (en) 1993-08-13 2004-04-07 Construction method of image in image storage device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP20147693 1993-08-13
JP2004113551A JP2004265433A (en) 1993-08-13 2004-04-07 Construction method of image in image storage device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP15735094A Division JP3613403B2 (en) 1993-08-13 1994-07-08 Multimedia document storage device

Publications (1)

Publication Number Publication Date
JP2004265433A true JP2004265433A (en) 2004-09-24

Family

ID=33133301

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004113551A Pending JP2004265433A (en) 1993-08-13 2004-04-07 Construction method of image in image storage device

Country Status (1)

Country Link
JP (1) JP2004265433A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007208363A (en) * 2006-01-31 2007-08-16 Furyu Kk Image providing apparatus and method, and program
CN103309906A (en) * 2012-03-16 2013-09-18 中国移动通信集团公司 Address book backup and recovery method and device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007208363A (en) * 2006-01-31 2007-08-16 Furyu Kk Image providing apparatus and method, and program
CN103309906A (en) * 2012-03-16 2013-09-18 中国移动通信集团公司 Address book backup and recovery method and device

Similar Documents

Publication Publication Date Title
US5666503A (en) Structured image (SI) image editor and method for editing structured images
US6169547B1 (en) Method for displaying an icon of media data
US6326983B1 (en) Structured image (SI) format for describing complex color raster images
US7471835B2 (en) Method and apparatus for encoding/decoding image data
JPH11102375A (en) Method and device for input process to retrieval engine and computer-readable recording medium where instruction string for processing input to same retrieval engine is recorded
JP3613403B2 (en) Multimedia document storage device
JP2004265433A (en) Construction method of image in image storage device
JPH06162104A (en) Device and method for retrieving document element
JPH041862A (en) Graphic selecting method
JP2979588B2 (en) Image processing apparatus and image data management / processing method thereof
JPH0677261B2 (en) Document image information search method
JPH1091766A (en) Electronic filing method and device and storage medium
JP2635312B2 (en) Image processing device
JP3464338B2 (en) Drawing search method and apparatus
JPH10162093A (en) Commodity information allocation device
JPH10334117A (en) Computer-readable recording medium where similar image retrieval program is recorded
JPH07219960A (en) Device and method for storing picture data
JP2866464B2 (en) Line figure boundary extraction method
JPH0581397A (en) Page scroll method and image processor
JPH10124671A (en) Image processing method
JPH05216929A (en) Color image file controller
JPS6019275A (en) Picture retrieving device
JP2000285220A (en) Method and device for processing picture, and picture data format used therefor
JP2000242649A (en) Device and method for retrieving image, and storage medium recorded with the method
JP2003346167A (en) Image processor and image processing program

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20041008

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041206

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20051007