JPH05189531A - Image editing device - Google Patents

Image editing device

Info

Publication number
JPH05189531A
JPH05189531A JP4004524A JP452492A JPH05189531A JP H05189531 A JPH05189531 A JP H05189531A JP 4004524 A JP4004524 A JP 4004524A JP 452492 A JP452492 A JP 452492A JP H05189531 A JPH05189531 A JP H05189531A
Authority
JP
Japan
Prior art keywords
image
class data
unit
language
procedure
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP4004524A
Other languages
Japanese (ja)
Other versions
JP2757645B2 (en
Inventor
Shusaku Okamoto
修作 岡本
Toshiyuki Maeda
利之 前田
Fumio Maehara
文雄 前原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP4004524A priority Critical patent/JP2757645B2/en
Priority to US07/966,879 priority patent/US5317508A/en
Publication of JPH05189531A publication Critical patent/JPH05189531A/en
Application granted granted Critical
Publication of JP2757645B2 publication Critical patent/JP2757645B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

PURPOSE:To enable everybody to easily and automatically perform all operations to edit a desired image by inputting the contents of this image in a natural language. CONSTITUTION:A language dictionary 101 is provided together with an image data storage control part 105 consisting of a header word dictionary 102, a class data control part 103 and an image data base 104, a language input part 106, a language analyzing part 107, an image retrieving part 108, an image processing part 109, an image synthesizing part 110, an image display part 111, and an image editing data storage pert 112. In such a constitution, the input sentences of a natural language are analyzed for editing and display of the images showing the contents of these sentences and the image parts are retrieved, processed and synthesized based on the information stored in both dictionaries 101 and 105.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、複数の画像部品を検索
・加工・合成して画像を編集する装置に係り、特に、ワ
ードプロセッサにおいての作画や、スタジオなどで背景
となる自然画像の編集を行なう画像編集装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a device for editing images by searching, processing, and synthesizing a plurality of image parts, and more particularly, for drawing in a word processor or editing a background natural image in a studio or the like. The present invention relates to an image editing device for performing.

【0002】[0002]

【従来の技術】近年、ワードプロセッサの普及によっ
て、誰にでも活字印刷なみの文書を作成することが可能
となってきた。これにともない、容易にイラストや自然
画像を作成し、文書中に取り込める機能の要求が高まっ
てきた。
2. Description of the Related Art In recent years, the widespread use of word processors has made it possible for anyone to create a document similar to type printing. Along with this, there is an increasing demand for a function that can easily create illustrations and natural images and incorporate them into documents.

【0003】これに対して、従来は、直線、曲線、円等
の基本図形の描画と、前記基本図形の簡単な加工を行な
う機能のみを用意し、これらの機能を使い分けてイラス
トや図の作成を行なっていた。さらには、上記機能によ
って作成されたイラスト、図、画像を部品化して蓄積
し、それらを再利用することによって上記作業の効率化
が図られており、これは画像の編集にも応用されてい
る。すなわち、部品化された複数の画像部品をあらかじ
め用意しておき、編集に必要な画像を1枚づつ検索し、
それぞれの画像に対して加工を行なった後最後にすべて
の画像を合成するという手順で画像を編集するものであ
り、このような方法を用いた画像編集装置としては、例
えば文献[井上、柴田、中須、”画像合成のための部品
画像ファイルシステム”、電子情報通信学会論文誌、V
ol.J72−D−II、No11、pp.1824−
1832、1989年11月]がある。
On the other hand, conventionally, only a function for drawing a basic figure such as a straight line, a curve, a circle, etc. and a simple processing for the basic figure is prepared, and an illustration or a drawing is created by properly using these functions. Was being done. Furthermore, the illustrations, figures, and images created by the above functions are made into parts and accumulated, and the reuse of these parts makes the work more efficient, which is also applied to image editing. .. That is, a plurality of image parts that have been made into parts are prepared in advance, and the images necessary for editing are searched one by one,
The image is edited by a procedure of processing all the images and finally synthesizing all the images. As an image editing apparatus using such a method, for example, reference [Inoue, Shibata, Nakasu, "Parts Image File System for Image Synthesis", IEICE Transactions, V
ol. J72-D-II, No11, pp. 1824-
1832, November 1989].

【0004】[0004]

【発明が解決しようとする課題】しかしながら、従来の
画像編集装置では、画像部品の検索・加工・合成の各処
理をすべて人手によって行なっており、画像を編集する
ことは非常に手間のかかる作業であった。また、機器の
操作においても、キーボードの他にもマウスなどの外部
入力装置の複雑な操作が必要であり、装置の熟練者とな
るためにはかなりの期間と訓練を必要としていた。
However, in the conventional image editing apparatus, all the processes of searching, processing and synthesizing image parts are performed manually, and editing an image is a very laborious task. there were. Also, in operating the equipment, in addition to the keyboard, complicated operations of external input devices such as a mouse are required, and it takes a considerable period of time and training to become an expert of the equipment.

【0005】一方、画像部品の検索という面では、キー
ワードを用いる方法、代表画像を順にたどって目的の画
像を絞り込む方法が前記画像編集装置で用いられている
が、前者では、画像部品の蓄積量が莫大になってくる
と、キーワードのマッチングに非常に時間が掛かるこ
と、後者では、画像データベースの性能が作成者によっ
て大きく左右されることから、これらの方法では容易に
目的の画像を検索することは困難になる。
On the other hand, in terms of searching for image parts, a method of using a keyword and a method of narrowing down a target image by sequentially tracing a representative image are used in the image editing apparatus. When it becomes huge, matching of keywords takes a very long time, and in the latter, the performance of the image database is greatly influenced by the creator. Therefore, these methods make it easy to search for the target image. Will be difficult.

【0006】[0006]

【課題を解決するための手段】上記課題を解決するため
に、本発明の画像編集装置は、言語文を理解するために
必要な情報を記憶する言語辞書と、画像部品および前記
画像部品に対して処理を施す手続きを記憶管理する画像
データ記憶管理部と、言語文の入力を行なう言語入力部
と、前記言語辞書と画像データ記憶管理部に記憶されて
いる情報とを用いて言語文を解析する言語解析部と、言
語文の解析結果から、前記言語文の内容を表現するため
に必要な画像部品および前記画像部品に処理を施す手続
きを前記画像データ記憶管理部から検索し、前記検索さ
れた画像部品の加工と合成を前記検索された手続きによ
って行う画像編集部と、画像部品を表示する画像表示部
とからなる構成を有している。
In order to solve the above problems, an image editing apparatus of the present invention provides a language dictionary for storing information necessary for understanding a language sentence, an image component and the image component. A language sentence is analyzed using an image data storage management unit that stores and manages a procedure for performing processing, a language input unit that inputs a language sentence, and the language dictionary and information stored in the image data storage management unit. The image data storage management unit searches for the image component necessary for expressing the content of the language sentence and the procedure for processing the image component from the analysis result of the language sentence and the analysis result of the language sentence. And an image display unit for displaying the image component, which has an image editing unit for processing and synthesizing the image component according to the retrieved procedure.

【0007】[0007]

【作用】作成したい画像の内容を自然言語で入力する
と、前記言語辞書と画像データ記憶管理部に記憶されて
いる情報とを用いて、まず、言語解析部で、前記入力文
中から画像表現が可能な対象を表す名詞と前記対象の属
性を示す情報と前記対象間の関係とを抽出する。次に、
言語解析部で抽出された結果を用いて、画像合成部で前
記対象に対する画像部品と、前記画像部品に加工・合成
の処理を施す手続きを検索する。最後に、前記手続きを
用いて、画像加工・合成部で検索された画像部品の検索
・加工・合成処理を行ない、前記入力文の内容を表す画
像を自動で合成する。
When the contents of the image to be created are input in natural language, the language analysis unit can use the language dictionary and the information stored in the image data storage management unit to express an image from the input sentence. A noun representing a target, information indicating an attribute of the target, and a relationship between the targets are extracted. next,
Using the result extracted by the language analysis unit, the image synthesis unit searches for an image component for the target and a procedure for performing processing / synthesis processing on the image component. Finally, using the procedure described above, the image parts searched by the image processing / compositing unit are searched / processed / combined to automatically combine the images representing the contents of the input sentence.

【0008】[0008]

【実施例】以下、本発明による画像編集装置の一実施例
を図面を用いて説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of an image editing apparatus according to the present invention will be described below with reference to the drawings.

【0009】図1は、本発明による画像編集装置の実施
例の構成を示したブロック図である。本発明による画像
編集装置は、言語辞書101、見出し語辞書102、ク
ラスデータ管理部103、画像データベース104から
なる画像データ記憶管理部105、言語入力部106、
言語解析部107、画像検索部108、画像加工部10
9、画像合成部110、画像表示部111、画像編集デ
ータ記憶部112、から構成される。
FIG. 1 is a block diagram showing the configuration of an embodiment of an image editing apparatus according to the present invention. An image editing apparatus according to the present invention includes a language dictionary 101, a headword dictionary 102, a class data management unit 103, an image data storage management unit 105 including an image database 104, a language input unit 106,
Language analysis unit 107, image search unit 108, image processing unit 10
9, an image composition unit 110, an image display unit 111, and an image edit data storage unit 112.

【0010】図2〜図4は、本発明による画像データ記
憶管理部105を構成する、見出し語辞書102、クラ
スデータ、画像部品の記述例を示したものである。
2 to 4 show examples of description of the entry word dictionary 102, class data, and image parts which constitute the image data storage management unit 105 according to the present invention.

【0011】図2は、本発明による見出し語辞書102
をテーブルの形式で記述したもので、見出し語データ2
03は、見出し語の記述部201と前記見出し語の概念
を表すクラスデータを指し示すポインタの記述部202
とからなり、本実施例では見出し語の概念を表すクラス
データを指し示すポインタとして、クラスデータ名称を
用いている。
FIG. 2 shows an entry word dictionary 102 according to the present invention.
Is described in the form of a table. Headword data 2
Reference numeral 03 denotes an entry word description portion 201 and a pointer description portion 202 that points to class data representing the concept of the entry word.
In this embodiment, the class data name is used as a pointer that points to the class data representing the concept of entry word.

【0012】見出し語辞書102において、画像に表現
できる名詞をすべて見出し語データ203として登録し
ておけば、ある名詞に対して、前記名詞に一致する見出
し語が見出し語辞書102に存在するかどうかを調べる
だけで、前記名詞を表す画像部品が存在するかどうかを
判断することができる。例えば図2では、名詞「テーブ
ル」「てーぶる」「食卓」「table」はすべて見出
し語として見出し語辞書102に登録してあるので、こ
れらの名詞を表す画像部品が存在すると判断することが
できる。すなわち、「テーブル」を表す画像部品の検索
において、「テーブル」「てーぶる」「食卓」「tab
le」の4個の単語が使用可能であることを表してい
る。前記名詞を表す画像部品を検索する方法に関して
は、後の画像検索部108の説明において述べる。
If all nouns that can be expressed in an image are registered as headword data 203 in the headword dictionary 102, whether a headword matching the noun exists in the headword dictionary 102 for a certain noun. It is possible to determine whether or not there is an image part representing the noun by simply checking. For example, in FIG. 2, since the nouns "table", "table", "dining table", and "table" are all registered in the headword dictionary 102 as headwords, it may be determined that image parts representing these nouns exist. it can. That is, in the search for image parts representing "table", "table", "table", "dining table", "tab"
This means that four words “le” can be used. A method of searching for the image component representing the noun will be described later in the description of the image search unit 108.

【0013】図3〜図6は、本発明によるクラスデータ
をリストの形式を用いて示したものである。
3 to 6 show the class data according to the present invention in the form of a list.

【0014】クラスデータは、概念の名称の記述部30
1と、上位の概念を表すクラスデータを指し示すポイン
タの記述部302と、下位の概念を表すクラスデータを
指し示すポインタの記述部303と、前記概念の具体的
実体を表す画像部品を指し示すポインタの記述部304
と、前記画像部品に処理を施す手続きの記述部306
と、前記手続きに必要な変数の記述部305とからな
る。以下、図3に示す「テーブル」と図4に示す「部
屋」のクラスデータの例を用いて、各記述部の内容を説
明する。
The class data is the description part 30 of the concept name.
1, a pointer description unit 302 that points to class data that represents a higher-level concept, a pointer description unit 303 that points to class data that represents a lower-level concept, and a description of a pointer that points to an image component that represents a concrete entity of the concept. Part 304
And a procedure description part 306 for processing the image parts.
And a description section 305 of variables required for the procedure. The contents of each description part will be described below using the example of the class data of the "table" shown in FIG. 3 and the "room" shown in FIG.

【0015】SuperClass、SubClassは、本発明による上
位の概念を表すクラスデータと下位の概念を表すクラス
データとを指し示すポインタの記述部(302,30
3)の実施例を表すもので、本実施例では、上位および
下位のクラスデータを指し示すポインタとして前記クラ
スデータの名称を用いている。もし対応するクラスデー
タが存在しない時はnil で表す。図3のクラスデータ
「テーブル」では、上位のクラスデータ SuperClass と
して「家具」が指定されているのに対し、「テーブル」
は概念的にはこれ以上細かく分けることは難しいので、
下位のクラスデータSubClass はnil となっている。ま
た図4のクラスデータ「部屋」では、上位のクラスデー
タ SuperClass として「建物」が、また下位のクラスデ
ータSubClassとして「台所」「リビング」「寝室」が指
定されている。
SuperClass and SubClass are description portions (302, 30) of pointers that point to class data representing a higher-level concept and class data representing a lower-level concept according to the present invention.
In the present embodiment, the name of the class data is used as a pointer that points to upper and lower class data. If the corresponding class data does not exist, it is represented by nil. In the class data “table” of FIG. 3, “furniture” is specified as the upper class data SuperClass, whereas “table” is specified.
Is conceptually more difficult to subdivide, so
The subordinate class data SubClass is nil. In the class data “room” of FIG. 4, “building” is specified as the upper class data SuperClass, and “kitchen” “living room” “bedroom” is specified as the lower class data SubClass.

【0016】Image は、本発明によるクラスデータの概
念を表す画像部品を指し示すポインタの記述部304の
実施例を表すもので、ポインタには前記画像部品のデー
タを記憶したファイルの名称を用いている。図3のクラ
スデータ「テーブル」では、 (Image IM#table1 IM#table2 IM#table3)と指定されて
いる。これは、Image の後から、Image の直前の括弧に
対応する括弧までで、IM# で始まるすべての文字列が、
クラスデータの概念を表す画像部品を収めたファイルで
あることを表しており、「テーブル」を表す画像部品を
収めたファイルとしてIM#table1、IM#table2、IM#table
3 などがあることを示している。
Image represents an embodiment of a description section 304 of a pointer that points to an image component representing the concept of class data according to the present invention, and the name of the file storing the data of the image component is used for the pointer. .. In the class data “table” of FIG. 3, (Image IM # table1 IM # table2 IM # table3) is specified. This is after the Image, up to the parenthesis that corresponds to the parentheses immediately before the Image, and all strings starting with IM # are
It indicates that it is a file that contains image parts that represent the concept of class data. IM # table1, IM # table2, IM # table are files that contain image parts that represent "tables".
Indicates that there are 3 etc.

【0017】Methodは、本発明によるクラスデータでの
手続きの記述部306の実施例を表すもので、 (手続きの名称 引数の宣言 手続きの内容)の書式で記述
されている。図3のクラスデータ「テーブル」では、Co
mposePartsが手続きの名称、その次の括弧でくくられた
Relation とClassName が手続きComposeParts の引
数、それ以下でComposeParts の直前の括弧に対応する
括弧までが、手続きの処理内容の記述である。ComposeP
artsは本発明による画像の合成を自動で行なう手続きの
実施例で、処理内容に関しては後の画像合成部110の
説明において述べる。
Method represents an embodiment of the procedure description part 306 in the class data according to the present invention, and is described in the format of (procedure name argument declaration procedure content). In the class data “table” of FIG. 3, Co
mposeParts is the name of the procedure, followed by parentheses
Relation and ClassName are the arguments of the procedure ComposeParts, and up to the parenthesis corresponding to the parentheses immediately before ComposeParts below it are the description of the processing contents of the procedure. ComposeP
arts is an embodiment of a procedure for automatically synthesizing images according to the present invention, and the processing content will be described later in the description of the image synthesizing unit 110.

【0018】Slotは、本発明によるクラスデータでの変
数の記述部305の実施例を表すもので、 (変数の型 変数名 〜 変数名)の書式で記述されてい
る。もし変数の初期化が必要であれば、前記の変数名の
部分を(変数名 初期値)とする。図3のクラスデータ
「テーブル」では、3つの型 Position、DefaultBG 、P
ositioningVerb の変数が宣言されている。
Slot represents an embodiment of the variable description part 305 in the class data according to the present invention, and is described in the format of (variable type variable name to variable name). If the variables need to be initialized, the variable name portion is set to (variable name initial value). In the class data "table" of Fig. 3, three types Position, DefaultBG, P
The ositioningVerb variable is declared.

【0019】Positon 型で宣言された変数は、前記手続
きComposeParts において用いられるもので、 P_上 P_下 P_右 P_右端 P_左 P_左端 の6つが宣言されている。これらに関しては初期化が行
なわれていないため、クラスデータ「テーブル」に属す
る画像部品において具体的な値を指定する必要がある。
Variables declared in the Positon type are used in the procedure ComposeParts, and six variables P_up P_down P_right P_right end P_left P_left end are declared. Since these are not initialized, it is necessary to specify specific values in the image parts belonging to the class data “table”.

【0020】PositioningVerb 型で宣言された変数 pos
itioning_verb (310)は、本発明による動作を表す
関係と前記動作の主体となる対象を表すクラスデータと
前記動作の示す位置関係の3つ組を初期値として記述す
る変数の実施例であり、本変数を用いて、本発明による
動作を表す関係を位置関係に変更することが可能にな
る。これに関しては、後の言語解析部107の処理の説
明において述べる。
Variable pos declared with PositioningVerb type
The itioning_verb (310) is an embodiment of a variable that describes, as an initial value, a triplet of the relationship representing the operation according to the present invention, the class data representing the target object of the operation, and the positional relationship represented by the operation. The variable can be used to change the relationship representing the operation according to the present invention into a positional relationship. This will be described later in the description of the processing of the language analysis unit 107.

【0021】DefaultBG 型で宣言された変数 default_b
g (311)は、本発明による背景または対象物のどち
らを表すかを識別する変数の実施例であり、クラスデー
タにおいて、DefaultBG 型の変数が宣言されているかど
うかで、前記クラスデータが背景または対象物のどちら
を表すかを識別することが可能である。すなわち、Defa
ultBG 型の変数311が宣言されているクラスデータは
対象物を、宣言されていないクラスデータは背景を表す
ものとする。図3のクラスデータ「テーブル」では、De
faultBG 型で宣言された変数 default_bg (311)が DefaultBG ( default_bg (C#部屋 中))と初期化されて
いる。これは、「テーブル」が対象物であり、通常「部
屋」の「中」に置かれていることを表している。また図
4のクラスデータ「部屋」は、背景を表す概念であるた
め本変数は宣言されていない。図5の「りんご」や図6
の「みかん」のように、クラスデータがどのような背景
にあるかどうかが指定できない場合は、 DefaultBG (default_bg nil)などのように、DefaultBG
型の変数311が宣言されていることだけを明示すれば
よい。このnil はクラスデータがどのような背景にある
かを指定できないときに用いる。なお、クラスデータを
形や色などの属性で細かく分類したい時には、クラスデ
ータの下位の概念を表すクラスデータを指し示すポイン
タの記述部303において、下位のクラスを新たに作成
し、これによって細分化するのではなく、クラスデータ
の Slot の記述部305において前記属性を区別するた
めの変数を宣言し、前記クラスデータに属する各画像部
品において前記変数の具体的な値を記述しておき、これ
によって分類を行えばよい。例えば、クラスデータ「テ
ーブル」をさらに形や色などの属性で細かく分類したい
時には、「テーブル」の Slot の記述部305におい
て、 (Shape shape) (Color color) のように形、色を区別するための変数をSlotの記述部3
05において宣言し、クラスデータ「テーブル」に属す
る各画像部品において、前記変数の具体的な値を (shape square) (color brown) のなどのように記述しておけばよい。
Variable declared with type DefaultBG default_b
g (311) is an embodiment of a variable for identifying whether to represent a background or an object according to the present invention. Depending on whether or not a DefaultBG type variable is declared in the class data, the class data is classified into the background or It is possible to identify which of the objects is represented. That is, Defa
The class data in which the ultBG type variable 311 is declared represents the object, and the class data in which it is not declared represents the background. In the class data “table” of FIG. 3, De
The variable default_bg (311) declared in faultBG type is initialized as DefaultBG (default_bg (in C # room)). This means that the “table” is the object and is usually placed in the “middle” of the “room”. Further, since the class data “room” in FIG. 4 is a concept representing the background, this variable is not declared. "Apple" in Fig. 5 and Fig. 6
If you can't specify what kind of background the class data is in, like "Mikan" in DefaultBG, use DefaultBG (default_bg nil) etc.
It suffices to state that the type variable 311 is declared. This nil is used when the background of the class data cannot be specified. When class data is to be finely classified by attributes such as shape and color, a lower class is newly created in the pointer description unit 303 that points to class data representing a lower concept of the class data, and the class is subdivided by this. Instead of declaring a variable for distinguishing the attribute in the slot description part 305 of the class data, and describing the specific value of the variable in each image component belonging to the class data, classification is performed according to this. Should be done. For example, if you want to further classify the class data "table" by attributes such as shape and color, in the slot description section 305 of "table", to distinguish shapes and colors like (Shape shape) (Color color) Variables of Slot are described in Slot 3
In each image component that is declared in 05 and belongs to the class data “table”, the specific value of the variable may be described as (shape square) (color brown).

【0022】図7〜図10は、本発明で用いる画像部品
を示す概念図で、画像部品は属性値の記述部401と画
素データ402から構成される。以下、図7に示す「テ
ーブル」を表す画像部品の例を用いて、属性値と画素デ
ータの内容を説明する。
FIGS. 7 to 10 are conceptual diagrams showing image parts used in the present invention. The image parts are composed of an attribute value description section 401 and pixel data 402. Hereinafter, the content of the attribute value and the pixel data will be described using the example of the image component representing the “table” shown in FIG. 7.

【0023】属性値の記述部401では、画像部品の属
するクラスデータで宣言された変数のうち、初期化され
ていないものに対して具体的な値が与えられる。ここで
は、図3のクラスデータ「テーブル」で初期化されてい
ないPosition型の6個の変数に対して、具体値が与えら
れている。また、この他に「テーブル」を表す画像部品
において、2個の変数data_size とactual_size に対し
て具体値が与えられている(410,411)。これ
は、本発明による画像部品の画素データの大きさを表す
変数410(data_size) と、画像部品の表す対象の大き
さを表す変数411(actual_size) の実施例であり、画
像部品の属するクラスデータ「テーブル」では宣言され
ていない。これは、すべての画像部品が固有に持つ特別
な変数で、上位下位の関係付けられたクラスデータの最
上位に位置するクラスデータにおいて宣言されたもので
あり、クラスデータ「テーブル」においては、本発明の
変数を継承によって、省略されているとみなすことがで
きる。これらに関しては、同様に最上位のクラスデータ
で記述された手続きCalcZoomRatio とともに、後の画像
加工部109の説明において述べる。
The attribute value description unit 401 gives specific values to variables that have not been initialized among the variables declared in the class data to which the image part belongs. Here, concrete values are given to six Position-type variables that are not initialized in the class data “table” in FIG. Further, in addition to this, specific values are given to the two variables data_size and actual_size in the image component representing the “table” (410, 411). This is an embodiment of the variable 410 (data_size) representing the size of the pixel data of the image component and the variable 411 (actual_size) representing the size of the object represented by the image component according to the present invention. Not declared in "table". This is a special variable that all image parts have uniquely, and is declared in the class data located at the top of the associated class data in the upper and lower levels. Inventive variables can be considered omitted by inheritance. These will be described later in the description of the image processing unit 109 together with the procedure CalcZoomRatio described in the highest class data.

【0024】これに対し、図3のクラスデータ「テーブ
ル」のdefault_bg、positioning_verbは、すでにクラス
データにおいて初期化が行なわれているため、クラスデ
ータ「テーブル」に属する画像部品では、特別な場合で
ない限りこれらの具体値を新たに指定する必要はない。
もし、特別に指定する場合は、 (default_bg (c#庭 中)) (positioning_verb (V#ある default 左端)) のように書いておく。
On the other hand, since the default_bg and positioning_verb of the class data “table” in FIG. 3 have already been initialized in the class data, image parts belonging to the class data “table” are used unless they are special cases. It is not necessary to newly specify these concrete values.
If you want to specify it specially, write it as (default_bg (c # in the garden)) (positioning_verb (V # default left edge)).

【0025】以上で本発明による画像データ記憶管理部
105の実施例の説明を終わる。次に、 「部屋の中のテーブルの上にりんごがある。」 (1) を入力の例文とし、図1に従って、本発明による画像編
集装置の各部の処理と画像編集処理の流れを説明する。
As described above, the image data storage management unit according to the present invention
This completes the description of the 105 embodiment. Next, the processing of each part of the image editing apparatus according to the present invention and the flow of the image editing processing will be described with reference to FIG. 1 by using "1.

【0026】まず、言語入力部106で例文(1)が入
力され、言語解析部107に渡される。言語入力部10
6としては、例えばキーボードなどの入力装置が用いら
れる。
First, the example sentence (1) is input by the language input unit 106 and passed to the language analysis unit 107. Language input section 10
As 6, an input device such as a keyboard is used.

【0027】言語解析部107では、入力文から自動で
画像を合成するための情報を検索・生成し、それらを画
像編集データ記憶部112に記憶する。図11は、言語
解析部107での処理をフローチャートの形式で示した
もので、以下、言語解析部107における処理を図11
に従って説明する。
The language analysis unit 107 retrieves and generates information for automatically synthesizing an image from an input sentence and stores it in the image edit data storage unit 112. FIG. 11 shows the processing in the language analysis unit 107 in the form of a flowchart. Hereinafter, the processing in the language analysis unit 107 will be described with reference to FIG.
Follow the instructions below.

【0028】まず、言語辞書101を用いて入力文の形
態素解析501、統語解析502を行ない、画像表現が
可能な対象と前記対象の属性を示す情報と前記対象間の
関係とを抽出する(503)。形態素解析501に関し
ては、例えば文献[久光、新田、”接続コスト最小法に
よる形態素解析の提案と計算量の評価について”、電子
情報通信学会技術研究報告、NCL90−8、1990
年]で述べられている方法を、また、統語解析502に
関しては、例えば Definit Close Gr
ammar(デフィニット・クローズ・グラマー)を用
いればよい。
First, a morphological analysis 501 and a syntactic analysis 502 of an input sentence are performed using the language dictionary 101 to extract an object capable of image expression, information indicating the attribute of the object, and a relationship between the objects (503). ). Regarding the morphological analysis 501, for example, the document [Hisami, Nitta, "On Proposal of Morphological Analysis by Minimum Connection Cost Method and Evaluation of Computational Complexity", Technical Report of IEICE, NCL90-8, 1990.
Year], and also for the syntactic analysis 502, eg, Definit Close Gr
Ammar (definit close glamor) may be used.

【0029】本発明による形態素解析によって抽出され
た名詞が画像表現が可能かどうかの判断は、前記名詞と
一致する見出し語を持つ見出し語データが見出し語辞書
102に登録されているかどうかによって行うことが可
能である。すなわち、抽出された名詞と一致する見出し
語を持つ見出し語データ203が見出し語辞書102に
登録されていれば、前記名詞が画像表現可能であるとす
る。また、言語解析部107において抽出する対象間の
関係はさまざまなものが考えられるが、本実施例では位
置関係と動作の関係を扱った場合を示す。位置関係は、 (対象 位置関係 対象)の3つ組を基本のデータ構造と
しており、第1項の対象に対して第2項の位置に第3項
の対象があることを示している。また、動作の関係も位
置関係と同様に、 (対象 動作の関係 対象)の3つ組を基本のデータ構造
としており、第1項の対象に対して第3項の対象が第2
項の動作を振舞っていることを示している。以下ではこ
のデータ構造を基本関係リストと呼ぶ。例文(1)に対
して抽出された基本関係リストは次のようになる。
Whether or not the noun extracted by the morphological analysis according to the present invention can be expressed as an image is determined by whether or not the headword data having the headword that matches the noun is registered in the headword dictionary 102. Is possible. That is, if the entry word data 203 having the entry word that matches the extracted noun is registered in the entry word dictionary 102, the noun can be expressed as an image. Although various relationships may be considered among the objects extracted by the language analysis unit 107, this embodiment shows a case where the relationship between the positional relationship and the motion is handled. The positional relationship has a basic data structure of a triple of (object positional relationship object), and indicates that the object of the third term is at the position of the second term with respect to the object of the first term. Similar to the positional relationship, the relationship of motion is based on the basic data structure of the triple of (target motion relationship target), and the target of the first term is the second target
It indicates that the behavior of the term is behaving. Hereinafter, this data structure will be referred to as a basic relation list. The basic relation list extracted for the example sentence (1) is as follows.

【0030】((C#部屋 中 C#テーブル) (C#テーブル 上 C#りんご) ) すなわち、これは「部屋」に対する「テーブル」の位置
が「中」であることと、「テーブル」に対する「りん
ご」の位置が「上」であることを示している。なお、入
力文において対象を修飾するための属性情報が与えられ
ている場合は、本処理においてそれも同時に抽出する。
例えば、 「部屋の中の丸いテーブルの上に青いりんごがある。」
に対しての基本関係リストの抽出結果は次のようにな
る。
((C # table in the C # room) (C # apple on the C # table)) That is, this means that the position of the "table" with respect to the "room" is "medium" and the position of the "apple" with respect to the "table". Indicates "upper". If attribute information for modifying the target is given in the input sentence, it is also extracted in this process.
For example, "There is a blue apple on the round table in the room."
The extraction result of the basic relation list for is as follows.

【0031】((C#部屋 中 (C#テーブル (shape circl
e))) (C#テーブル 上 (C#りんご (color green))) ) このように、基本関係リストにおいて、属性情報は対象
と組にして表される。なお、2番目の基本関係リストに
おけるC#テーブルは、1番目のものと同一であるため属
性情報が省略されている。もし異なる対象であれば、新
たに属性情報を与えることによって区別すればよい。例
えば、 「丸いテーブルの右端に青いりんごが、左端に赤いりん
ごがある。」に対しての基本関係リストの抽出結果は次
のようになる。
[(C # room (C # table (shape circl
e))) (C # table (C # apple (color green)))) In this way, in the basic relation list, the attribute information is represented as a pair with the target. Note that the C # table in the second basic relationship list is the same as the first one, so attribute information is omitted. If they are different objects, they can be distinguished by newly providing attribute information. For example, the extraction result of the basic relation list for "a blue apple is at the right end of a round table and a red apple is at the left end" is as follows.

【0032】(((C#テーブル (shape circle)) 右端 (C#
りんご (color green))) (C#テーブル 左端 (C#りんご (color red))) ) 次に、前記処理で抽出された基本関係リストから、対象
とその間の関係を表す木構造(これを関係木と呼ぶ)を
生成する(504)。関係木は、前記抽出されたすべて
の基本関係リストについて、対象をノード、関係をアー
クで表し(これを基本関係木と呼ぶ)、同じ対象を表す
ノードを1つにまとめる操作を木が1つになるまで繰り
返すことで生成される。もし対象を修飾するための属性
情報があれば、それも合わせて前記対象を表すノードに
記述しておく。例文(1)に対して抽出された基本関係
リストは、まず図12のような基本関係木に変換され
る。これらの基本関係木では、どちらにも「テーブル」
を表すノードが含まれているので、これを1つにまとめ
る。この時点で木の個数は1個なので、これを関係木と
し(図13)関係木の生成処理を終了する。
[((C # table (shape circle)) right edge (C #
Apple (color green))) (C # table left edge (C # apple (color red)))) Next, from the basic relation list extracted in the above processing, a tree structure (representing this as a relation tree Call) is generated (504). The relational tree represents an operation for each extracted basic relation list by a node and a relation by an arc (this is referred to as a basic relation tree), and one tree is used to combine nodes representing the same target into one tree. It is generated by repeating until. If there is attribute information for modifying the target, it is also described in the node representing the target. The basic relation list extracted for the example sentence (1) is first converted into a basic relation tree as shown in FIG. In these basic relation trees, both are "tables".
Since it contains a node that represents, this is combined into one. At this point in time, the number of trees is one, so this is regarded as a relational tree (FIG. 13), and the relational tree generation processing ends.

【0033】最後に、関係木を画像編集データ記憶部1
12に転送して(505)、言語解析部107での処理
を終了し、図1に戻って処理を続ける。
Finally, the relational tree is stored in the image editing data storage unit 1.
12 (505), the processing in the language analysis unit 107 is ended, and the processing is continued by returning to FIG.

【0034】画像検索部108では、前記対象に関する
データが記述されたクラスデータと、前記対象を表す画
像部品とを検索する。ここでは、画像編集データ記憶部
112に記憶されている関係木の各ノードの対象の名称
をキーワードとして、前記対象に関する情報を記述した
クラスデータを検索する。前記対象を表す画像部品と前
記画像部品に対して処理を行なう手続きは、前記クラス
データに記述されているので、それを参照する。検索
は、見出し語辞書102からキーワードと一致する見出
し語を持つ見出し語データを探し、前記見出し語データ
の指し示すポインタをたどって行なうことができる。図
13の関係木では、「部屋」「テーブル」「りんご」が
ノードとして含まれており、これらをキーワードとして
見出し語辞書102からクラスデータをたどればよい。
検索されたすべてのクラスデータは、画像編集データ記
憶部112に転送する。なお、各ノードにおいて前記対
象を修飾するための属性情報が記述されていれば、検索
されたクラスデータの概念を表す画像部品に対し、それ
らがどの程度入力属性に一致しているかという尤度付け
を行なうことができる。これに関しては、例えば、特願
平3−255025号で述べられている方法を用いれば
よい。
The image retrieving unit 108 retrieves class data in which data on the object is described and image parts representing the object. Here, using the name of the target of each node of the relation tree stored in the image editing data storage unit 112 as a keyword, the class data describing the information about the target is searched. The image data representing the object and the procedure for performing the processing on the image data are described in the class data. The search can be performed by searching the entry word dictionary 102 for entry word data having an entry word that matches the keyword and tracing a pointer pointed to by the entry word data. In the relational tree of FIG. 13, “room”, “table”, and “apple” are included as nodes, and the class data may be traced from the entry word dictionary 102 using these as keywords.
All the searched class data are transferred to the image edit data storage unit 112. If the attribute information for modifying the target is described in each node, the likelihood of how much they match with the input attribute is attached to the image parts representing the concept of the searched class data. Can be done. In this regard, for example, the method described in Japanese Patent Application No. 3-255025 may be used.

【0035】以上で画像検索部108での処理を終了
し、図1に戻って画像加工部109の処理の説明に移
る。
With the above, the processing in the image retrieval section 108 is completed, and the processing in the image processing section 109 will be described by returning to FIG.

【0036】画像加工部109では、画像検索部108
で検索された画像部品の加工を行なう。図14は画像加
工部109での処理の流れをフローチャートの形式で示
したものである。ここでは、最上位に位置するクラスデ
ータにおいて宣言された手続きCalcZoomRatio と、各画
像部品の属性値 data_size、actual_size を用いて各画
像部品の拡大・縮小の倍率を計算する方法を、図14に
基づいて説明する。なお本説明においては、言語解析部
107の説明で用いた例文(1)に対して生成された図
13の関係木を用いる。
In the image processing unit 109, the image search unit 108
The image parts searched for are processed. FIG. 14 shows the flow of processing in the image processing unit 109 in the form of a flowchart. Here, a method of calculating the enlargement / reduction ratio of each image component using the procedure CalcZoomRatio declared in the highest-level class data and the attribute values data_size and actual_size of each image component, based on FIG. explain. In this description, the relation tree of FIG. 13 generated for the example sentence (1) used in the description of the language analysis unit 107 is used.

【0037】まず最初に、関係木の根ノードの概念を表
す画像部品を1つ選び、前記画像部品のdata_size を X
s、Ys、actual_size をS とする(801)。ここでは
関係木の根ノードは図13より「部屋」で、それに属す
る画像部品として図8のものを用いることにすると、 Xs = 640 Ys = 400 S = 4.0 が得られる。また、関係木の根ノード以外のノードの個
数をnとし、前記各ノードに1からnまでの番号を与え
る(802)。図13では、関係木の根ノード以外のノ
ードの個数は2なのでn=2とし、ノード「テーブル」
に番号1、ノード「りんご」に番号2を与える。
First, one image component representing the concept of the root node of the relation tree is selected, and the data_size of the image component is set to X.
Let s , Y s , and actual_size be S (801). Here, the root node of the relation tree is “room” from FIG. 13, and if the image parts belonging to it are those of FIG. 8, X s = 640 Y s = 400 S = 4.0 is obtained. Further, the number of nodes other than the root node of the relation tree is n, and each node is given a number from 1 to n (802). In FIG. 13, the number of nodes other than the root node of the relation tree is 2, so n = 2, and the node “table” is set.
To the node "apple" and the number 2 to the node "apple".

【0038】次に、i=1とし(803)、i番目のノ
ードの概念を表す画像部品を1つ選び、前記画像部品の
data_size を Xd、Yd、actual_size をD とする(80
4)。ここではi=1なので、1番めのノード、すなわ
ち「テーブル」の概念を表す画像部品として図7のもの
を用いることにすると、 Xd = 256 Yd = 128 D = 1.0 が得られる。そして、手続きCalcZoomRatio において、
関係木の根のノードの概念を表す画像部品に対し、i番
目のノードの概念を表す他の画像部品の拡大・縮小の倍
率を例えば図15に示すような式を用いて計算する(8
05)。ただし、この式において、rmaxおよびrminは、
rcalの値が大きすぎる場合や小さすぎる場合に、それを
修正するためのしきい値であり、rcalの値がrmaxより大
きいときはrmaxで、またrminより小さいときはrminに置
き換えるものである。このため、rm axとrminにはあらか
じめ適当な値が与えられている。いまi=1なので、
「部屋」に対する「テーブル」の拡大・縮小の倍率 r1
を計算するとr1=0.7 となる。
Next, i = 1 is set (803), one image component representing the concept of the i-th node is selected, and the image component of the image component is selected.
Let data_size be X d , Y d , and actual_size be D (80
4). Since i = 1 here, if the first node, that is, the image component showing the concept of the “table” in FIG. 7 is used, X d = 256 Y d = 128 D = 1.0 is obtained. And in the procedure CalcZoomRatio,
For the image component representing the concept of the root node of the relation tree, the scaling factor of the other image component representing the concept of the i-th node is calculated using, for example, the formula shown in FIG. 15 (8
05). However, in this equation, r max and r min are
Threshold value for correcting the value of r cal when it is too large or too small, r max when the value of r cal is larger than r max , and r min when it is smaller than r min To replace. Therefore, r m ax and r min are given appropriate values in advance. Since i = 1 now,
Enlargement / reduction ratio of "table" to "room" r 1
When is calculated, r 1 = 0.7.

【0039】さらに、i番目のノードの概念を表す画像
部品のdata_size と Position 型の変数の属性値をri
倍し、画素データも、縦、横方向ともに ri 倍する(8
06)。ここでは「テーブル」の概念を表す画像部品に
対して次のようにデータの書き換えが行われる (data_size 256*0.7 128*0.7) (P_上 x1*0.7 y1*0.7) (P_下 x2*0.7 y2*0.7) (P_右 x3*0.7 y3*0.7) (P_右端 x4*0.7 y4*0.7) (P_左 x5*0.7 y5*0.7) (P_左端 x6*0.7 y6*0.7) ここで、i<nなので(807)、iを1だけ増やし
(808)(すなわちi=2とし)、804に戻って同
様の処理、すなわち「部屋」の画像部品に対する「りん
ご」の画像部品の拡大・縮小の倍率 r2 を計算する。そ
れが終了した時点で、i<nを判断すると(807)、
満たされないため、画像加工部109における処理を終
了する。
Furthermore, the data_size of the image component representing the concept of the i-th node and the attribute value of the Position type variable are r i
The pixel data is also multiplied by r i in both the vertical and horizontal directions (8
06). Here, the data is rewritten for the image parts that express the concept of "table" as follows (data_size 256 * 0.7 128 * 0.7) (P_up x1 * 0.7 y1 * 0.7) (P_down x2 * 0.7 y2 * 0.7) (P_right x3 * 0.7 y3 * 0.7) (P_right edge x4 * 0.7 y4 * 0.7) (P_left x5 * 0.7 y5 * 0.7) (P_left edge x6 * 0.7 y6 * 0.7) here Then, since i <n (807), i is incremented by 1 (808) (that is, i = 2), and the process returns to 804, that is, the same process is performed, that is, enlargement of the "apple" image component to the "room" image component・ Calculate the reduction ratio r 2 . When it is finished, if i <n is judged (807),
Since it is not satisfied, the processing in the image processing unit 109 ends.

【0040】図1に戻って画像合成部110の処理の説明
に移る。画像合成部110では、画像加工部109で加
工された画像部品の合成を行なう。図16は画像合成部
110での処理の流れをフローチャートの形式で示した
ものである。ここでは、各クラスデータにおいて宣言さ
れた手続き ComposeParts と、各画像部品の Position
型の属性値を用いて各画像部品の拡大・縮小の倍率を計
算する方法を、図16に基づいて説明する。説明には、
言語解析部107の説明で用いた例文(1)に対して生
成された図13の関係木を用いる。
Returning to FIG. 1, the process of the image synthesizing unit 110 will be described. The image combining unit 110 combines the image parts processed by the image processing unit 109. FIG. 16 shows the flow of processing in the image synthesizing section 110 in the form of a flowchart. Here, the procedure ComposeParts declared in each class data and the Position of each image part
A method of calculating the enlargement / reduction ratio of each image component using the type attribute value will be described with reference to FIG. In the description,
The relation tree of FIG. 13 generated for the example sentence (1) used in the description of the language analysis unit 107 is used.

【0041】まず最初に、関係木に含まれるアークの個
数をnとし、前記アークに1からnまでの番号を与える
(1001)。図13では関係木に含まれるアークの個
数は2なので n = 2 とし、ノード「部屋」とノード
「テーブル」を連結するアークを1番目のアーク、ノー
ド「テーブル」とノード「りんご」を連結するアークを
2番目のアークとする。
First, the number of arcs included in the relation tree is n, and the arcs are given numbers 1 to n (1001). In FIG. 13, since the number of arcs included in the relation tree is 2, n = 2 is set, the arc connecting the node “room” and the node “table” is connected to the first arc, and the node “table” and the node “apple” are connected. Let the arc be the second arc.

【0042】次に、i=1とし(1002)、i番目の
アークの上位のノードのクラスデータに記述されている
手続き ComposeParts を呼び出す(1003)。ここで
は、1番目のアークの上位のノードのクラスデータ、す
なわち「部屋」に記述されている手続き ComposeParts
を呼び出す。そして、i番目のアークに付与されている
関係と同一の関係を、手続き ComposeParts の Relatio
n から選択する(1004)。図13では、関係木の1
番目のアークに付与されている関係は「中」なので、こ
れと同一の関係を「部屋」の手続き ComposeParts の R
elation から選択する。さて、ここで Relation におい
てClass の条件が記述されているかどうかを調べ(100
5)、記述されていれば、i番目のアークの下位のノー
ド、または前記ノードの上位概念に一致するものをClas
s から選択し(1006)1007に進む。そうでなけ
ればClass default を選択し1007に進む。「部屋」
の手続き ComposeParts の Relation 「中」では、「テ
ーブル」またはその上位の概念と一致するクラスがClas
s に記述されているかどうかを調べると、3番目の項目
において記述されているので、それを選択する。
Next, i = 1 is set (1002), and the procedure ComposeParts described in the class data of the node above the i-th arc is called (1003). Here, the class data of the node above the first arc, that is, the procedure ComposeParts described in "Room"
Call. Then, the same relation as the relation given to the i-th arc is set to the Relatio of the procedure ComposeParts.
Select from n (1004). In FIG. 13, the relation tree 1
Since the relation given to the th arc is "medium", the same relation as this is used in R of the ComposeParts procedure of "room".
Select from elation. Now, check whether the condition of Class is described in Relation (100
5), if specified, the node below the i-th arc, or one that matches the superordinate concept of the node
Select from s (1006) and proceed to 1007. Otherwise, select Class default and proceed to 1007. "room"
In ComposeParts' Relation Medium, Classes that match the concept of table or its superclass
When checking whether or not it is described in s, it is described in the third item, so select it.

【0043】最後に、i番目のアークの上位ノードの画
像部品に対して、下位の画像部品を、1006 で選択され
た Class で指定された場所に配置する(1007,1008)。先
ほど選択された Class default では、「部屋」に対す
る「テーブル」の配置場所は、P_中であると指定されて
いるので、「テーブル」の画像部品を、「部屋」の画像
部品のP_中の位置に配置する。
Finally, with respect to the image component of the upper node of the i-th arc, the lower image component is placed in the location designated by the Class selected in 1006 (1007, 1008). In the Class default selected earlier, the location of the "table" with respect to the "room" is specified to be in P_, so the image part of the "table" is placed in the P_ of the image part of the "room". Place it in the position.

【0044】ここで、i<nなので(1009)、iを
1だけ増やし(1010)(すなわちi=2とし)、1
003に戻って同様の処理、すなわち「テーブル」の画
像部品に対して「りんご」の画像部品を配置する。それ
が終了した時点でi<nを判断すると(1009)、満
たされないため、画像合成部110における処理を終了
する。
Since i <n (1009), i is incremented by 1 (1010) (that is, i = 2), 1
Returning to 003, the same processing is performed, that is, the image component of “apple” is arranged with respect to the image component of “table”. When i <n is judged at the time when it is finished (1009), since it is not satisfied, the process in the image synthesizing unit 110 is finished.

【0045】最後に画像表示部111で、画像合成部1
10において合成された画像を表示し、本発明による画
像編集装置のすべての処理を終了する。
Finally, in the image display section 111, the image composition section 1
The composited image is displayed at 10, and all the processes of the image editing apparatus according to the present invention are completed.

【0046】本画像編集装置の画像の検索・加工・合成
部の処理において必要なデータの参照は、画像データ記
憶管理部105ではなく画像編集データ記憶部112に
記憶されているものを用いている。これは、画像データ
蓄積管理部において画像部品の蓄積量が莫大になった場
合でも、高速なデータの参照を行なえるようにするため
である。
The data stored in the image edit data storage unit 112, not the image data storage management unit 105, is used to refer to the data necessary for the processing of the image search / modification / synthesis unit of the image editing apparatus. .. This is to enable high-speed data reference even when the amount of image components accumulated in the image data accumulation management unit becomes enormous.

【0047】さて、本発明による画像編集装置では、入
力された文において ・動詞によって対象間の位置関係を表す語が省略された
場合 ・背景を表す対象が省略された場合 について、言語解析部107でこれらの補充を行なうこ
とを可能としている。図17は、上記の2つの処理を図
11で示した言語解析部107における処理に付け加え
たものをフローチャートの形式で示したものである。以
下、上記の2つの補充を行う処理の説明を 「テーブルにりんごとみかんがある。」 (2) を例文とし、図17を用いて説明する。
Now, in the image editing apparatus according to the present invention, in the input sentence, when the word indicating the positional relationship between the objects is omitted by the verb, and when the object indicating the background is omitted, the language analysis unit 107 It is possible to replenish these. FIG. 17 shows, in the form of a flow chart, the above-mentioned two processes added to the process in the language analysis unit 107 shown in FIG. The following describes the process of performing the above two supplements with reference to FIG. 17 by using “2. There are apples and mandarins in the table.” (2) as an example sentence.

【0048】まず言語解析部107において、例文(2)
から次の2つの基本関係リストが抽出される。
First, in the language analysis unit 107, the example sentence (2)
The following two basic relation lists are extracted from

【0049】(テーブル V#ある りんご) (テーブル V#ある みかん) これは「テーブル」に対する「りんご」および「みか
ん」の関係が動詞「ある」で表されていることを意味し
ており、画像合成部110で画像部品の配置を行なうた
めには、動詞「ある」で表されている「テーブル」と
「りんご」、「テーブル」と「みかん」の関係を位置関
係に変更しなければならない。本発明による画像編集装
置では、クラスデータにおいて動作を表す関係と前記動
作の示す位置の組を初期値として記述する Positioning
Verb 型の変数 positioning_verb (310)を用いる
ことによって、上記の変更を可能としている。すなわ
ち、次に抽出された関係が動作を表す関係かどうかを調
べ(1104)、動作を表す関係を含む基本関係リスト
に関しては、前記基本関係リストの第1項のクラスデー
タのpositioning_verbで与えられた初期値のうち、第1
項が、言語解析部107で抽出された動作の関係と等し
いものを選び、前記動作の関係を、前記選ばれた初期値
の第2項に記述された位置関係と置き換える(110
5)。例えば、図3の「テーブル」では、 (PositioningVerb (positioning_verb (V#ある 上)))と
記述されており、これは「テーブル」に対して何らかの
対象物が「ある」と記述されている場合に、前記対象物
の「テーブル」に対する位置は「上」であることを表し
ている。従って、前記の抽出された基本関係リストは (テーブル 上 りんご) (テーブル 上 みかん) に変更される。
(Table V # Aru Apple) (Table V # Aru Mikan) This means that the relation between "apple" and "mandarin orange" with respect to "table" is represented by the verb "aru". In order to arrange the image parts in the synthesizing unit 110, it is necessary to change the relationship between the “table” and the “apple” and the “table” and the “mandarin orange” represented by the verb “arru” to the positional relationship. In the image editing apparatus according to the present invention, Positioning in which a set of a relationship indicating an action in class data and a position indicated by the action is described as an initial value
The above change is possible by using the Verb type positioning_verb (310). That is, it is checked whether or not the extracted relation is a relation representing a motion (1104), and the basic relation list including the relation representing a motion is given by the positioning_verb of the class data of the first term of the basic relation list. First of the initial values
A term whose term is the same as the action relation extracted by the language analysis unit 107 is selected, and the action relation is replaced with the positional relation described in the second term of the selected initial value (110).
5). For example, in the “table” of FIG. 3, it is described as (PositioningVerb (positioning_verb (V # is above))), which means that if there is any object “present” in the “table” The position of the object with respect to the "table" is "up". Therefore, the extracted basic relation list is changed to (table apples) (table oranges).

【0050】こうして、動詞によって省略された対象間
の位置関係を表す語の補充が終了すると、次に、言語解
析部107で前記変更された基本関係リストから基本関
係木が生成され(図18)、関係木が生成される(図1
9)。
When the replenishment of the word representing the positional relationship between the objects omitted by the verb is completed, the language analysis unit 107 then generates a basic relation tree from the changed basic relation list (FIG. 18). , A relation tree is generated (Fig. 1
9).

【0051】さて、作成された関係木の根ノードを表す
画像部品は、画像合成部110において他のノードの画
像部品の位置を決めるための基準となるため、前記根ノ
ードの対象は背景を表すものでなければならない。本発
明の画像編集装置では、クラスデータにおいて前記クラ
スデータの表す概念が背景または対象物のどちらである
かを識別するDefaultBG 型の変数 default_bg (31
1)を記述し、これを用いて、前記根ノードの対象が背
景かどうかの判断と、もし背景でない場合に関係木にさ
らに背景を表すノードを付加することを可能としてい
る。
Since the image component representing the root node of the created relational tree serves as a reference for determining the position of the image component of another node in the image synthesizing unit 110, the target of the root node represents the background. There must be. In the image editing apparatus of the present invention, the defaultBG type variable default_bg (31) for identifying whether the concept represented by the class data in the class data is the background or the object.
1) is described, and by using this, it is possible to determine whether the target of the root node is the background and to add a node representing the background to the relation tree if it is not the background.

【0052】以下で、その方法の詳細を説明する。ま
ず、言語解析部107で生成された関係木の根ノードに
対応するクラスデータにおいて、DefaultBG 型の変数が
宣言されているかどうかを調べる(1107)。もし宣
言されていなければ、前記根ノードは背景を表すもので
あり、関係木はそのまま画像編集データ記憶部112に
転送される。もし、宣言されていれば、前記根ノードは
対象物を表すものであり、関係木に背景を表すノードを
根ノードとして付加する必要がある。背景を表すノード
の付加は、関係木の根ノードに対応するクラスデータ
の、DefaultBG 型の変数default_bg(311)に与えら
れた初期値を参照して行なわれる。すなわち、default_
bgの第1項を前記根ノードの上位ノードとし、第2項を
前記の2つのノードを連結するアークに付与する関係と
する(1108)。
The details of the method will be described below. First, it is checked whether or not a DefaultBG type variable is declared in the class data corresponding to the root node of the relational tree generated by the language analysis unit 107 (1107). If not declared, the root node represents the background, and the relation tree is transferred to the image edit data storage unit 112 as it is. If declared, the root node represents an object, and it is necessary to add a node representing the background to the relation tree as a root node. The node representing the background is added with reference to the initial value given to the DefaultBG type variable default_bg (311) of the class data corresponding to the root node of the relation tree. That is, default_
The first term of bg is the upper node of the root node, and the second term is the relation given to the arc connecting the two nodes (1108).

【0053】以上の処理を、例文(2)から作成された
図19の関係木に対して行うと次のようになる。
The above processing is performed on the relation tree of FIG. 19 created from the example sentence (2) as follows.

【0054】まず、前記関係木の根ノードの対象を調べ
ると「テーブル」である。図3のクラスデータ「テーブ
ル」では、 (DefaultBG (default_bg (C#部屋 中)))が記述されてお
り、「テーブル」が対象物を表すことが判明するので、
図19の関係木にさらに背景となるノードを付加しなけ
ればならない。クラスデータ「テーブル」では、「テー
ブル」の背景とその場所として default_bg で「部屋」
の「中」と指定されているので、図19の関係木の根ノ
ードの上位ノードとして「部屋」を付加し、前記の2つ
のノードを連結するアークに位置関係「中」を付与する
(図20)。
First, when the object of the root node of the relational tree is examined, it is a "table". In the class data “table” of FIG. 3, (DefaultBG (default_bg (C # room))) is described, and it is clear that the “table” represents the target object.
A background node must be added to the relation tree of FIG. In class data "table", the background of "table" and its location is "room" with default_bg
Since "middle" is designated, "room" is added as an upper node of the root node of the relation tree of FIG. 19, and the positional relation "middle" is given to the arc connecting the two nodes (FIG. 20). ..

【0055】このようにして、背景が省略された入力文
に対し、その補充を行なうことができる。
In this way, the input sentence with the background omitted can be supplemented.

【0056】[0056]

【発明の効果】本発明によれば、作成したい画像の内容
を自然言語により入力すれば、目的の画像を編集するま
での操作をすべて自動で行なうことができるため、従
来、非常に手間のかかる作業であった画像編集を、短時
間で行なうことができる。また、入力手段が自然言語の
みであるため、機器の操作のにおいても、マウスなどキ
ーボード以外の外部入力装置の操作を必要とせず、誰に
でも容易に画像を編集することができる。さらに、自然
言語を入力して自動で合成された画像に後編集を行なう
場合には、あらかじめ画像の編集に関係のある画像部品
はすべて検索、保管さているので、前記合成された画像
を構成する対象に関して、他の画像部品と交換を高速に
行うことが可能である。
According to the present invention, if the contents of an image to be created are input in natural language, all the operations up to the editing of the target image can be performed automatically, so that it is very troublesome in the past. It is possible to edit an image, which was a work, in a short time. Further, since the input means is only natural language, it is not necessary to operate an external input device other than a keyboard such as a mouse when operating the device, and anyone can easily edit the image. Further, when a natural language is input and post-editing is performed on an automatically combined image, all image parts related to image editing are searched and stored in advance, so that the combined image is formed. It is possible to replace the object with other image parts at high speed.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明による画像編集装置の実施例の構成を示
したブロック図
FIG. 1 is a block diagram showing the configuration of an embodiment of an image editing apparatus according to the present invention.

【図2】本発明による見出し語辞書をテーブルの形式で
表した図
FIG. 2 is a diagram showing an entry word dictionary according to the present invention in a table format.

【図3】本発明によるクラスデータをリストの形式を用
いて表した図で、クラスデータ「テーブル」について示
したもの
FIG. 3 is a diagram showing class data according to the present invention using a list format, showing class data “table”.

【図4】本発明によるクラスデータをリストの形式を用
いて表した図で、クラスデータ「部屋」について示した
もの
FIG. 4 is a diagram showing class data according to the present invention using a list format, showing class data “room”.

【図5】本発明によるクラスデータをリストの形式を用
いて表した図で、クラスデータ「りんご」について示し
たもの
FIG. 5 is a diagram showing class data according to the present invention using a list format, showing class data “apple”.

【図6】本発明によるクラスデータをリストの形式を用
いて表した図で、クラスデータ「みかん」について示し
たもの
FIG. 6 is a diagram showing class data according to the present invention using a list format, showing class data “Mikan”.

【図7】本発明による画像部品を表した概念図で、「テ
ーブル」について示したもの
FIG. 7 is a conceptual diagram showing image parts according to the present invention, showing a “table”.

【図8】本発明による画像部品を表した概念図で、「部
屋」について示したもの
FIG. 8 is a conceptual diagram showing an image part according to the present invention, showing “room”.

【図9】本発明による画像部品を表した概念図で、「り
んご」について示したもの
FIG. 9 is a conceptual diagram showing an image part according to the present invention, showing “apples”.

【図10】本発明による画像部品を表した概念図で、
「みかん」について示したもの
FIG. 10 is a conceptual diagram showing an image part according to the present invention,
What was shown about "Mikan"

【図11】言語解析部での処理の流れをフローチャート
の形式で表した図
FIG. 11 is a diagram showing the flow of processing in the language analysis unit in the form of a flowchart.

【図12】本発明の画像編集装置の実施例における基本
関係木を表した概念図
FIG. 12 is a conceptual diagram showing a basic relation tree in the embodiment of the image editing apparatus of the invention.

【図13】本発明の画像編集装置の実施例における関係
木を表した概念図
FIG. 13 is a conceptual diagram showing a relation tree in the embodiment of the image editing apparatus of the present invention.

【図14】画像加工部での処理の流れをフローチャート
の形式で表した図
FIG. 14 is a diagram showing the flow of processing in the image processing unit in the form of a flowchart.

【図15】画像加工部の処理として画像部品の拡大・縮
小の倍率を計算する式を示す図
FIG. 15 is a diagram showing an expression for calculating a scaling factor of an image component as processing of an image processing unit.

【図16】画像合成部での処理の流れをフローチャート
の形式で表した図
FIG. 16 is a diagram showing the flow of processing in the image composition unit in the form of a flowchart.

【図17】言語解析部においてさらに省略の補充を行う
場合の処理の流れをフローチャートの形式で表した図
FIG. 17 is a diagram showing, in the form of a flow chart, the flow of processing when supplementary omission is further performed in the language analysis unit.

【図18】本発明の画像編集装置の実施例における基本
関係木を表した概念図
FIG. 18 is a conceptual diagram showing a basic relation tree in the embodiment of the image editing apparatus of the invention.

【図19】本発明の画像編集装置の実施例における関係
木を表した概念図
FIG. 19 is a conceptual diagram showing a relation tree in the embodiment of the image editing apparatus of the invention.

【図20】本発明の画像編集装置の実施例における関係
木を表した概念図
FIG. 20 is a conceptual diagram showing a relation tree in the embodiment of the image editing apparatus of the present invention.

【符号の説明】[Explanation of symbols]

101 言語辞書 102 見出し語辞書 103 クラスデータ管理部 104 画像データベース 105 画像データ記憶管理部 106 言語入力部 107 言語解析部 108 画像検索部 109 画像加工部 110 画像合成部 111 画像表示部 112 画像編集データ記憶部 101 language dictionary 102 headword dictionary 103 class data management unit 104 image database 105 image data storage management unit 106 language input unit 107 language analysis unit 108 image search unit 109 image processing unit 110 image synthesis unit 111 image display unit 112 image editing data storage Department

Claims (15)

【特許請求の範囲】[Claims] 【請求項1】言語文を理解するために必要な情報を記憶
する言語辞書と、画像部品と前記画像部品に対して処理
を施す手続きとを記憶管理する画像データ記憶管理部
と、言語文の入力を行なう言語入力部と、前記言語辞書
と画像データ記憶管理部に記憶されている情報とを用い
て言語文を解析する言語解析部と、言語文の解析結果か
ら、前記言語文の内容を表現するために必要な画像部品
および前記画像部品に処理を施す手続きを前記画像デー
タ記憶管理部から検索し、前記検索された画像部品の加
工と合成を前記検索された手続きによって行う画像編集
部と、画像部品を表示する画像表示部とを備え、自然言
語文を入力して、前記入力文の内容を表す画像を編集表
示するために必要な入力文の解析処理と画像部品の検索
・加工・合成処理を、前記言語辞書と前記画像データ記
憶管理部に記憶されている情報とを用いて自動で行なう
手段を有することを特徴とする画像編集装置。
1. A language dictionary for storing information necessary for understanding a language sentence, an image data storage management unit for storing and managing an image component and a procedure for processing the image component, and a language sentence storage unit. A language input unit for inputting, a language analysis unit for analyzing a language sentence using the language dictionary and information stored in the image data storage management unit, and a content of the language sentence from the analysis result of the language sentence. An image editing unit that searches the image data storage management unit for the image component necessary for expressing and the procedure for processing the image component, and performs the processing and composition of the searched image component by the searched procedure. , An image display unit for displaying image parts, inputting a natural language sentence, analyzing the input sentence necessary for editing and displaying the image showing the contents of the input sentence, and searching / processing the image component / Synthesis process Image editing apparatus comprising means for performing automatically by using the information stored with the language dictionary in the image data storage management unit.
【請求項2】画像部品は属性値の記述部と画素データか
らなり、画像データ記憶管理部における手続きは、前記
属性値をパラメータとして用いることを特徴とする請求
項1記載の画像編集装置。
2. The image editing apparatus according to claim 1, wherein the image component is composed of an attribute value description section and pixel data, and the procedure in the image data storage management section uses the attribute value as a parameter.
【請求項3】画像データ記憶管理部は、概念の名称と前
記概念の具体的実体を表す画像部品を指し示すポインタ
と前記画像部品の処理を行う手続きと前記手続きに必要
な変数との記述部を少なくとも含むクラスデータを集め
たクラスデータ管理部と、画像部品を集めた画像データ
ベースとからなる構成を有し、クラスデータのポインタ
の指し示す画像部品に処理を行う手続きを前記クラスデ
ータにおいて記述することを特徴とする請求項2記載の
画像編集装置。
3. The image data storage management unit includes a description part of a name of a concept, a pointer pointing to an image part representing a concrete entity of the concept, a procedure for processing the image part, and a variable necessary for the procedure. A class data management unit that collects at least the class data that includes it and an image database that collects the image parts are included, and the procedure for performing processing on the image parts pointed by the pointer of the class data is described in the class data. The image editing apparatus according to claim 2, characterized in that:
【請求項4】画像データ記憶管理部は、さらに、見出し
語と前記見出し語の概念を表すクラスデータを指し示す
ポインタとの記述部からなる見出し語データを集めた見
出し語辞書を備え、同様の概念を表すすべての見出し語
データのポインタは、前記概念を表す1つのクラスデー
タを指し示すことを特徴とする請求項3記載の画像編集
装置。
4. The image data storage management unit further comprises a headword dictionary that collects headword data composed of a description portion of headwords and pointers pointing to class data representing the concept of the headwords. 4. The image editing apparatus according to claim 3, wherein the pointers of all the headword data representing "" indicate one class data representing the concept.
【請求項5】クラスデータは、さらに上位の概念を表す
クラスデータと下位の概念を表すクラスデータとを指し
示すポインタの記述部を有し、クラスデータで記述され
ている手続きおよび変数を、前記ポインタによって指し
示された下位のクラスデータに継承することと、必要な
場合に上位のクラスデータへのポインタをたどり、前記
上位クラスデータの手続きおよび変数を参照することを
特徴とする請求項3記載の画像編集装置。
5. The class data has a description section of a pointer that points to class data representing a higher-level concept and class data representing a lower-level concept, and the procedure and variables described in the class data are stored in the pointer. 4. The method according to claim 3, wherein the lower class data pointed to by the lower class data is inherited, and a pointer to the upper class data is traced when necessary to refer to the procedure and variable of the upper class data. Image editing device.
【請求項6】言語解析部は、言語文の解析結果から画像
表現が可能な対象と前記対象の属性を示す情報と前記対
象間の関係とを抽出し、前記抽出された画像表現が可能
な対象をノード、前記対象間の関係をアークで表し、あ
る対象を表すノードにおいて、前記対象に対して何らか
の関係にある他の対象を前記ノードの下位のノードと
し、前記両ノードを前記関係を表したアークで連結して
構成される木構造を生成する手段を有することを特徴と
する請求項3記載の画像編集装置。
6. A language analysis unit extracts an object capable of image expression, information indicating an attribute of the object, and a relationship between the objects from an analysis result of a language sentence, and the extracted image expression is possible. The object is represented by a node, the relationship between the objects is represented by an arc, and in a node representing a certain object, another object having some relation to the object is a node lower than the node, and the both nodes are represented by the relationship. 4. The image editing apparatus according to claim 3, further comprising means for generating a tree structure configured by connecting the arcs.
【請求項7】画像部品は、前記画像部品を指し示すポイ
ンタによって指定された画像部品の属性値の記述部にお
いて、前記クラスデータで宣言された変数に対する具体
的な値を記述することを特徴とする請求項6記載の画像
編集装置。
7. The image part describes a specific value for a variable declared in the class data in a description part of an attribute value of the image part designated by a pointer pointing to the image part. The image editing apparatus according to claim 6.
【請求項8】クラスデータの変数は、変数の型、名称、
初期値の記述部からなる構成を有し、前記画像部品を指
し示すポインタを持つクラスデータで記述されている変
数に初期値が与えられている場合に、前記クラスデータ
のポインタによって指し示された画像部品において、必
要でなければ前記変数に対応する具体的な値の記述を省
略することを特徴とする請求項7記載の画像編集装置。
8. The class data variables are variable types, names,
An image pointed by the pointer of the class data when the initial value is given to the variable described in the class data that has a pointer that points to the image part The image editing apparatus according to claim 7, wherein a description of a specific value corresponding to the variable is omitted in the component unless necessary.
【請求項9】クラスデータは、背景または対象物のどち
らを表すかを識別する変数を少なくとも含み、言語解析
部は、さらに、前記変数によって前記クラスデータが背
景または対象物のどちらの概念を表すかを識別する手段
を有することを特徴とする請求項8記載の画像編集装
置。
9. The class data includes at least a variable for identifying whether to represent a background or an object, and the linguistic analysis unit further includes the variable to represent the concept of the background or the object. 9. The image editing apparatus according to claim 8, further comprising means for identifying a watermark.
【請求項10】対象物を表すクラスデータは、背景を表
すか対象物を表すかを区別する変数において、前記対象
物の存在する背景を表す他のクラスデータと前記背景と
前記対象物との関係を初期値として記述し、言語解析部
は、さらに、言語文を入力して生成された木構造の根の
ノードの対象が対象物であると識別された場合に、前記
初期値を用いて、背景を表すノード、および前記ノード
と前記木構造の根のノード連結するアークを、前記木構
造に追加した木構造を生成する手段を有することを特徴
とする請求項9記載の画像編集装置。
10. The class data representing an object is a variable for distinguishing whether the object represents a background or an object, and other class data representing a background in which the object exists, the background, and the object. The relationship is described as an initial value, and the language analysis unit further uses the initial value when the target of the root node of the tree structure generated by inputting the language sentence is identified as the object. 10. The image editing apparatus according to claim 9, further comprising means for generating a tree structure by adding a node representing a background and an arc connecting the node and a root node of the tree structure to the tree structure.
【請求項11】クラスデータは、動作を表す関係と前記
動作の示す位置関係の組を初期値として記述する変数を
少なくとも含み、言語解析部は、さらに、言語文を入力
して生成された木構造のアークにおいて、前記変数を用
いて、動作を表す関係を位置関係に変更する手段を有す
ることを特徴とする請求項8記載の画像編集装置。
11. The class data includes at least a variable describing as an initial value a set of a relationship indicating a motion and a positional relationship indicated by the motion, and the language analysis unit further generates a tree generated by inputting a language sentence. 9. The image editing apparatus according to claim 8, further comprising means for changing a relationship indicating a motion into a positional relationship by using the variable in the arc of the structure.
【請求項12】画像編集部は、画像表現が可能な対象と
前記対象の属性を示す情報とを用いて、前記対象を表す
画像部品と前記画像部品に処理を施す手続きとを前記画
像データ記憶管理部から検索する手段を有する画像検索
部と、前記手続きによって画像部品の加工処理を行なう
画像加工部と、前記手続きによって画像部品の合成処理
を行なう画像合成部とから構成されることを特徴とする
請求項7記載の画像編集装置。
12. The image editing unit stores an image component representing the target and a procedure for processing the image component by using a target capable of image representation and information indicating an attribute of the target. An image search unit having means for searching from the management unit, an image processing unit that processes image components according to the procedure, and an image composition unit that performs image component composition processing according to the procedure. The image editing device according to claim 7.
【請求項13】クラスデータは、前記クラスデータのポ
インタによって指し示された画像部品の画素データの大
きさと画像部品の表す対象の大きさとを記述する変数
と、前記変数を用いて画像部品の加工処理を行なう手続
きとを少なくとも含み、画像加工部は、言語文を入力し
て言語解析部で生成された木の各ノードの対象を表す画
像部品の加工を、前記手続きによって行なう手段を有す
ることを特徴とする請求項12記載の画像編集装置。
13. The class data is a variable that describes a size of pixel data of an image part pointed by a pointer of the class data and a size of an object represented by the image part, and processing of the image part using the variable. The image processing unit includes at least a procedure for performing processing, and has means for performing processing of an image component representing a target of each node of a tree generated by the language analysis unit by inputting a language sentence by the procedure. The image editing apparatus according to claim 12, wherein the image editing apparatus is an image editing apparatus.
【請求項14】クラスデータは、前記クラスデータを表
す対象に対して指し示される位置関係を記述する変数
と、前記変数を用いて画像部品の合成処理を行なう手続
きとを少なくとも含み、画像合成部は、言語文を入力し
て言語解析部で生成された木の各ノードの対象を表す画
像部品の合成を、前記木のアークの関係と前記手続きと
によって行なう手段を有することを特徴とする請求項1
2記載の画像編集装置。
14. The image synthesizing unit includes at least a variable that describes a positional relationship pointed to an object representing the class data, and a procedure for performing an image component synthesizing process using the variable. Has means for synthesizing an image component representing a target of each node of the tree generated by the language analysis unit by inputting a language sentence by the relation between the arcs of the tree and the procedure. Item 1
2. The image editing device described in 2.
【請求項15】言語解析部で解析された情報、および画
像検索部で検索された情報を一時的に記憶する画像編集
データ記憶部を備え、画像編集部における処理を上記画
像編集データ記憶部に記憶されている情報を用いて行な
うことを特徴とする請求項1記載の画像編集装置。
15. An image edit data storage unit for temporarily storing the information analyzed by the language analysis unit and the information searched by the image search unit, and the processing in the image edit unit is stored in the image edit data storage unit. The image editing apparatus according to claim 1, wherein the image editing apparatus is performed using stored information.
JP4004524A 1991-10-24 1992-01-14 Image editing device Expired - Lifetime JP2757645B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP4004524A JP2757645B2 (en) 1992-01-14 1992-01-14 Image editing device
US07/966,879 US5317508A (en) 1991-10-24 1992-10-26 Image editing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4004524A JP2757645B2 (en) 1992-01-14 1992-01-14 Image editing device

Publications (2)

Publication Number Publication Date
JPH05189531A true JPH05189531A (en) 1993-07-30
JP2757645B2 JP2757645B2 (en) 1998-05-25

Family

ID=11586438

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4004524A Expired - Lifetime JP2757645B2 (en) 1991-10-24 1992-01-14 Image editing device

Country Status (1)

Country Link
JP (1) JP2757645B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0657828A1 (en) * 1993-12-06 1995-06-14 Matsushita Electric Industrial Co., Ltd. An apparatus and a method for retrieving image objects
US6161108A (en) * 1997-04-28 2000-12-12 Justsystem Corp. Method and apparatus for managing images, a method and apparatus for retrieving images, and a computer-readable recording medium with a program for making a computer execute the methods stored therein
JP2018055605A (en) * 2016-09-30 2018-04-05 ジャパンモード株式会社 Innovation creation support program
JP2018060493A (en) * 2016-10-03 2018-04-12 ジャパンモード株式会社 Problem solution supporting system, problem solution supporting method, and problem solution supporting program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0657828A1 (en) * 1993-12-06 1995-06-14 Matsushita Electric Industrial Co., Ltd. An apparatus and a method for retrieving image objects
US5684999A (en) * 1993-12-06 1997-11-04 Matsushita Electric Industrial Co., Ltd. Apparatus and a method for retrieving image objects based on correlation with natural language sentence parameters
US6161108A (en) * 1997-04-28 2000-12-12 Justsystem Corp. Method and apparatus for managing images, a method and apparatus for retrieving images, and a computer-readable recording medium with a program for making a computer execute the methods stored therein
JP2018055605A (en) * 2016-09-30 2018-04-05 ジャパンモード株式会社 Innovation creation support program
JP2018060493A (en) * 2016-10-03 2018-04-12 ジャパンモード株式会社 Problem solution supporting system, problem solution supporting method, and problem solution supporting program

Also Published As

Publication number Publication date
JP2757645B2 (en) 1998-05-25

Similar Documents

Publication Publication Date Title
US7464096B2 (en) Method and apparatus for information mining and filtering
US11036753B2 (en) Creating mapping rules from meta data for data transformation utilizing visual editing
US6718218B1 (en) CAD data model with design notes
Alderson Meta-CASE technology
US5752021A (en) Document database management apparatus capable of conversion between retrieval formulae for different schemata
CN109976735B (en) Knowledge graph algorithm application platform based on web visualization
GB2578951A (en) Generating three-dimensional digital content from natural language requests
US8533140B2 (en) Method and system for design check knowledge construction
US20070168379A1 (en) Method and apparatus for cataloging screen shots of a program
JPH06119405A (en) Image retrieving device
CN113052023A (en) CAD drawing analysis method, device, equipment and storage medium
US5634054A (en) Document-based data definition generator
JP2001014166A (en) Device for generating ontology coordinate information
JP2006202308A (en) Graphical user interface method, graphical user interface device, and recording medium
JP2757645B2 (en) Image editing device
CN115329753B (en) Intelligent data analysis method and system based on natural language processing
JPH08305724A (en) Device for managing design supporting information document
Gallagher et al. Increasing the power of hypertext search with relational queries
JPH10187680A (en) Document repository device managed by word, sentence and grain degree of part
JPH11250073A (en) Method and device for retrieving semantic hierarchy of plural databases and medium for storing program therefor
Simard et al. TransSearch: A bilingual concordance tool
Akanksha et al. Reusing motions and models in animations
JPH10228488A (en) Information retrieval collecting method and its system
Cyre et al. Generating validation feedback for automatic interpretation of informal requirements
Joung et al. Generating a visual system with soft layout constraints