JPH09167165A - Dynamic image generation method - Google Patents

Dynamic image generation method

Info

Publication number
JPH09167165A
JPH09167165A JP7326756A JP32675695A JPH09167165A JP H09167165 A JPH09167165 A JP H09167165A JP 7326756 A JP7326756 A JP 7326756A JP 32675695 A JP32675695 A JP 32675695A JP H09167165 A JPH09167165 A JP H09167165A
Authority
JP
Japan
Prior art keywords
moving image
image data
vocabulary
drawing processing
processing time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7326756A
Other languages
Japanese (ja)
Inventor
Tetsuya Yagi
鉄也 八木
Toshiyuki Maeda
利之 前田
Kazuhiko Inada
和彦 稲田
Makoto Hirai
誠 平井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP7326756A priority Critical patent/JPH09167165A/en
Publication of JPH09167165A publication Critical patent/JPH09167165A/en
Pending legal-status Critical Current

Links

Landscapes

  • Stored Programmes (AREA)
  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

PROBLEM TO BE SOLVED: To generate a dynamic image with description using a natural language, to flexibly interpret especially the near-synonym of the natural language and to reduce time required for the plotting processing of the dynamic image even if the ability of system constitution is restricted. SOLUTION: A vocabulary dictionary 1 constituted by vocabulary items classified into hierarchies and a dynamic image picture database 2 constituted by dynamic image data classified into the hierarchies in accordance with the vocabulary items of the language dictionary 1 are provided. An input natural language sentence is analyzed and it is interpreted into the vocabulary items of the language dictionary 1. Dynamic image data corresponding to the vocabulary items are extracted from the dynamic image database 2. When corresponding dynamic image data lacks and the plotting processing time of dynamic image data exceeds a threshold, dynamic image data corresponding to the vocabulary item positioned higher than the vocabulary item in terms of the hierarchy is extracted and it is substituted.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、コンピュータを用
いた動画像の生成に関し、自然言語で書かれた文を入力
とし、動画像の生成を行う動画像生成方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a moving image generation method using a computer, and more particularly to a moving image generation method for inputting a sentence written in natural language to generate a moving image.

【0002】[0002]

【従来の技術】従来、計算機言語を用いて動画仕様を記
述する方法としては、特開平1−216483号公報に
開示されている。その方法では、計算機言語で使用可能
な制御構造と動画の制御構造を対応づけ、選択可能なコ
マンドをユーザに提示し、入力された動作仕様を順次格
納し、動画仕様を作成する。
2. Description of the Related Art Conventionally, a method of describing moving picture specifications using a computer language has been disclosed in Japanese Patent Laid-Open No. 1-216483. In this method, a control structure usable in a computer language and a control structure of a moving image are associated with each other, selectable commands are presented to the user, input operation specifications are sequentially stored, and a moving image specification is created.

【0003】[0003]

【発明が解決しようとする課題】従来の、計算機言語を
用いて動画像を記述する方法の場合、使用者が計算機言
語に習熟する必要があり、また、計算機言語の記述能力
により動画像の表現能力が制限を受けるといった問題が
ある。
In the case of the conventional method of describing a moving image using a computer language, the user needs to be familiar with the computer language, and the representation of the moving image is required due to the description ability of the computer language. There is a problem that the ability is limited.

【0004】本発明では、動画像を記述する言語とし
て、使用者があらためて習熟する必要がなく、また、高
い記述能力を持つ言語である自然言語を用いることを目
的とする。
In the present invention, it is an object of the present invention to use a natural language which is a language having a high descriptive ability without requiring the user to relearn as a language for describing a moving image.

【0005】また、自然言語の解析処理を行う場合に、
複雑な処理を要する問題の一つとして類義語の問題があ
る。
Further, when performing analysis processing of natural language,
One of the problems requiring complicated processing is the problem of synonyms.

【0006】本発明では、自然言語の類義語を柔軟に解
釈することを目的とする。また、動画像を描画して表示
する場合、システムのハードウェアおよびソフトウェア
構成の性能に制限され、スムーズな動作の表現が阻害さ
れるといった問題がある。
An object of the present invention is to flexibly interpret synonyms of natural language. Further, when a moving image is drawn and displayed, there is a problem in that the performance of the system hardware and software is limited, and smooth motion expression is hindered.

【0007】本発明では、動画像の描画処理に要する時
間を減少し、スムーズな動作の表現を行うことを目的と
する。
It is an object of the present invention to reduce the time required for the drawing process of a moving image and to express a smooth motion.

【0008】また、動画像生成の応用範囲が異なる場
合、一つの応用範囲に特化して作成したプログラムが他
の応用範囲に対して再利用困難であるといった問題があ
る。
Further, when the application range of the moving image generation is different, there is a problem that it is difficult to reuse the program created for one application range for another application range.

【0009】本発明では、動画像生成の根幹となるアル
ゴリズムを変更することなく、複数の応用範囲に適用す
ることを目的とする。
It is an object of the present invention to apply the present invention to a plurality of application ranges without changing the algorithm which is the basis of moving image generation.

【0010】[0010]

【課題を解決するための手段】上記の課題を解決するた
めに、本発明の動画像生成方法は、自然言語文を解析す
るために必要な情報を記憶し、階層的に分類された語彙
項目から成る言語辞書と、前記言語辞書の語彙項目に対
応して、階層的に分類された動画像データから成る動画
像データベースとを具備し、入力自然言語文を解析して
前記言語辞書の語彙項目に分解し、前記語彙項目に対応
する動画像データを前記動画像データベースから抽出す
るものである。
In order to solve the above-mentioned problems, the moving image generating method of the present invention stores information necessary for analyzing a natural language sentence and hierarchically classified vocabulary items. And a moving image database composed of moving image data hierarchically classified corresponding to the vocabulary items of the language dictionary, and analyzes the input natural language sentence to obtain the vocabulary items of the language dictionary. And moving image data corresponding to the vocabulary item is extracted from the moving image database.

【0011】また、本発明の動画像生成方法は、動画像
データの抽出において、言語辞書の語彙項目に対応する
動画像データが欠落している場合に、前記語彙項目より
階層的に上位に位置する語彙項目に対応する動画像デー
タを抽出して代用するものである。
Further, according to the moving image generating method of the present invention, when the moving image data corresponding to the vocabulary item of the language dictionary is missing in the moving image data extraction, the moving image data is hierarchically positioned higher than the vocabulary item. The moving image data corresponding to the vocabulary item to be extracted is extracted and used as a substitute.

【0012】また、本発明の動画像生成方法は、動画像
データの描画処理時間に敷居値を設け、動画像データの
抽出において、言語辞書の語彙項目に対応する動画像デ
ータの描画処理時間が敷居値を越える場合に、前記語彙
項目より階層的に上位または下位に位置する語彙項目に
対応する動画像データの中から、描画処理時間が敷居値
を越えないものまたは最も描画処理時間の短いものを抽
出して代用するものである。
Further, in the moving image generation method of the present invention, a threshold value is set for the drawing processing time of moving image data, and when the moving image data is extracted, the drawing processing time of moving image data corresponding to the vocabulary item of the language dictionary is set. If the threshold value is exceeded, the drawing processing time does not exceed the threshold value or the drawing processing time is the shortest among the moving image data corresponding to the vocabulary items hierarchically higher or lower than the vocabulary item. Is extracted and used as a substitute.

【0013】また、本発明の動画像生成方法は、動画像
データの描画処理時間に敷居値を設け、抽出された動画
像データの描画処理時間が敷居値を越える場合に、動画
像データの描画フレームを間引くものである。
Further, according to the moving image generation method of the present invention, a threshold value is set for the drawing processing time of moving image data, and when the drawing processing time of the extracted moving image data exceeds the threshold value, the moving image data is drawn. The frame is thinned out.

【0014】また、本発明の動画像生成方法は、複数の
異なる動画像データベースを具備し、動画像データの抽
出において、前記複数の異なる動画像データベースのう
ち一つを選択して用いるものである。
Further, the moving image generating method of the present invention comprises a plurality of different moving image databases, and in extracting moving image data, one of the plurality of different moving image databases is selected and used. .

【0015】[0015]

【発明の実施の形態】以下、本発明の実施の形態につい
て、図面を用いて説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0016】(実施の形態1)図1は本発明のシステム
構成図を示し、図1において、1は、自然言語文を解析
するために必要な情報を記憶し、階層的に分類された語
彙項目から成る言語辞書、2は、言語辞書1の語彙項目
に対応して、階層的に分類された動画像データから成る
動画像データベース、3は、入力自然言語文を解析して
言語辞書1の語彙項目に分解する自然言語解析部、4
は、語彙項目に対応する動画像データを動画像データベ
ース2から抽出する動画像データ抽出部である。階層的
に分類された語彙項目から成る言語辞書の例としては、
文献「国立国語研究所、分類語彙表、秀英出版、199
3」が公知の技術として開示されており、その一部を例
として図2に示す。また、一般的な自然言語文を解析す
るための辞書には膨大な語彙項目が含まれる。前記「分
類語彙表」にも総数三万以上の語が含まれる。従って、
言語辞書の語彙項目全てに対して動画像データを用意で
きるとするのは労力および時間の面から現実的ではな
い。ここでは、言語辞書の語彙項目のうち一部に対して
動画像データが対応づけられており、動画像データベー
スはそれらの動画像データを含むものとする。
(Embodiment 1) FIG. 1 shows a system configuration diagram of the present invention. In FIG. 1, reference numeral 1 stores information necessary for analyzing a natural language sentence, and is a hierarchically classified vocabulary. A language dictionary composed of items, 2 is a moving image database composed of moving image data hierarchically classified corresponding to the vocabulary items of the language dictionary 1, and 3 is an input natural language sentence analyzed to analyze the language dictionary 1. Natural language analysis unit that decomposes into vocabulary items, 4
Is a moving image data extraction unit that extracts moving image data corresponding to a vocabulary item from the moving image database 2. As an example of a language dictionary consisting of vocabulary items hierarchically classified,
Reference "National Institute for Japanese Language, Classification Lexicon, Hideei Publishing, 199"
3 ”is disclosed as a known technique, and a part thereof is shown in FIG. 2 as an example. Moreover, a dictionary for analyzing general natural language sentences contains a huge number of vocabulary items. The "classified vocabulary table" also includes a total of 30,000 or more words. Therefore,
It is not realistic from the viewpoint of labor and time that moving image data can be prepared for all vocabulary items in the language dictionary. Here, moving image data is associated with a part of the vocabulary items of the language dictionary, and the moving image database includes these moving image data.

【0017】図3は、以上のように構成されたシステム
が実行されるハードウェア構成図を示し、基本的に汎用
の計算機システムの構成と同じである。図3において、
11は、各文字が文字コードで表された自然言語文の入
力を受け付ける入力部、12は、動画像を表示する出力
部、13は、出力部12に表示される動画像データを記
憶するVRAM、14は、処理のためのプログラムやデ
ータを実行時に記憶する主記憶装置、15は、プログラ
ムやデータを蓄積しておく外部記憶装置、16は、外部
記憶装置15に記憶されているプログラムを主記憶装置
14に転送し実行するCPUである。
FIG. 3 shows a hardware configuration diagram for executing the system configured as described above, which is basically the same as the configuration of a general-purpose computer system. In FIG.
Reference numeral 11 is an input unit that receives an input of a natural language sentence in which each character is represented by a character code, 12 is an output unit that displays a moving image, and 13 is a VRAM that stores moving image data displayed on the output unit 12. , 14 is a main storage device that stores programs and data for processing at the time of execution, 15 is an external storage device that stores the programs and data, and 16 is a main storage device that stores the programs stored in the external storage device 15. It is a CPU that transfers to the storage device 14 and executes it.

【0018】以上のように構成されたシステムの動作を
図4のフローチャートを用いて説明する。
The operation of the system configured as described above will be described with reference to the flowchart of FIG.

【0019】ステップa1では、入力部11を通じて自
然言語文が入力される。入力される自然言語文は、各文
字が文字コードで表された文字列データである。なお、
上記の説明では自然言語文が入力部11を通じて入力さ
れるとしたが、システム構成上入力部11を持たず、自
然言語文を予め外部記憶装置15に蓄積しておく構成に
よっても、同様に実施可能である。
At step a1, a natural language sentence is input through the input unit 11. The input natural language sentence is character string data in which each character is represented by a character code. In addition,
Although the natural language sentence is input through the input unit 11 in the above description, the same operation can be performed by a configuration in which the input unit 11 is not included in the system configuration and the natural language sentence is stored in the external storage device 15 in advance. It is possible.

【0020】ステップa2では、自然言語解析部3にお
いて、ステップa1で入力された自然言語文を解析す
る。自然言語解析の処理の段階には、形態素解析、構文
解析といったものがあり、解析の結果として、自然言語
文は言語辞書1の語彙項目に分解される。形態素解析や
構文解析の技術、およびそれらの解析に用いる情報を言
語辞書の語彙項目に付与する技術については、文献「野
村浩郷、自然言語処理の基礎技術、電子情報通信学会、
1988」により、自然言語処理の分野における公知の
技術として開示されているため、ここでは説明を省略す
る。
In step a2, the natural language analysis unit 3 analyzes the natural language sentence input in step a1. There are morphological analysis and syntactic analysis at the processing stage of the natural language analysis, and as a result of the analysis, the natural language sentence is decomposed into vocabulary items of the language dictionary 1. For the techniques of morphological analysis and syntactic analysis, and the technique of adding information used for such analysis to the vocabulary items of the language dictionary, see "Hirogo Nomura, Basic Technology of Natural Language Processing, IEICE,"
1988 ”, it is disclosed as a known technique in the field of natural language processing, and therefore its explanation is omitted here.

【0021】ステップa3では、動画像データ抽出部4
において、ステップa2での解析の結果得られた言語辞
書1の語彙項目について、対応する動画像データを動画
像データベース2から抽出する。ここで、上に述べたよ
うに、言語辞書の語彙項目全てに対して動画像データが
対応づけられているわけではなく、語彙項目に対応する
動画像データが欠落している場合が考えられる。そのよ
うな場合に、注目している語彙項目を、言語辞書1にお
いて階層的により上位に位置する語彙項目に置き換え、
対応する動画像データを抽出して代用する。例として、
ステップa2での解析の結果として「いざる」という語
彙項目が得られたにも関わらず、「いざる」に対応する
動画像データが欠落していた場合に、図2によると、階
層的により上位に位置する「歩く」という語彙項目に置
き換え、「歩く」に対応する動画像データを抽出して代
用する。
At step a3, the moving image data extraction unit 4
At, in the lexical item of the language dictionary 1 obtained as a result of the analysis in step a2, corresponding moving image data is extracted from the moving image database 2. Here, as described above, moving image data is not associated with all vocabulary items in the language dictionary, and moving image data corresponding to vocabulary items may be missing. In such a case, the vocabulary item of interest is replaced with a vocabulary item that is hierarchically higher in the language dictionary 1,
The corresponding moving image data is extracted and used as a substitute. As an example,
When the vocabulary item “IZaru” is obtained as a result of the analysis in step a2, but the moving image data corresponding to “IZaru” is missing, according to FIG. It is replaced with the vocabulary item "Walking" located at the upper level, and the moving image data corresponding to "Walking" is extracted and substituted.

【0022】ステップa4では、ステップa3で抽出さ
れた動画像データを用いて動画像を生成し、出力部12
に出力する。
In step a4, a moving image is generated using the moving image data extracted in step a3, and the output unit 12
Output to

【0023】以上のことから、使用者があらためて習熟
する必要がなく、また、高い記述能力を持つ言語である
自然言語を用いて記述することにより動画像を生成する
ことができる。また、自然言語の階層的分類を利用する
ことにより、複雑な処理をすることなく自然言語の類義
語を柔軟に解釈することができる。
From the above, the user does not need to be proficient again and a moving image can be generated by describing using a natural language which is a language having high descriptive ability. Further, by utilizing the hierarchical classification of natural language, it is possible to flexibly interpret synonyms of natural language without performing complicated processing.

【0024】(実施の形態2)システム構成およびハー
ドウェア構成は実施の形態1と同様であるが、動画像デ
ータの描画処理時間に敷居値を設け、これを主記憶装置
14または外部記憶装置15に記憶しておく。この敷居
値はある固定された値でも良いし、その都度使用者が定
める、あるいはシステムが自ら負荷を計量しその結果を
反映する可変の値でも良い。
(Second Embodiment) The system configuration and the hardware configuration are the same as those of the first embodiment, but a threshold value is set in the drawing processing time of moving image data, and the threshold value is set to the main storage device 14 or the external storage device 15. Remember. This threshold value may be a fixed value, or may be set by the user each time, or may be a variable value by which the system measures the load by itself and reflects the result.

【0025】システムの動作を図5のフローチャートを
用いて説明する。ステップb1、ステップb2およびス
テップb3の動作については、実施の形態1のステップ
a1、ステップa2およびステップa3と同様である。
The operation of the system will be described with reference to the flowchart of FIG. The operations of step b1, step b2 and step b3 are the same as those of step a1, step a2 and step a3 of the first embodiment.

【0026】ステップb4では、ステップb3で抽出さ
れた動画像データについて、その描画処理時間が前記敷
居値を越えたかどうかを判定する。越えない場合には特
に何もしない。動画像データの描画処理時間が敷居値を
越えた場合、その動画像データの対応づけられた言語辞
書の語彙項目より階層的に上位または下位に位置する語
彙項目に対応する動画像データを抽出し、その中から、
描画処理時間が敷居値を越えないものまたは最も描画時
間の短いものを選択して代用する、もしくは、動画像デ
ータの描画フレームを間引いて描画処理時間が敷居値以
下になるようにして代用する。動画像データの描画処理
時間については、その都度ステップ数を計算する方法
や、予めステップ数を計算しておきそれを動画像データ
と対にして動画像データベースに記憶しておく方法など
により、容易に得られる。
At step b4, it is determined whether the drawing processing time of the moving image data extracted at step b3 exceeds the threshold value. If it does not exceed, do nothing. When the drawing processing time of moving image data exceeds the threshold, moving image data corresponding to the vocabulary item hierarchically positioned higher or lower than the vocabulary item of the language dictionary associated with the moving image data is extracted. From that,
The drawing processing time that does not exceed the threshold value or the one that has the shortest drawing time is selected for substitution, or the drawing frame of the moving image data is thinned out so that the drawing processing time becomes less than or equal to the threshold value. The drawing processing time of moving image data can be easily calculated by calculating the number of steps each time, or by calculating the number of steps in advance and storing it in the moving image database as a pair with the moving image data. Can be obtained.

【0027】ステップb5の動作については、実施の形
態1のステップa4と同様である。以上のことから、シ
ステムのハードウェアおよびソフトウェア構成の性能に
制限のある場合にも、動画像の描画処理に要する時間を
減少し、スムーズな動作の表現を行うことができる。
The operation of step b5 is the same as that of step a4 of the first embodiment. From the above, even when the performance of the hardware and software configuration of the system is limited, it is possible to reduce the time required for the drawing process of a moving image, and to express a smooth operation.

【0028】(実施の形態3)図6は本発明のシステム
構成図を示し、図6において、言語辞書1、自然言語解
析部3および動画像データ抽出部4は図1における同名
のシステム部品と同一のものであり、21、22、…、
2nは複数の異なる動画像データベースである。なお、
各動画像データベースには応用分野が設定されており、
この応用分野のうち一つを主記憶装置14または外部記
憶装置15に記憶しておく。この応用分野は使用者が自
由に選択設定できるものであることが望ましい。また、
これらの動画像データベースは一つ一つを動画像データ
の集合として見た場合に、包含関係にあっても良く、動
画像データベース2iが動画像データベース2jを部分
集合として包含するならば、2j中の動画像データは2
i中の動画像データとしても抽出可能である。
(Embodiment 3) FIG. 6 shows a system configuration diagram of the present invention. In FIG. 6, the language dictionary 1, the natural language analysis unit 3 and the moving image data extraction unit 4 are the same as the system components of FIG. Are the same, 21, 22, ...
2n is a plurality of different moving image databases. In addition,
Application fields are set in each moving image database,
One of the application fields is stored in the main storage device 14 or the external storage device 15. It is desirable that this application field can be freely selected and set by the user. Also,
These moving image databases may have an inclusion relation when viewed as a set of moving image data, and if the moving image database 2i includes the moving image database 2j as a subset, the The moving image data of 2
It can also be extracted as moving image data in i.

【0029】ハードウェア構成および動作を示すフロー
チャートは実施の形態2と同様である。なお、ステップ
b3およびステップb4において、動画像データの抽出
に用いる動画像データベースは、主記憶装置14または
外部記憶装置15に記憶された応用分野に従って、ま
た、システムのハードウェア性能を検知して描画処理の
負荷を計量することにより、複数の異なる動画像データ
ベース21、22、…、2nから一つが選択される。
The flowchart showing the hardware configuration and operation is the same as that in the second embodiment. In step b3 and step b4, the moving image database used for extracting the moving image data is drawn according to the application field stored in the main storage device 14 or the external storage device 15 and by detecting the hardware performance of the system. By measuring the processing load, one is selected from a plurality of different moving image databases 21, 22, ..., 2n.

【0030】例として、応用分野「娯楽」に対応する動
画像データベースと、応用分野「教育」に対応する動画
像データベースを対比させてみる。娯楽に供するシステ
ムへの応用例としてコントの動画像を生成するための自
然言語記述においては、図2に示す様々な足の動作をは
じめ、身体の各部位の動作を表す語彙項目について、動
画像データを用意する必要がある。対するに教育に供す
るシステムへの応用例として授業風景の動画像を生成す
るための自然言語記述においては、図7に示すような行
為を表す語彙項目について、動画像データを用意する必
要がある。ここで、2つの動画像データベースに共通し
て用意する必要のある動画像データがあった場合、その
動画像データを複数の動画像データベース間で重複して
持つ必要はなく、お互いに、共有すべき動画像データベ
ースを部分集合として包含することが可能である。ま
た、システムのハードウェア性能を検知して描画処理の
負荷を計量することにより、どの規模の動画像データベ
ースを適用するのが最適かを判断し、自動的に複数の異
なる動画像データベースから一つが選択される。
As an example, let us compare a moving image database corresponding to the application field "entertainment" with a moving image database corresponding to the application field "education". In the natural language description for generating the moving image of the control as an application example to the system for entertainment, the moving image of the vocabulary items representing the motions of various parts of the body including the motions of various feet shown in FIG. It is necessary to prepare the data. On the other hand, in a natural language description for generating a moving image of a lesson scene as an application example to a system for education, it is necessary to prepare moving image data for a vocabulary item representing an action as shown in FIG. Here, if there is moving image data that needs to be prepared in common in the two moving image databases, it is not necessary to have the moving image data in duplicate between a plurality of moving image databases, and it is possible to share it with each other. It is possible to include the power image database as a subset. In addition, by detecting the hardware performance of the system and measuring the load of drawing processing, it is possible to determine which scale of the moving image database is best to apply, and one of the different moving image databases is automatically selected. To be selected.

【0031】以上のことから、動画像生成の根幹となる
アルゴリズムを変更することなく、複数の異なる応用範
囲に適用することができ、動画像データの再利用が容易
になる。
From the above, it is possible to apply to a plurality of different application ranges without changing the algorithm that is the basis of moving image generation, and it is easy to reuse moving image data.

【0032】[0032]

【発明の効果】以上のように本発明によれば、使用者が
あらためて習熟する必要がなく、また、高い記述能力を
持つ言語である自然言語を用いて動画像を記述すること
ができる。
As described above, according to the present invention, it is not necessary for the user to relearn, and a moving image can be described by using a natural language which is a language having high descriptive ability.

【0033】また、本発明によれば、複雑な処理をする
ことなく自然言語の類義語を柔軟に解釈することができ
る。
Further, according to the present invention, it is possible to flexibly interpret synonyms of natural language without performing complicated processing.

【0034】また、本発明によれば、システムのハード
ウェアおよびソフトウェア構成の性能に制限のある場合
にも、動画像の描画処理に要する時間を減少し、スムー
ズな動作の表現を行うことができる。
Further, according to the present invention, even when the performance of the hardware and software configuration of the system is limited, the time required for the drawing process of a moving image can be reduced and a smooth motion can be expressed. .

【0035】また、本発明によれば、動画像生成の根幹
となるアルゴリズムを変更することなく、複数の異なる
応用範囲に適用することができ、動画像データの再利用
が容易になる。
Further, according to the present invention, it is possible to apply to a plurality of different application ranges without changing the algorithm which is the basis of the moving image generation, and the moving image data can be reused easily.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施の形態によるシステム構成図FIG. 1 is a system configuration diagram according to an embodiment of the present invention.

【図2】言語辞書における語彙項目の階層的分類の例
「足の動作」を示す図
FIG. 2 is a diagram showing an example of “foot movement” of hierarchical classification of vocabulary items in a language dictionary.

【図3】本発明の一実施の形態によるハードウェア構成
FIG. 3 is a hardware configuration diagram according to an embodiment of the present invention.

【図4】本発明の一実施の形態によるシステムの流れを
表すフローチャート
FIG. 4 is a flowchart showing a system flow according to an embodiment of the present invention.

【図5】本発明の一実施の形態によるシステムの流れを
表すフローチャート
FIG. 5 is a flowchart showing a system flow according to an embodiment of the present invention.

【図6】本発明の一実施の形態によるシステム構成図FIG. 6 is a system configuration diagram according to an embodiment of the present invention.

【図7】言語辞書における語彙項目の階層的分類の例
「教育」を示す図
FIG. 7 is a diagram showing an example “education” of hierarchical classification of vocabulary items in a language dictionary.

【符号の説明】[Explanation of symbols]

1 言語辞書 2 動画像データベース 3 自然言語解析部 4 動画像データ抽出部 11 入力部 12 出力部 13 VRAM 14 主記憶装置 15 外部記憶装置 16 CPU 1 Language Dictionary 2 Moving Image Database 3 Natural Language Analysis Unit 4 Moving Image Data Extraction Unit 11 Input Unit 12 Output Unit 13 VRAM 14 Main Storage Device 15 External Storage Device 16 CPU

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 G06F 15/62 340A (72)発明者 平井 誠 大阪府門真市大字門真1006番地 松下電器 産業株式会社内─────────────────────────────────────────────────── ─── Continuation of front page (51) Int.Cl. 6 Identification number Internal reference number FI Technical display location G06F 15/62 340A (72) Inventor Makoto Hirai 1006 Kadoma, Kadoma-shi, Osaka Matsushita Electric Industrial Co., Ltd. Within

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】 自然言語文を解析するために必要な情報
を記憶し、階層的に分類された語彙項目から成る言語辞
書と、前記言語辞書の語彙項目に対応して階層的に分類
された動画像データから成る動画像データベースとを具
備し、入力自然言語文を解析して前記言語辞書の語彙項
目に分解し、前記語彙項目に対応する動画像データを前
記動画像データベースから抽出し、動画像を生成して表
示することを特徴とする動画像生成方法。
1. A language dictionary which stores information necessary for analyzing a natural language sentence and is composed of vocabulary items hierarchically classified, and hierarchically classified corresponding to the vocabulary items of the language dictionary. A moving image database composed of moving image data, analyzing an input natural language sentence to decompose it into vocabulary items of the language dictionary, extracting moving image data corresponding to the vocabulary items from the moving image database, and moving images. A moving image generation method characterized by generating and displaying an image.
【請求項2】 動画像データの抽出において、言語辞書
の語彙項目に対応する動画像データが欠落している場合
に、前記語彙項目より階層的に上位に位置する語彙項目
に対応する動画像データを抽出して代用することを特徴
とする請求項1記載の動画像生成方法。
2. When extracting moving image data, when moving image data corresponding to a vocabulary item in a language dictionary is missing, moving image data corresponding to a vocabulary item hierarchically positioned higher than the vocabulary item. The method for generating a moving image according to claim 1, wherein is extracted and used as a substitute.
【請求項3】 動画像データの描画処理時間に敷居値を
設け、動画像データの抽出において、言語辞書の語彙項
目に対応する動画像データの描画処理時間が敷居値を越
える場合に、前記語彙項目より階層的に上位または下位
に位置する語彙項目に対応する動画像データの中から、
描画処理時間が敷居値を越えないものまたは最も描画処
理時間の短いものを抽出して代用することを特徴とする
請求項1または2記載の動画像生成方法。
3. A vocabulary value is set for the drawing processing time of the moving image data, and when the drawing processing time of the moving image data corresponding to the vocabulary item of the language dictionary exceeds the threshold value in the extraction of the moving image data, the vocabulary is used. From the moving image data corresponding to the vocabulary items hierarchically higher or lower than the item,
3. The moving image generation method according to claim 1, wherein a drawing processing time that does not exceed a threshold value or a drawing processing time that is the shortest is extracted and substituted.
【請求項4】 動画像データの描画処理時間に敷居値を
設け、抽出された動画像データの描画処理時間が敷居値
を越える場合に、動画像データの描画フレームを間引く
ことを特徴とする請求項1または2記載の動画像生成方
法。
4. A threshold value is set for the drawing processing time of the moving image data, and when the drawing processing time of the extracted moving image data exceeds the threshold value, drawing frames of the moving image data are thinned out. Item 1. The moving image generation method according to Item 1 or 2.
【請求項5】 動画像データに、描画処理時間の指標と
して計算ステップ数の期待値を付随させて動画像データ
ベースに記憶しておくことを特徴とする請求項3または
4記載の動画像生成方法。
5. The moving image generation method according to claim 3, wherein the moving image data is stored in the moving image database with an expected value of the number of calculation steps as an index of the drawing processing time. .
【請求項6】 動画像データの描画処理時間を描画処理
実行の直前に計量することを特徴とする請求項3または
4記載の動画像生成方法。
6. The moving image generation method according to claim 3, wherein the drawing processing time of the moving image data is measured immediately before execution of the drawing processing.
【請求項7】 システムのハードウェア性能を検知して
描画処理に要する負荷を計量することにより、自動的に
動画像データの描画処理時間の敷居値を決定することを
特徴とする請求項3〜6のいずれかに記載の動画像生成
方法。
7. The threshold value of the drawing processing time of moving image data is automatically determined by detecting the hardware performance of the system and measuring the load required for the drawing processing. 7. The moving image generation method according to any one of 6 above.
【請求項8】 複数の異なる動画像データベースを具備
し、動画像データの抽出において、前記複数の異なる動
画像データベースのうち一つを選択して用いることを特
徴とする請求項1〜7のいずれかに記載の動画像生成方
法。
8. The method according to claim 1, further comprising a plurality of different moving image databases, wherein one of the plurality of different moving image databases is selected and used in extracting the moving image data. The moving image generation method according to claim 1.
【請求項9】 システムのハードウェア性能を検知して
描画処理に要する負荷を計量することにより、自動的に
複数の異なる動画像データベースのうち一つを選択して
用いることを特徴とする請求項8記載の動画像生成方
法。
9. A method for automatically selecting and using one of a plurality of different moving image databases by detecting the hardware performance of the system and measuring the load required for drawing processing. 8. The moving image generation method described in 8.
JP7326756A 1995-12-15 1995-12-15 Dynamic image generation method Pending JPH09167165A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7326756A JPH09167165A (en) 1995-12-15 1995-12-15 Dynamic image generation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7326756A JPH09167165A (en) 1995-12-15 1995-12-15 Dynamic image generation method

Publications (1)

Publication Number Publication Date
JPH09167165A true JPH09167165A (en) 1997-06-24

Family

ID=18191340

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7326756A Pending JPH09167165A (en) 1995-12-15 1995-12-15 Dynamic image generation method

Country Status (1)

Country Link
JP (1) JPH09167165A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005071616A1 (en) * 2004-01-27 2005-08-04 Matsushita Electric Industrial Co., Ltd. Image formation device and image formation method
US8810583B2 (en) 2009-03-17 2014-08-19 Samsung Electronics Co., Ltd. Apparatus and method for creating animation from web text
US9020824B1 (en) 2012-03-09 2015-04-28 Google Inc. Using natural language processing to generate dynamic content

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005071616A1 (en) * 2004-01-27 2005-08-04 Matsushita Electric Industrial Co., Ltd. Image formation device and image formation method
JP2005251174A (en) * 2004-01-27 2005-09-15 Matsushita Electric Ind Co Ltd Image formation device and image formation method
US7797330B2 (en) 2004-01-27 2010-09-14 Panasonic Corporation Image formation device and image formation method
US8810583B2 (en) 2009-03-17 2014-08-19 Samsung Electronics Co., Ltd. Apparatus and method for creating animation from web text
US9020824B1 (en) 2012-03-09 2015-04-28 Google Inc. Using natural language processing to generate dynamic content

Similar Documents

Publication Publication Date Title
JP3435175B2 (en) Sign language learning device
CN110446063B (en) Video cover generation method and device and electronic equipment
KR950001505A (en) Database Search System with Enhanced User Interface
JP2004110161A (en) Text sentence comparing device
JP2004110200A (en) Text sentence comparing device
JPH08241192A (en) Apparatus and method for generation of interface corresponding to code segment
CN111401033A (en) Event extraction method, event extraction device and electronic equipment
CN112559711A (en) Synonymous text prompting method and device and electronic equipment
JP2011238159A (en) Computer system
JPH09167165A (en) Dynamic image generation method
Wah An improved approach for web page quality assessment
Dokhani et al. Visually Enhanced E-learning Environments Using Deep Cross-Medium Matching
CN113705251A (en) Training method of machine translation model, language translation method and equipment
US10628632B2 (en) Generating a structured document based on a machine readable document and artificial intelligence-generated annotations
JP2012088930A (en) Input information analyzing device
CN111968624A (en) Data construction method and device, electronic equipment and storage medium
Sevilla et al. Tools for the Use of SignWriting as a Language Resource
Kettebekov et al. Toward multimodal interpretation in a natural speech/gesture interface
CN111783418B (en) Chinese word meaning representation learning method and device
US20060048126A1 (en) Method and a system thereof for generating a homepage content file capable of dynamically linking with a plurality of on-demand knowledge bases
WO2023166746A1 (en) Summary generation device, summary model learning device, summary generation method, summary model learning method, and program
JPH03127266A (en) Inter-word relation editing/learning device for mechanical translating device
JP3451630B2 (en) Computer-based education support system
JP3256614B2 (en) Information presentation device
Wachowiak Introduction to Text Analysis In R