JPH04264972A - 自然言語処理装置及びそれを利用した動画形成装置 - Google Patents

自然言語処理装置及びそれを利用した動画形成装置

Info

Publication number
JPH04264972A
JPH04264972A JP3026323A JP2632391A JPH04264972A JP H04264972 A JPH04264972 A JP H04264972A JP 3026323 A JP3026323 A JP 3026323A JP 2632391 A JP2632391 A JP 2632391A JP H04264972 A JPH04264972 A JP H04264972A
Authority
JP
Japan
Prior art keywords
natural language
action
sentence
state
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP3026323A
Other languages
English (en)
Inventor
Nobuhiko Funato
信彦 舟渡
▲吉▼川 耕平
Kohei Yoshikawa
Keitaro Hanada
恵太郎 花田
Masayuki Miyamoto
雅之 宮本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP3026323A priority Critical patent/JPH04264972A/ja
Publication of JPH04264972A publication Critical patent/JPH04264972A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Machine Translation (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、自然言語処理装置に係
り、特にコンピュータによる動画(コンピュータアニメ
ーション)の生成に利用できる自然言語処理装置及びそ
れを利用した動画形成装置に関する。
【0002】
【従来の技術】自然言語処理装置としては、知的な計算
機システム(人工知能)の構築を目指した自然言語によ
る対話システム、自然言語そのものを処理の対象とした
多国語間翻訳システムなどが多数開発されている。
【0003】一般に言語解析は、形態素解析/構文解析
/意味解析の各フェーズからなり、形態素/構文に関し
て一つの文だけを対象に進める方法がほぼ確立している
【0004】意味解析については、複数の文のまとまり
を対象として行う必要性があり、文脈解析の研究として
進められているが、有効な方法は未だ発表されていない
【0005】例えば、日本語解析に以下のような文法規
則を用いて、形態素/構文解析を行うことができる。
【0006】文→述部、 文→主部+述部、 主部→名詞句+助詞、 名詞句→代名詞、 名詞句→名詞、 述部→動詞句、 述部→副詞句+動詞句、 動詞句→動詞、 動詞句→動詞幹+動詞、 動詞幹→動詞+助詞、 副詞句→文+助詞、 副詞句→名詞句+助詞 上記の文法規則を用いた場合には、名詞、代名詞、動詞
、助詞を単語の文法カテゴリー(品詞)として作成した
辞書を用いて形態素解析を行う。
【0007】一例として、「彼が来るまで待っている」
という文の解析の例を示す。
【0008】     文−主部−名詞句−代名詞         
               彼         
     助詞                  
                が        
述部−副詞句−文−述部−動詞句−動詞       
 来る                      
助詞                       
   まで              述部−動詞句
−動詞幹−動詞            待っ    
                         
       助詞            て   
                         
動詞句−動詞            いる次に、意味
解析/文脈解析について各種のモデル(データ構造及び
その操作方式)が提案されているが、言語学の研究から
発展したものと、計算機システムの開発に当たってその
応用分野に依存したものとの2つに大別できる。
【0009】前者の代表的なものとして単語の意味素性
の分類に基づくものがある。これは単語の持つ意味を、
いろいろな概念(素性)を使って特徴づけるもので、例
えばHUMAN,ADULT,MALEの素性をもとに
man:    +HUMAN,+ADULT,+MA
LEwoman:+HUMAN,+ADULT,−MA
LEboy:    +HUMAN,−ADULT,+
MALEgirl:  +HUMAN,−ADULT,
−MALEのように語の意味を分類する。
【0010】これを拡張して対象分野に依存した概念の
体系を作り、使う単語をすべて分類して表現し、これら
を知識として意味解析に用いようとする研究のもっとも
有名なものにフイルモア(Fillmore)により提
案された格(case)文法がある。
【0011】格文法とは、言語の種類やその表層的な構
造に依存しない、意味的な格(深層格と呼ぶ)の体系を
作り、文の意味を動詞を中心とする格構造でとらえるも
のである。
【0012】例えば、「太郎が、レストランでステーキ
を食べる」という文(行為)は 単語知識:太郎  is−a  HUMANHUMAN
:  +animate ステーキ:  +solid  foodレストラン:
  +location 格構造:(食べる(agent(animate  ガ
格)) (object(solid  food  ヲ格))
(location(loc  デ格))(instr
ument(inst  デ格))…  …  …  
) これらをもとに、 (食べる  (agent  太郎) (object  ステーキ) (location  レストラン))という意味を持
つと表現される。
【0013】後者の代表的な研究としては、動作や状態
を概念的に分類して体系化し、文の述べる内容をその体
系の中にあてはめて表現する概念依存構造がある。この
研究は、シャンク(Schank)により行われ、15
の概念カテゴリーによって一つの文の意味を表現し、そ
れら概念の依存関係、因果関係、表現された時制、概念
間の推移などを図的に表現し、文章全体の意味を表現し
ている。
【0014】言語学と人工知能の両方の流れをくむ研究
としては、イベント及び状態という概念を基礎に、動作
そのものの持つ意味、動作間の関係、つながりを表現し
、イベント/状態を用いて表現するネットワーク構造を
用いる推論機構がある。この推論機構は、アルタ−マン
(Alterman)によって提案されている。
【0015】アルタ−マンは、対象とする動作を、ネッ
トワークのノードで表現し、ノード間を結ぶアークの種
類によって、動作概念の分解及び統合、階層化、動作間
の時間的前後関係、因果的関係を表現し、入力文章の表
す概念をこのネットワーク内にマッピングすることによ
り意味解析結果を得る方法を提案している。
【0016】以下、例文を参照して説明する。
【0017】例1)ボールが転がっていた。太郎はそれ
を拾った。
【0018】ボールが転がっていた。太郎はそれを止め
た。
【0019】例2)太郎が花子の方に歩き始めた。花子
は太郎を止めた。
【0020】太郎が花子の方に倒れ始めた。花子は太郎
を止めた。
【0021】例3)太郎は手袋をみつけた。太郎はそれ
を机に置いた。
【0022】太郎は手袋をはずした。太郎はそれを机に
置いた。
【0023】いずれの場合も全く同じ形の文が含まれ、
さらにそれ以外の部分でも形態素/構文の上では同じ解
析結果が得られる。しかし、これらの文の集まりは、そ
れぞれ異なる意味内容を持つと考えるのが妥当である。
【0024】例1の場合、前半の文が「転がっていると
いう動作状態」を指すのか、「転がったあとの静止状態
」を指すのかは、後半の文により異なっている。例2の
場合、結果が「太郎は少しは歩いた」のと「太郎は倒れ
なかった」という動作終了後の世界の状態が前半の文の
動作によって異なってくる。例3の場合、文そのものの
意味以外に二つの文の表現する動作の間に「手袋を拾い
上げる」という動作の有無が意味の差となって現れてい
る。
【0025】従来の言語解析の方法では、個々の文の意
味の間で、参照可能なつながりとしては、単語しか存在
していないので、上記例1や例2の文の解釈を厳密に行
うことができなかった。また動画シナリオのような自然
言語を解釈する際に上記例3のような動作の補間などの
処理ができなかった。
【0026】上述の言語解析の方法を応用した1つとし
て、コンピュ−タによる動画の生成がある。近年、ビデ
オ機器の普及に伴って画像や動画情報を用いた効果的な
情報伝達が可能になり、ビデオテープ等の動画メディア
による情報伝達のニーズが高まっており、自然言語によ
るプログラミング技術やコンピュータグラフィクス技術
の進歩により、計算機を用いて画像や動画(コンピュー
タアニメーション)の生成が可能な動画生成装置が注目
されている。
【0027】その一例として、Personal LI
NKS  (IMAGICA社製)のように、ハードウ
ェアを付加すればパーソナルコンピュータ上で画像や動
画の生成ができるものが既に市販されている。
【0028】コンピュータグラフィクスを用いた方法で
は、計算機内に与えられた人や物のデータ或いは視点や
光源データなどに基づいて1コマの画像を生成し、その
作業を繰り返すことにより動画を生成する。
【0029】これにより実写では得られない架空世界の
映像を得ることができ、また、実写では危険性が高い場
合やコストが高い場合には、シミュレーションの映像を
得ることができる。
【0030】画像用あるいは動画用のデータ作成の1つ
の方法としては、グラフィックディスプレイ装置やタブ
レット装置を用いて行うか、数値情報を端末装置から直
接入力することにより行う方法がある。この方法によれ
ば、画像の生成及びデータの修正の繰り返しを対話的に
行なうことにより、所望のコンピュータアニメーション
を作成できる。
【0031】前記のLINKS を用いた場合には、形
状データ作成ツール、表面マッピングデータ作成ツール
など用途に応じたデータをディスプレイ装置やタブレッ
ト装置を使用して作成するためのプログラムツール群が
用意されている。
【0032】画像用あるいは動画用のデータの作成の他
の方法としては、動画を、動き(動作)を表現したい登
場物の属性や登場物間の関係の変化として捉えてこれら
の属性や関係の変化をプログラムにより記述して生成す
る方法がある。
【0033】ここで、登場物とは、ストーリに登場する
人、物、視点、光源、背景を表すものである。
【0034】このように動きをプログラムによって記述
し、そのプログラムの実行結果として動画を生成する方
法として、アズアズ[ASAS(Reynolds.C
.W.:Computer Animation wi
th Scripts and Actors.Com
puter Graphics.Vol.16,No.
3,pp.289−296,1982)]、パラダイス
[Paradise(内木,丸一,所:行動シミュレー
ションに基づいたアニメーションシステムParadi
se,コンピュータソフトウェア,Vol.4,No.
2,pp.24−38,1987)]、イ−ジ−[Ea
sy(宮本,花田,吉川:動画生成のための平行動作モ
デル、情報処理学会ソフトウェア工学研究会、Col 
.90,No.62,pp.51−58,1990)]
などが提案されている。
【0035】上記のアズアズ、パラダイス及びイ−ジ−
は、表現能力に微妙に差異があるが、動きを登場物の属
性や登場物間の関係の変化であると捉えて、これらの変
化をプログラムによって記述することで動画を生成する
という点では共通している。
【0036】上記のようなプログラムにより動画の生成
を行なう方法は、個別にデータ作成を行なう方法に比べ
てコンピュータアニメーションで表したいストーリをよ
り直接的に表現できるという利点がある。
【0037】
【発明が解決しようとする課題】上述の従来の自然言語
を用いたプログラムによる動画生成の方法において、上
述した格文法を用いる意味解析では、名詞(もの)の概
念については分類を行っているが、動作の概念について
は名詞概念を結び付けるためのラベルとして用いるのみ
で、現実世界の時間軸上での動作そのものの持つ意味を
表現していないという問題点がある。
【0038】また、上述した概念依存構造では、動作の
内容を、ひとかたまりとして表現することをその目的と
しており、ものの持つ意味を有効に使っておらず、複数
の動作の間での開始/継続/終了などの時点間の関係を
明らかにできないという問題点がある。
【0039】更に、上述したアルターマンの方法では、
動作主体、客体などの単語の意味を、単なるラベル(文
字列)として扱っており、ものの意味である性質や特性
は、動作をもとにしてしか表現できず、また、ネットワ
ークによって関連付けている情報しか出力できないので
汎用性が無いという問題点がある。
【0040】上述の従来の動画生成装置においては、計
算機内に画像用あるいは動画用のデータを作成すること
が容易ではないという問題点がある。
【0041】また、データ作成システムの操作や、動画
記述言語のプログラミングに習熟すること自体が容易で
なく、映像の表現能力と同時にシステムの操作能力を有
した専門のオペレータを必要とし、そのため、コンピュ
ータアニメーションの製作コストに占めるデータ作成の
コストの割合が非常に高く、全体の生産コストが軽減せ
ず、情報伝達手段としてのコンピュータアニメーション
の大衆化が阻害されているという問題点がある。
【0042】本発明は、上述の従来の自然言語を用いた
プログラムによる動画生成の方法における問題点に鑑み
、単語の持つ意味を表現することにより動作の内容を表
現し、動作を更に時間的に分解して、複数の動作間の関
係を明確化して意味/文脈解析ができる自然言語処理装
置を提供する。
【0043】更に、本発明は、上述の従来の動画生成装
置における問題点に鑑み、上記複数の動作間の関係を明
確化して意味/文脈解析ができる自然言語処理装置を用
いた動画生成装置を提供する。
【0044】
【課題を解決するための手段】本発明は、形態素の解析
のための単語辞書及び構文規則を表現する文法辞書を使
って一文単位で自然言語の解析を行う構文解析手段と、
自然言語の動詞が意味する動作の前の状態、動作中の状
態、動作後の状態をそれぞれ表現する動作概念辞書と、
動作概念辞書を検索して状態を管理する機能を有する動
作解析手段とを備えており、動作解析手段は、構文解析
手段からの出力に基づいて動作概念辞書の検索機能、対
象世界での動作の補間及び各状態間の整合を行ない対象
世界における動作の開始及び終了の時点間の関係を抽出
する自然言語処理装置によって達成される。
【0045】また、本発明は、自然言語処理装置と、自
然言語処理装置から出力されたデータに対して動画化す
るための情報を補充する推論手段と、推論手段によって
補充された情報に基づいて動画の生成を制御する動画生
成制御手段と、動画生成制御手段の出力に応じて画像を
生成する画像生成手段とを備えており、動画生成制御手
段は、自然言語処理装置に入力された文章によって表現
される画像データをコマ毎に画像生成手段に繰り返して
送る動画生成装置によって達成される。
【0046】
【作用】本発明の自然言語処理装置では、構文解析手段
は形態素の解析のための単語辞書及び構文規則を表現す
る文法辞書を使って一文単位で自然言語の解析を行い、
動作概念辞書は自然言語の動詞が意味する動作の前の状
態、動作中の状態、動作後の状態をそれぞれ表現し、動
作解析手段は動作概念辞書を検索して構文解析手段から
の出力に基づいて動作概念辞書の検索機能、対象世界で
の動作の補間及び各状態間の整合を行ない対象世界にお
ける動作の開始及び終了の時点間の関係を抽出して状態
を管理する。
【0047】また、本発明の動画生成装置では、推論手
段は自然言語処理装置から出力されたデータに対して動
画化するための情報を補充し、動画生成制御手段は推論
手段によって補充された情報に基づいて動画の生成を制
御して自然言語処理装置に入力された文章によって表現
される画像データをコマ毎に画像生成手段に繰り返して
送り、画像生成手段は動画生成制御手段の出力に応じて
画像を生成する。
【0048】
【実施例】以下、図面を参照して本発明の自然言語処理
装置及びその自然言語処理装置を備えた動画生成装置に
おける実施例を詳述する。
【0049】なお、プログラミング言語LISPによる
表現形式を用いて本発明の自然言語処理装置を説明する
【0050】まず、動作を表す文章としてアニメーショ
ンシナリオ文章の解析の例を用いて説明する。
【0051】図1は、本発明の自然言語処理装置の一構
成を示す。
【0052】図に示す自然言語処理装置は、自然言語に
よって記述されたアニメーションシナリオ文を読んで、
意味解析の結果として動作の時間的な前後関係を表現す
る出力を得るように構成されている。
【0053】図1の自然言語処理装置は、入力部10、
言語解析部11、単語辞書部12、文法規則部13、格
構造/アスペクト部14、動作解析部15、オブジェク
トデータ部16、関係データ部17、動作辞書部18及
びネットワーク出力部19から構成されている。
【0054】次に、上述の自然言語処理装置の動作を説
明する。
【0055】入力部10は日本語文を入力し、言語解析
部11は入力部10に入力された日本語文を単語辞書部
12、文法規則部13を参照して一文単位で形態素/構
文解析してその意味を解析結果として出力し、格構造/
アスペクト部14は言語解析部11から出力された解析
結果を格構造とアスペクトとにより表現して動作解析部
15に送る。動作解析部15は、格構造/アスペクト部
14からの出力を順番に取り込んで仮想的な時点(イベ
ント)を生成し、オブジェクトデータ部16、関係デー
タ部17、動作辞書部18に基づいて各時点における世
界の状態及び各時点間の時間的な前後関係を推論してネ
ットワーク出力部19から出力する。
【0056】次に、図1の自然言語処理装置に用いられ
ている本実施例の自然言語処理方法を詳述する。
【0057】文章で表現しようとする対象世界における
ある瞬間の状態は、 (A)オブジェクト(登場物)が持つ属性(B)属性の
値 (C)オブジェクト間の関係 により記述される。
【0058】この対象世界でオブジェクトの行う動作は
、以下の3つであるとする。
【0059】(a)オブジェクトが持つ属性の値の変化
(b)オブジェクト間にある(位置関係を含む)関係の
変化 (c)主体性を持つオブジェクトが引き起こす他のオブ
ジェクトの状態変化 時間関係の処理の概要を図2に示す。図2に示すように
、動作の実行には一定の時間が必要であると考えて、一
つの動作を動作の開始以前、動作の途中、動作の終了後
の3つの状態20で表現し、前/中/後の3つの状態か
らなる一つの動作をプロセス21と呼ぶ。
【0060】入力部10(図1参照)に入力された日本
語文(以後、文と称する)22は、一つのプロセス21
の全部または一部と、そのプロセス21の中で文が観測
している時点(開始/最中/終了/完了)23とを合わ
せて表現するものと捕えることができる。
【0061】文22がプロセス21のどの時点または部
分を表すかを、文22の持つアスペクトと言う。プロセ
ス21には動作の開始及び終了というイベント(時点)
23が付随する。
【0062】図1に示す自然言語処理装置は、入力部1
0から複数の文を入力として読み込み、プロセスの開始
/終了、即ち状態が変化する瞬間のイベントと、その変
化の内容及びプロセス観測の瞬間(プロセスのどの時点
を文が述べたかを表す時点)のイベントとを加えた各イ
ベント間の時間的な前後関係を表現するネットワークを
、上述したネットワーク出力部19から出力する。
【0063】時間の前後関係としては、アフター(AF
TER)/ビフォア(BEFORE)/イコール(EQ
UAL)を考える。
【0064】共通の性質を持つオブジェクトをまとめる
ために、クラス(オブジェクトの型であり分類と考える
こともできる)を作って管理する。
【0065】オブジェクトが、ある型を持つときにその
クラスに属するという。あるクラスに属するオブジェク
トをそのクラスのインスタンスと呼ぶ。
【0066】以下、各表現を示す。
【0067】1.クラスの表現 形式:クラス名、属性名による入れ子リスト((クラス
名(isa(クラス名)) (属性名(ファセット  値) (ファセット  値)) …                ))(     
         …               
 )) クラス名: 任意の文字列。ただし、ユニーク。
【0068】isaがないクラスはルートクラスとみな
す。
【0069】属性名:任意の文字列。
【0070】値:一つ以上の任意のアトムによるリスト
【0071】ファセット:値の設定、値に対する制約。
【0072】value:デフォールト値の設定インス
タンスに属性と値の設定がない時に使用する。
【0073】selection:値の候補のリスト値
となる可能性のあるものを列挙する。
【0074】class:クラス名 値が何らかのオブジェクトであって、かつ指定されたク
ラスに属するという制約を表現する。
【0075】クラスは階層構造で表現する。階層構造に
おいて下のクラスに指定されていない属性及び値は、上
のクラスの属性及び値(ただしvalueファセットの
み)を継承する。
【0076】以下に、全てのオブジェクトを4種類(4
つのルートクラス:HUMAN/OBJECT/SPA
CE/PART  OF  HUMAN)に分類した階
層構造の表現を示す。
【0077】*CLASSES* (HUMAN (parts (class (PAR
T  OF  HUMAN)))(body (sel
ection (stand lie walking
))(OBJECT) (SPACE) (PART OF HUMAN) (MUMINS (isa (HUMAN))(bod
y (selection (stand sit l
ie)))(STAIR (isa (DIRECTE
D   PATH)))(CUBE (isa (OB
JECT)))(EQUIPMENT (isa (O
BJECT)))(PATH (isa (SPACE
)))(DIRECTED PATH (isa (P
ATH)))(ROOM (isa (SPACE))
)(BED (isa (CUBE)) (size (value (LL)))(shape
 (value (CARPET))))(SHELF
 (isa (CUBE))(size (value
 (L)))(dirX (value (t)))(
dirY (value (t)))(dirZ (v
alue (t)))(inside (ON))) (CHAIR (isa (CUBE))(size 
(value (L))))(BOOK (isa (
CUBE))(size (value (S)))(
state (value (close))(sel
ection (open close))))(WI
NDOW (isa (EQUIPMENT))(st
ate (value (close))(selec
tion (open middle close))
))2.オブジェクトの表現   オブジェクトは、あるクラスのインスタンスとして
表現する。
【0078】形式:オブジェクト名、属性名による入れ
子リスト ((オブジェクト名  (属性名(値))(    …
      ) …                ))(     
       … ) ) オブジェクト表現の例を示す。
【0079】*OBJECTS* (mumin1 (instance−of (MUM
INS))(name (ムーミン)) (body (lie))) (room1 (instance−of (ROOM
))(name (部屋))) (bed1 (instance−of (BED))
(name (ベッド))) (shelf1 (instance−of (SHE
LF))(name (本棚))) (chair1 (instance−of (CHA
IR))(name (いす))) (book1 (instance−of (BOOK
))(name (本)) (state (close))) (window1 (instance−of (WI
NDOW))(name (窓)) (state (open))) 3.関係の表現形式 形式:relation relation:(関係名  オブジェクト名  エ
リア名)または (関係名  オブジェクト名  オブジェクト名)関係
名:任意の文字列 エリア名:(OPERATOR  オブジェクト名)O
PERATOR:任意の文字列 例)  (be on mumin1 (center
 room1))(be in mumin1 roo
m1)(holding mumin1 book1)
(be at mumin1 shelf1)(fac
e to mumin1 book1)4.動作辞書の
表現形式 動作名、動作に参加するオブジェクト、動作内容の3つ
を用いて記述する。動作内容は動作の前/中/後の状態
を記述する。
【0080】形式:(動作名  ((caseC) (
pre−conditions) (conditions) (post−conditions))(      
.    .    .    )(      . 
   .    .    ))のリストcaseC 
: (label クラス名)のリスト pre−condition, condition,
 post−condition:relation 
または object 制約からなるリストobjec
t制約: (クラス名  (属性名(値) (属性名(値) …        ) 例) *ACT−DICT* (walk ( ((ga HUMAN) (wo S
PACE#1)(kara SPACE#2) (ni
 SPACE#3)((HUMAN (body (s
tand)))(be on HUMAN SPACE
#2))((be on HUMAN SPACE#1
)(HUMAN (body (walking)))
)((be on HUMAN (SPACE#3)(
HUMAN (body (stand)))))( 
   .  .  .  .  .   ))(  .
  .  .  .    )(    .    .
    .    .       )caseC の
表現で、クラス名に#+数字がついたものは、pre−
condition, condition, pos
t−conditionの記述で、同じクラスに属する
ものを区別するために用いる。
【0081】#+数字をはずしたクラスに属するオブジ
ェクトがその格に来ることを表す。
【0082】5.言語解析部の出力形式形式:INPU
Tのリスト INPUT :(case0 (アスペクト動作名))
case0 :(lebel c−object)のリ
ストlebel :格を表すラベル(任意の文字列)c
−object:オブジェクト名 または (OPERATOR オブジェクト名)アスペクト:S
TART/END/PROGRESS/COMPLET
E のいずれか。
【0083】動作名:動作辞書の見出し語例)入力文が
次のようであった時、その出力の例を下に示す。
【0084】ムーミンが寝ている: ムーミンが目を開ける: ベッドから降りる: たなに向かって歩き始める: 本を開ける: ドアを開ける: 部屋の中を歩いている: 窓の方に歩いている (((ga mumin1)) (COMPLETE 
lie))(((ga mumin1) (wo ey
e1)) (END open))(((ga mum
in1) (kara bed1)) (END go
down))(((ga mumin1) (ni s
helf1)) (START walk towar
d))(((ga mumin1) (wo book
1)) (END open))(((ga mumi
n1) (wo door1)) (END open
))(((ga mumin1) (wo (insi
de room1)))(PROGRESS walk
))(((ga mumin1) (ni (arro
und window1))) (PROGRESS 
walk)) 6.動作解析部の出力形式 動作解析部15(図1参照)は、図3に示すように文構
造体(SENTENCE構造体)31、プロセス構造体
(PROCESS 構造体)32及びイベント構造体(
EVENT 構造体)33の三つを出力する。この三つ
の構造体31,32,33は互いにポインタ34により
関係付けられる。
【0085】以下、各構造体31,32,33の構成を
示す。
【0086】sentence構造体31:(defs
truct sentencecase−frame; process ;process 構造体other
 ;sentence構造体) case−frame: 言語解析出力(INPUT)の−object を、辞
書引き結果のcaseC のうち、代入できる部分だけ
置き換えたもの例)((A MUMIN) (SP B
ED) (DP space) (PP path))
この構造体を入力文順に並べて *sentence*
 というリストで保持する。
【0087】process 構造体32:(defs
truct processid ; non−neg
ative unique integar, ser
ial−number.sentence ;  プロ
セスの基となる文のsentence構造体start
−event ; event 構造体end−eve
nt ; event 構造体prepare−eve
nt ; event 構造体observed ev
ent ; event構造体) event 構造体33: (defstruct event id ; non−negative unique 
integar, serial−number.pr
ocess ; イベントの基となるプロセスのpro
cess 構造体 contents ; ex. ((MUMIN (f
igure (STAND)))(MUMIN (mo
ve (OFF)))(be−on MUMIN sp
ace))before ;  イベント構造体のリス
トafter ; イベント構造体のリストequal
 ; イベント構造体のリスト) contents: RELATIONまたはOBJECT制約のリスト。
【0088】(そのイベントが起こす変化後の世界の属
性制約と関係表現)nil 、または予約語obser
vedの場合も含む。
【0089】(予約語が入ったイベントをObserv
edEvent と呼ぶ。ObservedEvent
 は入力文1文につき、ひとつずつ存在する) 7.動作解析部での処理内容 動作解析部15では言語解析部11の出力と動作辞書部
18をもとに、文が述べられた瞬間に対応したイベント
と状態(属性の値と関係)の変化の瞬間に対応したイベ
ントとをそれぞれ生成し、それらを時間軸上に並べる。
【0090】前後関係があるイベントの間に状態間の矛
盾が生じた時は、その矛盾を解消する変化を起こすイベ
ントを生成してその間に追加する。動作解析部15での
データの流れと、以下の手順に沿った処理を図4及び図
5に示す。
【0091】(a)シナリオ初期状態を起こすイベント
としてInitEvent を作る。この段階では何も
内容を持たない。
【0092】(b)入力文をひとつずつ取り出し、以下
の処理を繰り返す。
【0093】(c)入力文の動詞と格表現をもとに動作
辞書部18を検索する。図5の参照番号25の部分。
【0094】(d)動作辞書部18には図4の参照番号
28、29、30に示すようにpre−conditi
on/condition/post−conditi
on  が記述してある。
【0095】図4に示す参照番号31と33が示すよう
に、それぞれは動作、即ちプロセスの開始前の状態、動
作途中の状態、動作後の状態を表す。
【0096】各状態は、属性制約(オブジェクトとその
属性及び値の入れ子表現)か、関係制約(関係名と2つ
のオブジェクトとのリスト表現)のリストで表されてい
る。いずれかがnil であることもある。
【0097】(e)図4に示す参照番号34で、状態の
変わり目のタイミング(動作の前提となる状態の生起3
5、動作の開始36、及び終了37を表すイベント、文
が発せられた瞬間、即ち、その動作のどの部分を観測し
たかを表すイベント38を作る。
【0098】動作の前提となる状態の生起イベント:P
E(PrepareEvent) 動作開始イベント:s 動作終了イベント:e 動作観測の瞬間を表すイベント:OE(Observe
dEvent)(f)図5に示す参照番号42で、Ob
servedEvent と、動作の開始/終了イベン
ト(s/e) との時間的な前後関係(after/b
efore関係)を文のアスペクトをもとに決定する。 ”<<”をafter の関係、”=”をequal 
の関係とする。
【0099】アスペクトSTART:PE<< (s 
= OE) <<e  とする アスペクトPROGRESS:PE<< s<< OE
 <<e  とするアスペクトEND:PE<< s<
< (OE =e)   とするアスペクトCOMPL
ETE:PE<< s<<e<< OE   とする(
g)図5に示す参照番号40,41が示すように、前の
文によるObservedEvent(POE と呼ぶ
 )と、現在の文によるObserved−Event
との関係をPOE <<OE  とする。
【0100】(h)その文より以前に入力された文によ
って構成されているイベントと、現在処理中のイベント
(s/e/PE/OE) との間で分かるものについて
前後関係を付ける。この処理の詳細を以下に記す。
【0101】動作開始以前に必要とされる状態(pre
−condition)がなければ、何もしない。
【0102】pre−condition から一つの
属性制約(オブジェクトー属性名ー値の3つ組)、また
は関係表現(関係名ーオブジェクト名ーオブジェクト名
)を一つずつ取り出し、以下の操作を繰り返す。(一つ
の属性制約または関係表現をConditionEle
ment(CE)と呼ぶ)OEからbefore/af
ter関係を逆方向(equal の関係も含む)にた
どり、CEを起こすイベントがないか調べる。
【0103】あれば、その時点からbefore/af
ter関係を順方向にたどり、CEに矛盾するイベント
(CTE )がないか調べる。
【0104】なければ何もせず、処理を終える。
【0105】あれば、PEにCEを加え、CTE <<
 PE の関係をつける。
【0106】OEからbefore/after関係を
逆方向(equal の関係も含む)にたどり、CEと
矛盾するイベントがないか調べる。
【0107】矛盾するものがあれば、その時点からbe
fore/after関係を順方向にたどり、CEを起
こすイベント(CTE )がないか調べる。
【0108】あればCTE << (PEまたはOE)
なければ、PEにCEを加え、CTE << PE の
関係をつける。
【0109】CEが属性制約であれば、それをInit
Event に加える。
【0110】以上の処理を入力文すべてについて順次行
った結果は、イベントを節点とし、前後関係をリンクと
するネットワークになり、これを自然言語処理装置での
処理結果として出力する。
【0111】例として以下の文章を解析する場合を示す
。この例で用いるクラスの定義を図6に、オブジェクト
の定義を図7に、動作辞書の例を図8、図9、図10及
び図11にそれぞれ示す。
【0112】s1  ムーミンが寝ているs2  目を
開ける s3  ベッドから降りる s4  机に向かって歩く s5  いすにすわる s6  ドアが開く s7  ノンノンが部屋に入ってくる s8  ムーミンの横で止まる s9  引き出しを開ける s10 本を出す s11 棚の前まで歩く s12 棚に本を置く s13 ムーミンが立つ s14 本を持つ s15 段階を2階に向かって歩きはじめるs16 ノ
ンノンが窓の前へ来る これらの文を解析し、その構文解析結果と、動作辞書部
18の検索結果を表1にまとめる。
【0113】表1に基づいて処理を以下に詳述する。
【0114】
【表1】
【0115】なお、各説明の先頭の数字は、例における
文番号であり、その文を言語解析部11から入力したと
きの処理を意味する。
【0116】s1:「pe1 = ieとみなして、p
eの属性制約をieにコピー」 pre−condition=pe1 とすると、pe
1 は表1の文番号1のpre−condition 
より、 (MUMIN (figure(STAND)))(M
UMIN (move(OFF)))(be−on M
UMI space)で表される。そして、condi
tion=1s(スタート)、post−condit
ion=1e (エンド)とすると、イベントの流れは
図12のようになる。
【0117】図12において、矢印は時間の流れを表す
。 また、文s1が入力された時点oe1 が1sと1eと
の間にあるのは、イベントがプログレス(PROGRE
SS)、即ち、「〜している」状態であると解釈されて
いるからである。
【0118】文章全体で述べる世界の初期状態ieは、
この時点oe1 では何も特定されていないので、pe
1 で必要とされる状態が初期状態ieでも成り立って
いたと見なす。
【0119】ここで、文章全体で述べる世界の時間的な
順序は、図13に示すように構成されていることを前提
とする。従って、上記s1の内容は、図13に挿入する
と、図14のような関係になる。なお、この時点では、
1eとoe2 との前後関係は、分かっていない。
【0120】s2:「pe2 (EYE) に関して、
oe2 から逆方向に(反するもの、または起こすもの
を)探しても何もないので、ieへコピー」 表1より、s2の意味は、pre−condition
=pe2 とすると、pe2 は表1の文番号2のpr
e−condition より、(EYE (stat
e(close)))で表される。そして、condi
tion=2s(スタート)、post−condit
ion=2e (エンド)とすると、イベントの流れは
図15のようになる。
【0121】文s2が入力された時点oe2 が2eの
後にあるのは、イベントがコンプリート(COMPLE
TE)、即ち、「〜した」状態であると解釈されている
からである。
【0122】文s2を全体の世界の時間の流れに挿入す
ると、この時点oe2 では、図16に示す関係が得ら
れる。図16で、ieは初期状態なので全ての時点より
前であり、ieからpe2 にも矢印が伸びる。ここで
pe2 の (EYE (state(close))
) は、pe1 、1s、oe1 のそれぞれに関連し
た記述がないので、pe1 、1s、oe1 との関係
は分からないままである。そこで、 (EYE (st
ate(close))) という状態は、pe2 に
おいて初めて起きたと考えるのは不自然であり、最初か
ら継続していたと考える方が自然なので、 (EYE 
(state(close))) という状態を初期状
態ieで成り立っていたとする。
【0123】s3:「pe3 (STAND) に関し
て、oe3 から逆方向に探すと、ieに同じ記述があ
る。ieから順方向に探すと、1eで、これに反するL
IE があるので、1e→after →pe3 なる
関係を付ける」、「pe3 (BED) に関して、o
e3 から逆方向に探すと、pe1に変数space 
なる記述がある。このspace の部分がBED で
あるとみなし(Unification )、pe1 
のこの部分を置き換える」、「3sに関しては、そのま
ま」上記s1及びs2と同様に、図17に文s3の内容
を示す。図中、pe3 は、表1のpre−condi
tion の内容、3sはcondition の文番
号3における内容を、3eはpost−conditi
onの文番号3における内容をそれぞれ表している。ま
た、文s3が入力された時点oe3 が3eの後にある
のは、イベントがコンプリート(COMPLETE)、
即ち、「〜した」状態であると解釈されているからであ
る。
【0124】次ぎに、文s3を全体の流れの中に挿入し
たときの状態を図18に示す。ここで、pe3 の (
MUMIN (figure(STAND)))に関し
て時点oe3 から時間の逆方向の順に探索すると、p
e1 とieに同じ内容が見付かる。
【0125】そこで, 今度はieから時間の正方向の
順に探索すると1eに(MUMIN figure(L
IE)))という記述(即ち、STAND に反するL
IE という記述)がある。
【0126】このことから、文s1が記述された後(但
し、どのくらい後なのか判別していなかった)で、「ム
ーミンが横になる」という状態1eがあって、文s3が
記述された時点より前で「ムーミンが立っている」とい
う状態pe3 が分かる。
【0127】上記2つのことから、1eよりpe3 の
方が後にくるであろうと考えて、1e→after →
pe3 となる関係を得る。
【0128】図19に、今まで述べたイベントに関する
全体の時間の流れを示す。
【0129】同様して各文を解釈する(以下、各文につ
いての詳細な説明は省略)。
【0130】s4:「pe4 (STAND) 、pe
4 (OFF) 、pe4 (space) に関して
、oe4 から逆方向に探すと、3eに同じ記述がある
。3eから順方向に探しても何もない(探すイベント自
体がない)」、「3e→after →pe4 なる関
係を付ける」、「4sに関してはそのまま」 s5:「5e(STAND) 、pe5 (OFF) 
は、4eに同じものがあるので4e→after →p
e5なる関係を付ける」s6:「pe6 (close
) は初めて出てくるので、ieに加える」 s7:「pe7 (STAND) は初めて出てくるの
で、ieに加える」 s8:「pe8 のConditionElement
はどちらも7sにあるので7s→after →pe8
 なる関係を付ける。
【0131】s9:「pe9 (close) も初め
て出てくるので、ieに加える」 s10 :「pe10(space#1(変数))に関
しては、pe9 の同じ関係が引き継がれるとみなし、
DRAWERを代入してpe9 →after →pe
10なる関係も付ける」s11 :「pe11 (ST
AND)、pe11 (OFF)は8eにあるので8e
→after →pe11なる関係を付ける。変数sp
ace には(aside MUMIN )が入るとみ
なす」 s12 :「pe12(holding) は10e 
にあるので10e →after →pe12とし、p
e12 (OFF)も11e にあるので、11e →
after →pe12とする」 s13 :「pe13 (OFF)は4eにあるので4
e→after →pe13とする。同じくpe13 
(space (変数))は、5eよりCHAIR と
みなし5e→after →pe13なる関係も付ける
」s14 :「そのまま」 s15 :「pe15 (STAND)とpe15 (
OFF)が13e にあり、pe15 (space 
(変数))がpe13でCHAIR であるので、13
e →after →pe15、pe13→after
 →pe15とする」s16  :「pe16 (ST
AND)が11e に、pe16 (OFF)が12e
 にあるため11e →after →pe16、12
e →after →pe16とする」 上記の処理を繰り返すことにより、図20に示す時間の
流れが処理結果として構成される。
【0132】図20において、「各pe、各s 、各e
 の時点でどんな状態が成り立ったか」ということと、
各文の解釈過程で「これは最初から成り立っていたに違
いない」と思えるものを表2に示す。
【0133】
【表2】
【0134】上記の「これは最初から成り立っていたに
違いない」と思えるものは、表2のieのコラムに記載
されている。
【0135】なお、図20中、参照番号43で示すよう
な矢印が時間的前後関係を、参照番号44で示すような
ボックスがイベントを、そして参照番号45で示す二重
線が時間的同時関係をそれぞれ表す。
【0136】次に、上述の自然言語処理装置を備えた動
画生成装置を詳述する。
【0137】図21は、本発明の動画生成装置における
一実施例の構成を示す。
【0138】図に示す動画生成装置は、上述した自然言
語処理装置に相当する部分とその他の部分により構成さ
れている。
【0139】まず、自然言語処理装置に相当する部分は
、入力部51、自然言語理解部51、語彙辞書部52、
文法部53、意味表現部54、推論部55、動画生成制
御部56、動作概念辞書部57及び動作記述部58によ
り構成されている。
【0140】入力部51は、日本語の文章(以下、入力
文章と称する)を入力する。
【0141】語彙辞書部52および文法部53は、自然
言語理解部51に格納されているプログラムによって参
照することができる。
【0142】意味表現部54の機能を図22〜図24に
示す。 その詳細な説明は後述する。
【0143】動作記述部58は、オブジェクト(登場物
)指向あるいはアクタモデルに基づく登場物の動きを表
現するプログラムにより構成されている。そのプログラ
ムのプログラミング言語としては、「Easy」または
機能的に同等なものが採用される。
【0144】動作概念辞書部57の構造を図25に示す
。図に示すように動作概念辞書部57は、動作動詞名を
示す部分70、格パターンリストを示す部分71、前提
条件を示すpre−condition 部分72、d
ecomposition 部分73、post−co
ndition部分74及び動作そのものに付随する属
性を示す部分75により構成されており、機械翻訳など
の辞書には含まれていないが入力文章を動画化する際に
必要な動作動詞特有の情報を収納していると共に、動作
動詞をキーとして、存在し得る動詞の使用パターンに対
応する格構造が列挙されている。更に、それぞれの使用
パターンに対応する前提条件、効果などをルールとして
記述することができるように構成されている。
【0145】上記の自然言語処理装置に相当する部分以
外の部分は、基本動作プログラムデータベース部59、
画像生成部60、形状データベース部61、ディスプレ
イ部62及び動画記録部63によって構成されている。
【0146】形状データベース部61は、画像生成部6
0が使用する基本的(primitive) な形状の
データにより形成されている。そのデータ形式は画像生
成部60の使用する映像化方法に依存する。例えば、3
次元のコンピュータ・グラフィクス(Computer
 Graphics)的方法を用いる場合には、分割さ
れた3角板データの集合であったりする。ここで、形状
を自然言語から生成する機能は考慮されておらず、入力
文章から認識される登場物は基本形状として登録する必
要がある。
【0147】基本動作プログラムデータベース部59は
、動作記述部58のおいて実行される動作記述を行なう
プログラムによって参照され得る基本的(primit
ive) な動きを表現するサブルーチン群により形成
されている。なお、これ以上分解できない動作について
は各登場物に対してサブルーチンとして用意される必要
がある。
【0148】次に、図21の動画生成装置の動作を説明
する。
【0149】まず、利用者は、適当な入力部51を介し
て入力文章10を自然言語理解部51に与える。
【0150】自然言語理解部51は、入力文章に基づき
語彙辞書部52または文法部53を参照してその意味表
現を意味表現部54を出力する。語彙辞書部52と文法
部53は、機械翻訳など従来の自然言語処理装置と同等
のものを想定している。
【0151】自然言語理解部51は、まず自然言語の文
章の表す意味を抽出し、一般の自然言語処理装置でよく
用いられている格構造にもとづいて表現する。
【0152】格構造とは、1つの文の意味を述語動詞と
、それに付随する属性(格と呼ぶ)の値とにより表現す
るものである。
【0153】格の種類にはバリエーションがあるが、代
表的なものを以下に示す: 動作主格:ある動作を起こすものを表す経験者格:ある
心理事象を体験するものを表す道具格  :ある事象の
直接原因となったり、心理事象と関係して反応を起こさ
せる刺激となるものを表す対象格  :移動する対象物
や変化する対象物、あるいは判断/想像のような心理事
象の内容を表す源泉格:  対象物の移動における起点
、あるいは状態変化/形状変化における最初の状態や形
状を表す目標格:  対象物の移動における終点、ある
いは状態変化/形状変化における最終的な状態や形状を
表す場所  :  ある事象が起こる場所および位置を
表す時間格:  ある事象が起こる時期を表す次に、例
文を用いて上記の格構造を更に説明する。
【0154】例えば、「太郎が駅へ歩いていた。」とい
う文の意味は、以下の格構造によって表現される。
【0155】 (歩く  ((主格    太郎) (終点格  駅))) 従来、自然言語処理装置では、時間の扱いは機械翻訳や
文章校正、抄録抽出といったシステムの目的に応じてア
ドホックに行なわれてきた。このようなシステムで時間
といっているものは、多くは「去年の夏に、……した。 」といった表現に見られるように、述語動詞の表す動作
そのものを時間の流れの中で「点」とみなしている。即
ち、動作を巨視的に捉えている。
【0156】本実施例の自然言語理解部51では、動画
化を行なうために、ある動詞で表現される動作の変化や
、比較的短期間に行なわれる複数の動作の前後関係を明
確にする必要がある。即ち、動作を微視的に捉える必要
がある。
【0157】自然言語理解部51は、登場物の動作を表
す動作動詞(動作を表現する動詞をこう呼ぶ)に着目し
て、その動作の行なわれていた時区間(動作が行なわれ
る時間軸上の始点と終点)を明らかにしようと努める。 そのために、本実施例のシステムでは、特に入力文章中
の動作動詞の持つ相情報を抽出して格の一種として扱う
。ここで、「相情報(元来は言語学上の用語)」とは、
ある動作について、文が以下の表現のうち、いずれのも
のであるかを示す情報である。
【0158】自然言語理解部51では、以下の4種類を
用いる。([  ]内は略称) その動作が始まったことを表す[開始]その動作が終了
したことを表す[終了]その動作が始まってかつ完了し
たことを表す[完了]その動作が継続していることを表
す[継続](始まりや終りについては言及しない)上記
の表現によって、「太郎が駅へ歩いていた。」という文
の意味は、以下の格構造で表現できる。
【0159】 (歩く  ((主格    太郎) (終点格  駅) (相      継続))) 自然言語理解部51は、全ての文に対して相情報の抽出
を行なう。
【0160】これに加えて「その後」/「同時に」など
の時間の前後関係を表す接続詞/接続助詞の係り受け関
係等、文章中に明示的に書かれている情報だけをもとに
動作区間の前後関係を推論する。
【0161】自然言語理解部51は、以上の処理によっ
て、文章中に現れる動作の区間の端点の間に成り立つ半
順序関係を抽出する。
【0162】抽出されたこれらの情報は、意味表現とし
て作業メモリ(後述する)に置かれる。図22、図23
及び図24は、この意味表現の構造を表したものである
【0163】図22は、文章中の各文に対応する動作間
の半順序関係を、端点が確定あるいは未確定のいずれの
場合をも含む「線表」として表現されることを摸式的に
示すものである。
【0164】図23は、未確定な端点を含むことのある
、各動作の継続時区間の表現方法を示すものである。こ
こでは、時間軸上の1点を「イベント構造」により表し
、動作は「プロセス構造」により表わす。
【0165】イベント構造それ自体は、未確定な時間軸
上の1点を表現することができる。動作(プロセス構造
)には、必ず始点と終点があり、これら始点と終点はイ
ベント構造により表現される。
【0166】図24は、図23に示された「イベント構
造」及び「プロセス構造」によって図22に示した「文
章中の各文に対応する動作間の半順序関係」をより具体
的に表現したものである。実際にはこの関係に代用とし
て、イベント間の半順序関係をDAG(有向非循環グラ
フ)によって表現している。
【0167】ここでは、順序関係が明らかでないイベン
ト間には枝は存在しない。推移葎により順序関係が導出
できるイベント間には枝が存在しないことがある。また
、イベント集合の下限は動画化対象区間の始点で、上限
は終点であると定義する。
【0168】なお、動作そのものの継続区間や、イベン
トの発生時刻に対して明示的な値あるいは上限/下限が
与えられることがあるので、そのためのスロット(記憶
域)がある。これらのスロットは、必要に応じて次に述
べる推論部55(図21参照)の処理で補充される。
【0169】推論部55は、自然言語理解部51が出力
した文章から明示的に得られる動作の半順序関係(いく
つかのタイミングの順序関係がわかっている)から、全
順序関係(すべてのタイミングの順序関係がわかってい
る)を生成する。
【0170】普通、自然言語の文章では、話の焦点から
それていることは述べられないため全ての順序関係は自
明でない。
【0171】そこで、実際に動画の生成を行なう前に、
動画生成制御部56は、順序関係の補充を行なう。この
処理は、以下の手順による。
【0172】まず、動作の半順序関係の表現から動作の
端点の全順序関係が明確でない部分を見つけ出す。これ
は、意味表現のDAGを下限からたどって、分岐が起こ
ることで発見できる。なお分岐がなければ、以下の処理
は起動されない。
【0173】続いて、動作概念辞書部57上の制約知識
に基づいて推論を行ない、端点が明確でない動作の端点
を閉じる。
【0174】動作の端点が閉じて(図22において●印
で示されている)いないで、開いている(図22におい
て○印で示されている)ものがあることが、全順序関係
が明確でないことの一因になる。
【0175】動作概念辞書部57は、動作動詞をキーに
、その動詞に関する制約条件を検索できる。動作概念辞
書部57の一項目の構造を図25に示す。
【0176】制約条件には、格パターンリストが付属し
ている。格パターンリストは、その動詞を使用する際に
可能な格の組合せを表すものである。
【0177】ある動作を表す格構造にもとづいて、動作
概念辞書部57をアクセスすると、格構造と格パターン
リストの間で記号的にパターンマッチが行なわれる。格
構造が複数のパターンにマッチすることもあり得、その
場合それらのパターンの含む格の集合に包含関係がある
ときは、より多くの格がマッチするものが候補となり、
そうでないときは双方が候補となる。
【0178】   (歩く     ((( 主格    (?X(isa ?X(
or  人  猿))))  ;1つめの格パターン 
   ( 終点格    ?Y))                          
                         
;2つめの格パターン    ((…))         :         :     ))   格パターンには、通常変数(上例では「?」で始ま
るように表記している)が含まれる。格構造とのパター
ンマッチが行なわれると、対応する格属性の値が変数に
代入される。
【0179】例えば「太郎が駅に向かって歩いていた。 」という文の場合、上例の?Xは太郎に、?Yは駅にな
る。
【0180】同様に、変数に対する制約条件も記述する
ことができる。
【0181】上例の場合、太郎が人間かまたは猿である
ことが要求されており、この情報が語彙辞書12から得
られなければパターンマッチは失敗する。
【0182】その他、動作概念辞書17には、それぞれ
の動作に対するi)前提条件(pre−conditi
on) 、ii)効果(post−condition
)、つまりプロダクションルールを記述できる。
【0183】この記述には、格パターンに現れる変数を
使用することができ、これにより格構造で表現される登
場物の状態変化を表現できる。
【0184】換言すると、時間経過やイベントの発生に
伴う登場物の状態変化を、意味表現のDAGをたどる過
程でルールを適用することにより得られる場合がある。
【0185】それ以外の動作概念辞書部57の項目とし
て、「decomposition (分解)」と「動
作そのものに付随する属性」がある(図25参照)。
【0186】前者については後述する。また、後者はパ
ターンマッチの対象となる登場物の属性ではなく、動作
そのものに付随する属性を表す。
【0187】これらの情報を用いた「明確でない動作の
端点を閉じる」推論処理は、以下の指針の順序で行なわ
れる。
【0188】(a)動作の打ち切りを起こす推論動作の
継続区間の推論に際しては、「動作は、明示的に停止す
ことが指定されるか、停止することが指定されるか、停
止することが推論されない限りは継続する」というデフ
ォルトが適用される。
【0189】動作概念辞書部57には、前提条件として
「同一の動作主格が同時に行なうことのできない動作」
が記述されることがある。推論部55が上記のデフォル
トに従って、それまでAという動作が継続中であると理
解しているとき、BというAと相容れない動作が始まっ
たことが認識されると、Aの継続はBの始点で打ち切ら
れる。
【0190】(b)動作の挿入を起こす推論前提条件と
して、ある動作を開始するために、動作を行なう主格が
満たすべき内部状態を規定されることがある。
【0191】いま、Aという動作の後にCという動作が
行なわれたことだけが、文章に明示的に示されていると
する(即ち、同一の主格に起こった動作が連続している
かどうかわからない状態である)。このとき、Aの動作
後の主格の内部状態がCの前提条件を満たさないときは
、前提条件を満たすように変更する別の動作が間で行な
われている(文章には自明であるとして省略されている
)と推測される。
【0192】このとき、推論部55は、動作概念辞書部
57の効果(post−condition) をキー
により検索することで、そのような省略されている動作
を補う。
【0193】(c)デフォルトの継続時間典型的な動作
については、動作概念辞書部57において所要時間のデ
フォルト値が与えられている。この所要時間を仮説とし
て、推論を行なう。
【0194】推論の過程で矛盾が起こる(或いは全順関
係が生成できなくなる)場合は仮説は棄却される。
【0195】(d)問い合わせ 以上のいずれの指針によっても順序関係がはっきりしな
いときは、端末装置(後述する)などの適当なインタフ
ェースを介して、ユーザに対して問い合わせを行なう。
【0196】次に、複合動作の展開について説明する。
【0197】動作を動画化するために、あらかじめ「基
本動作プログラムデータベース」(後述)にはプリミテ
ィブな動作を動画化するプログラムが登録されている。
【0198】動作概念辞書部57の動作も、動画化を行
なうために、これらのプリミティブな動作そのものがこ
れらを組み合わせることによって表現される。即ち、動
作概念辞書部57上の、他の動作の組合せで表現される
動作の項目には、decomposition(分解)
の欄にそれを構成するよりプリミティブな動作が記述し
てある。
【0199】そこで、後続の推論処理のために、dec
omposition(分解)の欄に記述した動作で元
の動作の意味表現を置き換える。
【0200】この後、必要ならば上記の推論処理が適用
される。
【0201】続いて、確定した端点に対して実際の時刻
を割り付ける。
【0202】これまでの操作で得られる情報は、あくま
で動作間の順序関係であって、実際の時刻ではない。そ
こで、実際の時刻の割りつけ処理を行なう。
【0203】この処理を行なうための指針として、以下
のものがある。
【0204】(e)自然言語の文中で与えられた絶対時
刻は厳守する。
【0205】(f)前出の推論処理で与えられた、デフ
ォルトの継続時間は優先する。ただし、絶対ではない。
【0206】(g)わからないものは、わかる時区間内
で均等分割する。
【0207】動画生成制御部56は、前述の推論により
生成された時間情報をもとに、登場物に着目して動作系
列をまとめることによって、動作記述としてのプログラ
ム生成を行なう。
【0208】ついで、そのプログラムを実行することに
よって、画像生成部60に対して動画の生成を行なわせ
る。
【0209】動作記述部58は、オブジェックト指向/
アクタモデルと類似した並行動作記述の考え方に基づい
たプログランミング言語によって順序の確定した動作を
表現する。プログラムの記述方法としては、「Easy
」の方法が用いられている。
【0210】このとき、登場物をグラフィクス表現する
ための形状情報データは、形状データベース部61に収
められている。また、動作概念辞書部57が定め得るこ
れ以上他の複数の動作に分解できないプリミティブな動
作動詞の動きは、動画記述用のプログラミング言語のサ
ブルーチンとして基本動作プログラムデータベース部5
9に登録されている。即ち、これ以上分解できない動作
は、原理的には各登場物に対して用意される必要がある
【0211】動作記述部58で生成された動作記述を動
作させることによって、各コマに対応する登場物の内部
状態を得ることができる。これを各登場物に繰り返し適
用することで、各コマの画像データが得られる。
【0212】各コマの画像データは、前のコマの画像デ
ータに対する差分として与えられ得る。どのような出力
がなされるかは画像生成部68に対応して決定され、動
作記述プログラムの実行処理系はそのような出力を出す
ように設計されている。
【0213】画像生成部60は、コンピュータグラフィ
クス的方法で登場物/背景/視点/光源のデータを与え
ることにより、対応する画像を生成するように構成され
ている。  次に例文を用いて本実施例の動画生成装置
の動作を詳述する。
【0214】8.文章の入力 まず、利用者が日本語処理の可能な端末装置(後述する
)から、以下の文章を入力するものとする。
【0215】「太郎が駅へ歩いていた。そのうちふと道
端にしゃがみこんだ。そこでタンポポを摘むと、駅へ向
かって歩き出した。」なお、説明を簡略化にするのため
に「駅」や「道」といった背景に関する情報が、この文
章を入力する以前に与えられているものと仮定する。
【0216】9.自然言語理解部の処理自然言語理解部
51は、個々の入力文に対して、以下に示す各構造を得
る。
【0217】(歩く((主格      太郎)(終点
各    駅) (相        継続))) (しゃがむ((主格      太郎)(場所格  (
道端  <しゃがんだときの位置情報>))(相   
   完了))) (摘む((主格      太郎) (場所格  (道端  <しゃがんだときの位置情報>
))(相      完了))) (歩く((主格      太郎) (終点各    駅) (相        開始))) 10.推論部の処理 推論部55は、以下の順序で各文に着目して動作の端点
に関する推論処理を行なう。
【0218】(a)太郎が駅へ歩いていた。
【0219】この文の格構造から、相情報(継続)に従
ってこの解釈の時点では、「歩く」という動作が、「い
つ」からかは明確ではないが前の時点から現在も続いて
いることを認識している。
【0220】(b)そのうちふと道端にしゃがみこんだ
【0221】この文の格構造から、同一の主格に対して
2つの動作が「歩く」と「しゃがむ」とが同時に行なわ
れていることを認識する。次に、動作概念辞書部57の
それぞれの動作の項目を参照する。例えば、「しゃがむ
」の項目は以下のようなものである。
【0222】     (しゃがむ    ((主格      (?
X(or  人間    猿)))         
                   :     
                       : 
                   (pre−c
ondition) (姿勢  ?X  高い)   
                 (decompo
sition)                  
   (post−condition)(姿勢  ?
X  低い)                   
         :               
             :           
         (動作区分  (下半身))   
                         
:                        
    :                    
))   ここには「しゃがむ」という動作概念に関する各属
性に対する制約が記述されている(例えば、主格は人間
かまたは猿であり、しゃがむ前は高い姿勢であり、下半
身の動作である、という具合に記述されているとする)
。 同様に「歩く」という動作概念は、やはり、下半身の動
作であるということを指示している。
【0223】推論部55は、動作について「例外がない
限り、身体の同一部分が同時に別の動作を行なうことは
矛盾である」というデフォルト知識を持っており、記号
的な推論処理により「歩く」と「しゃがむ」が矛盾する
ことを認識する。これによって、しゃがむ前に歩くこと
を打ち切るという結論に達する。
【0224】(c)そこでタンポポを摘む。
【0225】同様に「摘む」という動作概念に関する、
各属性に対する制約を得る。
【0226】     (摘む        ((主格      
(?X  人間    猿)))          
         (対象格    (?Y  植物)
)                        
    :                    
        :                
    (pre−condition) (姿勢  
  ?X  低い)                
    (decomposition)      
               (post−cond
ition)(所有関係  ?Xの手  ?Y))  
                         
 :                       
     :                   
 (動作区分  (身体全体))          
                  :      
                      :  
                  ))   (d)駅向かって歩き出した。
【0227】動作概念辞書部57(図25)を参照する
と、pre−condition72 で「主格の姿勢
が高い」という事実が、現状では満たされないことを認
識する。
【0228】そこで、pre−condition 7
2が「姿勢の低い状態」でpost−conditio
n74が「高い状態」であるような動作(例えば「立ち
上がる」)を動作概念辞書部57から検索して「挿入す
る」。
【0229】ここでは、動作は全てプリミティブである
と仮定すると、全ての動作の全順序関係が確定したこと
になる。その後、確定した順序関係をもとに時刻の割付
けが行なわれる。
【0230】11.動画生成制御部の処理前節の推論に
より生成された時間情報をもとに、登場物に着目して動
作系列をまとめることによって、図26のフローチャー
トに示すように動作記述としてのプログラム生成を行な
う。
【0231】続いて、その生成されたプログラムを図2
2のフローチャートに示すように実行することによって
、画像生成部60に対して動画の生成を行なわせる。
【0232】ここで、i)動作制約を解消する条件が十
分ではない、ii)細かい指定を必要とする動作が記述
されている、などの理由でプログラムが全て自動的に生
成できないと判断すると、利用者に問い合わせを行なう
ことによって情報を得る。
【0233】次いで、動画生成制御部56は、形状デー
タベース部61と基本動作データベース部59を参照し
て、登場物のある時間に亘る属性/関係の変化、或いは
各時刻に対する属性/関係の値を画像生成部60の処理
可能な動画記述表現として出力する。
【0234】言語「Easy」によるプログラム例を以
下に挙げる。
【0235】   ;;;   ;;;シナリオの定義   ;;;   (defscenario  太郎が駅に行く  
  (:actor 太郎  ;shape “太郎”
)      ;このシーンに登場するアクタ    
(:actor タンポポ  :shape  “タン
ポポ);便宜上アクタにしている    (:even
tpool Coord)             
       ;座標を示すイベントが置かれる   
                         
              ;イベントプール   
       :           :   ;;   ;;以下、推論された時刻(以下のt1,t2,…
,t5,runtime)の設定が続く  ;;         :         :     )   ;;;   ;;;メソッドの定義   ;;;   (defmethod scenel (t1  
                ;太郎が歩き始める
時間                      t
2                  ;     
 しゃがみ始める時間               
       t3                
  ;      花を摘み始める時間       
               t4        
          ;      立ち上がり始める
時間                      t
5                  ;     
 再び歩き始める時間               
       runtime)          
  ;このシーン全体の時間  (:initial      (send 太郎  coordout Co
ord)   ;太郎に常に現在位置を発信するよう指
定    (send 太郎  at 50 30) 
       ;登場物の初期位置を指定    (s
end タンポポ  at 300 30 )    
(send 駅  at 600 30)    )   (:normal     (select              
         ;tickは処理系内の仮想的な時
刻を表す      ((=tick t1)    
    (send  太郎  歩く  5 0 10
) ;太郎に動き始めるように指令        )       ((=tick t2)        (remove  太郎  歩く)  
    ;太郎はその場で止まる       (se
nd  太郎  しゃがむ  t3) ;太郎がその場
でt3までかかってしゃがむ        )       ((=tick t3)        (send  太郎  摘む  花  
t4);太郎が花をt4までかかって摘む      
  )       ((=tick t4)        (send  太郎  立ち上がる t
5):太郎がt5までかかって立ち上がる      
  )       ((=tick t5)        (send  太郎  歩く)    
    )       ((=tick runtme)    
        ;このシーンの実行時間が終了した 
      (remove self scenel
)      ;シーンの実行を終了する      
  )       )))    上記の方法により生成されたプログラムを実行する
ことで、登場物の属性や登場物間に成立する関係、また
は前のコマの画像に対するそれらの差分として表現され
る1コマ毎の画像データが生成される。これらを画像生
成部60に引き渡すことで自動的に動画が生成される。
【0236】図28に、上述した動画生成装置の具体的
な構成を示す。図に示す動画生成装置は、上述の入力部
50の機能を有する端末装置80、上述の自然言語理解
部51や推論部55及び動画生成制御部56そして画像
生成部60の機能を有するCPU81、CPU81によ
って実行及び制御されるプログラムを格納するプログラ
ムメモリ82、上述の意味表現部54において実行され
る意味表現や動作記述部58で実行される動作記述の作
業を行う作業用メモリ83、上述の各辞書52、57、
文法部53及び各データベース59、61の機能を有す
る辞書ファイル群84、ディスプレイ部62の機能を有
するディスプレイ装置85及び動画記録部63の機能を
有する動画記録装置86により構成されている。
【0237】
【発明の効果】本発明の自動言語処理装置によれば、形
態素の解析のための単語辞書及び構文規則を表現する文
法辞書を使って一文単位で自然言語の解析を行う構文解
析手段と、自然言語の動詞が意味する動作の前の状態、
動作中の状態、動作後の状態をそれぞれ表現する動作概
念辞書と、動作概念辞書を検索して状態を管理する機能
を有する動作解析手段とを備えており、動作解析手段は
、構文解析手段からの出力に基づいて動作概念辞書の検
索機能、対象世界での動作の補間及び各状態間の整合を
行ない対象世界における動作の開始及び終了の時点間の
関係を抽出するので、動作、状態を用いることにより、
複数の自然言語文を対象とした意味/文脈解析をするこ
とができる。また、アニメーションのシナリオであるよ
うな自然言語を解析して的確な意味の抽出することがで
きる。
【0238】本発明の動画生成装置によれば、自然言語
処理装置と、自然言語処理装置から出力されたデータに
対して動画化するための情報を補充する推論手段と、推
論手段によって補充された情報に基づいて動画の生成を
制御する動画生成制御手段と、動画生成制御手段の出力
に応じて画像を生成する画像生成手段とを備えており、
動画生成制御手段は、自然言語処理装置に入力された文
章によって表現される画像データをコマ毎に画像生成手
段に繰り返して送るので、自然言語で記述された文章を
入力として、コンピュータによる画像生成のための一連
の描画データを自動的あるいは半自動的に生成すること
により、動画の生成を行うことができる。また、利用者
は特定のデータ作成システムや動画記述言語の操作に熟
知することなく、自然言語の文章を入力することで動画
を作成可能になるので、従来高かった作成コストの低減
が行なえ、専門的オペレータを必要とせずに動画の作成
を行なうことができる。
【図面の簡単な説明】
【図1】本発明による自然言語処理システムの一実施例
を示す構成図である。
【図2】図1の自然言語処理システムで用いる時間概念
を説明する図である。
【図3】図1の自然言語処理システムの処理結果である
出力構造体の関係を表す図である。
【図4】図1の自然言語処理システムで行う時間関係の
処理を説明する図である。
【図5】図4の時間関係の処理を説明する図である。
【図6】図1の自然言語処理システムに係るクラス定義
の記述例を示す図である。
【図7】図1の自然言語処理システムに係るオブジェク
ト定義の記述例を示す図である。
【図8】図1の自然言語処理システムに係る動作辞書の
記述例を示す図である。
【図9】図1の自然言語処理システムに係る動作辞書の
記述例を示す図である。
【図10】図1の自然言語処理システムに係る動作辞書
の記述例を示す図である。
【図11】図1の自然言語処理システムに係る動作辞書
の記述例を示す図である。
【図12】例文s1の処理におけるイベントの流れを示
す図である。
【図13】文章全体で述べる世界の時間的な順序を示す
図である。
【図14】例文s1を図13の中に挿入したときの状態
を示す図である。
【図15】例文s2の処理におけるイベントの流れを示
す図である。
【図16】例文s2を全体の流れの中に挿入したときの
状態を示す図である。
【図17】例文s3の処理におけるイベントの流れを示
す図である。
【図18】例文s3を全体の流れの中に挿入したときの
状態を示す図である。
【図19】例文s1からs3までの全体の時間の流れを
示す図である。
【図20】図1の自然言語処理システムによる実施例の
出力を視覚的に説明する図である。
【図21】図1に示す自動言語処理装置の機能を備えた
本発明の動画生成装置における一実施例の構成を示す図
である。
【図22】図21の動画生成装置における意味表現部の
構造を説明するための図である。
【図23】図21の動画生成装置における意味表現部の
構造を示す図である。
【図24】図21の動画生成装置における意味表現部の
構造を説明するための図である。
【図25】図21の動画生成装置における動作概念辞書
部の構造を示す図である。
【図26】図21の動画生成装置における動作生成制御
部の動画記述プログラムの生成処理を示すフローチャー
トである。
【図27】図21の動画生成装置における動作生成制御
部の動画記述プログラムの実行処理を示すフローチャで
ある。
【図28】図21の動画生成装置の具体的な一構成を示
す図である。
【符号の説明】
10  入力部 11  言語解析部 12  単語辞書部 13  文法規則部 14  文の各構造/アスペクト部 15  動作解析部 16  オブジェクトデータ部 17  関係データ部 18  動作辞書部

Claims (2)

    【特許請求の範囲】
  1. 【請求項1】形態素の解析のための単語辞書及び構文規
    則を表現する文法辞書を使って一文単位で自然言語の解
    析を行う構文解析手段と、前記自然言語の動詞が意味す
    る動作の前の状態、動作中の状態、動作後の状態をそれ
    ぞれ表現する動作概念辞書と、前記動作概念辞書を検索
    して前記状態を管理する機能を有する動作解析手段とを
    備えており、前記動作解析手段は、前記構文解析手段か
    らの出力に基づいて前記動作概念辞書の検索機能、対象
    世界での動作の補間及び各前記状態間の整合を行ない前
    記対象世界における前記動作の開始及び終了の時点間の
    関係を抽出することを特徴とする自然言語処理装置。
  2. 【請求項2】自然言語処理装置と、前記自然言語処理装
    置から出力されたデータに対して動画化するための情報
    を補充する推論手段と、前記推論手段によって補充され
    た前記情報に基づいて動画の生成を制御する動画生成制
    御手段と、前記動画生成制御手段の出力に応じて画像を
    生成する画像生成手段とを備えており、前記動画生成制
    御手段は、前記自然言語処理装置に入力された文章によ
    って表現される画像データをコマ毎に前記画像生成手段
    に繰り返して送ることを特徴とする動画生成装置。
JP3026323A 1991-02-20 1991-02-20 自然言語処理装置及びそれを利用した動画形成装置 Pending JPH04264972A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3026323A JPH04264972A (ja) 1991-02-20 1991-02-20 自然言語処理装置及びそれを利用した動画形成装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3026323A JPH04264972A (ja) 1991-02-20 1991-02-20 自然言語処理装置及びそれを利用した動画形成装置

Publications (1)

Publication Number Publication Date
JPH04264972A true JPH04264972A (ja) 1992-09-21

Family

ID=12190200

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3026323A Pending JPH04264972A (ja) 1991-02-20 1991-02-20 自然言語処理装置及びそれを利用した動画形成装置

Country Status (1)

Country Link
JP (1) JPH04264972A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6161108A (en) * 1997-04-28 2000-12-12 Justsystem Corp. Method and apparatus for managing images, a method and apparatus for retrieving images, and a computer-readable recording medium with a program for making a computer execute the methods stored therein
JP2001084381A (ja) * 1999-08-30 2001-03-30 Mitsubishi Electric Inf Technol Center America Inc マルチメディア・コンテンツの表現を生成する方法
WO2005071616A1 (ja) * 2004-01-27 2005-08-04 Matsushita Electric Industrial Co., Ltd. 画像作成装置および画像作成方法
JP2015028701A (ja) * 2013-07-30 2015-02-12 富士通株式会社 シーケンス抽出方法、シーケンス抽出プログラムおよびシーケンス抽出装置
JP2020115303A (ja) * 2019-01-18 2020-07-30 ハーディス株式会社 自然言語の解析システム、解析方法およびプログラム

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6161108A (en) * 1997-04-28 2000-12-12 Justsystem Corp. Method and apparatus for managing images, a method and apparatus for retrieving images, and a computer-readable recording medium with a program for making a computer execute the methods stored therein
JP2001084381A (ja) * 1999-08-30 2001-03-30 Mitsubishi Electric Inf Technol Center America Inc マルチメディア・コンテンツの表現を生成する方法
WO2005071616A1 (ja) * 2004-01-27 2005-08-04 Matsushita Electric Industrial Co., Ltd. 画像作成装置および画像作成方法
JP2005251174A (ja) * 2004-01-27 2005-09-15 Matsushita Electric Ind Co Ltd 画像作成装置および画像作成方法
US7797330B2 (en) 2004-01-27 2010-09-14 Panasonic Corporation Image formation device and image formation method
JP2015028701A (ja) * 2013-07-30 2015-02-12 富士通株式会社 シーケンス抽出方法、シーケンス抽出プログラムおよびシーケンス抽出装置
JP2020115303A (ja) * 2019-01-18 2020-07-30 ハーディス株式会社 自然言語の解析システム、解析方法およびプログラム

Similar Documents

Publication Publication Date Title
Sowa Toward the expressive power of natural language
Lieberman et al. Beating common sense into interactive applications
Andre et al. Generating multimedia presentations for RoboCup soccer games
US8478581B2 (en) Interlingua, interlingua engine, and interlingua machine translation system
JP2019526139A (ja) コンピュータ学習および理解のためのアーキテクチャおよびプロセス
Dorr The use of lexical semantics in interlingual machine translation
Oshita Generating animation from natural language texts and semantic analysis for motion search and scheduling
Dale et al. Integrating natural language generation and hypertext to produce dynamic documents
JPH04264972A (ja) 自然言語処理装置及びそれを利用した動画形成装置
Meo et al. Aesop: A visual storytelling platform for conversational ai and common sense grounding
Rouhizadeh et al. Collecting semantic information for locations in the scenario-based lexical knowledge resource of a text-to-scene conversion system
Boye et al. Robust spoken language understanding in a computer game
Gorniak The affordance-based concept
Prendinger et al. MPML and SCREAM: Scripting the bodies and minds of life-like characters
Slabbers Narration for virtual storytelling
Assmann Case stacking in nanosyntax
Sumi et al. Animated storytelling system via text
Al-Fedaghi Conceptual Modeling of Events Based on One-Category Ontology
Abdel-Salam et al. AnimaChaotic: AI-based Automatic Conversion of Children's Stories to Animated 3D Videos.
Cann et al. The Bei Construction in Chinese: A Dynamic Approach
Ulinski Leveraging text-to-scene generation for language elicitation and documentation
Ridsdale The director's apprentice: animating figures in a constrained environment
Strassmann Desktop theater: automatic generation of expressive animation
Piesk et al. Animated interactive fiction: Storytelling by a conversational virtual actor
Fukushima Bracketing Paradox and Direct Compositionality: Montagovian Morphology for Bound Morphemes