JP4143341B2 - Image generation device - Google Patents

Image generation device Download PDF

Info

Publication number
JP4143341B2
JP4143341B2 JP2002178617A JP2002178617A JP4143341B2 JP 4143341 B2 JP4143341 B2 JP 4143341B2 JP 2002178617 A JP2002178617 A JP 2002178617A JP 2002178617 A JP2002178617 A JP 2002178617A JP 4143341 B2 JP4143341 B2 JP 4143341B2
Authority
JP
Japan
Prior art keywords
information
image
display
document
background image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2002178617A
Other languages
Japanese (ja)
Other versions
JP2004021819A (en
Inventor
直子 伊東
和久 真鍋
恆央 立川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
NEC Informatec Systems Ltd
Original Assignee
NEC Corp
NEC Informatec Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp, NEC Informatec Systems Ltd filed Critical NEC Corp
Priority to JP2002178617A priority Critical patent/JP4143341B2/en
Publication of JP2004021819A publication Critical patent/JP2004021819A/en
Application granted granted Critical
Publication of JP4143341B2 publication Critical patent/JP4143341B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Document Processing Apparatus (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は画像生成装置に関し、更に詳しくは、入力された言語データに基づく画像を生成する画像生成装置に関する。
【0002】
【従来の技術】
従来から、自然言語で記述されたデータを基に画像を生成し、これを表示することで視認性が高い情報の提供を行う技術がいくつか提案されている。例えば特開平8−22554号公報には、自然言語で記述された文章から文を抽出し、意味解析を行うことによって、文に対応する画像を生成する技術が記載されている。該公報に記載の技術では、例えば、「太陽は真っ赤に輝いている。月も白く見えている。」という文章から、「太陽は真っ赤に輝いている。」という文を取り出し、「太陽」が、「真っ赤」に「輝く」様子を表示する画像を生成する。
【0003】
【発明が解決しようとする課題】
しかし、上記公報に記載の技術では、上記した例のように、画像中に表示すべき対象物が「太陽」及び「月」の2つである場合に、必ずしも両者間の位置関係が指定されないため、「太陽」及び「月」を適切な位置に配置することができない。また、位置が指定されたときには、例えば太陽が存在する方角を「東」と指定したときには、「東」の位置は画像中に固定的に設定される。このため、画像の中心の方角を「南」、又は、「北」にし、出力画像中の「東」の位置を変更したい場合であっても、固定されている画像中の「東」の位置を動かすことはできない。
【0004】
一方、特開平11-232274号公報には、自然言語に記述された現象の不連続性を補完し、対応する動画像(アニメーション)を生成する技術が記載されている。しかし、該公報に記載の技術では、画像の生成に際して現象の時系列にのみ注目し、現象の配置は考慮していない。このため、例えば、「動作主がホワイトボードの前に移動する」などのように、行為が、その他のものとの相対関係において記述される場合にだけ、表示対象の表示位置が意味をもつことになる。従って、例えば都道府県毎の天気情報のように、独立した複数の表示対象を、適切な位置に配置することが重要な画像の生成には向かないという問題があった。
【0005】
本発明は、上記問題点を解消し、日本語や英語などの自然言語で記述されたデータを基に、データ中に記述された対象物を適切な位置に配置した画像を生成することができる画像生成装置を提供することを目的とする。
【0006】
【課題を解決するための手段】
上記目的を達成するために、本発明の画像生成装置は、ドキュメントの型式を示すドキュメント型情報と、位置情報及び意味情報を有するオブジェクト情報とを含むドキュメントを解析し、前記ドキュメントに記述されたオブジェクトの画像を画面上に表示する画像生成装置であって、ドキュメントを解析し、ドキュメント型情報に基づいて画面上の背景画像を決定する背景画像決定部と、抽出されたオブジェクトの位置情報に基づいて、前記背景画像中に表示するオブジェクトの位置を決定する表示位置決定部と、前記抽出されたオブジェクトの意味情報に基づいて、前記背景画像中に表示するオブジェクトの形状を決定する表示形状決定部とを備えることを特徴とする。
【0007】
本発明の画像生成装置では、ドキュメントに含まれる、そのドキュメントの表示対象が指定されるドキュメント型情報に基づいて、背景画像が選択され、その背景画像に、ドキュメントに記述された位置情報及び意味情報を有するオブジェクトが合成されて、画像として出力される。このため、入力するドキュメントにあった表示形画像を生成し、複数のオブジェクトについてもその位置関係を適切に指示した画像を表示することができ、ドキュメント(言語)による情報を、視覚的な情報(イメージ情報)として提供することができる。なお、背景画像は、白地を含む無地であってもよい。
【0008】
本発明の画像生成装置は、前記オブジェクトの形状及び生成される画像が、ベクターグラフィックデータからなることが好ましい。この場合、画像を拡大又は縮小しても、ディテールや鮮明さが失われない。
【0009】
また、本発明の画像生成装置では、前記背景画像決定部は、ドキュメント型情報と背景画像とを関連付ける背景画像ルールに従って、前記背景画像を決定することが好ましい。この場合、ドキュメント型情報に対応する背景画像の検索が容易となる。
【0010】
本発明の画像生成装置では、前記表示位置決定部は、前記ドキュメント型情報に対応する、前記位置情報と前記背景画像中の複数の領域の内の1つの領域とを関連付ける位置情報マッピングルールに基づいて、前記オブジェクトの位置を決定してもよく、或いは、前記位置情報と前記背景画像中の相対位置座標とを関連付ける位置情報マッピングルールに基づいて、前記オブジェクトの位置を決定してもよい。
背景画像中にオブジェクトを配置する位置は、ドキュメント型に対応して用意された位置情報マッピングルールを参照して決定される。このため、ドキュメント型が異なれば、同じ表現で記述されたオブジェクトの位置情報を、背景画像中の異なる領域又は位置に配置することができる。
【0011】
本発明の画像生成装置では、前記表示形状決定部は、前記ドキュメント型情報に対応する、前記意味情報とオブジェクトの形状とを関連付ける表示形状マッピングルールに基づいて、前記オブジェクトの形状を決定することが好ましい。この場合、ドキュメント型が異なれば、同じ表現で記述されたオブジェクトの意味情報を、背景画像中に異なる形状で合成することができる。
【0012】
本発明の画像生成装置は、前記背景画像ルール、位置情報マッピングルール、及び、表示形状マッピングルールの組合せを複数記憶するデータベースを更に備えることが好ましい。この場合、ドキュメント型情報をキーにしてデータベースを検索することで、使用する前記背景画像ルール、位置情報マッピングルール、及び、表示形状マッピングルールを決定することができる。
【0013】
本発明の画像生成装置は、1つのドキュメント型に対して前記組み合わせを複数有し、ユーザからの指定に基づいて、使用する前記背景画像ルール、位置情報マッピングルール、及び、表示形状マッピングルールの組み合わせを決定することが好ましい。
1つのドキュメント型に対応する、前記背景画像ルール、位置情報マッピングルール、及び、表示形状マッピングルールの組み合わせを複数用意することで、同じドキュメントから、異なる画像を得ることができる。その際、ユーザは、ユーザの嗜好やユーザ端末の属性などのクライアント情報を、HTTPのリクエストヘッダ情報や、CC/PP(Composite Capabilities/Preference Profiles)などを使用して画像制生成装置に通知し、使用する組み合わせを指定することができる。
【0014】
本発明の画像生成装置は、ドキュメントが時間的情報を含み、表示されるオブジェクトの表示位置、及び/又は、表示形状が時間的に変化することが好ましい。この場合、ドキュメントに含まれる時間的情報は、例えば、時間1における各オブジェクトの位置情報及び意味情報、及び、時間2における各オブジェクトの位置情報及び意味情報のように記述し、時間1、時間2の順で各オブジェクトを背景画像中に表示するアニメーションにすることができる。また、オブジェクトの意味情報が時間的情報を含み、表示形状を時間的に変化させて表示することもできる。
【0015】
本発明の画像生成装置では、前記ドキュメントがXML言語で記述されることが好ましい。この場合、XML言語は、独自のタグを使用して、データの属性情報や論理構造を独自に定義できるため、ドキュメントやオブジェクトの記述が容易となる。
【0016】
【発明の実施の形態】
以下、図面を参照し、本発明の実施形態例に基づいて、本発明を更に詳細に説明する。画像生成装置10は、構文解析部11、データ抽出部12、表示領域決定部13、表示形状決定部14、マッピングルール選択部15、複数のマッピングルール16を記憶するデータベース17、及び、グラフィックデータ出力部18を有する。画像生成装置10は、言語データとしてXML(Extensible Markup Language)データ55を入力し、XSLT(Extensible Stylesheet Language Transformations)などのスタイルシートを用いてXMLデータ55を変換し、画像データとしてSVG(scalable Vector Graphic)データなどのベクターグラフィックデータ56を出力する。
【0017】
XMLデータ55は、自然言語で記述される言語データを含み、言語データには、一対の意味情報及び位置情報を含む、出力画像に合成されるべき対象物(オブジェクト)が1以上記述されている。また、XMLデータ55には、データ識別のためのドキュメント型が定義されている。構文解析部11は、入力されたXMLデータ55からドキュメント型を抽出する。データ抽出部12は、XMLデータ55に含まれるオブジェクトの意味情報及び位置情報を抽出する。マッピングルール選択部15は、データベース17から、XMLデータ55のドキュメント型に対応付けられて用意された、背景画像やオブジェクトの表示位置及び表示形状を決定するためのマッピングルール16を抽出して選択する。
【0018】
表示領域決定部13は、データ抽出部12によって抽出された位置情報に対応するオブジェクトの表示領域を、選択されたマッピングルール16を参照して決定する。表示形状決定部14は、データ抽出部12によって抽出された意味情報に対応するオブジェクトの表示形状を、選択されたマッピングルール16を検索して決定する。グラフィックデータ出力部18は、表示領域決定部13が決定した表示領域、及び、表示形状決定部14が決定した表示形状に基づいて、ベクターグラフィックデータ56を作成し、ドキュメント型に基づいて選択された背景画像中にオブジェクトを配置した画像データとしてこれを出力する。
【0019】
マッピングルール16は、オブジェクトを合成すべき背景画像を複数の領域に分割した領域形状データ21、オブジェクトの位置情報と領域形状データ21の表示領域とを対応付ける位置情報マッピングルール22、及び、オブジェクトの意味情報と出力画面上での表示形状とを対応付ける意味情報マッピングルール23を有する。データベース17は、ドキュメント型と、これに対応するマッピングルール16とを関連付けて記憶する。複数の位置情報と表示領域との対応付けは、1対1である必要はなく、複数の位置情報が同じ表示領域に対応付けられてもよい。また、意味情報と表示形状との対応付けも、1対1である必要はなく、複数の意味情報が同じ表示形状に対応付けられてもよい。
【0020】
図2は、図1の画像生成装置に入力するXMLデータの具体例を示している。同図に示すXMLデータでは、2行目でドキュメント型が定義される。また、言語データとして、3行目から12行目までの間に、<データ>タグ内に記述される2つのオブジェクトが記述されている。なお、例えば、“<言語データ>”タグは言語データの開始タグを示し、</言語データ>タグは言語データの終了タグを示し、言語データは、<言語データ>から</言語データ>まで間に記述される。
【0021】
図3は、ドキュメント型1で使用されるマッピングルールの例を示し、(a)は領域形状データを、(b)は位置情報マッピングルールを、(c)は意味情報マッピングルールを示している。ドキュメント型1のXMLデータ55では、例えば、<データ>タグ内の<位置情報>タグに記述されるオブジェクトの位置情報である“位置1”又は“位置2”は、同図(b)に示す変換テーブルに従って、同図(a)に示す背景画像の領域Aの位置に変換される。また、<意味情報>タグに記述されたオブジェクトの意味情報である“まる”又は“しろまる”は、同図(c)に示す変換テーブルに従って、○に変換される。
【0022】
図4は、図1の画像生成装置の動作手順を示している。図5は、図2に示すXMLデータに含まれるオブジェクトを図3に示すマッピングルールで画像上に配置した例を示している。以下、図1から図5を参照して、本実施形態例の画像生成方法について説明する。
【0023】
図1に示す画像生成装置10に、言語データとして一対の意味情報及び位置情報を持つ図2に示すようなXMLデータ55が入力されると、構文解析部11は、入力されたXMLデータ55の構文解析を行い、XMLデータに含まれるDOCTYPE宣言から、XMLデータ55のドキュメント型を取得する(ステップS1)。図2のXMLデータ55では、ドキュメント型として2行目で、ドキュメント型1が指定されている。
【0024】
マッピングルール選択部16は、構文解析部11が取得したドキュメント型に対応するマッピングルール16を選択する(ステップS2)。データ抽出部12は、<言語データ>タグ内に含まれる<データ>タグで記述されたオブジェクトを抽出する(ステップS3)。図2のXMLデータ55では、言語データ中に、オブジェクトAとオブジェクトBの2つのオブジェクトが含まれており、データ抽出部12は、まず、オブジェクトAを抽出する。
【0025】
表示領域決定部13は、<位置情報>タグで記述されるオブジェクトの位置情報に対応する表示領域を、ステップS2で選択したマッピングルール16を検索して決定する(ステップS4)。図2のXMLデータ55では、表示領域決定部13は、オブジェクトAの位置情報「位置3」をキーに、図3(b)に示す位置情報マッピングルール22を検索し、オブジェクトAの表示領域を、図3(a)に示す領域Bに決定する。
【0026】
表示形状決定部14は、<意味情報>タグで記述されるオブジェクトの意味情報に対応する表示形状を、ステップS2で選択したマッピングルール16を検索して決定する(ステップS5)。図2のXMLデータ55では、表示形状決定部14は、オブジェクトAの意味情報「くろまる」をキーに、図3(c)に示す意味情報マッピングルール23を検索し、オブジェクトAの表示形状を「●」に決定する。
【0027】
抽出したオブジェクトの表示形状と表示位置とが定まると、データ抽出部12では、言語データの終了タグが現れたか否か、つまり、言語データからオブジェクトを全て抽出したか否かを判定する(ステップS6)。抽出すべきオブジェクトがまだ残っている場合には、ステップS3へ戻り、再びオブジェクトを抽出する。図2のXMLデータ55の例では、ステップS3へ戻り、オブジェクトBを抽出し、位置情報8に対する表示位置図3(a)の領域F、及び、意味情報「ほし」に対する表示形状「☆」を決定する。
【0028】
ステップS6で全てのオブジェクトを抽出したと判断されると、XMLデータ55に含まれる全てのオブジェクトの表示形状及び表示領域が定まり、グラフィックデータ出力部18は、画像を合成するためのデータとして、マッピングルール選択部21から領域形状データ21を、表示形状決定部14から各オブジェクトの表示形状を、表示領域決定部13から各オブジェクトの表示領域を、それぞれ収集する。画像を合成するためのデータが集まると、グラフィックデータ出力部18は、領域形状データ21の背景に、表示領域で指定された領域内の所定の位置に、表示形状で指定された形状を有する各オブジェクトを合成した画像データを、ベクターグラフィックデータとして生成する(ステップS7)。図2に示すXMLデータ55の例では、図5に示すように、●が領域Bに、☆が領域Fに配置されたベクターグラフィック画像が生成される。
【0029】
本実施形態例では、言語データとして記述されるXMLデータ55に基づいて、画像データであるベクターグラフィックデータ56が生成される。その際、XMLデータ55中に記述されるオブジェクトは、意味情報マッピングルール23の変換則に従って決定される表示形状で、位置情報マッピングルール22の変換則に従って決定される表示領域に配置される。オブジェクトを、適切な位置に、適切な表示形状で表示することで、言語による情報の提供に比べて、視認性が高い情報の提供を行なうことができる。
【0030】
マッピングルール16は、同じドキュメント型のXMLデータ55に対して汎用的に適用できるため、頻繁に更新されるXMLデータ55からの画像生成が簡易に行なえる。また、ドキュメント型毎に、位置情報や意味情報を、画像中の表示位置や表示形状に対応付けることができるため、同じ表現で記述される位置情報や意味情報を、ドキュメント型毎に異なる表示位置や表示形状にすることもできる。例えば、位置情報として「東」と記述されていたときに、ドキュメント型1では画像の右端が「東」の表示領域であり、ドキュメント型2では画像の左端が「東」の表示領域であっても良い。
【0031】
画像システム10に入力するXMLデータ55の具体例としては、都道府県毎の天気情報を有するデータが考えられる。この場合、ドキュメント型は、「日本各地の天気」と定義する。「日本各地の天気」に対応するマッピングデータ16としては、背景画像としての日本地図を都道府県単位に分割した領域形状データ21と、都道府県名を日本地図を分割した領域に対応付ける位置情報マッピングルール22と、晴れや雨などの意味情報を晴れマークや雨マークなどの形状データに対応付ける意味情報マッピングルール23とを用意しておく。
【0032】
XMLデータ55中のオブジェクトには、例えば「東京」や「大阪」などの地名が指定される位置情報と、例えば「晴れ」や「雨」などの天気情報が指定される意味情報とが、一対となって記述される。画像生成装置10は、入力されたXMLデータ55から、一対の位置情報と意味情報とを抽出し、背景としての日本地図に、都道府県毎の天気を合成したベクターグラフィックデータ56を出力し、視覚的な情報として日本各地の天気を表示する。天気の情報が更新された場合には、更新前と同じマッピングルール16を使用し、新たな天気情報が視覚的な情報として表示できる。また、異なるドキュメント型として「関東の天気」が指定されたXMLデータ55が入力された場合には、ドキュメント型「関東の天気」用に用意されたマッピングルール16を使用し、関東地方の地図上に、関東各地の天気が合成されたベクターグラフィックデータ56が出力される。
【0033】
なお、上記実施形態例では、XMLデータ55のドキュメント型毎に、領域形状データ、位置情報マッピングルール22、及び、意味情報マッピングルール23の3つのルールを用意する例を説明したが、これら3つのルールは、複数のドキュメント型で共有することもできる。図6は、複数のドキュメント型でルールを共有する例を示している。マッピングルール16は、XMLデータ55のドキュメント型毎に、A又はBの、領域形状データ21、位置情報マッピングルール22、及び、意味情報マッピングルール23を指定する。この場合、使用するルールが重複するときには、異なるドキュメント型のXMLデータ55間で、ルールを共有することが可能になる。また、重複部分を位置情報マッピングルールCや意味情報マッピングルールCのように分割し、これらを共通部分として、A又はBの、位置情報マッピングルール22、及び、意味情報マッピングルール23と組み合わせて使用することもできる。
【0034】
領域形状データ21では、出力平面を、互いに隣接する複数の表示領域に分割する例を示したが、表示領域は、互いに重なり合っていてもよく、また、出力平面中に何れの表示領域にも属さない部分が合っていてもよい。意味情報から決定される表示形状の表示位置は、表示領域の重心であってもよく、或いは、表示領域から決定される任意の場所であってもよい。同じ領域に複数のオブジェクトが配置される場合には、領域内の互いに異なる位置にオブジェクトを配置することもできる。領域形状データ21は、位置情報を表示領域に対応付けるのに代えて、出力平面上の座標に直接に対応付けるようにしてもよい。また、出力平面を3次元仮想空間としてとらえ、例えば、国名(位置情報)を、地球儀上の国(表示領域)にマッピングし、空間画像を生成することもできる。
【0035】
XMLデータ55には、時間に関する情報を含めることもできる。この場合、例えば、各オブジェクトには、<時間情報>タグに記述する時間情報を追加することができる。時間情報は、「今日」、「明日」、又は、「あさって」のような記述がされる。画像生成装置10は、同じ時間情報を有するオブジェクトを同じ画像上に表示する動画像を生成する。例えば、XMLデータ55データとして、「今日」、及び、「明日」の全国各地の天気情報が記載されたデータが入力された場合には、今日の天気、及び、明日の天気を交互に切り替えるアニメーション画像を生成することができる。
【0036】
上記したXMLデータ55に<時間情報>を追加するのに加えて、又は、これに代えて、オブジェクトの意味情報として、「晴れ時々曇り」や「晴れ後曇り」のような時間的要素が含まれる記述をすることもできる。この場合、表示形状決定部14は、意味情報に対応する表示形状として、晴れマークと曇りマークとを用意し、「時々」や「後」という時間情報に基づいて、動画像を生成する。例えば、意味情報として「晴れ時々曇り」と記述されていた場合には、晴れマークと、曇りマークとを交互に切り替えるアニメーション画像を生成することもできる。
【0037】
また、上記実施形態例では、XMLデータ55のドキュメント型によって、マッピングルール16を切り替える例を示したが、同じドキュメント型に対して複数のマッピングルール16を用意することもできる。この場合、マッピングルール選択部15は、ベクターグラフィック画像56を出力する端末の属性や、ユーザの嗜好に合わせて、マッピングルール16を、同じドキュメント型用に用意された複数のうちから選択する。
【0038】
端末属性や、ユーザ嗜好などのクライアント情報を、画像生成装置10に通知する方法としては、HTTPのリクエストヘッダ情報や、CC/PP(Composite Capabilities/Preference Profiles)などを使用する方法を適用することができる。例えば、CC/PPを使用する場合では、クライアント情報から決定されるCC/PPに依存して、マッピングルール選択部15が、同じドキュメント型に用意された複数の中から使用するマッピングルール16を選択することで、端末属性にあった画像を生成することができる。このため、同じドキュメント型のXMLデータ55を、異なる表示形状や表示位置などに表示することができ、より効果的な情報の提供が可能となる。
【0039】
以上、本発明をその好適な実施形態例に基づいて説明したが、本発明の画像生成装置は、上記実施形態例にのみ限定されるものでなく、上記実施形態例の構成から種々の修正及び変更を施した画像生成装置も、本発明の範囲に含まれる。例えば、背景画像は白色などの無地であっても良い。
【0040】
【発明の効果】
以上説明したように、本発明の画像生成装置は、自然言語で記述されたドキュメントに含まれるドキュメント型情報によって定まる背景画像に、位置情報で示される表示位置に、意味情報で定まる表示形状をしたオブジェクトを合成した画像を生成する。このため、視認性の高い情報提供が可能となる。
【図面の簡単な説明】
【図1】本発明の一実施形態例の言語情報からの画像生成装置の構成を示すブロック図。
【図2】図1の画像生成装置に入力するXMLデータの一例を示す記述例。
【図3】マッピングルールの一例を示し、(a)は領域分割の様子を示す平面図、(b)は位置情報と表示領域とを対応付けるテーブル、(c)は意味情報と表示形状戸を対応付けるテーブルをそれぞれ示している。
【図4】本発明の一実施形態例の言語情報からの画像生成方法を示すフローチャート。
【図5】図2に示すXMLデータから生成される画像を示す平面図。
【図6】複数のドキュメント型でマッピングルールを共有する様子を示したブロック図。
【符号の説明】
10:画像生成装置
11:構文解析部
12:データ抽出部
13:表示領域決定部
14:表示形状決定部
15:マッピングルール選択部
16:マッピングルール
18:グラフィックデータ出力部
21:領域形状データ
22:位置情報マッピングルール
23:意味情報マッピングルール
55:XMLデータ
56:ベクターグラフィックデータ
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image generation apparatus, and more particularly to an image generation apparatus that generates an image based on input language data.
[0002]
[Prior art]
Conventionally, several techniques for providing information with high visibility by generating an image based on data described in a natural language and displaying the image have been proposed. For example, Japanese Patent Application Laid-Open No. 8-22554 describes a technique for generating an image corresponding to a sentence by extracting the sentence from a sentence described in a natural language and performing semantic analysis. In the technique described in the publication, for example, a sentence “the sun is shining red” is extracted from a sentence “the sun is shining red. The moon is also white”. , Generating an image that displays “shining” in “red”.
[0003]
[Problems to be solved by the invention]
However, in the technique described in the above publication, when there are two objects “sun” and “moon” to be displayed in the image as in the above example, the positional relationship between the two is not necessarily specified. Therefore, the “sun” and “moon” cannot be arranged at appropriate positions. When the position is specified, for example, when the direction in which the sun exists is specified as “east”, the position of “east” is fixedly set in the image. Therefore, even if you want to change the direction of the center of the image to “south” or “north” and change the position of “east” in the output image, the position of “east” in the fixed image Cannot be moved.
[0004]
On the other hand, Japanese Patent Application Laid-Open No. 11-232274 describes a technique for complementing the discontinuity of a phenomenon described in a natural language and generating a corresponding moving image (animation). However, in the technique described in the publication, attention is paid only to the time series of phenomena when generating an image, and the arrangement of the phenomena is not considered. For this reason, the display position of the display target has meaning only when the action is described in a relative relationship with other things, for example, "the operator moves in front of the whiteboard". become. Therefore, for example, there is a problem that it is not suitable for generating an image in which it is important to arrange a plurality of independent display objects at appropriate positions, such as weather information for each prefecture.
[0005]
The present invention solves the above problems and can generate an image in which an object described in data is arranged at an appropriate position based on data described in a natural language such as Japanese or English. An object is to provide an image generation apparatus.
[0006]
[Means for Solving the Problems]
In order to achieve the above object, an image generation apparatus according to the present invention analyzes a document including document type information indicating a document type and object information having position information and semantic information, and an object described in the document. An image generation apparatus for displaying a first image on a screen, analyzing a document, determining a background image on the screen based on document type information, and based on position information of the extracted object A display position determining unit that determines a position of an object to be displayed in the background image; and a display shape determining unit that determines a shape of the object to be displayed in the background image based on the extracted semantic information of the object; It is characterized by providing.
[0007]
In the image generating apparatus of the present invention, a background image is selected based on document type information included in a document and designating a display target of the document, and position information and semantic information described in the document are included in the background image. Are synthesized and output as an image. For this reason, it is possible to generate a display-type image suitable for the input document, display an image in which the positional relationship is appropriately indicated for a plurality of objects, and display information in the document (language) as visual information ( Image information). The background image may be plain including a white background.
[0008]
In the image generation apparatus of the present invention, it is preferable that the shape of the object and the generated image are made of vector graphic data. In this case, even if the image is enlarged or reduced, details and sharpness are not lost.
[0009]
In the image generation apparatus of the present invention, it is preferable that the background image determination unit determines the background image according to a background image rule that associates document type information with a background image. In this case, it becomes easy to search for a background image corresponding to the document type information.
[0010]
In the image generation device of the present invention, the display position determination unit is based on a position information mapping rule that associates the position information and one area of the plurality of areas in the background image corresponding to the document type information. Then, the position of the object may be determined, or the position of the object may be determined based on a position information mapping rule that associates the position information with the relative position coordinates in the background image.
The position where the object is arranged in the background image is determined with reference to the position information mapping rule prepared corresponding to the document type. For this reason, if the document types are different, the position information of the object described in the same expression can be arranged in different regions or positions in the background image.
[0011]
In the image generation device of the present invention, the display shape determination unit may determine the shape of the object based on a display shape mapping rule that associates the semantic information and the shape of the object corresponding to the document type information. preferable. In this case, if the document types are different, the semantic information of the object described in the same expression can be synthesized with different shapes in the background image.
[0012]
The image generation apparatus of the present invention preferably further includes a database that stores a plurality of combinations of the background image rule, the position information mapping rule, and the display shape mapping rule. In this case, the background image rule, the position information mapping rule, and the display shape mapping rule to be used can be determined by searching the database using document type information as a key.
[0013]
The image generation apparatus of the present invention has a plurality of the combinations for one document type, and the combination of the background image rule, the position information mapping rule, and the display shape mapping rule to be used based on designation from the user. Is preferably determined.
Different images can be obtained from the same document by preparing a plurality of combinations of the background image rule, the position information mapping rule, and the display shape mapping rule corresponding to one document type. At that time, the user notifies the image generation device of client information such as user preferences and user terminal attributes using HTTP request header information, CC / PP (Composite Capabilities / Preference Profiles), etc. You can specify which combination to use.
[0014]
In the image generating apparatus of the present invention, it is preferable that the document includes temporal information, and the display position and / or display shape of the displayed object changes with time. In this case, the temporal information included in the document is described as the positional information and semantic information of each object at time 1 and the positional information and semantic information of each object at time 2, for example, time 1 and time 2 In this order, each object can be animated in the background image. In addition, the semantic information of the object includes temporal information, and the display shape can be changed with time.
[0015]
In the image generation apparatus of the present invention, it is preferable that the document is described in an XML language. In this case, since the XML language can uniquely define attribute information and logical structure of data using a unique tag, it is easy to describe a document or an object.
[0016]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, with reference to the drawings, the present invention will be described in more detail based on exemplary embodiments of the present invention. The image generation apparatus 10 includes a syntax analysis unit 11, a data extraction unit 12, a display area determination unit 13, a display shape determination unit 14, a mapping rule selection unit 15, a database 17 that stores a plurality of mapping rules 16, and graphic data output Part 18. The image generation apparatus 10 inputs XML (Extensible Markup Language) data 55 as language data, converts the XML data 55 using a style sheet such as XSLT (Extensible Stylesheet Language Transformations), and generates SVG (scalable Vector Graphic) as image data. ) Output vector graphic data 56 such as data.
[0017]
The XML data 55 includes language data described in a natural language, and the language data describes one or more objects (objects) to be combined with an output image, including a pair of semantic information and position information. . The XML data 55 defines a document type for data identification. The syntax analysis unit 11 extracts a document type from the input XML data 55. The data extraction unit 12 extracts semantic information and position information of the objects included in the XML data 55. The mapping rule selection unit 15 extracts and selects the mapping rule 16 for determining the display position and display shape of the background image and the object prepared in association with the document type of the XML data 55 from the database 17. .
[0018]
The display area determination unit 13 determines the display area of the object corresponding to the position information extracted by the data extraction unit 12 with reference to the selected mapping rule 16. The display shape determination unit 14 searches the selected mapping rule 16 to determine the display shape of the object corresponding to the semantic information extracted by the data extraction unit 12. The graphic data output unit 18 creates vector graphic data 56 based on the display area determined by the display area determination unit 13 and the display shape determined by the display shape determination unit 14, and is selected based on the document type. This is output as image data in which an object is arranged in the background image.
[0019]
The mapping rule 16 includes area shape data 21 obtained by dividing a background image to be combined with an object into a plurality of areas, a position information mapping rule 22 that associates the position information of the object and the display area of the area shape data 21, and the meaning of the object. There is a semantic information mapping rule 23 that associates information with the display shape on the output screen. The database 17 stores the document type and the mapping rule 16 corresponding to the document type in association with each other. There is no need for one-to-one correspondence between the plurality of position information and the display area, and the plurality of position information may be associated with the same display area. Further, the association between the semantic information and the display shape is not necessarily 1: 1, and a plurality of semantic information may be associated with the same display shape.
[0020]
FIG. 2 shows a specific example of XML data input to the image generation apparatus of FIG. In the XML data shown in the figure, the document type is defined in the second line. As language data, two objects described in the <data> tag are described between the third line and the twelfth line. For example, a “<language data>” tag indicates a start tag of language data, a </ language data> tag indicates an end tag of language data, and language data includes <language data> to </ language data>. Described in between.
[0021]
3A and 3B show examples of mapping rules used in the document type 1. FIG. 3A shows region shape data, FIG. 3B shows position information mapping rules, and FIG. 3C shows semantic information mapping rules. In the XML data 55 of the document type 1, for example, “position 1” or “position 2” which is the position information of the object described in the <position information> tag in the <data> tag is shown in FIG. According to the conversion table, it is converted into the position of the area A of the background image shown in FIG. Further, “maru” or “shiromaru”, which is the semantic information of the object described in the <semantic information> tag, is converted into a circle according to the conversion table shown in FIG.
[0022]
FIG. 4 shows an operation procedure of the image generation apparatus of FIG. FIG. 5 shows an example in which the objects included in the XML data shown in FIG. 2 are arranged on the image according to the mapping rule shown in FIG. Hereinafter, an image generation method according to this embodiment will be described with reference to FIGS. 1 to 5.
[0023]
When the XML data 55 as shown in FIG. 2 having a pair of semantic information and position information as language data is input to the image generation apparatus 10 shown in FIG. 1, the syntax analysis unit 11 reads the XML data 55 of the input XML data 55. Parsing is performed, and the document type of the XML data 55 is acquired from the DOCTYPE declaration included in the XML data (step S1). In the XML data 55 of FIG. 2, the document type 1 is designated in the second line as the document type.
[0024]
The mapping rule selection unit 16 selects the mapping rule 16 corresponding to the document type acquired by the syntax analysis unit 11 (step S2). The data extraction unit 12 extracts an object described in the <data> tag included in the <language data> tag (step S3). In the XML data 55 of FIG. 2, the language data includes two objects, object A and object B, and the data extraction unit 12 first extracts the object A.
[0025]
The display area determination unit 13 searches the mapping rule 16 selected in step S2 to determine the display area corresponding to the position information of the object described by the <position information> tag (step S4). In the XML data 55 of FIG. 2, the display area determination unit 13 searches the position information mapping rule 22 shown in FIG. 3B using the position information “position 3” of the object A as a key, and determines the display area of the object A. The region B shown in FIG.
[0026]
The display shape determination unit 14 searches the mapping rule 16 selected in step S2 to determine the display shape corresponding to the semantic information of the object described by the <semantic information> tag (step S5). In the XML data 55 of FIG. 2, the display shape determination unit 14 searches the semantic information mapping rule 23 shown in FIG. 3C using the semantic information “Kuromaru” of the object A as a key, and determines the display shape of the object A. Decide on “●”.
[0027]
When the display shape and display position of the extracted object are determined, the data extraction unit 12 determines whether or not the end tag of the language data has appeared, that is, whether or not all the objects have been extracted from the language data (step S6). ). If there are still objects to be extracted, the process returns to step S3 to extract the objects again. In the example of the XML data 55 in FIG. 2, the process returns to step S 3, the object B is extracted, the display position relative to the position information 8, the region F in FIG. decide.
[0028]
If it is determined in step S6 that all objects have been extracted, the display shape and display area of all objects included in the XML data 55 are determined, and the graphic data output unit 18 performs mapping as data for combining images. The region shape data 21 is collected from the rule selection unit 21, the display shape of each object is collected from the display shape determination unit 14, and the display region of each object is collected from the display region determination unit 13. When the data for synthesizing the images is collected, the graphic data output unit 18 has each shape having the shape specified by the display shape at a predetermined position in the region specified by the display region on the background of the region shape data 21. Image data obtained by combining the objects is generated as vector graphic data (step S7). In the example of the XML data 55 shown in FIG. 2, as shown in FIG. 5, a vector graphic image in which ● is arranged in the region B and ☆ is arranged in the region F is generated.
[0029]
In this embodiment, vector graphic data 56 that is image data is generated based on XML data 55 described as language data. At this time, the object described in the XML data 55 is arranged in a display area determined according to the conversion rule of the positional information mapping rule 22 in a display shape determined according to the conversion rule of the semantic information mapping rule 23. By displaying an object at an appropriate position and in an appropriate display shape, it is possible to provide information with high visibility as compared to providing information in a language.
[0030]
Since the mapping rule 16 can be applied universally to XML data 55 of the same document type, image generation from the frequently updated XML data 55 can be easily performed. In addition, since position information and semantic information can be associated with display positions and display shapes in an image for each document type, position information and semantic information described in the same expression can be displayed with different display positions and A display shape can also be used. For example, when “east” is described as the position information, the right end of the image is the “east” display area in the document type 1, and the left end of the image is the “east” display area in the document type 2. Also good.
[0031]
As a specific example of the XML data 55 input to the image system 10, data having weather information for each prefecture can be considered. In this case, the document type is defined as “weather in various parts of Japan”. As mapping data 16 corresponding to “weathers in various parts of Japan”, area shape data 21 obtained by dividing a Japanese map as a background image into units of prefectures, and a location information mapping rule that associates prefecture names with areas obtained by dividing a map of Japan 22 and a semantic information mapping rule 23 that associates semantic information such as sunny and rain with shape data such as sunny and rain marks are prepared.
[0032]
For example, the object in the XML data 55 includes a pair of location information specifying a place name such as “Tokyo” or “Osaka” and semantic information specifying a weather information such as “sunny” or “rain”. It is described as. The image generation apparatus 10 extracts a pair of position information and semantic information from the input XML data 55, and outputs vector graphic data 56 obtained by synthesizing weather for each prefecture on a map of Japan as a background. Weather information from all over Japan is displayed. When the weather information is updated, new weather information can be displayed as visual information using the same mapping rule 16 as before the update. When XML data 55 in which “Kanto weather” is specified as a different document type is input, the mapping rule 16 prepared for the document type “Kanto weather” is used to display the map data in the Kanto region. In addition, the vector graphic data 56 in which the weather in the Kanto region is combined is output.
[0033]
In the above embodiment, an example in which three rules of area shape data, position information mapping rule 22 and semantic information mapping rule 23 are prepared for each document type of XML data 55 has been described. Rules can be shared by multiple document types. FIG. 6 shows an example in which a rule is shared by a plurality of document types. The mapping rule 16 designates the area shape data 21, the position information mapping rule 22, and the semantic information mapping rule 23 of A or B for each document type of the XML data 55. In this case, when the rules to be used overlap, the rules can be shared between the XML data 55 of different document types. Further, the overlapping portion is divided like the location information mapping rule C and the semantic information mapping rule C, and these are used as a common portion in combination with the location information mapping rule 22 and the semantic information mapping rule 23 of A or B. You can also
[0034]
In the area shape data 21, the output plane is divided into a plurality of adjacent display areas. However, the display areas may overlap each other and belong to any display area in the output plane. The parts that don't fit may be right. The display position of the display shape determined from the semantic information may be the center of gravity of the display area, or may be an arbitrary place determined from the display area. When a plurality of objects are arranged in the same area, the objects can be arranged at different positions in the area. The area shape data 21 may be directly associated with the coordinates on the output plane instead of associating the position information with the display area. Further, the output plane can be regarded as a three-dimensional virtual space, and for example, a country name (position information) can be mapped to a country (display area) on the globe to generate a spatial image.
[0035]
The XML data 55 can also include information about time. In this case, for example, time information described in a <time information> tag can be added to each object. The time information is described as “Today”, “Tomorrow”, or “Tomorrow”. The image generation device 10 generates a moving image that displays objects having the same time information on the same image. For example, when data describing the weather information of “Today” and “Tomorrow” throughout the country is input as the XML data 55 data, an animation for alternately switching between today's weather and tomorrow's weather An image can be generated.
[0036]
In addition to or instead of adding <time information> to the XML data 55 described above, a temporal element such as “cloudy when sunny” or “cloudy after sunny” is included as semantic information of the object. It can also be described. In this case, the display shape determination unit 14 prepares a clear mark and a cloudy mark as display shapes corresponding to the semantic information, and generates a moving image based on time information such as “sometimes” or “after”. For example, if “sunny and cloudy” is described as the semantic information, an animation image that switches between a sunny mark and a cloudy mark can be generated.
[0037]
Moreover, although the example which switches the mapping rule 16 by the document type of the XML data 55 was shown in the said embodiment example, the several mapping rule 16 can also be prepared with respect to the same document type. In this case, the mapping rule selection unit 15 selects the mapping rule 16 from a plurality of prepared for the same document type according to the attribute of the terminal that outputs the vector graphic image 56 and the user's preference.
[0038]
As a method for notifying the image generation apparatus 10 of client information such as terminal attributes and user preferences, a method using HTTP request header information, CC / PP (Composite Capabilities / Preference Profiles), or the like is applied. it can. For example, in the case of using CC / PP, depending on the CC / PP determined from the client information, the mapping rule selection unit 15 selects the mapping rule 16 to be used from among a plurality prepared for the same document type. By doing so, an image suitable for the terminal attribute can be generated. For this reason, XML data 55 of the same document type can be displayed in different display shapes, display positions, etc., and more effective information can be provided.
[0039]
As described above, the present invention has been described based on the preferred embodiment. However, the image generation apparatus of the present invention is not limited to the above embodiment, and various modifications and changes can be made to the configuration of the above embodiment. An image generating apparatus that has been modified is also included in the scope of the present invention. For example, the background image may be plain such as white.
[0040]
【The invention's effect】
As described above, the image generation apparatus of the present invention has a background image determined by document type information included in a document described in a natural language, a display shape determined by semantic information at a display position indicated by position information. Generate an image that combines objects. For this reason, it is possible to provide highly visible information.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of an image generation apparatus from language information according to an embodiment of the present invention.
FIG. 2 is a description example showing an example of XML data input to the image generation apparatus of FIG. 1;
3A and 3B show examples of mapping rules, where FIG. 3A is a plan view showing a state of area division, FIG. 3B is a table associating position information with display areas, and FIG. 3C is associated with semantic information and display shape doors. Each table is shown.
FIG. 4 is a flowchart showing a method for generating an image from language information according to an embodiment of the present invention.
5 is a plan view showing an image generated from the XML data shown in FIG. 2. FIG.
FIG. 6 is a block diagram showing how a mapping rule is shared by a plurality of document types.
[Explanation of symbols]
10: Image generation device 11: Syntax analysis unit 12: Data extraction unit 13: Display region determination unit 14: Display shape determination unit 15: Mapping rule selection unit 16: Mapping rule 18: Graphic data output unit 21: Region shape data 22: Position information mapping rule 23: Semantic information mapping rule 55: XML data 56: Vector graphic data

Claims (10)

ドキュメントの型式を示すドキュメント型情報と、自然言語で記述された位置情報及び意味情報を有するオブジェクト情報とを含むドキュメントを解析し、前記ドキュメントに記述されたオブジェクトの画像を画面上に表示する画像生成装置であって、
ドキュメントを解析し、ドキュメント型情報に基づいて画面上の背景画像を決定する背景画像決定部と、
前記ドキュメントから抽出されたオブジェクトの位置情報と、前記ドキュメント型情報に対応し、前記位置情報と前記背景画像における表示位置との対応を定義する位置情報マッピングルールとに基づいて、前記背景画像中に表示するオブジェクトの位置を決定する表示位置決定部と、
前記ドキュメントから抽出されたオブジェクトの意味情報に基づいて、前記背景画像中に表示するオブジェクトの形状を決定する表示形状決定部とを備えることを特徴とする画像生成装置。
Analyzing a document including document type information indicating a document type and object information having position information and semantic information described in a natural language, and generating an image for displaying an image of the object described in the document on the screen A device,
A background image determination unit that analyzes a document and determines a background image on a screen based on document type information;
In the background image , based on the position information of the object extracted from the document and the position information mapping rule corresponding to the document type information and defining the correspondence between the position information and the display position in the background image A display position determination unit for determining the position of an object to be displayed;
An image generation apparatus comprising: a display shape determination unit that determines a shape of an object to be displayed in the background image based on semantic information of the object extracted from the document.
前記オブジェクトの形状及び生成される画像が、ベクターグラフィックデータからなる、請求項1に記載の画像生成装置。  The image generation apparatus according to claim 1, wherein the shape of the object and the generated image are made of vector graphic data. 前記背景画像決定部は、ドキュメント型情報と背景画像とを関連付ける背景画像ルールに従って、前記背景画像を決定する、請求項1又は2に記載の画像生成装置。  The image generation apparatus according to claim 1, wherein the background image determination unit determines the background image according to a background image rule that associates document type information with a background image. 前記表示位置決定部は、前記ドキュメント型情報に対応する、前記位置情報と前記背景画像中の複数の領域の内の1つの領域とを関連付ける位置情報マッピングルールに基づいて、前記オブジェクトの位置を決定する、請求項3に記載の画像生成装置。  The display position determination unit determines the position of the object based on a position information mapping rule that associates the position information corresponding to the document type information with one of a plurality of areas in the background image. The image generation apparatus according to claim 3. 前記表示位置決定部は、前記ドキュメント型情報に対応する、前記位置情報と前記背景画像中の位置座標とを関連付ける位置情報マッピングルールに基づいて、前記オブジェクトの位置を決定する、請求項3に記載の画像生成装置。The said display position determination part determines the position of the said object based on the positional information mapping rule which links | relates the said positional information and the positional coordinate in the said background image corresponding to the said document type information. Image generation device. 前記表示形状決定部は、前記ドキュメント型情報に対応する、前記意味情報とオブジェクトの形状とを関連づける表示形状マッピングルールに基づいて、前記オブジェクトの形状を決定する、請求項4又は5に記載の画像生成装置。  The image according to claim 4 or 5, wherein the display shape determination unit determines the shape of the object based on a display shape mapping rule that associates the semantic information and the shape of the object corresponding to the document type information. Generator. 前記背景画像ルール、位置情報マッピングルール、及び、表示形状マッピングルールの組合せを複数記憶するデータベースを更に備える、請求項6に記載の画像生成装置。  The image generation apparatus according to claim 6, further comprising a database that stores a plurality of combinations of the background image rule, the position information mapping rule, and the display shape mapping rule. 1つのドキュメント型に対して前記組み合わせを複数有し、ユーザからの指定に基づいて、使用する前記背景画像ルール、位置情報マッピングルール、及び、表示形状マッピングルールの組み合わせを決定する、請求項7に記載の画像生成装置。  The combination of the background image rule, the position information mapping rule, and the display shape mapping rule to be used is determined based on designation from the user, wherein the combination includes a plurality of combinations for one document type. The image generating apparatus described. ドキュメントが時間的情報を含み、表示されるオブジェクトの表示位置、及び/又は、表示形状が時間的に変化する、請求項1〜8の何れかに記載の画像生成装置。  The image generating apparatus according to claim 1, wherein the document includes temporal information, and a display position and / or a display shape of the displayed object changes temporally. 前記ドキュメントがXML言語で記述される、請求項1〜9の何れかに記載の画像生成装置。  The image generation apparatus according to claim 1, wherein the document is described in an XML language.
JP2002178617A 2002-06-19 2002-06-19 Image generation device Expired - Lifetime JP4143341B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002178617A JP4143341B2 (en) 2002-06-19 2002-06-19 Image generation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002178617A JP4143341B2 (en) 2002-06-19 2002-06-19 Image generation device

Publications (2)

Publication Number Publication Date
JP2004021819A JP2004021819A (en) 2004-01-22
JP4143341B2 true JP4143341B2 (en) 2008-09-03

Family

ID=31176285

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002178617A Expired - Lifetime JP4143341B2 (en) 2002-06-19 2002-06-19 Image generation device

Country Status (1)

Country Link
JP (1) JP4143341B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7624349B2 (en) * 2006-03-21 2009-11-24 Microsoft Corporation Declarative definition enabling graphical designer reuse
US20090079744A1 (en) * 2007-09-21 2009-03-26 Microsoft Corporation Animating objects using a declarative animation scheme
CN114691437A (en) * 2022-04-07 2022-07-01 珠海市运泰利自动化设备有限公司 Test correction device and method

Also Published As

Publication number Publication date
JP2004021819A (en) 2004-01-22

Similar Documents

Publication Publication Date Title
US10475157B2 (en) Digital mapping system
Reitmayr et al. Collaborative augmented reality for outdoor navigation and information browsing
CA2820299C (en) A digital mapping system
CN101553778B (en) Method for reappearring numerical map and tile therein
JP2007531004A5 (en)
US7200615B2 (en) Viewing tabular data on small handheld displays and mobile phones
CN103187002A (en) Method for generating electronic map
US7856345B2 (en) Method for building and managing a web site
JP3711025B2 (en) Virtual reality space movement control device
JP2658439B2 (en) Image search method
JP4143341B2 (en) Image generation device
JPH08329281A (en) Image display method
US20100042938A1 (en) Interactive Navigation of a Dataflow Process Image
JP2002041571A (en) Information retrieving device
JP2000035843A (en) Hypertext display device and system
JPH08263477A (en) Device and method for displaying document
Mendez et al. Adaptive augmented reality using context markup and style maps
JP2004227481A (en) Map making system and map making program
Guyon et al. MappetShow: non-linear visualization for genome data
KR20000030683A (en) System for auto-creating rough-sketch on demand and searching rough-sketch and method of controlling the same
Agrawal Augmented Reality, an Emerging Technology and its View Management Problem.
JPH07325718A (en) Message transmission controller
JPH1185447A (en) Hyperlink management device
JP2001022790A (en) Method and device for synthesizing character information and image
JP2006059369A (en) Database function improvement support device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050517

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20071120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080428

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080605

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080616

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110620

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4143341

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110620

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120620

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120620

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130620

Year of fee payment: 5

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term