JP2004078414A - Multi-screen display method by multiple display devices, and program and recording medium for the method - Google Patents
Multi-screen display method by multiple display devices, and program and recording medium for the method Download PDFInfo
- Publication number
- JP2004078414A JP2004078414A JP2002235829A JP2002235829A JP2004078414A JP 2004078414 A JP2004078414 A JP 2004078414A JP 2002235829 A JP2002235829 A JP 2002235829A JP 2002235829 A JP2002235829 A JP 2002235829A JP 2004078414 A JP2004078414 A JP 2004078414A
- Authority
- JP
- Japan
- Prior art keywords
- master
- slave
- event
- data
- time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Digital Computer Display Output (AREA)
- Transforming Electric Information Into Light Information (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、ネットワーク接続された複数台の表示装置からなる表示システムにおいて、コンピュータグラフィックス(CG)により生成された単一の3次元空間画像を複数の画面に分割して、各表示装置の画像表示部により空間的及び時間的に連続性をもって表示する多画面表示方法に関する。
【0002】
【従来の技術】
ネットワーク接続された複数台の表示装置からなる表示システムにおいて、単一の3次元空間画像を複数の画面に分割して、空間的及び時間的に連続性のある映像を表示する場合は、各画面に表示されるオブジェクトの動き(オブジェクトが自律的に動く場合と、視点が移動する結果、オブジェクトが動く場合とがある。)を同期させることが望まれる。このような要望に応える多画面表示方法を、従来技術により実現しようとする場合は、次のようなものになると考えられる。図10のフローチャートに基づいて説明すると、多画面表示のための表示システムを構成する各表示装置は、ネットワーク接続されたコンピュータと、そのコンピュータに接続された画像表示部とを有し、コンピュータはその一つをマスター、他をスレーブとして用いる。図10の(a)はマスターとスレーブに共通な処理動作の手順を、同図の(b)はマスターによるフレーム毎の処理動作の手順を、同図の(c)はスレーブによるフレーム毎の処理動作の手順をそれぞれ示す。
【0003】
その処理動作の内容を概略的に説明すると、
1)図10(a)に示すように、マスター及びスレーブは、起動されて相互間にコミュニケーションが確立すると、それぞれネットワーク共有されたデータベースから3次元空間データを自己にロードする。
2)マスターは、時間経過やユーザー操作等のイベントに応じて3次元空間及び視点情報を更新し、前フレームからの差分(変化分)をスレーブに通知する。
3)スレーブは、通知された差分を用いて、3次元空間及び視点情報を更新する。
4)マスター及びスレーブは、更新された3次元空間及び視点情報を使用して3次元空間及び視点情報を描画する。
5)上記2),3),4)を終了まで繰り返す。
【0004】
3次元空間の更新とは、下記のような処理を指す。
a)3次元空間を構成するオブジェクト(以下、単にオブジェクトという。)の配置情報(移動、回転、スケール)の変更。
b)オブジェクトの表示・非表示の切り替え。
c)オブジェクトの変形。
また、視点情報の更新は下記のような処理を指す。
d)視点位置の変更。
e)視線方向の変更。
【0005】
【発明が解決しようとする課題】
上記従来方法は、いわば「空間共有・差分通知型」である。この従来方法の最大の問題点は、差分として送信されるデータ量が非常に多いことである。すなわち、3次元空間全体にわたってオブジェクトの変形が発生する(すなわち、頂点座標が変化する)など、最悪の場合には、送信データ量が数百万ビットにも及ぶ場合もあるため、ネットワークの負荷が増大し、安定したフレームレートを達成できない。
このため、多くの場合はフレーム毎の更新に一定の制限を持たせる。例えば、a)視点情報のみの更新に制限する(3次元空間が変化しないことを前提とする)、b)3次元空間に対する更新を、オブジェクトの配置情報のみに限定する(オブジェクトが変形しないことを前提とする)、などが一般的である。
【0006】
本発明は、上記の事情に鑑みてなされたものであり、その課題は、ネットワーク接続された複数台の表示装置からなる表示システムにおいて単一の3次元空間画像を複数の画面に分割して空間的及び時間的に連続性をもって表示する多画面表示方法において、マスターからスレーブに対する送信データ量の削減及びネットワーク負荷の軽減を図り、各画像表示部により高速で完全に同期が取れた映像を表示できるようにすることにある。
他の課題は、上記課題を解決する多画面表示方法を実現するために好適なプログラム、及び同プログラムを記録した記録媒体を提供することにある。
【0007】
【課題を解決するための手段】
上記課題を解決するため、請求項1の発明は、ネットワーク接続された複数台の表示装置からなる表示システムにおいて単一の3次元空間画像を分割して前記各表示装置の画像表示部により動画像を表示する多画面表示方法において、各表示装置を構成するコンピュータ(以下、PCという。)を1台のマスターPCと、それ以外のスレーブPCに分け、各PCによる処理手順に、次のステップを含むことを特徴としている。すなわち、
i)ネットワーク共有されたデータベースから3次元空間データを、マスター及びスレーブがそれぞれロードするステップ。
ii)マスターは、時間経過を計測し、所定時間毎にスレーブに対して時刻データを配信するステップ。
iii)マスターは、ユーザ操作などによるイベント発生の有無を監視し、イベント発生時にはそのイベントに対応するコマンドを自己及びスレーブに与えるステップ。
iV)マスターとスレーブは、イベントに対応するコマンドに基づいて、ゼンキ時刻データ及び前記ロードした3次元空間データを用いて3次元空間及び視点情報を自律的に更新し、描画を行うステップ。
ここで、前記イベントとは、時刻等の外的条件の変化と、ユーザのキーボード又はマウスの操作等により人的に入力される情報とである。
【0008】
上記の請求項1の発明による同期化手法は、「空間・時間・イベント共有型」と呼ぶことができる。マスターPCは、イベントが発生したと判断したときは、それに対応する所定のコマンドを自己及び全スレーブPCに与えるため、マスターPCとスレーブPCにおいて同一時刻に同一内容の処理が実行される。これにより、マスターPCとスレーブPCは、ネットワーク共有されたデータベースからメモリにロードされた3次元空間と、時間及び空間内で任意の時刻に発生するイベントを共有することになり、ほぼ完全に同期の取れた映像を表示することができる。
【0009】
上記請求項1の方法発明である、ネットワーク接続された複数台の表示装置からなり、1台の表示装置のコンピュータをマスターとし、他の表示装置のコンピュータをスレーブとする表示システムにおいて単一の3次元空間画像を分割して前記各表示装置の画像表示部により動画像を表示する多画面表示方法を実現するためのマスターコンピュータ用プログラムは、
i)ネットワーク共有されたデータベースから3次元空間データを自己にロードするステップと、
ii)時間経過を計測し、所定時間毎に前記スレーブに対して共通の時刻データを配信するステップと、
iii)イベントの発生の有無を監視し、イベント発生時にはそのイベントに対応する所定のコマンドを自己及び前記スレーブに与えるステップと、
iv)前記イベント、すなわち、経過時間による状態の変化を認識して及び/又はユーザ操作等に対応するコマンドに基づいて、前記時刻データ及び前記ロードした3次元空間データを用いて3次元空間及び視点情報を自律的に更新し、描画を行うステップとを含むことを特徴としている(請求項2)。
【0010】
また、スレーブコンピュータ用プログラムは、
i)前記ネットワーク共有されたデータベースから3次元空間データを自己にロードするステップと、
ii)前記イベント、すなわち、経過時間による状態の変化を認識して及び/又はユーザ操作等のに対応するコマンドに基づいて、前記時刻データ及び前記ロードした3次元空間データを用いて3次元空間及び視点情報を自律的に更新し、描画を行うステップとを含むことを特徴としている(請求項3)。
【0011】
【発明の実施の形態】
次に、本発明の実施の形態について、図面を参照して説明する。
図1は、本発明による多画面表示方法を実施する、ネットワーク接続された複数台の表示装置からなる表示システムの構成を概略的に示すブロック図、図2はマスターPCの機能を示す図表、図3はスレーブPCの機能を示す図表、図4はマスターとスレーブの間の基本的動作を説明する概念図、図5は3次元空間の画像が各画像表示部に表示されるまでの過程を示す模式図、図6はマスターとスレーブに共通な処理動作を説明するフローチャート、図7はマスター及びスレーブのフレーム毎の処理を説明するフローチャート、図8は図7のステップS14及びS23の処理内容を説明するフローチャート、図9はマスターとスレーブの画像表示部による表示例を示す表示画面の正面図である。
【0012】
図1は、表示システムDSがネットワーク接続された3台の表示装置SAで構成されている例を示すものであり、同図において、PC1〜PC3は各表示装置を構成するコンピュータであり、それぞれ入力部IN1〜IN3と、演算制御部CPU1〜CPU3と、記憶部M1〜M3と、画像表示部D1〜D3とを有している。
【0013】
各PCには、その起動時に実行される3次元空間データロード用ソフトウェア、フレーム毎の同期処理をするためのソフトウェア(以下、同期化処理ソフトウェアという)、及び描画処理を行うソフトウェアが実装されている。また、マスターPC1には、図2に示すように、スレーブPC2,PC3と共通な3次元空間データロード手段11、描画手段12のほかに、マスターPC1に特有な構成手段として、経過時間計測手段13と、時刻データ配信手段14と、イベント検出手段15と、コマンド供与手段16とを有している。
【0014】
これに対して、スレーブPC2,PC3は同一の構成であり、図3に示すように、マスターPC1と共通の3次元空間データロード手段17、描画手段18のほか、スレーブ固有の構成として、時刻データ受信手段19と、コマンド受信手段20とを有している。
【0015】
図1において、DBは、3台の表示装置にネットワーク共有されたデータベースであり、これに単一の3次元空間画像を生成するための基本的データ(3次元空間データ)が格納されている。
3次元空間データは、オブジェクトの配置情報(すなわち位置・回転・スケール)、オブジェクトデータ、オブジェクトの配置情報のキーフレームアニメーション、初期視点情報及び視点位置・視線方向のキーフレームアニメーションからなっている。
また、前記オブジェクトデータは、形状データ(すなわち、オブジェクトを形成する多角形群の頂点座標配列)と、属性データ(すなわち、オブジェクトのマテリアル(色、光沢などの表面特性))と、テクスチャ(すなわち、二次元画像データで定義される表面図柄)と、頂点座標のキーフレームアニメーションからなっている。
【0016】
3次元空間データロード手段11、17は、図4(a)及び図5に示すように、ネットワーク共有されたデータベースDBから、それに格納されている3次元空間データをロードし、マスターPC1及びスレーブPC2,PC3の記憶部M1,M2,M3の中にそれぞれ展開するようになっている。マスターPC1は、経過時間計測手段13により基本クロックを用いて経過時間を常時計測し、時刻データ配信手段14により所定時間、例えば、フレームレートが1秒間に30の場合は33ms経過毎に、図4(b)に示すように、マスターPC1から各スレーブPC2,PC3に共通の時刻データを配信して、マスターPC1とスレーブPC2,3の時間を一元的に管理するようになっている。
【0017】
また、イベント検出手段15は、例えば、キーボード、ジョイスティック又はマウス等の入力部IN1の操作により、あるいは、設定された時間の到来によりイベントが発生したか否かを監視する。イベント発生を検出すると、マスターPC1は、そのイベントに対応する所定のコマンドを構成し、そのコマンドをコマンド供与手段16によりマスターPC1に与えると同時に、全スレーブPC2,PC3に配信する。このコマンドには、例えば、下記のようなものがある。
*オブジェクトの配置情報(移動・回転・スケール)の変更
*オブジェクトの表示・非表示の切り替え
*オブジェクトの変形
*各種キーフレームアニメーションの開始
ここで、キーフレームアニメーションは、周知のように、アニメーション開始時を基準(0フレーム)とした相対時刻(キーフレーム)における上記情報の値を時系列に表したもので、キーフレーム間の時刻に対応する値は、適宜補間して求められる。そして、キーフレームアニメーションには、オブジェクトの配置情報のキーフレームアニメーション、オブジェクトの頂点座標のキーフレームアニメーション、及び視点位置・視線方向のキーフレームアニメーションがある。本明細書では、キーフレームアニメーションにおいて、ある時刻tにおける値を求めることを、「キーフレームアニメーションを時刻tで評価する」と表現することとする。
【0018】
従って、その後は、その共通の時刻データに基づいてマスターPC1とスレーブPC2,PC3において、同一時刻に処理が実行される。これにより、マスターPC1とスレーブPC2,PC3は空間、時間及び空間内で任意の時刻に発生するイベントを共有することになり、ほぼ完全に同期が取れた描画を行うことができる。従ってまた、各表示装置は、画像表示部D1〜D3にほぼ完全に同期が取れた映像を表示することができる。
【0019】
本発明方法においては、上述のように、マスターからスレーブにイベント情報及び経過時間情報を送信するので、この方式をイベント・空間・時間共有方式ということができる。従って、現行の多画面表示方法においては、イベント発生の結果として生じる3次元空間の変化を送信するため送信データ量が膨大となりがちであるが、本発明方法においては、イベントそのものを表す情報及び経過時間情報のみを送信するので、送信データ量は前者と比べて著しく小さくなる。さらに、本発明においては、データの送信を各スレーブに対して個別に行うのではなく、一般にマルチキャストと称される通信技術(複数のノードに対して同一データを送信する通信方法)を使用して行う。これにより、表示装置の数が増えてもネットワークの負荷は変化せず(ネットワークポートの物理的な限界を受けるほかは)、画面数を無限に増加させることが可能である。
【0020】
前記イベント検出に基づいて発生されるコマンドには、同期化処理ソフトウェアにより予め定義したもの(組み込みコマンド)と、ユーザが独自に定義し、処理方法(コールバック関数=登録した手続を呼出すための関数)を同期化処理ソフトウェアに登録したもの(カスタムコマンド)とがある。同期化処理ソフトウェアには、ユーザがカスタムコマンドを容易に実装できるように、雛形(テンプレート)が用意してある。
【0021】
続いて、図5ないし図9の図面に基づいて、各PCの動作を説明する。
マスターPC1もスレーブPC2、PC3も、起動されて相互間のコミュニケーションが確立すると、図6に示すように、最初にデータベースDBより共通の3次元空間データdをロードする(図6のステップS1)。すなわち、共通の3次元空間データdを図5の各PCの記憶部M1〜M3にそれぞれ格納する。ロードが終了すると、ステップS3においてそれぞれマスターPC1と各スレーブPC2、3においてフレーム毎の処理が終了時まで実行される。フレーム毎の処理の内容は、図7に示される通りである。
【0022】
すなわち、マスターPC1においては、図7(a)に示すように、イベント検出手段15によりユーザ操作などのイベントを検出し(S11)、続いてイベントの有無を判断し(S12)、イベント有りの場合(S12においてY)は、そのイベントに対応する所定のコマンドを発生して、これをマスターPC1自身に認識させるとともに、スレーブPC2、PC3に与えてイベント発生を通知する(S13)。
そして、マスターPC1は、ステップS14において、そのコマンドを実行する。ステップS14の詳細を説明すると、図8に示すように、マスターPC1は、コマンドを検出すると(S5)、そのコマンドが組み込みコマンドか否かを判別し(S6)、組み込みコマンドである場合(S6においてYの場合)は、同期化処理プログラムにより実装された処理(視点移動、オブジェクト切換え、又は移動などの基本的な処理)を実行して(S7)、その後、図7(a)のステップS15に移行する。
ステップS5において検出したコマンドが組み込みコマンドでないと判定した場合(S6においてNの場合)は、そのコマンドがユーザにより定義されたコマンド(カスタムコマンド)か否かを判別する(S8)。そして、肯定の場合は、コールバック関数を通じてユーザが登録した処理を行い(S9)、その後、図7(a)のステップ15に移行する。また、ステップS8の判断の結果が否定の場合は、そのコマンドは未定義のコマンドであると判断してエラー処理を行って(S10)、図7(a)のステップ15に移行する。
【0023】
続いて、1フレーム分の時間が経過したか否かを判断し(S15)、1フレーム分の時間が経過したと判断した時(S15においてY)は、マスターPCは、その時の時刻情報をスレーブPC2、3に配信(時刻データ配信)する(S16)とともに、時間経過に応じた処理を実行する(S17)。具体的には、キーフレームアニメーションの評価と、評価の結果得られた値の3次元空間・視点情報への反映などである。ここで、視点情報とは、視点位置と視線方向と視野角とからなる、3次元空間を描画する際の視錘台に関する情報の総称である。
そして、マスターPC1に割り当てられた3次元空間及び視点情報が描画される(S18)。この場合、PC1の描画の範囲、すなわち描画の対象とされるオブジェクトは、起動時にPC1に設定されているパラメータによって自動的に決められる。例えば、視野角を水平方向に三分割して、PC1が中央の描画を担当するようパラメータ設定がされている場合は、図5における3次元空間データdの内、d1が処理対象とされる。
マスターPC1におけるフレーム毎の処理が終了する(S2においてY)と、ステップS4において、各種使用リソースの解放などの終了処理が実行されるようになっている。
【0024】
他方、スレーブPC2、PC3においては、図7(b)に示すように、まず、ステップS21において、マスターPC1からの受信、すなわち、イベント通知又は時刻データ配信を待機する。そして、イベント通知を検出したか否かを判断し(S22)、イベント通知を検出した場合は、ステップS23において、マスターPC1によるステップS14と同様にコマンドを実行する。
【0025】
続いて、マスターPC1から時刻データを受信しか否かを判断し(S24)、受信した場合は、その時間経過に応じた処理をマスターPC1と同様に実行する(S25)。この時間経過に応じた処理はマスターPC1から受信した時刻データに基づいて行うので、各表示装置における描画内容が完全に同期化される。こうして、スレーブPC2、PC3に割り当てられた3次元空間及び視点情報が描画される。スレーブPC2、PC3においても、描画対象とされるオブジェクトは、マスターPC1同様、起動時にそれぞれのPCに設定されているパラメータによって自動的に決められ、例えばPC2では図5における3次元空間データdの内d2が、PC3ではd3が、それぞれ描画対象とされる。各スレーブPC2、PC3におけるフレーム毎の処理が終了する(S2においてY)と、ステップS4において、各種使用リソースの解放などの終了処理が実行されるようになっている。
【0026】
図9は、一つの表示システムにおける3個の表示装置の画像表示部D1〜D3による表示例を示すものであるが、上段(Ta)の画像表示部D1〜D3は、ある時刻における(フレームレートが1秒間に30フレームの場合は1/33秒の)映像を示し、下段(Tb)の画像表示部D1〜D3は、その一定時間経過後のある時刻における(同じく1/33秒の)映像を示している。これらの表示内容は、データベースDBに格納されている3次元空間データが、
a.家屋が点在する平原
b.平原の上方に雲が散在している天球
c.平原に林立して揺動する円柱状の物体群
d.平原の上方を周回運動する球状の物体群
を構成するものである場合、その3次元空間データをマスターPC1とスレーブPC2、PC3にそれぞれロードして記憶部M1〜M3にそれぞれ格納し、視野角を水平方向に三分割して、マスターPC1は中央部分の視野内に収まるオブジェクト群d1 を中央の画像表示部D1に、スレーブPC2、PC3は右側部分及び左側部分の視野内に収まるオブジェクト群d2 ,d3 を右側と左側の画像表示部D2,D3に描画している。こうして、3台の並列された画像表示部には、上記映像が表示されている。また、図9の例において、前記cの円柱状物体群の揺動及び前記dの球状物体群の周回運動は、各画像表示部間で完全に同期して表示される。
なお、3次元空間データは、図9の例に限定されないことはいうまでもない。また、複数台の画像表示部は、横に整列する場合に限らず、縦に整列する場合にも、同様の連続性と同期性が実現される。
【0027】
上記組み込みコマンド又はカスタムコマンドにおけるコマンドの最大長は、処理負荷の増大を招かないように、同期化処理ソフトウェアにより例えば512バイトに設定されている。また、時刻配信に用いられるデータも数十バイト程度であるため、従来型に比し、ネットワークへの送信負荷は格段に低くなる。よって、3次元空間及び視点情報の更新に特に制限を設ける必要がない。その結果、高速な多画面表示アプリケーションの構築が可能となる。
【0028】
上記実施例では、ネットワーク接続された表示装置の数は3台であるが、表示装置の接続数は2台以上の任意数とすることができる。また、上記の実施例では、各PCの起動時に3次元空間データのロードを行うようにしたが、これに限らず、PC起動後、運用中の任意のタイミングに3次元空間データをロードし、その後にフレーム毎の処理を行うようにしても良い。
【0029】
【発明の効果】
上述のように、請求項1の発明によれば、ネットワーク接続された複数台のコンピュータにより単一の3次元空間画像を画面分割して各画面に空間的及び時間的連続性を持たせて表示するに当たり、各コンピュータは一台のマスターとそれ以外のスレーブに分け、各コンピュータによる処理手順には、ネットワーク共有された3次元空間データを、マスター及びスレーブがそれぞれロードするステップと、上記マスターは、イベント発生の有無を監視し、イベント発生時にはそのイベントに対応する所定のコマンドを自己及びスレーブに与えるステップと、時間経過を計測し、所定時間毎にスレーブに対して共通の時刻データを配信するステップとを含み、マスターとスレーブは、イベント発生及び/又は経過時間による状態の変化を認識して3次元空間及び視点情報をそれぞれ自律的に更新し、描画を行うステップとを含むので、ネットワークへの送信負荷の格段の低減により高速な多画面表示が可能になった。
【0030】
また、請求項2及び請求項3によれば、ネットワークへの送信負荷の格段の低減により高速な多画面表示が可能な多画面表示方法を実現するために好適なプログラムを提供することができる。
【0031】
さらに、請求項4及び請求項5によれば、ネットワークへの送信負荷の格段の低減により高速な多画面表示が可能な多画面表示方法を実現するために好適なプログラムを記録した記録媒体を提供することができる。
【図面の簡単な説明】
【図1】本発明による多画面表示方法を実施する表示装置システムの構成を概略的に示すブロック図。
【図2】マスターPCの機能を示す図表。
【図3】スレーブPCの機能を示す図表。
【図4】マスターPCとスレーブPC間の基本的動作を説明する概念図。
【図5】3次元空間の画像が各画像表示部に表示されるまでの過程を示す模式図。
【図6】マスターPCとスレーブPCに共通な処理動作を説明するフローチャート。
【図7】スレーブPCのフレーム毎の処理を説明するためのフローチャート。
【図8】図7のステップS14及びS23の内容を示すフローチャート。
【図9】マスターPCとスレーブPCの画像表示部による表示例を示す正面図。
【図10】従来の多画面表示方法における作用を説明するフローチャート。
【符号の説明】
DS 表示システム
DA1〜DA3 表示装置
PC1 マスターコンピュータ
PC2,PC3 スレーブコンピュータ
D1〜D3 画像表示部
M1〜M3 記憶部
IN1〜IN3 入力部
DB データベース[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a display system including a plurality of display devices connected to a network, in which a single three-dimensional spatial image generated by computer graphics (CG) is divided into a plurality of screens, and an image of each display device is divided. The present invention relates to a multi-screen display method for displaying with continuity spatially and temporally by a display unit.
[0002]
[Prior art]
In a display system including a plurality of display devices connected to a network, a single three-dimensional spatial image is divided into a plurality of screens, and when displaying images that are spatially and temporally continuous, each screen is It is desired to synchronize the movement of the object displayed on the screen (the case where the object moves autonomously and the case where the object moves as a result of the movement of the viewpoint). When a multi-screen display method responding to such a demand is to be realized by a conventional technique, the following is considered. Explaining with reference to the flowchart of FIG. 10, each display device configuring a display system for multi-screen display has a network-connected computer and an image display unit connected to the computer, and the computer Use one as the master and the other as the slave. 10A shows a procedure of processing operation common to the master and the slave, FIG. 10B shows a procedure of processing operation for each frame by the master, and FIG. 10C shows a processing procedure for each frame by the slave. The operation procedure will be described below.
[0003]
The outline of the processing operation is as follows.
1) As shown in FIG. 10 (a), when the master and the slave are activated and establish communication with each other, they respectively load the three-dimensional spatial data from the database shared by the network.
2) The master updates the three-dimensional space and the viewpoint information in response to events such as the passage of time and user operations, and notifies the slave of a difference (change) from the previous frame.
3) The slave updates the three-dimensional space and the viewpoint information using the notified difference.
4) The master and the slave draw the three-dimensional space and the viewpoint information using the updated three-dimensional space and the viewpoint information.
5) Repeat steps 2), 3) and 4) until the end.
[0004]
Updating the three-dimensional space refers to the following processing.
a) Change in arrangement information (movement, rotation, scale) of an object (hereinafter, simply referred to as an object) constituting a three-dimensional space.
b) Switching display / non-display of an object.
c) Deformation of the object.
Updating of viewpoint information indicates the following processing.
d) Changing the viewpoint position.
e) Change of line-of-sight direction.
[0005]
[Problems to be solved by the invention]
The above conventional method is a so-called “space sharing / difference notification type”. The biggest problem with this conventional method is that the amount of data transmitted as a difference is very large. In other words, in the worst case, such as when the object is deformed over the entire three-dimensional space (that is, the vertex coordinates change), the amount of transmitted data may reach several million bits, and the network load is reduced. Increase and fail to achieve a stable frame rate.
For this reason, in many cases, a certain limit is imposed on updating for each frame. For example, a) restricting the update to only the viewpoint information (assuming that the three-dimensional space does not change), b) restricting the update to the three-dimensional space to only the arrangement information of the object (confirming that the object is not deformed) Is assumed), and the like.
[0006]
The present invention has been made in view of the above circumstances, and an object of the present invention is to divide a single three-dimensional spatial image into a plurality of screens in a display system including a plurality of display devices connected to a network. In a multi-screen display method that displays data continuously and temporally, the amount of transmission data from the master to the slave can be reduced and the network load can be reduced, and images that are completely synchronized at high speed can be displayed on each image display unit. Is to do so.
Another object is to provide a program suitable for realizing a multi-screen display method for solving the above-mentioned problem, and a recording medium on which the program is recorded.
[0007]
[Means for Solving the Problems]
In order to solve the above-mentioned problem, an invention according to
i) loading the three-dimensional spatial data from the network-shared database by the master and the slave, respectively;
ii) A step in which the master measures the passage of time and distributes time data to the slave at predetermined time intervals.
iii) A step in which the master monitors whether an event has occurred due to a user operation or the like, and when the event occurs, gives a command corresponding to the event to itself and the slave.
iV) A step in which the master and the slave autonomously update the three-dimensional space and the viewpoint information using the Zenki time data and the loaded three-dimensional space data based on the command corresponding to the event, and perform drawing.
Here, the event is a change in an external condition such as a time, and information manually input by a user's operation of a keyboard or a mouse.
[0008]
The synchronization method according to the first aspect of the present invention can be referred to as a "space / time / event sharing type". When the master PC determines that an event has occurred, the master PC and the slave PCs execute the same processing at the same time at the same time in order to give a predetermined command corresponding to the event to itself and all the slave PCs. As a result, the master PC and the slave PC share an event that occurs at an arbitrary time in time and space with the three-dimensional space loaded into the memory from the database shared by the network, and are almost completely synchronized. The captured video can be displayed.
[0009]
In the display system according to the first aspect of the present invention, which comprises a plurality of display devices connected to a network and has a computer of one display device as a master and a computer of another display device as a slave. A master computer program for realizing a multi-screen display method of dividing a three-dimensional space image and displaying a moving image by an image display unit of each of the display devices,
i) loading three-dimensional spatial data from a network-shared database into itself;
ii) measuring the passage of time and distributing common time data to the slave every predetermined time;
iii) monitoring the occurrence of an event, and, when an event occurs, giving a predetermined command corresponding to the event to itself and the slave;
iv) The event, that is, a change in state due to elapsed time and / or based on a command corresponding to a user operation or the like, using the time data and the loaded three-dimensional space data to generate a three-dimensional space and a viewpoint. Autonomously updating information and performing drawing (claim 2).
[0010]
The slave computer program is
i) loading three-dimensional spatial data from the network shared database into itself;
ii) using the time data and the loaded three-dimensional space data to recognize a three-dimensional space based on the event, ie, a change in state due to elapsed time and / or based on a command corresponding to a user operation or the like; Autonomously updating the viewpoint information and performing drawing (claim 3).
[0011]
BEST MODE FOR CARRYING OUT THE INVENTION
Next, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram schematically illustrating a configuration of a display system including a plurality of display devices connected to a network for implementing a multi-screen display method according to the present invention. FIG. 2 is a diagram illustrating functions of a master PC. 3 is a diagram showing the functions of the slave PC, FIG. 4 is a conceptual diagram illustrating the basic operation between the master and the slave, and FIG. 5 shows a process until an image in a three-dimensional space is displayed on each image display unit. 6 is a schematic diagram, FIG. 6 is a flowchart for explaining a processing operation common to the master and the slave, FIG. 7 is a flowchart for explaining the processing for each frame of the master and the slave, and FIG. 8 is a description of the processing contents of steps S14 and S23 in FIG. FIG. 9 is a front view of a display screen showing a display example of the master and slave image display units.
[0012]
FIG. 1 shows an example in which a display system DS is composed of three display devices SA connected to a network. In FIG. 1, PC1 to PC3 are computers constituting each display device, It has sections IN1 to IN3, operation control sections CPU1 to CPU3, storage sections M1 to M3, and image display sections D1 to D3.
[0013]
Each PC is loaded with software for loading three-dimensional space data executed at the time of startup, software for performing synchronization processing for each frame (hereinafter, referred to as synchronization processing software), and software for performing drawing processing. . As shown in FIG. 2, the
[0014]
On the other hand, the
[0015]
In FIG. 1, a DB is a database shared by three display devices over a network, and stores basic data (three-dimensional spatial data) for generating a single three-dimensional spatial image.
The three-dimensional space data includes object placement information (ie, position / rotation / scale), object data, key frame animation of the object placement information, initial viewpoint information, and key frame animation of the viewpoint position / view direction.
Further, the object data includes shape data (that is, an array of vertex coordinates of polygons forming the object), attribute data (that is, material of the object (surface characteristics such as color and gloss)), and texture (that is, texture). It consists of a surface design defined by two-dimensional image data) and a key frame animation of vertex coordinates.
[0016]
As shown in FIGS. 4A and 5, the three-dimensional space data loading means 11 and 17 load the three-dimensional space data stored in the database DB shared by the network and store the master PC1 and the slave PC2. , PC3 in the storage units M1, M2, M3, respectively. The
[0017]
The
* Change of object placement information (movement / rotation / scale) * Display / non-display of object * Deformation of object * Start of various key frame animations Represents the value of the information at a relative time (key frame) with reference to (0 frame) in time series, and the value corresponding to the time between key frames is obtained by appropriately interpolating. The key frame animation includes a key frame animation of the arrangement information of the object, a key frame animation of the vertex coordinates of the object, and a key frame animation of the viewpoint position and the line of sight. In this specification, obtaining a value at a certain time t in the key frame animation is expressed as "evaluating the key frame animation at the time t".
[0018]
Therefore, after that, the processes are executed at the same time in the
[0019]
In the method of the present invention, since the event information and the elapsed time information are transmitted from the master to the slave as described above, this method can be called an event / space / time sharing method. Therefore, in the current multi-screen display method, the amount of data to be transmitted tends to be enormous because a change in the three-dimensional space generated as a result of the occurrence of the event is transmitted. Since only time information is transmitted, the amount of transmission data is significantly smaller than the former. Furthermore, in the present invention, data transmission is not performed individually for each slave, but is performed using a communication technique generally called multicast (a communication method for transmitting the same data to a plurality of nodes). Do. Thus, even if the number of display devices increases, the load on the network does not change (except for the physical limitation of the network port), and the number of screens can be increased indefinitely.
[0020]
The command generated based on the event detection includes a command defined in advance by the synchronization processing software (embedded command) and a processing method defined by the user independently (callback function = a function for calling a registered procedure). ) Registered in the synchronization processing software (custom command). Synchronization processing software prepares a template so that a user can easily implement a custom command.
[0021]
Next, the operation of each PC will be described with reference to FIGS. 5 to 9.
When both the
[0022]
That is, in the
Then, the
If it is determined in step S5 that the detected command is not a built-in command (N in S6), it is determined whether or not the command is a user-defined command (custom command) (S8). If the result is affirmative, the process registered by the user through the callback function is performed (S9), and thereafter, the process proceeds to step 15 in FIG. If the result of the determination in step S8 is negative, the command is determined to be an undefined command, error processing is performed (S10), and the routine proceeds to step 15 in FIG. 7A.
[0023]
Subsequently, it is determined whether or not the time for one frame has elapsed (S15). When it is determined that the time for one frame has elapsed (Y in S15), the master PC transmits the time information at that time to the slave. It distributes (time data distribution) to the PCs 2 and 3 (S16) and executes a process according to the passage of time (S17). Specifically, the evaluation of the key frame animation and the reflection of the value obtained as a result of the evaluation on the three-dimensional space / viewpoint information are performed. Here, the viewpoint information is a general term for information on the viewing frustum when drawing a three-dimensional space including a viewpoint position, a line-of-sight direction, and a viewing angle.
Then, the three-dimensional space and viewpoint information assigned to the
When the processing for each frame in the
[0024]
On the other hand, in the
[0025]
Subsequently, it is determined whether or not the time data has been received from the master PC 1 (S24). If the time data has been received, a process corresponding to the lapse of time is executed in the same manner as the master PC 1 (S25). Since the processing according to the elapse of time is performed based on the time data received from the
[0026]
FIG. 9 shows an example of display by the image display units D1 to D3 of three display devices in one display system. The image display units D1 to D3 in the upper part (Ta) display the (frame rate) at a certain time. Indicates the image (1/33 second if 30 frames per second), and the image display units D1 to D3 in the lower part (Tb) show the image (also 1/33 second) at a certain time after the lapse of a certain time. Is shown. These display contents are based on three-dimensional space data stored in the database DB.
a. Plains dotted with houses b. Celestial sphere with clouds scattered above the plain c. A group of cylindrical objects oscillating in the forest on a plain d. In the case of constituting a group of spherical objects orbiting above the plain, the three-dimensional spatial data is loaded into the master PC1, the slave PC2, and the PC3, respectively, stored in the storage units M1 to M3, and the viewing angle is set. The object is divided into three parts in the horizontal direction, and the master PC1 puts the object group d1 that fits in the field of view of the central part in the center image display unit D1, and the slave PC2 and PC3 puts the object groups d2 and d3 that fit in the field of view of the right and left parts. Are drawn on the right and left image display sections D2 and D3. Thus, the video is displayed on the three parallel image display units. In the example of FIG. 9, the swing of the columnar object group c and the orbital movement of the spherical object group d are displayed in complete synchronization between the image display units.
It goes without saying that the three-dimensional space data is not limited to the example of FIG. The same continuity and synchronization can be achieved not only when the plurality of image display units are arranged horizontally but also when they are arranged vertically.
[0027]
The maximum length of the command in the built-in command or the custom command is set to, for example, 512 bytes by the synchronization processing software so as not to increase the processing load. Also, since the data used for time distribution is about several tens of bytes, the transmission load on the network is significantly lower than that of the conventional type. Therefore, there is no need to limit the updating of the three-dimensional space and the viewpoint information. As a result, a high-speed multi-screen display application can be constructed.
[0028]
In the above embodiment, the number of display devices connected to the network is three, but the number of display devices connected can be an arbitrary number of two or more. In the above embodiment, the three-dimensional space data is loaded at the time of starting each PC. However, the present invention is not limited to this, and after the PC is started, the three-dimensional space data is loaded at an arbitrary timing during operation. Thereafter, processing for each frame may be performed.
[0029]
【The invention's effect】
As described above, according to the first aspect of the present invention, a single three-dimensional spatial image is divided into screens by a plurality of computers connected to a network, and each screen is displayed with spatial and temporal continuity. In doing so, each computer is divided into one master and the other slaves. The processing procedure by each computer includes a step of loading the three-dimensional spatial data shared by the network by the master and the slave, and the master includes: Monitoring the presence / absence of an event and providing a predetermined command corresponding to the event to itself and the slave when the event occurs; and measuring the elapsed time and distributing common time data to the slave every predetermined time. And the master and the slave recognize the occurrence of an event and / or a change in state due to elapsed time. 3D space and the viewpoint information autonomously updated each so and a step for drawing, enabled fast multi-screen display by remarkable reduction of the transmission load of the network.
[0030]
According to the second and third aspects, it is possible to provide a program suitable for realizing a multi-screen display method capable of high-speed multi-screen display by remarkably reducing the transmission load on the network.
[0031]
Further, according to the fourth and fifth aspects, a recording medium on which a program suitable for realizing a multi-screen display method capable of high-speed multi-screen display by remarkably reducing transmission load on a network is provided. can do.
[Brief description of the drawings]
FIG. 1 is a block diagram schematically showing a configuration of a display device system for implementing a multi-screen display method according to the present invention.
FIG. 2 is a table showing functions of a master PC.
FIG. 3 is a table showing functions of a slave PC.
FIG. 4 is a conceptual diagram illustrating a basic operation between a master PC and a slave PC.
FIG. 5 is a schematic diagram showing a process until an image in a three-dimensional space is displayed on each image display unit.
FIG. 6 is a flowchart illustrating a processing operation common to the master PC and the slave PC.
FIG. 7 is a flowchart for explaining processing for each frame of the slave PC.
FIG. 8 is a flowchart showing the contents of steps S14 and S23 in FIG. 7;
FIG. 9 is an exemplary front view showing a display example of an image display unit of a master PC and a slave PC.
FIG. 10 is a flowchart illustrating the operation of a conventional multi-screen display method.
[Explanation of symbols]
DS display system DA1 to DA3 display device PC1 master computer PC2, PC3 slave computer D1 to D3 image display unit M1 to M3 storage unit IN1 to IN3 input unit DB database
Claims (5)
(a)前記各表示装置を構成するコンピュータを1台のマスターとそれ以外のスレーブに分け、
(b)前記マスターによる処理手順には、
i)ネットワーク共有されたデータベースから3次元空間データを自己にロードするステップと、
ii)時間経過を計測し、所定時間毎に前記スレーブに対して共通の時刻データを配信するステップと、
iii)イベントの発生の有無を監視し、イベント発生時にはそのイベントに対応する所定のコマンドを自己及び前記スレーブに与えるステップと、
iv)前記イベントに対応するコマンドに基づいて、前記時刻データ及び前記ロードした3次元空間データを用いて自律的に3次元空間及び視点情報を更新し、描画を行うステップとを含み、
(c)前記スレーブによる処理手順には、
i)前記ネットワーク共有されたデータベースから3次元空間データを自己にロードするステップと、
ii)前記マスターから与えられたコマンドに基づいて、前記マスターから配信された時刻データ及び前記ロードした3次元空間データを用いて自律的に3次元空間及び視点情報を更新し、描画を行うステップとを含むこと、
を特徴とする多画面表示方法。In a multi-screen display method of dividing a single three-dimensional spatial image in a display system including a plurality of display devices connected to a network and displaying a moving image by an image display unit of each of the display devices,
(A) dividing the computer constituting each display device into one master and other slaves,
(B) The processing procedure by the master includes:
i) loading three-dimensional spatial data from a network-shared database into itself;
ii) measuring the passage of time and distributing common time data to the slave every predetermined time;
iii) monitoring whether an event has occurred and, when an event has occurred, giving a predetermined command corresponding to the event to itself and the slave;
iv) autonomously updating the three-dimensional space and viewpoint information using the time data and the loaded three-dimensional space data based on a command corresponding to the event, and performing drawing.
(C) The processing procedure by the slave includes:
i) loading three-dimensional spatial data from the network shared database into itself;
ii) autonomously updating the three-dimensional space and the viewpoint information using the time data distributed from the master and the loaded three-dimensional space data based on a command given from the master, and performing drawing. Including,
A multi-screen display method characterized by the following.
i)ネットワーク共有されたデータベースから3次元空間データを自己にロードするステップと、
ii)時間経過を計測し、所定時間毎に前記スレーブに対して共通の時刻データを配信するステップと、
iii)イベントの発生の有無を監視し、イベント発生時にはそのイベントに対応する所定のコマンドを自己及び前記スレーブに与えるステップと、
iv)前記コマンドに基づいて、前記時刻データ及び前記ロードした3次元空間データを用いて自律的に3次元空間及び視点情報を更新し、描画を行うステップとを含むマスターコンピュータ用プログラム。In a display system including a plurality of display devices connected to a network and using one display device computer as a master and another display device computer as a slave, a single three-dimensional spatial image is divided into each of the above display devices. A multi-screen display method program for displaying a moving image by an image display unit of the device,
i) loading three-dimensional spatial data from a network-shared database into itself;
ii) measuring the passage of time and distributing common time data to the slave every predetermined time;
iii) monitoring whether an event has occurred and, when an event has occurred, giving a predetermined command corresponding to the event to itself and the slave;
iv) autonomously updating 3D space and viewpoint information using the time data and the loaded 3D space data based on the command, and performing drawing.
i)前記ネットワーク共有されたデータベースから3次元空間データを自己にロードするステップと、
ii)前記マスターから与えられたコマンドに基づいて、前記マスターから配信された時刻データ前記ロードした3次元空間データを用いて自律的に3次元空間及び視点情報を更新し、描画を行うステップとを含むスレーブコンピュータ用プログラム。In a display system including a plurality of display devices connected to a network and using one display device computer as a master and another display device computer as a slave, a single three-dimensional spatial image is divided into each of the above display devices. A multi-screen display method program for displaying a moving image by an image display unit of the device,
i) loading three-dimensional spatial data from the network shared database into itself;
ii) based on a command given from the master, autonomously updating the three-dimensional space and viewpoint information using the loaded time data distributed from the master and the loaded three-dimensional space data, and performing drawing. Program for slave computer including.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002235829A JP4002804B2 (en) | 2002-08-13 | 2002-08-13 | Multi-screen display method using a plurality of display devices, program for the method, and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002235829A JP4002804B2 (en) | 2002-08-13 | 2002-08-13 | Multi-screen display method using a plurality of display devices, program for the method, and recording medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004078414A true JP2004078414A (en) | 2004-03-11 |
JP4002804B2 JP4002804B2 (en) | 2007-11-07 |
Family
ID=32020210
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002235829A Expired - Lifetime JP4002804B2 (en) | 2002-08-13 | 2002-08-13 | Multi-screen display method using a plurality of display devices, program for the method, and recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4002804B2 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008252422A (en) * | 2007-03-30 | 2008-10-16 | Sony Corp | Synchronized multi-screen reproduction system, display control terminal, synchronized multi-screen reproduction method, and program |
JP2012049836A (en) * | 2010-08-27 | 2012-03-08 | Hitachi Consumer Electronics Co Ltd | Video/audio output apparatus, video/audio output system and master apparatus |
JP2013206442A (en) * | 2012-03-29 | 2013-10-07 | Toshiba Corp | Screen image transfer device and screen image transfer system |
US8687121B2 (en) | 2005-07-27 | 2014-04-01 | Sharp Kabushiki Kaisha | Video synthesizing apparatus and program |
JP2016143215A (en) * | 2015-02-02 | 2016-08-08 | 株式会社コロプラ | Display system, display method, and program |
CN112540735A (en) * | 2019-09-20 | 2021-03-23 | 西安诺瓦星云科技股份有限公司 | Multi-screen synchronous display method, device and system and computer storage medium |
-
2002
- 2002-08-13 JP JP2002235829A patent/JP4002804B2/en not_active Expired - Lifetime
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8836803B2 (en) | 2005-07-27 | 2014-09-16 | Sharp Kabushiki Kaisha | Video synthesizing apparatus and program |
US8836804B2 (en) | 2005-07-27 | 2014-09-16 | Sharp Kabushiki Kaisha | Video synthesizing apparatus and program |
US8743228B2 (en) | 2005-07-27 | 2014-06-03 | Sharp Kabushiki Kaisha | Video synthesizing apparatus and program |
US9100619B2 (en) | 2005-07-27 | 2015-08-04 | Sharp Kabushiki Kaisha | Video synthesizing apparatus and program |
US8736698B2 (en) | 2005-07-27 | 2014-05-27 | Sharp Kabushiki Kaisha | Video synthesizing apparatus and program |
US8687121B2 (en) | 2005-07-27 | 2014-04-01 | Sharp Kabushiki Kaisha | Video synthesizing apparatus and program |
WO2008126465A1 (en) * | 2007-03-30 | 2008-10-23 | Sony Corporation | Multi-screen sync reproduction system, display control terminal, multi-screen sync reproduction method, and program |
US8436786B2 (en) | 2007-03-30 | 2013-05-07 | Sony Corporation | Multi-screen synchronized playback system, display control terminal, multi-screen synchronized playback method, and program |
JP2008252422A (en) * | 2007-03-30 | 2008-10-16 | Sony Corp | Synchronized multi-screen reproduction system, display control terminal, synchronized multi-screen reproduction method, and program |
JP2012049836A (en) * | 2010-08-27 | 2012-03-08 | Hitachi Consumer Electronics Co Ltd | Video/audio output apparatus, video/audio output system and master apparatus |
JP2013206442A (en) * | 2012-03-29 | 2013-10-07 | Toshiba Corp | Screen image transfer device and screen image transfer system |
JP2016143215A (en) * | 2015-02-02 | 2016-08-08 | 株式会社コロプラ | Display system, display method, and program |
CN112540735A (en) * | 2019-09-20 | 2021-03-23 | 西安诺瓦星云科技股份有限公司 | Multi-screen synchronous display method, device and system and computer storage medium |
CN112540735B (en) * | 2019-09-20 | 2023-03-14 | 西安诺瓦星云科技股份有限公司 | Multi-screen synchronous display method, device and system and computer storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP4002804B2 (en) | 2007-11-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105074648B (en) | Apparatus and method for showing video data | |
US20050062678A1 (en) | Autostereoscopic display system | |
US10789911B2 (en) | Phase locked multi-display synchronization | |
CN105190701B (en) | Synthesis system based on primitive and method | |
EP2839383A1 (en) | Coordinating visual experiences through visual devices | |
WO2000004527A1 (en) | Apparatus and method of directing graphical data to a display device | |
JP4002804B2 (en) | Multi-screen display method using a plurality of display devices, program for the method, and recording medium | |
CN111710047A (en) | Information display method and device and electronic equipment | |
Mueller et al. | Distributed Force-Directed Graph Layout and Visualization. | |
US10684875B2 (en) | Synchronization of a virtual machine across mobile devices | |
WO2020000880A1 (en) | Control method and device | |
US20170301128A1 (en) | System for synchronizing 3d image multiple screens in real-time | |
JP2013135422A (en) | Image synthesizing apparatus, terminal device, image synthesizing system, and program | |
WO2002031769A1 (en) | Data processing system and method, computer program, and recorded medium | |
US20060022973A1 (en) | Systems and methods for generating a composite video signal from a plurality of independent video signals | |
US9444867B2 (en) | Systems and methods for data synchronization in a network application | |
KR20180108967A (en) | Multi-vision screen image rendering system, device and method | |
US12045532B1 (en) | System and method for content delivery across a heterogeneous multi-display environment | |
US8884973B2 (en) | Systems and methods for rendering graphics from multiple hosts | |
JP2024501283A (en) | Software-enforced genlock and framelock | |
KR101068645B1 (en) | Master-Slave based Tile Display System and Synchronization Method between Master-Slaves | |
CN112973113A (en) | Display method, system, device and computer storage medium for mobile unit | |
JP2017056607A (en) | Data processing device, data processing method, and program | |
JP2003115047A (en) | Device for generating and displaying highly accurate image | |
JP2014182329A (en) | Synchronization control device, synchronization control method and synchronization control program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20040120 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20040120 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050404 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20070412 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070417 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070613 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070724 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070820 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100824 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4002804 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110824 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120824 Year of fee payment: 5 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130824 Year of fee payment: 6 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130824 Year of fee payment: 6 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130824 Year of fee payment: 6 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
EXPY | Cancellation because of completion of term |