JP6084285B2 - 画像を表示するシステム - Google Patents

画像を表示するシステム Download PDF

Info

Publication number
JP6084285B2
JP6084285B2 JP2015501652A JP2015501652A JP6084285B2 JP 6084285 B2 JP6084285 B2 JP 6084285B2 JP 2015501652 A JP2015501652 A JP 2015501652A JP 2015501652 A JP2015501652 A JP 2015501652A JP 6084285 B2 JP6084285 B2 JP 6084285B2
Authority
JP
Japan
Prior art keywords
orientation
capture device
image
work environment
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015501652A
Other languages
English (en)
Other versions
JP2015517244A (ja
Inventor
メイン・ジェフレイ
ショート・デービッド
ウェインステイン・ダニエル
リードラー・ダン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hewlett Packard Development Co LP
Original Assignee
Hewlett Packard Development Co LP
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hewlett Packard Development Co LP filed Critical Hewlett Packard Development Co LP
Publication of JP2015517244A publication Critical patent/JP2015517244A/ja
Application granted granted Critical
Publication of JP6084285B2 publication Critical patent/JP6084285B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/142Constructional details of the terminal equipment, e.g. arrangements of the camera and the display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/142Constructional details of the terminal equipment, e.g. arrangements of the camera and the display
    • H04N7/144Constructional details of the terminal equipment, e.g. arrangements of the camera and the display camera and display on the same optical axis, e.g. optically multiplexing the camera and display for eye to eye contact
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、画像を表示するシステム及び方法に関する。
消費者は電子デバイスにおいて使いやすさ及び融通性を高く評価する。消費者の要求への適応性も望ましい。それゆえ、企業は、これらの目的のうちの1つ又は複数に向けられる電子デバイスを設計しようと努め得る。
以下の詳細な説明は図面を参照する。
表面上に画像を表示するシステムの一例を示す図である。 2つの表面上に画像を表示するための図1のシステムの別の例を示す図である。 図1のシステムのキャプチャデバイスのセンサの較正の一例を示す図である。 図1のシステムのキャプチャデバイスのセンサの較正の一例を示す図である。 深度検知を使用して、表面の角の場所を特定することができる1つの方法の一例を示す図である。 赤外線(IR)又は赤色、緑色及び青色(RGB)検知を使用して、表面の角の場所を特定することができる別の方法の一例を示す図である。 作業環境内で表面の寸法及び向きを特定する一例を示す図である。 作業環境からの表面の角度ファイ(Φ)を特定する一例を示す図である。 ディスプレイレンダリングデバイスによって与えられる2次元画像から、画面の3次元平面の2次元逆投影への変換の一例を示す図である。 画像を表示することができる画面を有するウエッジ又はパック(puck)の一例を示す図である。 作業環境内で場所を特定された表面上に画像を表示する方法の一例を示す図である。 図11の方法の更なる要素の一例を示す図である。 図11の方法の更なる要素の一例を示す図である。
人々は、連帯感、注意、関心及び理解を高める等の種々の理由から、多くの場合に、会話中に視線を合わせることを大切にしている。テレビ会議システムとの関連では、システムディスプレイに対するシステムカメラの配置に起因して、これは達成するのが難しい可能性がある。例えば、或る場所にいるテレビ会議システムのユーザが、そのシステムに接続される別の場所にいる別の人の画像を見るとき、そのユーザは、自分の姿を捕捉しているカメラも同時に直接見ることはできない。カメラと、特定の場所において投影された人を表示するディスプレイとの間の距離が大きいほど、ユーザとその人の視線が合わないことが多くなる可能性がある。
1つのカメラしか存在しない1つの場所において複数のユーザを参加させるテレビ会議中に、この状況は悪化する可能性がある。例えば、他の遠隔地にあるディスプレイ上で、或る場所にいる全てのユーザを同時に見ることができない場合がある。或る場所にいる複数のユーザが見える場合には、その場所にあるカメラから複数のユーザまでの距離が異なる場合がある。この結果、遠隔地における複数のユーザの画像において視線が合わない程度が異なり得る。
そのようなテレビ会議システムに関して生じる可能性がある別の問題は、リモートユーザが共有コンテンツで作業する状況において生じる。例えば、リモートユーザの表示された画像が、共有コンテンツがその上に位置決めされるか、又は表示されるローカル作業環境の一部又は全てを覆い隠し得る。更には、又は代替的には、リモートユーザの画像をローカルディスプレイ上で見えるようにするには、そのユーザがリモート作業環境から離れすぎている場合があり、それにより、そのようなテレビ会議を通しての共同作業の目的が妨げられ得る。
本明細書において用いられるときに、「表示している」、「表示する」及び「表示される」という用語は、限定はしないが、投影すること、及び投影を含むように定義される。「画像」という用語は、限定はしないが、同じ又は異なるコンテンツの1つ又は複数のビデオストリームを含むように定義される。この画像は、インターネット、コンピュータ、ハンドヘルドデバイス(例えば、モバイル電話、タブレット又は携帯情報端末(PDA))等の種々の情報源のいずれかに由来し得る。また、この画像は、MPEG、PDF、WAV、JPEG等の種々のフォーマットのいずれかとし得る。
「ディスプレイレンダリングデバイス」という用語は、限定はしないが、プロジェクタを含むように定義される。「カメラ」という用語は、限定はしないが、後に表示するために1つ又は複数の人又は物体に関連付けられる可視コンテンツ又はデータを捕獲するデバイスを含むように定義される。「表面」という用語は、限定はしないが、その上に画像を表示し得るエリア又は立体空間(volume)(例えば、画面)を有する任意の2次元物体又は3次元物体を含むように定義される。「向き」という用語は、限定はしないが、作業環境上のX、Y及びZデカルト座標、並びに作業環境に対する角度(例えば、θx、θy及びθzすなわちロール、ピッチ及びヨー)を含む。「キャプチャデバイス」という用語は、限定はしないが、撮像デバイス、センサ又は検出器を含むように定義される。
本明細書において用いられるときに、「非一時的記憶媒体」及び「非一時的コンピュータ可読記憶媒体」という用語は、プログラム、情報及びデータを含むか、記憶するか、又は保持することができる任意の媒体を指している。非一時的記憶媒体及び非一時的コンピュータ可読記憶媒体は、例えば、電子媒体、磁気媒体、光媒体、電磁媒体又は半導体媒体のような数多くの物理媒体のうちのいずれか1つを含み得る。適切な非一時的記憶媒体及び非一時的コンピュータ可読記憶媒体のより具体的な例は、限定はしないが、フロッピーディスケットのような磁気コンピュータディスケット又はハードドライブ、磁気テープ、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、消去可能プログラマブルリードオンリーメモリ、フラッシュドライブ、コンパクトディスク(CD)、又はデジタルビデオディスク(DVD)を含む。
本明細書において用いられるときに、「プロセッサ」という用語は、コンピュータ/プロセッサに基づくシステム、特定用途向け集積回路(ASIC)若しくはハードウェア及び/又はソフトウェアシステムのような、命令実行システムを指している。これらの命令実行システムは、非一時的記憶媒体及び非一時的コンピュータ可読記憶媒体からロジックを取り出すか、又は入手することができ、その中に含まれる命令を実行することができる。
テレビ会議システムに関して上記で論じられた問題に対処することに向けられる、画像12を表示するシステム10の一例が図1に示される。図1において見ることができるように、システム10は、その上に画像12が表示される表面14を含む。また、システム10は、矢印18、20及び22によって示されるように、表面14上に画像12を表示するディスプレイレンダリングデバイス16と、矢印26によって示されるように、表面14を検出するキャプチャデバイス24とを含む。システム10は、プロセッサ28を更に含む。プロセッサ28は、矢印30によって示されるように、キャプチャデバイス24に結合され、かつ矢印34及び36によって示されるように、画像変換デバイス32を介してディスプレイレンダリングデバイス16に結合される。画像変換デバイス32は、矢印33によって示されるように、画像12に関する処理を実行し、それにより、画像は、ディスプレイレンダリングデバイス16によって利用するのに適したフォーマットにされる。
システム10は、非一時的コンピュータ可読記憶媒体38を更に含む。非一時的コンピュータ可読記憶媒体38は、プロセッサ28によって実行されるときに、プロセッサ28に、キャプチャデバイス24によって検出された表面14の寸法(例えば、長さ及び幅)を特定させる命令と、キャプチャデバイス24に対する表面14の空間内の第1の向きを特定させる命令とを含む。非一時的コンピュータ可読記憶媒体38は、プロセッサ28によって実行されるときに、表面14の特定された寸法、及びキャプチャデバイス24に対する表面14の特定された第1の向きに基づいて、プロセッサ28に、画像変換デバイス32を使用して画像12を変換させ、ディスプレイレンダリングデバイス16を介して表面14上に表示させる更なる命令を含む。
同じく図1において見ることができるように、表面14は、矢印40によって示されるように、システム10のユーザによって、実線において示される第1の向きから、破線において示される第2の向きに移動され得る。システム10のユーザは、ユーザと遠隔地にいる1人又は複数のユーザとの間の視線を合わせる感覚を改善することのような種々の理由から、表面14を第1の向きから第2の向きに移動し得る。システム10のユーザが表面14を第1の向きから第2の向きに移動し得る別の理由は、表面14によって覆い隠されるか、又は遮断される作業環境の量を最小化することである。これは、共有コンテンツが作業環境内に投影されているか又は表示されているときに有用である可能性がある。
非一時的コンピュータ可読記憶媒体38は、プロセッサ28によって実行されるときに、プロセッサ28に、破線矢印42によって示されるように、キャプチャデバイス24に対する第2の向きへの表面14のこの再位置決めを検出させる更なる命令と、キャプチャデバイス24に対する表面14の空間内の第2の向きを特定させる更なる命令とを含む。非一時的コンピュータ可読記憶媒体38は、プロセッサ28によって実行されるときに、プロセッサ28に、破線矢印44、46及び48によって示されるように、表面14の以前に特定された寸法、及びキャプチャデバイス24に対する表面14の特定された第2の向きに基づいて、画像変換デバイス32を使用して画像12を変換させ、ディスプレイレンダリングデバイス16を介して表面14上に表示させる更なる命令を含む。
2つの表面50及び52上に画像12を表示するシステム10の別の例が図2に示される。これらの2つの表面50及び52を使用することは、種々の状況において、種々の理由から有用であることとわかり得る。例えば、表面50及び52のうちの一方だけに表示するには或る場所にあまりにも多くのユーザが存在し得る。別の例として、或る場所にいる複数のユーザが単一の表面において見える場合には、その場所にあるカメラからユーザへの距離が異なり得る。この結果、遠隔地におけるユーザの画像の視線が合わない程度が異なる可能性がある。更なる例として、表面52上に表示される画像とは異なる画像が、表面50上に表示され得る。
図2において見ることができるように、ディスプレイレンダリングデバイス16は画像12を、矢印54、56及び58によって示されるように、表面50上に、かつ矢印60、62及び64によって示されるように、表面52上に表示する。同じく図2に示されるように、キャプチャデバイス24は、矢印66によって示されるように、表面50を検出し、矢印68によって示されるように、表面52を検出する。非一時的コンピュータ可読記憶媒体38は、プロセッサ28によって実行されるときに、プロセッサ28に、キャプチャデバイス24によって検出された表面50の寸法(例えば、長さ及び幅)を特定させる命令と、キャプチャデバイス24に対する表面50の空間内の第1の向きを特定させる命令とを含む。また、非一時的コンピュータ可読記憶媒体38は、プロセッサ28によって実行されるときに、プロセッサ28に、キャプチャデバイス24によって検出された表面52の寸法(例えば、長さ及び幅)を特定させる命令と、キャプチャデバイス24に対する表面52の空間内の第2の向きを特定させる命令とを含む。非一時的コンピュータ可読記憶媒体38は、プロセッサ28によって実行されるときに、プロセッサ28に、表面50及び52の特定された寸法と、キャプチャデバイス24に対する表面50及び52のそれぞれ特定された第1の向き及び第2の向きとに基づいて、画像変換デバイス32を使用して画像12を変換させ、ディスプレイレンダリングデバイス16を介して表面50及び52上に表示させる更なる命令を含む。
同じく図2において見ることができるように、表面50及び52は、矢印70によって示されるように、システム10の1人又は複数のユーザによって、実線において示されるそれぞれの第1の向き及び第2の向きから、破線において示されるそれぞれの第3の向き及び第4の向きに移動され得る。図2に示されるシステム10の例の1人又は複数のユーザは、図1に関連して上記で論じられたような種々の理由から、表面50及び52をそれぞれの第1の向き及び第2の向きからそれぞれの第3の向き及び第4の向きに移動し得る。
非一時的コンピュータ可読記憶媒体38は、プロセッサ28によって実行されるときに、プロセッサ28に、破線矢印72及び74によって示されるように、キャプチャデバイス24に対するそれぞれの第3の向き及び第4の向きへの表面50及び52のこの再位置決めを検出させる更なる命令と、キャプチャデバイス24に対する表面50と52の空間内のそれぞれの第3の向き及び第4の向きを特定させる更なる命令とを含む。非一時的コンピュータ可読記憶媒体38は、プロセッサ28によって実行されるときに、プロセッサ28に、表面50及び52の以前に特定された寸法、及びキャプチャデバイス24に対する表面50及び52のそれぞれ特定された第3の向き及び第4の向きとに基づいて、画像変換デバイス32を使用して画像12を変換させ、ディスプレイレンダリングデバイス16を介して表面50及び52上に表示させる更なる命令を含む。表面50に関しては、破線矢印76、78及び80によって示され、表面52に関しては破線矢印82、84及び86によって示される。
キャプチャデバイス24のセンサの較正の一例が図3及び図4に示される。図3において見ることができるように、キャプチャデバイス24のセンサによってカバーされるエリア88は幅90及び高さ92を含む。同じく図3において見ることができるように、ディスプレイレンダリングデバイス16は、角p1 96、角p2 98、角p3 100及び角p4 102によって囲まれるか、又は画定される投影エリア94を有する。図3及び図4に示される例では、エリア88は実質的に長方形であるように示され、エリア94は実質的に台形であるように示される。しかしながら、画像を表示するシステムの他の例では、これらのエリアは異なる形状を有し得ることは理解されたい。これは、投影される画像の少なくとも2つの点が、その上に画像が投影される表面の外縁と接触する限り、任意の表面形状上に任意の画像形状を投影できるためである。
矢印106によって示されるように、ホモグラフィ行列(H)104を作成して、以下のように、これを較正することができる。
幅90=キャプチャデバイスWidthPixels/ディスプレイレンダリングデバイスWidthPixels
高さ92=キャプチャデバイスHeightPixels/ディスプレイレンダリングデバイスHeightPixels
s1={(ディスプレイレンダリングデバイスWidthPixels−1)*幅90,0}
s2={0,0}
s3={0,(ディスプレイレンダリングデバイスHeightPixels−1)*高さ92}
s4={(ディスプレイレンダリングデバイスWidthPixels−1)*幅90,(ディスプレイレンダリングデバイスHeightPixels)},(ディスプレイレンダリングデバイスHeightPixels−1)*高さ92}
In={p1,p2,p3,p4}
Out={s1,s2,s3,s4}
104=perspectiveXfrm(In,Out)
キャプチャデバイス24のセンサによってカバーされるエリア88内の投影エリア94の角p1 96、p2 98、p3 100及びp4 102が特定され、図3に示されるように、かつ上記で論じられたように、ホモグラフィ行列(H)104が作成されると、矢印108によって示されるように、かつ図4に示されるように、キャプチャデバイス24からのデータがホモグラフィ行列(H)104によって変換される。この結果、図4に示されるように、ディスプレイレンダリングデバイス16のエリア94の実質的に台形の形状が、実質的に長方形の形状からなるキャプチャデバイス24のセンサによってカバーされるエリア88により良好に適合するか、又はエリア88を占める、同じく実質的に長方形の形状を有するエリア110に変換される。
作業環境122において、その上に画像12が表示されるウエッジ121の表面120の角c1 112、c2 114、c3 116及びc4 118の場所を特定する必要がある。図5は、深度検知を使用して、キャプチャデバイス24によって角c1、c2、c3及びc4の場所を特定し得る1つの方法の一例である。具体的には、角112、114、116及び118は、ウエッジ121のセグメント化の外周124から特定される。空間内の表面120の向きは、作業環境122からの角c1、c2、c3及びc4の相対的な高さに基づいて、キャプチャデバイス24によって特定される。
作業環境138において、その上に画像12が表示される異なるウエッジ136の表面134の角c1 126、c2 128、c3 130及びc4 132の場所を、キャプチャデバイス24によって赤外線(IR)又は赤色、緑色及び青色(RGB)検知を使用して特定し得る別の方法の一例が図6に示される。この技法は、それぞれの角c1、c2、c3及びc4に隣接するフィデューシャル140、142、144及び146を使用することを伴う。RGB検知の場合、これらのフィデューシャルは、それぞれの角126及び130に隣接するフィデューシャル140及び144がそれぞれの角128及び132に隣接するフィデューシャル142及び146とは異なるように設計された固有のマークであり得る。キャプチャデバイス24によるIR検知の場合、これらのフィデューシャルは、角c1、c2、c3及びc4のそれぞれに隣接する赤外線LEDであり得、角126及び130に隣接する赤外線LEDは、角128及び132に位置する赤外線LEDとは異なる。この違いは、色(すなわち、波長)、強度、サイズ等の種々の異なる特性のいずれかであるように選択することができる。
図6に示されるこの例示的な技法を利用する、キャプチャデバイス24は、フィデューシャル140、142、144及び146の場所を特定する。上側フィデューシャル142及び146は下側フィデューシャル140及び144とは異なるので、キャプチャデバイス24は、空間内のウエッジ136の向きを特定することができる。これにより更に、キャプチャデバイス24は、それぞれのフィデューシャル140、142、144及び146に隣接する角c1、c2、c3及びc4の場所を特定できるようになる。
ウエッジ136の表面134のような表面の寸法(例えば、長さ及び幅)及び空間内のその向きを特定する一例が図7に示される。図7において見ることができるように、角c1 126は、ウエッジ136の左下角を表す(図6を参照)。さらに、キャプチャデバイス24によって検出可能であるか、又は監視される作業環境138の部分が4つの象限に、すなわち、象限1 148、象限2 150、象限3 152及び象限4 154に分割される。角c1 126及びc3 130は、上記で論じられたように、角c2 128及びc4 132から区別可能であり、ウエッジ136の表面134の前部を表す。非一時的コンピュータ可読記憶媒体38上の命令が、プロセッサ28に、原点すなわち4つ全ての象限148、150、152及び154の交点156に存在するように表される角c1に対して、角c3が存在するのが4つの象限のうちのどの象限であるかを判断させる。角c1 126から角c3 130へのベクトルW160の角度シータ(θ)158は、キャプチャデバイス24によって検出可能であるか、又は監視される作業環境138内のウエッジ136の表面134の向きの角度である。角c1から角c3までの距離は、ウエッジ136の表面134の2つの寸法のうちの一方に対応するベクトルW160の長さを表す。角c3から角c4までの距離は、ウエッジ136の表面134の2つの寸法のうちの他方に対応するベクトルL162の長さを表す。
ウエッジ136の表面134のような表面の、作業環境138からの角度ファイ(Φ)を求める一例が図8に示される。図8において見ることができるように、角度ファイは以下のように求めることができる。
Φ=tan-1(z/L)
ただし、Lは角c3 130から角c4 132までの距離であり、図7に関連して上記で論じられた、ベクトルL162の長さに等しく、
zはc3からc4までの相対的な「高さ」であり、図5に関連して上記で論じられたタイプの深度センサを使用して求めることができる。
ディスプレイレンダリングデバイス164によって与えられる2次元画像を、作業環境168内に位置決めされた表面166の3次元平面の2次元逆投影に変換する一例が図9に示される。用いられる基本的な方法は、ディスプレイレンダリングデバイス164から表面166の各角までのベクトルを構成することである。この例では、ディスプレイレンダリングデバイス164から表面166の角c1 172までのベクトル170、ディスプレイレンダリングデバイス164から表面166の角c2 176までのベクトル174、ディスプレイレンダリングデバイス164から表面166の角c3 180までのベクトル178、及びディスプレイレンダリングデバイス164から表面166の角c4までのベクトル182を生成する。次に、各ベクトル170、174、178及び182が、作業環境168と接触するまで(必要に応じて)延長される(この場合には、ベクトル174及び182)。次に、各ベクトルがディスプレイレンダリングデバイス164の対応する場所に加えられる。この和は、その角に対する3次元/2次元変換を与える。
例えば、
c1、c2、c3及びc4は画面166の角の場所であり;
I 186は作業環境168から画面166の上部までの距離であり;
P 188=[Px,0,Pz]はディスプレイレンダリングデバイス164の左上座標であり;
hはディスプレイレンダリングデバイス164の上部から作業環境168までのオフセットであると仮定する。
C2をc2の3次元座標とする。
その際、C1=[clx,c2y+h,I]及びC4=[c4x,c4y+h,I]である。
ベクトル(V)が、以下のように、ディスプレイレンダリングデバイス164から画面166の各角(C)まで構成される:V=C−P
各ベクトル(V)が、作業環境168と接触するまで延長される:V=V*(Pz/(Pz−1))
その後、各ベクトル(V)がディスプレイレンダリングデバイス164の対応する場所に加えられ、その角に対する3次元/2次元変換を与える:s=P+V
図9に示される例では、s1=c1であり、s2は作業環境168上の点190に位置し、s3=c3であり、s4は作業環境168内の点192に位置する。
次に、キャプチャデバイス(図9には示されない)の座標がディスプレイレンダリングデバイス164の座標に変換される。例えば、以下のように行われる。
s4={(キャプチャデバイスWidthPixels−1)*幅キャプチャデバイス,(キャプチャデバイスHeightPixels−1}*高さキャプチャデバイス}
p1={(ディスプレイレンダリングデバイスWidthPixels−1)*幅キャプチャデバイス,0}
p2={0,0}
p3={0,(ディスプレイレンダリングデバイスHeightPixels−1)*高さキャプチャデバイス}
p4={(ディスプレイレンダリングデバイスWidthPixels−1)*高さキャプチャデバイス,(ディスプレイレンダリングデバイスHeightPixels−1)*高さキャプチャデバイス}
In={s1,s2,s3,s4}
Out={p1,p2,p3,p4}
ホモグラフィ行列(H)=perspectiveXfrm(In,Out)
S={s1,s2,s3,s4}
H×S
W=表面166の変換後の2次元座標
その上に画像12を表示し得る画面196を有するウエッジ又はパック194の一例が図10に示される。図10において見ることができるように、ウエッジ194は、1人又は複数のユーザにとって都合の良い場所及び空間内の向きにおいて作業環境(図示せず)内の任意の場所に配置し得る基部198を含む。同じく図10において見ることができるように、画面196が基部198に対して所定の固定角度200に位置決めされる。図10に示される例では、角度200は、約40度〜約70度の範囲内に入るように選択される。システム10とともに用いるためのウエッジ又はパックの別の例では、角度200は約20度〜約40度の範囲内に入るように選択し得る。
図10において更に見ることができるように、ウエッジ又はパック194は、表面196に隣接してウエッジ又はパック194上の場所に位置決めされるカメラ202を含む。カメラ202は、遠隔地において表示するためにウエッジ又はパック194の1人又は複数のユーザの1つ又は複数の画像を捕獲するように設計される。ウエッジ又はパック194は基部198に対して所定の角度200をなす固定表面196を有するように示されるが、他の例では、表面196は、基部198に対して或る範囲の角度にわたって移動可能にし得ることは理解されたい。
作業環境内に位置する表面上に画像を表示する方法204の一例が図11に示される。図11において見ることができるように、方法204は、ブロック208によって示されるように、表面の寸法を特定し、ブロック210によって示されるように、作業環境に対する表面の空間内の第1の向きを特定することによって起動するか又は開始する(206)。その後、方法204は、ブロック212によって示されるように、表面の特定された寸法及び作業環境に対する表面の特定された第1の向きに基づいて、画像を変換し、表面上に表示する。その後、方法204は、ブロック214によって示されるように、作業環境内の異なる場所への表面の再位置決めを検出し、ブロック216によって示されるように、作業環境に対する異なる場所における表面の空間内の第2の向きを特定し得る。その後、方法204は、ブロック218によって示されるように、表面の特定された寸法及び作業環境に対する異なる場所における表面の空間内の特定された第2の向きに基づいて、画像を変換し、表面上に表示し得る。その後、方法204は終了し得る(220)。
図12において見ることができるように、方法204は以下の更なる要素も含み得る。方法204は、ブロック222によって示されるように、表面の寸法と、作業環境に対する表面の空間内の第1の向きとを特定する際に用いられるキャプチャデバイスの座標を、画像を表面上に表示するディスプレイレンダリングデバイスの座標に較正し得、ブロック224によって示されるように、キャプチャデバイスの較正後の座標において表面の角の座標を特定し得る。そのような場合に、方法204は、ブロック226によって示されるように、その表面の角の座標をディスプレイレンダリングデバイスの座標に更に変換し得、ブロック228によって示されるように、キャプチャデバイス座標をディスプレイレンダリングデバイスの座標に変換し得る。
図13において見ることができるように、方法204は以下の更なる要素を更に含み得る。方法204は、ブロック230によって示されるように、作業環境内の更なる表面を検出し得、ブロック232によって示されるように、更なる表面の寸法を特定し得る。また、方法204は、ブロック234によって示されるように、作業環境に対する更なる表面の空間内の第3の向きをも特定し得、ブロック236によって示されるように、更なる表面の特定された寸法と、作業環境に対する更なる表面の特定された第3の向きとに基づいて、画像を変換し、更なる表面上に表示し得る。そのような場合に、方法204は、ブロック238によって示されるように、作業環境に対する第4の向きへの更なる表面の再位置決めを更に検出し得、ブロック240によって示されるように、作業環境に対する更なる表面の空間内の第4の向きを特定し得る。その後、方法242は、ブロック242によって示されるように、更なる表面の特定された寸法と、作業環境内の異なる場所における更なる表面の空間内の特定された第4の向きとに基づいて、画像を変換し、更なる表面上に表示し得る。
幾つかの例が詳細に説明及び例示されてきたが、それらの例は単に例示することだけを意図していることを明確に理解されたい。これらの例は、本発明を網羅的に述べることも、本発明を開示されるのと全く同じ形に、又は開示される例示的な実施形態に限定することも意図してない。当業者には変更及び変形が十分に明らかであり得る。例えば、図2には2つの表面50及び52が例示されたが、1人若しくは複数のユーザ又はシステム10の特定の要求に応じて、システム10の他の例は、同じ、又は更なる画像とともに更なる表面を用い得ることは理解されたい。別の例として、図1及び図2には、キャプチャデバイス24が、表面14、50及び52の下方にあるように例示されるが、画像を表示するシステムの他の例では、キャプチャデバイス24は他の場所に(例えば、1つ又は複数の表面の上方に、及び/又は側方に)位置し得ることは理解されたい。更なる例として、画像を表示するシステムは2つの場所との関連で例示されてきたが、それに限らないことは理解されたい。むしろ、画像を表示するシステムの他の例は、3つ以上の場所におけるテレビ会議のために用い得る。本発明の趣旨及び範囲は、添付の特許請求の範囲の条件によってのみ制限されるべきである。
さらに、単数形の要素を参照することは、明示されない限り、唯一を意味する意図はなく、むしろ、1つ又は複数を意味する。さらに、要素又は構成要素が添付の特許請求の範囲において明示的に列挙されるか否かにかかわらず、その要素又は構成要素が公共に捧げられることを意図するものではない。

Claims (10)

  1. 遠隔地とのテレビ会議中に1つの場所において画像を表示するシステムであって、
    作業環境内に配置されて該作業環境内で移動させることができる表面であって、前記遠隔地にいるユーザーの画像が表示される表面と、
    前記1つの場所にいるユーザーの画像を取得して前記遠隔地において表示するために、前記表面に結合されて該表面とともに移動可能なカメラと、
    前記表面上に前記遠隔地にいる前記ユーザーの前記画像を表示させるディスプレイレンダリングデバイスと、
    前記表面を検出するキャプチャデバイスと、
    前記キャプチャデバイス及び前記ディスプレイレンダリングデバイスに結合されるプロセッサと、
    非一時的コンピュータ可読記憶媒体と、
    を備え、
    前記表面は、所定の固定角度で基部に接続されているか、または前記基部に対してある範囲の角度にわたって移動可能に前記基部に接続されており、前記基部は前記作業環境内に配置されており、該基部を該作業環境内で移動させることができ、
    前記非一時的コンピュータ可読記憶媒体は、前記プロセッサによって実行されるときに、前記プロセッサに、
    前記キャプチャデバイスによって検出された前記表面の寸法を特定させる命令と、
    前記キャプチャデバイスに対する前記表面の空間内の第1の向きを特定させる命令と、
    前記表面の前記特定された寸法と、前記キャプチャデバイスに対する前記表面の前記特定された第1の向きとに基づいて、前記遠隔地にいる前記ユーザーの前記画像を変換させ、前記ディスプレイレンダリングデバイスを介して前記表面上に表示させる命令と、
    前記表面が前記第1の向きから第2の向きに移動させられると、前記キャプチャデバイスに対する前記第2の向きへの前記表面の再位置決めを検出させる命令と、
    前記キャプチャデバイスに対する前記表面の空間内の前記第2の向きを特定させる命令と、
    前記表面の前記特定された寸法と、前記キャプチャデバイスに対する前記表面の前記特定された第2の向きとに基づいて、前記遠隔地にいる前記ユーザーの前記画像を変換させ、前記ディスプレイレンダリングデバイスを介して前記表面上に表示させる命令と、
    を記憶していることからなる、画像を表示するシステム。
  2. 遠隔地とのテレビ会議中に1つの場所において画像を表示するシステムであって、
    作業環境内に配置された基部と表面とを含むウエッジであって、前記表面は、所定の固定角度で前記基部に接続されているか、または前記基部に対してある範囲の角度にわたって移動可能に前記基部に接続されており、該ウエッジを前記作業環境内で移動させることができ、前記遠隔地にいるユーザーの画像が前記表面上に表示されることからなる、ウエッジと、
    前記1つの場所にいるユーザーの画像を取得して前記遠隔地において表示するために、前記表面に結合されて該表面とともに移動可能なカメラと、
    前記表面上に前記遠隔地にいる前記ユーザーの前記画像を表示させるディスプレイレンダリングデバイスと、
    前記表面を検出するキャプチャデバイスと、
    前記キャプチャデバイス及び前記ディスプレイレンダリングデバイスに結合されるプロセッサと、
    非一時的コンピュータ可読記憶媒体と、
    を備え、
    前記非一時的コンピュータ可読記憶媒体は、前記プロセッサによって実行されるときに、前記プロセッサに、
    前記キャプチャデバイスによって検出された前記表面の寸法を特定させる命令と、
    前記キャプチャデバイスに対する前記表面の空間内の第1の向きを特定させる命令と、
    前記表面の前記特定された寸法と、前記キャプチャデバイスに対する前記表面の前記特定された第1の向きとに基づいて、前記遠隔地にいる前記ユーザーの前記画像を変換させ、前記ディスプレイレンダリングデバイスを介して前記表面上に表示させる命令と、
    前記表面が前記第1の向きから第2の向きに移動させられると、前記キャプチャデバイスに対する前記第2の向きへの前記表面の再位置決めを検出させる命令と、
    前記キャプチャデバイスに対する前記表面の空間内の前記第2の向きを特定させる命令と、
    前記表面の前記特定された寸法と、前記キャプチャデバイスに対する前記表面の前記特定された第2の向きとに基づいて、前記遠隔地にいる前記ユーザーの前記画像を変換させ、前記ディスプレイレンダリングデバイスを介して前記表面上に表示させる命令と、
    を記憶していることからなる、画像を表示するシステム。
  3. 前記表面の形状は長方形であって、前記表面は、該表面のそれぞれの角に隣接するフィデューシャルを有し、
    前記フィデューシャルは、前記キャプチャデバイスによって前記表面を検出するのに利用され、
    前記フィデューシャルのうち上側の前記角に隣接するフィデューシャルは、下側の前記角に隣接するフィデューシャルとは異なる、請求項2に記載のシステム。
  4. 前記プロセッサによって実行されるときに、前記プロセッサに、
    前記表面の前記寸法と、前記作業環境に対する前記表面の空間内の前記第1の向きとを特定する際に用いられた前記システムのキャプチャデバイスの座標を前記ディスプレイレンダリングデバイスの座標に較正させる命令と、
    前記キャプチャデバイスの前記較正後の座標において前記表面の角の座標を特定させる命令と、
    を前記非一時的コンピュータ可読記憶媒体が更に記憶している、請求項1〜3のいずれかに記載のシステム。
  5. 前記1つの場所と前記遠隔地の間で共有されるコンテンツが前記作業環境内に表示される、請求項1〜4のいずれかに記載のシステム。
  6. 遠隔地とのテレビ会議中に1つの場所における作業環境内に位置する表面上に画像を表示する方法であって、
    前記表面を前記作業環境内で移動させることがき、前記画像は前記遠隔地にいるユーザーの画像を含み、前記表面は、前記1つの場所にいるユーザーの画像を取得して前記遠隔地において表示するために、前記表面とともに移動可能なカメラを有し、
    前記表面は、所定の固定角度で基部に接続されているか、または前記基部に対してある範囲の角度にわたって移動可能に前記基部に接続されており、前記基部は前記作業環境内に配置されており、該基部を該作業環境内で移動させることができ、
    前記表面の寸法を特定することと、
    前記作業環境に対する前記表面の空間内の第1の向きを特定することと、
    前記表面の前記特定された寸法と、前記作業環境に対する前記表面の前記特定された第1の向きとに基づいて、前記遠隔地にいる前記ユーザーの前記画像を変換し、前記表面上に表示することと、
    前記表面が前記作業環境内の異なる場所に移動させられると、前記作業環境内の該異なる場所への前記表面の再位置決めを検出することと、
    前記作業環境に対する前記異なる場所における前記表面の空間内の第2の向きを特定することと、
    前記表面の前記特定された寸法と、前記作業環境に対する前記異なる場所における前記表面の空間内の前記特定された第2の向きとに基づいて、前記遠隔地にいる前記ユーザーの前記画像を変換し、前記表面上に表示することと、
    を含む方法。
  7. 前記表面の前記寸法と、前記作業環境に対する前記表面の空間内の前記第1の向きとを特定する際に用いられたキャプチャデバイスの座標を、前記表面上に前記遠隔地にいる前記ユーザーの前記画像を表示するディスプレイレンダリングデバイスの座標に較正することと、
    前記キャプチャデバイスの前記較正後の座標において前記表面の角の座標を特定することと、
    を更に含む、請求項6に記載の方法。
  8. 前記表面の前記特定された寸法と、前記作業環境に対する前記表面の空間内の前記特定された第1の向きとに基づいて、前記遠隔地にいる前記ユーザーの前記画像を変換し、前記表面上に表示することは、
    前記表面の前記角の座標を前記ディスプレイレンダリングデバイスの前記座標に変換することと、
    前記キャプチャデバイスの前記較正後の座標を前記ディスプレイレンダリングデバイスの前記座標に変換することと、
    を含む、請求項7に記載の方法。
  9. 前記表面の形状は長方形であって、前記表面は、該表面のそれぞれの角に隣接するフィデューシャルを有し、
    前記フィデューシャルは、前記表面を検出するのに利用され、
    前記フィデューシャルのうち上側の前記角に隣接するフィデューシャルは、下側の前記角に隣接するフィデューシャルとは異なる、請求項6〜8のいずれかに記載の方法。
  10. 前記1つの場所と前記遠隔地の間で共有されるコンテンツが前記作業環境内に表示される、請求項6〜のいずれかに記載の方法。
JP2015501652A 2012-04-24 2012-04-24 画像を表示するシステム Expired - Fee Related JP6084285B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2012/034787 WO2013162515A1 (en) 2012-04-24 2012-04-24 System for displaying an image

Publications (2)

Publication Number Publication Date
JP2015517244A JP2015517244A (ja) 2015-06-18
JP6084285B2 true JP6084285B2 (ja) 2017-02-22

Family

ID=49483628

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015501652A Expired - Fee Related JP6084285B2 (ja) 2012-04-24 2012-04-24 画像を表示するシステム

Country Status (6)

Country Link
US (1) US9565394B2 (ja)
EP (1) EP2842121B1 (ja)
JP (1) JP6084285B2 (ja)
CN (1) CN104081450B (ja)
BR (1) BR112014018565B1 (ja)
WO (1) WO2013162515A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150089453A1 (en) * 2013-09-25 2015-03-26 Aquifi, Inc. Systems and Methods for Interacting with a Projected User Interface
JP6337269B2 (ja) * 2014-04-09 2018-06-06 パナソニックIpマネジメント株式会社 車両評価装置

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7209160B2 (en) 1995-09-20 2007-04-24 Mcnelley Steve H Versatile teleconferencing eye contact terminal
JPH11327042A (ja) * 1998-05-20 1999-11-26 Mitsubishi Electric Corp プロジェクタの位置決め装置
US6753907B1 (en) 1999-12-23 2004-06-22 Justsystem Corporation Method and apparatus for automatic keystone correction
JP2002027419A (ja) 2000-07-05 2002-01-25 Hitachi Ltd 画像端末装置及びそれを用いる通信システム
JP4961628B2 (ja) 2000-08-11 2012-06-27 日本電気株式会社 投射映像補正システム及びその方法
US6520647B2 (en) * 2000-08-17 2003-02-18 Mitsubishi Electric Research Laboratories Inc. Automatic keystone correction for projectors with arbitrary orientation
US7352913B2 (en) * 2001-06-12 2008-04-01 Silicon Optix Inc. System and method for correcting multiple axis displacement distortion
JP2003153126A (ja) 2001-11-13 2003-05-23 Canon Inc プロジェクションディスプレイ装置
US7203384B2 (en) 2003-02-24 2007-04-10 Electronic Scripting Products, Inc. Implement for optically inferring information from a planar jotting surface
JP2004274283A (ja) 2003-03-07 2004-09-30 Casio Comput Co Ltd 投影システム、及び投影装置、画像供給装置、プログラム
US7110100B2 (en) 2003-11-04 2006-09-19 Electronic Scripting Products, Inc. Apparatus and method for determining an inclination of an elongate object contacting a plane surface
US7038846B2 (en) 2003-11-24 2006-05-02 Electronic Scripting Products, Inc. Solid catadioptric lens with a single viewpoint
US7268956B2 (en) 2003-11-24 2007-09-11 Electronic Scripting Products, Inc. Solid catadioptric lens with two viewpoints
US7088440B2 (en) 2003-12-22 2006-08-08 Electronic Scripting Products, Inc. Method and apparatus for determining absolute position of a tip of an elongate object on a plane surface with invariant features
US7826641B2 (en) 2004-01-30 2010-11-02 Electronic Scripting Products, Inc. Apparatus and method for determining an absolute pose of a manipulated object in a real three-dimensional environment with invariant features
US8542219B2 (en) 2004-01-30 2013-09-24 Electronic Scripting Products, Inc. Processing pose data derived from the pose of an elongate object
US7729515B2 (en) 2006-03-08 2010-06-01 Electronic Scripting Products, Inc. Optical navigation apparatus using fixed beacons and a centroid sensing device
US9229540B2 (en) 2004-01-30 2016-01-05 Electronic Scripting Products, Inc. Deriving input from six degrees of freedom interfaces
US7961909B2 (en) 2006-03-08 2011-06-14 Electronic Scripting Products, Inc. Computer interface employing a manipulated object with absolute pose detection component and a display
US7023536B2 (en) 2004-03-08 2006-04-04 Electronic Scripting Products, Inc. Apparatus and method for determining orientation parameters of an elongate object
US7161664B2 (en) 2004-04-13 2007-01-09 Electronic Scripting Products, Inc. Apparatus and method for optical determination of intermediate distances
US8599239B2 (en) 2004-04-21 2013-12-03 Telepresence Technologies, Llc Telepresence systems and methods therefore
US7113270B2 (en) 2004-06-18 2006-09-26 Electronics Scripting Products, Inc. Determination of an orientation parameter of an elongate object with a scan beam apparatus
JP3994290B2 (ja) * 2005-01-17 2007-10-17 セイコーエプソン株式会社 画像処理システム、プロジェクタ、プログラム、情報記憶媒体および画像処理方法
JP2006251604A (ja) * 2005-03-14 2006-09-21 Seiko Epson Corp テーブル型ディスプレイ
JP4222420B2 (ja) * 2006-02-21 2009-02-12 パナソニック電工株式会社 映像表示装置、映像表示装置の映像歪み補正方法
JP5110912B2 (ja) * 2007-02-28 2012-12-26 日本放送協会 画像投射システムおよび画像投射方法
JP2010041452A (ja) * 2008-08-06 2010-02-18 Sharp Corp コンテンツ視聴装置、携帯端末、通話方法、プログラム、記録媒体、及び、コンテンツ視聴システム
US8393740B2 (en) * 2009-03-12 2013-03-12 Canon Kabushiki Kaisha Image projection system with keystone correction
US8203595B2 (en) 2009-05-21 2012-06-19 Alcatel Lucent Method and apparatus for enabling improved eye contact in video teleconferencing applications
US8514260B2 (en) 2009-05-28 2013-08-20 Microsoft Corporation Establishing eye contact in video conferencing
US8388146B2 (en) 2010-08-01 2013-03-05 T-Mobile Usa, Inc. Anamorphic projection device
US8970709B2 (en) 2013-03-13 2015-03-03 Electronic Scripting Products, Inc. Reduced homography for recovery of pose parameters of an optical apparatus producing image data with structural uncertainty

Also Published As

Publication number Publication date
CN104081450A (zh) 2014-10-01
CN104081450B (zh) 2016-09-07
BR112014018565B1 (pt) 2021-07-27
US20150244983A1 (en) 2015-08-27
EP2842121A4 (en) 2015-12-09
BR112014018565A8 (pt) 2017-07-11
US9565394B2 (en) 2017-02-07
WO2013162515A1 (en) 2013-10-31
EP2842121A1 (en) 2015-03-04
JP2015517244A (ja) 2015-06-18
BR112014018565A2 (pt) 2017-06-20
EP2842121B1 (en) 2020-05-27

Similar Documents

Publication Publication Date Title
US10198146B2 (en) Information processing apparatus, information processing method, and recording medium
US8491128B2 (en) System and method for projection correction by capturing projection image
US7733404B2 (en) Fast imaging system calibration
JP6875081B2 (ja) ディスプレイ装置のパラメータ推定方法及びその方法を用いた装置
JP6237326B2 (ja) 姿勢推定装置、姿勢推定方法及び姿勢推定用コンピュータプログラム
CN104052976B (zh) 投影方法及装置
US8896688B2 (en) Determining position in a projection capture system
CN103914876B (zh) 用于在3d地图上显示视频的方法和设备
JP2007072537A (ja) 360°画像撮影装置
JP2010287174A (ja) 家具シミュレーション方法、装置、プログラム、記録媒体
WO2013124914A1 (ja) 情報表示装置およびその制御方法
WO2016025328A1 (en) Systems and methods for depth enhanced and content aware video stabilization
TW201305856A (zh) 投影系統與其影像處理方法
JP6084285B2 (ja) 画像を表示するシステム
WO2019008861A1 (ja) 情報処理装置、情報処理方法および個体撮像装置
WO2017112036A2 (en) Detection of shadow regions in image depth data caused by multiple image sensors
KR20090116544A (ko) 적외선 카메라 방식의 공간 터치 감지 장치, 방법 및스크린 장치
TWI620146B (zh) 立體物件建構方法及系統
WO2022230350A1 (ja) 情報処理装置、情報処理方法およびプログラム
Mussadiq et al. Confined projection on selected sub-surface using a robust binary-coded pattern for pico-projectors
US20090033654A1 (en) System and method for visually representing an object to a user
JP2007282096A (ja) 画像投射システム
JP2022042408A (ja) 情報処理装置
CN114820791A (zh) 障碍物检测方法、装置、系统及非易失性存储介质
JP2020046358A (ja) 物体採寸用器具、物体採寸方法および物体採寸システム

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150929

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160106

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160614

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160902

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170124

R150 Certificate of patent or registration of utility model

Ref document number: 6084285

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees