JP2015517244A - 画像を表示するシステム - Google Patents

画像を表示するシステム Download PDF

Info

Publication number
JP2015517244A
JP2015517244A JP2015501652A JP2015501652A JP2015517244A JP 2015517244 A JP2015517244 A JP 2015517244A JP 2015501652 A JP2015501652 A JP 2015501652A JP 2015501652 A JP2015501652 A JP 2015501652A JP 2015517244 A JP2015517244 A JP 2015517244A
Authority
JP
Japan
Prior art keywords
orientation
work environment
instructions
identified
capture device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015501652A
Other languages
English (en)
Other versions
JP6084285B2 (ja
Inventor
メイン・ジェフレイ
ショート・デービッド
ウェインステイン・ダニエル
リードラー・ダン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hewlett Packard Development Co LP
Original Assignee
Hewlett Packard Development Co LP
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hewlett Packard Development Co LP filed Critical Hewlett Packard Development Co LP
Publication of JP2015517244A publication Critical patent/JP2015517244A/ja
Application granted granted Critical
Publication of JP6084285B2 publication Critical patent/JP6084285B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/142Constructional details of the terminal equipment, e.g. arrangements of the camera and the display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/142Constructional details of the terminal equipment, e.g. arrangements of the camera and the display
    • H04N7/144Constructional details of the terminal equipment, e.g. arrangements of the camera and the display camera and display on the same optical axis, e.g. optically multiplexing the camera and display for eye to eye contact
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

画像を表示するシステム及び方法が本明細書において開示される。本システムは、その上に画像が表示される表面と、表面上に画像を表示するディスプレイレンダリングデバイスとを備える。本システムは更に、表面を検出するキャプチャデバイスと、プロセッサと、非一時的コンピュータ可読記憶媒体とを備える。非一時的コンピュータ可読記憶媒体は、プロセッサに、表面の寸法を特定させる命令と、表面の第1の向きを特定させる命令と、表面の特定された寸法と、表面の特定された第1の向きとに基づいて、画像を変換させ、表面上に表示させる命令と、第2の向きへの表面の再位置決めを検出させる命令と、表面の第2の向きを特定させる命令と、表面の特定された寸法と、キャプチャデバイスに対する表面の特定された第2の向きとに基づいて、画像を変換させ、表面上に表示させる命令とを含む。【選択図】図1

Description

本発明は、画像を表示するシステム及び方法に関する。
消費者は電子デバイスにおいて使いやすさ及び融通性を高く評価する。消費者の要求への適応性も望ましい。それゆえ、企業は、これらの目的のうちの1つ又は複数に向けられる電子デバイスを設計しようと努め得る。
以下の詳細な説明は図面を参照する。
表面上に画像を表示するシステムの一例を示す図である。 2つの表面上に画像を表示するための図1のシステムの別の例を示す図である。 図1のシステムのキャプチャデバイスのセンサの較正の一例を示す図である。 図1のシステムのキャプチャデバイスのセンサの較正の一例を示す図である。 深度検知を使用して、表面の角の場所を特定することができる1つの方法の一例を示す図である。 赤外線(IR)又は赤色、緑色及び青色(RGB)検知を使用して、表面の角の場所を特定することができる別の方法の一例を示す図である。 作業環境内で表面の寸法及び向きを特定する一例を示す図である。 作業環境からの表面の角度ファイ(Φ)を特定する一例を示す図である。 ディスプレイレンダリングデバイスによって与えられる2次元画像から、画面の3次元平面の2次元逆投影への変換の一例を示す図である。 画像を表示することができる画面を有するウエッジ又はパック(puck)の一例を示す図である。 作業環境内で場所を特定された表面上に画像を表示する方法の一例を示す図である。 図11の方法の更なる要素の一例を示す図である。 図11の方法の更なる要素の一例を示す図である。
人々は、連帯感、注意、関心及び理解を高める等の種々の理由から、多くの場合に、会話中に視線を合わせることを大切にしている。テレビ会議システムとの関連では、システムディスプレイに対するシステムカメラの配置に起因して、これは達成するのが難しい可能性がある。例えば、或る場所にいるテレビ会議システムのユーザが、そのシステムに接続される別の場所にいる別の人の画像を見るとき、そのユーザは、自分の姿を捕捉しているカメラも同時に直接見ることはできない。カメラと、特定の場所において投影された人を表示するディスプレイとの間の距離が大きいほど、ユーザとその人の視線が合わないことが多くなる可能性がある。
1つのカメラしか存在しない1つの場所において複数のユーザを参加させるテレビ会議中に、この状況は悪化する可能性がある。例えば、他の遠隔地にあるディスプレイ上で、或る場所にいる全てのユーザを同時に見ることができない場合がある。或る場所にいる複数のユーザが見える場合には、その場所にあるカメラから複数のユーザまでの距離が異なる場合がある。この結果、遠隔地における複数のユーザの画像において視線が合わない程度が異なり得る。
そのようなテレビ会議システムに関して生じる可能性がある別の問題は、リモートユーザが共有コンテンツで作業する状況において生じる。例えば、リモートユーザの表示された画像が、共有コンテンツがその上に位置決めされるか、又は表示されるローカル作業環境の一部又は全てを覆い隠し得る。更には、又は代替的には、リモートユーザの画像をローカルディスプレイ上で見えるようにするには、そのユーザがリモート作業環境から離れすぎている場合があり、それにより、そのようなテレビ会議を通しての共同作業の目的が妨げられ得る。
本明細書において用いられるときに、「表示している」、「表示する」及び「表示される」という用語は、限定はしないが、投影すること、及び投影を含むように定義される。「画像」という用語は、限定はしないが、同じ又は異なるコンテンツの1つ又は複数のビデオストリームを含むように定義される。この画像は、インターネット、コンピュータ、ハンドヘルドデバイス(例えば、モバイル電話、タブレット又は携帯情報端末(PDA))等の種々の情報源のいずれかに由来し得る。また、この画像は、MPEG、PDF、WAV、JPEG等の種々のフォーマットのいずれかとし得る。
「ディスプレイレンダリングデバイス」という用語は、限定はしないが、プロジェクタを含むように定義される。「カメラ」という用語は、限定はしないが、後に表示するために1つ又は複数の人又は物体に関連付けられる可視コンテンツ又はデータを捕獲するデバイスを含むように定義される。「表面」という用語は、限定はしないが、その上に画像を表示し得るエリア又は立体空間(volume)(例えば、画面)を有する任意の2次元物体又は3次元物体を含むように定義される。「向き」という用語は、限定はしないが、作業環境上のX、Y及びZデカルト座標、並びに作業環境に対する角度(例えば、θx、θy及びθzすなわちロール、ピッチ及びヨー)を含む。「キャプチャデバイス」という用語は、限定はしないが、撮像デバイス、センサ又は検出器を含むように定義される。
本明細書において用いられるときに、「非一時的記憶媒体」及び「非一時的コンピュータ可読記憶媒体」という用語は、プログラム、情報及びデータを含むか、記憶するか、又は保持することができる任意の媒体を指している。非一時的記憶媒体及び非一時的コンピュータ可読記憶媒体は、例えば、電子媒体、磁気媒体、光媒体、電磁媒体又は半導体媒体のような数多くの物理媒体のうちのいずれか1つを含み得る。適切な非一時的記憶媒体及び非一時的コンピュータ可読記憶媒体のより具体的な例は、限定はしないが、フロッピーディスケットのような磁気コンピュータディスケット又はハードドライブ、磁気テープ、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、消去可能プログラマブルリードオンリーメモリ、フラッシュドライブ、コンパクトディスク(CD)、又はデジタルビデオディスク(DVD)を含む。
本明細書において用いられるときに、「プロセッサ」という用語は、コンピュータ/プロセッサに基づくシステム、特定用途向け集積回路(ASIC)若しくはハードウェア及び/又はソフトウェアシステムのような、命令実行システムを指している。これらの命令実行システムは、非一時的記憶媒体及び非一時的コンピュータ可読記憶媒体からロジックを取り出すか、又は入手することができ、その中に含まれる命令を実行することができる。
テレビ会議システムに関して上記で論じられた問題に対処することに向けられる、画像12を表示するシステム10の一例が図1に示される。図1において見ることができるように、システム10は、その上に画像12が表示される表面14を含む。また、システム10は、矢印18、20及び22によって示されるように、表面14上に画像12を表示するディスプレイレンダリングデバイス16と、矢印26によって示されるように、表面14を検出するキャプチャデバイス24とを含む。システム10は、プロセッサ28を更に含む。プロセッサ28は、矢印30によって示されるように、キャプチャデバイス24に結合され、かつ矢印34及び36によって示されるように、画像変換デバイス32を介してディスプレイレンダリングデバイス16に結合される。画像変換デバイス32は、矢印33によって示されるように、画像12に関する処理を実行し、それにより、画像は、ディスプレイレンダリングデバイス16によって利用するのに適したフォーマットにされる。
システム10は、非一時的コンピュータ可読記憶媒体38を更に含む。非一時的コンピュータ可読記憶媒体38は、プロセッサ28によって実行されるときに、プロセッサ28に、キャプチャデバイス24によって検出された表面14の寸法(例えば、長さ及び幅)を特定させる命令と、キャプチャデバイス24に対する表面14の空間内の第1の向きを特定させる命令とを含む。非一時的コンピュータ可読記憶媒体38は、プロセッサ28によって実行されるときに、表面14の特定された寸法、及びキャプチャデバイス24に対する表面14の特定された第1の向きに基づいて、プロセッサ28に、画像変換デバイス32を使用して画像12を変換させ、ディスプレイレンダリングデバイス16を介して表面14上に表示させる更なる命令を含む。
同じく図1において見ることができるように、表面14は、矢印40によって示されるように、システム10のユーザによって、実線において示される第1の向きから、破線において示される第2の向きに移動され得る。システム10のユーザは、ユーザと遠隔地にいる1人又は複数のユーザとの間の視線を合わせる感覚を改善することのような種々の理由から、表面14を第1の向きから第2の向きに移動し得る。システム10のユーザが表面14を第1の向きから第2の向きに移動し得る別の理由は、表面14によって覆い隠されるか、又は遮断される作業環境の量を最小化することである。これは、共有コンテンツが作業環境内に投影されているか又は表示されているときに有用である可能性がある。
非一時的コンピュータ可読記憶媒体38は、プロセッサ28によって実行されるときに、プロセッサ28に、破線矢印42によって示されるように、キャプチャデバイス24に対する第2の向きへの表面14のこの再位置決めを検出させる更なる命令と、キャプチャデバイス24に対する表面14の空間内の第2の向きを特定させる更なる命令とを含む。非一時的コンピュータ可読記憶媒体38は、プロセッサ28によって実行されるときに、プロセッサ28に、破線矢印44、46及び48によって示されるように、表面14の以前に特定された寸法、及びキャプチャデバイス24に対する表面14の特定された第2の向きに基づいて、画像変換デバイス32を使用して画像12を変換させ、ディスプレイレンダリングデバイス16を介して表面14上に表示させる更なる命令を含む。
2つの表面50及び52上に画像12を表示するシステム10の別の例が図2に示される。これらの2つの表面50及び52を使用することは、種々の状況において、種々の理由から有用であることとわかり得る。例えば、表面50及び52のうちの一方だけに表示するには或る場所にあまりにも多くのユーザが存在し得る。別の例として、或る場所にいる複数のユーザが単一の表面において見える場合には、その場所にあるカメラからユーザへの距離が異なり得る。この結果、遠隔地におけるユーザの画像の視線が合わない程度が異なる可能性がある。更なる例として、表面52上に表示される画像とは異なる画像が、表面50上に表示され得る。
図2において見ることができるように、ディスプレイレンダリングデバイス16は画像12を、矢印54、56及び58によって示されるように、表面50上に、かつ矢印60、62及び64によって示されるように、表面52上に表示する。同じく図2に示されるように、キャプチャデバイス24は、矢印66によって示されるように、表面50を検出し、矢印68によって示されるように、表面52を検出する。非一時的コンピュータ可読記憶媒体38は、プロセッサ28によって実行されるときに、プロセッサ28に、キャプチャデバイス24によって検出された表面50の寸法(例えば、長さ及び幅)を特定させる命令と、キャプチャデバイス24に対する表面50の空間内の第1の向きを特定させる命令とを含む。また、非一時的コンピュータ可読記憶媒体38は、プロセッサ28によって実行されるときに、プロセッサ28に、キャプチャデバイス24によって検出された表面52の寸法(例えば、長さ及び幅)を特定させる命令と、キャプチャデバイス24に対する表面52の空間内の第2の向きを特定させる命令とを含む。非一時的コンピュータ可読記憶媒体38は、プロセッサ28によって実行されるときに、プロセッサ28に、表面50及び52の特定された寸法と、キャプチャデバイス24に対する表面50及び52のそれぞれ特定された第1の向き及び第2の向きとに基づいて、画像変換デバイス32を使用して画像12を変換させ、ディスプレイレンダリングデバイス16を介して表面50及び52上に表示させる更なる命令を含む。
同じく図2において見ることができるように、表面50及び52は、矢印70によって示されるように、システム10の1人又は複数のユーザによって、実線において示されるそれぞれの第1の向き及び第2の向きから、破線において示されるそれぞれの第3の向き及び第4の向きに移動され得る。図2に示されるシステム10の例の1人又は複数のユーザは、図1に関連して上記で論じられたような種々の理由から、表面50及び52をそれぞれの第1の向き及び第2の向きからそれぞれの第3の向き及び第4の向きに移動し得る。
非一時的コンピュータ可読記憶媒体38は、プロセッサ28によって実行されるときに、プロセッサ28に、破線矢印72及び74によって示されるように、キャプチャデバイス24に対するそれぞれの第3の向き及び第4の向きへの表面50及び52のこの再位置決めを検出させる更なる命令と、キャプチャデバイス24に対する表面50と52の空間内のそれぞれの第3の向き及び第4の向きを特定させる更なる命令とを含む。非一時的コンピュータ可読記憶媒体38は、プロセッサ28によって実行されるときに、プロセッサ28に、表面50及び52の以前に特定された寸法、及びキャプチャデバイス24に対する表面50及び52のそれぞれ特定された第3の向き及び第4の向きとに基づいて、画像変換デバイス32を使用して画像12を変換させ、ディスプレイレンダリングデバイス16を介して表面50及び52上に表示させる更なる命令を含む。表面50に関しては、破線矢印76、78及び80によって示され、表面52に関しては破線矢印82、84及び86によって示される。
キャプチャデバイス24のセンサの較正の一例が図3及び図4に示される。図3において見ることができるように、キャプチャデバイス24のセンサによってカバーされるエリア88は幅90及び高さ92を含む。同じく図3において見ることができるように、ディスプレイレンダリングデバイス16は、角p1 96、角p2 98、角p3 100及び角p4 102によって囲まれるか、又は画定される投影エリア94を有する。図3及び図4に示される例では、エリア88は実質的に長方形であるように示され、エリア94は実質的に台形であるように示される。しかしながら、画像を表示するシステムの他の例では、これらのエリアは異なる形状を有し得ることは理解されたい。これは、投影される画像の少なくとも2つの点が、その上に画像が投影される表面の外縁と接触する限り、任意の表面形状上に任意の画像形状を投影できるためである。
矢印106によって示されるように、ホモグラフィ行列(H)104を作成して、以下のように、これを較正することができる。
幅90=キャプチャデバイスWidthPixels/ディスプレイレンダリングデバイスWidthPixels
高さ92=キャプチャデバイスHeightPixels/ディスプレイレンダリングデバイスHeightPixels
s1={(ディスプレイレンダリングデバイスWidthPixels−1)*幅90,0}
s2={0,0}
s3={0,(ディスプレイレンダリングデバイスHeightPixels−1)*高さ92}
s4={(ディスプレイレンダリングデバイスWidthPixels−1)*幅90,(ディスプレイレンダリングデバイスHeightPixels)},(ディスプレイレンダリングデバイスHeightPixels−1)*高さ92}
In={p1,p2,p3,p4}
Out={s1,s2,s3,s4}
104=perspectiveXfrm(In,Out)
キャプチャデバイス24のセンサによってカバーされるエリア88内の投影エリア94の角p1 96、p2 98、p3 100及びp4 102が特定され、図3に示されるように、かつ上記で論じられたように、ホモグラフィ行列(H)104が作成されると、矢印108によって示されるように、かつ図4に示されるように、キャプチャデバイス24からのデータがホモグラフィ行列(H)104によって変換される。この結果、図4に示されるように、ディスプレイレンダリングデバイス16のエリア94の実質的に台形の形状が、実質的に長方形の形状からなるキャプチャデバイス24のセンサによってカバーされるエリア88により良好に適合するか、又はエリア88を占める、同じく実質的に長方形の形状を有するエリア110に変換される。
作業環境122において、その上に画像12が表示されるウエッジ121の表面120の角c1 112、c2 114、c3 116及びc4 118の場所を特定する必要がある。図5は、深度検知を使用して、キャプチャデバイス24によって角c1、c2、c3及びc4の場所を特定し得る1つの方法の一例である。具体的には、角112、114、116及び118は、ウエッジ121のセグメント化の外周124から特定される。空間内の表面120の向きは、作業環境122からの角c1、c2、c3及びc4の相対的な高さに基づいて、キャプチャデバイス24によって特定される。
作業環境138において、その上に画像12が表示される異なるウエッジ136の表面134の角c1 126、c2 128、c3 130及びc4 132の場所を、キャプチャデバイス24によって赤外線(IR)又は赤色、緑色及び青色(RGB)検知を使用して特定し得る別の方法の一例が図6に示される。この技法は、それぞれの角c1、c2、c3及びc4に隣接するフィデューシャル140、142、144及び146を使用することを伴う。RGB検知の場合、これらのフィデューシャルは、それぞれの角126及び130に隣接するフィデューシャル140及び144がそれぞれの角128及び132に隣接するフィデューシャル142及び146とは異なるように設計された固有のマークであり得る。キャプチャデバイス24によるIR検知の場合、これらのフィデューシャルは、角c1、c2、c3及びc4のそれぞれに隣接する赤外線LEDであり得、角126及び130に隣接する赤外線LEDは、角128及び132に位置する赤外線LEDとは異なる。この違いは、色(すなわち、波長)、強度、サイズ等の種々の異なる特性のいずれかであるように選択することができる。
図6に示されるこの例示的な技法を利用する、キャプチャデバイス24は、フィデューシャル140、142、144及び146の場所を特定する。上側フィデューシャル142及び146は下側フィデューシャル140及び144とは異なるので、キャプチャデバイス24は、空間内のウエッジ136の向きを特定することができる。これにより更に、キャプチャデバイス24は、それぞれのフィデューシャル140、142、144及び146に隣接する角c1、c2、c3及びc4の場所を特定できるようになる。
ウエッジ136の表面134のような表面の寸法(例えば、長さ及び幅)及び空間内のその向きを特定する一例が図7に示される。図7において見ることができるように、角c1 126は、ウエッジ136の左下角を表す(図6を参照)。さらに、キャプチャデバイス24によって検出可能であるか、又は監視される作業環境138の部分が4つの象限に、すなわち、象限1 148、象限2 150、象限3 152及び象限4 154に分割される。角c1 126及びc3 130は、上記で論じられたように、角c2 128及びc4 132から区別可能であり、ウエッジ136の表面134の前部を表す。非一時的コンピュータ可読記憶媒体38上の命令が、プロセッサ28に、原点すなわち4つ全ての象限148、150、152及び154の交点156に存在するように表される角c1に対して、角c3が存在するのが4つの象限のうちのどの象限であるかを判断させる。角c1 126から角c3 130へのベクトルW160の角度シータ(θ)158は、キャプチャデバイス24によって検出可能であるか、又は監視される作業環境138内のウエッジ136の表面134の向きの角度である。角c1から角c3までの距離は、ウエッジ136の表面134の2つの寸法のうちの一方に対応するベクトルW160の長さを表す。角c3から角c4までの距離は、ウエッジ136の表面134の2つの寸法のうちの他方に対応するベクトルL162の長さを表す。
ウエッジ136の表面134のような表面の、作業環境138からの角度ファイ(Φ)を求める一例が図8に示される。図8において見ることができるように、角度ファイは以下のように求めることができる。
Φ=tan-1(z/L)
ただし、Lは角c3 130から角c4 132までの距離であり、図7に関連して上記で論じられた、ベクトルL162の長さに等しく、
zはc3からc4までの相対的な「高さ」であり、図5に関連して上記で論じられたタイプの深度センサを使用して求めることができる。
ディスプレイレンダリングデバイス164によって与えられる2次元画像を、作業環境168内に位置決めされた表面166の3次元平面の2次元逆投影に変換する一例が図9に示される。用いられる基本的な方法は、ディスプレイレンダリングデバイス164から表面166の各角までのベクトルを構成することである。この例では、ディスプレイレンダリングデバイス164から表面166の角c1 172までのベクトル170、ディスプレイレンダリングデバイス164から表面166の角c2 176までのベクトル174、ディスプレイレンダリングデバイス164から表面166の角c3 180までのベクトル178、及びディスプレイレンダリングデバイス164から表面166の角c4までのベクトル182を生成する。次に、各ベクトル170、174、178及び182が、作業環境168と接触するまで(必要に応じて)延長される(この場合には、ベクトル174及び182)。次に、各ベクトルがディスプレイレンダリングデバイス164の対応する場所に加えられる。この和は、その角に対する3次元/2次元変換を与える。
例えば、
c1、c2、c3及びc4は画面166の角の場所であり;
I 186は作業環境168から画面166の上部までの距離であり;
P 188=[Px,0,Pz]はディスプレイレンダリングデバイス164の左上座標であり;
hはディスプレイレンダリングデバイス164の上部から作業環境168までのオフセットであると仮定する。
C2をc2の3次元座標とする。
その際、C1=[clx,c2y+h,I]及びC4=[c4x,c4y+h,I]である。
ベクトル(V)が、以下のように、ディスプレイレンダリングデバイス164から画面166の各角(C)まで構成される:V=C−P
各ベクトル(V)が、作業環境168と接触するまで延長される:V=V*(Pz/(Pz−1))
その後、各ベクトル(V)がディスプレイレンダリングデバイス164の対応する場所に加えられ、その角に対する3次元/2次元変換を与える:s=P+V
図9に示される例では、s1=c1であり、s2は作業環境168上の点190に位置し、s3=c3であり、s4は作業環境168内の点192に位置する。
次に、キャプチャデバイス(図9には示されない)の座標がディスプレイレンダリングデバイス164の座標に変換される。例えば、以下のように行われる。
s4={(キャプチャデバイスWidthPixels−1)*幅キャプチャデバイス,(キャプチャデバイスHeightPixels−1}*高さキャプチャデバイス}
p1={(ディスプレイレンダリングデバイスWidthPixels−1)*幅キャプチャデバイス,0}
p2={0,0}
p3={0,(ディスプレイレンダリングデバイスHeightPixels−1)*高さキャプチャデバイス}
p4={(ディスプレイレンダリングデバイスWidthPixels−1)*高さキャプチャデバイス,(ディスプレイレンダリングデバイスHeightPixels−1)*高さキャプチャデバイス}
In={s1,s2,s3,s4}
Out={p1,p2,p3,p4}
ホモグラフィ行列(H)=perspectiveXfrm(In,Out)
S={s1,s2,s3,s4}
H×S
W=表面166の変換後の2次元座標
その上に画像12を表示し得る画面196を有するウエッジ又はパック194の一例が図10に示される。図10において見ることができるように、ウエッジ194は、1人又は複数のユーザにとって都合の良い場所及び空間内の向きにおいて作業環境(図示せず)内の任意の場所に配置し得る基部198を含む。同じく図10において見ることができるように、画面196が基部198に対して所定の固定角度200に位置決めされる。図10に示される例では、角度200は、約40度〜約70度の範囲内に入るように選択される。システム10とともに用いるためのウエッジ又はパックの別の例では、角度200は約20度〜約40度の範囲内に入るように選択し得る。
図10において更に見ることができるように、ウエッジ又はパック194は、表面196に隣接してウエッジ又はパック194上の場所に位置決めされるカメラ202を含む。カメラ202は、遠隔地において表示するためにウエッジ又はパック194の1人又は複数のユーザの1つ又は複数の画像を捕獲するように設計される。ウエッジ又はパック194は基部198に対して所定の角度200をなす固定表面196を有するように示されるが、他の例では、表面196は、基部198に対して或る範囲の角度にわたって移動可能にし得ることは理解されたい。
作業環境内に位置する表面上に画像を表示する方法204の一例が図11に示される。図11において見ることができるように、方法204は、ブロック208によって示されるように、表面の寸法を特定し、ブロック210によって示されるように、作業環境に対する表面の空間内の第1の向きを特定することによって起動するか又は開始する(206)。その後、方法204は、ブロック212によって示されるように、表面の特定された寸法及び作業環境に対する表面の特定された第1の向きに基づいて、画像を変換し、表面上に表示する。その後、方法204は、ブロック214によって示されるように、作業環境内の異なる場所への表面の再位置決めを検出し、ブロック216によって示されるように、作業環境に対する異なる場所における表面の空間内の第2の向きを特定し得る。その後、方法204は、ブロック218によって示されるように、表面の特定された寸法及び作業環境に対する異なる場所における表面の空間内の特定された第2の向きに基づいて、画像を変換し、表面上に表示し得る。その後、方法204は終了し得る(220)。
図12において見ることができるように、方法204は以下の更なる要素も含み得る。方法204は、ブロック222によって示されるように、表面の寸法と、作業環境に対する表面の空間内の第1の向きとを特定する際に用いられるキャプチャデバイスの座標を、画像を表面上に表示するディスプレイレンダリングデバイスの座標に較正し得、ブロック224によって示されるように、キャプチャデバイスの較正後の座標において表面の角の座標を特定し得る。そのような場合に、方法204は、ブロック226によって示されるように、その表面の角の座標をディスプレイレンダリングデバイスの座標に更に変換し得、ブロック228によって示されるように、キャプチャデバイス座標をディスプレイレンダリングデバイスの座標に変換し得る。
図13において見ることができるように、方法204は以下の更なる要素を更に含み得る。方法204は、ブロック230によって示されるように、作業環境内の更なる表面を検出し得、ブロック232によって示されるように、更なる表面の寸法を特定し得る。また、方法204は、ブロック234によって示されるように、作業環境に対する更なる表面の空間内の第3の向きをも特定し得、ブロック236によって示されるように、更なる表面の特定された寸法と、作業環境に対する更なる表面の特定された第3の向きとに基づいて、画像を変換し、更なる表面上に表示し得る。そのような場合に、方法204は、ブロック238によって示されるように、作業環境に対する第4の向きへの更なる表面の再位置決めを更に検出し得、ブロック240によって示されるように、作業環境に対する更なる表面の空間内の第4の向きを特定し得る。その後、方法242は、ブロック242によって示されるように、更なる表面の特定された寸法と、作業環境内の異なる場所における更なる表面の空間内の特定された第4の向きとに基づいて、画像を変換し、更なる表面上に表示し得る。
幾つかの例が詳細に説明及び例示されてきたが、それらの例は単に例示することだけを意図していることを明確に理解されたい。これらの例は、本発明を網羅的に述べることも、本発明を開示されるのと全く同じ形に、又は開示される例示的な実施形態に限定することも意図してない。当業者には変更及び変形が十分に明らかであり得る。例えば、図2には2つの表面50及び52が例示されたが、1人若しくは複数のユーザ又はシステム10の特定の要求に応じて、システム10の他の例は、同じ、又は更なる画像とともに更なる表面を用い得ることは理解されたい。別の例として、図1及び図2には、キャプチャデバイス24が、表面14、50及び52の下方にあるように例示されるが、画像を表示するシステムの他の例では、キャプチャデバイス24は他の場所に(例えば、1つ又は複数の表面の上方に、及び/又は側方に)位置し得ることは理解されたい。更なる例として、画像を表示するシステムは2つの場所との関連で例示されてきたが、それに限らないことは理解されたい。むしろ、画像を表示するシステムの他の例は、3つ以上の場所におけるテレビ会議のために用い得る。本発明の趣旨及び範囲は、添付の特許請求の範囲の条件によってのみ制限されるべきである。
さらに、単数形の要素を参照することは、明示されない限り、唯一を意味する意図はなく、むしろ、1つ又は複数を意味する。さらに、要素又は構成要素が添付の特許請求の範囲において明示的に列挙されるか否かにかかわらず、その要素又は構成要素が公共に捧げられることを意図するものではない。

Claims (15)

  1. その上に画像が表示される表面と、
    前記表面上に前記画像を表示させるディスプレイレンダリングデバイスと、
    前記表面を検出するキャプチャデバイスと、
    前記キャプチャデバイス及び前記ディスプレイレンダリングデバイスに結合されるプロセッサと、
    非一時的コンピュータ可読記憶媒体と、
    を備えた、画像を表示するシステムであって、
    前記非一時的コンピュータ可読記憶媒体は、前記プロセッサによって実行されるときに、前記プロセッサに、
    前記キャプチャデバイスによって検出された前記表面の寸法を特定させる命令と、
    前記キャプチャデバイスに対する前記表面の空間内の第1の向きを特定させる命令と、
    前記表面の前記特定された寸法と、前記キャプチャデバイスに対する前記表面の前記特定された第1の向きとに基づいて、前記画像を変換させ、前記ディスプレイレンダリングデバイスを介して前記表面上に表示させる命令と、
    前記キャプチャデバイスに対する第2の向きへの前記表面の再位置決めを検出させる命令と、
    前記キャプチャデバイスに対する前記表面の空間内の前記第2の向きを特定させる命令と、
    前記表面の前記特定された寸法と、前記キャプチャデバイスに対する前記表面の前記特定された第2の向きとに基づいて、前記画像を変換させ、前記ディスプレイレンダリングデバイスを介して前記表面上に表示させる命令と、
    を含む、画像を表示するシステム。
  2. 前記キャプチャデバイスによって前記表面を検出するのに利用される、前記表面に隣接する複数のフィデューシャルを更に備える、請求項1に記載のシステム。
  3. 作業環境と、
    前記作業環境の一部において物体を記録するカメラと、
    を更に備え、
    前記カメラは前記表面に結合され、前記表面とともに移動可能である、請求項1に記載のシステム。
  4. 前記ディスプレイレンダリングデバイスによって前記画像が表示される更なる表面を更に備え、前記キャプチャデバイスは前記更なる表面を検出し、さらに、前記非一時的コンピュータ可読記憶媒体は、前記プロセッサによって実行されるときに、前記プロセッサに、
    前記キャプチャデバイスによって検出された前記更なる表面の寸法を特定させる更なる命令と、
    前記キャプチャデバイスに対する前記更なる表面の空間内の第3の向きを特定させる更なる命令と、
    前記更なる表面の前記特定された寸法と、前記キャプチャデバイスに対する前記更なる表面の前記特定された第3の向きとに基づいて、前記画像を変換させ、前記ディスプレイレンダリングデバイスを介して前記更なる表面上に表示させる更なる命令と、
    を含む、請求項1に記載のシステム。
  5. 前記非一時的コンピュータ可読記憶媒体は、前記プロセッサによって実行されるときに、前記プロセッサに、
    前記キャプチャデバイスに対する第4の向きへの前記更なる表面の再位置決めを検出させる更なる命令と、
    前記キャプチャデバイスに対する前記表面の空間内の前記第4の向きを特定させる更なる命令と、
    前記表面の前記特定された寸法と、前記キャプチャデバイスに対する前記表面の前記特定された第4の向きとに基づいて、前記画像を変換させ、前記ディスプレイレンダリングデバイスを介して前記表面上に表示させる更なる命令と、
    を含む、請求項4に記載のシステム。
  6. 作業環境内に位置する表面上に画像を表示する方法であって、
    前記表面の寸法を特定することと、
    前記作業環境に対する前記表面の空間内の第1の向きを特定することと、
    前記表面の前記特定された寸法と、前記作業環境に対する前記表面の前記特定された第1の向きとに基づいて、前記画像を変換し、前記表面上に表示することと、
    前記作業環境内の異なる場所への前記表面の再位置決めを検出することと、
    前記作業環境に対する前記異なる場所における前記表面の空間内の第2の向きを特定することと、
    前記表面の前記特定された寸法と、前記作業環境に対する前記異なる場所における前記表面の空間内の前記特定された第2の向きとに基づいて、前記画像を変換し、前記表面上に表示することと、
    を含む、作業環境内に位置する表面上に画像を表示する方法。
  7. 前記表面の前記寸法と、前記作業環境に対する前記表面の空間内の前記第1の向きとを特定する際に用いられたキャプチャデバイスの座標を前記表面上に前記画像を表示するディスプレイレンダリングデバイスの座標に較正することと、
    前記キャプチャデバイスの前記較正後の座標において前記表面の角の座標を特定することと、
    を更に含む、請求項6に記載の方法。
  8. 前記表面の前記特定された寸法と、前記作業環境に対する前記表面の空間内の前記特定された第1の向きとに基づいて、前記画像を変換し、前記表面上に表示することは、
    前記表面の前記角の座標を前記ディスプレイレンダリングデバイスの前記座標に変換することと、
    前記キャプチャデバイス座標を前記ディスプレイレンダリングデバイスの前記座標に変換することと、
    を含む、請求項7に記載の方法。
  9. 前記作業環境において更なる表面を検出することと、
    前記更なる表面の寸法を特定することと、
    前記作業環境に対する前記更なる表面の空間内の第3の向きを特定することと、
    前記更なる表面の前記特定された寸法と、前記作業環境に対する前記更なる表面の前記特定された第3の向きとに基づいて、前記画像を変換し、前記更なる表面上に表示することと、
    を更に含む、請求項6に記載の方法。
  10. 前記作業環境に対する第4の向きへの前記更なる表面の再位置決めを検出することと、
    前記作業環境に対する前記更なる表面の空間内の前記第4の向きを特定することと、
    前記更なる表面の前記特定された寸法と、前記作業環境内の異なる場所における前記更なる表面の空間内の前記特定された第4の向きとに基づいて、前記画像を変換し、前記更なる表面上に表示することと、
    を更に含む、請求項9に記載の方法。
  11. 前記作業環境の一部において物体を記録することを更に含む、請求項6に記載の方法。
  12. 作業環境内の表面上に画像を表示するシステムのプロセッサによって実行されるときに、前記プロセッサに、
    前記作業環境内の前記表面の寸法を特定させる命令と、
    前記作業環境に対する前記表面の空間内の第1の向きを特定させる命令と、
    前記表面の前記特定された寸法と、前記作業環境に対する前記表面の前記特定された第1の向きとに基づいて、前記画像を変換させ、前記表面上に表示させる命令と、
    前記作業環境内の異なる場所への前記表面の再位置決めを検出させる命令と、
    前記作業環境に対する前記異なる場所における前記表面の空間内の第2の向きを特定させる命令と、
    前記表面の前記特定された寸法と、前記作業環境に対する前記異なる場所における前記表面の空間内の前記特定された第2の向きとに基づいて、前記画像を変換させ、前記表面上に表示させる命令と、
    を含む、非一時的コンピュータ可読記憶媒体。
  13. 前記プロセッサによって実行されるときに、前記プロセッサに、
    前記表面の前記寸法と、前記作業環境に対する前記表面の空間内の前記第1の向きとを特定する際に用いられた前記システムのキャプチャデバイスの座標を前記表面上に前記画像を表示するディスプレイレンダリングデバイスの座標に較正させる命令と、
    前記キャプチャデバイスの前記較正後の座標において前記表面の角の座標を特定させる命令と、
    を更に含む、請求項12に記載の非一時的コンピュータ可読記憶媒体。
  14. 前記プロセッサによって実行されるときに、前記プロセッサに、
    前記作業環境において更なる表面を検出させる命令と、
    前記更なる表面の寸法を特定させる命令と、
    前記作業環境に対する前記更なる表面の空間内の第3の向きを特定させる命令と、
    前記更なる表面の前記特定された寸法と、前記作業環境に対する前記更なる表面の前記特定された第3の向きとに基づいて、前記画像を変換し、前記更なる表面上に表示させる命令と、
    を更に含む、請求項12に記載の非一時的コンピュータ可読記憶媒体。
  15. 前記プロセッサによって実行されるときに、前記プロセッサに、
    前記作業環境に対する第4の向きへの前記更なる表面の再位置決めを検出させる命令と、
    前記作業環境に対する前記更なる表面の空間内の前記第4の向きを特定させる命令と、
    前記更なる表面の前記特定された寸法と、前記作業環境の異なる場所における前記更なる表面の空間内の前記特定された第4の向きとに基づいて、前記画像を変換し、前記更なる表面上に表示させる命令と、
    を更に含む、請求項14に記載の非一時的コンピュータ可読記憶媒体。
JP2015501652A 2012-04-24 2012-04-24 画像を表示するシステム Expired - Fee Related JP6084285B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2012/034787 WO2013162515A1 (en) 2012-04-24 2012-04-24 System for displaying an image

Publications (2)

Publication Number Publication Date
JP2015517244A true JP2015517244A (ja) 2015-06-18
JP6084285B2 JP6084285B2 (ja) 2017-02-22

Family

ID=49483628

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015501652A Expired - Fee Related JP6084285B2 (ja) 2012-04-24 2012-04-24 画像を表示するシステム

Country Status (6)

Country Link
US (1) US9565394B2 (ja)
EP (1) EP2842121B1 (ja)
JP (1) JP6084285B2 (ja)
CN (1) CN104081450B (ja)
BR (1) BR112014018565B1 (ja)
WO (1) WO2013162515A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150089453A1 (en) * 2013-09-25 2015-03-26 Aquifi, Inc. Systems and Methods for Interacting with a Projected User Interface
JP6337269B2 (ja) * 2014-04-09 2018-06-06 パナソニックIpマネジメント株式会社 車両評価装置

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11327042A (ja) * 1998-05-20 1999-11-26 Mitsubishi Electric Corp プロジェクタの位置決め装置
JP2002027419A (ja) * 2000-07-05 2002-01-25 Hitachi Ltd 画像端末装置及びそれを用いる通信システム
JP2002062842A (ja) * 2000-08-11 2002-02-28 Nec Corp 投射映像補正システム及びその方法
JP2003153126A (ja) * 2001-11-13 2003-05-23 Canon Inc プロジェクションディスプレイ装置
JP2006197443A (ja) * 2005-01-17 2006-07-27 Seiko Epson Corp 画像処理システム、プロジェクタ、プログラム、情報記憶媒体および画像処理方法
JP2006251604A (ja) * 2005-03-14 2006-09-21 Seiko Epson Corp テーブル型ディスプレイ
JP2008033234A (ja) * 2006-02-21 2008-02-14 Matsushita Electric Works Ltd 映像表示装置、映像表示装置の映像歪み補正方法
JP2008219190A (ja) * 2007-02-28 2008-09-18 Nippon Hoso Kyokai <Nhk> 画像投射システムおよび画像投射方法
JP2010041452A (ja) * 2008-08-06 2010-02-18 Sharp Corp コンテンツ視聴装置、携帯端末、通話方法、プログラム、記録媒体、及び、コンテンツ視聴システム

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7209160B2 (en) 1995-09-20 2007-04-24 Mcnelley Steve H Versatile teleconferencing eye contact terminal
US6753907B1 (en) * 1999-12-23 2004-06-22 Justsystem Corporation Method and apparatus for automatic keystone correction
US6520647B2 (en) * 2000-08-17 2003-02-18 Mitsubishi Electric Research Laboratories Inc. Automatic keystone correction for projectors with arbitrary orientation
EP1395865A2 (en) * 2001-06-12 2004-03-10 Silicon Optix Inc. System and method for correcting keystone distortion
US7203384B2 (en) 2003-02-24 2007-04-10 Electronic Scripting Products, Inc. Implement for optically inferring information from a planar jotting surface
JP2004274283A (ja) * 2003-03-07 2004-09-30 Casio Comput Co Ltd 投影システム、及び投影装置、画像供給装置、プログラム
US7110100B2 (en) 2003-11-04 2006-09-19 Electronic Scripting Products, Inc. Apparatus and method for determining an inclination of an elongate object contacting a plane surface
US7038846B2 (en) 2003-11-24 2006-05-02 Electronic Scripting Products, Inc. Solid catadioptric lens with a single viewpoint
US7268956B2 (en) 2003-11-24 2007-09-11 Electronic Scripting Products, Inc. Solid catadioptric lens with two viewpoints
US7088440B2 (en) 2003-12-22 2006-08-08 Electronic Scripting Products, Inc. Method and apparatus for determining absolute position of a tip of an elongate object on a plane surface with invariant features
US7729515B2 (en) 2006-03-08 2010-06-01 Electronic Scripting Products, Inc. Optical navigation apparatus using fixed beacons and a centroid sensing device
US7826641B2 (en) 2004-01-30 2010-11-02 Electronic Scripting Products, Inc. Apparatus and method for determining an absolute pose of a manipulated object in a real three-dimensional environment with invariant features
US9229540B2 (en) 2004-01-30 2016-01-05 Electronic Scripting Products, Inc. Deriving input from six degrees of freedom interfaces
US8542219B2 (en) 2004-01-30 2013-09-24 Electronic Scripting Products, Inc. Processing pose data derived from the pose of an elongate object
US7961909B2 (en) 2006-03-08 2011-06-14 Electronic Scripting Products, Inc. Computer interface employing a manipulated object with absolute pose detection component and a display
US7023536B2 (en) 2004-03-08 2006-04-04 Electronic Scripting Products, Inc. Apparatus and method for determining orientation parameters of an elongate object
US7161664B2 (en) 2004-04-13 2007-01-09 Electronic Scripting Products, Inc. Apparatus and method for optical determination of intermediate distances
US8599239B2 (en) 2004-04-21 2013-12-03 Telepresence Technologies, Llc Telepresence systems and methods therefore
US7113270B2 (en) 2004-06-18 2006-09-26 Electronics Scripting Products, Inc. Determination of an orientation parameter of an elongate object with a scan beam apparatus
US8393740B2 (en) * 2009-03-12 2013-03-12 Canon Kabushiki Kaisha Image projection system with keystone correction
US8203595B2 (en) 2009-05-21 2012-06-19 Alcatel Lucent Method and apparatus for enabling improved eye contact in video teleconferencing applications
US8514260B2 (en) 2009-05-28 2013-08-20 Microsoft Corporation Establishing eye contact in video conferencing
US8388146B2 (en) * 2010-08-01 2013-03-05 T-Mobile Usa, Inc. Anamorphic projection device
US8970709B2 (en) 2013-03-13 2015-03-03 Electronic Scripting Products, Inc. Reduced homography for recovery of pose parameters of an optical apparatus producing image data with structural uncertainty

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11327042A (ja) * 1998-05-20 1999-11-26 Mitsubishi Electric Corp プロジェクタの位置決め装置
JP2002027419A (ja) * 2000-07-05 2002-01-25 Hitachi Ltd 画像端末装置及びそれを用いる通信システム
JP2002062842A (ja) * 2000-08-11 2002-02-28 Nec Corp 投射映像補正システム及びその方法
JP2003153126A (ja) * 2001-11-13 2003-05-23 Canon Inc プロジェクションディスプレイ装置
JP2006197443A (ja) * 2005-01-17 2006-07-27 Seiko Epson Corp 画像処理システム、プロジェクタ、プログラム、情報記憶媒体および画像処理方法
JP2006251604A (ja) * 2005-03-14 2006-09-21 Seiko Epson Corp テーブル型ディスプレイ
JP2008033234A (ja) * 2006-02-21 2008-02-14 Matsushita Electric Works Ltd 映像表示装置、映像表示装置の映像歪み補正方法
JP2008219190A (ja) * 2007-02-28 2008-09-18 Nippon Hoso Kyokai <Nhk> 画像投射システムおよび画像投射方法
JP2010041452A (ja) * 2008-08-06 2010-02-18 Sharp Corp コンテンツ視聴装置、携帯端末、通話方法、プログラム、記録媒体、及び、コンテンツ視聴システム

Also Published As

Publication number Publication date
EP2842121A1 (en) 2015-03-04
BR112014018565A2 (pt) 2017-06-20
JP6084285B2 (ja) 2017-02-22
EP2842121B1 (en) 2020-05-27
US9565394B2 (en) 2017-02-07
WO2013162515A1 (en) 2013-10-31
US20150244983A1 (en) 2015-08-27
CN104081450B (zh) 2016-09-07
BR112014018565A8 (pt) 2017-07-11
EP2842121A4 (en) 2015-12-09
CN104081450A (zh) 2014-10-01
BR112014018565B1 (pt) 2021-07-27

Similar Documents

Publication Publication Date Title
US10198146B2 (en) Information processing apparatus, information processing method, and recording medium
JP6875081B2 (ja) ディスプレイ装置のパラメータ推定方法及びその方法を用いた装置
US7733404B2 (en) Fast imaging system calibration
JP6121647B2 (ja) 情報処理装置、情報処理方法およびプログラム
WO2018112788A1 (zh) 图像处理方法及设备
CN103914876B (zh) 用于在3d地图上显示视频的方法和设备
US8896688B2 (en) Determining position in a projection capture system
US8369578B2 (en) Method and system for position determination using image deformation
TWI651657B (zh) 擴增實境系統與方法
JP6084285B2 (ja) 画像を表示するシステム
JP2019015553A (ja) 情報処理装置、情報処理方法および個体撮像装置
CN110807413A (zh) 目标显示方法以及相关装置
WO2017112036A2 (en) Detection of shadow regions in image depth data caused by multiple image sensors
KR20090116544A (ko) 적외선 카메라 방식의 공간 터치 감지 장치, 방법 및스크린 장치
TWI330099B (ja)
Tokuda et al. Ubiquitous display for dynamically changing environment
JP6412685B2 (ja) 映像投影装置
JP2016029591A (ja) 情報処理装置、情報処理方法およびプログラム
JPWO2019163128A1 (ja) 仮想物体表示制御装置、仮想物体表示システム、仮想物体表示制御方法、及び仮想物体表示制御プログラム
WO2022230350A1 (ja) 情報処理装置、情報処理方法およびプログラム
Prakash et al. Digitally Transparent Interface Using Eye Tracking
US20090033654A1 (en) System and method for visually representing an object to a user
Mussadiq et al. Confined projection on selected sub-surface using a robust binary-coded pattern for pico-projectors
JP2022042408A (ja) 情報処理装置
CN115473998A (zh) 检测社交距离的摄影装置及系统

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150929

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160106

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160614

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160902

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170124

R150 Certificate of patent or registration of utility model

Ref document number: 6084285

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees