JP2016528603A - プロジェクターユニット及びコンピューターを含むシステム - Google Patents

プロジェクターユニット及びコンピューターを含むシステム Download PDF

Info

Publication number
JP2016528603A
JP2016528603A JP2016523722A JP2016523722A JP2016528603A JP 2016528603 A JP2016528603 A JP 2016528603A JP 2016523722 A JP2016523722 A JP 2016523722A JP 2016523722 A JP2016523722 A JP 2016523722A JP 2016528603 A JP2016528603 A JP 2016528603A
Authority
JP
Japan
Prior art keywords
computer
image
projector unit
touch sensor
base
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016523722A
Other languages
English (en)
Other versions
JP6097884B2 (ja
Inventor
ショート,デイヴィッド・ブラッドリー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hewlett Packard Development Co LP
Original Assignee
Hewlett Packard Development Co LP
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hewlett Packard Development Co LP filed Critical Hewlett Packard Development Co LP
Publication of JP2016528603A publication Critical patent/JP2016528603A/ja
Application granted granted Critical
Publication of JP6097884B2 publication Critical patent/JP6097884B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1601Constructional details related to the housing of computer displays, e.g. of CRT monitors, of flat displays
    • G06F1/1605Multimedia displays, e.g. with integrated or attached speakers, cameras, microphones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1639Details related to the display arrangement, including those related to the mounting of the display in the housing the display being based on projection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1631Panel PC, e.g. single housing hosting PC and display panel
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04103Manufacturing, i.e. details related to manufacturing processes specially suited for touch sensitive devices

Abstract

例示するシステムは、支持部材を含み、さらにベースと、ベースから上方に延びる直立部材と、直立部材から外側に延びる片持ち梁トップとを含む。さらに、このシステムは直立部材に取り付け可能なプロジェクターユニットを含む。さらに、このシステムは、プロジェクターユニットに取り付け可能なオールインワンコンピューターを含む。そしてさらに、このシステムはオールインワンコンピューターにコミュニケーション可能に接続しているタッチセンサーマットを含む。片持ち梁トップは、折り返しミラーと、オールインワンコンピューターにコミュニケーション可能に接続されたカメラとを含み、そしてプロジェクターユニットはイメージを上方のミラーに投影し、タッチセンサーマットに反射させる。

Description

コンピューターシステムは、一般的には、サポートスタンドに搭載されたか、コンピューターシステムのその他のコンポーネントに組み込まれている1つ又は複数のディスプレーを採用している。タッチセンサーテクノロジー(例えばタッチスクリーン)を採用しているディスプレーとしては、システムオペレーションにおいて、このようなタッチテクノロジーを十分に使用するために、ユーザーは、このようなディスプレーに直接接触するのが望ましいことがしばしばある。しかしながら、ディスプレー上のイメージを単に見るためのディスプレーの最適な人間工学的な配置は、そこでタッチによる接触を行うための適切な場所とはしばしばならない。従って、伝統的な視聴アプリケーションと、タッチ接触アプリケーションの両方とを単一のコンピューターシステムにおいて使用することを望むユーザーは、そのようなシステムの配置と使用に際して困難にしばしば直面する。
様々な例を詳しく説明するために、参考例を以下の図の中に示す。
ここに開示された原理に従ったコンピューターシステムの1例の全体概略図である。 ここに開示された原理に従った図1におけるコンピューターシステムの、その他の全体概略図である。 ここに開示された原理に従った図1におけるコンピューターシステムの側面概略図である。 ここに開示された原理に従った図1におけるコンピューターシステムの正面概略図である。 ここに開示された原理に従った図1におけるコンピューターシステムの稼働中の側面概略図である。 ここに開示された原理に従った、図1におけるコンピューターシステムの稼働中の正面概略図である。 ここに開示された原理に従った図1のコンピューターシステムの、ブラックボックス回路の図である。 ここに開示された原理に従ったコンピューターシステム例のペアを使用して作ったバーチャル共同ワークステーションの、全体概略図である。
[表記法と命名法]
特定の用語は、後述する説明及びクレームを通して、特定のシステムコンポーネントに言及するために使用されている。当業者が認識するように、異なるコンピューター会社は、異なる名前であるコンポーネントを呼ぶかもしれない。この文書は、名前が異なるが、機能が同じコンポーネントの間で区別を付けようとするものではない。後述する議論及びクレームにおいて、「含む(including)」及び「備える(comprising)」は、非限定用法であり、また、従って「含む、しかしこれに限られるものではなく…」という意味で解釈されるべきである。また、「連結(couple)」又は「連結する(couples)」という用語は、直接または非直接の結合のいずれかを意味しようとするものである。従って、もし第1のデバイスが第2のデバイスに連結している場合、その接続は直接電気的に又は機械的に接続していてもよいし、その他のデバイスや結合部を介して間接的に電気的又は機械的に接続していてもよいし、光学的電気的な接続でもよいし、無線電気的接続でもよい。ここで用いられる「およそ(approximately)」とはプラスマイナス10%を意味する。さらに、ここで用いられる言葉「ユーザーインプットデバイス(user input device)」という言葉は、ユーザーによって電気的システムに入力を提供するのに適したデバイス、例えばマウス、キーボード、手(又はそのうちいくつかの指)、タッチペン、ポインティングデバイス等を言う。
[詳細な説明]
後述する議論は、開示のための様々な例に向けられたものである。これらの例のうち1以上の例がより好適であるが、開示された例は、請求項に含まれる開示の範囲を限定するために解釈され又は用いられるべきではない。さらに、後述する説明は広いアプリケーションを有し、そして、いくつかの例における議論は、その例を説明するのみであり、請求項を含めた開示の範囲をその例に限定しようとするものではないことを当業者は理解するであろう。
図1〜4を参照すると、ここに開示された原理に従ったコンピューターシステム100を示している。この例では、システム100は一般的に、サポート構造100、コンピューティングデバイス150、プロジェクターユニット180、タッチセンサーマット200を含んでいる。コンピューティングデバイス150は、ここに開示された原理に従って、その他の適したコンピューティングデバイスを含んでいてもよい。例えば、いくつかの実施例では、デバイス150は電子ディスプレー、スマートフォン、オールインワンコンピューター(すなわち、コンピューターのボードに収納されているディスプレー)、又はこれらのうちいくつかの組み合わせを含んでいてもよい。この例では、デバイス150は中心軸又は中心線155、第1側面又はトップサイド150a、軸方向にトップサイド150aと反対側の第2側面又はボトムサイド150b、150aと150bとの間で軸方向に広がるフロントサイド150c、同様に150aと150bの間で軸方向に広がり、通常軸方向にフロントサイド150cの反対側にあるリアサイド、を含むオールインワンコンピューターである。ディスプレー152は視聴面を定義し、ユーザー(図示せず)による視聴と接触のためのイメージを投影するフロントサイド150cに沿って配置されている。いくつかの例においては、ディスプレー152は、例えば、抵抗性、静電容量性(capacitive)、音波、赤外線(IR)、ひずみゲージ、光学性、音波感知、又はこれらのうちのいくつかの組み合わせのようなタッチセンサー技術を含む。従って、以下の説明において、ディスプレー152はタッチセンサー表面又はディスプレーとして参照される。さらに、いくつかの例において、デバイス150はさらに、ユーザーがディスプレー152の前に居るときに、ユーザーのイメージを撮るためのカメラ154を含んでいる。いくつかの実施においては、カメラ154はウェブカメラである。さらに、いくつかの例においては、デバイス150はまた、稼働中にユーザーの音声入力(例えば声)を受けるために配置されたマイクロフォン又は類似のデバイスを含んでいる。
図1〜4を参照すると、サポート構造110は、ベース120、直立部材140、トップ160を含んでいる。ベース120は第1端又はフロントエンド120aと、第2端又はリアエンド120bとを含む。稼働の間、ベース120は、システム100におけるコンポーネント(例えば部材140、ユニット180、デバイス150、トップ160等)の少なくとも一部分の重さを支持するために支持面15と繋がっている。この例においては、ベース120におけるフロントエンド120aは、支持面15の上から少しだけ分離した持ち上がり部分122(raised portion)を含んでおり、これによって部分122と、面15との間にスペース又は隙間を作り出している。以下に詳細を説明するように、システム100の稼働中、マット200の正しい位置合わせのために、マット200の一端は持ち上がり部分122と面15との間に形成されたスペースの中に受け入れられる。しかしながら、ここに開示された原理に従って、その他の例、他の適した位置合わせ方法又はデバイスを使用してもよいことは認識されるべきである。
直立部材140は、第1端又は上端140aと、上端140aの反対側の第2端又は下端140bと、140aと140bの端の間に広がる第1側面又はフロントサイド140cと、フロントサイド140cの反対側で、また140aと140bとの間に広がる第2側面又はリアサイド140dとを含む。部材140の下端140bは、ベース120のリアエンド120bに連結しており、そのような部材140はサポート面15からほぼ上方向に延びている。
トップ160は、第1端又は近傍端160aと、近傍端160aの反対にある第2端又は遠位端160bと、両端160aと160bとの間に広がるトップ面160cと、トップ面160cの反対側にあって同様に160aと160bとの間に広がるボトム面160dとを含んでいる。トップ160における近傍端160aは、遠位端160bがそこから外側に広がるように、直立部材140の上端140aに連結している。結果として、図2で示すように、トップ160は端160aだけで支持されており、従って、ここでは「片持ち梁(cantilevered)」として言及される。いくつかの例においては、ベース120と、部材140と、トップ160とは、すべて一体に形成されているが、その他の例では、ベース120と、部材140と、トップ160とは、ここに開示された原理に従っていれば、一体に形成されていなくてもよいことが認識されるべきである。
図1〜4を参照すると、マット200は中心軸又は中心線205と、第1側面又はフロントサイド200aと、フロントサイド200aの軸方向の反対側の第2側面又はリアサイド200bとを含んでいる。この例では、タッチセンサー面202は、マット200の上に配置されており、また軸205と整列している。面202は、デバイス150又は何か他のコンピューティングデバイス(図示せず)によって実行されたソフトウェアに接することをユーザーに許可するべくユーザーによる1つ又は複数のタッチ入力を検出及び追跡するための何らかの適したタッチセンサー技術で構成されていてもよい。例えば、ここに開示された原理に従っている間は、いくつかの実施においては、面202は既知のタッチセンサーテクノロジー、例えば、抵抗性、静電容量性、音波、赤外線(IR)、ひずみゲージ、光学性、音波感知、又はこれらのうちのいくつかの組み合わせのようなものを使用してもよい。さらに、この例では、面202はマット200の一部の上のみに広がるが、しかしながら、その他の例では、ここに開示された原理に従って、面202はマット200のほぼ全体に渡って広がってもよいと認められるべきである。
稼働中、前述した正しい位置合わせを確実にするため、マット200は構造110のベース120と整列している。特に、この例では、リアエンド200bがベースの前面120aと整列しており、それによってマット200(及び特に面202)が、システム100におけるその他のコンポーネントと正しい全体の位置合わせが確実にできるように、マット200におけるリアサイド200bがベース120における持ち上がり部分122と支持面15との間に配置されている。いくつかの例において、マット200はデバイス150と、デバイス150における中心線155がマット200の中心線205にほぼ整列するように調整されるが、しかしながら、その他の位置合わせも可能である。さらに、下記により詳細に説明するように、少なくともいくつかの例では、マット200の表面202及びデバイス150は、面202で受けたユーザーの入力がデバイス150に通信されるように、互いに電気的に連結されている。ここに開示された原理に従って、デバイス150と面202との間で、例えば、ワイファイ(WI-FI)、ブルートゥース(BLUETOOTH(登録商標))、超音波、電気ケーブル、導線、磁力によって留められる電気的スプリング留め式ポゴピン、またはこれらのいずれかの組み合わせのような、いくつかの適した無線又は有線の電気的連結又は結合が使われてもよい。本例では、稼働している間、デバイス150と面202との間で信号を転送するために、マット200におけるリアサイド200b上に配置された露出した電気的な接点が、ベース120の部分122にある対応する電気的ポゴピン線に繋がっている。さらに、本例では、前述したように、磁力によって、マット200のリアサイド200bに沿って配置された対応する鉄材料あるいは磁性材料とを、磁力によって引き寄せ、そして固定(例えば、機械的に)するために、電気的な接点は、ベース120における部分122と、面15との間に位置する隣り合った磁石(複数)によって互いに固定されている。
図3を特に参照すると、プロジェクターユニット180は、アウターハウジング182と、ハウジング182の中に配置されたプロジェクターアッセンブリー184とを含んでいる。ハウジング182は、第1端又は上端182aと、上端182aの反対側の第2端又は下端182bと、インナーキャビティー183とを含んでいる。本実施例においては、ハウジング182はさらに、稼働している間、デバイス150に繋がり、サポートするために、連結部材又は装着部材186を含んでいる。一般に、部材186は、ここに開示された原理に従っている間は、コンピューターデバイス(例えばデバイス150)を吊るされ及びサポートするための何か適切な部材又はデバイスであってもよい。例えば、いくつかの態様において、部材186は、ユーザー(図示せず)が最上の視認角度を達成できるように、デバイス150を回転軸上で回転できるような回転軸を含むヒンジで構成されていてもよい。さらに、いくつかの例において、デバイス150は永久的に、又は半永久的にユニット180におけるハウジング182に取り付けられている。例えば、いくつかの例において、ハウジング180及びデバイス150は一体にあるいはモノリシックに形成された単一のユニットとして形成されている。
従って、図4を詳細に参照し、デバイス150が構造110からハウジング182上の装着部材186を介して吊るされたとき、デバイス150における前面150c上に配置されたディスプレー152にほぼ対面する視認面又は視認角度からシステム100を見た場合、プロジェクターユニット180(すなわちハウジング182とアッセンブリー184の両方)は、ほぼデバイス150の後ろに隠される。さらに、また図4に示すようにデバイス150が説明した方式で構造110から吊るされているとき、プロジェクターユニット180(すなわちハウジング182及びアッセンブリー184)及びそこに投影された何らかのイメージは、デバイス150における中心線155に対してほぼ整列あるいは中心に合わされている。
プロジェクターアッセンブリー184は一般に、ハウジング182のキャビティー183内に配置され、また、第1端又は上端184aと、上端184bの反対にある第2端又は下端184bとを含んでいる。上端184aは、ハウジング182の上端182aに最も近く、一方、下端184bはハウジング182の下端182bに最も近い。プロジェクターアッセンブリー184は、コンピューティングデバイス(例えばデバイス150)からデータを受け取り、入力されたデータに対応した1つ又は複数のイメージを投影する(例えば、184aの上端から)、何か適切なデジタルライトプロジェクターアッセンブリーでもよい。例えば、いくつかの実施例においては、プロジェクターアッセンブリー184は、デジタルライトプロセッシング(DLP)プロジェクター(digital light processing projector)、又は、エルコス(LCoS:liquid crystal on silicon(登録商標))で構成されている。これはコンパクトで、出力が効果的な投影エンジンであり、例えば、標準XGA(1024×768)の解像度でアスペクト比4:3、又は、WXGA(1280×800)の解像度でアスペクト比16:10といった複数のディスプレー解像度及びサイズを許容する。プロジェクターアッセンブリー184はさらに、稼働中に、端184aからの光とイメージを作るためのデータを受信するためにデバイス150に電気的に連結される。ここに開示された原理に従って、プロジェクターアッセンブリー184は、何らかの適したタイプの電気的連結によってデバイス150に電気的に連結されていてもよい。例えば、いくつかの実施例においてアッセンブリー184は、導電体、ワイファイ、ブルートゥース(登録商標)、光学的接続、超音波接続、またはこれらのうちいずれかの組み合わせを介してデバイス150に電気的に連結している。本例では、デバイス150は、デバイス150は構造110から部材186を介して吊り下げられたような装着部材186内に配置された(前述の)電気的リード又は導電体と、デバイス150上の部材186内に配置した、対応して接触する電気的リード又は導電体を介してアッセンブリー184に連結している。
図3をまた参照すると、トップ160はさらに折り返しミラー162及びセンサー束164を含んでいる。ミラー162は、トップ160における底面160dに沿って配置された高反射面162aを含んでおり、また稼動時において、プロジェクターアッセンブリー184の上端184aから投影されたイメージあるいは光をマット200に向けて反射するように位置している。ここに開示された原理に従って、ミラー162は何らかの適したタイプのミラー又は反射面で構成してもよい。本例においては、折り返しミラー162は、アッセンブリー184から発された光を屈折させてマット200に投下するように作用する標準の前面真空金属化アルミニウムコートガラスミラー(front surface vacuum metalized aluminum coated glass mirror)で構成されている。その他の例においては、ミラー162は、付加的な焦点調整力又は光学補正を提供するために、反射レンズ要素として作用するよう、複雑な非球面カーブを有することもできる。
センサー束164は、稼働中にマット200上又はその近くで生じる様々なパラメーターを測定あるいは検知するために、複数のセンサーあるいはカメラを含んでいる。例えば、図3に描かれた特定の実施例においては、束164は環境光センサー164a、カメラ(例えば、カラーカメラ)164b、深さセンサーカメラ164c、三次元(3D)ユーザーインターフェースセンサー164dを含む。環境光センサー164aは、システム100を囲む環境における光の強さを測定するために、いくつかの実施例においては、カメラあるいはセンサー(例えばセンサー164a、164b、164c、164d)の露出設定を調整するために、あるいはその他の発光源から、例えば、プロジェクターアッセンブリー184、ディスプレー152等のようなシステムを介して発される光の強度を調整するために配置されている。カメラ164bは、いくつかの例においては、マット200上に配置された物体あるいは文書の静止イメージ又はビデオを撮るためのカラーカメラで構成されていてもよい。深さセンサー164cは一般に、ワーク面に3Dの物体があることを示す。特に、深さセンサー164cは、稼働時に、マット200上に置かれた物体の存在、形、輪郭、動作、三次元深さ(又は、物体のより詳細な形状)を感知又は検知するものでもよい。従って、いくつかの実施例においては、センサーの視野範囲(FOV:field-of-view)に配置された3D物体、あるいは各ピクセル(赤外線か、色か、その他かにかかわらず)の深さ量を感知又は検知するために、センサー164cは、何らかの適切なセンサー又はカメラ配置を採用してもよい。例えば、いくつかの実施例においては、センサー164cは均一に流れる赤外線光と一緒の単一の赤外線(IR)カメラセンサー、均一に流れる赤外線光と一緒の2重赤外線カメラセンサー、構造深さセンサー技術、飛行時間(TOF:time-of-flight)深さセンサーテクノロジー、又はこれらのうちいくつかの組み合わせで構成されていてもよい。ユーザーインターフェースセンサー164dは、例えば、手、タッチペン(stylus)、ポイントデバイス、等といったような何らかの適切なデバイス又はユーザー入力デバイス(例えばセンサー)を追跡するためのデバイスを含んでいる。いくつかの実施例においては、センサー164dは、ユーザーによってマット200及びマット200における面202について動かされるユーザーインプットデバイス(例えば、タッチペン)を立体視野的に追跡するために配置された1対のカメラを含んでいる。その他の例では、センサー164dはさらに、又は代替的に、ユーザーインプットデバイスによって発光された、又は反射された赤外線を検出するために配置された赤外線カメラ又はセンサーを含んでいる。さらに、束164は、前述したセンサー164a、164b、164c、164dの代わりに、又は付加的に、その他のセンサーあるいはカメラを含んでいてもよいことも認められるべきである。加えて、以下に詳細を説明するように、稼動時、束164内で発生したデータがデバイス150に送信され、また、デバイス150によって発行された指令がセンサー164a、164b、164c、164dに通信できるように、束164内の各センサー164a、164b、164c、164dは、束164に電気的及び通信的に連結されている。システム100のその他の構成を上述して説明したように、何らかの適切な電気的あるいは通信的な連結(例えば、導電体、ワイファイ、ブルートゥース(登録商標)、光学的接続、超音波接続、またはこれらのうちいずれかの組み合わせ)を、センサー束164とデバイス150とを連結するために用いることができる。本例においては、導電体は、前述したように、束164から、トップ160、直立部材140、プロジェクターユニット180を介して、デバイス150の中へと、装着部材186の中に配置されたリードを通って配設されている。
図5及び図6を参照すると、システム100を稼働している間、光187がプロジェクターアッセンブリー184から発されている、そして、ミラー162でマット200へ反射され、それによってプロジェクターディスプレースペース188にイメージを映す。本例では、スペース188は、長さL188かつ幅W188で定義されるほぼ長方形をしている。いくつかの例においては、長さL188はおよそ16インチであり、一方幅W188はおよそ12インチであってもよい、しかしながら、長さL188及びW188は、ここに開示された原理に従って、その他の値も使うことができることは認識されるべきである。さらに、束164の中のセンサー(例えば、センサー164a、164b、164c、164d)は、少なくともいくつかの例においては、前述したプロジェクターディスプレースペース188と重なる、あるいは一致するセンサースペース168を含んでいる。スペース168は、そこを束164の中のセンサー164が前述した方法でモニターし、あるいは検知するように配置されている領域を定義している。いくつかの例においては、前述したとおり、タッチセンサー面202と、プロジェクターアッセンブリー184と、センサー束164との機能性を有効に統一するために、スペース188及びスペース168は合致するかあるいはマット200の面202に対応している。
図5〜7に参照されるように、いくつかの例においては、デバイス150は、マット200の面202の上にイメージを投影するために、アッセンブリー184を管理する。さらに、デバイス150はまた、イメージをディスプレー152に映してもよい(これは、アッセンブリー184によって面202上に投影されるイメージと同様であっても、同様でなくてもよい)。アッセンブリー184によって投影されるイメージは、デバイス150の中で実行されるソフトウェアによって作られた情報、あるいはイメージであってもよい。ユーザー(図示せず)は、マット200のタッチセンサー面202への物理的な作用によって、面202及びディスプレー152に映されたイメージと相互作用を行うことができる。このような相互作用は、ユーザーの手35による直接的な接触、又は、スタイラス25やその他の適切なユーザーインプットデバイスを介して行うことができる。
図7に最もよく示されるように、ユーザーがマット200の面202と接するとき、前述した何らかの電気的な連結方法及びデバイスを介してデバイス150へと届けられる信号が生み出される。一旦、マット200の中で発生した信号を、デバイス150が受信すると、その信号は、面202上に投影されたイメージ、又はディスプレー152上に表示されたイメージ、あるいはその両方に変更を加えるために、プロジェクターアッセンブリー184あるいはディスプレー152に送り戻される出力シグナルを発生させるように、インターナルコンダクター通路153を介して、非一時的なコンピューターで読み取り可能な記憶媒体260と通信するプロセッサー250に送られる。このプロセスの間、ユーザーはまた、ディスプレー152に表示されたイメージに対してタッチセンサー面に触れることにより、あるいはキーボードやマウスといったようなその他のユーザー入力デバイスを介して相互作用を行っていてもよいこともまた認識されるべきである。
加えて、いくつかの例においては、スタイラス25は、さらに、スタイラス25(スタイラス25が面202と触れているかどうかに関わらず)の跡を追い、デバイス150の中に置かれたレシーバー270とワイヤレス信号50を介して通信するために、トランスミッター27を含んでいる。これらの例では、出力信号が発され、アッセンブリー184あるいはディスプレー152に送られてもいいように、レシーバー270によって受信されたスタイラス25のトランスミッター27からの入力はまた、パス153を通ってプロセッサー250へ送られる。
さらに、いくつかの例においては、束164の中に配置されたセンサー(例えば、センサー164a、164b、164c、164d)は、プロセッサー250及びデバイス260によるさらなる処理のために、デバイス150に送られるシステム入力を発生させてもよい。例えば、いくつかの実施例においては、束164の中のセンサーは、ユーザーの手35又はスタイラス25の位置あるいはその有無を検知し、そして、プロセッサー250に送られる入力信号を発生させる。そして、プロセッサー250は、上述した方法で、ディスプレー152あるいはプロジェクターアッセンブリー184へ送られる、対応する出力信号を発生させる。特に、いくつかの実施例においては、束164は、立体視野的にスタイラス(例えばスタイラス25)を追跡するように配置された、一対のカメラ又はセンサーを含む。さらにその他の実施例では、スタイラス25は、赤外線レトロリフレクティブ(retro-reflective)コーティング(例えばペイント)がされた先端26を有しており、従って、赤外線レトロリフレクター(retro-reflector)としてふるまうことができる。そしてさらに、束164(及び、さらに特別なセンサー164c又は164d)は、スタイラス25の先端26で反射した赤外線を検出する、前述した赤外線カメラ又はセンサー含んでいても良く、従って、稼働している間、面202上を横切って動く先端26の位置を追跡する。
結果として、いくつかの例においては、アッセンブリー184によって面202上に投影されたイメージは、第2の又は代替的なタッチセンサーディスプレーをシステム100に提供する。さらに、上述したとおり、束164の中に配置されたセンサー(例えばセンサー164a、164b、164c、164d)の使用を通じて、面202に表示されたイメージとの相互作用はさらに協調される。
さらに図5〜7を参照すると、いくつかの例の稼働中、さらなる使用及びその操作のために、対象物のイメージが面202上に投影されるように、システム100は2次元(2D)の画像をキャプチャーしたり、物理的対象3Dスキャンを作ることができる。とくに、いくつかの例においては、2Dイメージを向上させ、又は、その3Dスキャンを作るために、束164の中のセンサー(例えば、カメラ164b、深さセンサー164c、その他)は、例えば物体40の位置、距離、及び、いくつかの例においては、色を検出するために物体40を面202の上に置くことができる。センサー(例えばセンサー164b、164c)によって集められた情報は、前述したデバイス260と通信するプロセッサー250へ送られる。その後、プロセッサー350は、面202上に物体40のイメージを投影するように、プロジェクターアッセンブリー184を指揮する。いくつかの例においては、アッセンブリー184に指示、面202上に投影されたイメージを発生させるために、ドキュメント又は写真のようなその他の物体はまた、束164の中のセンサーによってスキャンされてもよいことも認識されるべきである。さらに、いくつかの例においては、一旦、物体が束164内のセンサーによってスキャンされると、イメージの背景を任意選択的に、面202の表面に投影された(又はデバイス150におけるディスプレー152上に示された)イメージからデジタル的に除去することができる。従って、いくつかの例においては、ここで示した方式と一貫して、稼働中に、その物にさらなる操作をするために、素早く簡単に物理的物体のデジタルバージョンを作るため、物理的物体のイメージ(例えば物体40)をキャプチャーし、デジタル化し、面202上に表示することができる。
ここで、図8を参照すると、いくつかの例においては、1人又は複数のユーザーの間で共同作業をするために、分割されたデジタルワークスペースを作るためにシステム100を使うこともできる。特に、図8に示す例においては、第1のユーザー300Aは第1システム100Aを使っており、一方第2のユーザー300Bは、第2のシステム100Bを使っている。いくつかの例においては、ユーザー300A及びシステム100Aは、ユーザー300B及びシステム100Bから離れて位置していてもよい。システム100A、100Bは、システム100Aと100Bとの間で、自由に情報あるいはデータを送れるように、例えば、導電体、ワイファイ、ブゥルートゥース(登録商標)、光学的接続、超音波接続、又はこれらのうちいずれかの組み合わせといった適切な接続を介して互いに通信可能に繋がっている。さらに、システム100Aとシステム100とのそれぞれは、前述した、図1〜7で説明したシステム100とほぼ同じである。従って、所定の参照番号の後のA又はBは、参照付けられている特別なコンポーネント又は物体が、それぞれシステム100A、100Bに属していることを示すのみであって、また、このようなコンポーネント又は物体が前述したシステム100の代替的な説明を意味するものではないことを示している。
ユーザー300Aとユーザー300Bの間の共同作業中、物体は、面202Aあるいは面202Bの上にイメージを作るために、前述した方法によってスキャンされるように、面202A又は面202Bの上に置かれていてもよい。特に、いくつかの例においては、ある本350Aがマット200における面202Aの上に部分的に置かれており、前述した方法によって、面202B上にシステム100Bにおけるプロジェクターユニット180Bによって投影されるデジタルイメージを作るために、束164に収納されたセンサー(例えば)によってスキャンされる。ユーザー300Bは、手(又はその他の物体)によって本350Aの特定の特徴を指すことによって、面202B上の投影された本350Aのイメージを相互作用を行うことができる。束164Bの中のセンサー(例えば164b、164c、164d)は、前述した方法でこの相互作用を検知し、そして、ユーザー300Aがユーザー300Bの手330Bが本350Aに直接作用しているところを観られるように、システムにおける面202A上に投影するべく、手300Bのイメージ又はビデオをキャプチャーする。いくつかの例では、システム100Aのプロジェクターユニット180Aはまた、ユーザー300Aが物理的な本350Aを面202Aから移動し面202A上の投影された本350Aと共に作業を継続できるように、面202Aの上に本350Aのイメージを投影することができる。さらに、ユーザー300Aと300Bとのそれぞれの共同作業のしやすさを向上させるために、上述した共同作業がユーザー300A、300B間で行われているとき、ウェブカメラ154Bは、ユーザー300Aの視認のために、システム100Aの面152A上のユーザー300Bにおけるイメージをキャプチャーする一方、ウェブカメラ154Aは、ユーザー300Bの視認のために、システム100Bの面152B上に表示されたユーザー300Aのイメージをキャプチャーする。
また、ユーザー300A、300B間の共同作業の間、ユーザー300A及び300Bの両方が、共同作業しつつ共有するデジタルコンテンツにそれぞれ視聴及び相互作用できるように、ソフトウェアの実行によって150Aあるいはデバイス150Bのどちらかの上に生み出されたデジタルコンテンツを、プロジェクターユニット180A、180Bそれぞれを介して面202A、202Bの両方の上に表示することができる。特に、例示の中では、グラフィック375(すなわちデジタルコンテンツ)は、ユーザー300A、300Bの両方がグラフィック375をシミュレーション的に視聴できるように、面202A、202Bの両方の上に表示される。その後、ユーザー300A、300Bのうちの一人が(この場合はユーザー300A)、ユーザー300A、300Bの両方によって視聴できるように、面202A、202Bの両方の上に投影されるデジタルマーキング378を作るため、スタイラス325を使用して、物理的にグラフィック375に接触する。マーキング378は、前述の方法でグラフィック375の上に作られてもよい。例えば、マーキング378の作成において、スタイラス25は、束164の中に配置されたセンサー(例えば164d)や、トランスミッター27から受信したワイヤレスシグナル50、あるいはスタイラス25とタッチセンサー面202とチップ26との間の直接の接触により検知することができる。これによって、システム100A、100B、ユーザー300A、300Bは、デジタル共同作業ワークスペースを介して、より効果的に情報を共有できる。
説明した方法で、ここに開示された原理に則ったコンピューターシステム100における例の使用を通じて、コンピューティングデバイスに二面スクリーンの性能を提供するために、付加的なタッチセンサーディスプレーはタッチセンサー面(例えば面202)の上に投影されてもよい。さらに、ここに開示された原理に則ったコンピューターシステム100における例の使用を通じて、物理的な物体(例えば物体40)をスキャンすることができ、それによって、コンピューターデバイスのディスプレー面(例えば、ディスプレー152あるいは面202又は両方)上で視認、あるいは操作のための物理的な物体のデジタルバージョンを作る。さらに、ここに開示された原理に則ったコンピューターシステム100における例の使用を通じて、遠隔に位置したユーザー(例えばユーザー300A,300B)のためのデジタル共有ワークステーションを作ることもでき、そこで、物理的コンテンツをスキャンし、デジタル化し、すべての共同ユーザーの間で共有して、そして、デジタルコンテンツあるいは物理対象物とユーザーとの相互作用を、すべての参加者が見えるようにすることができる。
デバイス150はオールインワンコンピューターとして説明しているが、その他の例においては、デバイス150はさらに、例えば、キーボードやマウスといった、さらなる伝統的なユーザーインプットデバイスの使用を採用してもよいということも認識されるべきである。さらに、束164の中のセンサー164a、164b、164c、164dはそれぞれがシングルセンサー又はカメラを表すと説明してきたが、ここに開示された原理に従って、各センサー164a、164b、164c、164dは、それぞれが複数のセンサー又はカメラを含んでいてもよいことも認められるべきである。さらに、トップ160は、ここでは片持ち梁状のトップとして説明してきたが、その他の例においては、ここに開示された原理に従って、トップ160はまた、1点以上で支持されていてもよく、また、従って片持ち梁状でなくてもよいことも認識されるべきである。
上述の議論は、本発明の開示における、原則の説明、及び、ここに開示する様々な実施例を意味している。一旦、上述の開示が十分になされると、当業者に、膨大な変形例及び変更が明示されたこととなる。これは、後述の請求項は、すべてのこのような変形例及び変更を包含すると解釈されることを意味する。
15 サポート面
100 システム
110 サポート構造
120 ベース
120a フロントエンド
140 直立部材
140a 上端
140c フロントサイド
150 コンピューティングデバイス
150a トップサイド
150b ボトムサイド
150c フロントサイド
152 ディスプレー
154 カメラ
155 中心線
160 トップ
160a 近傍端
160b 遠位端
200 マット
200a フロントサイド
200b リアサイド
202 面
205 軸

Claims (15)

  1. ベースと、該ベースから上方に延びる直立部材と、該直立部材から外側に延びる片持ち梁トップとを含むサポート構造体と、
    前記直立部材に取り付け可能なプロジェクターユニットと、
    前記プロジェクターユニットに取り付け可能なオールインワンコンピューターと、
    前記オールインワンコンピューターにコミュニケーション可能に接続しているタッチセンサーマットと
    を備えたシステムであって、
    前記片持ち梁トップは、折り返しミラーと、前記オールインワンコンピューターにコミュニケーション可能に接続されたカメラとを含み、
    前記プロジェクターユニットは、前記ミラーにより前記タッチセンサーマット上に反射されるイメージを上方に投影するものである、システム。
  2. 前記プロジェクターユニットは、前記直立部材に結合されており、前記オールインワンコンピューターの視認面から見たときに、前記オールインワンコンピューターにほぼ隠されている、請求項1記載のシステム。
  3. 前記投影されたイメージと前記プロジェクターユニットとは、前記オールインワンコンピューターの中央線に対してほぼ中央にある、請求項1記載のシステム。
  4. 他のシステムと遠隔の共同作業中に、前記オールインワンコンピューターは、前記プロジェクターユニットに前記タッチセンサーマット上にイメージを投影させ、前記投影されたイメージは、デジタルコンテンツ及び前記他のシステムから受け取った物理的物体のイメージを含み、前記オールインワンコンピューターは、前記他のコンピューターからのビデオイメージをその上に表示するためのディスプレーを含む、請求項1記載のシステム。
  5. 前記片持ち梁トップは、複数のカメラを含み、その中の少なくとも1つのカメラは深さ探知に使われ、また少なくとも2つのカメラは立体視野的にスタイラス追跡に使われる、請求項1記載のシステム。
  6. 前記オールインワン コンピューターは、スキャンイメージを作るために前記カメラに前記タッチセンサーマット上の物理的な物体をスキャンさせ、前記タッチセンサーマット上に戻すように前記スャンイメージを前記プロジェクターユニットに投影させるものである、請求項1記載のシステム。
  7. さらに前記タッチセンサーマットと前記オールインワンコンピューターとの間は前記ベースを介した電気的接続を含む、請求項1記載のシステム。
  8. ベースと、該ベースから上方に延びる直立部材と、該直立部材から外側に延び、折り返しミラー及びカメラを有する片持ち梁トップとを含むサポート構造体と、
    前記直立部材に取り付け可能で、前記ミラーで前記ベースの前面に反射するべく、イメージを上方に投影するプロジェクターユニットと、
    前記プロジェクターユニットに取り付け可能なオールインワンコンピューターと
    を備えたシステムであって、
    前記オールインワンコンピューターは、前記カメラをベースの前面の面に置かれた物理的対象物をスキャンさせ、それによってスキャンイメージを作り、そして、前記プロジェクターユニットに前記スキャンイメージを前記ベースの前面の面上に戻すように投影させるものである、システム。
  9. 前記ベースを介して前記オールインワンコンピューターにコミュニケーション可能に結合されたタッチセンサーマットをさらに含む請求項8記載のシステム。
  10. 前記投影されたスキャンされたイメージ及び前記プロジェクターユニットは、前記オールインワンコンピューターに対してほぼ中心にある、請求項8記載のシステム。
  11. 他のシステムとの遠隔共同作業中に、前記オールインワンコンピューターは、前記プロジェクターユニットが共同作業イメージを前記ベースの前面の面上に投影するようにし、前記投影された共同作業イメージは、前記他のシステムから受け取ったデジタルコンテンツと、前記他のシステムから受け取った物理的コンテンツのイメージとを含み、前記オールインワンコンピューターは、前記他のシステムからのビデオイメージを表示するためのディスプレーを含むものである、請求項8記載のシステム。
  12. 前記片持ち梁トップは複数のカメラを含み、そのうち少なくとも1つのカメラは深さ方向探知に使われ、そして、そのうち少なくとも2つのカメラは立体視野的にスタイラス追跡に使われるものである、請求項8記載のシステム。
  13. 前記タッチセンサーマットは赤外線(IR)レトロリフレクターを含むスタイラスと一緒に使うことができ、前記片持ち梁トップは前記スタイラスのIRレトロリフレクターにより、前記スタイラスの位置を探知するための赤外線センサーを含むものである、請求項8記載のシステム。
  14. ベースと、該ベースから上方に延びる直立部材と、該直立部材から外側に延びる片持ち梁トップとを含むサポート構造体と、
    前記直立部材に取り付け可能なプロジェクターユニットと、
    前記プロジェクターユニットに取り付け可能なオールインワンコンピューターと、
    前記オールインワンコンピューターにコミュニケーション可能に接続しているタッチセンサーマットと
    を備えたシステムであって、
    前記片持ち梁トップは、折り返しミラーと、前記オールインワンコンピューターにコミュニケーション可能に接続しているカメラとを含み、
    他のシステムとの遠隔共同作業中に、前記オールインワンコンピューターが、前記プロジェクターユニットが共同作業イメージをタッチセンサーマット上に投影するようにし、
    前記投影された共同作業イメージは、前記他のシステムから受け取った物理的コンテンツのイメージと、デジタルコンテンツとを含み、前記オールインワンコンピューターは、前記他のシステムからのビデオイメージを表示するディスプレーを含み、
    前記投影された共同作業イメージ及びプロジェクターユニットは前記オールインワンコンピューターの中心線に関してほぼ中心にあるものである、システム。
  15. 前記オールインワンコンピューターは、スキャンイメージを作るために前記カメラが、タッチセンサーマット上の物理的対象物をスキャンするようにし、そして、前記プロジェクターユニットが前記スキャンイメージを前記タッチセンサーマット上に投影して戻すようにするものである、請求項14に記載のシステム。
JP2016523722A 2013-07-31 2013-07-31 プロジェクターユニット及びコンピューターを含むシステム Expired - Fee Related JP6097884B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2013/052873 WO2015016864A1 (en) 2013-07-31 2013-07-31 System with projector unit and computer

Publications (2)

Publication Number Publication Date
JP2016528603A true JP2016528603A (ja) 2016-09-15
JP6097884B2 JP6097884B2 (ja) 2017-03-15

Family

ID=52432230

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016523722A Expired - Fee Related JP6097884B2 (ja) 2013-07-31 2013-07-31 プロジェクターユニット及びコンピューターを含むシステム

Country Status (7)

Country Link
US (1) US20160077670A1 (ja)
EP (1) EP3028113A4 (ja)
JP (1) JP6097884B2 (ja)
KR (1) KR101832042B1 (ja)
CN (1) CN105359053A (ja)
TW (1) TWI529475B (ja)
WO (1) WO2015016864A1 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SG2013069893A (en) * 2013-09-13 2015-04-29 Jcs Echigo Pte Ltd Material handling system and method
EP3049899A4 (en) 2013-09-24 2017-07-05 Hewlett-Packard Development Company, L.P. Identifying a target touch region of a touch-sensitive surface based on an image
US10156937B2 (en) 2013-09-24 2018-12-18 Hewlett-Packard Development Company, L.P. Determining a segmentation boundary based on images representing an object
EP3056975B1 (en) * 2013-10-08 2020-08-12 Maxell, Ltd. Projection type image display device, manipulation detection device and projection type image display method
US10013068B2 (en) * 2014-10-08 2018-07-03 Canon Kabushiki Kaisha Information processing apparatus including a mirror configured to reflect an image and a projector and an image capturing unit arranged below the mirror
WO2017052521A1 (en) * 2015-09-23 2017-03-30 Hewlett-Packard Development Company, L.P. Image projections
WO2018136029A1 (en) * 2017-01-17 2018-07-26 Hewlett-Packard Development Company, L.P. Input device with touch sensitive surface
CN109117026B (zh) * 2017-06-26 2021-07-13 上海易视计算机科技股份有限公司 投影交互设备
US11320723B2 (en) 2017-09-11 2022-05-03 Hewlett-Packard Development Company, L.P. Scanning of objects
US11132090B2 (en) * 2017-12-04 2021-09-28 Hewlett-Packard Development Company, L.P. Peripheral display devices
KR102184885B1 (ko) 2018-07-02 2020-12-01 이상윤 프로젝터 제어 시스템
US20230113359A1 (en) * 2020-10-23 2023-04-13 Pathway Innovations And Technologies, Inc. Full color spectrum blending and digital color filtering for transparent display screens
US20220360755A1 (en) * 2020-10-23 2022-11-10 Ji Shen Interactive display with integrated camera for capturing audio and visual information
US20230047594A1 (en) * 2021-08-16 2023-02-16 Lenovo (Singapore) Pte. Ltd. Display camera system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001265523A (ja) * 2000-03-21 2001-09-28 Sony Corp 情報入出力システム及び情報入出力方法、並びにプログラム記憶媒体
JP2010238213A (ja) * 2009-03-30 2010-10-21 Plus Vision Corp タブレットpcシステム及び電子筆記シート
WO2012089577A1 (en) * 2010-12-30 2012-07-05 Danmarks Tekniske Universitet Input device with three-dimensional image display
WO2013019255A1 (en) * 2011-07-29 2013-02-07 Hewlett-Packard Development Company, L.P. Projection capture system, programming and method

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020180726A1 (en) * 2000-11-06 2002-12-05 Jianbo Shi Paper-based remote sketching system
JP2003152851A (ja) * 2001-11-14 2003-05-23 Nec Corp 携帯端末装置
US20050078092A1 (en) * 2003-10-08 2005-04-14 Clapper Edward O. Whiteboard desk projection display
JP4612853B2 (ja) * 2005-03-29 2011-01-12 キヤノン株式会社 指示位置認識装置及びそれを有する情報入力装置
US20060237599A1 (en) * 2005-04-22 2006-10-26 John Ternus Flat panel display including a hinge assembly
US20080018591A1 (en) * 2006-07-20 2008-01-24 Arkady Pittel User Interfacing
JP2010197487A (ja) * 2009-02-23 2010-09-09 Seiko Epson Corp 表示装置
US8593512B2 (en) * 2010-02-05 2013-11-26 Creative Technology Ltd Device and method for scanning an object on a working surface
US9152277B1 (en) * 2010-06-30 2015-10-06 Amazon Technologies, Inc. Touchable projection surface system
US20120062518A1 (en) * 2010-09-09 2012-03-15 Light Blue Optics Ltd Touch Sensing Systems
US9595127B2 (en) * 2010-12-22 2017-03-14 Zspace, Inc. Three-dimensional collaboration
CN103347437B (zh) * 2011-02-09 2016-06-08 苹果公司 3d映射环境中的凝视检测
GB201110159D0 (en) 2011-06-16 2011-07-27 Light Blue Optics Ltd Touch sensitive display devices
BR112014002463B1 (pt) * 2011-08-02 2020-12-08 Hewlett-Packard Development Company, L.P sistemas de captura de projeções, sistema de captura de projeções interativo e método de captura de projeções
KR20130055119A (ko) * 2011-11-18 2013-05-28 전자부품연구원 싱글 적외선 카메라 방식의 투영 영상 터치 장치
GB2513498A (en) * 2012-01-20 2014-10-29 Light Blue Optics Ltd Touch sensitive image display devices
EP2832120A4 (en) * 2012-03-28 2015-11-25 Smart Technologies Ulc METHOD FOR ORGANIZING COLLABORATIVE EVENT AND SYSTEM USING SAME
JP6175866B2 (ja) * 2013-04-02 2017-08-09 富士通株式会社 インタラクティブプロジェクタ

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001265523A (ja) * 2000-03-21 2001-09-28 Sony Corp 情報入出力システム及び情報入出力方法、並びにプログラム記憶媒体
JP2010238213A (ja) * 2009-03-30 2010-10-21 Plus Vision Corp タブレットpcシステム及び電子筆記シート
WO2012089577A1 (en) * 2010-12-30 2012-07-05 Danmarks Tekniske Universitet Input device with three-dimensional image display
WO2013019255A1 (en) * 2011-07-29 2013-02-07 Hewlett-Packard Development Company, L.P. Projection capture system, programming and method

Also Published As

Publication number Publication date
KR20150137105A (ko) 2015-12-08
TW201512760A (zh) 2015-04-01
CN105359053A (zh) 2016-02-24
US20160077670A1 (en) 2016-03-17
JP6097884B2 (ja) 2017-03-15
EP3028113A4 (en) 2017-04-05
EP3028113A1 (en) 2016-06-08
KR101832042B1 (ko) 2018-02-23
TWI529475B (zh) 2016-04-11
WO2015016864A1 (en) 2015-02-05

Similar Documents

Publication Publication Date Title
JP6097884B2 (ja) プロジェクターユニット及びコンピューターを含むシステム
TWI547828B (zh) 感測器與投射器之校準技術
US10114512B2 (en) Projection system manager
TWI582676B (zh) 物件指示符顯示技術
EP3338446B1 (en) Image projections
TWI592862B (zh) 利用光學圖案追蹤表面上的手持式裝置
JP2016528647A (ja) プロジェクティブコンピューティングシステム
TWI566169B (zh) 管理顯示單元之方法、電腦可讀媒體及相關系統
EP3175323A1 (en) Model data of an object disposed on a movable surface
US10331275B2 (en) Process image according to mat characteristic
TWI613568B (zh) 物件影像之捕捉及投影技術
WO2016036352A1 (en) Presentation of a digital image of an object

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161216

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170210

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170220

R150 Certificate of patent or registration of utility model

Ref document number: 6097884

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees