JP6370839B2 - 拡張現実設計システム - Google Patents

拡張現実設計システム Download PDF

Info

Publication number
JP6370839B2
JP6370839B2 JP2016125278A JP2016125278A JP6370839B2 JP 6370839 B2 JP6370839 B2 JP 6370839B2 JP 2016125278 A JP2016125278 A JP 2016125278A JP 2016125278 A JP2016125278 A JP 2016125278A JP 6370839 B2 JP6370839 B2 JP 6370839B2
Authority
JP
Japan
Prior art keywords
proxy
virtual
design
user
real
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016125278A
Other languages
English (en)
Other versions
JP2016192226A (ja
Inventor
デイビッド ワイ フリーゼン
デイビッド ワイ フリーゼン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nike Innovate CV USA
Original Assignee
Nike Innovate CV USA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nike Innovate CV USA filed Critical Nike Innovate CV USA
Publication of JP2016192226A publication Critical patent/JP2016192226A/ja
Application granted granted Critical
Publication of JP6370839B2 publication Critical patent/JP6370839B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • AHUMAN NECESSITIES
    • A43FOOTWEAR
    • A43BCHARACTERISTIC FEATURES OF FOOTWEAR; PARTS OF FOOTWEAR
    • A43B3/00Footwear characterised by the shape or the use
    • A43B3/0036Footwear characterised by the shape or the use characterised by a special shape or design
    • A43B3/0078Footwear characterised by the shape or the use characterised by a special shape or design provided with logos, letters, signatures or the like decoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2111/00Details relating to CAD techniques
    • G06F2111/02CAD in a network environment, e.g. collaborative CAD or distributed simulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/16Cloth

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Evolutionary Computation (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Architecture (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、概して、設計(デザイン)システムに関し、詳しくは、物品の設計に使用される拡張現実設計システムに関する。
拡張現実システムは、これまでも提案されている。コバヤシら(米国特許出願公開第2005/0174361号明細書)は、像(イメージ)を加工する方法および装置を教示している。コバヤシは、混成現実システムにおいて使用される位置・配向タッチペンを教示している。このタッチペンは、実物の模型に対する仮想オブジェクトの配向を確定するのに使用される。コバヤシが教示していることは、ユーザがタッチペンを使用して実物の模型に触れることである。そして、このシステムは、実物の対象物の位置および配向を確定し、その結果に応じて、仮想オブジェクトを並べることができる。
独国特許第20203367号明細書は、乗物模型のデザインを3次元に迅速に視覚化するシステムを教示している。この装置は、乗物またはその部品のデータセットを発生させる。他の装置は、メモリ内に保存されるデータセットを利用して仮想現実(バーチャルリアリティ)の模型をつくり出す。制御装置が、拡張現実を利用して、乗物の現実の模型に仮想現実の模型を重ね合わせる。モニタの形態にある投影装置が、この乗物模型を描く。
これらの関連技術においては、拡張現実システムを利用して実時間内に効率よく物品を設計できる装置がない。
一態様においては、本発明は、物品の設計をする方法において、現実世界の環境に存在しているプロキシを表示装置上で見るステップと、物品に仮想デザインを施すために上記プロキシと相互作用デバイスとを接触させるステップと、を含み、上記仮想デザインは、上記プロキシの一部分として見えるように上記表示装置上に表示されることを特徴とする方法を提供する。
他の態様においては、本発明は、物品の設計をする方法において、物品に仮想デザインを施すためにプロキシの一部分と相互作用デバイスとを接触させるステップと、上記プロキシ上へ上記仮想デザインを投影するステップと、を含み、上記仮想デザインは、上記プロキシの一部分として見えるように上記プロキシ上に投影されることを特徴とする方法を提供する。
他の態様においては、本発明は、物品の設計をする方法において、現実世界の環境に存在し、第1の色のついた一部分を有するプロキシを表示装置上で見るステップと、上記プロキシの一部分と相互作用デバイスとを接触させ、これによって、上記一部分の色が、第1の色から、第1の色とは異なる第2の色へ変化するように、上記表示装置上に見られる上記プロキシの見かけの色を修飾するステップと、を含む方法を提供する。
他の態様においては、本発明は、物品の設計をする方法において、現実世界の環境に存在しているプロキシに関連する仮想カラーパレットから色を選択するステップと、上記プロキシの第1の色を有する一部分と相互作用デバイスとを接触させるステップと、上記相互作用デバイスが上記一部分に接触すると瞬時に、プロキシの上記一部分上に第2の色を投影し、これによって、上記一部分の見かけの色を変化させるステップと、を含む方法を提供する。
他の態様においては、本発明は、物品の設計をする方法において、現実世界の環境に存在しているプロキシを表示装置上で見るステップと、上記プロキシと相互作用デバイスとを接触させるステップと、上記プロキシと上記相互作用デバイスとが接触すると瞬時に、上記表示装置上に仮想ラインを表示するステップと、を含み、上記仮想ラインは、上記プロキシの一部分として見えるように上記表示装置上に表示されることを特徴とする方法を提供する。
他の態様においては、本発明は、物品の設計をする方法において、プロキシと相互作用デバイスとを接触させるステップと、上記プロキシと上記相互作用デバイスとが接触すると瞬時に、上記プロキシ上に仮想ラインを投影するステップと、を含み、上記仮想ラインは、上記プロキシの一部分として見えるように上記プロキシ上に投影されることを特徴とする方法を提供する。
他の態様においては、本発明は、現実世界の環境から像を受け取る撮像装置と、現実世界の環境に存在するプロキシと相互作用する相互作用デバイスと、仮想像を発生させることができる計算装置と、上記プロキシ上に重ね合わせられた少なくとも一つの仮想像を見るための表示装置と、上記表示装置上に表示され得る仮想メニューであって、現実世界の環境中のある位置に関連付けられている仮想メニューと、を備え、ユーザは、上記位置に相互作用デバイスを置くことにより上記仮想メニューと相互作用することができ、上記仮想メニューは、上記プロキシに仮想デザイン要素を施すために使用され得ることを特徴とする拡張現実設計システムを提供する。
他の態様においては、本発明は、現実世界の環境から像を受け取る撮像装置と、現実世界の環境に存在するプロキシと相互作用する相互作用デバイスと、仮想像を発生させることができる計算装置と、上記プロキシ上に少なくとも一つの仮想像を投影する投影装置と、現実世界の環境中のある位置に投影され得る仮想メニューと、を備え、ユーザは、上記位置に相互作用デバイスを置くことにより上記仮想メニューと相互作用することができ、上記仮想メニューは、上記プロキシに仮想デザイン要素を施すために使用され得ることを特徴とする拡張現実設計システムを提供する。
本発明の他のシステム、方法、特徴および利点は、以下の詳細な説明と図面から当業者には明らかとなろう。それらの追加のシステム、方法、特徴および利点のすべてが、本発明の範囲を逸脱することなく、以下の詳細な説明およびこの要旨の範囲に含まれ、添付の特許請求の範囲によって保護されることを意図している。
本発明は、添付の図面及び説明を参照することによってさらによく理解されよう。図面の成分は必ずしも実尺に合致するものではなく、本発明の原理を具体的に説明することを主眼としている。各図において、同様の参照符号は、各図を通して対応する部品を表示する。
設計システムの一実施例を示す概略図。 設計システムが使用されているときの一実施例を示す等角投影図。 設計システムに使用される一式のデザインメニューの一実施例を示す等角投影図。 ユーザが選択したお絵かきツールの一実施例を示す等角投影図。 プロキシに仮想ラインを施すのに使用される設計システムの一実施例を示す等角投影図。 プロキシに仮想ラインを施すのに使用される設計システムの一実施例を示す等角投影図。 プロキシに仮想の形状を施すのに使用される設計システムの一実施例を示す等角投影図。 プロキシの見かけの色を修飾するのに使用される設計システムの一実施例を示す等角投影図。 プロキシの一部分の見かけの色を修飾するのに使用される設計システムの一実施例を示す等角投影図。 プロキシの一部分の見かけの色を修飾するのに使用される設計システムの一実施例を示す等角投影図。 プロキシに仮想グラフィックを施すのに使用される設計システムの一実施例を示す等角投影図。 プロキシに仮想グラフィックを施すのに使用される設計システムの一実施例を示す等角投影図。 仮想ストライプの一部分を消去するのに使用される設計システムの一実施例を示す等角投影図。 物品の定型デザインを修飾するのに使用される設計システムの一実施例を示す等角投影図。 物品の定型デザインを修飾するのに使用される設計システムの一実施例を示す等角投影図。 物品の定型デザインを修飾するのに使用される設計システムの一実施例を示す等角投影図。 プロキシとして使用される実物の履物に仮想オブジェクトを施すのに使用される設計システムの一実施例を示す等角投影図。 物品の設計を仕上げるステップの一実施例を示す等角投影図。 プロプライアタに提出される最終設計の一実施例を示す等角投影図。 履物の設計および製造を行うプロセスの一実施例を示す図。 衣料品の設計に使用される設計システムの一実施例を示す等角投影図。 衣料品の設計に使用される設計システムの一実施例を示す等角投影図。 衣料品の設計に使用される設計システムの一実施例を示す等角投影図。 設計システムの他の実施例を概略的に示す図。 物品の設計に使用される設計システムの一実施例を示す等角投影図。 物品の設計に使用される設計システムの一実施例を示す等角投影図。 物品の設計に使用される設計システムの一実施例を示す等角投影図。 物品の設計に使用される設計システムの一実施例を示す等角投影図。 物品の設計に使用される設計システムの一実施例を示す等角投影図。 設計システムの他の実施例を示す等角投影図。 物品の設計に使用される設計システムの一実施例を示す等角投影図。 物品の設計に使用される設計システムの一実施例を示す等角投影図。
図1は、拡張現実設計システム100(単にシステム100とも呼ぶ)の一実施例を示す。この詳細な説明および特許請求の範囲に亘って使用される「拡張現実設計(デザイン)システム」という用語は、現実世界の見え方と、コンピュータが発生させた像とを組み合わせることを利用して、1つまたは複数の物品ないし対象物を設計するのに使用され得る種々のシステムを表す。明確にする目的で、「現実の」と「仮想の」という用語は、この詳細な説明および特許請求の範囲に亘って、様々な種類の像および/またはオブジェクトを識別するために使用される。例えば、現実世界の見え方つまり現実世界の像とは、ユーザの視界に捉えられた現実環境の見え方つまり像のことである。対照的に、仮想像ないし仮想オブジェクトとは、計算装置によって発生された像ないしオブジェクトであって、仮想環境に関連している。さらに、明確にする目的で、この詳細な説明および特許請求の範囲に亘って使用される「仮想デザイン要素」という語句は、設計システムによってつくり出され或いは使用され得る、種々の仮想オブジェクト、仮想像ないし仮想グラフィックの総称である。仮想像ないし仮想オブジェクトと、現実世界の見え方つまり現実世界の像と、が組み合わされて、拡張現実の環境においての見え方つまり像となる。
システム100は、1つまたは複数の構成要素を備え得る。一実施例においては、システム100は、計算装置102を備える。計算装置102としては、デスクトップ型コンピュータやラップトップ型コンピュータなどの種々の型式のコンピュータとすることができる。他の実施例においては、計算装置102は、ディスプレイ、プロセッサ、および1つまたは複数の外部源とデータを送受信可能な装置を有する種々の型式の装置とすることができる。そのような装置の例としては、携帯情報端末(PDA)、携帯電話および他の型式の装置があるが、これらに限定しない。
システム100は、ユーザに向けて拡張現実の像を表示する装置を備え得る。いくつかの実施例においては、システム100は、表示装置104を備え得る。表示装置104は、コンピュータのスクリーンつまりモニタ、ヘッドマウント(頭部装着)ユニット、投影式ディスプレイおよび他の種類のディスプレイなどの種々の型式のディスプレイとすることができるが、これらに限定しない。この実施例においては、表示装置104は、頭部装着ユニットつまりヘッドマウントディスプレイ(HMD)である。特には、この実施例においては、表示装置104は、ゴーグルからなる。ユーザが表示装置104を通して見ると、1つまたは複数の仮想像が、表示装置104を通して見られる現実世界の上に重なって表示され得る。拡張現実システムで使用されるヘッドマウントディスプレイは、周知のものである。例として、米国特許出願公開第2006/02484791号明細書、米国特許第7,397,481号明細書、および米国特許第7,110,909号明細書に開示されており、これらの全体が本願の参照となる。
システム100は、光学的情報を捕捉する装置を備え得る。いくつかの実施例においては、システム100は、撮像装置106を備え得る。撮像装置106は、光学的情報を検出することができる種々の装置とすることができる。いくつかの場合、撮像装置106は、カメラである。いくつかの場合、撮像装置106は、ある種のビデオカメラである。使用され得る様々な型式のビデオカメラの例としては、電荷結合素子(CCD)カメラ、相補性金属酸化膜半導体(CMOS)カメラ、他の型式の能動画素センサカメラ並びに他の型式のビデオカメラがある。
概して、撮像装置106は、システム100の様々な構成要素に対して、種々の位置に配置され得る。いくつかの場合、撮像装置106は、据え置きされている。他の場合、撮像装置106は、システム100の他の構成要素に実装されている。一実施例においては、撮像装置106は、表示装置104の一部分に実装されている。この配置において、撮像装置106が光学的情報を受けるように構成されており、システム100のユーザが見回すと、ユーザは、この光学的情報を視認することができる。換言すると、撮像装置106は、この構成を利用して、ユーザが見ている現実世界の環境とほぼ同じ視界を有し得る。他の実施例においては、撮像装置106は、ユーザの視界とほぼ同じ視界が捕捉され得る別の位置に配置され得る。
システム100は、拡張現実の環境と相互作用する装置を備え得る。いくつかの場合、システム100は、相互作用デバイス108を備える。相互作用デバイス108は、種々の形態をとり得る。いくつかの場合、相互作用デバイス108は、タッチペンである。例えば、相互作用デバイス108は、携帯情報端末(PDA)で使用されるものと同種のタッチペンとすることができ、このタッチペンは、ディスプレイに圧力を加えるのに使用される実質的にモノリシックな構成要素である。この実施例においては、相互作用デバイス108は、ペンの形状とほぼ同じ形状に形成された実質的にモノリシックな構成要素である。しかし、他の場合、相互作用デバイス108は、種々の他の形状、寸法および組成を有し得る。
いくつかの実施例においては、システム100の1つまたは複数の構成要素が、計算装置102と通信する。いくつかの場合、撮像装置106が、計算装置102と通信する。加えて、いくつかの場合、表示装置104が、計算装置102と通信する。撮像装置106および表示装置104は、種々の型式の無線および/または有線の接続を介して計算装置102と通信し得る。いくつかの場合、撮像装置106および表示装置104は、ある種のネットワークを利用して計算装置102と通信することができる。そのようなネットワークの例としては、パーソナルエリアネットワーク(PAN)、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、クライアント−サーバ・ネットワーク、ピアツーピア・ネットワークおよび他の型式のネットワークがあるが、これらに限定しない。いくつかの場合、計算装置102、撮像装置106および/または表示装置104の間の通信を容易にするために、Bluetooth(登録商標)プロトコルを利用する無線のローカルエリアネットワークまたはパーソナルエリアネットワークが使用される。この構成を有することで、撮像装置106から集められた像が計算装置102で受信され、仮想の情報と組み合わせられる。組み合わせられた情報は、表示装置104へ送り返され、ユーザに向けて表示され得る。詳しくは、これにより、システム100が1つまたは複数の仮想オブジェクトないし仮想像を使ってユーザの見え方を拡張させることが可能となる。
この実施例においては、単一の撮像装置を使っているが、他の実施例においては、2つ以上の撮像装置を備え得る。さらには、他の実施例においては、システム100について、他の種類のセンサが使用され得ることが理解されよう。追加の種類のセンサを利用するシステムの例を以下に詳細に説明する。
この実施例においては、計算装置102はスタンドアロンのコンピュータとして示されているが、他の実施例においては、計算装置102はシステム100の他の構成要素と統合されている。例えば、他の実施例においては、計算装置102は、表示装置104と統合されている。詳しくは、表示装置104は、撮像装置106で受けた光学的情報を処理する装置と、表示装置104に表示されるべき仮想像を発生させる装置とを備え得る。さらに他の実施例においては、計算装置102は、システム100の他の構成要素と統合されている。他の例においては、システム100の携帯性を良くするために、計算装置102は、ユーザが着用し或いは持ち運ぶことができる携帯機器とされ得る。さらには、いくつかの実施例においては、計算装置102は、システム100の様々な構成要素の近くに配置されていなくてもよい。例えば、他の実施例においては、撮像装置106および表示装置104は、上述した種類のネットワークを利用して、計算装置102と遠隔通信する。このような構成を有することで、システム100特に撮像装置106および表示装置104の携帯性が向上し得る。
システム100は、プロプライアタ110と通信する装置を備え得る。プロプライアタ110は、仕事関連の、1つまたは複数の工場、複数の事務所、小売業者、および様々な他の機関を含み得る。概して、この詳細な説明および特許請求の範囲に亘って使用される「プロプライアタ」という用語は、販売業者および/または納入業者のことでもある。換言すると、プロプライアタという用語は、履物の部品加工、流通および/または小売販売に関わる作業並びに他の製造者側の作業を含む、製造者側の様々な作業に従事する人のことでもある。この構成を有することで、システム100を利用してつくられた設計がプロプライアタ110に提出され、この設計を使って小売物品を製造する目的で利用される。
計算装置102とプロプライアタ110とは、ネットワーク112を利用して通信することができる。概して、ネットワーク112は、上述したネットワークなどの種々の型式のネットワークとすることができる。いくつかの実施例においては、ネットワーク112は、パケット交換通信システムである。一実施例においては、ネットワーク112は、インターネットである。さらには、いくつかの場合、システム100は、プロプライアタ110が直接操作できるものであることを理解されたい。
図2は、ユーザ200が操作している拡張現実設計システム100の一実施例を示す。概して、ユーザ200は、システム100を操作することができる人である。いくつかの場合、ユーザ200は、ある種のプロのデザイナである。例えば、一実施例においては、ユーザ200は、プロプライアタ110に雇われたデザイナである。しかし、他の場合、ユーザ200は、システム100を利用して設計された商品を購入するつもりの顧客である。さらに他の場合、ユーザ200は、システム100を操作することができる人である。
システム100は、プロキシ210とともに使用され得る。プロキシ210は、ある種の物品の概形の形状に形成され得る。プロキシ210は、履物、手袋、シャツ、パンツ、靴下、スカーフ、帽子、ジャケットおよび他の物品などの種々の物品に関連し得るが、これらの物品に限定しない。物品の他の例としては、皮膚ガード、膝パッド、肘パッド、肩パッドおよび他の型式の防護具があるが、これらの物品に限定しない。これに加え、いくつかの実施例においては、物品は、着用品以外の、ボール、鞄、財布、リュックサックおよび他の物品などの着用品以外の他の型式の物品であるが、これらの物品に限定しない。
この実施例においては、プロキシ210は、履物の形状に構成され得る。一実施例においては、プロキシ210は、靴を形成するのに使用される靴型の形状に形成されている。他の実施例においては、プロキシ210は、履物の形状に形成されている。いくつかの場合、プロキシ210は、ランニングシューズ、クロストレーニング用シューズ、バスケットボールシューズ、サッカーシューズ、フットボールシューズ、ハイヒール、ブーツ、つっかけ、ローカットシューズ、サンダルおよび他の型式の履物などの特定の型式の履物の形状に形成されているが、これらの履物に限定しない。さらに他の実施例においては、プロキシ210は、種々の他の形状に形成されている。
この実施例においては、プロキシ210は、印(マーク)のないブランクとなっている。しかし、他の実施例においては、物品を設計し易くするために、プロキシ210は、様々な履物特徴部とほぼ同じ位置を指し示す種々の印を含み得る。例えば、一実施例においては、プロキシ210は、物品のレースの付く領域のだいたいの位置を指し示す印を含み、いくつかの場合、ある種のレースを示す印を含む。他の例として、プロキシ210は、履物のソールと履物のアッパーとを区分する印を有する。いくつかの場合、さらなる印をつけることで、デザイナは、様々な履物特徴部へデザインを施すことができる。また、そのような印がプロキシ210に物理的に付けられていることもあれば、システム100を利用して仮想的に付けられていることもあることを理解されたい。
システム100は、種々の事務所、工場または他の種類の場所などの様々な設計環境における使用に適合され得る。例えば、この実施例においては、プロキシ210は、作業台220の上に配置されている。しかし、他の場合、プロキシ210は、ある種の台の上に配置されている。
システム100の動作は、撮像装置106において現実世界の視界を受けることを含む。詳しくは、ユーザがプロキシ210を見るとき、撮像装置106は、プロキシ210の像を周囲環境とともに捕捉する。システム100は、プロキシ210の位置と配向を精密に確定することができるヴィジュアル追跡ソフトウェアを備えるように構成され得る。当技術分野において、様々な型式のヴィジュアル追跡ソフトウェアが知られている。そして、この情報は、計算装置102へ送信され得る。この時点で、計算装置102は、仮想オブジェクトないし仮想像と、現実世界の環境に存在する像とを結び付けることができる。詳しくは、計算装置102は、表示装置104に仮想オブジェクトないし仮想像を表示するように構成されていて、ユーザ200は、現実世界の像と仮想像の両方を含む拡張された像を見ることができる。さらには、上述したように、撮像装置106は、相互作用デバイス108の動きを追跡するように使用され得る。この構成を有することで、ユーザ200は、相互作用デバイス108を使って1つまたは複数の仮想像を操作することができる。
実施例を理解し易くする目的で、表示装置104でユーザが見ている像は、多くの図においては概略的に示されている。例えば、この実施例においては、ユーザ200は、表示装置104のスクリーン240で、プロキシ210を含む現実世界の環境を見ている。詳しくは、この実施例においては、スクリーン240は、透明なスクリーンであり、このスクリーンで、ユーザ200は、現実世界の環境を見ている。さらには、以下に詳細に説明するように、仮想像がスクリーン240上に表示され得る。
上述したように、システム100は、ある種の物品の設計をする目的で使用され得る。この実施例においては、システム100は、さまざまな型式の履物を設計するのに使用され得る。例えば、システム100は、履物の設計に使われる、ライン、形状、絵、画像、文字、数字、印および他の種類のグラフィックなどの様々な型式のグラフィックを施すのに使用され得るが、これらのグラフィックに限定しない。システム100は、物品の設計に組み込まれ得る、物品の色、手触り、材料または種々の他の特徴を修飾するように使用され得る。
図3を参照すると、システム100は、プロキシ210にデザインが施される際にユーザ200を支援する装置を備え得る。いくつかの場合、システム100は、1つまたは複数のデザインメニューを提供する。デザインメニューは、表示装置104上に表示された仮想メニューとすることができる。デザインメニューとしては、ツールメニュー、カラーメニュー、グラフィックメニューおよび他の種類のメニューがある。デザインメニューは、ボックス、パレット、リストの形態または他の構成をとり得る。
この実施例においては、システム100は、ツールパレット302を備える。いくつかの場合、ツールパレット302は、表示装置104上に表示される仮想パレットである。さらには、ツールパレット302は、プロキシ210に隣接して見えるように表示され得る。
様々な実施例において、ツールパレット302内で利用可能なツールの型式は、様々である。この場合、ツールパレット302は、プロキシ210の複数の部分あるいはプロキシ210に関連する仮想像の複数の部分を選択するのに使用される選択ツール304を有する。加えて、ツールパレット302は、プロキシ210上に仮想ラインを引くのに使用され得るお絵かきツール306を含み得る。さらに、ツールパレット302は、プロキシ210の複数の部分に文字や語句を施すのに使用される文字ツール308を含み得る。なお、これらのツールは、例示に過ぎず、他の実施例においては、グラフィック編集ソフトウェアに典型的に関連する他の型式のツールが使用され得る。
システム100は、また、グラフィックメニュー320を含み得る。グラフィックメニュー320は、一式の予備設計されたグラフィックを含み得る。例えば、この実施例においては、グラフィックメニュー320は、第1のグラフィック322および第2のグラフィック324を含む。明確にする目的で、2つのグラフィックのみが示されている。しかし、他の実施例においては、他の個数のグラフィックが含まれ得る。
いくつかの実施例においては、システム100は、ユーザが外部源から様々なデザインやグラフィックを取り込むことを可能にする装置を備える。いくつかの実施例においては、ユーザは、計算装置102に様々なメディアデバイスを繋いで、システム100に様々なグラフィックやデザインを取り込めるとよい。いくつかの実施例においては、ユーザが、デジタルカメラ、スキャナまたは種々の他のデバイスから、絵、画像および/または写真をアップロードする。さらには、いくつかの場合、インターネットなどの他の源から、様々な型式のデザインやデザイン要素が集められる。
図4〜図13は、システム100の一実施例の操作を示すことを意図している。図4を参照すると、ユーザ200は、相互作用デバイス108を使って、お絵かきツール306を選択することができる。詳しくは、ユーザ200は、ツールパレット302にタッチペン108を接触させるように、相互作用デバイス108を動かすことができる。この場合、ツールパレット302は、現実世界の環境に存在する対象物のどれとも対応しない仮想パレットである。しかし、システム100は、プロキシ210に隣接する現実世界の位置にツールパレット302を関連付けるとともに、相互作用デバイス108の位置を追跡する。そして、ツールパレット302に関連している現実世界の位置へ相互作用デバイス108を動かすと、システム100は、ツールパレット302と相互作用デバイス108との間の相互作用を認識し得る。詳しくは、この場合、システム100は、ユーザがお絵かきツール306を選択しようとしていることを認識する。この構成を有することで、相互作用デバイス108は今や、プロキシ210上に仮想ラインないし仮想ストロークをつくり出せる筆、ペン、鉛筆などのお絵かきデバイスとして機能し得る。
図5を参照すると、お絵かきツールとして機能する相互作用デバイス108を有することで、ユーザ200は、プロキシ210に様々な仮想デザイン要素を施すことができるようになる。この実施例においては、ユーザ200は、プロキシ210の表面に押しつけながら相互作用デバイス108をドラッグすることによって、仮想ライン502を引くことができる。この場合、撮像デバイス106は、光学的情報を受けて、この光学的情報を計算装置102へ送信する。計算装置102は、この光学的情報を使って、相互作用デバイス108の位置を追跡し、相互作用デバイス108がプロキシ210の表面に接触したことを検出することができる。この実施例においては、相互作用デバイス108がお絵かきツールとして機能しているので、計算装置102は、スクリーン240上に仮想ライン502を発生させ得る。詳しくは、ユーザ200には仮想ライン502がプロキシ210の表面に見えるように、仮想ライン502がスクリーン240の一部分上に表示される。換言すると、ユーザ200の視点からはラインがプロキシ210上に直接引かれて見えるように、システム100は、仮想ライン502とプロキシ210とを組み合わせる。なお、仮想ライン502は、相互作用デバイス108がプロキシ210に接触すると瞬時に表示される。
いくつかの実施例においては、仮想ライン502は、種々の型式のラインとすることができる。いくつかの場合、仮想ライン502は、ほぼ真直ぐな直線的な形状である。他の実施例においては、仮想ライン502は、直線でない形状である。さらには、仮想ライン502は、プロキシ210の表面の等高線に沿った曲線にされ得る。これによって、ユーザ200の視点からは、仮想ライン502が益々プロキシ210の一部に見えるようになる。
いくつかの実施例においては、システム100を利用してつくり出される種々のラインの特性は様々である。例えば、いくつかの場合、仮想メニューを使ってラインの太さが変えられる。他の場合、実線、点線を含むラインの様式は様々である。そのうえ、いくつかの場合、仮想ラインの特性は、プロキシにラインを引く前か後に修飾され得る。グラフィック編集ソフトウェアを使ってラインの特性を修飾する種々の周知の機能が利用され得ることが理解されよう。
図6を参照すると、ユーザ200は、相互作用デバイス108を使ってプロキシ210上にラインを描き続けることができる。この場合、ユーザ200は、プロキシ210の一方の側から他方の側まで単一のラインをひき続けるために、プロキシ210をひっくり返したところである。これに対処するように、システム100は、プロキシ210の位置と配向を追跡し続け、仮想ライン502の配向を修正し、プロキシ210の表面に永久的にラインが引かれているように見せる。
図7を参照すると、システム100は、円、楕円、三角形、正方形、長方形、台形、五角形、六角形、規則多角形、不規則多角形および他の形状などの種々の形状を描くのに使用され得るが、これらの形状に限定しない。この実施例においては、ユーザ200は、相互作用デバイス108を使ってプロキシ210の側面に仮想の星形702を描いている。
システム100は、物品のデザインに様々な色をつける装置を備え得る。いくつかの実施例においては、システム100は、単色または多色のカラーパレットを有するように構成される。カラーパレットを有することで、ユーザは、プロキシの種々の部分につける色を選択することができる。当技術分野で様々な型式のカラーパレットが知られており、例えば、グラフィック編集ソフトウェアで見受けられる種々の型式のカラーパレットがある。
図8を参照すると、システム100は、カラーパレット802を備え得る。いくつかの場合、カラーパレット802は、カラーサークルの型式のカラーパレットである。他の場合、カラーパレット802は、様々な色を有する複数のボックスとして与えられている。ユーザ200がカラーパレット802から色を選択するには、相互作用デバイス108で所望の色の位置を指し示せばよい。この実施例においては、ユーザ200は、カラーパレット802から色804を選択している。この選択がなされると、プロキシ210の色が色804に変わる。詳しくは、システム100は、プロキシ210全体に施される色804を使って、仮想カラー像810を発生させる。プロキシ210が色804で塗られて見えるように、仮想カラー像810は、プロキシ210とほぼ同じ寸法、形状および配向を有する。そのうえで、仮想ライン502および仮想の星形702が、仮想カラー像810上に重ね合わせられる。
ユーザ200がプロキシ210を見る向きを変えるためにプロキシ210を回転させ或いは動かすと、システム100は、仮想カラー像810、仮想の星形702および仮想ライン502の配向および位置を調節し続け、これらのデザイン要素が3次元のプロキシに永久的に施されて見えるようにすることが理解されよう。
今度は図9および図10を参照すると、プロキシ210についての仮想カラーは、また、プロキシ210の局所的な部位に構成され得る。この実施例においては、ユーザ200は、相互作用デバイス108を使ってプロキシ210のつま先部分211を選択する。いくつかの場合、ユーザ200は、つま先部分211を選択するために、選択ツールとして機能する相互作用デバイス108を正しい位置に置く。他の場合、ユーザ200は、仮想メニューから色付けツールを選択してから、プロキシ210の所望の部分を選択することで、色をつける。
いくつかの場合、ユーザ200が相互作用デバイス108を使ってつま先部分211を選択すると、カラーパレット902が現れる。いくつかの場合、仮想境界線910を使って、つま先部分211が目立つようにする。この時点で、図10に見られるように、ユーザ200は、カラーパレット902を使って、つま先部分211に施す色を選択することができる。すると、この色がつま先部分211全体に施される。
この実施例は、ユーザがつま先部分211の色を修飾していることを示しているが、他の場合、ユーザは、プロキシ210の他の部分を修飾することができる。色付けされる他の部分としては、プロキシ210の、中足部、踵部、下位部、上位(アッパー)部、内側部、外側部および種々の他の部分があるが、これらに限定しない。プロキシ210がソール部と上位部を備える実施例においては、ユーザは、ソール部および/または上位部の色を別々に修飾し得る。加えて、プロキシが、レースの位置を示すレースの絵ないし印を含むレースの付く部分を有する実施例においては、ユーザは、レースの付く部分の色を修飾することができる。
今度は図11および図12を参照すると、ユーザ200は、プロキシ210に1つまたは複数の仮想グラフィックを施すことができる。この場合、ユーザ200は、相互作用デバイス108を使って、グラフィックメニュー320から第1のグラフィック322を選択する。そして、ユーザ200は、プロキシ210と相互作用デバイス108とを接触させることで、プロキシ210の表面に第1のグラフィック322を配置させることができる。この時点で、システム100は、第1のグラフィック322がプロキシ210上に物理的に配置されて見えるように、第1のグラフィック322の外見を自動的に調整することができる。さらには、プロキシ210を動かすか回転させると、この動きに応じてシステム100がグラフィック322の配向と位置を調節し得る。この実施例では、プロキシ210に単一のグラフィックが施されているが、他の実施例においては、2つ以上の実施例がプロキシ210に施され得る。
概して、プロキシに施される仮想グラフィックは、予備設計またはカスタム設計されたグラフィックとすることができる。例えば、いくつかの場合、ユーザは、システム100を使ってカスタム設計されたグラフィックをつくり出し、グラフィックメニュー320内にそのグラフィックを保存することができる。これによって、ユーザは、グラフィックを随時呼び出して、プロキシに施すことができる。他の実施例においては、システム100は、一式の予備設計されたグラフィックを提供することができる。
図13を参照すると、ユーザ200は、消しゴムツール1302を使って仮想オブジェクトを部分的に消去することができる。この場合、ユーザ200は、仮想ライン1304が施されているプロキシ210の部分に相互作用デバイス108を接触させることで、仮想ライン1304を部分的に消去することができる。これにより、仮想ライン1304の一部分が消去される。
いくつかの実施例においては、システムl00は、ユーザに1つまたは複数の既存の設計つまり定型デザインを提供する。定型デザインは、プロキシについて現在の設計セッションの前の段階でつくられた種々のデザインを含み得る。定型デザインは、プロプライアタが提供する場合もあれば、先行する設計ステップの際に、ユーザがつくり出す場合もある。
図14〜図16は、定型デザインに関して機能するシステム100の一実施例を使用することを示している。図14を参照すると、ユーザ200は、定型メニュー1402から定型デザインを選択することができる。この場合、定型メニュー1402は、第1の定型デザイン1410と第2の定型デザイン1412を含む。ユーザ200は、相互作用デバイス108を使って第1の定型デザイン1410を選択したところである。第1の定型デザイン1410が選択されると、一式の仮想デザイン要素が自動的に発生し、プロキシ210上に表示される。例えば、この実施例においては、第1の定型デザイン1410は、仮想アッパートリム1420、仮想ストライプ1422および仮想アッパーパネル1424を含む。この構成を有することで、ユーザは、最初から物品の設計をするのではなく、既存の設計を修飾すればよい。
ユーザ200は、プロキシ210についての定型デザインを選択した後、上述したグラフィックツールまたは他の周知のグラフィックツールを使ってデザインを修飾することができる。例えば、図15を参照すると、ユーザ200は、お絵かきツールを使って、仮想アッパーパネル1424の周囲に仮想境界線1502を描き加えることができる。さらに、図16に見られるように、ユーザは、カラーパレット1602を使って仮想アッパーパネル1424の色を修飾することができる。
この構成を用いて、ユーザは、既存のデザインに修飾を加えることで、斬新でユニークなデザイン特性を備えた物品を製造することができる。デザイナは、現在のモデルの履物の後継品を設計するときに、この機能を使うことができる。例えば、毎年のように再設計される物品がある。本明細書で述べた構成を有することで、デザイナは、白紙の状態から設計を始めるのではなく、前年度の最新履物モデルに対応する定型デザインを選択することで、すぐに履物の再設計にとりかかることができる。
システム100は、様々な型式のプロキシに仮想デザインを施す装置を備え得る。いくつかの場合、システム100は、物品の模型ではなく、形成済みの物品を用いて使用されるように構成されている。例えば、システム100が履物を設計するのに利用される状況において、プロキシは、靴型ではなく、特定の種類の靴であってもよい。
図17に示されるシステム100の実施例においては、靴型ではなく、実物の履物がプロキシ1710として使用される。図17を参照すると、プロキシ1710は、アッパー1720およびソール構造体1722を有する。さらに、アッパー1720は、第1のデザイン要素1730と第2のデザイン要素1732を有する。これらのデザイン要素は、プロキシ1710の一部を構成する物理的なデザイン要素である。いくつかの場合、プロキシ1710として実物の履物を使用することは、ユーザが最終的な製品を視覚化することを助ける。
この実施例においては、ユーザ200は、相互作用デバイス108を使ってプロキシ1710に仮想ライン1740を施すことができる。ユーザ200が相互作用デバイス108をプロキシ1710の表面に接触させつつドラッグすると、プロキシ1710より手前にあるスクリーン240上に仮想ライン1740が表示される。これにより、プロキシ1710上にラインがつくり出されたように見える。この構成を有することで、ユーザは、システム100を利用して実物の履物に仮想オブジェクトないし仮想像を適用することによって、既存の履物の設計を修飾することができる。
明確にする目的で、この実施例は、様々なライン、色、グラフィックおよび他の種類の印を物品にデザインすることを示している。しかし、他の実施例においては、拡張現実設計システムを利用して、物品用の追加的な種類の構成要素が設計され得ることを理解されたい。いくつかの場合、拡張現実設計システムを利用して製造される設計ラインは、物品の機能特徴部を表す。
いくつかの実施例においては、設計システムは、ストラップ、ヒールカウンタ、つま革、表底(外ソール)、中底(中ソール)、レース、および物品の他の機能構成要素などの様々な物理的および/または機能的な構成要素を設計するのに使用可能であるが、これらの構成要素に限定しない。例えば、一実施例においては、ユーザは、プロキシの底面にトラクションパターンを描くことによってソールの表底を設計(デザイン)することができる。他の例においては、ユーザは、プロキシの一部分上にストラップを描くことができる。他の例としては、ユーザは、物品の一つまたは複数の部分に関して利用され得る1つまたは複数のインサートを描くことができる。拡張現実設計システムを利用して設計され得るストラップおよびインサートの例としては、Gerberらのカスタマイズ可能なアッパーを有する履物に関する米国特許____号(現時点では米国特許出願第12/o358,234号明細書)があり、この出願全体が本願の参照となる。
いくつかの実施例においては、表底パターン、ストラップ、ヒールカウンタおよび種々の他の機能構成要素を示す設計(デザイン)ラインは、プロプライアタが最終的な物品を設計するために使用される。いくつかの場合、システムは、機能設計ライン(例えば、ヒールカウンタを指し示すライン)と装飾設計ライン(例えば、1つまたは複数のストライプを示すライン)とを判別する装置を備える。いくつかの場合、プロプライアタが様々な型式の設計ラインを容易に判別できるように、機能構成要素に関連するように意図された設計ラインが、追加の情報と一緒に保存される。しかし、他の場合、各設計ラインは、実質的に同じ様式で保存されていて、プロプライアタは、機能設計ラインと装飾用の設計ラインとを判別するためには、事の経緯や他の手掛かりを参考にする必要がある。
図18を参照すると、いくつかの場合、システム100は、設計セッションが終了したことをユーザに知らせる。例えば、この実施例においては、ユーザ200は、プロキシ1810を使っての物品の設計を終えている。詳しくは、ユーザ200は、システム100を利用して、プロキシ1810に仮想デザイン要素1812を施し終えたところである。この時点で、システム100は、設計を終了するべきか否かを決定するように促すとよい。いくつかの場合、ユーザ200に向けてダイアログボックス1850が表示される。この場合、ユーザ200は、相互作用デバイス108を使って物品の設計を終えたことを示す。
設計が終了した履物を製造する目的で、最終設計がプロプライアタに提出され得る。図19に見られるように、いくつかの場合、最終設計がネットワーク112を介してプロプライアタの計算装置1902へ送信される。この時点で、プロプライアタは、最終設計を用いて履物を製造することができる。
図20は、システム100を利用して設計された物品を製造するプロセスの一実施例を示す。この実施例においては、以下のステップのうちのいくつかのステップが、物品の製造および/または販売を行うプロプライアタによって実行され得る。また、いくつかのステップが、システム100の顧客や他のユーザによって実行され得る。これに加え、他の実施例においては、以下のステップのうちの1つまたは複数のステップが選択的であることを理解されたい。
ステップ2002において、ユーザは、拡張現実設計システム100を利用して物品を設計することができる。この様式で物品の設計をする方法およびツールについては、これまでに詳述した。続いて、ステップ2004において、設計がプロプライアタに受け取られ得る。プロプライアタは、履物の部品加工、流通および/または小売販売に関わる作業並びに他の製造者側の作業を含む、製造者側の様々な作業に従事する人のことでもある。続いて、ステップ2006で、ユーザから提出された設計に基づいて、物品が製造され得る。このステップは、種々の周知の製造技術を利用して完成され得る。利用され得る製造技術の一例が、2006年12月18日に出願された米国特許出願第11/612,320号明細書中に開示されており、この出願の全体が本願の参照となる。
上述したように、拡張現実設計システムは、種々の物品を設計するために利用され得る。いくつかの実施例においては、拡張現実設計システムは、衣料品を設計する装置を備えている。一実施例においては、拡張現実設計システムは、シャツやパンツを設計する装置を備えている。
図21〜図23は、様々な衣料品を設計するように構成された拡張現実設計システム100の一実施例を示す。この場合、システム100は、プロキシ2100とともに利用される。プロキシ2100は、全身マネキンの概的形態を有し得る。詳しくは、プロキシ2100としては、Tシャツ、長袖シャツ、ボタン留めシャツ、セータ、ベスト、ジャケットおよび他の種類の物品などの、胴体や腕に着用される様々な物品の設計をするのに使用され得る上位部2102がある。プロキシ2100としては、また、パンツ、ジーンズ、軍服、ショーツ、スカート、水着および他の種々の物品などの、足に着用される様々な物品の設計をするのに使用され得る下位部2104がある。さらには、プロキシ2100は、様々な種類のドレス、スーツ、水着、制服(これらの物品に限定しない)などの、上位部2102と下位部2104の両方に亘る物品の設計をするためにも使用され得ることを理解されたい。
概して、上記の実施例において説明した履物を設計するための様々なグラフィックツールが、シャツおよび/またはパンツなどの種々の他の物品を設計することに応用され得る。図22を参照すると、ユーザ200は、上位部2102に仮想像を施すことによって、シャツの設計をすることができる。この場合、ユーザ200は、相互作用デバイス108を使って仮想ストライプ2110をつくり出すことができる。加えて、図23に見られるように、ユーザ200は、カラーパレット2120を使ってプロキシ2100の下位部2104の色を修飾することによって、一着のパンツの設計をすることができる。
この実施例は、限定することを意図するものではなく、他の実施例においては、システム100は、様々な型式の物品の設計をする目的で他の型式のプロキシとともに使用され得る。他の例としては、システム100は、帽子を設計する目的で、頭の形に形成されたプロキシとともに使用され得る。さらに他の例においては、システム100は、手袋を設計する目的で、手の形に形成されたプロキシとともに使用され得る。そのうえ、上述したように、システムは、着用される物品の設計に使用されることに必ずしも限定されない。他の実施例においては、システム100は、財布、リュックサック、旅行鞄(これらに限定しない)および他の種類の鞄などの様々な種類の鞄を設計する目的で、鞄の形に形成されたプロキシとともに使用され得る。
この実施例においては、プロキシ2100は、何も印がないブランクとなっている。しかし、他の実施例においては、物品の設計をし易くするために、プロキシ2100は、衣料品の様々な特徴部のおよその位置を指し示す様々な型式の印を含み得る。例えば、一実施例においては、プロキシ2100は、該プロキシ2100に関連し得る半袖シャツの境界を示す印を含んでいる。他の実施例においては、プロキシ2100は、該プロキシ2100に関連し得る一着のパンツの境界を示す印を含んでいる。いくつかの場合、追加の印をつけることで、ユーザが衣料品の様々な特徴部にデザインを施すことが可能となり得る。さらに言えば、これらの印は、プロキシ2100上に物理的につけられる場合もあれば、システム100を使って仮想的に適用される場合もあることを理解されたい。
これに加え、いくつかの場合、ユーザは、直接プロキシ2100上へ衣料品を配置する。例えば、シャツを設計するために、ユーザは、プロキシ2100の上位部2102上にシャツを配置する。そして、ユーザは、このシャツに、システム100を用いて様々な仮想デザイン要素を施すことができる。同様に、ユーザは、プロキシ2100の下位部2104上に一着のパンツを配置し、このパンツに様々な仮想デザイン要素を施すことができる。
拡張現実設計システムは、表示装置を使用することなく、プロキシに仮想像を適用する装置を備え得る。いくつかの場合、仮想像が直接プロキシ上に重ね合わせられる。一実施例においては、実時間内に物品の設計をする目的で、仮想像が直接プロキシ上に投影される。
図24は、拡張現実設計システム2400(以後、「システム2400」と呼ぶ)の他の実施例を示す。システム2400は、上述したシステム100と実質的に同じシステムで、構成要素も実質的に同じである。例えば、システム2400は、計算装置2402を備える。計算装置2402は、デスクトップ型コンピュータやラップトップ型コンピュータなどの種々の型式のコンピュータとすることができる。他の実施例においては、計算装置2402は、ディスプレイ、プロセッサ、および1つまたは複数の外部源とデータを送受信可能な装置を有する種々の型式の装置とすることができる。そのような装置の例としては、携帯情報端末(PDA)、携帯電話および他の型式の装置があるが、これらに限定しない。
システム2400は、ある種のプロキシ上に直接に仮想像ないし仮想オブジェクトを重ね合わせる装置を備え得る。いくつかの実施例においては、システム2400は、投影装置2404を備える。投影装置2404は、当技術分野で周知の種々の型式のプロジェクタとすることができる。拡張現実システムで使用され得る投影装置の例は、当技術分野で知られている。一実施例においては、投影装置2404は、デジタルプロジェクタである。
システム2400は、視覚的情報を捕捉する装置を備え得る。いくつかの実施例においては、システム2400は、撮像装置2406を備える。撮像装置2406は、光学的情報を検出できる種々の装置とすることができる。いくつかの場合、撮像装置2406は、カメラである。いくつかの場合、撮像装置2406は、ある種のビデオカメラである。使用され得る様々な型式のビデオカメラの例としては、電荷結合素子(CCD)カメラ、相補性金属酸化膜型半導体(CMOS)カメラ、他の型式の能動画素センサカメラ並びに他の型式のビデオカメラがある。
概して、撮像装置2406は、システム2400の様々な構成要素に対して種々の位置に配置され得る。いくつかの場合、撮像装置2406は、据え置きされている。他の場合、撮像装置2406は、システム2400の他の構成要素に実装されている。一実施例においては、撮像装置2406は、ある態様でユーザに実装されている。例えば、一実施例においては、撮像装置2406は、ユーザが着用する、ある種のヘッドセットに実装されている。しかし、他の場合、撮像装置2406は、ユーザおよび/またはプロキシに対して据え置き位置に配置されている。
システム2400は、拡張現実の環境と相互作用する装置を備え得る。いくつかの場合、システム2400は、相互作用デバイス2408を備える。相互作用デバイス2408は、種々の形態を取り得る。いくつかの場合、相互作用デバイス2408は、タッチペンである。例えば、相互作用デバイス2408は、携帯情報端末(PDA)で使われるのと同様のタッチペンであり、このタッチペンは、ディスプレイに圧力を加えるのに使用される実質的にモノリシックな構成要素である。この実施例においては、相互作用デバイス2408は、ペンの概形を有する実質的にモノリシックな構成要素である。しかし、他の場合、相互作用デバイス2408は、種々の他の形状、寸法および組成を有し得る。
いくつかの実施例においては、システム2400の1つまたは複数の構成要素は、計算装置2402と通信する。いくつかの場合、撮像装置2406が、計算装置2402と通信する。これに加え、いくつかの場合、投影装置2404が計算装置2402と通信する。撮像装置2406と投影装置2404は、種々の型式の無線および/または有線の接続を介して計算装置2402と通信し得る。いくつかの場合、撮像装置2406および投影装置2404は、ある種のネットワークを利用して計算装置2402と通信することができる。そのようなネットワークの例としては、パーソナルエリアネットワーク(PAN)、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、クライアント−サーバ・ネットワーク、ピアツーピア・ネットワークおよび他の型式のネットワークがあるが、これらに限定しない。いくつかの場合、計算装置2402と、撮像デバイス2406および/または投影装置2404と、の間の通信を容易にするために、Bluetooth(登録商標)プロトコルを用いた無線のローカルエリアネットワークまたはパーソナルエリアネットワークが利用される。この構成を有することで、撮像装置2406から集められた像は、計算装置2402で受信され、仮想情報と組み合わせられる。そして、組み合わせられた情報は、投影装置2404に戻され、プロキシ上に投影される。詳しくは、これにより、システム2400は、1つまたは複数の仮想オブジェクトないし仮想像を利用してプロキシの外見を拡張させることが可能となる。
この実施例は、単一の撮像装置を使用しているが、他の実施例においては、2つ以上の撮像装置を使用する。さらには、他の実施例においては、システム2400に他の種類のセンサが使用され得ることが理解されよう。追加的な種類のセンサを使用するシステムの例を以下に詳述する。
明確にする目的で、この実施例においては、システム2400が単一の投影装置を備えるものとして示されている。単一の投影装置を使用しつつプロキシを回転させることで、仮想像がプロキシの一部として見えるように、プロキシの様々な側面に仮想像を発生させることができる。しかし、ユーザが、据え置きされているプロキシの周りを歩き回って複数の側面を見るような場合には、プロキシの複数の側面に仮想像を同時に映すために、2つ以上の投影装置が必要なこともある。従って、他の実施例においては、システム2400は、2つ以上の投影装置を備え得る。
この実施例においては、計算装置2402はスタンドアロンのコンピュータとして示されているが、他の実施例においては、計算装置2402は、システム2400の他の構成要素と統合されている。例えば、他の実施例においては、計算装置2402は、投影装置2404と統合されている。詳しくは、投影装置2404は、撮像装置2406が受信した光学的情報を処理する装置と、プロキシ上へ直接投影されるべき仮想像を発生させる装置とを備え得る。さらに他の実施例においては、計算装置2402は、システム2400の種々の他の構成要素と統合されている。他の実施例においては、システム2400の携帯性を良くするために、計算装置2402は、ユーザが着用し或いは持ち運ぶことができる携帯機器である。さらには、いくつかの実施例においては、計算装置2402は、システム2400の様々な構成要素の近くに配置されなくてもよい。例えば、他の実施例においては、撮像装置2406と投影装置2404は、上述したネットワークを利用して計算装置2402と遠隔通信する。
システム2400は、プロプライアタ2410と通信する装置を備え得る。いくつかの場合、計算装置2402とプロプライアタ2410とはネットワーク2412を利用して通信することができる。概して、ネットワーク2412は、上述したネットワークなどの種々の型式のネットワークとすることができる。
図25〜図29は、システム2400の一実施例における操作を示すことを意図する。図25を参照すると、システム2400は、物品の設計をする目的で、プロキシ2510とともに使用され得る。この場合、プロキシ2510は、靴の形の幾何学構造を有し、履物を設計するのに使用される。しかし、他の実施例においては、システム2400は、種々の物品の設計をする目的で、種々の他の型式のプロキシとともに使用される。システム2400を利用して設計され得る他の物品の例としては、上述した種々の物品並びに他の種類の物品がある。
この実施例においては、プロキシ2510は、作業台2560の上に配置されている。しかし、他の場合、プロキシ2510は、ある種の台の上に配置されている。これに加え、撮像装置2406と投影装置2404は、第1の三脚2450と第2の三脚2452にそれぞれ載せられている。しかし、他の場合、撮像装置2406および/または投影装置2404は、他の様式で設置されている。
図25を参照すると、投影装置2404は、プロキシ2510上に像を投影するように構成され得る。この時点では、ユーザ2500が何の仮想像もつくっていないので、投影装置2404は、プロキシ2510上に像を投影していない。しかし、ユーザ2500がプロキシ2510と相互作用デバイス2408とを接触させているときは、図26に見られるように、システム2400は、仮想ライン2602を発生させるように構成され得る。詳しくは、撮像装置2406が、プロキシ2510の位置および相互作用デバイス2408の位置を追跡するものとして使用される。相互作用デバイス2408とプロキシ2510とが接触すると、システム2400は、自動的に接触点に印をつける。この印は、投影装置2404によって直接プロキシ2510上に投影される。ユーザ2500がプロキシ2510の一部分の端から端まで相互作用デバイス2408をドラッグすると、ほぼ瞬時にラインが発生し、投影装置2404を使ってプロキシ2510上に投影される。この構成を有することで、プロキシ2510上にラインが物理的に引かれていなくても、ユーザ2500にはプロキシ2510が修飾されて見える。換言すると、仮想ライン2602がプロキシ2510の一部として見えるようにプロキシ2510上に投影されている。
今度は図27に示されるように、ユーザ2500は、仮想ライン2602を引き続けるために、プロキシ2510を回転させることもある。プロキシ2510が回転されると、システム2400は、仮想ライン2602の配向を修正して、プロキシ2510上に永久的に引かれたラインとして見えるようにする。このような仮想ライン2602の再配向は、プロキシ2510の位置および配向を追跡し、プロキシ2510の位置および配向の変化に対処して仮想ライン2602が更新される毎に算出し直すことによって、実現され得る。
システム2400は、ユーザが1つまたは複数の設計ツールメニューと相互作用することを可能にする装置を備え得る。いくつかの場合、システム2400は、ユーザが見ることのできるメニューを備える。一実施例においては、システム2400は、投影装置2404を使って画面上に一つまたは複数のメニューを投影する。
図28および図29に示されるように、システム2400は、ツールパレット2802とカラーパレット2804を備え得る。この場合、ツールパレット2802とカラーパレット2804は、仮想パレットである。さらには、ツールパレット2802とカラーパレット2804は、ユーザ2500に見えるように、画面2810上に投影され得る。
概して、システム2400は、床、壁、テーブルおよび他の種類の画面(これらに限定しない)などの種々の型式の画面上に仮想メニューを投影するように構成されている。さらにいくつかの場合、設計システムは、投影されたメニューの像を受けるように特別に設計された画面を有するように構成されていてもよい。さらに他の場合、メニューは、直接プロキシの一部分に投影されてもよい。この実施例においては、画面2810は、作業台2560の壁部分である。
図29に示されるように、ユーザ2500は、カラーパレット2804を使って、プロキシ2510の色を変えることができる。詳しくは、ユーザ2500は、カラーパレット2804の置かれている画面2810上の位置まで相互作用デバイス2408を動かす。システム2400は、相互作用デバイス2408の位置を検出し、相互作用デバイス2408がカラーパレット2804上の色2902に対応する部分を選択していることを確定し得る。
拡張現実設計システムは、据え置きされている表示装置上に現実世界の像と仮想像を重ね合わせて表示する装置を備え得る。例えば、一実施例においては、仮想像と現実世界の像とが組み合わされて、コンピュータのモニタないしスクリーン上に表示される。
図30〜図32は、拡張現実設計システム3000(単にシステム3000とも呼ぶ)の一実施例を示す。システム3000は、1つまたは複数の構成要素を備え得る。一実施例においては、システム3000は、計算装置3002を備える。計算装置3002は、デスクトップ型コンピュータやラップトップ型コンピュータなどの種々の型式のコンピュータとすることができる。他の実施例においては、計算装置3002は、ディスプレイ、プロセッサ、および1つまたは複数の外部源とデータを送受信可能な装置を有する種々の型式の装置とすることができる。そのような装置の例としては、携帯情報端末(PDA)、携帯電話および他の型式の装置があるが、これらに限定しない。
システム3000は、ユーザに拡張現実の像を表示する装置を備え得る。いくつかの実施例においては、システム3000は、表示装置3004を備える。表示装置3004は、コンピュータのスクリーンないしモニタ、ヘッドマウント(頭部装着)ユニット、投影式ディスプレイ、および他の種類のディスプレイなどの種々の型式のディスプレイとすることができるが、これらに限定しない。この実施例においては、表示装置3004は、計算装置3002に関連するコンピュータのモニタである。
システム3000は、視覚的情報を捕捉する装置を含み得る。いくつかの実施例においては、システム3000は、撮像装置3006を備える。撮像装置3006は、光学的情報を検出できる種々の装置とすることができる。いくつかの場合、撮像装置3006は、カメラである。いくつかの場合、撮像装置3006は、ある種のビデオカメラである。使用され得る様々な型式のビデオカメラの例としては、電荷結合素子(CCD)カメラ、相補性金属酸化膜半導体(CMOS)カメラ、他の型式の能動画素センサカメラ並びに他の型式のビデオカメラがある。
概して、撮像装置3006は、システム3000の様々な構成要素に対して種々の位置に配置され得る。いくつかの場合、撮像装置3006は、据え置きされている。他の場合、撮像装置3006は、システム3000の他の構成要素に実装されている。一実施例においては、撮像装置3006は、ある態様でユーザに実装されている。例えば、一実施例においては、ユーザが着用するある種のヘッドセットに実装されている。しかし、他の場合、撮像装置3006は、ユーザおよび/またはプロキシに対して据え置きされている。例えば、この実施例においては、撮像装置3006は、三脚3050(図31参照)に載せられている。さらに他の実施例においては、撮像装置3006は、計算装置3002の一部分に実装されているウェブカメラの型式のカメラである。
システム3000は、拡張現実の環境と相互作用する装置を備え得る。いくつかの場合、システム3000は、相互作用デバイス3008を備える。相互作用デバイス3008は、種々の形態を取り得る。いくつかの場合、相互作用デバイス3008は、タッチペンである。例えば、相互作用デバイス3008は、携帯情報端末(PDA)で使用されるものと同様のタッチペンであり、このタッチペンは、ディスプレイに圧力を加えるのに使用される実質的にモノリシックな構成要素である。この実施例においては、相互作用デバイス3008は、ペンとほぼ同じ形状の実質的にモノリシックな構成要素である。しかし、他の場合、相互作用デバイス3008は、種々の他の形状、寸法および組成を有する。
いくつかの実施例においては、システム3000の1つまたは複数の構成要素は、計算装置3002と通信する。いくつかの場合、撮像装置3006は、計算装置3002と通信する。加えて、いくつかの場合、表示装置3004は、計算装置3002と通信する。撮像装置3006と表示装置3004は、種々の型式の無線および/または有線の接続を介して計算装置3002と通信し得る。いくつかの場合、撮像装置3006と表示装置3004は、ある種のネットワークを利用して計算装置3002と通信する。そのようなネットワークの例としては、パーソナルエリアネットワーク(PAN)、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、クライアント−サーバ・ネットワーク、ピアツーピア・ネットワークおよび他の型式のネットワークがあるが、これらに限定しない。いくつかの場合、計算装置3002と、撮像装置3006および/または表示装置3004との間の通信を容易にするために、Bluetooth(登録商標)プロトコルを利用する無線のローカルエリアネットワークまたはパーソナルエリアネットワークが使用される。この構成を有することで、撮像装置3006から集められた像は、計算装置3002で受信され、仮想の情報と組み合わせられる。そして、組み合わせられた情報は、表示装置3004に戻され、ユーザに向けて表示される。詳しくは、これにより、システム3000が1つまたは複数の仮想オブジェクトないし仮想像を利用してユーザの見え方を拡張させることが可能となる。
この実施例においては、単一の撮像装置を利用しているが、他の実施例においては、2つ以上の撮像装置を備える。さらには、他の実施例においては、種々の他の種類のセンサがシステム3000に使用され得ることが理解されよう。追加の種類のセンサを使用するシステムの一例について、以下に詳述する。
この実施例においては、計算装置3002は、スタンドアロンのコンピュータとして示されているが、他の実施例においては、計算装置3002は、システム3000の他の構成要素と統合されている。例えば、他の実施例においては、計算装置3002は、表示装置3004と統合されている。詳しくは、表示装置3004は、撮像装置3006で受けた光学的情報を処理する装置と、該表示装置3004に表示されるべき仮想像を発生させる装置とを備える。さらに他の実施例においては、計算装置3002は、システム3000の種々の他の構成要素と統合されている。他の例においては、システム3000の携帯性を良くするために、計算装置3002は、ユーザが着用し或いは持ち運ぶことができる携帯機器とされ得る。さらには、いくつかの実施例においては、計算装置3002は、システム3000の様々な構成要素の近くに配置されていなくてもよい。例えば、他の実施例においては、撮像装置3006と表示装置3004は、上述したネットワークを利用して計算装置3002と遠隔通信する。
図31および図32を参照すると、ユーザ3100は、システム3000をプロキシ3110とともに使って、物品の設計をすることができる。システム3000は、前者の実施例に関して説明した設計ツールおよびメニューと実質的に同じ設計ツールおよびメニューを提供し得ることが理解されよう。さらには、この実施例においては、ユーザ3100は、表示装置3004上で現実世界の像と仮想像を見ることができる。ユーザ3100が相互作用デバイス3008を使ってプロキシ3110に様々な仮想デザイン要素を施すと、表示装置3004上に見えているプロキシ3110の外見が修飾され得る。
上述した実施例においては、プロキシおよび相互作用デバイスの動きおよび位置を追跡する目的で、光学的認識ソフトウェアを利用するシステムを備えているが、他の実施例においては、1つまたは複数の構成要素が追加のセンサを有するように構成されている。いくつかの場合、設計システムは、相互作用デバイスとの相互作用を検出するように構成されたセンサないし他のデバイスを有するプロキシを備える。同様に、いくつかの場合、設計システムは、プロキシとの相互作用を検出する1つまたは複数のセンサを有する相互作用デバイスを備える。さらに、いくつかの場合、プロキシ内のセンサおよび/または他の装置を利用して、該プロキシの位置および/または配向を検出する。同様に、相互作用デバイス内のセンサを利用して、該相互作用デバイスの位置および/または配向を検出する。そして、計算装置が、1つまたは複数のセンサから情報を受けて、ユーザが相互作用デバイスで指し示しているプロキシの位置を確定する。センサを使うことにより、設計システムは、プロキシに1つまたは複数の仮想デザイン要素を施す目的で、プロキシと相互作用デバイスとの相対的な位置および配向を精密に算出することができる。
本発明の様々な実施例について説明したが、この説明は例示するためのものであって、限定するためのものではない。本発明の範囲を逸脱することなく、さらに多くの実施例や適用例があり得ることが当業者に明らかであろう。従って、本発明は、添付の特許請求の範囲およびこれの均等物に照らすこと以外によっては制限されない。添付の特許請求の範囲内において、様々な変更や変形がなされ得る。

Claims (20)

  1. 衣料品の設計をする方法であって、前記方法は、
    表示装置上のプロキシを見るステップであって、前記プロキシは現実世界の環境に存在し、前記プロキシは、相互作用デバイス前記プロキシの複数の部分との間の相互作用を検出するように構成された検出するデバイスを含み、前記プロキシはマネキンの形を有する、プロキシを見るステップと、
    前記衣料品用の仮想デザインに関連付けられた印を作るために、前記プロキシ上の表面に沿って前記現実世界の環境の前記プロキシを前記相互作用デバイスと接触させるステップであって、ここで接触させる前記ステップは、前記検出するデバイスによって検出されている、接触させるステップと、
    前記プロキシが回転している間、前記相互作用デバイスと前記プロキシとの間の接触を維持しながら、接触させる前記ステップの間に前記プロキシを前記現実世界の環境で物理的に回転させるステップと、
    前記プロキシを物理的に回転させる前記ステップの間の前記プロキシの前記表面に沿って、前記相互作用デバイスと前記プロキシとを接触させる前記ステップに対応する前記仮想デザインの仮想ラインを、前記表示装置上で、物理的に回転させる前記ステップの間に見るステップと、を含み、
    ここで、前記仮想デザインは、前記表示装置上に表示され、それによって前記プロキシの一部分として見え、
    ここで、前記仮想デザインの配向および位置は、前記表示装置上に表示され、それによって前記プロキシが前記現実世界の環境で回転されたように、前記プロキシの一部分として見える、方法。
  2. 前記マネキンが、胴体および腕に対応する上位部を含み、ここで仮想ラインを見る前記ステップは、前記上位部上の前記仮想ラインを見るステップを含む、
    請求項1に記載の方法。
  3. 仮想ラインを見る前記ステップの前の段階で前記上位部上にシャツを配置するステップをさらに含む、請求項2に記載の方法。
  4. 前記衣料品がシャツである、請求項2に記載の方法。
  5. 前記マネキンが、ウエストおよび脚に対応する下位部を含み、ここで仮想ラインを見る前記ステップは、前記下位部の前記仮想ラインを見るステップを含む、
    請求項1に記載の方法。
  6. 前記衣料品は、ズボンである、請求項5に記載の方法。
  7. 仮想ラインを見る前記ステップの前の段階で、前記下位部上にズボンを配置するステップをさらに含む、請求項5に記載の方法。
  8. 前記マネキンが、胴体および腕に対応する上位部と、ウエストおよび脚に対応する下位
    部とを含み、仮想ラインを見る前記ステップは、前記上位部および前記下位部の両方の上の前記仮想ラインを見るステップを含む、請求項1に記載の方法。
  9. 前記衣料品が、前記上位部および前記下位部の両方に広がる、請求項8に記載の方法。
  10. 衣料品の設計をする方法であって、前記方法は、
    表示装置上でプロキシを見るステップであって、前記プロキシは、現実世界の環境に存在し、前記プロキシは、前記プロキシの複数の部分と相互作用デバイスとの間の相互作用を検出するように構成された複数のセンサを含み、前記プロキシは上位部および下位部を有する全身マネキンの形を有する、見るステップと、
    前記衣料品用の仮想デザイン要素を作成するために、前記プロキシの表面に沿って前記現実世界の環境の前記プロキシと前記相互作用デバイスとを接触させるステップであって、接触させる前記ステップは、前記プロキシに配置された前記複数のセンサのうちの1つのセンサによって検出されている、接触させるステップと、
    前記プロキシが回転している間の前記相互作用デバイスと前記プロキシとの間の接触を維持しながら、接触させる前記ステップの間に前記現実世界の環境の前記プロキシを物理的に回転させるステップと、
    前記プロキシを物理的に回転させる前記ステップの間の前記プロキシの前記表面に沿って、相互作用デバイスと前記プロキシとを接触させる前記ステップに対応する前記仮想デザイン要素の仮想像を、前記表示装置上で、物理的に回転させる前記ステップの間に見るステップと、を含み、
    ここで、前記仮想デザインは、前記表示装置上で表示され、それによって、前記プロキシの一部分として見え、前記仮想デザインは、前記プロキシの前記上位部および前記下位部の両方に広がり、
    ここで、前記仮想デザインの配向および位置は、前記表示装置上に表示され、それによって前記プロキシが前記現実世界の環境で回転されたように、前記プロキシの一部分として見える、方法。
  11. 前記仮想デザイン要素を、前記プロキシ上に配置された境界線の印に適用するステップをさらに含む、請求項10に記載の方法。
  12. 前記境界線の印を前記プロキシにコンピュータ上で適用するステップをさらに含む、請求項11に記載の方法。
  13. 前記プロキシ上に直接衣料品を配置するステップをさらに含み、
    ここで、前記衣料品は前記境界線の印を設置する、請求項11に記載の方法。
  14. 前記プロキシは、前記境界線の印を含む、請求項11に記載の方法。
  15. 衣料品を設計するための拡張現実設計システムであって、前記拡張現実設計システムは、
    現実世界の環境から像を受け取る撮像装置と、
    前記現実世界の環境に存在するプロキシであって、前記プロキシは、マネキンであって、前記プロキシは検出するデバイスを含む、プロキシと、
    前記現実世界の環境の前記プロキシと相互作用する相互作用デバイスであって、前記プロキシの前記検出するデバイスは、前記プロキシの複数の部分と前記相互作用デバイスとの間の相互作用を検出することができる、相互作用デバイスと、
    仮想像を発生させることができる計算装置であって、前記仮想像の少なくとも1つは、前記プロキシの前記検出するデバイスによる少なくとも1つの接触点の検出に基づく、計算装置と、
    表示装置であって、前記少なくとも1つの仮想像が、前記撮像装置によって受け取られた前記プロキシの像の上に重ね合わせられる、表示装置と、
    前記表示装置上に表示される仮想メニューであって、前記仮想メニューは、前記現実世界の位置に関連付けられ、ユーザは、前記位置に前記相互作用デバイスを配置することによって前記仮想メニューと相互作用できる、仮想メニューと、を含み、
    ここで、前記仮想メニューは、仮想デザイン要素の仮想像を発生して当該仮想像をプロキシの画像と重ね合わせることにより、前記現実世界の前記プロキシと前記相互作用デバイスとの接触点と対応する前記プロキシの位置で、前記プロキシに仮想デザイン要素を施すために使用されることができ、
    ここで、前記検出するデバイスは、前記相互作用デバイスの、前記現実世界の環境の前記プロキシの表面との前記接触点に対応する前記プロキシの前記位置を検出し、
    前記プロキシが回転している間、仮想デザインの配向および位置は、前記表示装置上に表示され、それによって前記プロキシが前記現実世界の環境で回転されたように、前記プロキシの一部分として見える、拡張現実設計システム。
  16. 前記検出するデバイスが、複数のセンサである、請求項15に記載の拡張現実設計システム。
  17. 前記検出するデバイスが、光学的認識システムである、請求項15に記載の拡張現実設計システム。
  18. 前記マネキンが、胴体および腕の形の上位部と、ウエストおよび脚の形の下位部と、を含む、請求項15に記載の拡張現実設計システム。
  19. 前記仮想デザイン要素が、前記上位部から前記下位部まで広がる、請求項18に記載の拡張現実設計システム。
  20. 前記プロキシが、境界線の印を含む、請求項15に記載の拡張現実設計システム。
JP2016125278A 2010-02-22 2016-06-24 拡張現実設計システム Active JP6370839B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/709,636 2010-02-22
US12/709,636 US8947455B2 (en) 2010-02-22 2010-02-22 Augmented reality design system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015075468A Division JP5961299B2 (ja) 2010-02-22 2015-04-01 拡張現実設計システム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018131582A Division JP6843802B2 (ja) 2010-02-22 2018-07-11 拡張現実設計システム

Publications (2)

Publication Number Publication Date
JP2016192226A JP2016192226A (ja) 2016-11-10
JP6370839B2 true JP6370839B2 (ja) 2018-08-08

Family

ID=43985513

Family Applications (5)

Application Number Title Priority Date Filing Date
JP2012554019A Active JP5972794B2 (ja) 2010-02-22 2011-02-17 拡張現実設計システム
JP2015075468A Active JP5961299B2 (ja) 2010-02-22 2015-04-01 拡張現実設計システム
JP2016125279A Active JP6370840B2 (ja) 2010-02-22 2016-06-24 拡張現実設計システム
JP2016125278A Active JP6370839B2 (ja) 2010-02-22 2016-06-24 拡張現実設計システム
JP2018131582A Active JP6843802B2 (ja) 2010-02-22 2018-07-11 拡張現実設計システム

Family Applications Before (3)

Application Number Title Priority Date Filing Date
JP2012554019A Active JP5972794B2 (ja) 2010-02-22 2011-02-17 拡張現実設計システム
JP2015075468A Active JP5961299B2 (ja) 2010-02-22 2015-04-01 拡張現実設計システム
JP2016125279A Active JP6370840B2 (ja) 2010-02-22 2016-06-24 拡張現実設計システム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2018131582A Active JP6843802B2 (ja) 2010-02-22 2018-07-11 拡張現実設計システム

Country Status (5)

Country Link
US (4) US8947455B2 (ja)
EP (1) EP2539838A1 (ja)
JP (5) JP5972794B2 (ja)
CN (1) CN103038771B (ja)
WO (1) WO2011103272A2 (ja)

Families Citing this family (150)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150154799A1 (en) * 2013-11-29 2015-06-04 At&T Intellectual Property I, L.P. Replacing A Physical Object Perception With A Modified Perception
US8427424B2 (en) 2008-09-30 2013-04-23 Microsoft Corporation Using physical objects in conjunction with an interactive surface
US20100306825A1 (en) 2009-05-27 2010-12-02 Lucid Ventures, Inc. System and method for facilitating user interaction with a simulated object associated with a physical location
US8947455B2 (en) 2010-02-22 2015-02-03 Nike, Inc. Augmented reality design system
US8730309B2 (en) 2010-02-23 2014-05-20 Microsoft Corporation Projectors and depth cameras for deviceless augmented reality and interaction
US20120102439A1 (en) * 2010-10-22 2012-04-26 April Slayden Mitchell System and method of modifying the display content based on sensor input
CN103314344B (zh) * 2010-12-10 2015-11-25 索尼爱立信移动通讯有限公司 触敏触觉显示器
US9329469B2 (en) 2011-02-17 2016-05-03 Microsoft Technology Licensing, Llc Providing an interactive experience using a 3D depth camera and a 3D projector
US9480907B2 (en) 2011-03-02 2016-11-01 Microsoft Technology Licensing, Llc Immersive display with peripheral illusions
US8810598B2 (en) 2011-04-08 2014-08-19 Nant Holdings Ip, Llc Interference based augmented reality hosting platforms
US9597587B2 (en) 2011-06-08 2017-03-21 Microsoft Technology Licensing, Llc Locational node device
US9996972B1 (en) 2011-06-10 2018-06-12 Amazon Technologies, Inc. User/object interactions in an augmented reality environment
US10008037B1 (en) * 2011-06-10 2018-06-26 Amazon Technologies, Inc. User/object interactions in an augmented reality environment
US9921641B1 (en) 2011-06-10 2018-03-20 Amazon Technologies, Inc. User/object interactions in an augmented reality environment
FR2976681B1 (fr) * 2011-06-17 2013-07-12 Inst Nat Rech Inf Automat Systeme de colocalisation d'un ecran tactile et d'un objet virtuel et dispostif pour la manipulation d'objets virtuels mettant en oeuvre un tel systeme
US20120326948A1 (en) * 2011-06-22 2012-12-27 Microsoft Corporation Environmental-light filter for see-through head-mounted display device
US9727132B2 (en) * 2011-07-01 2017-08-08 Microsoft Technology Licensing, Llc Multi-visor: managing applications in augmented reality environments
AU2011205223C1 (en) 2011-08-09 2013-03-28 Microsoft Technology Licensing, Llc Physical interaction with virtual objects for DRM
US10019962B2 (en) 2011-08-17 2018-07-10 Microsoft Technology Licensing, Llc Context adaptive user interface for augmented reality display
US9153195B2 (en) 2011-08-17 2015-10-06 Microsoft Technology Licensing, Llc Providing contextual personal information by a mixed reality device
WO2013028908A1 (en) * 2011-08-24 2013-02-28 Microsoft Corporation Touch and social cues as inputs into a computer
US9690100B1 (en) * 2011-09-22 2017-06-27 Sprint Communications Company L.P. Wireless communication system with a liquid crystal display embedded in an optical lens
US20150199081A1 (en) * 2011-11-08 2015-07-16 Google Inc. Re-centering a user interface
US20130155107A1 (en) * 2011-12-16 2013-06-20 Identive Group, Inc. Systems and Methods for Providing an Augmented Reality Experience
JP6044079B2 (ja) * 2012-02-06 2016-12-14 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US10067568B2 (en) * 2012-02-28 2018-09-04 Qualcomm Incorporated Augmented reality writing system and method thereof
US20130293580A1 (en) * 2012-05-01 2013-11-07 Zambala Lllp System and method for selecting targets in an augmented reality environment
EP2866204B1 (en) * 2012-06-21 2018-09-19 LG Electronics Inc. Apparatus and method for digital image processing
US9530232B2 (en) * 2012-09-04 2016-12-27 Qualcomm Incorporated Augmented reality surface segmentation
JP2014071499A (ja) 2012-09-27 2014-04-21 Kyocera Corp 表示装置および制御方法
JP6036209B2 (ja) * 2012-11-19 2016-11-30 セイコーエプソン株式会社 虚像表示装置
US9317972B2 (en) 2012-12-18 2016-04-19 Qualcomm Incorporated User interface for augmented reality enabled devices
US20140218291A1 (en) * 2013-02-07 2014-08-07 Microsoft Corporation Aligning virtual camera with real camera
US9928634B2 (en) * 2013-03-01 2018-03-27 Microsoft Technology Licensing, Llc Object creation using body gestures
US10109075B2 (en) * 2013-03-15 2018-10-23 Elwha Llc Temporal element restoration in augmented reality systems
JP6138566B2 (ja) * 2013-04-24 2017-05-31 川崎重工業株式会社 部品取付作業支援システムおよび部品取付方法
WO2014192418A1 (ja) * 2013-05-27 2014-12-04 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
US10137361B2 (en) * 2013-06-07 2018-11-27 Sony Interactive Entertainment America Llc Systems and methods for using reduced hops to generate an augmented virtual reality scene within a head mounted system
US10188309B2 (en) 2013-11-27 2019-01-29 North Inc. Systems, articles, and methods for electromyography sensors
US11921471B2 (en) 2013-08-16 2024-03-05 Meta Platforms Technologies, Llc Systems, articles, and methods for wearable devices having secondary power sources in links of a band for providing secondary power in addition to a primary power source
US20150124566A1 (en) 2013-10-04 2015-05-07 Thalmic Labs Inc. Systems, articles and methods for wearable electronic devices employing contact sensors
US9582516B2 (en) 2013-10-17 2017-02-28 Nant Holdings Ip, Llc Wide area augmented reality location-based services
US10372204B2 (en) * 2013-10-30 2019-08-06 Technology Against Als Communication and control system and method
US10186087B2 (en) * 2013-12-06 2019-01-22 Hewlett-Packard Development Company, L. P. Occluding augmented reality objects
WO2015093129A1 (ja) * 2013-12-17 2015-06-25 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
EP2937058B1 (de) * 2014-04-24 2020-10-07 Christof Ellerbrock Kopfgetragene plattform zur integration von virtualität in die realität
WO2015167515A1 (en) * 2014-04-30 2015-11-05 Longsand Limited Augmented reality without a physical trigger
EP4332759A1 (en) * 2014-06-23 2024-03-06 Nike Innovate C.V. Footwear designing tool
US10509865B2 (en) * 2014-09-18 2019-12-17 Google Llc Dress form for three-dimensional drawing inside virtual reality environment
DE102014115363A1 (de) * 2014-10-22 2016-04-28 Bitsea Gmbh Virtuelles Zeichen in realer Umgebung
US10262426B2 (en) 2014-10-31 2019-04-16 Fyusion, Inc. System and method for infinite smoothing of image sequences
US10275935B2 (en) 2014-10-31 2019-04-30 Fyusion, Inc. System and method for infinite synthetic image generation from multi-directional structured image array
JP2016099638A (ja) * 2014-11-18 2016-05-30 セイコーエプソン株式会社 画像処理装置、画像処理装置の制御方法、および、コンピュータープログラム
WO2016079960A1 (en) 2014-11-18 2016-05-26 Seiko Epson Corporation Image processing apparatus, control method for image processing apparatus, and computer program
JP6609988B2 (ja) * 2015-05-18 2019-11-27 セイコーエプソン株式会社 画像処理装置、画像処理装置の制御方法、および、コンピュータープログラム
US10146331B2 (en) * 2014-11-28 2018-12-04 Ricoh Company, Ltd. Information processing system for transforming coordinates of a position designated by a pointer in a virtual image to world coordinates, information processing apparatus, and method of transforming coordinates
US20160166011A1 (en) * 2014-12-10 2016-06-16 Nike, Inc. Portable Manufacturing System For Articles of Footwear
US9407865B1 (en) * 2015-01-21 2016-08-02 Microsoft Technology Licensing, Llc Shared scene mesh data synchronization
USD763274S1 (en) * 2015-02-11 2016-08-09 Nike, Inc. Display screen with transitional graphical user interface
USD765697S1 (en) * 2015-02-11 2016-09-06 Nike, Inc. Display screen with animated graphical user interface
USD768676S1 (en) * 2015-02-11 2016-10-11 Nike, Inc. Display screen with animated graphical user interface
USD765696S1 (en) * 2015-02-11 2016-09-06 Nike, Inc. Display screen with graphical user interface
USD768677S1 (en) * 2015-02-11 2016-10-11 Nike, Inc. Display screen with graphical user interface
US20170061700A1 (en) * 2015-02-13 2017-03-02 Julian Michael Urbach Intercommunication between a head mounted display and a real world object
CN107408003A (zh) * 2015-02-27 2017-11-28 索尼公司 信息处理设备、信息处理方法和程序
CN104766354B (zh) * 2015-03-19 2018-05-04 深圳市创梦天地科技有限公司 一种增强现实绘图的方法及移动终端
CN104783398A (zh) * 2015-05-12 2015-07-22 刘士涛 一种自助设计鞋的方法
US10280538B2 (en) 2015-05-26 2019-05-07 Nike, Inc. Braiding machine and method of forming an article incorporating a moving object
US10238176B2 (en) 2015-05-26 2019-03-26 Nike, Inc. Braiding machine and method of forming a braided article using such braiding machine
US10025099B2 (en) 2015-06-10 2018-07-17 Microsoft Technology Licensing, Llc Adjusted location hologram display
CN104898954B (zh) * 2015-06-23 2018-06-15 杭州汉典科技有限公司 一种基于增强现实技术的互动阅览方法
US9652897B2 (en) 2015-06-25 2017-05-16 Microsoft Technology Licensing, Llc Color fill in an augmented reality environment
US10222932B2 (en) * 2015-07-15 2019-03-05 Fyusion, Inc. Virtual reality environment based manipulation of multilayered multi-view interactive digital media representations
US10147211B2 (en) 2015-07-15 2018-12-04 Fyusion, Inc. Artificially rendering images using viewpoint interpolation and extrapolation
US11095869B2 (en) 2015-09-22 2021-08-17 Fyusion, Inc. System and method for generating combined embedded multi-view interactive digital media representations
US10852902B2 (en) 2015-07-15 2020-12-01 Fyusion, Inc. Automatic tagging of objects on a multi-view interactive digital media representation of a dynamic entity
US11006095B2 (en) 2015-07-15 2021-05-11 Fyusion, Inc. Drone based capture of a multi-view interactive digital media
US10242474B2 (en) 2015-07-15 2019-03-26 Fyusion, Inc. Artificially rendering images using viewpoint interpolation and extrapolation
US10705595B2 (en) * 2015-08-06 2020-07-07 Pcms Holdings, Inc. Methods and systems for providing haptic feedback for virtual 3D objects
US10043311B2 (en) * 2015-09-16 2018-08-07 The Boeing Company Immersive design management system
US11783864B2 (en) 2015-09-22 2023-10-10 Fyusion, Inc. Integration of audio into a multi-view interactive digital media representation
US10494094B2 (en) * 2015-12-08 2019-12-03 Mark Bradford FOLEY Handheld aircraft with adjustable components
US10176636B1 (en) * 2015-12-11 2019-01-08 A9.Com, Inc. Augmented reality fashion
EP3182328A1 (en) * 2015-12-17 2017-06-21 Nokia Technologies Oy A method, apparatus or computer program for controlling image processing of a captured image of a scene to adapt the captured image
US9767606B2 (en) * 2016-01-12 2017-09-19 Lenovo (Singapore) Pte. Ltd. Automatic modification of augmented reality objects
DE102016209671B4 (de) 2016-06-02 2022-01-05 Adidas Ag Vorrichtung zum Designen eines Musters für einen tragbaren Gegenstand
US10203781B2 (en) 2016-06-24 2019-02-12 Microsoft Technology Licensing, Llc Integrated free space and surface input device
JP2016224959A (ja) * 2016-06-29 2016-12-28 京セラ株式会社 表示装置および制御方法
US20190121306A1 (en) 2017-10-19 2019-04-25 Ctrl-Labs Corporation Systems and methods for identifying biological structures associated with neuromuscular source signals
WO2020112986A1 (en) 2018-11-27 2020-06-04 Facebook Technologies, Inc. Methods and apparatus for autocalibration of a wearable electrode sensor system
US20180088323A1 (en) * 2016-09-23 2018-03-29 Sheng Bao Selectably opaque displays
US11202017B2 (en) 2016-10-06 2021-12-14 Fyusion, Inc. Live style transfer on a mobile device
KR20180041890A (ko) * 2016-10-17 2018-04-25 삼성전자주식회사 가상 객체를 표시하는 방법 및 장치
US11487353B2 (en) * 2016-11-14 2022-11-01 Logitech Europe S.A. Systems and methods for configuring a hub-centric virtual/augmented reality environment
WO2018093816A1 (en) * 2016-11-15 2018-05-24 The Board Of Regents Of The University Of Texas System Devices and methods for interactive augmented reality
CN106713854A (zh) * 2016-12-12 2017-05-24 大连文森特软件科技有限公司 基于ar增强现实技术和无线通信技术的绘画辅助系统
CN110168476B (zh) * 2017-01-09 2022-11-04 斯纳普公司 增强现实对象操纵
US10594786B1 (en) 2017-01-10 2020-03-17 Lucasfilm Entertainment Company Ltd. Multi-device interaction with an immersive environment
US10437879B2 (en) 2017-01-18 2019-10-08 Fyusion, Inc. Visual search using multi-view interactive digital media representations
US10146300B2 (en) 2017-01-25 2018-12-04 Lenovo Enterprise Solutions (Singapore) Pte. Ltd. Emitting a visual indicator from the position of an object in a simulated reality emulation
CN110291554B (zh) * 2017-02-03 2022-06-03 本杰明·摩尔公司 协助消费者选择颜色的自主系统
US20180284914A1 (en) * 2017-03-30 2018-10-04 Intel Corporation Physical-surface touch control in virtual environment
US11494986B2 (en) * 2017-04-20 2022-11-08 Samsung Electronics Co., Ltd. System and method for two dimensional application usage in three dimensional virtual reality environment
JP6469752B2 (ja) * 2017-04-24 2019-02-13 株式会社コロプラ 情報処理方法、情報処理プログラム、情報処理システムおよび情報処理装置
US10313651B2 (en) 2017-05-22 2019-06-04 Fyusion, Inc. Snapshots at predefined intervals or angles
US11069147B2 (en) 2017-06-26 2021-07-20 Fyusion, Inc. Modification of multi-view interactive digital media representation
CN107273033A (zh) * 2017-06-28 2017-10-20 王汝平 服装设计方法、装置及系统
US10140392B1 (en) 2017-06-29 2018-11-27 Best Apps, Llc Computer aided systems and methods for creating custom products
US20190057180A1 (en) * 2017-08-18 2019-02-21 International Business Machines Corporation System and method for design optimization using augmented reality
US10297088B2 (en) * 2017-09-26 2019-05-21 Adobe Inc. Generating accurate augmented reality objects in relation to a real-world surface via a digital writing device
CN109559370A (zh) * 2017-09-26 2019-04-02 华为技术有限公司 一种三维建模方法及装置
DE102017219339A1 (de) 2017-10-27 2019-05-02 Contitech Antriebssysteme Gmbh Artikel mit mehrfach abwechselnd plattierter Textilauflage
JP7242546B2 (ja) * 2017-11-10 2023-03-20 ソニーセミコンダクタソリューションズ株式会社 表示処理装置および表示処理方法、並びにプログラム
US11099708B2 (en) * 2017-12-15 2021-08-24 Hewlett-Packard Development Company, L.P. Patterns for locations on three-dimensional objects
WO2019119038A1 (en) * 2017-12-19 2019-06-27 Ccl Secure Pty Ltd System and method for generating a virtual representation of a security document
DE102017223383A1 (de) 2017-12-20 2019-06-27 Contitech Antriebssysteme Gmbh Antriebsriemen mit Textilauflage
US10546426B2 (en) * 2018-01-05 2020-01-28 Microsoft Technology Licensing, Llc Real-world portals for virtual reality displays
US11481030B2 (en) 2019-03-29 2022-10-25 Meta Platforms Technologies, Llc Methods and apparatus for gesture detection and classification
US11907423B2 (en) 2019-11-25 2024-02-20 Meta Platforms Technologies, Llc Systems and methods for contextualized interactions with an environment
US11150730B1 (en) 2019-04-30 2021-10-19 Facebook Technologies, Llc Devices, systems, and methods for controlling computing devices via neuromuscular signals of users
US11493993B2 (en) 2019-09-04 2022-11-08 Meta Platforms Technologies, Llc Systems, methods, and interfaces for performing inputs based on neuromuscular control
US11961494B1 (en) 2019-03-29 2024-04-16 Meta Platforms Technologies, Llc Electromagnetic interference reduction in extended reality environments
US10559133B2 (en) * 2018-02-07 2020-02-11 Dell Products L.P. Visual space management across information handling system and augmented reality
US10592747B2 (en) 2018-04-26 2020-03-17 Fyusion, Inc. Method and apparatus for 3-D auto tagging
US10928900B2 (en) 2018-04-27 2021-02-23 Technology Against Als Communication systems and methods
US10839603B2 (en) 2018-04-30 2020-11-17 Microsoft Technology Licensing, Llc Creating interactive zones in virtual environments
IL263049B2 (en) * 2018-05-06 2024-05-01 Pcbix Ltd A method and system for planning a product from its verbal description
US11257297B1 (en) 2018-06-15 2022-02-22 Baru Inc. System, method, and computer program product for manufacturing a customized product
WO2020039568A1 (ja) * 2018-08-23 2020-02-27 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置および画像生成方法
DE102018214874B3 (de) * 2018-08-31 2019-12-19 Audi Ag Verfahren und Anordnung zum Erzeugen einer mit Bildinformationen texturierten Umfeldkarte eines Fahrzeugs und Fahrzeug umfassend eine solche Anordnung
EP3853698A4 (en) 2018-09-20 2021-11-17 Facebook Technologies, LLC NEUROMUSCULAR TEXT ENTRY, WRITING AND DRAWING IN SYSTEMS WITH EXTENDED REALITY
CN112822992A (zh) * 2018-10-05 2021-05-18 脸谱科技有限责任公司 在增强现实环境中使用神经肌肉信号来提供与物理对象的增强交互
WO2020097343A1 (en) 2018-11-08 2020-05-14 Immersive Visualization, Inc. Interactive system and method providing real-time virtual reality visualization of simulation data
JP7115290B2 (ja) * 2018-12-20 2022-08-09 トヨタ自動車株式会社 自動車の生産システム
WO2020153946A1 (en) 2019-01-22 2020-07-30 Hewlett-Packard Development Company, L.P. Mixed reality presentation
US11436384B2 (en) * 2019-01-24 2022-09-06 Autodesk, Inc. Computer-aided techniques for iteratively generating designs
KR20200098034A (ko) * 2019-02-11 2020-08-20 삼성전자주식회사 가상 현실 유저 인터페이스를 제공하기 위한 전자 장치 및 그의 동작 방법
US10535201B1 (en) 2019-02-15 2020-01-14 Capital One Services, Llc Utilizing machine learning to generate augmented reality vehicle information for a scale model of a vehicle
CN110097811B (zh) * 2019-04-01 2021-11-09 郑州万特电气股份有限公司 一种电伤与人体电阻变化演示系统
JP7395499B2 (ja) * 2019-07-17 2023-12-11 株式会社アシックス デザイン支援装置及びデザイン支援方法
KR20210014813A (ko) 2019-07-30 2021-02-10 삼성디스플레이 주식회사 표시장치
US11908149B2 (en) 2019-10-10 2024-02-20 Andrew Thomas Busey Pattern-triggered object modification in augmented reality system
JP2021086511A (ja) * 2019-11-29 2021-06-03 ソニーグループ株式会社 情報処理装置、情報処理方法、及びプログラム
US10846534B1 (en) 2020-03-17 2020-11-24 Capital Once Services, LLC Systems and methods for augmented reality navigation
US11514203B2 (en) * 2020-05-18 2022-11-29 Best Apps, Llc Computer aided systems and methods for creating custom products
US11372518B2 (en) 2020-06-03 2022-06-28 Capital One Services, Llc Systems and methods for augmented or mixed reality writing
US11734895B2 (en) 2020-12-14 2023-08-22 Toyota Motor North America, Inc. Systems and methods for enabling precise object interaction within an augmented reality environment
US11868531B1 (en) 2021-04-08 2024-01-09 Meta Platforms Technologies, Llc Wearable device providing for thumb-to-finger-based input gestures detected based on neuromuscular signals, and systems and methods of use thereof
KR20240036582A (ko) * 2021-07-27 2024-03-20 애플 인크. 물리적 객체와의 사용자 인터페이스에 대한 상호작용들을 관리하기 위한 방법 및 디바이스
US20230055819A1 (en) * 2021-08-18 2023-02-23 Target Brands, Inc. Virtual reality system for retail store design

Family Cites Families (77)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2484791A (en) 1944-08-24 1949-10-11 American Cyanamid Co Purification of nu-substituted sulfanilamides
JPH06231221A (ja) * 1993-02-08 1994-08-19 Nippon Telegr & Teleph Corp <Ntt> 3次元物体形状生成方法
US5724264A (en) * 1993-07-16 1998-03-03 Immersion Human Interface Corp. Method and apparatus for tracking the position and orientation of a stylus and for digitizing a 3-D object
US6278461B1 (en) * 1993-09-10 2001-08-21 Geovector Corporation Augmented reality vision systems which derive image information from other vision systems
WO1997018533A1 (en) * 1995-11-15 1997-05-22 British United Shoe Machinery Co. Ltd. Computer aided design system
US7079114B1 (en) * 1998-08-21 2006-07-18 Peter Smith Interactive methods for design of automobiles
US6842175B1 (en) * 1999-04-22 2005-01-11 Fraunhofer Usa, Inc. Tools for interacting with virtual environments
US6396475B1 (en) * 1999-08-27 2002-05-28 Geo Vector Corp. Apparatus and methods of the remote address of objects
US6771801B1 (en) * 2000-02-11 2004-08-03 Sony Corporation Adaptable pre-designed photographic storyboard
US6968075B1 (en) * 2000-05-09 2005-11-22 Chang Kurt C System and method for three-dimensional shape and size measurement
US7079134B2 (en) * 2000-05-12 2006-07-18 Societe Civile T.P.C. International Three-dimensional digital method of designing clothes
US6640202B1 (en) * 2000-05-25 2003-10-28 International Business Machines Corporation Elastic sensor mesh system for 3-dimensional measurement, mapping and kinematics applications
US20020105484A1 (en) 2000-09-25 2002-08-08 Nassir Navab System and method for calibrating a monocular optical see-through head-mounted display system for augmented reality
US6753828B2 (en) 2000-09-25 2004-06-22 Siemens Corporated Research, Inc. System and method for calibrating a stereo optical see-through head-mounted display system for augmented reality
US20020152244A1 (en) * 2000-12-22 2002-10-17 International Business Machines Corporation Method and apparatus to dynamically create a customized user interface based on a document type definition
US7215322B2 (en) * 2001-05-31 2007-05-08 Siemens Corporate Research, Inc. Input devices for augmented reality applications
JP4046985B2 (ja) * 2001-11-21 2008-02-13 キヤノン株式会社 撮像装置、ファイル格納に関する警告方法、コンピュータ読み取り可能な記憶媒体、及びプログラム
CA2364632A1 (en) * 2001-12-04 2003-06-04 Kevin W. Jameson Collection adaptive focus gui
DE10159610B4 (de) 2001-12-05 2004-02-26 Siemens Ag System und Verfahren zur Erstellung einer Dokumentation von Arbeitsvorgängen, insbesondere im Umfeld Produktion, Montage, Service oder Wartung
US7142225B1 (en) * 2002-01-31 2006-11-28 Microsoft Corporation Lossless manipulation of media objects
DE20203367U1 (de) 2002-03-04 2003-05-08 Audi Ag Frühzeitige Visualisierung von Designideen im Ton-/Designmodell
FR2837593B1 (fr) * 2002-03-22 2004-05-28 Kenneth Kuk Kei Wang Procede et dispositif de visualisation, d'archivage et de transmission sur un reseau d'ordinateurs d'un modele de vetement
US8905834B2 (en) * 2007-11-09 2014-12-09 Igt Transparent card display
US7340673B2 (en) * 2002-08-29 2008-03-04 Vistaprint Technologies Limited System and method for browser document editing
US20040041828A1 (en) * 2002-08-30 2004-03-04 Zellhoefer Jon William Adaptive non-contact computer user-interface system and method
US7050078B2 (en) * 2002-12-19 2006-05-23 Accenture Global Services Gmbh Arbitrary object tracking augmented reality applications
US20050052426A1 (en) * 2003-09-08 2005-03-10 Hagermoser E. Scott Vehicle touch input device and methods of making same
JP4401728B2 (ja) 2003-09-30 2010-01-20 キヤノン株式会社 複合現実空間画像生成方法及び複合現実感システム
JP3991020B2 (ja) 2003-09-30 2007-10-17 キヤノン株式会社 画像表示方法及び画像表示システム
JP4356983B2 (ja) 2004-02-10 2009-11-04 キヤノン株式会社 画像処理方法、画像処理装置
WO2005103874A2 (en) * 2004-04-16 2005-11-03 Cascade Basic Research Corp. Modelling relationships within an on-line connectivity universe
US7511703B2 (en) * 2004-06-28 2009-03-31 Microsoft Corporation Using size and shape of a physical object to manipulate output in an interactive display application
JP4677273B2 (ja) * 2004-06-29 2011-04-27 キヤノン株式会社 情報処理方法および情報処理装置
US7379047B2 (en) * 2004-06-30 2008-05-27 Microsoft Corporation Using a physical object to control an attribute of an interactive display application
JP2006048484A (ja) 2004-08-06 2006-02-16 Advanced Telecommunication Research Institute International デザイン支援装置
US20060236231A1 (en) * 2004-11-02 2006-10-19 Quark, Inc. Systems and methods for developing dynamic media productions
US20060176242A1 (en) 2005-02-08 2006-08-10 Blue Belt Technologies, Inc. Augmented reality device and method
US7555713B2 (en) * 2005-02-22 2009-06-30 George Liang Yang Writing and reading aid system
US20080191864A1 (en) * 2005-03-31 2008-08-14 Ronen Wolfson Interactive Surface and Display System
JP4726194B2 (ja) * 2005-04-01 2011-07-20 キヤノン株式会社 キャリブレーション方法及び装置
DE112006000785T5 (de) * 2005-04-01 2008-02-14 Abb Research Ltd. Verfahren und System für das Liefern einer Benutzerschnittstelle
JP4667111B2 (ja) * 2005-04-21 2011-04-06 キヤノン株式会社 画像処理装置、画像処理方法
US20080267450A1 (en) * 2005-06-14 2008-10-30 Maki Sugimoto Position Tracking Device, Position Tracking Method, Position Tracking Program and Mixed Reality Providing System
US20060284791A1 (en) 2005-06-21 2006-12-21 National Applied Research Laboratories National Center For High-Performance Computing Augmented reality system and method with mobile and interactive function for multiple users
EP1821180A1 (en) * 2005-12-31 2007-08-22 Ball-IT Oy User operable pointing device such as mouse
EP1966767A2 (en) 2005-12-31 2008-09-10 BRACCO IMAGING S.p.A. Systems and methods for collaborative interactive visualization of 3d data sets over a network ("dextronet")
US7657341B2 (en) 2006-01-31 2010-02-02 Dragon & Phoenix Software, Inc. System, apparatus and method for facilitating pattern-based clothing design activities
US20070192671A1 (en) * 2006-02-13 2007-08-16 Rufener Jerry Document management systems
US7599561B2 (en) * 2006-02-28 2009-10-06 Microsoft Corporation Compact interactive tabletop with projection-vision
JP4795091B2 (ja) * 2006-04-21 2011-10-19 キヤノン株式会社 情報処理方法および装置
US8180114B2 (en) * 2006-07-13 2012-05-15 Northrop Grumman Systems Corporation Gesture recognition interface system with vertical display
JP4916549B2 (ja) * 2006-08-31 2012-04-11 コーリア リサーチ インスティトゥート オブ スタンダーズ アンド サイエンス 曲面付着型触覚センサーとその製造方法
JP4660771B2 (ja) 2006-09-27 2011-03-30 国立大学法人岐阜大学 三次元像表示装置
JP4971768B2 (ja) * 2006-12-07 2012-07-11 キヤノン株式会社 編集装置、編集方法、およびプログラム
US8352863B2 (en) * 2007-01-03 2013-01-08 Vistaprint Technologies Limited Electronic product design using layered images
US8276069B2 (en) * 2007-03-28 2012-09-25 Honeywell International Inc. Method and system for automatically generating an adaptive user interface for a physical environment
TW200842777A (en) * 2007-04-18 2008-11-01 Chih-Chen Wu Online clothing display system and method thereof
FR2916545B1 (fr) * 2007-05-23 2009-11-20 Inst Pour Le Dev De La Science Procede pour localiser un toucher sur une surface et dispositif pour la mise en oeuvre de ce procede.
US8005558B2 (en) * 2007-09-14 2011-08-23 Nike, Inc. Three-dimensional design lasts for footwear
US9703369B1 (en) * 2007-10-11 2017-07-11 Jeffrey David Mullen Augmented reality video game systems
US8174521B2 (en) * 2007-10-26 2012-05-08 Zazzle.Com Product modeling system and method
JP4933406B2 (ja) * 2007-11-15 2012-05-16 キヤノン株式会社 画像処理装置、画像処理方法
US20090271715A1 (en) * 2008-01-29 2009-10-29 Tumuluri Ramakrishna J Collaborative augmented virtuality system
US8896603B2 (en) * 2008-02-26 2014-11-25 Fisher-Rosemount Systems, Inc. Methods and apparatus to bind properties in a process control system
NL1035303C2 (nl) * 2008-04-16 2009-10-19 Virtual Proteins B V Interactieve virtuele reality eenheid.
US9218116B2 (en) * 2008-07-25 2015-12-22 Hrvoje Benko Touch interaction with a curved display
CN102177525A (zh) * 2008-07-29 2011-09-07 彩滋网站公司 产品定制系统和方法
KR101592296B1 (ko) * 2008-09-03 2016-02-05 엘지전자 주식회사 이동 단말기 및 그의 객체 선택과 실행 방법
KR20100039024A (ko) * 2008-10-07 2010-04-15 엘지전자 주식회사 이동 단말기 및 이것의 디스플레이 제어 방법
US8274510B2 (en) * 2008-11-07 2012-09-25 Autodesk, Inc. Method and apparatus for visualizing a quantity of a material used in a physical object having a plurality of physical elements
JP5951994B2 (ja) * 2008-12-19 2016-07-13 イマージョン コーポレーションImmersion Corporation 対話型ペインティングゲーム及び関連するコントローラ
US9569001B2 (en) * 2009-02-03 2017-02-14 Massachusetts Institute Of Technology Wearable gestural interface
US8818024B2 (en) * 2009-03-12 2014-08-26 Nokia Corporation Method, apparatus, and computer program product for object tracking
US8612858B2 (en) * 2009-05-01 2013-12-17 Apple Inc. Condensing graphical representations of media clips in a composite display area of a media-editing application
US8275590B2 (en) * 2009-08-12 2012-09-25 Zugara, Inc. Providing a simulation of wearing items such as garments and/or accessories
US8549418B2 (en) * 2009-12-23 2013-10-01 Intel Corporation Projected display to enhance computer device use
US8947455B2 (en) 2010-02-22 2015-02-03 Nike, Inc. Augmented reality design system

Also Published As

Publication number Publication date
JP5972794B2 (ja) 2016-08-17
JP5961299B2 (ja) 2016-08-02
JP2016189213A (ja) 2016-11-04
JP2013520729A (ja) 2013-06-06
CN103038771A (zh) 2013-04-10
US20110205242A1 (en) 2011-08-25
JP6843802B2 (ja) 2021-03-17
US20180286131A1 (en) 2018-10-04
US8947455B2 (en) 2015-02-03
EP2539838A1 (en) 2013-01-02
JP2018190437A (ja) 2018-11-29
JP2016192226A (ja) 2016-11-10
US9858724B2 (en) 2018-01-02
US20160203647A1 (en) 2016-07-14
JP2015179517A (ja) 2015-10-08
US20150109322A1 (en) 2015-04-23
WO2011103272A2 (en) 2011-08-25
JP6370840B2 (ja) 2018-08-08
CN103038771B (zh) 2017-01-18
US9384578B2 (en) 2016-07-05

Similar Documents

Publication Publication Date Title
JP6370839B2 (ja) 拡張現実設計システム
US10817921B2 (en) Method of visual shopping
LaViola Jr et al. Hands-free multi-scale navigation in virtual environments
US20130307851A1 (en) Method for virtually trying on footwear
JP2011203823A (ja) 画像処理装置、画像処理方法及びプログラム
US20220284492A1 (en) Methods of capturing images and making garments
Jimeno-Morenilla et al. Augmented and virtual reality techniques for footwear
JP4879946B2 (ja) 3次元デザイン支援装置及びプログラム
US10698474B2 (en) Apparatus and method for designing patterns for wearable items
Masri et al. Virtual dressing room application
JP2018094396A (ja) 服装品の光学的外観を可逆的に修正する装置および方法
Sundari et al. Development of Apparel 360°-An AR based Virtual Trial Room

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170911

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20171211

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180611

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180711

R150 Certificate of patent or registration of utility model

Ref document number: 6370839

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250