JP2022544679A - 対象特徴可視化装置及び方法 - Google Patents

対象特徴可視化装置及び方法 Download PDF

Info

Publication number
JP2022544679A
JP2022544679A JP2022509602A JP2022509602A JP2022544679A JP 2022544679 A JP2022544679 A JP 2022544679A JP 2022509602 A JP2022509602 A JP 2022509602A JP 2022509602 A JP2022509602 A JP 2022509602A JP 2022544679 A JP2022544679 A JP 2022544679A
Authority
JP
Japan
Prior art keywords
video
data
mapped
feature
computing device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022509602A
Other languages
English (en)
Inventor
サンドウ、アダム、アイ.
Original Assignee
マテリアル テクノロジーズ コーポレイション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by マテリアル テクノロジーズ コーポレイション filed Critical マテリアル テクノロジーズ コーポレイション
Publication of JP2022544679A publication Critical patent/JP2022544679A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/40Filling a planar surface by adding surface attributes, e.g. colour or texture
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0641Shopping interfaces
    • G06Q30/0643Graphical representation of items or shoppers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/3147Multi-projection systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3185Geometric adjustment, e.g. keystone or convergence

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Strategic Management (AREA)
  • Development Economics (AREA)
  • Marketing (AREA)
  • Economics (AREA)
  • General Business, Economics & Management (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Game Theory and Decision Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

対象特徴可視化システムが開示される。本システムは、物理的対象上に投影するためにビデオマッピングされた画像を生成する計算デバイスを含み得る。ビデオマッピングされた画像は、対象上に投影されるべき特徴を含み得る。物理的対象上へのビデオマッピングされた画像の投影により、対象上の特徴の可視化が可能になる。いくつかの実例では、計算デバイスは、特定の対象についての特徴選択を受信し、ビデオマッピングされた画像を物理的対象上に投影するためにプロジェクタに与えるために、選択された特徴をもつビデオマッピングされた画像を生成する。いくつかの実例では、ユーザは、ユーザ・インターフェースを介してルーム・ディスプレイの1つ又は複数の対象についての1つ又は複数の特徴を選択することが可能である。本システムは、その場合、選択された特徴をもつビデオマッピングされた画像を物理的対象上に投影する。本システムにより、ユーザが、特徴選択を保存し、選択された特徴をもつ対象についての追加の情報を購入するか又は要求することが可能になり得る。

Description

本出願は、その全体が参照により本明細書に組み込まれる、2019年9月4日に出願した「OBJECT FEATURE VISUALIZATION APPARATUS AND METHODS」という名称の米国仮特許出願第62/895、769号の利益を主張するものである。
本開示は、一般に、インテリア及びエクステリア・デザインのためのシステムに関し、より詳細には、インテリア及びエクステリア・デザインのための対象のデジタル表示に関する。
ファブリック、床、塗装、家庭用品、又は他のデザイン素材など、デザイン素材の製造業者及び供給業者は、広告目的のためにそれらの素材の画像をしばしば表示する。たとえば、デザイン素材は、デザイナー(たとえば、インテリア又はエクステリア・デザイナー)、並びにエンド・ユーザ(たとえば、住宅所有者、店など)など、潜在顧客に広告され得る。素材の画像は、たとえば、業界誌など雑誌に、ショールームに、又は会議において表示され得る。素材の画像は、製造業者の又は供給業者のウェブサイトなど、ウェブサイトにも表示され得る。いくつかの実例では、デザイン素材を含むビデオが表示され得る。たとえば、デザイン素材の製造業者又は供給業者は、ショールームにおいて潜在顧客にそれらのデザイン素材のプロモーション・ビデオを表示し得る。
いくつかの実例では、計算デバイスは少なくとも1つのプロセッサを含む。少なくとも1つのプロセッサは、少なくとも1つの対象についての少なくとも1つの特徴の選択を識別する第1のデータを受信するように構成される。第1のデータを受信したことに応答して、少なくとも1つのプロセッサは、少なくとも1つの特徴をもつ少なくとも1つの対象を特徴づけるビデオマッピングされた画像を取得するように構成される。少なくとも1つのプロセッサはまた、ビデオマッピングされた画像を少なくとも1つの投影デバイスに与えるように構成され、投影デバイスは、ビデオマッピングされた画像を少なくとも1つの対象上に投影するように構成される。
いくつかの実例では、システムは、ルーム・ディスプレイと、ルーム・ディスプレイ上に画像を投影するように構成された投影デバイスと、投影デバイスに通信可能に結合された計算デバイスとを含む。計算デバイスは、少なくとも1つの対象を含むシーンの画像を表示するように構成される。計算デバイスは、少なくとも1つの対象の選択を識別する第1のデータを受信し、受信された第1のデータに応答して、少なくとも1つの対象についての複数の特徴カテゴリーを表示のために与えるようにさらに構成される。計算デバイスはまた、複数の特徴カテゴリーのうちの第1の特徴カテゴリーの選択を識別する第2のデータを受信するように構成される。受信された第2のデータに応答して、計算デバイスは、第1の特徴カテゴリーに対応する複数の特徴を表示のために与えるように構成される。さらに、計算デバイスは、第1の特徴カテゴリーに対応する複数の特徴のうちの第1の特徴の選択を識別する第3のデータを受信し、受信された第3のデータに応答して、第1の特徴をもつ少なくとも1つの対象を特徴づけるビデオマッピングされた画像を取得するように構成される。計算デバイスはまた、取得されたビデオマッピングされた画像を投影デバイスに与えるように構成される。
いくつかの実例では、方法は、少なくとも1つの対象についての少なくとも1つの特徴の選択を識別する第1のデータを受信することを含む。本方法はまた、第1のデータを受信したことに応答して、少なくとも1つの特徴をもつ少なくとも1つの対象を特徴づけるビデオマッピングされた画像を取得することを含む。さらに、本方法は、ビデオマッピングされた画像を少なくとも1つの投影デバイスに与えることを含み、投影デバイスは、ビデオマッピングされた画像を少なくとも1つの対象上に投影するように構成される。
いくつかの実例では、方法は、少なくとも1つの対象を含むシーンの画像を表示することを含む。本方法はまた、少なくとも1つの対象の選択を識別する第1のデータを受信することと、受信された第1のデータに応答して、少なくとも1つの対象についての複数の特徴カテゴリーを表示のために与えることとを含む。本方法は、複数の特徴カテゴリーのうちの第1の特徴カテゴリーの選択を識別する第2のデータを受信することをさらに含む。受信された第2のデータに応答して、本方法は、第1の特徴カテゴリーに対応する複数の特徴を表示のために与えることを含む。さらに、本方法は、第1の特徴カテゴリーに対応する複数の特徴のうちの第1の特徴の選択を識別する第3のデータを受信することと、受信された第3のデータに応答して、第1の特徴をもつ少なくとも1つの対象を特徴づけるビデオマッピングされた画像を取得することとを含む。本方法はまた、取得されたビデオマッピングされた画像を投影デバイスに与えることを含む。
いくつかの実例では、非一時的機械可読記憶媒体は、少なくとも1つのプロセッサによって実行されたとき、少なくとも1つのプロセッサに、少なくとも1つの対象についての少なくとも1つの特徴の選択を識別する第1のデータを受信することを含む動作を実行させる命令を記憶する。動作は、第1のデータを受信したことに応答して、少なくとも1つの特徴をもつ少なくとも1つの対象を特徴づけるビデオマッピングされた画像を取得することをも含む。さらに、動作は、ビデオマッピングされた画像を少なくとも1つの投影デバイスに与えることを含み、投影デバイスは、ビデオマッピングされた画像を少なくとも1つの対象上に投影するように構成される。
いくつかの実例では、非一時的機械可読記憶媒体は、少なくとも1つのプロセッサによって実行されたとき、少なくとも1つのプロセッサに、少なくとも1つの対象の選択を識別する第1のデータを受信することと、受信された第1のデータに応答して、少なくとも1つの対象についての複数の特徴カテゴリーを表示のために与えることとを含む動作を実行させる命令を記憶する。動作は、複数の特徴カテゴリーのうちの第1の特徴カテゴリーの選択を識別する第2のデータを受信することをさらに含む。受信された第2のデータに応答して、動作は、第1の特徴カテゴリーに対応する複数の特徴を表示のために与えることを含む。さらに、動作は、第1の特徴カテゴリーに対応する複数の特徴のうちの第1の特徴の選択を識別する第3のデータを受信することと、受信された第3のデータに応答して、第1の特徴をもつ少なくとも1つの対象を特徴づけるビデオマッピングされた画像を取得することとを含む。動作は、取得されたビデオマッピングされた画像を投影デバイスに与えることをも含む。
本開示の特徴及び利点は、以下の例示的な実施例の詳細な説明において、より十分に開示されるか、又はそれによって明らかにされる。例示的な実施例の詳細な説明は添付の図面と一緒に検討されるべきであり、同様の番号は同様の部分を指す。
いくつかの実施例による、対象特徴可視化システムを示す図である。 いくつかの実施例による、図1の対象特徴可視化システムの対象特徴可視化計算デバイスの実例を示す図である。 いくつかの実施例による、図1の対象特徴可視化システムの例示的な部分を示す図である。 いくつかの実施例による、図2の対象特徴可視化計算デバイスによって与えられ得る例示的なユーザ・インターフェースを示す図である。 いくつかの実施例による、ルーム・ディスプレイ中の対象の実例を示す図である。 いくつかの実施例による、図4Aのルーム・ディスプレイ中の対象のうちの少なくともいくつかの例示的な対象特徴可視化を示す図である。 いくつかの実施例による、ルーム・ディスプレイ中の対象の実例を示す図である。 いくつかの実施例による、図5Aのルーム・ディスプレイ中の対象のうちの少なくともいくつかの例示的な対象特徴可視化を示す図である。 いくつかの実施例による、図1の対象特徴可視化システムによって実行され得る例示的な方法を示す図である。 いくつかの実施例による、図1の対象特徴可視化システムによって実行され得る別の例示的な方法を示す図である。 いくつかの実施例による、図1の対象特徴可視化システムによって実行され得る、また別の例示的な方法を示す図である。
好ましい実施例の説明は、これらの開示の明細書全体の一部と考えられるべき、添付の図面とともに読まれるべきものである。しかしながら、本開示は、開示されている特定の形態に限定されるものではないことが理解されるべきである。むしろ、本開示は、これらの例示的な実施例の趣旨及び範囲内に入るすべての改変、等価物、及び代替を包含する。
本説明において、「水平」、「垂直」、「上」、「下」、「上部」、「下部」などの相対語、並びにそれらの派生語(たとえば、「水平方向に」、「下方に」、「上方に」など)は、そのときに説明されているか又は説明中の図に示されている方向を指すと解釈されるべきである。これらの相対語は、説明の便宜のためのものであり、通常、特定の向きを必要とするものではない。「内側に」対「外側に」、「縦方向」対「横方向」などを含む用語は、適宜、互いに対して、又は長手軸(axis of elongation)又は回転軸若しくは回転中心に対して解釈されるべきである。「結合する」、「結合される」、「動作可能に結合される」、「動作可能に接続される」などの用語は、接続により、関係するデバイス又は構成要素が、その関係によって意図された通りに互いと動作する(たとえば、通信する)ことが可能になるように、機械的に、電気的に、有線で、無線で、又は他の形のいずれかで、デバイス又は構成要素を互いに接続することを指すと広く理解されるべきである。
図面を見ると、図1は、対象特徴可視化計算デバイス102と、複数のプロジェクタ104A、104B、104C、104D、104Eと、データベース116とを含む、対象特徴可視化システム100のブロック図を示す。各プロジェクタは、たとえば、デジタル・ライト・プロセッシング(DLP)プロジェクタ、液晶ディスプレイ(LCD)プロジェクタ、又は任意の他の好適な画像投影デバイスであり得る。この実例では、5つのプロジェクタ104が示されているが、他の実例では、異なるプロジェクタの数が対象特徴可視化システム100によって採用され得る。対象特徴可視化計算デバイス102は通信ネットワーク118を介してデータベース116に通信可能に結合され得る。通信ネットワーク118は、WiFi(登録商標)ネットワーク、3GPP(登録商標)ネットワークなどセルラー・ネットワーク、Bluetooth(登録商標)ネットワーク、衛星ネットワーク、ワイヤレス・ローカル・エリア・ネットワーク(LAN)、無線周波数(RF)通信プロトコルを利用するネットワーク、近距離通信(NFC)ネットワーク、複数のワイヤレスLANを接続するワイヤレス・メトロポリタン・エリア・ネットワーク(MAN)、ワイド・エリア・ネットワーク(WAN)、又は任意の他の好適なネットワークであり得る。通信ネットワーク118は、たとえば、インターネットへのアクセスを与えることができる。対象特徴可視化計算デバイス102は、データを通信ネットワーク118に送信し、通信ネットワーク118からデータを受信し得る。
対象特徴可視化計算デバイス102はまた、有線又は無線ネットワークを介してなど、プロジェクタ104に通信可能に結合され得る。示されていないが、いくつかの実例では、対象特徴可視化計算デバイス102は、通信ネットワーク118を介してプロジェクタ104に通信可能に結合される。
対象特徴可視化計算デバイス102は、情報を処理し、操作するためのハードウェア、又はハードウェア及びソフトウェアを含み得る。たとえば、対象特徴可視化計算デバイス102は、1つ又は複数のプロセッサ、1つ又は複数のフィールドプログラマブル・ゲート・アレイ(FPGA)、1つ又は複数の特定用途向け集積回路(ASIC)、1つ又は複数の状態機械、デジタル回路、又は任意の他の好適な回路を含み得る。いくつかの実例では、対象特徴可視化計算デバイス102は、たとえば、ウェブ・サーバ、アプリケーション・サーバ、クラウドベース・サーバ、ワークステーション、ラップトップ、タブレット、携帯電話などモバイル・デバイス、又は任意の他の好適な計算デバイスであり得る。
図2は対象特徴可視化計算デバイス102のさらなる詳細を示す。図2に示されているように、対象特徴可視化計算デバイス102は、すべて1つ又は複数のデータ・バス208に動作可能に結合された、1つ又は複数のプロセッサ201と、ワーキング・メモリ202と、1つ又は複数の入出力デバイス203と、命令メモリ207と、トランシーバ204と、1つ又は複数の通信ポート207と、ディスプレイ206とを含み得る。データ・バス208は様々なデバイスの間の通信を可能にする。データ・バス208は有線又は無線通信チャネルを含むことができる。
プロセッサ201は、各々が1つ又は複数のコアを有する、1つ又は複数の別個のプロセッサを含むことができる。別個のプロセッサの各々は同じ又は異なる構造を有することができる。プロセッサ201は、1つ又は複数の中央処理ユニット(CPU)、1つ又は複数のグラフィックス処理ユニット(GPU)、特定用途向け集積回路(ASIC)、デジタル信号プロセッサ(DSP)などを含むことができる。
プロセッサ201は、機能又は動作を実施する、命令メモリ207に記憶された、コードを実行することによって、ある機能又は動作を実行するように構成され得る。たとえば、プロセッサ201は、本明細書で開示するいずれかの機能、方法、又は動作のうちの1つ又は複数を実行するように構成され得る。
命令メモリ207は、プロセッサ201によってアクセスされ(たとえば、読み出され)、実行され得る命令を記憶することができる。たとえば、命令メモリ207は、読取り専用メモリ(ROM)、電気的消去可能プログラマブル読取り専用メモリ(EEPROM)、フラッシュ・メモリ、リムーバブル・ディスク、CD-ROM、任意の不揮発性メモリ、又は任意の他の好適なメモリなど、非一時的コンピュータ可読記憶媒体であり得る。
プロセッサ201は、データをワーキング・メモリ202に記憶し、ワーキング・メモリ202からデータを読み取ることができる。たとえば、プロセッサ201は、命令メモリ207からロードされた命令など、命令のワーキング・セットをワーキング・メモリ202に記憶することができる。プロセッサ201は、対象特徴可視化計算デバイス102の動作中に作成される動的データを記憶するためにもワーキング・メモリ202を使用することができる。ワーキング・メモリ202は、スタティック・ランダム・アクセス・メモリ(SRAM)又はダイナミック・ランダム・アクセス・メモリ(DRAM)、又は任意の他の好適なメモリなど、ランダム・アクセス・メモリ(RAM)であり得る。
入出力デバイス203は、データ入力又は出力を可能にする任意の好適なデバイスを含み得る。たとえば、入出力デバイス203は、キーボード、タッチパッド、マウス、スタイラス、タッチスクリーン、物理ボタン、スピーカー、マイクロフォン、又は任意の他の好適な入力又は出力デバイスのうちの1つ又は複数を含み得る。
通信ポート207は、たとえば、ユニバーサル非同期受信機/送信機(UART)接続、ユニバーサル・シリアル・バス(USB)接続、又は任意の他の好適な通信ポート又は接続など、シリアル・ポートを含むことができる。いくつかの実例では、通信ポート207は、命令メモリ207中の実行可能命令のプログラミングを可能にする。いくつかの実例では、通信ポート207は、対象特徴可視化計算デバイス102によって表示される素材についての記憶された素材データなど、データの転送(たとえば、アップロード又はダウンロード)を可能にする。
ディスプレイ206はユーザ・インターフェース205を表示することができる。ユーザ・インターフェース205は、対象特徴可視化計算デバイス102とのユーザ対話を可能にすることができる。たとえば、ユーザ・インターフェース205は、素材の画像並びに素材データの閲覧及び操作を可能にするアプリケーションのためのユーザ・インターフェースであり得る。いくつかの実例では、ユーザは、入出力デバイス203をエンゲージすることによってユーザ・インターフェース205と対話することができる。
トランシーバ204は、図1の通信ネットワーク118など、ネットワークとの通信を可能にする任意の好適な通信ユニットであり得る。いくつかの実例では、トランシーバ204は、対象特徴可視化計算デバイス102が動作している通信ネットワーク118のタイプに基づいて選択される。たとえば、図1の通信ネットワーク118がWiFi(登録商標)ネットワークである場合、トランシーバ204は、WiFi(登録商標)ネットワークを用いた通信を可能にするように構成される。プロセッサ201は、トランシーバ204を介して、図1の通信ネットワーク118など、ネットワークからデータを受信するか、又はデータをネットワークに送るように動作可能である。
図1に戻ると、対象特徴可視化システム100は、実際の対象上に画像をビデオマッピングする(たとえば、3Dプロジェクション・マッピングする)ことによって、対象(たとえば、床、壁、家具、固定具、アイテム)が異なる対象特徴とともにどのように見えるかをシミュレートすることができる。特徴は、たとえば、素材(たとえば、カーペット、タイル、木材)、ファブリック、色、パターン、デザイン要素、又は任意の他の対象特徴を含み得る。いくつかの実例では、対象特徴可視化システム100は、物理ルーム・ディスプレイ中の物理的対象の仮想選択を可能にする。対象特徴可視化システム100はまた、選択された対象についての特定の特徴の選択を可能にし得る。対象特徴可視化システム100は、対象についての選択された特徴に基づいて画像を生成し、生成された画像を物理的対象上にビデオマッピングし得る。たとえば、対象特徴可視化システム100は、異なる色、素材、仕上げ、又はパターンをミニルーム・ディスプレイの家具、壁、及び床上にリアルタイムで投影し得る。利点として、対象特徴可視化システム100は、人が、ビデオマッピング・プロジェクションを介して変動する特徴を組み込んだ部屋の対象とともに部屋がどのように見えるかを観察し、可視化することを可能にし得る。たとえば、投影される対象は、異なるライティング(たとえば昼光対夜間又は夕暮れ光)におけるテクスチャ(たとえばカーペット対タイル、ファブリック対レザー、異なる色)、シェーディング又はシャドーイング、及び仕上げを正確に表現し得る。さらに、投影される対象は、1つ又は複数の対象についての特徴の様々な組合せを表現し得る。たとえば、対象特徴可視化システム100は、選択された特徴をルーム・ディスプレイ中の家具上に投影し、別の選択された特徴を壁上に投影し、及び別の選択された特徴を床上に投影し得る。別の実例では、対象特徴可視化システム100は、キッチン・キャビネットについての第1の色、素材、仕上げ、又はパターン、及び調理台についての第2の色、素材、仕上げ又はパターンなど、選択された対象についての2つ以上の特徴の選択を可能にし得る。様々な特徴は、ユーザによってリアルタイムで選択され、変更され得る。したがって、対象特徴可視化システム100は、人が、様々な投影された特徴とともに対象がどのように見えるかを検討することによってインテリア・デザイン選定を行うことを可能にし得る。
いくつかの実例では、対象特徴可視化計算デバイス102は、1つ又は複数のプロジェクタ104A、104B、104Cなどに、1つ又は複数のビデオマッピングされた画像をルーム・ディスプレイ150の1つ又は複数の対象上に投影させ得る。たとえば、ルーム・ディスプレイ150は、後壁171、側壁175、床173、額縁152、椅子154、テーブル156、ラグマット158、棚160、及び花瓶162など、様々な対象を含むことができる。示されている対象は例にすぎず、決して本開示を限定するものでない。
いくつかの実例では、プロジェクタ104A、104B、104Cなどは、画像をルーム・ディスプレイ150の一部分に向けるために事前構成される(たとえば、配向させられ、位置決めされる)。たとえば、プロジェクタ104Aは、ビデオマッピングされた画像を側壁175と椅子154とのうちの1つ又は複数上に投影するように事前構成され得る。同様に、プロジェクタ104Bは、ビデオマッピングされた画像をラグマット158とテーブル156と後壁171の部分とのうちの1つ又は複数上に投影するように事前構成され得、プロジェクタ104Cは、ビデオマッピングされた画像をフロア173の部分と後壁171の部分とのうちの1つ又は複数上に投影するように事前構成され得、プロジェクタ104Dは、ビデオマッピングされた画像を棚160と花瓶162とのうちの1つ又は複数上に投影するように事前構成され得、プロジェクタ104Eは、ビデオマッピングされた画像を後壁171の部分と床173とのうちの1つ又は複数上に投影するように事前構成され得る。いくつかの実例では、対象特徴可視化計算デバイス102は各プロジェクタ104の投影方向を制御することができる。たとえば、対象特徴可視化計算デバイス102は、プロジェクタ104の対応する画像投影の方向及び/又はズームを制御するためにプロジェクタ104の各々にメッセージを送るように動作可能であり得る。
対象特徴可視化計算デバイス102は、たとえば、各対象についての1つ又は複数の特徴の選択に基づいて、ビデオマッピングされた画像をプロジェクタ104A、104B、104Cなどの各々に与え得る。実例として、対象特徴可視化計算デバイス102は、椅子154についての、白など、色の選択を受信し得る。応答して、対象特徴可視化計算デバイス102は、椅子154上に投影されるために、白い椅子の画像を含むビデオマッピングされた画像をプロジェクタ104Aに与え得る。
図3Aは、ルーム・ディスプレイ150の対象など、シーン中の対象を決定し得る、図1の対象特徴可視化システム100の例示的な部分を示す。この実例では、対象特徴可視化計算デバイス102は通信ネットワーク118を介して複数のカメラに通信可能に結合されている。特に、対象特徴可視化計算デバイス102は、カメラ302A、カメラ302B、及びカメラ302Cに通信可能に結合されている。カメラ302A、302B、302Cの各々は、シーンのフルカラー画像をキャプチャするように構成されたフルカラー・カメラ、ビデオ・カメラ、又は任意の他の好適なカメラであり得る。この実例では、3つのカメラ302A、302B、302Cが示されているが、他の実例は、より少ない又はより多いカメラ302を含み得る。カメラ302の各々は、ルーム・ディスプレイ150の少なくとも一部分をキャプチャするように構成され得る。たとえば、カメラ302Aは、ルーム・ディスプレイ150の左部分をキャプチャするように構成され得、カメラ302Bは、ルーム・ディスプレイ150の中間部分をキャプチャするように構成され得、カメラ302Cは、ルーム・ディスプレイ150の右部分をキャプチャするように構成され得る。いくつかの実例では、カメラ302の各々の視野は、(図3Aに破線によって示されているように)少なくとも部分的に、互いに重複し得る。いくつかの実例では、カメラの各々の視野は互いに重複しない。
いくつかの実例では、対象位置データ310がデータベース116にあらかじめ記憶され得る。たとえば、ルーム・ディスプレイ150中の各対象の位置は、事前決定され、データベース116に記憶され得る。たとえば、対象位置データ310は、側壁175、後壁171、椅子154、及びテーブル156など、複数の対象の各々の位置(たとえば、輪郭)を識別し得る。
いくつかの実例では、事前決定された対象位置データ310を利用するのではなく、又はそれを利用することに加えて、カメラ302は、画像をキャプチャし、画像内の対象を識別するためにリアルタイムで利用され得る。たとえば、対象特徴可視化計算デバイス102は、カメラ302のうちの1つ又は複数から1つ又は複数の画像を受信し、画像中の対象を識別し得る。対象を検出するために、対象特徴可視化計算デバイス102は、任意の好適な対象検出技法又はプロセスを採用し得る。たとえば、対象特徴可視化計算デバイス102は、画像中の対象を識別するために、配向勾配ヒストグラム(histogram of oriented gradient)(HOG)に基づいて特徴を識別し、対象を決定するための分類子を含むものなど、1つ又は複数の機械学習ベースの手法を採用し得る。いくつかの実例では、対象特徴可視化計算デバイス102は、画像中の対象を識別するために、畳み込みニューラル・ネットワーク(convolutional neural network)(CNN)に基づくものなど、1つ又は複数のディープラーニング・ベースの手法を採用し得る。採用された技法又はプロセスに基づいて、対象特徴可視化計算デバイス102は、カメラ302によって与えられた画像内の各対象の位置を識別するデータを生成し得る。たとえば、対象特徴可視化計算デバイス102は、特定のカメラ302からの画像内の対象を含むか又は輪郭を描く座標を識別する座標データを生成し得る。いくつかの実例では、対象特徴可視化計算デバイス102は、画像中の対象を含むか又は輪郭を描くピクセル位置を識別するピクセル・データを生成する。
1つ又は複数のカメラ302からの検出された対象に基づいて、対象特徴可視化計算デバイス102は、ルーム・ディスプレイ150中の各検出された対象の位置を識別し、特徴づける対象位置データ310を生成する。たとえば、対象特徴可視化計算デバイス102は、対象をもつ画像をキャプチャしたカメラの視野(たとえば、ルーム・ディスプレイ150のどのくらい又はどの部分をカメラ302がキャプチャしているか)、キャプチャされた画像内の対象の位置を識別するデータ、及びルーム・ディスプレイ150の寸法(たとえば、全高、全長、及び全幅など3D寸法)に基づいて、ルーム・ディスプレイ150中の各対象の位置を決定し得る。対象特徴可視化計算デバイス102は対象位置データ310をデータベース116に記憶し得る。
各事前決定されたか又は検出された対象についての対象位置データ310に基づいて、対象特徴可視化計算デバイス102は、ビデオマッピングされた画像を生成し、対応するプロジェクタ104に、ビデオマッピングされた画像を対象上に投影させ得る。たとえば、特定の対象についての対象位置データ310に基づいて、対象特徴可視化計算デバイス102は、特定のプロジェクタ104によって投影されたときに、対象位置データ310によって識別された物理的対象のみの上に投影される、ビデオマッピングされた画像を生成し得る。生成されたビデオマッピングされた画像は、(たとえば、異なる色、異なる素材、異なるパターンなど)選択された特徴をもつ対象のオーバーレイを含み得る。
たとえば、データベース116に記憶される対象特徴選択データ312は、ルーム・ディスプレイ150中の複数の対象の各々についての特徴を識別し得る。対象特徴選択データ312は、たとえば、対象特徴可視化計算デバイス102によって事前構成され、データベース116に記憶され得る。図3Bに関して以下で説明するように、ユーザは、特定の対象について、対象特徴選択データ312によって識別され、特徴づけられた特徴を選択し得る。選択された特徴に基づいて、対象特徴可視化計算デバイス102は、選択された特徴(たとえば、後壁171など、壁対象のために選択された色)を含む特定の対象上に投影するために、ビデオマッピングされた画像を生成し得る。対象特徴可視化計算デバイス102は、その場合、特定の対象上に投影するように構成されたプロジェクタ(たとえば、後壁171の部分上に投影するためのプロジェクタ104C)など、プロジェクタ104に、ビデオマッピングされた画像を特定の対象上に投影させ得る。いくつかの実例では、2つ以上のプロジェクタ104が、画像を対象上に投影するように構成される(たとえば、プロジェクタ104B、104C、104Eなどが後壁171上に投影する)場合、対象特徴可視化計算デバイス102は、各そのようなプロジェクタ104についてビデオマッピングされた画像を生成し、生成されたビデオマッピングされた画像の各々は特徴を含む。
いくつかの実例では、対象特徴可視化計算デバイス102は、特定のプロジェクタ104によって投影されるときに、複数の対象上に投影されるビデオマッピングされた画像を生成し得る。たとえば、ビデオマッピングされた画像は、各対象についての色又は素材など、各対象について選択された特徴を含み得る。いくつかの実例では、対象特徴可視化計算デバイス102は、対象に当たらない領域(たとえば、対象の間の領域)上に投影されるであろうビデオマッピングされた画像の部分から、すべての明るさ及び色(たとえば、ルミナンス(luminance)及びクロミナンス(chrominance))を取り除く。
図3Bは、たとえば、対象特徴可視化計算デバイス102の(図2に示されているように)ディスプレイ206上に表示され得る、例示的なユーザ・インターフェース205を示す。たとえば、ディスプレイ206はタッチスクリーンであり得、ユーザ・インターフェース205は、タッチスクリーン上に表示され、ユーザ・タッチに基づくユーザ入力を可能にする。いくつかの実例では、ユーザ入力は1つ又は複数の入出力デバイス203によって与えられ得る。図3Bに示されているように、ユーザ・インターフェース205は、対象選択ペイン352と、特徴選択ペイン354と、ユーザ・コマンド・ペイン355とを含み得る。
対象選択ペイン352はルーム・ディスプレイ150の1つ又は複数の対象を表示し得る。いくつかの実例では、対象選択ペイン352は、対象(たとえば、事前構成された対象、又は対象特徴可視化計算デバイス102が、対象位置データ310によって識別される、カメラ302から受信された画像中で検出した対象)の選択可能なリストを表示する。表示された対象の少なくとも一部分をエンゲージすること(たとえば、タッチすること)によって、ユーザは対象を選択し得る。
いくつかの実例では、対象選択ペイン352はルーム・ディスプレイ350の画像を表示する。たとえば、対象特徴可視化計算デバイス102は、カメラ302から受信された画像に基づいて画像をレンダリングし、レンダリングされた画像を対象選択ペイン352中に表示し得る。いくつかの実例では、ルーム・ディスプレイ350の画像は、事前決定され、表示のためにデータベース116に記憶される。表示されたルーム・ディスプレイ350の画像は、ユーザが、たとえば、表示された対象の少なくとも一部分をエンゲージすること(たとえば、タッチすること)によって、画像中に表示された1つ又は複数の対象を選択することを可能にし得る。
この実例では、ユーザが対象を選択したとき、特徴選択ペイン354は、1つ又は複数の特徴カテゴリー、及びユーザが選択し得る各特徴カテゴリーについての1つ又は複数の可能な特徴で自動的に更新する。たとえば、対象選択ペイン352中の選択された対象に基づいて、特徴選択ペイン354は、素材356と色358とパターン360とを含む特徴カテゴリーを表示し得る。表示された特徴カテゴリーは、対象のタイプと、対象のそのタイプについての可能な特徴とに基づき得る。さらに、各特徴カテゴリーは、その特徴カテゴリーに対応する1つ又は複数の特徴を含み得、ユーザは、対象についての各カテゴリーについての特徴を選択することができる。各特徴カテゴリー、及び対応する各対象についての特徴は、たとえば、データベース116に記憶され得る対象特徴選択データ312によって識別され、特徴づけられ得る。
たとえば、ユーザは、ルーム・ディスプレイ350のテーブル156を選択するために対象選択ペイン352を使用すると仮定する。特徴選択ペイン354は、その場合、素材356と色358とパターン360とを含む特徴カテゴリーを自動的に更新し、表示し得る。ユーザは、その場合、素材356の下で素材(たとえば、木材又はプラスチック)を選択し、色358の下で色(たとえば、白又は黒)を選択し、パターン360の下でパターン(たとえば、花又は海洋テーマ)を選択することが可能であり得る。ユーザはまた、特定の特徴カテゴリーの下で特徴を選択しないことを決定し得る。その場合、対象特徴可視化計算デバイス102は、選択された特徴のみをもつ対象上に投影するためにビデオマッピングされた画像を生成するであろう。
ユーザ・コマンド・パネル355は、選択を保存するアイコン357を含み得る。選択を保存するアイコン357は、ユーザによってエンゲージさせられた(たとえば、タッチされた)場合、対象特徴可視化計算デバイス102に、ユーザのための選択された対象についての選択された特徴を保存させる。選択された特徴は、たとえば、データベース116に保存され得、ユーザのためのアカウントに関連付けられ得る。
いくつかの実例では、ユーザ・コマンド・パネル355は、カートに選択を追加するアイコン359を含み得る。カートに選択を追加するアイコン359は、選択された特徴をもつ対象をオンライン・ショッピング・カートに追加することによって、選択された特徴をもつ選択された対象の購入を促進する。
いくつかの実例では、オンライン・ショッピング・カートは、ユーザが、オンライン・ショッピング・カートに追加された配置されたそれらのアイテムについて発注することを可能にし得る。いくつかの実例では、直接発注するのではなく、発注により、対象特徴可視化計算デバイス102が、オンライン・カート中の各対象の各製造業者に通信を送信する。通信は、電子メール(eメール)、ショート・メッセージ・サービス(SMS)メッセージ、又は任意の他の好適な通信であり得る。通信は、ユーザと、対象と、対象の選択された特徴とを識別し得る。通信は、その場合、製造業者、小売業者、及び/又はそれらの代理店のうちの1つが、選択された特徴をもつ対象の販売、又はそれについての追加の情報についてユーザに連絡することを可能にし得る。いくつかの実例では、通信は、製造業者、小売業者、及び/又は他の代理店連絡先情報とともにユーザに送信される。
図4Aは、ルーム・ディスプレイ402の前に物理的に立っている人の視点からのルーム・ディスプレイ402を示す。ルーム・ディスプレイ402は、対象のいずれかの上への対象特徴可視化計算デバイス102による任意のビデオマッピングされた画像の投影の前の、ルーム中に複数の対象を含む。たとえば、ルーム・ディスプレイ402は、対象のうち、椅子404と、第1の椅子用枕406と、第2の椅子用枕408と、棚410と、床412と、壁414とを含む。椅子404、第1の椅子用枕406、及び第2の椅子用枕408は、第1の色420での第1のパターン418をもつ第1の素材416を含む。いくつかの実施例では、第1の素材416、第1のパターン418及び第1の色420は、ビデオマッピングされた画像の最適投影を可能にするように選択され得る。たとえば、第1のパターン418及び第1の色420は無地の白であり得るが、第1の素材416は最適表示プロパティから選択され得る。
図4Bは、図4Aの同じルーム・ディスプレイ402を示すが、椅子404と第1の椅子用枕406と第2の椅子用枕408との上への対象特徴可視化計算デバイス102によるビデオマッピングされた画像の投影を伴う。たとえば、対象特徴可視化計算デバイス102は、(椅子404と第1の椅子用枕406と第2の椅子用枕408とを含む)ルーム・ディスプレイ402中の対象をユーザ・インターフェース205など、ユーザ・インターフェース上に表示し得る。ユーザは椅子404を選択し得、ユーザ・インターフェースは椅子404についての特徴のカテゴリーを表示し得る。たとえば、特徴カテゴリーは、素材(たとえば、素材356)と、パターン(たとえば、パターン360)と、色(たとえば、色358)とを含み得る。素材カテゴリーは、第1の素材416及び第2の素材456のための選択を含み得る。パターン・カテゴリーは、第1のパターン418及び第2のパターン458のための選択を含み得る。色カテゴリーは、第1の色420及び第2の色460のための選択を含み得る。ユーザは、特徴カテゴリーのうちの1つ又は複数についての特徴を選択し得る。
この実例では、ユーザは、椅子404についての第2の素材456と、第2のパターン458と、第2の色460とを選択する。応答して、対象特徴可視化計算デバイス102は、第2の素材456と第2のパターン458と第2の色460とを含む椅子404についての対象位置データに基づいて、ビデオマッピングされた画像を生成する。対象特徴可視化計算デバイス102は、プロジェクタ104のうちの1つなど、画像を椅子404上に投影するように構成されたプロジェクタに、生成されたビデオマッピングされた画像を与え得る。たとえば、プロジェクタ104がビデオマッピングされた画像を椅子404上に投影したとき、図4Bに示されているように、椅子404は、ルーム・ディスプレイ402を物理的に観察している外側の人には、第1の素材416と第1のパターン418と第1の色420とではなく、第2の素材456と第2のパターン458と第2の色460とを有するように見えるであろう。
同様に、ユーザは第1の椅子用枕406を選択し得、ユーザ・インターフェースは第1の椅子用枕406についての特徴のカテゴリーを表示し得、各カテゴリーは第1の椅子用枕406についての選択可能な特徴を含む。この実例では、ユーザは、第1の椅子用枕406についての第2の素材456と、第2のパターン458と、第2の色460とを選択する。応答して、対象特徴可視化計算デバイス102は、第2の素材456と第2のパターン458と第2の色460とを含む、第1の椅子用枕406についての対象位置データに基づいて、ビデオマッピングされた画像を生成する。対象特徴可視化計算デバイス102は、プロジェクタ104のうちの1つなど、画像を第1の椅子用枕406上に投影するように構成されたプロジェクタに、生成されたビデオマッピングされた画像を与え得る。
ユーザはまた、第2の椅子用枕408を選択し得、ユーザ・インターフェースは、第2の椅子用枕408についての特徴のカテゴリーを表示し得、各カテゴリーは、第2の椅子用枕408についての選択可能な特徴を含む。この実例では、ユーザは、第2の椅子用枕408についての第2の素材456と、第2のパターン458と、第2の色460とを選択する。応答して、対象特徴可視化計算デバイス102は、第2の素材456と第2のパターン458と第2の色460とを含む第2の椅子用枕408についての対象位置データに基づいて、ビデオマッピングされた画像を生成する。対象特徴可視化計算デバイス102は、プロジェクタ104のうちの1つなど、画像を第2の椅子用枕408上に投影するように構成されたプロジェクタに、生成されたビデオマッピングされた画像を与え得る。
図5Aは、ルーム・ディスプレイ502の前に物理的に立っている人の視点からのルーム・ディスプレイ502を示す。ルーム・ディスプレイ502は、対象のいずれかの上への対象特徴可視化計算デバイス102による任意のビデオマッピングされた画像の投影の前の、ルーム中に複数の対象を含む。たとえば、ルーム・ディスプレイ502は、対象のうち、シャワー・タイル504と、壁タイル506と、化粧テーブル(vanity)508と、フレーム510とを含む。壁タイル506は、第1の色520での第1のパターン518をもつ第1の素材516を含む。いくつかの実施例では、第1の素材516、第1のパターン518、及び第1の色520は、ビデオマッピングされた画像の最適投影を可能にするように選択され得る。たとえば、第1のパターン518及び第1の色520は無地の白であり得、第1の素材516は最適表示特性のために選択され得る。
図5Bは、図5Aの同じルーム・ディスプレイ502を示すが、壁タイル506上への対象特徴可視化計算デバイス102によるビデオマッピングされた画像の投影を伴う。たとえば、対象特徴可視化計算デバイス102は、(壁タイル506を含む)ルーム・ディスプレイ502中の対象を、ユーザ・インターフェース205など、ユーザ・インターフェース上に表示し得る。ユーザは壁タイル506を選択し得、ユーザ・インターフェースは壁タイル506についての特徴のカテゴリーを表示し得る。たとえば、特徴カテゴリーは、素材(たとえば、素材356)と、パターン(たとえば、パターン360)と、色(たとえば、色358)とを含み得る。素材カテゴリーは、第1の素材516及び第2の素材556のための選択を含み得る。パターン・カテゴリーは、第1のパターン518及び第2のパターン558のための選択を含み得る。色カテゴリーは、第1の色520及び第2の色560のための選択を含み得る。ユーザは、特徴カテゴリーのうちの1つ又は複数についての特徴を選択し得る。
この実例では、ユーザは、壁タイル506について、第2の色560の色カテゴリー特徴を選択する。ユーザは、素材カテゴリー特徴又はパターン・カテゴリー特徴を選択しない。応答して、対象特徴可視化計算デバイス102は、第2の色560を含む壁タイル506についての対象位置データに基づいて、ビデオマッピングされた画像を生成する。対象特徴可視化計算デバイス102は、複数のプロジェクタ104など、画像を壁タイル506上に投影するように構成された複数のプロジェクタに、生成されたビデオマッピングされた画像を与え得る。たとえば、対象特徴可視化計算デバイス102は、画像を後壁570上に投影することができる第1のプロジェクタのためのビデオマッピングされた画像を生成し、画像を側壁580上に投影することができる第2のプロジェクタのための別のビデオマッピングされた画像を生成し得る。第1のプロジェクタ及び第2のプロジェクタがビデオマッピングされた画像を壁タイル506のそれぞれの部分上に投影したとき、壁タイル506は、図5Bに示されているように、ルーム・ディスプレイ502を物理的に観察している外側の人には、第1の色520ではなく第2の色560を有するように見えるであろう。
いくつかの実例では、素材についての特徴カテゴリーは、素材のタイプ別(たとえば、繊維、塗装、積層、セラミック、木材、レザー、石、樹脂、フィルム、ガラス、コンクリート、ビニル、ゴム、コルク、真珠及び貝殻、紙など)、用途別(たとえば、壁被覆、室内装飾材料(upholstery)、床、カーペット、装飾(trim)、室内、室外、商業、住宅など)、他の特徴別(たとえば、防汚、耐水性、再生含有物(recycled content)、低いVOCなど)、及び/又は商標又は製造業者別を含むことができる。特徴カテゴリーはまた、色カテゴリー(たとえば、グレー、青、赤など)又はパターン・カテゴリー(たとえば、ストライプ、動物プリントなど)を含むことができる。特徴カテゴリーはまた、テーマ(たとえば、ビクトリア朝、アール・デコ、田舎、海岸など)を含むことができる。
図6は、たとえば、図1の対象特徴可視化計算デバイス102によって実行され得る例示的な方法600のフローチャートを示す。ステップ602において開始して、画像データが少なくとも1つのカメラから受信される。たとえば、対象特徴可視化計算デバイス102が画像データを1つ又は複数のカメラ302から受信し得る。ステップ604において、受信された画像データ中の少なくとも1つの対象が決定される。たとえば、対象特徴可視化計算デバイス102は、カメラ302から受信された画像データ中の少なくとも1つの対象を識別するために、1つ又は複数の機械学習又はディープラーニング・ベースのプロセスを実行し得る。ステップ606に進むと、少なくとも1つの対象の少なくとも1つの特徴についての選択が受信される。実例として、対象特徴可視化計算デバイス102は、図3Bに関して上記で説明したように、ディスプレイ206上にユーザ・インターフェース205を表示し、ユーザが対象についての1つ又は複数の特徴を選択することを可能にし得る。
ステップ608において、選択された少なくとも1つの特徴をもつ少なくとも1つの対象を特徴づけるビデオマッピングされた画像が生成される。たとえば、対象特徴可視化計算デバイス102は、物理的対象上に投影されたときに、投影されたビデオマッピングされた画像が、物理的対象の外観を、選択された特徴に従って変化させるように、選択された特徴に基づいて、ビデオマッピングされた画像を生成し得る。ステップ610に進むと、生成されたビデオマッピングされたデータを少なくとも1つの対象上に投影するように、少なくとも1つの投影デバイスが向けられる。実例として、対象特徴可視化計算デバイス102は、ルーム・ディスプレイ150中に位置する椅子154など、対応する物理的対象上に画像を投影するように構成されたプロジェクタ104に、生成されたビデオマッピングされた画像を与え得る。いくつかの実例では、対象特徴可視化計算デバイス102は、プロジェクタ104がビデオマッピングされた画像を対応する物理的対象上に投影するように、対象特徴可視化計算デバイス102の画像投影の方向及びズームを調整するようにプロジェクタを制御し得る。
図7は、たとえば、図1の対象特徴可視化計算デバイス102によって実行され得る別の例示的な方法700のフローチャートを示す。ステップ702において開始して、少なくとも1つの対象を含むシーンの画像が表示される。たとえば、対象特徴可視化計算デバイス102は、図3Bに関して上記で説明したように、ルーム・ディスプレイ150中の対象を表示する対象選択ペイン352を含む、ディスプレイ206上のユーザ・インターフェース205を表示し得る。
ステップ704において、少なくとも1つの対象の選択が受信される。実例として、対象特徴可視化計算デバイス102は、図3Bに関して上記で説明したように、ユーザが対象を選択することを可能にする対象選択ペイン352を含む、ディスプレイ206上のユーザ・インターフェース205を表示し得る。ステップ706において、少なくとも1つの対象についての複数の特徴カテゴリーが表示される。実例として、対象特徴可視化計算デバイス102は、図3Bに関して上記で説明したように、ユーザが対象についての1つ又は複数の特徴を選択することを可能にする特徴選択ペイン354を含む、ディスプレイ206上のユーザ・インターフェース205を表示し得る。
ステップ708において、表示された複数の特徴カテゴリーのうちの1つの特徴カテゴリーの選択が受信される。たとえば、ユーザは、特徴選択ペイン354中に表示された複数の特徴カテゴリーのうちの1つをエンゲージし得、応答して、対象特徴可視化計算デバイス102が、選択された特徴カテゴリーを受信する。ステップ710において、選択された特徴カテゴリーについての複数の特徴が表示される。たとえば、特徴選択ペイン354は、ユーザが特徴カテゴリーを選択したときに特徴カテゴリーについての特徴を表示する、ドロップダウン・メニューを含み得る。ステップ712において、選択された特徴カテゴリーについての表示された複数の特徴のうちの1つの特徴の選択が受信される。たとえば、ユーザが、ドロップダウン・メニュー中の特徴のうちの1つを選択し得、応答して、対象特徴可視化計算デバイス102が、選択された特徴を受信する。
ステップ714に進むと、ビデオマッピングされた画像が、位置に基づいて取得される。ビデオマッピングされた画像は、選択された特徴をもつ少なくとも1つの対象を特徴づける画像データを含む。たとえば、対象特徴可視化計算デバイス102は、選択された対象と選択された特徴とに対応する事前決定された対象ビデオ画像データ315を取得し得る。事前決定された対象ビデオ画像データ315は、たとえば、以前に生成され、データベース116に記憶されていることがある。ステップ716において、取得されたビデオマッピングされた画像を少なくとも1つの対象上に投影するように、少なくとも1つの投影デバイスが向けられる。たとえば、対象特徴可視化計算デバイス102は、ルーム・ディスプレイ150中に位置する後壁171など、対応する物理的対象上に画像を投影するように構成されたプロジェクタ104に、取得されたビデオマッピングされた画像を与え得る。いくつかの実例では、対象特徴可視化計算デバイス102は、プロジェクタ104がビデオマッピングされた画像を対応する物理的対象上に投影するように、対象特徴可視化計算デバイス102の画像投影の方向及び/又はズームを調整するようにプロジェクタを制御し得る。
図8は、たとえば、図1の対象特徴可視化計算デバイス102によって実行され得る別の例示的な方法800のフローチャートを示す。ステップ802において開始して、対象特徴可視化計算デバイス102が、ユーザが(たとえば、オンライン・ショッピング・カートを介して)発注したという兆候を受信する。ユーザは、ユーザ・インターフェース205の、カートに選択を追加するアイコン359を使用して、オンライン・ショッピング・カート中に入れられた対象を発注していることがある。ステップ804において、兆候に応答して、対象特徴可視化計算デバイス102が、オンライン・カート中の各対象に関連する製造業者を決定する。たとえば、対象特徴可視化計算デバイス102は、データベース116に記憶された対象データに基づいて各製造業者を決定し得る。対象データは、製造業者の識別、及び、いくつかの実例では、各対象についての利用可能な特徴を含む、各対象についての情報を含み得る。ステップ806において、対象特徴可視化計算デバイス102が、オンライン・カート中の各対象の各製造業者に通信を送信する。通信は、電子メール、SMSメッセージ、又は任意の他の好適な通信であり得る。各通信は、ユーザと、各対応する対象と、各対象についての任意の選択された特徴とを識別し得る。通信は、各製造業者が、選択された特徴をもつ各対象の販売、又は各対象についての追加の情報について、ユーザに連絡することを可能にし得る。
いくつかの実例では、対象特徴可視化計算デバイス102など、計算デバイスは、少なくとも1つの対象についての少なくとも1つの特徴の選択を識別する第1のデータを受信し、第1のデータを受信したことに応答して、少なくとも1つの特徴をもつ少なくとも1つの対象を特徴づけるビデオマッピングされた画像を取得するように構成された、少なくとも1つのプロセッサを含む。少なくとも1つのプロセッサはまた、ビデオマッピングされた画像を少なくとも1つの投影デバイスに与えるように構成され、投影デバイスは、ビデオマッピングされた画像を少なくとも1つの対象上に投影するように構成される。
いくつかの実例では、少なくとも1つのプロセッサは、少なくとも1つのカメラから画像データを受信し、受信された画像データに1つ又は複数の機械学習又はディープラーニング・ベースのプロセスを適用することに基づいて、受信された画像データ中の少なくとも1つの対象を決定するようにさらに構成される。いくつかの実例では、計算デバイスは、特徴を識別するために、受信された画像データに配向勾配ヒストグラム(HOG)を適用することと、少なくとも1つの対象を決定するために、識別された特徴に分類子を適用することとに基づいて、受信された画像データ中の少なくとも1つの対象を決定する。
いくつかの実例では、少なくとも1つのプロセッサは、受信された画像データ内の各対象の位置を識別する位置データを生成することによって、受信された画像データ中の少なくとも1つの対象を決定するように構成される。
いくつかの実例では、少なくとも1つのプロセッサは、位置データに基づいて、ビデオマッピングされた画像を生成することによって、ビデオマッピングされた画像を少なくとも1つの投影デバイスに与えるように構成される。計算デバイスはまた、ビデオマッピングされた画像を、データベース116など、データベースに記憶するように構成される。
いくつかの実例では、少なくとも1つのプロセッサは、複数の対象を識別する対象選択データを表示のために与えるように構成され、各対象はルーム・ディスプレイ中の物理的対象に対応し、複数の対象は少なくとも1つの対象を含む。いくつかの実例では、少なくとも1つのプロセッサは、少なくとも1つの対象の選択を識別する第2のデータを受信するように構成され、受信された第2のデータに応答して、少なくとも1つのプロセッサは、少なくとも1つの対象についての複数の特徴を識別する特徴選択データを表示のために与えるように構成され、複数の特徴は少なくとも1つの特徴を含む。
いくつかの実例では、少なくとも1つのプロセッサは、少なくとも1つの特徴の選択を識別する第3のデータを受信するように構成され、少なくとも1つの特徴をもつ少なくとも1つの対象を特徴づけるビデオマッピングされた画像を取得することは、第3のデータに基づいて、少なくとも1つの対象を特徴づける複数のビデオマッピングされた画像からビデオマッピングされた画像を選択することを含む。
いくつかの実例では、システムは、ルーム・ディスプレイと、画像をルーム・ディスプレイに投影するように構成された投影デバイスと、少なくとも1つの投影デバイスに通信可能に結合された計算デバイスとを含む。計算デバイスは、少なくとも1つの対象を含むシーンの画像を表示するように構成される。計算デバイスはまた、少なくとも1つの対象の選択を識別する第1のデータを受信し、受信された第1のデータに応答して、少なくとも1つの対象についての複数の特徴カテゴリーを表示のために与えるように構成される。計算デバイスは、複数の特徴カテゴリーのうちの第1の特徴カテゴリーの選択を識別する第2のデータを受信し、受信された第2のデータに応答して、第1の特徴カテゴリーに対応する複数の特徴を表示のために与えるようにさらに構成される。計算デバイスはまた、第1の特徴カテゴリーに対応する複数の特徴のうちの第1の特徴の選択を識別する第3のデータを受信し、受信された第3のデータに応答して、第1の特徴をもつ少なくとも1つの対象を特徴づけるビデオマッピングされた画像を取得するように構成される。計算デバイスは、取得されたビデオマッピングされた画像を投影デバイスに与えるようにさらに構成される。
いくつかの実例では、計算デバイスは、第3のデータに基づいて、データベースに記憶された複数のビデオマッピングされた画像からビデオマッピングされた画像を選択するように構成され、複数のビデオマッピングされた画像の各々は、変動する特徴をもつ少なくとも1つの対象を特徴づける。
いくつかの実例では、計算デバイスは、投影デバイスがビデオマッピングされた画像を少なくとも1つの対象上に投影するように、投影デバイスの方向を調整するように構成される。
いくつかの実例では、少なくとも1つの対象は、壁、床、固定具、家具、装飾、又は他のインテリア・デザイン要素を含む。いくつかの実例では、少なくとも1つの対象についての少なくとも1つの特徴は、素材、色、仕上げ、又はパターンのタイプのうちの少なくとも1つから選択される。
いくつかの実例では、計算デバイスは、投影デバイスから画像データを受信し、受信された画像データに1つ又は複数の機械学習又はディープラーニング・ベースのプロセスを適用することに基づいて、受信された画像データ中の少なくとも1つの対象を決定するように構成される。
いくつかの実例では、受信された画像データ中の少なくとも1つの対象を決定することは、特徴を識別するために、受信された画像データに配向勾配ヒストグラム(HOG)を適用することと、少なくとも1つの対象を決定するために、識別された特徴に分類子を適用することとを含む。
いくつかの実例では、受信された画像データ中の少なくとも1つの対象を決定することは、受信された画像データ内の各対象の位置を識別する位置データを生成することを含む。いくつかの実例では、ビデオマッピングされた画像を少なくとも1つの投影デバイスに与えることは、位置データに基づいて、ビデオマッピングされた画像を生成することを含む。いくつかの実例では、計算デバイスはビデオマッピングされた画像をデータベースに記憶する。
いくつかの実例では、方法は、少なくとも1つの対象についての少なくとも1つの特徴の選択を識別する第1のデータを受信することと、第1のデータを受信したことに応答して、少なくとも1つの特徴をもつ少なくとも1つの対象を特徴づけるビデオマッピングされた画像を取得することとを含む。本方法はまた、ビデオマッピングされた画像を少なくとも1つの投影デバイスに与えることを含み、投影デバイスは、ビデオマッピングされた画像を少なくとも1つの対象上に投影するように構成される。
いくつかの実例では、本方法は、少なくとも1つのカメラから画像データを受信することと、受信された画像データに1つ又は複数の機械学習又はディープラーニング・ベースのプロセスを適用することに基づいて、受信された画像データ中の少なくとも1つの対象を決定することとを含む。
いくつかの実例では、本方法は、1つ又は複数の機械学習又はディープラーニング・ベースのプロセスを適用することと、特徴を識別するために、受信された画像データに配向勾配ヒストグラム(HOG)を適用することと、少なくとも1つの対象を決定するために、識別された特徴に分類子を適用することとを含む。
いくつかの実例では、受信された画像データ中の少なくとも1つの対象を決定することは、受信された画像データ内の各対象の位置を識別する位置データを生成することを含む。
いくつかの実例では、ビデオマッピングされた画像を少なくとも1つの投影デバイスに与えることは、位置データに基づいて、ビデオマッピングされた画像を生成することを含む。いくつかの実例では、本方法は、ビデオマッピングされた画像をデータベースに記憶することを含む。
上記で説明した方法は、示されたフローチャートに関するものであるが、本方法に関連する行為を実行することの多くの他の方法が使用され得ることが諒解されよう。たとえば、いくつかの動作の順序は変更され得、説明された動作のうちのいくつかは随意であり得る。
さらに、本明細書で説明した方法及びシステムは、少なくとも部分的に、コンピュータ実装型プロセス、及びそれらのプロセスを実施するための装置の形態で実施され得る。開示された方法はまた、少なくとも部分的に、コンピュータ・プログラム・コードで符号化された有形非一時的機械可読記憶媒体の形態で実施され得る。たとえば、本方法のステップは、ハードウェアにおいて、プロセッサによって実行される実行可能命令(たとえば、ソフトウェア)において、又はその2つの組合せにおいて実施され得る。媒体は、たとえば、RAM、ROM、CD-ROM、DVD-ROM、BD-ROM、ハード・ディスク・ドライブ、フラッシュ・メモリ、又は任意の他の非一時的機械可読記憶媒体を含み得る。コンピュータ・プログラム・コードがコンピュータ中にロードされ、コンピュータによって実行されたとき、コンピュータは、本方法を実施するための装置になる。本方法はまた、コンピュータが、本方法を実施するための専用コンピュータになるように、少なくとも部分的に、コンピュータ・プログラム・コードがその中にロードされるか又は実行されるコンピュータの形態で実施され得る。汎用プロセッサ上に実装されたとき、コンピュータ・プログラム・コード・セグメントは、特定の論理回路を作成するようにプロセッサを構成する。本方法は、代替的に、本方法を実行するための特定用途向け集積回路中で少なくとも部分的に実施され得る。
上記は、これらの開示の実施例を図示し、説明し、記述する目的で与えられた。これらの実施例への変更及び適応は、当業者にとって明らかになり、これらの開示の範囲又は趣旨から逸脱することなく行われ得る。
図2は対象特徴可視化計算デバイス102のさらなる詳細を示す。図2に示されているように、対象特徴可視化計算デバイス102は、すべて1つ又は複数のデータ・バス208に動作可能に結合された、1つ又は複数のプロセッサ201と、ワーキング・メモリ202と、1つ又は複数の入出力デバイス203と、命令メモリ207と、トランシーバ204と、1つ又は複数の通信ポート20と、ディスプレイ206とを含み得る。データ・バス208は様々なデバイスの間の通信を可能にする。データ・バス208は有線又は無線通信チャネルを含むことができる。
通信ポート20は、たとえば、ユニバーサル非同期受信機/送信機(UART)接続、ユニバーサル・シリアル・バス(USB)接続、又は任意の他の好適な通信ポート又は接続など、シリアル・ポートを含むことができる。いくつかの実例では、通信ポート20は、命令メモリ207中の実行可能命令のプログラミングを可能にする。いくつかの実例では、通信ポート20は、対象特徴可視化計算デバイス102によって表示される素材についての記憶された素材データなど、データの転送(たとえば、アップロード又はダウンロード)を可能にする。

Claims (20)

  1. 少なくとも1つのプロセッサを備える計算デバイスであって、前記少なくとも1つのプロセッサが、
    少なくとも1つの対象についての少なくとも1つの特徴の選択を識別する第1のデータを受信することと、
    前記第1のデータを受信したことに応答して、前記少なくとも1つの特徴をもつ前記少なくとも1つの対象を特徴づけるビデオマッピングされた画像を取得することと、
    前記ビデオマッピングされた画像を少なくとも1つの投影デバイスに与えることと
    を行うように構成され、前記投影デバイスが、前記ビデオマッピングされた画像を前記少なくとも1つの対象上に投影するように構成された、計算デバイス。
  2. 前記少なくとも1つのプロセッサが、
    少なくとも1つのカメラから画像データを受信することと、
    前記受信された画像データに1つ又は複数の機械学習又はディープラーニング・ベースのプロセスを適用することに基づいて、前記受信された画像データ中の前記少なくとも1つの対象を決定することと
    を行うようにさらに構成された、請求項1に記載の計算デバイス。
  3. 1つ又は複数の機械学習又はディープラーニング・ベースのプロセスを適用することに基づいて、前記受信された画像データ中の前記少なくとも1つの対象を決定することが、特徴を識別するために前記受信された画像データに配向勾配ヒストグラム(HOG)を適用することと、前記少なくとも1つの対象を決定するために前記識別された特徴に分類子を適用することとを含む、請求項2に記載の計算デバイス。
  4. 前記受信された画像データ中の前記少なくとも1つの対象を決定することが、前記受信された画像データ内の各対象の位置を識別する位置データを生成することを含む、請求項2に記載の計算デバイス。
  5. 前記ビデオマッピングされた画像を少なくとも1つの投影デバイスに与えることが、
    前記位置データに基づいて前記ビデオマッピングされた画像を生成することと、
    前記ビデオマッピングされた画像をデータベースに記憶することと
    を含む、請求項4に記載の計算デバイス。
  6. 前記少なくとも1つのプロセッサが、
    複数の対象を識別する対象選択データを表示のために与えることであって、各対象がルーム・ディスプレイ中の物理的対象に対応し、前記複数の対象が前記少なくとも1つの対象を含む、対象選択データを与えることと、
    前記少なくとも1つの対象の選択を識別する第2のデータを受信することと、
    前記受信された第2のデータに応答して、前記少なくとも1つの対象についての複数の特徴を識別する特徴選択データを表示のために与えることであって、前記複数の特徴が前記少なくとも1つの特徴を含む、特徴選択データを与えることと
    を行うようにさらに構成された、請求項1に記載の計算デバイス。
  7. 前記少なくとも1つのプロセッサが、前記少なくとも1つの特徴の選択を識別する第3のデータを受信するようにさらに構成され、前記少なくとも1つの特徴をもつ前記少なくとも1つの対象を特徴づける前記ビデオマッピングされた画像を取得することが、前記第3のデータに基づいて、前記少なくとも1つの対象を特徴づける複数のビデオマッピングされた画像から前記ビデオマッピングされた画像を選択することを含む、請求項6に記載の計算デバイス。
  8. ルーム・ディスプレイと、
    前記ルーム・ディスプレイに画像を投影するように構成された投影デバイスと、
    前記少なくとも1つの投影デバイスに通信可能に結合された計算デバイスと
    を備えるシステムであって、前記計算デバイスが、
    少なくとも1つの対象を含むシーンの画像を表示することと、
    前記少なくとも1つの対象の選択を識別する第1のデータを受信することと、
    前記受信された第1のデータに応答して、前記少なくとも1つの対象についての複数の特徴カテゴリーを表示のために与えることと、
    前記複数の特徴カテゴリーのうちの第1の特徴カテゴリーの選択を識別する第2のデータを受信することと、
    前記受信された第2のデータに応答して、前記第1の特徴カテゴリーに対応する複数の特徴を表示のために与えることと、
    前記第1の特徴カテゴリーに対応する前記複数の特徴のうちの第1の特徴の選択を識別する第3のデータを受信することと、
    前記受信された第3のデータに応答して、前記第1の特徴をもつ前記少なくとも1つの対象を特徴づけるビデオマッピングされた画像を取得することと、
    前記取得されたビデオマッピングされた画像を前記投影デバイスに与えることと
    を行うように構成された、システム。
  9. 前記計算デバイスは、前記投影デバイスが前記ビデオマッピングされた画像を前記少なくとも1つの対象上に投影するように、前記投影デバイスの方向を調整するようにさらに構成された、請求項8に記載のシステム。
  10. 前記少なくとも1つの対象が、壁、床、固定具、家具、装飾、又は他のインテリア・デザイン要素を含む、請求項8に記載のシステム。
  11. 前記少なくとも1つの対象についての前記少なくとも1つの特徴が、素材、色、仕上げ、又はパターンのタイプのうちの少なくとも1つから選択される、請求項8に記載のシステム。
  12. 前記第1の特徴をもつ前記少なくとも1つの対象を特徴づける前記ビデオマッピングされた画像を取得することが、前記第3のデータに基づいてデータベースに記憶された複数のビデオマッピングされた画像から前記ビデオマッピングされた画像を選択することを含み、前記複数のビデオマッピングされた画像の各々が、変動する特徴をもつ前記少なくとも1つの対象を特徴づける、請求項8に記載のシステム。
  13. 前記計算デバイスが、
    前記投影デバイスから画像データを受信することと、
    前記受信された画像データに1つ又は複数の機械学習又はディープラーニング・ベースのプロセスを適用することに基づいて、前記受信された画像データ中の前記少なくとも1つの対象を決定することと
    を行うようにさらに構成された、請求項8に記載のシステム。
  14. 1つ又は複数の機械学習又はディープラーニング・ベースのプロセスを適用することに基づいて、前記受信された画像データ中の前記少なくとも1つの対象を決定することが、特徴を識別するために前記受信された画像データに配向勾配ヒストグラム(HOG)を適用することと、前記少なくとも1つの対象を決定するために前記識別された特徴に分類子を適用することとを含む、請求項13に記載のシステム。
  15. 前記受信された画像データ中の前記少なくとも1つの対象を決定することが、前記受信された画像データ内の各対象の位置を識別する位置データを生成することを含み、
    前記ビデオマッピングされた画像を少なくとも1つの投影デバイスに与えることが、
    前記位置データに基づいて前記ビデオマッピングされた画像を生成することと、
    前記ビデオマッピングされた画像をデータベースに記憶することと
    を含む、請求項13に記載のシステム。
  16. 少なくとも1つの対象についての少なくとも1つの特徴の選択を識別する第1のデータを受信することと、
    前記第1のデータを受信したことに応答して、前記少なくとも1つの特徴をもつ前記少なくとも1つの対象を特徴づけるビデオマッピングされた画像を取得することと、
    前記ビデオマッピングされた画像を少なくとも1つの投影デバイスに与えることと
    を含む方法であって、前記投影デバイスが、前記ビデオマッピングされた画像を前記少なくとも1つの対象上に投影するように構成された、方法。
  17. 少なくとも1つのカメラから画像データを受信することと、
    前記受信された画像データに1つ又は複数の機械学習又はディープラーニング・ベースのプロセスを適用することに基づいて、前記受信された画像データ中の前記少なくとも1つの対象を決定することと
    を含む、請求項16に記載の方法。
  18. 1つ又は複数の機械学習又はディープラーニング・ベースのプロセスを適用することに基づいて、前記受信された画像データ中の前記少なくとも1つの対象を決定することが、特徴を識別するために前記受信された画像データに配向勾配ヒストグラム(HOG)を適用することと、前記少なくとも1つの対象を決定するために前記識別された特徴に分類子を適用することとを含む、請求項17に記載の方法。
  19. 前記受信された画像データ中の前記少なくとも1つの対象を決定することが、前記受信された画像データ内の各対象の位置を識別する位置データを生成することを含む、請求項17に記載の方法。
  20. 前記ビデオマッピングされた画像を少なくとも1つの投影デバイスに与えることが、
    前記位置データに基づいて前記ビデオマッピングされた画像を生成することと、
    前記ビデオマッピングされた画像をデータベースに記憶することと
    を含む、請求項19に記載の方法。
JP2022509602A 2019-09-04 2020-09-03 対象特徴可視化装置及び方法 Pending JP2022544679A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201962895769P 2019-09-04 2019-09-04
US62/895,769 2019-09-04
PCT/US2020/049101 WO2021046153A1 (en) 2019-09-04 2020-09-03 Object feature visualization apparatus and methods

Publications (1)

Publication Number Publication Date
JP2022544679A true JP2022544679A (ja) 2022-10-20

Family

ID=74682216

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022509602A Pending JP2022544679A (ja) 2019-09-04 2020-09-03 対象特徴可視化装置及び方法

Country Status (5)

Country Link
US (4) US11683459B2 (ja)
EP (1) EP3983848A4 (ja)
JP (1) JP2022544679A (ja)
KR (1) KR20220007672A (ja)
WO (1) WO2021046153A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11503256B2 (en) * 2019-09-04 2022-11-15 Material Technologies Corporation Object feature visualization apparatus and methods
WO2021046153A1 (en) 2019-09-04 2021-03-11 Material Technologies Corporation Object feature visualization apparatus and methods
US11789350B2 (en) * 2020-05-11 2023-10-17 Anthony Goolab Celestial body image projection system
JP7287408B2 (ja) * 2021-02-18 2023-06-06 セイコーエプソン株式会社 表示方法、情報処理装置、及びプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003157290A (ja) * 2001-11-20 2003-05-30 Burein:Kk イメージシミュレーション用処理方法、イメージシミュレーション用処理システム、イメージシミュレーション用処理プログラム及び記録媒体
JP2018085118A (ja) * 2017-12-12 2018-05-31 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP2018185414A (ja) * 2017-04-26 2018-11-22 セイコーエプソン株式会社 プロジェクターおよびプロジェクターの制御方法
JP2019053450A (ja) * 2017-09-13 2019-04-04 長屋土地開発株式会社 内装材受注システム

Family Cites Families (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US1322290A (en) 1919-11-18 Collapsible box
US1856634A (en) 1930-03-13 1932-05-03 Jeannette S Hartig Confection container
US1922354A (en) 1931-11-30 1933-08-15 Package Box Company Box construction
US2728450A (en) 1952-11-26 1955-12-27 Thomas B Haire Transparent jacket for mailing magazines
US2822973A (en) 1953-05-27 1958-02-11 St Joe Paper Company Box lid attachment clip
US2771237A (en) 1955-05-17 1956-11-20 Stanley J Philipson Carton with tie means
US3301621A (en) 1965-10-14 1967-01-31 James H Stephenson Transparent container for books, magazines and the like
US3991902A (en) 1975-05-29 1976-11-16 Ford Jr Edward B Latch for pan covers
US4067493A (en) 1976-08-30 1978-01-10 A & G Manufacturers, Inc. Carton handle and top retainer
US4290524A (en) 1979-12-19 1981-09-22 Charles Azar Video magazine and package therefor
US4369882A (en) 1981-06-19 1983-01-25 Modular Magazine Sampling Systems, Inc. Container for product samples
US4669610A (en) 1986-01-13 1987-06-02 Conair Corporation Package assembly
US4711348A (en) 1986-04-24 1987-12-08 Allen Schluger Container for product samples
US4838425A (en) 1987-12-17 1989-06-13 Warner-Lambert Company Tamper indicator for a blister package
US5022522A (en) 1990-04-06 1991-06-11 Kennedy Kimberly C Book and sound recording holder
US5209349A (en) 1990-08-07 1993-05-11 Richard M. Applebaum Device and method for distribution of consumer samples with publications
US5716075A (en) 1995-11-07 1998-02-10 Evert, Jr.; John R. Binding product holder
US5762191A (en) 1997-03-06 1998-06-09 Rafael Etzion Packaging structure for decorative bow
US6112900A (en) 1998-07-01 2000-09-05 Ocusoft, Inc. Care kit for contact lens wearers
FR2824535B1 (fr) 2001-05-09 2003-09-26 Oreal Emballage pour presentation groupee d'au moins deux articles
US20040089579A1 (en) 2002-11-12 2004-05-13 Berliner Todd D. Product packaging and display system and method having engaging means for structural display support
US7230629B2 (en) 2003-11-06 2007-06-12 Behr Process Corporation Data-driven color coordinator
US7264123B2 (en) 2004-05-10 2007-09-04 Thomas Reed Container and method of containing
US20070051651A1 (en) 2005-09-08 2007-03-08 Avc Corporation Environmental packaging advantage
US7604354B1 (en) * 2006-05-10 2009-10-20 Ligon Thomas R Three-dimensional projection apparatus using coaxial optical alignment
US7621402B2 (en) 2006-12-29 2009-11-24 Sandow Media, Llc Print media display package with combined merchandise display
US9086785B2 (en) * 2007-06-08 2015-07-21 Apple Inc. Visualization object receptacle
WO2009003225A1 (en) 2007-06-29 2009-01-08 Adelaide Research & Innovation Pty Ltd Method and system for generating a 3d model from images
US20090299960A1 (en) 2007-12-21 2009-12-03 Lineberger William B Methods, systems, and computer program products for automatically modifying a virtual environment based on user profile information
US10872322B2 (en) 2008-03-21 2020-12-22 Dressbot, Inc. System and method for collaborative shopping, business and entertainment
KR101380783B1 (ko) 2008-08-22 2014-04-02 정태우 영상에 포함된 객체를 식별하여 부가 서비스를 제공하는 시스템
FR2942407B1 (fr) * 2009-02-23 2011-08-05 Oreal Procede de photomaquillage et composition de photomaquillage
US8292733B2 (en) * 2009-08-31 2012-10-23 Disney Enterprises, Inc. Entertainment system providing dynamically augmented game surfaces for interactive fun and learning
DE102010007037A1 (de) 2010-02-07 2011-08-11 Fritz Egger Gmbh & Co. Og Anordnung und Verfahren zur Visualisierung von Dekoren in einem virtuellen Raum
US8295555B2 (en) 2010-05-14 2012-10-23 Automated Vision, Llc Systems and methods for processing of coverings such as leather hides and fabrics for furniture and other products
CN202206470U (zh) * 2011-08-02 2012-04-25 杭州恒胜电子科技有限公司 一种图像融合控制器
US9483853B2 (en) 2012-05-23 2016-11-01 Glasses.Com Inc. Systems and methods to display rendered images
US9817305B2 (en) * 2012-07-12 2017-11-14 Cj Cgv Co., Ltd. Image correction system and method for multi-projection
US9352888B2 (en) 2012-09-07 2016-05-31 William Mitchell Scott Shipping container with grips and locking ports
US9365337B2 (en) 2014-02-14 2016-06-14 Bridget Fullan Reusable gift packaging
US9690370B2 (en) * 2014-05-05 2017-06-27 Immersion Corporation Systems and methods for viewport-based augmented reality haptic effects
CN106664465B (zh) 2014-07-09 2020-02-21 郑芝娟 用于创建和再现增强现实内容的系统以及使用其的方法
CN206583415U (zh) 2014-07-29 2017-10-24 苹果公司 确定反射表面的均匀度的系统、表面分析设备和系统
KR101967075B1 (ko) 2014-08-26 2019-04-08 노차르, 인코포레이티드 난연층 및 열 차단층을 갖는 선적 컨테이너
US10094650B2 (en) * 2015-07-16 2018-10-09 Hand Held Products, Inc. Dimensioning and imaging items
US11062383B2 (en) * 2016-05-10 2021-07-13 Lowe's Companies, Inc. Systems and methods for displaying a simulated room and portions thereof
US10685492B2 (en) * 2016-12-22 2020-06-16 Choi Enterprise, LLC Switchable virtual reality and augmented/mixed reality display device, and light field methods
US10875697B2 (en) 2017-09-27 2020-12-29 Material Technologies Corporation Material storage and transport system
US11314399B2 (en) 2017-10-21 2022-04-26 Eyecam, Inc. Adaptive graphic user interfacing system
GB201719862D0 (en) * 2017-11-29 2018-01-10 Yellow Line Parking Ltd Hierarchical image interpretation system
US11650354B2 (en) 2018-01-14 2023-05-16 Light Field Lab, Inc. Systems and methods for rendering data from a 3D environment
US10475250B1 (en) 2018-08-30 2019-11-12 Houzz, Inc. Virtual item simulation using detected surfaces
WO2020051252A1 (en) * 2018-09-04 2020-03-12 Lutron Technology Company Llc Control of motorized window treatments and lighting color
US11503256B2 (en) 2019-09-04 2022-11-15 Material Technologies Corporation Object feature visualization apparatus and methods
WO2021046153A1 (en) 2019-09-04 2021-03-11 Material Technologies Corporation Object feature visualization apparatus and methods

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003157290A (ja) * 2001-11-20 2003-05-30 Burein:Kk イメージシミュレーション用処理方法、イメージシミュレーション用処理システム、イメージシミュレーション用処理プログラム及び記録媒体
JP2018185414A (ja) * 2017-04-26 2018-11-22 セイコーエプソン株式会社 プロジェクターおよびプロジェクターの制御方法
JP2019053450A (ja) * 2017-09-13 2019-04-04 長屋土地開発株式会社 内装材受注システム
JP2018085118A (ja) * 2017-12-12 2018-05-31 ソニー株式会社 情報処理装置、情報処理方法およびプログラム

Also Published As

Publication number Publication date
KR20220007672A (ko) 2022-01-18
EP3983848A1 (en) 2022-04-20
US20210067752A1 (en) 2021-03-04
US20230199160A1 (en) 2023-06-22
US20230276037A1 (en) 2023-08-31
US20210400245A1 (en) 2021-12-23
WO2021046153A1 (en) 2021-03-11
US11683459B2 (en) 2023-06-20
EP3983848A4 (en) 2022-05-11
US11622096B2 (en) 2023-04-04

Similar Documents

Publication Publication Date Title
US11503256B2 (en) Object feature visualization apparatus and methods
JP2022544679A (ja) 対象特徴可視化装置及び方法
US11367250B2 (en) Virtual interaction with three-dimensional indoor room imagery
KR102186899B1 (ko) 공간 인식에 기반한 인테리어 플랫폼 제공 방법
US11875464B2 (en) Systems and methods for scene-independent augmented reality interfaces
US20170140484A1 (en) Virtual or augmented reality customization system and method
CN105139213A (zh) 一种实体空间的虚拟装饰组合系统
US9965800B1 (en) Display of an electronic representation of a physical object in a virtual environment
CN112001997B (zh) 一种家具的展示方法和装置
US10803630B2 (en) Image processing system, method, and program
US11488373B2 (en) System and method of providing a customizable virtual environment
CA3145342A1 (en) Method and apparatus for displaying item information in current space, and medium
WO2023196395A1 (en) Real-time visualization of a virtual scene controllable through physical objects
JP2023544622A (ja) 対象特徴可視化装置及び方法
CN110660136A (zh) 基于vr设备的虚拟房屋装修方法、vr设备及存储介质
JP2017033317A (ja) 建築素材画像処理システム、方法、及びプログラム
US10553011B2 (en) Image processing system, method, and program
US20240029148A1 (en) Systems and methods for visualizing products in a user's space
US12002181B2 (en) System and method of providing a customizable virtual environment
US20230360332A1 (en) Augmented reality decorating system
CN113283045A (zh) 物品展示处理方法、装置及电子设备
WO2019089704A1 (en) Blended physical and virtual realities

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220216

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230317

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230428

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230728

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231024

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240521