JP2023544622A - 対象特徴可視化装置及び方法 - Google Patents

対象特徴可視化装置及び方法 Download PDF

Info

Publication number
JP2023544622A
JP2023544622A JP2023521474A JP2023521474A JP2023544622A JP 2023544622 A JP2023544622 A JP 2023544622A JP 2023521474 A JP2023521474 A JP 2023521474A JP 2023521474 A JP2023521474 A JP 2023521474A JP 2023544622 A JP2023544622 A JP 2023544622A
Authority
JP
Japan
Prior art keywords
floor covering
feature
computing device
data
video mapped
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023521474A
Other languages
English (en)
Inventor
アイ. サンドウ、アダム
Original Assignee
マテリアル テクノロジーズ コーポレイション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US17/066,838 external-priority patent/US11503256B2/en
Application filed by マテリアル テクノロジーズ コーポレイション filed Critical マテリアル テクノロジーズ コーポレイション
Publication of JP2023544622A publication Critical patent/JP2023544622A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/3147Multi-projection systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3185Geometric adjustment, e.g. keystone or convergence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

Figure 2023544622000001
対象特徴可視化システムは、物理的対象上に投影するためにビデオマッピングされた画像を生成する計算デバイスを含み得る。ビデオマッピングされた画像は、対象上に投影されるべき特徴を含み得る。物理的対象上へのビデオマッピングされた画像の投影により、対象上の特徴の可視化が可能になる。いくつかの実例では、計算デバイスは、特定の対象についての特徴選択を受信し、ビデオマッピングされた画像を物理的対象上に投影するためにプロジェクタに与えるために、選択された特徴をもつビデオマッピングされた画像を生成する。いくつかの実例では、ユーザは、ユーザ・インターフェースを介してルーム・ディスプレイの1つ又は複数の対象についての1つ又は複数の特徴を選択することが可能である。本システムは、その場合、選択された特徴をもつビデオマッピングされた画像を物理的対象上に投影する。本システムにより、ユーザが、特徴選択を保存し、選択された特徴をもつ対象についての追加の情報を購入するか又は要求することが可能になり得る。

Description

本特許協力条約出願は、その内容全体が参照により本明細書に組み込まれる、2020年10月9日に出願した「OBJECT FEATURE VISUALIZATION APPARATUS AND METHODS」という名称の米国特許出願第17/066,838号の優先権を主張するものである。
本開示は、一般に、インテリア及びエクステリア・デザインのためのシステムに関し、より詳細には、インテリア及びエクステリア・デザインのための対象のデジタル表示に関する。
ファブリック、床、塗装、家庭用品、又は他のデザイン素材など、デザイン素材の製造業者及び供給業者は、広告目的のためにそれらの素材の画像をしばしば表示する。たとえば、デザイン素材は、デザイナー(たとえば、インテリア又はエクステリア・デザイナー)、並びにエンド・ユーザ(たとえば、住宅所有者、店など)など、潜在顧客に広告され得る。素材の画像は、たとえば、業界誌など雑誌に、ショールームに、又は会議において表示され得る。素材の画像は、製造業者の又は供給業者のウェブサイトなど、ウェブサイトにも表示され得る。いくつかの実例では、デザイン素材を含むビデオが表示され得る。たとえば、デザイン素材の製造業者又は供給業者は、ショールームにおいて潜在顧客にそれらのデザイン素材のプロモーション・ビデオを表示し得る。
いくつかの実例では、計算デバイスは少なくとも1つのプロセッサを含む。少なくとも1つのプロセッサは、少なくとも1つの対象についての少なくとも1つの特徴の選択を識別する第1のデータを受信するように構成される。第1のデータを受信したことに応答して、少なくとも1つのプロセッサは、少なくとも1つの特徴で少なくとも1つの対象を特徴づけるビデオマッピングされた画像を取得するように構成される。少なくとも1つのプロセッサはまた、ビデオマッピングされた画像を少なくとも1つの投影デバイスに与えるように構成され、投影デバイスは、ビデオマッピングされた画像を少なくとも1つの対象上に投影するように構成される。
いくつかの実例では、システムは、ルーム・ディスプレイと、ルーム・ディスプレイ上に画像を投影するように構成された投影デバイスと、投影デバイスに通信可能に結合された計算デバイスとを含む。計算デバイスは、少なくとも1つの対象を含むシーンの画像を表示するように構成される。計算デバイスは、少なくとも1つの対象の選択を識別する第1のデータを受信し、受信された第1のデータに応答して、少なくとも1つの対象についての複数の特徴カテゴリーを表示のために与えるようにさらに構成される。計算デバイスはまた、複数の特徴カテゴリーのうちの第1の特徴カテゴリーの選択を識別する第2のデータを受信するように構成される。受信された第2のデータに応答して、計算デバイスは、第1の特徴カテゴリーに対応する複数の特徴を表示のために与えるように構成される。さらに、計算デバイスは、第1の特徴カテゴリーに対応する複数の特徴のうちの第1の特徴の選択を識別する第3のデータを受信し、受信された第3のデータに応答して、第1の特徴で少なくとも1つの対象を特徴づけるビデオマッピングされた画像を取得するように構成される。計算デバイスはまた、取得されたビデオマッピングされた画像を投影デバイスに与えるように構成される。
いくつかの実例では、方法は、少なくとも1つの対象についての少なくとも1つの特徴の選択を識別する第1のデータを受信することを含む。本方法はまた、第1のデータを受信したことに応答して、少なくとも1つの特徴で少なくとも1つの対象を特徴づけるビデオマッピングされた画像を取得することを含む。さらに、本方法は、ビデオマッピングされた画像を少なくとも1つの投影デバイスに与えることを含み、投影デバイスは、ビデオマッピングされた画像を少なくとも1つの対象上に投影するように構成される。
いくつかの実例では、方法は、少なくとも1つの対象を含むシーンの画像を表示することを含む。本方法はまた、少なくとも1つの対象の選択を識別する第1のデータを受信することと、受信された第1のデータに応答して、少なくとも1つの対象についての複数の特徴カテゴリーを表示のために与えることとを含む。本方法は、複数の特徴カテゴリーのうちの第1の特徴カテゴリーの選択を識別する第2のデータを受信することをさらに含む。受信された第2のデータに応答して、本方法は、第1の特徴カテゴリーに対応する複数の特徴を表示のために与えることを含む。さらに、本方法は、第1の特徴カテゴリーに対応する複数の特徴のうちの第1の特徴の選択を識別する第3のデータを受信することと、受信された第3のデータに応答して、第1の特徴で少なくとも1つの対象を特徴づけるビデオマッピングされた画像を取得することとを含む。本方法はまた、取得されたビデオマッピングされた画像を投影デバイスに与えることを含む。
いくつかの実例では、非一時的機械可読記憶媒体は、少なくとも1つのプロセッサによって実行されたとき、少なくとも1つのプロセッサに、少なくとも1つの対象についての少なくとも1つの特徴の選択を識別する第1のデータを受信することを含む動作を実行させる命令を記憶する。動作は、第1のデータを受信したことに応答して、少なくとも1つの特徴で少なくとも1つの対象を特徴づけるビデオマッピングされた画像を取得することをも含む。さらに、動作は、ビデオマッピングされた画像を少なくとも1つの投影デバイスに与えることを含み、投影デバイスは、ビデオマッピングされた画像を少なくとも1つの対象上に投影するように構成される。
いくつかの実例では、非一時的機械可読記憶媒体は、少なくとも1つのプロセッサによって実行されたとき、少なくとも1つのプロセッサに、少なくとも1つの対象の選択を識別する第1のデータを受信することと、受信された第1のデータに応答して、少なくとも1つの対象についての複数の特徴カテゴリーを表示のために与えることとを含む動作を実行させる命令を記憶する。動作は、複数の特徴カテゴリーのうちの第1の特徴カテゴリーの選択を識別する第2のデータを受信することをさらに含む。受信された第2のデータに応答して、動作は、第1の特徴カテゴリーに対応する複数の特徴を表示のために与えることを含む。さらに、動作は、第1の特徴カテゴリーに対応する複数の特徴のうちの第1の特徴の選択を識別する第3のデータを受信することと、受信された第3のデータに応答して、第1の特徴で少なくとも1つの対象を特徴づけるビデオマッピングされた画像を取得することとを含む。動作は、取得されたビデオマッピングされた画像を投影デバイスに与えることをも含む。
いくつかの実例では、計算デバイスは少なくとも1つのプロセッサを含む。少なくとも1つのプロセッサは、床敷物(floor covering)についての少なくとも1つの特徴の選択を識別する第1のデータを受信するように構成される。第1のデータを受信したことに応答して、少なくとも1つのプロセッサはまた、少なくとも1つの特徴で床敷物を特徴づけるビデオマッピングされた画像を取得するように構成される。さらに、少なくとも1つのプロセッサは、ビデオマッピングされた画像を少なくとも1つの投影デバイスに与えるように構成され、投影デバイスは、ビデオマッピングされた画像を床敷物上に投影するように構成される。
いくつかの実例では、方法は、床敷物についての少なくとも1つの特徴の選択を識別する第1のデータを受信することを含む。本方法は、第1のデータを受信したことに応答して、少なくとも1つの特徴で床敷物を特徴づけるビデオマッピングされた画像を取得することをさらに含む。さらに、本方法は、ビデオマッピングされた画像を少なくとも1つの投影デバイスに与えることを含み、投影デバイスは、ビデオマッピングされた画像を床敷物上に投影するように構成される。
いくつかの実例では、非一時的機械可読記憶媒体は、少なくとも1つのプロセッサによって実行されたとき、少なくとも1つのプロセッサに床敷物についての少なくとも1つの特徴の選択を識別する第1のデータを受信することを含む動作を実行させる命令を記憶する。動作は、第1のデータを受信したことに応答して、少なくとも1つの特徴で床敷物を特徴づけるビデオマッピングされた画像を取得することをさらに含む。さらに、動作は、ビデオマッピングされた画像を少なくとも1つの投影デバイスに与えることを含み、投影デバイスは、ビデオマッピングされた画像を床敷物上に投影するように構成される。
本開示の特徴及び利点は、以下の例示的な実施例の詳細な説明において、より十分に開示されるか、又はそれによって明らかにされる。例示的な実施例の詳細な説明は添付の図面と一緒に検討されるべきであり、同様の番号は同様の部分を指す。
いくつかの実施例による、対象特徴可視化システムを示す図である。 いくつかの実施例による、図1の対象特徴可視化システムの対象特徴可視化計算デバイスの実例を示す図である。 いくつかの実施例による、図1の対象特徴可視化システムの例示的な部分を示す図である。 いくつかの実施例による、図2の対象特徴可視化計算デバイスによって与えられ得る例示的なユーザ・インターフェースを示す図である。 いくつかの実施例による、ルーム・ディスプレイ中の対象の実例を示す図である。 いくつかの実施例による、図4Aのルーム・ディスプレイ中の対象のうちの少なくともいくつかの例示的な対象特徴可視化を示す図である。 いくつかの実施例による、ルーム・ディスプレイ中の対象の実例を示す図である。 いくつかの実施例による、図5Aのルーム・ディスプレイ中の対象のうちの少なくともいくつかの例示的な対象特徴可視化を示す図である。 いくつかの実施例による、図1の対象特徴可視化システムによって実行され得る例示的な方法を示す図である。 いくつかの実施例による、図1の対象特徴可視化システムによって実行され得る別の例示的な方法を示す図である。 いくつかの実施例による、図1の対象特徴可視化システムによって実行され得る、また別の例示的な方法を示す図である。 いくつかの実施例による、対象特徴可視化システムを示す図である。 いくつかの実施例による、図9の対象特徴可視化システムによって実行され得る例示的な方法を示す図である。 いくつかの実施例による、図9の対象特徴可視化システムによって実行され得る別の例示的な方法を示す図である。
好ましい実施例の説明は、これらの開示の明細書全体の一部と考えられるべき、添付の図面とともに読まれるべきものである。しかしながら、本開示は、開示されている特定の形態に限定されるものではないことが理解されるべきである。むしろ、本開示は、これらの例示的な実施例の趣旨及び範囲内に入るすべての改変、等価物、及び代替を包含する。
本説明において、「水平」、「垂直」、「上」、「下」、「上部」、「下部」などの相対語、並びにそれらの派生語(たとえば、「水平方向に」、「下方に」、「上方に」など)は、そのときに説明されているか又は説明中の図に示されている向きを指すと解釈されるべきである。これらの相対語は、説明の便宜のためのものであり、通常、特定の向きを必要とするものではない。「内側に」対「外側に」、「縦方向」対「横方向」などを含む用語は、適宜、互いに対して、又は長手軸(axis of elongation)又は回転軸若しくは回転中心に対して解釈されるべきである。「結合する」、「結合される」、「動作可能に結合される」、「動作可能に接続される」などの用語は、接続により、関係するデバイス又は構成要素が、その関係によって意図された通りに互いと動作する(たとえば、通信する)ことが可能になるように、機械的に、電気的に、有線で、無線で、又は他の形のいずれかで、デバイス又は構成要素を互いに接続することを指すと広く理解されるべきである。
図面を見ると、図1は、対象特徴可視化計算デバイス102と、複数のプロジェクタ104A、104B、104C、104D、104Eと、データベース116とを含む、対象特徴可視化システム100のブロック図を示す。各プロジェクタは、たとえば、デジタル・ライト・プロセッシング(DLP)プロジェクタ、液晶ディスプレイ(LCD)プロジェクタ、又は任意の他の好適な画像投影デバイスであり得る。この実例では、5つのプロジェクタ104が示されているが、他の実例では、異なるプロジェクタの数が対象特徴可視化システム100によって採用され得る。対象特徴可視化計算デバイス102は通信ネットワーク118を介してデータベース116に通信可能に結合され得る。通信ネットワーク118は、WiFi(登録商標)ネットワーク、3GPP(登録商標)ネットワークなどセルラー・ネットワーク、Bluetooth(登録商標)ネットワーク、衛星ネットワーク、ワイヤレス・ローカル・エリア・ネットワーク(LAN)、無線周波数(RF)通信プロトコルを利用するネットワーク、近距離通信(NFC)ネットワーク、複数のワイヤレスLANを接続するワイヤレス・メトロポリタン・エリア・ネットワーク(MAN)、ワイド・エリア・ネットワーク(WAN)、又は任意の他の好適なネットワークであり得る。通信ネットワーク118は、たとえば、インターネットへのアクセスを与えることができる。対象特徴可視化計算デバイス102は、データを通信ネットワーク118に送信し、通信ネットワーク118からデータを受信し得る。
対象特徴可視化計算デバイス102はまた、有線又は無線ネットワークを介してなど、プロジェクタ104に通信可能に結合され得る。示されていないが、いくつかの実例では、対象特徴可視化計算デバイス102は、通信ネットワーク118を介してプロジェクタ104に通信可能に結合される。
対象特徴可視化計算デバイス102は、情報を処理し、操作するためのハードウェア、又はハードウェア及びソフトウェアを含み得る。たとえば、対象特徴可視化計算デバイス102は、1つ又は複数のプロセッサ、1つ又は複数のフィールドプログラマブル・ゲート・アレイ(FPGA)、1つ又は複数の特定用途向け集積回路(ASIC)、1つ又は複数の状態機械、デジタル回路、又は任意の他の好適な回路を含み得る。いくつかの実例では、対象特徴可視化計算デバイス102は、たとえば、ウェブ・サーバ、アプリケーション・サーバ、クラウドベース・サーバ、ワークステーション、ラップトップ、タブレット、携帯電話などモバイル・デバイス、又は任意の他の好適な計算デバイスであり得る。
図2は対象特徴可視化計算デバイス102のさらなる詳細を示す。図2に示されているように、対象特徴可視化計算デバイス102は、すべて1つ又は複数のデータ・バス208に動作可能に結合された、1つ又は複数のプロセッサ201と、ワーキング・メモリ202と、1つ又は複数の入出力デバイス203と、命令メモリ207と、トランシーバ204と、1つ又は複数の通信ポート207と、ディスプレイ206とを含み得る。データ・バス208は様々なデバイスの間の通信を可能にする。データ・バス208は有線又は無線通信チャネルを含むことができる。
プロセッサ201は、各々が1つ又は複数のコアを有する、1つ又は複数の別個のプロセッサを含むことができる。別個のプロセッサの各々は同じ又は異なる構造を有することができる。プロセッサ201は、1つ又は複数の中央処理ユニット(CPU)、1つ又は複数のグラフィックス処理ユニット(GPU)、特定用途向け集積回路(ASIC)、デジタル信号プロセッサ(DSP)などを含むことができる。
プロセッサ201は、機能又は動作を実施する、命令メモリ207に記憶された、コードを実行することによって、ある機能又は動作を実行するように構成され得る。たとえば、プロセッサ201は、本明細書で開示するいずれかの機能、方法、又は動作のうちの1つ又は複数を実行するように構成され得る。
命令メモリ207は、プロセッサ201によってアクセスされ(たとえば、読み出され)、実行され得る命令を記憶することができる。たとえば、命令メモリ207は、読取り専用メモリ(ROM)、電気的消去可能プログラマブル読取り専用メモリ(EEPROM)、フラッシュ・メモリ、リムーバブル・ディスク、CD-ROM、任意の不揮発性メモリ、又は任意の他の好適なメモリなど、非一時的コンピュータ可読記憶媒体であり得る。
プロセッサ201は、データをワーキング・メモリ202に記憶し、ワーキング・メモリ202からデータを読み取ることができる。たとえば、プロセッサ201は、命令メモリ207からロードされた命令など、命令のワーキング・セットをワーキング・メモリ202に記憶することができる。プロセッサ201は、対象特徴可視化計算デバイス102の動作中に作成される動的データを記憶するためにもワーキング・メモリ202を使用することができる。ワーキング・メモリ202は、スタティック・ランダム・アクセス・メモリ(SRAM)又はダイナミック・ランダム・アクセス・メモリ(DRAM)、又は任意の他の好適なメモリなど、ランダム・アクセス・メモリ(RAM)であり得る。
入出力デバイス203は、データ入力又は出力を可能にする任意の好適なデバイスを含み得る。たとえば、入出力デバイス203は、キーボード、タッチパッド、マウス、スタイラス、タッチスクリーン、物理ボタン、スピーカー、マイクロフォン、又は任意の他の好適な入力又は出力デバイスのうちの1つ又は複数を含み得る。
通信ポート207は、たとえば、ユニバーサル非同期受信機/送信機(UART)接続、ユニバーサル・シリアル・バス(USB)接続、又は任意の他の好適な通信ポート又は接続など、シリアル・ポートを含むことができる。いくつかの実例では、通信ポート207は、命令メモリ207中の実行可能命令のプログラミングを可能にする。いくつかの実例では、通信ポート207は、対象特徴可視化計算デバイス102によって表示される素材についての記憶された素材データなど、データの転送(たとえば、アップロード又はダウンロード)を可能にする。
ディスプレイ206はユーザ・インターフェース205を表示することができる。ユーザ・インターフェース205は、対象特徴可視化計算デバイス102とのユーザ対話を可能にすることができる。たとえば、ユーザ・インターフェース205は、素材の画像並びに素材データの閲覧及び操作を可能にするアプリケーションのためのユーザ・インターフェースであり得る。いくつかの実例では、ユーザは、入出力デバイス203をエンゲージすることによってユーザ・インターフェース205と対話することができる。
トランシーバ204は、図1の通信ネットワーク118など、ネットワークとの通信を可能にする任意の好適な通信ユニットであり得る。いくつかの実例では、トランシーバ204は、対象特徴可視化計算デバイス102が動作している通信ネットワーク118のタイプに基づいて選択される。たとえば、図1の通信ネットワーク118がWiFi(登録商標)ネットワークである場合、トランシーバ204は、WiFi(登録商標)ネットワークを用いた通信を可能にするように構成される。プロセッサ201は、トランシーバ204を介して、図1の通信ネットワーク118など、ネットワークからデータを受信するか、又はデータをネットワークに送るように動作可能である。
図1に戻ると、対象特徴可視化システム100は、実際の対象上に画像をビデオマッピングする(たとえば、3Dプロジェクション・マッピングする)ことによって、対象(たとえば、床、壁、家具、固定具、アイテム)が異なる対象特徴とともにどのように見えるかをシミュレートすることができる。特徴は、たとえば、素材(たとえば、カーペット、タイル、木材)、ファブリック、色、パターン、デザイン要素、又は任意の他の対象特徴を含み得る。いくつかの実例では、対象特徴可視化システム100は、物理ルーム・ディスプレイ中の物理的対象の仮想選択を可能にする。対象特徴可視化システム100はまた、選択された対象についての特定の特徴の選択を可能にし得る。対象特徴可視化システム100は、対象についての選択された特徴に基づいて画像を生成し、生成された画像を物理的対象上にビデオマッピングし得る。たとえば、対象特徴可視化システム100は、異なる色、素材、仕上げ、又はパターンをミニルーム・ディスプレイの家具、壁、及び床上にリアルタイムで投影し得る。利点として、対象特徴可視化システム100は、人が、ビデオマッピング・プロジェクションを介して変動する特徴を組み込んだ部屋の対象とともに部屋がどのように見えるかを観察し、可視化することを可能にし得る。たとえば、投影される対象は、異なるライティング(たとえば昼光対夜間又は夕暮れ光)におけるテクスチャ(たとえばカーペット対タイル、ファブリック対レザー、異なる色)、シェーディング又はシャドーイング、及び仕上げを正確に表現し得る。さらに、投影される対象は、1つ又は複数の対象についての特徴の様々な組合せを表現し得る。たとえば、対象特徴可視化システム100は、選択された特徴をルーム・ディスプレイ中の家具上に投影し、別の選択された特徴を壁上に投影し、及び別の選択された特徴を床上に投影し得る。別の実例では、対象特徴可視化システム100は、キッチン・キャビネットについての第1の色、素材、仕上げ、又はパターン、及び調理台についての第2の色、素材、仕上げ又はパターンなど、選択された対象についての2つ以上の特徴の選択を可能にし得る。様々な特徴は、ユーザによってリアルタイムで選択され、変更され得る。したがって、対象特徴可視化システム100は、人が、様々な投影された特徴とともに対象がどのように見えるかを検討することによってインテリア・デザイン選定を行うことを可能にし得る。
いくつかの実例では、対象特徴可視化計算デバイス102は、1つ又は複数のプロジェクタ104A、104B、104Cなどに、1つ又は複数のビデオマッピングされた画像をルーム・ディスプレイ150の1つ又は複数の対象上に投影させ得る。たとえば、ルーム・ディスプレイ150は、後壁171、側壁175、床173、額縁152、椅子154、テーブル156、ラグマット158、棚160、及び花瓶162など、様々な対象を含むことができる。示されている対象は例にすぎず、決して本開示を限定するものでない。
いくつかの実例では、プロジェクタ104A、104B、104Cなどは、画像をルーム・ディスプレイ150の一部分に向けるために事前構成される(たとえば、配向させられ、位置決めされる)。たとえば、プロジェクタ104Aは、ビデオマッピングされた画像を側壁175と椅子154とのうちの1つ又は複数上に投影するように事前構成され得る。同様に、プロジェクタ104Bは、ビデオマッピングされた画像をラグマット158とテーブル156と後壁171の部分とのうちの1つ又は複数上に投影するように事前構成され得、プロジェクタ104Cは、ビデオマッピングされた画像をフロア173の部分と後壁171の部分とのうちの1つ又は複数上に投影するように事前構成され得、プロジェクタ104Dは、ビデオマッピングされた画像を棚160と花瓶162とのうちの1つ又は複数上に投影するように事前構成され得、プロジェクタ104Eは、ビデオマッピングされた画像を後壁171の部分と床173とのうちの1つ又は複数上に投影するように事前構成され得る。いくつかの実例では、対象特徴可視化計算デバイス102は各プロジェクタ104の投影方向を制御することができる。たとえば、対象特徴可視化計算デバイス102は、プロジェクタ104の対応する画像投影の方向及び/又はズームを制御するためにプロジェクタ104の各々にメッセージを送るように動作可能であり得る。
対象特徴可視化計算デバイス102は、たとえば、各対象についての1つ又は複数の特徴の選択に基づいて、ビデオマッピングされた画像をプロジェクタ104A、104B、104Cなどの各々に与え得る。実例として、対象特徴可視化計算デバイス102は、椅子154についての、白など、色の選択を受信し得る。応答して、対象特徴可視化計算デバイス102は、椅子154上に投影されるために、白い椅子の画像を含むビデオマッピングされた画像をプロジェクタ104Aに与え得る。
図3Aは、ルーム・ディスプレイ150の対象など、シーン中の対象を決定し得る、図1の対象特徴可視化システム100の例示的な部分を示す。この実例では、対象特徴可視化計算デバイス102は通信ネットワーク118を介して複数のカメラに通信可能に結合されている。特に、対象特徴可視化計算デバイス102は、カメラ302A、カメラ302B、及びカメラ302Cに通信可能に結合されている。カメラ302A、302B、302Cの各々は、シーンのフルカラー画像をキャプチャするように構成されたフルカラー・カメラ、ビデオ・カメラ、又は任意の他の好適なカメラであり得る。この実例では、3つのカメラ302A、302B、302Cが示されているが、他の実例は、より少ない又はより多いカメラ302を含み得る。カメラ302の各々は、ルーム・ディスプレイ150の少なくとも一部分をキャプチャするように構成され得る。たとえば、カメラ302Aは、ルーム・ディスプレイ150の左部分をキャプチャするように構成され得、カメラ302Bは、ルーム・ディスプレイ150の中間部分をキャプチャするように構成され得、カメラ302Cは、ルーム・ディスプレイ150の右部分をキャプチャするように構成され得る。いくつかの実例では、カメラ302の各々の視野は、(図3Aに破線によって示されているように)少なくとも部分的に、互いに重複し得る。いくつかの実例では、カメラの各々の視野は互いに重複しない。
いくつかの実例では、対象位置データ310がデータベース116にあらかじめ記憶され得る。たとえば、ルーム・ディスプレイ150中の各対象の位置は、事前決定され、データベース116に記憶され得る。たとえば、対象位置データ310は、側壁175、後壁171、椅子154、及びテーブル156など、複数の対象の各々の位置(たとえば、輪郭)を識別し得る。
いくつかの実例では、事前決定された対象位置データ310を利用するのではなく、又はそれを利用することに加えて、カメラ302は、画像をキャプチャし、画像内の対象を識別するためにリアルタイムで利用され得る。たとえば、対象特徴可視化計算デバイス102は、カメラ302のうちの1つ又は複数から1つ又は複数の画像を受信し、画像中の対象を識別し得る。対象を検出するために、対象特徴可視化計算デバイス102は、任意の好適な対象検出技法又はプロセスを採用し得る。たとえば、対象特徴可視化計算デバイス102は、画像中の対象を識別するために、配向勾配ヒストグラム(histogram of oriented gradient)(HOG)に基づいて特徴を識別し、対象を決定するための分類子を含むものなど、1つ又は複数の機械学習ベースの手法を採用し得る。いくつかの実例では、対象特徴可視化計算デバイス102は、画像中の対象を識別するために、畳み込みニューラル・ネットワーク(convolutional neural network)(CNN)に基づくものなど、1つ又は複数のディープラーニング・ベースの手法を採用し得る。採用された技法又はプロセスに基づいて、対象特徴可視化計算デバイス102は、カメラ302によって与えられた画像内の各対象の位置を識別するデータを生成し得る。たとえば、対象特徴可視化計算デバイス102は、特定のカメラ302からの画像内の対象を含むか又は輪郭を描く座標を識別する座標データを生成し得る。いくつかの実例では、対象特徴可視化計算デバイス102は、画像中の対象を含むか又は輪郭を描くピクセル位置を識別するピクセル・データを生成する。
1つ又は複数のカメラ302からの検出された対象に基づいて、対象特徴可視化計算デバイス102は、ルーム・ディスプレイ150中の各検出された対象の位置を識別し、特徴づける対象位置データ310を生成する。たとえば、対象特徴可視化計算デバイス102は、対象をもつ画像をキャプチャしたカメラの視野(たとえば、ルーム・ディスプレイ150のどのくらい又はどの部分をカメラ302がキャプチャしているか)、キャプチャされた画像内の対象の位置を識別するデータ、及びルーム・ディスプレイ150の寸法(たとえば、全高、全長、及び全幅など3D寸法)に基づいて、ルーム・ディスプレイ150中の各対象の位置を決定し得る。対象特徴可視化計算デバイス102は対象位置データ310をデータベース116に記憶し得る。
各事前決定されたか又は検出された対象についての対象位置データ310に基づいて、対象特徴可視化計算デバイス102は、ビデオマッピングされた画像を生成し、対応するプロジェクタ104に、ビデオマッピングされた画像を対象上に投影させ得る。たとえば、特定の対象についての対象位置データ310に基づいて、対象特徴可視化計算デバイス102は、特定のプロジェクタ104によって投影されたときに、対象位置データ310によって識別された物理的対象のみの上に投影する、ビデオマッピングされた画像を生成し得る。生成されたビデオマッピングされた画像は、(たとえば、異なる色、異なる素材、異なるパターンなど)選択された特徴をもつ対象のオーバーレイを含み得る。
たとえば、データベース116に記憶される対象特徴選択データ312は、ルーム・ディスプレイ150中の複数の対象の各々についての特徴を識別し得る。対象特徴選択データ312は、たとえば、対象特徴可視化計算デバイス102によって事前構成され、データベース116に記憶され得る。図3Bに関して以下で説明するように、ユーザは、特定の対象について、対象特徴選択データ312によって識別され、特徴づけられた特徴を選択し得る。選択された特徴に基づいて、対象特徴可視化計算デバイス102は、選択された特徴(たとえば、後壁171など、壁対象のために選択された色)を含む特定の対象上に投影するために、ビデオマッピングされた画像を生成し得る。対象特徴可視化計算デバイス102は、その場合、特定の対象上に投影するように構成されたプロジェクタ(たとえば、後壁171の部分上に投影するためのプロジェクタ104C)など、プロジェクタ104に、ビデオマッピングされた画像を特定の対象上に投影させ得る。いくつかの実例では、2つ以上のプロジェクタ104が、画像を対象上に投影するように構成される(たとえば、プロジェクタ104B、104C、104Eなどが後壁171上に投影する)場合、対象特徴可視化計算デバイス102は、各そのようなプロジェクタ104についてビデオマッピングされた画像を生成し、生成されたビデオマッピングされた画像の各々は特徴を含む。
いくつかの実例では、対象特徴可視化計算デバイス102は、特定のプロジェクタ104によって投影されるときに、複数の対象上に投影するビデオマッピングされた画像を生成し得る。たとえば、ビデオマッピングされた画像は、各対象についての色又は素材など、各対象について選択された特徴を含み得る。いくつかの実例では、対象特徴可視化計算デバイス102は、対象に当たらない領域(たとえば、対象の間の領域)上に投影するであろうビデオマッピングされた画像の部分から、すべての明るさ及び色(たとえば、ルミナンス(luminance)及びクロミナンス(chrominance))を取り除く。
図3Bは、たとえば、対象特徴可視化計算デバイス102の(図2に示されているように)ディスプレイ206上に表示され得る、例示的なユーザ・インターフェース205を示す。たとえば、ディスプレイ206はタッチスクリーンであり得、ユーザ・インターフェース205は、タッチスクリーン上に表示され、ユーザ・タッチに基づくユーザ入力を可能にする。いくつかの実例では、ユーザ入力は1つ又は複数の入出力デバイス203によって与えられ得る。図3Bに示されているように、ユーザ・インターフェース205は、対象選択ペイン352と、特徴選択ペイン354と、ユーザ・コマンド・ペイン355とを含み得る。
対象選択ペイン352はルーム・ディスプレイ150の1つ又は複数の対象を表示し得る。いくつかの実例では、対象選択ペイン352は、対象(たとえば、事前構成された対象、又は対象特徴可視化計算デバイス102が、対象位置データ310によって識別される、カメラ302から受信された画像中で検出した対象)の選択可能なリストを表示する。表示された対象の少なくとも一部分をエンゲージすること(たとえば、タッチすること)によって、ユーザは対象を選択し得る。
いくつかの実例では、対象選択ペイン352はルーム・ディスプレイ350の画像を表示する。たとえば、対象特徴可視化計算デバイス102は、カメラ302から受信された画像に基づいて画像をレンダリングし、レンダリングされた画像を対象選択ペイン352中に表示し得る。いくつかの実例では、ルーム・ディスプレイ350の画像は、事前決定され、表示のためにデータベース116に記憶される。表示されたルーム・ディスプレイ350の画像は、ユーザが、たとえば、表示された対象の少なくとも一部分をエンゲージすること(たとえば、タッチすること)によって、画像中に表示された1つ又は複数の対象を選択することを可能にし得る。
この実例では、ユーザが対象を選択したとき、特徴選択ペイン354は、1つ又は複数の特徴カテゴリー、及びユーザが選択し得る各特徴カテゴリーについての1つ又は複数の可能な特徴で自動的に更新する。たとえば、対象選択ペイン352中の選択された対象に基づいて、特徴選択ペイン354は、素材356と色358とパターン360とを含む特徴カテゴリーを表示し得る。表示された特徴カテゴリーは、対象のタイプと、対象のそのタイプについての可能な特徴とに基づき得る。さらに、各特徴カテゴリーは、その特徴カテゴリーに対応する1つ又は複数の特徴を含み得、ユーザは、対象についての各カテゴリーについての特徴を選択することができる。各特徴カテゴリー、及び対応する各対象についての特徴は、たとえば、データベース116に記憶され得る対象特徴選択データ312によって識別され、特徴づけられ得る。
たとえば、ユーザは、ルーム・ディスプレイ350のテーブル156を選択するために対象選択ペイン352を使用すると仮定する。特徴選択ペイン354は、その場合、素材356と色358とパターン360とを含む特徴カテゴリーを自動的に更新し、表示し得る。ユーザは、その場合、素材356の下で素材(たとえば、木材又はプラスチック)を選択し、色358の下で色(たとえば、白又は黒)を選択し、パターン360の下でパターン(たとえば、花又は海洋テーマ)を選択することが可能であり得る。ユーザはまた、特定の特徴カテゴリーの下で特徴を選択しないことを決定し得る。その場合、対象特徴可視化計算デバイス102は、選択された特徴のみをもつ対象上に投影するためにビデオマッピングされた画像を生成するであろう。
ユーザ・コマンド・パネル355は、選択を保存するアイコン357を含み得る。選択を保存するアイコン357は、ユーザによってエンゲージさせられた(たとえば、タッチされた)場合、対象特徴可視化計算デバイス102に、ユーザのための選択された対象についての選択された特徴を保存させる。選択された特徴は、たとえば、データベース116に保存され得、ユーザのためのアカウントに関連付けられ得る。
いくつかの実例では、ユーザ・コマンド・パネル355は、カートに選択を追加するアイコン359を含み得る。カートに選択を追加するアイコン359は、選択された特徴をもつ対象をオンライン・ショッピング・カートに追加することによって、選択された特徴をもつ選択された対象の購入を促進する。
いくつかの実例では、オンライン・ショッピング・カートは、ユーザが、オンライン・ショッピング・カートに追加された配置されたそれらのアイテムについて発注することを可能にし得る。いくつかの実例では、直接発注するのではなく、発注により、対象特徴可視化計算デバイス102が、オンライン・カート中の各対象の各製造業者に通信を送信する。通信は、電子メール(eメール)、ショート・メッセージ・サービス(SMS)メッセージ、又は任意の他の好適な通信であり得る。通信は、ユーザと、対象と、対象の選択された特徴とを識別し得る。通信は、その場合、製造業者、小売業者、及び/又はそれらの代理店のうちの1つが、選択された特徴をもつ対象の販売、又はそれについての追加の情報についてユーザに連絡することを可能にし得る。いくつかの実例では、通信は、製造業者、小売業者、及び/又は他の代理店連絡先情報とともにユーザに送信される。
図4Aは、ルーム・ディスプレイ402の前に物理的に立っている人の視点からのルーム・ディスプレイ402を示す。ルーム・ディスプレイ402は、対象のいずれかの上への対象特徴可視化計算デバイス102による任意のビデオマッピングされた画像の投影の前の、ルーム中に複数の対象を含む。たとえば、ルーム・ディスプレイ402は、対象のうち、椅子404と、第1の椅子用枕406と、第2の椅子用枕408と、棚410と、床412と、壁414とを含む。椅子404、第1の椅子用枕406、及び第2の椅子用枕408は、第1の色420での第1のパターン418をもつ第1の素材416を含む。いくつかの実施例では、第1の素材416、第1のパターン418及び第1の色420は、ビデオマッピングされた画像の最適投影を可能にするように選択され得る。たとえば、第1のパターン418及び第1の色420は無地の白であり得るが、第1の素材416は最適表示プロパティから選択され得る。
図4Bは、図4Aの同じルーム・ディスプレイ402を示すが、椅子404と第1の椅子用枕406と第2の椅子用枕408との上への対象特徴可視化計算デバイス102によるビデオマッピングされた画像の投影を伴う。たとえば、対象特徴可視化計算デバイス102は、(椅子404と第1の椅子用枕406と第2の椅子用枕408とを含む)ルーム・ディスプレイ402中の対象をユーザ・インターフェース205など、ユーザ・インターフェース上に表示し得る。ユーザは椅子404を選択し得、ユーザ・インターフェースは椅子404についての特徴のカテゴリーを表示し得る。たとえば、特徴カテゴリーは、素材(たとえば、素材356)と、パターン(たとえば、パターン360)と、色(たとえば、色358)とを含み得る。素材カテゴリーは、第1の素材416及び第2の素材456のための選択を含み得る。パターン・カテゴリーは、第1のパターン418及び第2のパターン458のための選択を含み得る。色カテゴリーは、第1の色420及び第2の色460のための選択を含み得る。ユーザは、特徴カテゴリーのうちの1つ又は複数についての特徴を選択し得る。
この実例では、ユーザは、椅子404についての第2の素材456と、第2のパターン458と、第2の色460とを選択する。応答して、対象特徴可視化計算デバイス102は、第2の素材456と第2のパターン458と第2の色460とを含む椅子404についての対象位置データに基づいて、ビデオマッピングされた画像を生成する。対象特徴可視化計算デバイス102は、プロジェクタ104のうちの1つなど、画像を椅子404上に投影するように構成されたプロジェクタに、生成されたビデオマッピングされた画像を与え得る。たとえば、プロジェクタ104がビデオマッピングされた画像を椅子404上に投影したとき、図4Bに示されているように、椅子404は、ルーム・ディスプレイ402を物理的に観察している外側の人には、第1の素材416と第1のパターン418と第1の色420とではなく、第2の素材456と第2のパターン458と第2の色460とを有するように見えるであろう。
同様に、ユーザは第1の椅子用枕406を選択し得、ユーザ・インターフェースは第1の椅子用枕406についての特徴のカテゴリーを表示し得、各カテゴリーは第1の椅子用枕406についての選択可能な特徴を含む。この実例では、ユーザは、第1の椅子用枕406についての第2の素材456と、第2のパターン458と、第2の色460とを選択する。応答して、対象特徴可視化計算デバイス102は、第2の素材456と第2のパターン458と第2の色460とを含む、第1の椅子用枕406についての対象位置データに基づいて、ビデオマッピングされた画像を生成する。対象特徴可視化計算デバイス102は、プロジェクタ104のうちの1つなど、画像を第1の椅子用枕406上に投影するように構成されたプロジェクタに、生成されたビデオマッピングされた画像を与え得る。
ユーザはまた、第2の椅子用枕408を選択し得、ユーザ・インターフェースは、第2の椅子用枕408についての特徴のカテゴリーを表示し得、各カテゴリーは、第2の椅子用枕408についての選択可能な特徴を含む。この実例では、ユーザは、第2の椅子用枕408についての第2の素材456と、第2のパターン458と、第2の色460とを選択する。応答して、対象特徴可視化計算デバイス102は、第2の素材456と第2のパターン458と第2の色460とを含む第2の椅子用枕408についての対象位置データに基づいて、ビデオマッピングされた画像を生成する。対象特徴可視化計算デバイス102は、プロジェクタ104のうちの1つなど、画像を第2の椅子用枕408上に投影するように構成されたプロジェクタに、生成されたビデオマッピングされた画像を与え得る。
図5Aは、ルーム・ディスプレイ502の前に物理的に立っている人の視点からのルーム・ディスプレイ502を示す。ルーム・ディスプレイ502は、対象のいずれかの上への対象特徴可視化計算デバイス102による任意のビデオマッピングされた画像の投影の前の、ルーム中に複数の対象を含む。たとえば、ルーム・ディスプレイ502は、対象のうち、シャワー・タイル504と、壁タイル506と、化粧テーブル(vanity)508と、フレーム510とを含む。壁タイル506は、第1の色520での第1のパターン518をもつ第1の素材516を含む。いくつかの実施例では、第1の素材516、第1のパターン518、及び第1の色520は、ビデオマッピングされた画像の最適投影を可能にするように選択され得る。たとえば、第1のパターン518及び第1の色520は無地の白であり得、第1の素材516は最適表示特性のために選択され得る。
図5Bは、図5Aの同じルーム・ディスプレイ502を示すが、壁タイル506上への対象特徴可視化計算デバイス102によるビデオマッピングされた画像の投影を伴う。たとえば、対象特徴可視化計算デバイス102は、(壁タイル506を含む)ルーム・ディスプレイ502中の対象を、ユーザ・インターフェース205など、ユーザ・インターフェース上に表示し得る。ユーザは壁タイル506を選択し得、ユーザ・インターフェースは壁タイル506についての特徴のカテゴリーを表示し得る。たとえば、特徴カテゴリーは、素材(たとえば、素材356)と、パターン(たとえば、パターン360)と、色(たとえば、色358)とを含み得る。素材カテゴリーは、第1の素材516及び第2の素材556のための選択を含み得る。パターン・カテゴリーは、第1のパターン518及び第2のパターン558のための選択を含み得る。色カテゴリーは、第1の色520及び第2の色560のための選択を含み得る。ユーザは、特徴カテゴリーのうちの1つ又は複数についての特徴を選択し得る。
この実例では、ユーザは、壁タイル506について、第2の色560の色カテゴリー特徴を選択する。ユーザは、素材カテゴリー特徴又はパターン・カテゴリー特徴を選択しない。応答して、対象特徴可視化計算デバイス102は、第2の色560を含む壁タイル506についての対象位置データに基づいて、ビデオマッピングされた画像を生成する。対象特徴可視化計算デバイス102は、複数のプロジェクタ104など、画像を壁タイル506上に投影するように構成された複数のプロジェクタに、生成されたビデオマッピングされた画像を与え得る。たとえば、対象特徴可視化計算デバイス102は、画像を後壁570上に投影することができる第1のプロジェクタのためのビデオマッピングされた画像を生成し、画像を側壁580上に投影することができる第2のプロジェクタのための別のビデオマッピングされた画像を生成し得る。第1のプロジェクタ及び第2のプロジェクタがビデオマッピングされた画像を壁タイル506のそれぞれの部分上に投影したとき、壁タイル506は、図5Bに示されているように、ルーム・ディスプレイ502を物理的に観察している外側の人には、第1の色520ではなく第2の色560を有するように見えるであろう。
いくつかの実例では、素材についての特徴カテゴリーは、素材のタイプ別(たとえば、繊維、塗装、積層、セラミック、木材、レザー、石、樹脂、フィルム、ガラス、コンクリート、ビニル、ゴム、コルク、真珠及び貝殻、紙など)、用途別(たとえば、壁被覆、室内装飾材料(upholstery)、床、カーペット、装飾(trim)、室内、室外、商業、住宅など)、他の特徴別(たとえば、防汚、耐水性、再生含有物(recycled content)、低いVOCなど)、及び/又は商標又は製造業者別を含むことができる。特徴カテゴリーはまた、色カテゴリー(たとえば、グレー、青、赤など)又はパターン・カテゴリー(たとえば、ストライプ、動物プリントなど)を含むことができる。特徴カテゴリーはまた、テーマ(たとえば、ビクトリア朝、アール・デコ、田舎、海岸など)を含むことができる。
図6は、たとえば、図1の対象特徴可視化計算デバイス102によって実行され得る例示的な方法600のフローチャートを示す。ステップ602において開始して、画像データが少なくとも1つのカメラから受信される。たとえば、対象特徴可視化計算デバイス102が画像データを1つ又は複数のカメラ302から受信し得る。ステップ604において、受信された画像データ中の少なくとも1つの対象が決定される。たとえば、対象特徴可視化計算デバイス102は、カメラ302から受信された画像データ中の少なくとも1つの対象を識別するために、1つ又は複数の機械学習又はディープラーニング・ベースのプロセスを実行し得る。ステップ606に進むと、少なくとも1つの対象の少なくとも1つの特徴についての選択が受信される。実例として、対象特徴可視化計算デバイス102は、図3Bに関して上記で説明したように、ディスプレイ206上にユーザ・インターフェース205を表示し、ユーザが対象についての1つ又は複数の特徴を選択することを可能にし得る。
ステップ608において、選択された少なくとも1つの特徴で少なくとも1つの対象を特徴づけるビデオマッピングされた画像が生成される。たとえば、対象特徴可視化計算デバイス102は、物理的対象上に投影されたときに、投影されたビデオマッピングされた画像が、物理的対象の外観を、選択された特徴に従って変化させるように、選択された特徴に基づいて、ビデオマッピングされた画像を生成し得る。ステップ610に進むと、生成されたビデオマッピングされたデータを少なくとも1つの対象上に投影するように、少なくとも1つの投影デバイスが向けられる。実例として、対象特徴可視化計算デバイス102は、ルーム・ディスプレイ150中に位置する椅子154など、対応する物理的対象上に画像を投影するように構成されたプロジェクタ104に、生成されたビデオマッピングされた画像を与え得る。いくつかの実例では、対象特徴可視化計算デバイス102は、プロジェクタ104がビデオマッピングされた画像を対応する物理的対象上に投影するように、対象特徴可視化計算デバイス102の画像投影の方向及びズームを調整するようにプロジェクタを制御し得る。
図7は、たとえば、図1の対象特徴可視化計算デバイス102によって実行され得る別の例示的な方法700のフローチャートを示す。ステップ702において開始して、少なくとも1つの対象を含むシーンの画像が表示される。たとえば、対象特徴可視化計算デバイス102は、図3Bに関して上記で説明したように、ルーム・ディスプレイ150中の対象を表示する対象選択ペイン352を含む、ディスプレイ206上のユーザ・インターフェース205を表示し得る。
ステップ704において、少なくとも1つの対象の選択が受信される。実例として、対象特徴可視化計算デバイス102は、図3Bに関して上記で説明したように、ユーザが対象を選択することを可能にする対象選択ペイン352を含む、ディスプレイ206上のユーザ・インターフェース205を表示し得る。ステップ706において、少なくとも1つの対象についての複数の特徴カテゴリーが表示される。実例として、対象特徴可視化計算デバイス102は、図3Bに関して上記で説明したように、ユーザが対象についての1つ又は複数の特徴を選択することを可能にする特徴選択ペイン354を含む、ディスプレイ206上のユーザ・インターフェース205を表示し得る。
ステップ708において、表示された複数の特徴カテゴリーのうちの1つの特徴カテゴリーの選択が受信される。たとえば、ユーザは、特徴選択ペイン354中に表示された複数の特徴カテゴリーのうちの1つをエンゲージし得、応答して、対象特徴可視化計算デバイス102が、選択された特徴カテゴリーを受信する。ステップ710において、選択された特徴カテゴリーについての複数の特徴が表示される。たとえば、特徴選択ペイン354は、ユーザが特徴カテゴリーを選択したときに特徴カテゴリーについての特徴を表示する、ドロップダウン・メニューを含み得る。ステップ712において、選択された特徴カテゴリーについての表示された複数の特徴のうちの1つの特徴の選択が受信される。たとえば、ユーザが、ドロップダウン・メニュー中の特徴のうちの1つを選択し得、応答して、対象特徴可視化計算デバイス102が、選択された特徴を受信する。
ステップ714に進むと、ビデオマッピングされた画像が、位置に基づいて取得される。ビデオマッピングされた画像は、選択された特徴で少なくとも1つの対象を特徴づける画像データを含む。たとえば、対象特徴可視化計算デバイス102は、選択された対象と選択された特徴とに対応する事前決定された対象ビデオ画像データ315を取得し得る。事前決定された対象ビデオ画像データ315は、たとえば、以前に生成され、データベース116に記憶されていることがある。ステップ716において、取得されたビデオマッピングされた画像を少なくとも1つの対象上に投影するように、少なくとも1つの投影デバイスが向けられる。たとえば、対象特徴可視化計算デバイス102は、ルーム・ディスプレイ150中に位置する後壁171など、対応する物理的対象上に画像を投影するように構成されたプロジェクタ104に、取得されたビデオマッピングされた画像を与え得る。いくつかの実例では、対象特徴可視化計算デバイス102は、プロジェクタ104がビデオマッピングされた画像を対応する物理的対象上に投影するように、対象特徴可視化計算デバイス102の画像投影の方向及び/又はズームを調整するようにプロジェクタを制御し得る。
図8は、たとえば、図1の対象特徴可視化計算デバイス102によって実行され得る別の例示的な方法800のフローチャートを示す。ステップ802において開始して、対象特徴可視化計算デバイス102が、ユーザが(たとえば、オンライン・ショッピング・カートを介して)発注したという兆候を受信する。ユーザは、ユーザ・インターフェース205の、カートに選択を追加するアイコン359を使用して、オンライン・ショッピング・カート中に入れられた対象を発注していることがある。ステップ804において、兆候に応答して、対象特徴可視化計算デバイス102が、オンライン・カート中の各対象に関連する製造業者を決定する。たとえば、対象特徴可視化計算デバイス102は、データベース116に記憶された対象データに基づいて各製造業者を決定し得る。対象データは、製造業者の識別、及び、いくつかの実例では、各対象についての利用可能な特徴を含む、各対象についての情報を含み得る。ステップ806において、対象特徴可視化計算デバイス102が、オンライン・カート中の各対象の各製造業者に通信を送信する。通信は、電子メール、SMSメッセージ、又は任意の他の好適な通信であり得る。各通信は、ユーザと、各対応する対象と、各対象についての任意の選択された特徴とを識別し得る。通信は、各製造業者が、選択された特徴をもつ各対象の販売、又は各対象についての追加の情報について、ユーザに連絡することを可能にし得る。
図9は、通信リンク910を介して1つ又は複数のプロジェクタ104に通信可能に結合された対象特徴可視化計算デバイス102を含む、対象特徴可視化システム900のブロック図を示す。いくつかの実施例では、1つ又は複数のプロジェクタ104は、図9に示すように、単一のプロジェクタであり得る。通信リンク910は、有線の、又は無線のリンクであり得る。たとえば、通信リンク910は、一端が対象特徴可視化計算デバイス102に、他端がプロジェクタ104に結合されたケーブル(たとえば、USBケーブル)であり得る。別の実例として、通信リンク910は、WiFi(登録商標)又はBluetooth(登録商標)通信リンクなどの無線通信リンクであり得る。
プロジェクタ104は、この実例では、ブラケット904を使用して、ルーム・ディスプレイ950の天井902に取り付けられる。しかしながら、他の実例では、プロジェクタ104は、任意の他の適切な構造物によって天井902に取り付けられ得る。ルーム・ディスプレイ950はまた、後壁971、側壁975、床973、椅子154、及び床敷物906を含み得る。床敷物906は、ラグマット(たとえば、部分ラグマット(area rug))、カーペット(たとえば、部分カーペット(area carpet))、又は任意の他の適切な床敷物であり得る。
この実例では、対象特徴可視化計算デバイス102は、プロジェクタ104に、1つ又は複数の画像(たとえば、ビデオマッピングされた画像)を床敷物906上に投影させ得る。各投影画像は、床敷物906の正確な又はほぼ正確な寸法と一致し得る。いくつかの実例では、対象特徴可視化計算デバイス102は、画像を床敷物906の一部分上に投影し得る。
いくつかの実例では、プロジェクタ104は、画像を床敷物906上に投影するように事前構成される(たとえば、配向させられ、位置決めされる)。いくつかの実例では、対象特徴可視化計算デバイス102は、プロジェクタ104の投影方向を制御することができる。たとえば、データベース116内に記憶された対象位置データ310は、ルーム・ディスプレイ950内の(たとえば、プロジェクタ104の位置に対する)床敷物906の位置(たとえば、3次元位置)を識別し得る。対象特徴可視化計算デバイス102は、データベース116から床敷物906についての対象位置データ310を取得し、取得された対象位置データ310に基づいて床敷物106上に画像を投影するようにプロジェクタ104の向き(たとえば、投影方向、投影角度、ズーム設定など)を決定し得る。さらに、対象特徴可視化計算デバイス102は、決定された向きを識別する向きデータを生成し、通信リンク910を介して向きデータを含むメッセージ(たとえば、コマンド)をプロジェクタ104に送信し得る。プロジェクタ104はメッセージを受信し、メッセージ内の向きデータに基づいて、その向きを調整し得る。
さらに、対象特徴可視化計算デバイス102は、たとえば、床敷物906についての1つ又は複数の特徴の選択(たとえば、ユーザ・インターフェース205の特徴選択ペイン354を介して)に基づいて、プロジェクタ104に画像を与え得る。一実例として、対象特徴可視化計算デバイス102は、床敷物906について、綿布などファブリックの選択を受信し得る。選択を受信したことに応答して、対象特徴可視化計算デバイス102は、床敷物906上に投影されるべき画像をプロジェクタ104に与え得る。床敷物906がラグマットであると仮定すると、その画像は、綿布のラグマット画像(たとえば、床敷物106上に投影されたときに綿布のラグマットの様相を与える画像)を含み得る。
いくつかの実例では、対象特徴可視化計算デバイス102は、床敷物906についての複数の特徴を受信する。たとえば、対象特徴可視化計算デバイス102は、床敷物906の、ファブリック、及び色(たとえば、茶色)の選択を受信し得る。選択を受信したことに応答して、対象特徴可視化計算デバイス102は、床敷物906上に投影されるべき画像をプロジェクタ104に与え得る。床敷物906がラグマットであると仮定すると、画像は、白い綿布のラグマット画像(たとえば、床敷物106上に投影されたときに白い綿布のラグマットの様相を与える画像)、模様のある綿布のラグマット画像、青いハイパイル・ラグマット画像、青いローパイル・ラグマット画像、又は所望の特性(たとえば色、テクスチャなど)を描写するあらゆる他のラグマット画像を含み得る。
図10は、たとえば、図1の対象特徴可視化計算デバイス102によって実行され得る例示的な方法1000のフローチャートを示す。ステップ1002において開始して、床敷物(たとえば、床敷物906)についての複数の特徴が表示される。たとえば、対象特徴可視化計算デバイス102のユーザ・インターフェース205は、床敷物906について、図3Bに関して上記で説明したように、特徴選択ペイン354内に複数の特徴を表示し得る。ステップ1004において、複数の特徴のうちの1つの特徴の選択が(たとえば、特徴選択ペイン354内で特徴を選択するユーザによって)受信される。
ステップ1006に進むと、選択された特徴で床敷物を特徴づけるビデオマッピングされた画像が取得される。たとえば、データベース116は、複数のビデオマッピングされた画像を含み得、各ビデオマッピングされた画像は1つ又は複数の特徴で床敷物を特徴づける。対象特徴可視化計算デバイス102は、選択された特徴を含むビデオマッピングされた画像を決定し、決定されたビデオマッピングされた画像をデータベース116から取得し得る。
ステップ1008において、投影デバイスは、取得されたビデオマッピングされた画像を床敷物上に投影するように向けられる。一実例として、対象特徴可視化計算デバイス102は、取得されたビデオマッピングされた画像を、ルーム・ディスプレイ950中に位置する床敷物906上に画像を投影するように構成されたプロジェクタ104に与え得る。いくつかの実例では、対象特徴可視化計算デバイス102は、プロジェクタ104がビデオマッピングされた画像を床敷物上に投影するように、プロジェクタ104の画像投影の方向及びズームを調整するようにプロジェクタ104を制御し得る。
図11は、たとえば、図1の対象特徴可視化計算デバイス102によって実行され得る例示的な方法1000のフローチャートを示す。ステップ1102において開始して、床敷物(たとえば、床敷物906)についての複数の特徴のうちの1つの特徴の選択が受信される。たとえば、対象特徴可視化計算デバイス102のユーザ・インターフェース205は、図3Bに関して上記で説明したように、特徴選択ペイン354内に床敷物についての複数の特徴を表示し得、それにより、ユーザが特徴の1つ又は複数を選択し得る。
ステップ1104において、選択された特徴で床敷物を特徴づけるビデオマッピングされた画像が取得される。たとえば、データベース116は、複数のビデオマッピングされた画像を含み、各ビデオマッピングされた画像は、1つ又は複数の特徴で床敷物を特徴づけ得る。対象特徴可視化計算デバイス102は、選択された特徴を含むビデオマッピングされた画像を決定し、決定されたビデオマッピングされた画像をデータベース116から取得し得る。
ステップ1106において、投影デバイスは、取得されたビデオマッピングされた画像を床敷物上に投影するように向けられる。一実例として、対象特徴可視化計算デバイス102は、取得されたビデオマッピングされた画像を、ルーム・ディスプレイ950中に位置する床敷物906上に画像を投影するように構成されたプロジェクタ104に与え得る。いくつかの実例では、対象特徴可視化計算デバイス102は、プロジェクタ104がビデオマッピングされた画像を床敷物上に投影するように、プロジェクタ104の画像投影の方向及びズームを調整するようにプロジェクタ104を制御し得る。
ステップ1108に進むと、ユーザが選択された特徴を保存することを決定したかどうかについて決定が行われる。たとえば、対象特徴可視化計算デバイス102は、図3Bに関して上記で説明したように、ユーザがユーザ・インターフェース205のユーザ・コマンド・ペイン355内の選択を保存するアイコン357をエンゲージしたかどうかを決定し得る。ユーザが選択を保存していない場合、本方法はステップ1102に戻り、そこで床敷物について同じ、又は異なる特徴の選択が受信される。さもなければ、ユーザが選択を保存している(たとえば、ユーザが、選択を保存するアイコン357をエンゲージしている)場合、本方法はステップ1110に進む。
ステップ1110において、追加の特徴が選択されることになっているかどうかについて決定が行われる。追加の特徴が選択されることになっている場合、本方法はステップ1102に戻り、そこで床敷物についての同じ、又は異なる特徴の別の選択が受信される。しかしながら、追加の特徴が選択される予定がない場合は、本方法は終了する。たとえば、対象特徴可視化計算デバイス102は、図3Bに関して上記で説明したように、ユーザが、ユーザ・インターフェース205の特徴選択ペイン354内の別の特徴をエンゲージするか、それともそうせずにユーザ・インターフェース205のユーザ・コマンド・ペイン355内の、カートに選択を追加するアイコン359をエンゲージするかを決定し得る。
いくつかの実例では、対象特徴可視化計算デバイス102など、計算デバイスは、少なくとも1つの対象についての少なくとも1つの特徴の選択を識別する第1のデータを受信し、第1のデータを受信したことに応答して、少なくとも1つの特徴で少なくとも1つの対象を特徴づけるビデオマッピングされた画像を取得するように構成された、少なくとも1つのプロセッサを含む。少なくとも1つのプロセッサはまた、ビデオマッピングされた画像を少なくとも1つの投影デバイスに与えるように構成され、投影デバイスは、ビデオマッピングされた画像を少なくとも1つの対象上に投影するように構成される。
いくつかの実例では、少なくとも1つのプロセッサは、少なくとも1つのカメラから画像データを受信し、受信された画像データに1つ又は複数の機械学習又はディープラーニング・ベースのプロセスを適用することに基づいて、受信された画像データ中の少なくとも1つの対象を決定するようにさらに構成される。いくつかの実例では、計算デバイスは、特徴を識別するために、受信された画像データに配向勾配ヒストグラム(HOG)を適用することと、少なくとも1つの対象を決定するために、識別された特徴に分類子を適用することとに基づいて、受信された画像データ中の少なくとも1つの対象を決定する。
いくつかの実例では、少なくとも1つのプロセッサは、受信された画像データ内の各対象の位置を識別する位置データを生成することによって、受信された画像データ中の少なくとも1つの対象を決定するように構成される。
いくつかの実例では、少なくとも1つのプロセッサは、位置データに基づいて、ビデオマッピングされた画像を生成することによって、ビデオマッピングされた画像を少なくとも1つの投影デバイスに与えるように構成される。計算デバイスはまた、ビデオマッピングされた画像を、データベース116など、データベースに記憶するように構成される。
いくつかの実例では、少なくとも1つのプロセッサは、複数の対象を識別する対象選択データを表示のために与えるように構成され、各対象はルーム・ディスプレイ中の物理的対象に対応し、複数の対象は少なくとも1つの対象を含む。いくつかの実例では、少なくとも1つのプロセッサは、少なくとも1つの対象の選択を識別する第2のデータを受信するように構成され、受信された第2のデータに応答して、少なくとも1つのプロセッサは、少なくとも1つの対象についての複数の特徴を識別する特徴選択データを表示のために与えるように構成され、複数の特徴は少なくとも1つの特徴を含む。
いくつかの実例では、少なくとも1つのプロセッサは、少なくとも1つの特徴の選択を識別する第3のデータを受信するように構成され、少なくとも1つの特徴で少なくとも1つの対象を特徴づけるビデオマッピングされた画像を取得することは、第3のデータに基づいて、少なくとも1つの対象を特徴づける複数のビデオマッピングされた画像からビデオマッピングされた画像を選択することを含む。
いくつかの実例では、システムは、ルーム・ディスプレイと、画像をルーム・ディスプレイに投影するように構成された投影デバイスと、少なくとも1つの投影デバイスに通信可能に結合された計算デバイスとを含む。計算デバイスは、少なくとも1つの対象を含むシーンの画像を表示するように構成される。計算デバイスはまた、少なくとも1つの対象の選択を識別する第1のデータを受信し、受信された第1のデータに応答して、少なくとも1つの対象についての複数の特徴カテゴリーを表示のために与えるように構成される。計算デバイスは、複数の特徴カテゴリーのうちの第1の特徴カテゴリーの選択を識別する第2のデータを受信し、受信された第2のデータに応答して、第1の特徴カテゴリーに対応する複数の特徴を表示のために与えるようにさらに構成される。計算デバイスはまた、第1の特徴カテゴリーに対応する複数の特徴のうちの第1の特徴の選択を識別する第3のデータを受信し、受信された第3のデータに応答して、第1の特徴で少なくとも1つの対象を特徴づけるビデオマッピングされた画像を取得するように構成される。計算デバイスは、取得されたビデオマッピングされた画像を投影デバイスに与えるようにさらに構成される。
いくつかの実例では、計算デバイスは、第3のデータに基づいて、データベースに記憶された複数のビデオマッピングされた画像からビデオマッピングされた画像を選択するように構成され、複数のビデオマッピングされた画像の各々は、変動する特徴で少なくとも1つの対象を特徴づける。
いくつかの実例では、計算デバイスは、投影デバイスがビデオマッピングされた画像を少なくとも1つの対象上に投影するように、投影デバイスの方向を調整するように構成される。
いくつかの実例では、少なくとも1つの対象は、壁、床、固定具、家具、装飾、又は他のインテリア・デザイン要素を含む。いくつかの実例では、少なくとも1つの対象についての少なくとも1つの特徴は、素材、色、仕上げ、又はパターンのタイプのうちの少なくとも1つから選択される。
いくつかの実例では、計算デバイスは、投影デバイスから画像データを受信し、受信された画像データに1つ又は複数の機械学習又はディープラーニング・ベースのプロセスを適用することに基づいて、受信された画像データ中の少なくとも1つの対象を決定するように構成される。
いくつかの実例では、受信された画像データ中の少なくとも1つの対象を決定することは、特徴を識別するために、受信された画像データに配向勾配ヒストグラム(HOG)を適用することと、少なくとも1つの対象を決定するために、識別された特徴に分類子を適用することとを含む。
いくつかの実例では、受信された画像データ中の少なくとも1つの対象を決定することは、受信された画像データ内の各対象の位置を識別する位置データを生成することを含む。いくつかの実例では、ビデオマッピングされた画像を少なくとも1つの投影デバイスに与えることは、位置データに基づいて、ビデオマッピングされた画像を生成することを含む。いくつかの実例では、計算デバイスはビデオマッピングされた画像をデータベースに記憶する。
いくつかの実例では、方法は、少なくとも1つの対象についての少なくとも1つの特徴の選択を識別する第1のデータを受信することと、第1のデータを受信したことに応答して、少なくとも1つの特徴で少なくとも1つの対象を特徴づけるビデオマッピングされた画像を取得することとを含む。本方法はまた、ビデオマッピングされた画像を少なくとも1つの投影デバイスに与えることを含み、投影デバイスは、ビデオマッピングされた画像を少なくとも1つの対象上に投影するように構成される。
いくつかの実例では、本方法は、少なくとも1つのカメラから画像データを受信することと、受信された画像データに1つ又は複数の機械学習又はディープラーニング・ベースのプロセスを適用することに基づいて、受信された画像データ中の少なくとも1つの対象を決定することとを含む。
いくつかの実例では、本方法は、1つ又は複数の機械学習又はディープラーニング・ベースのプロセスを適用することと、特徴を識別するために、受信された画像データに配向勾配ヒストグラム(HOG)を適用することと、少なくとも1つの対象を決定するために、識別された特徴に分類子を適用することとを含む。
いくつかの実例では、受信された画像データ中の少なくとも1つの対象を決定することは、受信された画像データ内の各対象の位置を識別する位置データを生成することを含む。
いくつかの実例では、ビデオマッピングされた画像を少なくとも1つの投影デバイスに与えることは、位置データに基づいて、ビデオマッピングされた画像を生成することを含む。いくつかの実例では、本方法は、ビデオマッピングされた画像をデータベースに記憶することを含む。
上記で説明した方法は、示されたフローチャートに関するものであるが、本方法に関連する行為を実行することの多くの他の方法が使用され得ることが諒解されよう。たとえば、いくつかの動作の順序は変更され得、説明された動作のうちのいくつかは随意であり得る。
さらに、本明細書で説明した方法及びシステムは、少なくとも部分的に、コンピュータ実装型プロセス、及びそれらのプロセスを実施するための装置の形態で実施され得る。開示された方法はまた、少なくとも部分的に、コンピュータ・プログラム・コードで符号化された有形非一時的機械可読記憶媒体の形態で実施され得る。たとえば、本方法のステップは、ハードウェアにおいて、プロセッサによって実行される実行可能命令(たとえば、ソフトウェア)において、又はその2つの組合せにおいて実施され得る。媒体は、たとえば、RAM、ROM、CD-ROM、DVD-ROM、BD-ROM、ハード・ディスク・ドライブ、フラッシュ・メモリ、又は任意の他の非一時的機械可読記憶媒体を含み得る。コンピュータ・プログラム・コードがコンピュータ中にロードされ、コンピュータによって実行されたとき、コンピュータは、本方法を実施するための装置になる。本方法はまた、コンピュータが、本方法を実施するための専用コンピュータになるように、少なくとも部分的に、コンピュータ・プログラム・コードがその中にロードされるか又は実行されるコンピュータの形態で実施され得る。汎用プロセッサ上に実装されたとき、コンピュータ・プログラム・コード・セグメントは、特定の論理回路を作成するようにプロセッサを構成する。本方法は、代替的に、本方法を実行するための特定用途向け集積回路中で少なくとも部分的に実施され得る。
上記は、これらの開示の実施例を図示し、説明し、記述する目的で与えられた。これらの実施例への変更及び適応は、当業者にとって明らかになり、これらの開示の範囲又は趣旨から逸脱することなく行われ得る。

Claims (20)

  1. 少なくとも1つのプロセッサを備える計算デバイスであって、前記少なくとも1つのプロセッサが、
    床敷物についての少なくとも1つの特徴の選択を識別する第1のデータを受信することと、
    前記第1のデータを受信したことに応答して、前記少なくとも1つの特徴で前記床敷物を特徴づけるビデオマッピングされた画像を取得することと、
    前記ビデオマッピングされた画像を少なくとも1つの投影デバイスに与えることと
    を行うように構成され、前記投影デバイスが、前記ビデオマッピングされた画像を前記床敷物上に投影するように構成された、計算デバイス。
  2. 前記少なくとも1つのプロセッサが、
    データベースから前記床敷物の位置データを取得することと、
    前記ビデオマッピングされた画像を前記床敷物上に投影するように、前記投影デバイスの向きを決定することと、
    前記投影デバイスに前記向きを送信することと
    を行うようにさらに構成された、請求項1に記載の計算デバイス。
  3. 前記位置データが、ルーム・ディスプレイ内の前記床敷物の位置を識別する、請求項2に記載の計算デバイス。
  4. 前記少なくとも1つの投影デバイスが、1つの投影デバイスのみからなる、請求項1に記載の計算デバイス。
  5. 前記1つの投影デバイスが、ルーム・ディスプレイの天井に取り付けられた、請求項4に記載の計算デバイス。
  6. 前記1つの投影デバイスが、前記床敷物のほぼ正確な寸法と一致するように前記床敷物上に画像を投影するように事前構成された、請求項4に記載の計算デバイス。
  7. 前記少なくとも1つのプロセッサが、
    複数の対象からの前記床敷物の選択を識別する第2のデータを受信することと、
    前記受信された第2のデータに応答して、前記床敷物についての複数の特徴を識別する特徴選択データを、表示のために与えることと
    を行うようにさらに構成され、前記複数の特徴が前記床敷物についての前記少なくとも1つの特徴を含む、請求項1に記載の計算デバイス。
  8. 前記少なくとも1つの特徴で前記床敷物を特徴づける前記ビデオマッピングされた画像を取得することが、前記第1のデータに基づいてデータベースに記憶された複数のビデオマッピングされた画像から前記ビデオマッピングされた画像を選択することを含み、前記複数のビデオマッピングされた画像が変動する特徴で前記床敷物を特徴づける、請求項1に記載の計算デバイス。
  9. 床敷物と、
    前記床敷物上に画像を投影するように構成された少なくとも1つの投影デバイスと、
    前記少なくとも1つの投影デバイスに通信可能に結合され、
    床敷物についての少なくとも1つの特徴の選択を識別する第1のデータを受信すること、
    前記第1のデータを受信したことに応答して、前記少なくとも1つの特徴で前記床敷物を特徴づけるビデオマッピングされた画像を取得すること、及び
    前記ビデオマッピングされた画像を少なくとも1つの投影デバイスに与えること
    を行うように構成された計算デバイスと
    を備え、前記投影デバイスが前記ビデオマッピングされた画像を前記床敷物上に投影するように構成された、システム。
  10. データベースを備え、前記計算デバイスが、
    前記データベースから前記床敷物の位置データを取得することと、
    前記ビデオマッピングされた画像を前記床敷物上に投影するために前記投影デバイスの向きを決定することと、
    前記向きを前記投影デバイスに送信することと
    を行うようにさらに構成された、請求項9に記載のシステム。
  11. ルーム・ディスプレイを備え、前記位置データが、前記ルーム・ディスプレイ内の前記床敷物の位置を識別する、請求項10に記載のシステム。
  12. 前記少なくとも1つの投影デバイスが、1つの投影デバイスのみからなる、請求項9に記載のシステム。
  13. ルーム・ディスプレイを備え、前記1つの投影デバイスが、ルーム・ディスプレイの天井に取り付けられた、請求項12に記載のシステム。
  14. 前記1つの投影デバイスが、前記床敷物のほぼ正確な寸法と一致するように前記床敷物上に画像を投影するように事前構成された、請求項12に記載のシステム。
  15. 前記少なくとも1つのプロセッサが、
    複数の対象からの前記床敷物の選択を識別する第2のデータを受信することと、
    前記受信された第2のデータに応答して、前記床敷物についての複数の特徴を識別する特徴選択データを表示のために与えることと
    を行うようにさらに構成され、前記複数の特徴が前記床敷物についての前記少なくとも1つの特徴を含む、請求項9に記載のシステム。
  16. データベースを備え、前記少なくとも1つの特徴で前記床敷物を特徴づける前記ビデオマッピングされた画像を取得することが、前記第1のデータに基づいて前記データベースに記憶された複数のビデオマッピングされた画像から前記ビデオマッピングされた画像を選択することを含み、前記複数のビデオマッピングされた画像が変動する特徴で前記床敷物を特徴づける、請求項9に記載のシステム。
  17. 床敷物についての少なくとも1つの特徴の選択を識別する第1のデータを受信することと、
    前記第1のデータを受信したことに応答して、前記少なくとも1つの特徴で前記床敷物を特徴づけるビデオマッピングされた画像を取得することと、
    前記ビデオマッピングされた画像を少なくとも1つの投影デバイスに与えることと
    を含み、前記投影デバイスが、前記ビデオマッピングされた画像を前記床敷物上に投影するように構成された、方法。
  18. データベースから前記床敷物の位置データを取得することと、
    前記ビデオマッピングされた画像を前記床敷物上に投影するために前記投影デバイスの向きを決定することと、
    前記投影デバイスに前記向きを送信することと
    を含む、請求項17に記載の方法。
  19. 複数の対象からの前記床敷物の選択を識別する第2のデータを受信することと、
    前記受信された第2のデータに応答して、前記床敷物についての複数の特徴を識別する特徴選択データを表示のために与えることと
    を含み、前記複数の特徴が、前記床敷物のための前記少なくとも1つの特徴を含む、請求項17に記載の方法。
  20. 前記少なくとも1つの特徴で前記床敷物を特徴づける前記ビデオマッピングされた画像を取得することが、前記第1のデータに基づいてデータベースに記憶された複数のビデオマッピングされた画像から前記ビデオマッピングされた画像を選択することを含み、前記複数のビデオマッピングされた画像が変動する特徴で前記床敷物を特徴づける、請求項17に記載の方法。
JP2023521474A 2020-10-09 2021-09-09 対象特徴可視化装置及び方法 Pending JP2023544622A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US17/066,838 2020-10-09
US17/066,838 US11503256B2 (en) 2019-09-04 2020-10-09 Object feature visualization apparatus and methods
PCT/US2021/049616 WO2022076123A1 (en) 2020-10-09 2021-09-09 Object feature visualization apparatus and methods

Publications (1)

Publication Number Publication Date
JP2023544622A true JP2023544622A (ja) 2023-10-24

Family

ID=78078415

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023521474A Pending JP2023544622A (ja) 2020-10-09 2021-09-09 対象特徴可視化装置及び方法

Country Status (3)

Country Link
EP (1) EP4226607A1 (ja)
JP (1) JP2023544622A (ja)
WO (1) WO2022076123A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220007672A (ko) 2019-09-04 2022-01-18 머티리얼 테크놀로지스 코포레이션 객체 특징부 시각화 장치 및 방법들

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010007037A1 (de) * 2010-02-07 2011-08-11 Fritz Egger Gmbh & Co. Og Anordnung und Verfahren zur Visualisierung von Dekoren in einem virtuellen Raum
US11062383B2 (en) * 2016-05-10 2021-07-13 Lowe's Companies, Inc. Systems and methods for displaying a simulated room and portions thereof
JP2019053450A (ja) * 2017-09-13 2019-04-04 長屋土地開発株式会社 内装材受注システム

Also Published As

Publication number Publication date
EP4226607A1 (en) 2023-08-16
WO2022076123A1 (en) 2022-04-14

Similar Documents

Publication Publication Date Title
US11503256B2 (en) Object feature visualization apparatus and methods
US12020353B2 (en) Object feature visualization apparatus and methods
JP7325602B2 (ja) インテリアデザインのための人工知能システム及び方法
WO2018081176A1 (en) Systems and methods for contextual three-dimensional staging
CN105139213A (zh) 一种实体空间的虚拟装饰组合系统
US20170140484A1 (en) Virtual or augmented reality customization system and method
CN112001997B (zh) 一种家具的展示方法和装置
US20180108153A1 (en) Image processing system, method, and program
US12002181B2 (en) System and method of providing a customizable virtual environment
JP2023544622A (ja) 対象特徴可視化装置及び方法
US11120618B2 (en) Display of item information in current space
JP2017033317A (ja) 建築素材画像処理システム、方法、及びプログラム
US10553011B2 (en) Image processing system, method, and program
US20240029148A1 (en) Systems and methods for visualizing products in a user's space
US11257250B2 (en) Blended physical and virtual realities
JP6693069B2 (ja) 画像表示装置、方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230530

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240326

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240409