JP2023528376A - キャプチャ画像の処理システム及び方法 - Google Patents
キャプチャ画像の処理システム及び方法 Download PDFInfo
- Publication number
- JP2023528376A JP2023528376A JP2022573155A JP2022573155A JP2023528376A JP 2023528376 A JP2023528376 A JP 2023528376A JP 2022573155 A JP2022573155 A JP 2022573155A JP 2022573155 A JP2022573155 A JP 2022573155A JP 2023528376 A JP2023528376 A JP 2023528376A
- Authority
- JP
- Japan
- Prior art keywords
- image
- mobile device
- data
- determining
- sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 58
- 238000012545 processing Methods 0.000 title abstract description 13
- 238000005259 measurement Methods 0.000 claims abstract description 50
- 238000010801 machine learning Methods 0.000 claims description 22
- 230000015654 memory Effects 0.000 claims description 19
- 238000001514 detection method Methods 0.000 claims description 10
- 238000012935 Averaging Methods 0.000 claims 1
- 230000008569 process Effects 0.000 description 29
- 238000004519 manufacturing process Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 238000013528 artificial neural network Methods 0.000 description 7
- 230000001133 acceleration Effects 0.000 description 6
- 239000011159 matrix material Substances 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000005070 sampling Methods 0.000 description 4
- 230000011218 segmentation Effects 0.000 description 4
- 238000003860 storage Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000000306 recurrent effect Effects 0.000 description 3
- 238000004088 simulation Methods 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000002547 anomalous effect Effects 0.000 description 2
- 230000000386 athletic effect Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000003708 edge detection Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 206010000117 Abnormal behaviour Diseases 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 238000013481 data capture Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000007787 long-term memory Effects 0.000 description 1
- 239000004570 mortar (masonry) Substances 0.000 description 1
- 230000000704 physical effect Effects 0.000 description 1
- 238000011002 quantification Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 239000000344 soap Substances 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/62—Analysis of geometric attributes of area, perimeter, diameter or volume
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C5/00—Measuring height; Measuring distances transverse to line of sight; Levelling between separated points; Surveyors' levels
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/08—Systems determining position data of a target for measuring distance only
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
- G06Q30/0631—Item recommendations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
- G06Q30/0641—Shopping interfaces
- G06Q30/0643—Graphical representation of items or shoppers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/64—Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Abstract
本明細書に記載されているシステム、方法及び機器は、モバイル装置によって、基準オブジェクトに対して垂直に位置するオブジェクトの画像を表示するステップと、決定された少なくとも1つの深さ測定値に基づいて、前記モバイル装置の深さセンサを使用して、前記画像がキャプチャされたときの前記モバイル装置の前記予測高さを計算するステップと、前記予測高さに基づいて前記画像のためのスケールデータを計算するステップと、前記画像内の前記オブジェクト及び前記基準オブジェクトの位置を識別する基準線を決定するステップと、前記画像内の前記オブジェクトの外部のピクセルから前記画像内の前記オブジェクトの内部のピクセルを分割するステップと、前記オブジェクトの内部の前記ピクセル及び前記スケールデータに基づいて前記オブジェクトを測定するステップと、前記オブジェクト、前記スケールデータ及び前記測定値を含む、前記モデルデータを生成するステップと、を含む画像処理を提供することができる。
Description
関連出願の相互参照
本願は、米国非仮出願であり、2020年5月29に出願された米国仮特許出願第63/031,885号及び2020年6月29日に出願された米国仮特許出願第63/045,431号に基づく優先権を主張し、そのすべての内容は参照により本願に組み込まれる。
本願は、米国非仮出願であり、2020年5月29に出願された米国仮特許出願第63/031,885号及び2020年6月29日に出願された米国仮特許出願第63/045,431号に基づく優先権を主張し、そのすべての内容は参照により本願に組み込まれる。
技術分野
本発明は、一般的に画像処理に関し、特に、画像をキャプチャする装置に基づく画像処理に関する。
本発明は、一般的に画像処理に関し、特に、画像をキャプチャする装置に基づく画像処理に関する。
今でも、ほとんどの靴の買い物はまだ実際の実店舗(オフラインショップ)で行われている。ほとんどの顧客は、店舗管理者やアシスタントと同様に、従来のショッピングの制限に慣れている。一般に、顧客は、ショッピングアシスタントに案内されて製品、在庫製品の場所、試着場所に行く。また、顧客が同じ又は異なる店舗を訪問する度に典型的な実店舗(場合によってはオンライン)でのショッピング経験を繰り返さなければならず、これは非効率性とユーザの不満を招く。
上記の背景に基づき、本発明の一部の態様の基本的な理解を提供するために、以下に本開示の簡略化された概要を示す。この概要は、本発明の詳細な説明ではない。本発明の主要要素又は重要な要素を識別するか又は本発明の範囲を記述することを意図しない。次の概要は、以下に示されるより詳細な説明の序文として、本発明の一部の概念を簡略化された形で示すにすぎない。
オンライン及び店舗で、非常に正確でユーザフレンドリーな自動又は半自動のアパレル及び履物フィッティング解決案を提供するシステム又は方法を持つことが非常に有利である。本発明の実施形態によれば、パーソナライズされたオンライン製品フィッティングを提供する機器、システム、及び方法を提供する。ユーザの体の一部などのオブジェクトを測定するために、ユーザはモバイル装置を使用して、オブジェクトの1つ又は複数の画像をキャプチャできる。実際の世界でのオブジェクトに対するモバイル装置の物理的な移動と位置決めの組み合わせを示す詳細なコマンドを提供するために、ユーザインターフェースをモバイル装置に提供できる。例えば、ユーザの足の画像をキャプチャするための命令セットには、ユーザが、靴を脱ぐこと、コントラストの良い靴下を履くこと、きれいな壁を見つけること、かかとを壁に当てて、足が平行でまっすぐになるようにすること、モバイル装置を足の上の中央に置くこと、モバイル装置上のアライメントインジケータを整列してモバイル装置を水平にすること、モバイル装置を地面に置くこと、及びモバイル装置をピックアップすることが含まれ得る。様々な実施形態において、ユーザは靴下を履く必要がないか、壁及び/又は床とのコントラストの低い靴下を履くことができる。モバイル装置の床への移動中及びピックアップ中の移動を測定することによって、画像が撮影された高さ及び手から地面への移動中のモバイル装置の移動グラフを計算することができる。この情報に基づいて、実際の世界での測定に対する画像のスケールを決定することができ、当該スケールを使用して、キャプチャされた画像内のオブジェクトを測定することができる。例えば、このスケールは、ユーザの足のサイズをミリメートル精度で測定するのに使用できる。測定されたサイズは、ユーザに製品を推奨し、キャプチャされたオブジェクトの正確なデジタルモデルを生成するなど、様々な目的に使用できる。
説明される構成は、他の追加要素、ステップ、コンピュータ実行可能な命令、又はコンピュータ読み取り可能なデータ構造をさらに含むことができる。この点に関して、本明細書に他の実施形態が開示及び主張されている。本発明のこれらの実施形態及び他の実施形態の詳細は、添付図面及び以下の説明に記載されている。本発明の他の特徴及び利点は、明細書、添付図面及び特許請求の範囲から明らかになるだろう。
本発明は、例示的な方式により説明され、且つ類似の符号は同様な要素を示す添付図面に限定されるものではない。
以下の説明は、当業者が特定の用途及びその要件の文脈で提供される本発明を製造及び使用することを可能にするために提供される。本明細書の一部を形成する添付図面を参照し、実施可能な本開示の様々な実施形態を図示する。他の実施形態を利用できることを理解されたい。記載された実施形態に対する様々な変更は、当業者にとっては明らかであり、本明細書に定義される一般的な原理は、他の実施形態に適用できる。したがって、本発明は、上記の図示及び説明された特定の実施形態に限定されるものではなく、本明細書に開示される原理及び新規特徴と一致する最も広い範囲が付与されるべきである。他の例では、本発明を曖昧にしないようにするために、よく知られている方法、手順、及び構成要素を詳細に説明しなかった。
次に、図面に目を向けると、画像をキャプチャし、推奨を提供するためのシステム及び方法が開示されている。アパレルフィッティング及び/又はカスタマイズ製造では、一般的に、オブジェクトの実際のサイズの1%以内の正確な測定が要求される反面、既存の解決案におけるオブジェクト検出は、同じオブジェクトを複数回測定する場合に大きく変化する可能性があり、最大20%ずれる可能性がある。本開示の各態様に係るキャプチャされた画像には、さらに、画像をキャプチャするコンピューティング装置の状態に関する様々なメタデータがキャプチャされており、これらのメタデータは、本明細書に記載されたように、オブジェクトの検出、スケールの決定、及びオブジェクトの測定の精度を大幅に向上させるために使用できる。例えば、本開示の各態様に係るオブジェクトの測定は、一般的に、実際のオブジェクトのサイズの2ミリメートル以内で実施される。オブジェクトの決定と測定の精度の向上により、一貫してユーザの身体と正確に一致するアパレル及び/又は履物のカスタマイズ製造が可能になる。ユーザの体の一部などのオブジェクトを測定するために、ユーザはモバイル装置を使用して、オブジェクトの1つ又は複数の画像をキャプチャできる。実際の世界でのオブジェクトに対するモバイル装置の物理的な移動と位置決めの組み合わせを示す詳細なコマンドを提供するために、ユーザインターフェースをモバイル装置に提供できる。例えば、ユーザの足の画像をキャプチャするための命令セットには、ユーザが、靴を脱ぐこと、コントラストの良い靴下を履くこと、きれいな壁を見つけること、かかとを壁に当てて、足が平行でまっすぐになるようにすること、モバイル装置を足の上の中央に置くこと、モバイル装置上のアライメントインジケータを整列してモバイル装置を水平にすること、モバイル装置を地面に置くこと、及びモバイル装置をピックアップすることが含まれ得る。様々な実施形態において、ユーザは靴下を履く必要がないか、壁及び/又は床とのコントラストの低い靴下を履くことができる。モバイル装置の床への移動中及びピックアップ中の移動を測定することによって、画像が撮影された高さ及び手から地面への移動中のモバイル装置の移動グラフを計算することができる。複数の実施例において、モバイル装置中の1つ又は複数の深さセンサを用いて、高さを単独で又はモバイル装置の移動中に計算された高さと組み合わせて測定することができる。この情報に基づいて、実際の世界での測定に対する画像のスケールを決定することができ、当該スケールを使用して、キャプチャされた画像内のオブジェクトを測定することができる。例えば、このスケールは、ユーザの足のサイズをミリメートル精度で測定するのに使用できる。さらに、深さセンサを使用してキャプチャしたデータに基づいて、オブジェクトのスケール及び/又は測定値を単独で又は決定されたスケールと組み合わせて計算することができる。測定されたサイズは、ユーザに製品を推奨し、キャプチャされたオブジェクトの正確なデジタルモデルを生成するなど、様々な目的に使用できる。
オブジェクトを測定し、推奨を提供するための様々なシステム及び方法が、米国特許公開第2019/0188784号、第2019/0228448号及び第2019/0347703号に開示されている。1つ又は複数の基準面を使用してオブジェクトを測定するための様々なシステム及び方法が、米国特許第10,420,397号及び米国特許出願第16/791,572号に開示されている。オブジェクトのスキャン、製品適合性の判定、及び推奨の提供のための様々なシステム及び方法が、米国特許第10,062,097号、第10,282,773号、第10,366,524号及び第10,430,861号及び米国特許出願第16/552,414号に開示されている。これらの米国特許、特許公開、及び特許出願のそれぞれの開示内容は、全体が参照により本明細書に組み込まれる。
オペレーティング環境及びコンピューティング装置
図1は、本発明の一実施形態に係るオペレーティング環境100を示す。オペレーティング環境100は、ネットワーク140を介して通信する少なくとも1つのモバイル装置110、少なくとも1つの処理サーバシステム120、及び/又は少なくとも1つの推奨サーバシステム130を含む。図2に関して説明した1つ又は複数のコンピューティングシステムを使用して、本明細書に記載のいずれの装置及びシステムの全部又は一部を実装することができる。
図1は、本発明の一実施形態に係るオペレーティング環境100を示す。オペレーティング環境100は、ネットワーク140を介して通信する少なくとも1つのモバイル装置110、少なくとも1つの処理サーバシステム120、及び/又は少なくとも1つの推奨サーバシステム130を含む。図2に関して説明した1つ又は複数のコンピューティングシステムを使用して、本明細書に記載のいずれの装置及びシステムの全部又は一部を実装することができる。
モバイル装置110は、本明細書に記載されているように、モバイル装置110の位置決めに関する画像データ及びメタデータをキャプチャし、及び/又は、キャプチャされた情報を提供及び/又は処理することができる。処理サーバシステム120は、本明細書により詳細に記載されているように、画像データ及び/又はメタデータを取得し、画像データ内の様々なオブジェクトを識別し、及び/又はオブジェクトのモデルを生成することができる。推奨サーバシステム130は、本明細書に記載されているように、モデル及び/又は好みデータに基づいて様々な推奨を生成することができる。ただし、モバイル装置110、処理サーバシステム120及び/又は推奨サーバシステム130のいずれも、本明細書に記載されている任意のプロセスの任意のステップの一部又はすべてを実行できることに留意されたい。ネットワーク140は、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、無線電気通信ネットワーク、及び/又は任意の他の通信ネットワーク、又はそれらの組み合わせを含み得る。
本明細書に記載されているように、オペレーティング環境100内の様々な装置の間で送受信されるデータには、機密文書、開発者プロファイル及び/又は文書を開発するための手順のような安全で機密性の高いデータが含まれ得る。したがって、セキュリティネットワークプロトコル及び暗号化を使用して、これらのデータの伝送を保護すること、及び/又はドキュメント開発システム内の様々なコンピューティング装置に保存されているデータの完全性を保護することが望ましい場合がある。例えば、ファイルベースの統合方式又はサービスベースの統合方式は、様々なコンピューティング装置間でデータ伝送に活用することができる。データは、様々なネットワーク通信プロトコルを使用して伝送できる。データの完全性は、セキュリティデータ伝送プロトコル及び/又は暗号化(例えば、ファイル伝送プロトコル(FTP、File Transfer Protocol)、セキュアファイル伝送プロトコル(SFTP、SecureFile Transfer Protocol)、プリティグッドプライバシー(PGP、Pretty Good Privacy)暗号化)をファイル伝送に使用して保護することができる。多くの実施形態において、1つ又は複数のウェブサービスを様々なコンピューティング装置内に実装することができる。認証された外部装置及びユーザは、オペレーティング環境100内の様々なコンピューティング装置間のデータの入力、抽出、及び操作をサポートするために、ウェブサービスにアクセスすることができる。パーソナライズされたディスプレイシステムをサポートするように構築されたウェブサービスは、クロスドメイン及び/又はクロスプラットフォームであってもよく、企業に使用されるように構築されてもよい。このようなWebサービスは、Webサービスの相互運用性(WS-I)ガイドラインなど、様々なWebサービス標準に従って開発できる。安全ソケット層(SSL、Secure Sockets Layer)又は伝送階層セキュリティ(TLS、Transport Layer Security)プロトコルを使用してデータを伝送することで、コンピューティング装置間の安全な接続を提供する。Webサービスは、XML暗号化を使用して安全なSOAPメッセージを提供するWS-Security標準を使用して実装できる。専用のハードウェアを使用して、安全なWebサービスを提供できる。例えば、セキュアネットワーク機器に、ハードウェア加速SSL及びHTTPS、WS-Security、ファイアウォールなどの内臓特徴を含めることができる。このような専用ハードウェアは、任意の外部装置が専用ハードウェアと直接通信できるように、1つ又は複数のコンピューティング装置の前のオペレーティング環境(100)にインストール及び構成されることができる。
示されたネットワーク接続は例示的なものであり、コンピュータ間の通信リンクを確立する他の手段を使用できることを理解されたい。TCP/IP、イーサネット、FTP、HTTPなどの多様なネットワークプロトコルのいずれか、及びGSM(登録商標)、CDMA、WiFi、WiMAXなどの多様な無線通信技術があると推定すされ、本明細書に記載されている多様なコンピューティング装置は、これらのネットワークプロトコル又は技術のいずれかを使用して通信するように構成されてもよい。
次に、図2を参照して、本発明の一実施形態に係るコンピューティング装置200を示す。コンピューティング装置200は、コンピューティング装置200と、RAM205、ROM207、入出力装置209、通信インターフェース211及び/又はメモリ215を含む関連構成要素との全体的な動作を制御するためのプロセッサ203を含むことができる。プロセッサ203、RAM205、ROM207、メモリ215、I/O装置209、及び/又は通信インターフェース211は、データバスを介して互いに接続することができる。通信インターフェース211は、本明細書に記載されているものを含む任意のプロトコルを使用して、有線又は無線の任意のネットワークを介して通信するための1つ又は複数のトランシーバ、デジタル信号プロセッサ、及び/又は追加の回路並びにソフトウェアを含み得る。
入出力(I/O)装置209は、コンピューティング装置200のユーザが入力を提供できるマイク、キーパッド、タッチスクリーン、及び/又はスタイラスを含むことができ、また、オーディオ出力を提供するための1つ又は複数のスピーカーと、テキスト、オーディオビジュアル及び/又はグラフィカルの出力を提供するためのビデオ表示装置を含み得る。多くの実施形態において、I/O装置209は、1つ又は複数の深さセンサ及び/又は1つ又は複数の画像キャプチャ装置を含む。画像キャプチャ装置は、シーンの画像をキャプチャするために使用できる。深さセンサは、1つ又は複数の画像キャプチャ装置を使用して、キャプチャされた画像深さを決定するために使用できる。コンピューティング装置200が様々な動作を実行することを可能にする命令をプロセッサ203に提供するために、ソフトウェアをメモリ215内に格納してもよい。例えば、メモリ215は、オペレーティングシステム217、アプリケーションプログラム219、及び/又は関連付けられた内部データベース221などの、コンピューティング装置200によって使用されるソフトウェアを格納することができる。メモリ215内の様々なハードウェアメモリユニットには、コンピュータ読み取り可能な命令、データ構造、プログラムモジュール、又は他のデータなどの情報を保存するための任意の方法又は技術によって実装される揮発性及び不揮発性取り外し可能な及び取り外しができないメディアが含まれ得る。メモリ215には、1つ又は複数の物理的な永久メモリ装置及び/又は1つ又は複数の非永久メモリ装置が含まれ得る。メモリ215は、ランダムアクセスメモリ(RAM)205、読み取り専用メモリ(ROM)207、電気的消去・プログラム可能な読み取り専用メモリ(EEPROM)、フラッシュメモリ又は他のメモリ技術、CD-ROM、デジタル多用途ディスク(DVD)、又は他の光ディスクストレージ、磁気カセット、磁気テープ、磁気ディスク記憶装置又は他の磁気記憶装置、又は所望の情報を記憶するために使用できる、プロセッサ203によってアクセスできる他の媒体を含むが、これらに限定されない。
プロセッサ203は、シングルコア又はマルチコアプロセッサ(例えば、デュアルコア、クアッドコアなど)であり得る単一の中央処理装置(CPU)を含んでもよいし、複数のCPUを含んでもよい。プロセッサ203及び関連構成要素は、コンピューティング装置200にコンピュータ読み取り可能な一連の命令を実行させ、本明細書に記載のプロセスの一部又は全部を実行することができる。図2には示されていないが、メモリ215内の様々な要素又はコンピューティング装置200内の他の構成要素には、例えば、プロセッサ203によって使用されるCPUキャッシュ、オペレーティングシステム217によって使用されるページキャッシュ、ハードドライブのディスクキャッシュ、及び/又はデータベース221からのコンテンツをキャッシュするために使用されるデータベースキャッシュが含まれ得る。CPUキャッシュを含む実施形態では、CPUキャッシュは、メモリ遅延及びアクセス時間を短縮するために、1つ又は複数のプロセッサ203によって使用されることができる。プロセッサ203は、メモリ215からの読み取り/メモリ215への書き込みの代わりに、CPUキャッシュからデータを読み出すか、又はCPUキャッシュにデータを書き込むことができ、これらの動作の速度を向上させることができる。一部の例では、データベース221からの特定のデータをRAM205又は別個のコンピューティング装置上など、データベースとは別個のメモリ内の別個のより小さなデータベースにキャッシュするデータベースキャッシュが作成されることができる。例えば、多層アプリケーションにおいて、アプリケーションサーバ上のデータベースキャッシュは、ネットワークを介してバックエンドデータベースサーバと通信する必要がないため、データ検索及びデータ操作時間を短縮することができる。これらのタイプのキャッシュ及びその他を様々な実施形態に含まれることができ、ドキュメント開発システムの特定の実装において、データを送受信する際のより速い応答時間やネットワーク条件への依存度の低下などの潜在的な利点を提供できる。
コンピューティング装置200の様々な構成要素を別々に説明したが、本発明から逸脱することなく、様々な構成要素の特徴は、単一の構成要素及び/又は通信中の複数のコンピューティング装置によって組み合わされ、及び/又は実行され得る。
概要
画像は、通常、画像の題材である1つ又は複数のオブジェクトをキャプチャしたものである。アップルのARKit(登録商標)のような様々な既存のシステムにより、画像内のオブジェクトの検出が可能になる。ただし、キャプチャされたオブジェクトの精度が最適ではなく、画像の正確なスケールを決定することは困難である。このような精度の欠如により、これらの画像は、高いレベルの精度を求めるアプリケーションに必要なレベルの精度で、画像内のオブジェクトの大きさを決定するために使用することには適さない。例えば、靴フィッティング及び/又はオーダーメード型靴製造は、一般的に、オブジェクトの実際のサイズの1%以内で正確な測定が要求される一方、ARKitのオブジェクト検出は、同じオブジェクトに対して何度も測定する場合に大きく変化する可能性があり、最大20%ずれる可能性がある。本開示の態様に係るキャプチャされた画像は、また、キャプチャされた画像のコンピューティング装置の状態に関する、複数の軸に沿った加速度データ及び方位データのような様々なメタデータをキャプチャし、これらのメタデータは、画像がキャプチャされた環境の様々な属性及びキャプチャされたオブジェクトに対するコンピューティング装置の配向を判定するために使用することができる。このメタデータは、本明細書に記載のオブジェクト検出、スケール決定、及びオブジェクト測定の精度を大幅に向上させるために使用され得る。
画像は、通常、画像の題材である1つ又は複数のオブジェクトをキャプチャしたものである。アップルのARKit(登録商標)のような様々な既存のシステムにより、画像内のオブジェクトの検出が可能になる。ただし、キャプチャされたオブジェクトの精度が最適ではなく、画像の正確なスケールを決定することは困難である。このような精度の欠如により、これらの画像は、高いレベルの精度を求めるアプリケーションに必要なレベルの精度で、画像内のオブジェクトの大きさを決定するために使用することには適さない。例えば、靴フィッティング及び/又はオーダーメード型靴製造は、一般的に、オブジェクトの実際のサイズの1%以内で正確な測定が要求される一方、ARKitのオブジェクト検出は、同じオブジェクトに対して何度も測定する場合に大きく変化する可能性があり、最大20%ずれる可能性がある。本開示の態様に係るキャプチャされた画像は、また、キャプチャされた画像のコンピューティング装置の状態に関する、複数の軸に沿った加速度データ及び方位データのような様々なメタデータをキャプチャし、これらのメタデータは、画像がキャプチャされた環境の様々な属性及びキャプチャされたオブジェクトに対するコンピューティング装置の配向を判定するために使用することができる。このメタデータは、本明細書に記載のオブジェクト検出、スケール決定、及びオブジェクト測定の精度を大幅に向上させるために使用され得る。
図3Aは、本明細書に記載された1つ又は複数の態様に応じたオブジェクトのモデルを生成するためのプロセスを概念的に示すフローチャートである。プロセス300のステップの一部又は全部は、本明細書に記載の1つ又は複数のコンピューティング装置を使用して実行されてもよい。様々な実施形態において、以下に説明されるステップの一部又は全部は、適宜に組み合わされてもよく、及び/又はサブステップに分けられてもよい。
ステップ310において、ユーザインターフェースを提示することができる。ユーザインターフェースは、画像データをキャプチャするステップ及び/又はモデルを生成するステップの詳細な指示を提供することができる。多くの実施形態では、画像キャプチャプロセスは、実際の世界での装置の物理的な移動及び位置決めと、スクリーン上の従来の「アプリタイプ」命令との組み合わせを伴い、結果的に装置の位置決め及び移動がどれだけうまく実行されるかに影響される。オブジェクトの画像をキャプチャする前に、すべての適切な条件が満たされていることを保証するために、装置上で様々なプロセスを実行することができる。例えば、慣性測定センサ(ジャイロスコープ又は加速度計など)を使用して、画像がキャプチャされる間、装置がオブジェクトに対して最小角度でバランスが取れているかを確認できる。
ステップ312において、画像データを生成できる。ステップ314において、装置を基準面に移動させることができる。しかしながら、特に深さセンサを用いる実施形態では、装置を基準面に移動させる必要がない場合があることに留意されたい。
ステップ316において、高さデータを予測することができる。いくつかの実施形態では、高さデータは、画像がキャプチャされた位置から基準面への装置の移動に基づいて決定できる。多くの実施形態において、高さデータは、装置に組み込まれた深さセンサを使用して決定することができる。例えば、光検出及び測距(LIDAR)センサは、1つ又は複数のレーザビームを環境内に投影し、レーザビームがLIDARセンサに反射されて戻ると、投影されたレーザビームと検出されたレーザビームとの間の時間を決定することができる。決定された時間は、レーザビームが移動した距離を計算するために使用されてもよく、この距離は、装置から基準面(床など)又はキャプチャされた画像内に位置する任意のオブジェクトまでの高さの測定値に変換できる。1つ又は複数の赤外線ドットをキャプチャされた画像に投影する赤外線深さセンサを含む任意の深さセンサを使用して、適切な深さを測定できることに留意されたい。様々な実施形態において、複数の深さ測定値を、深さセンサを使用して測定することができ、得られた深さ測定値を平均して高さデータを決定することができる。
ステップ318において、画像スケールデータを決定できる。画像データは、1つ又は複数のオブジェクト及び/又は1つ又は複数の基準面の画像をキャプチャすることによって生成されることができる。キャプチャ後、装置を基準面に移動させることができる。いくつかの実施形態では、基準面が画像データにキャプチャされる。慣性測定センサは、装置が基準面に移動する間に様々なデータを測定することができる。移動中に、測定されたデータに基づいて、画像が撮影された高さと手から地面に移動する間の携帯電話の移動グラフを高い精度で計算することができる。さらに、深さ測定値を単独で、又は計算された高さと組み合わせて使用して、高さ及び/又は画像スケールデータを決定することができる。多くの実施形態において、電話が地面に置かれており、結果のためにピックアップされる間、装置及びその他のプロセスを使用してキャプチャされた様々なデータを実行することができる。この段階で、データに異常なパターンがある場合、装置は、これらのパターンをフィルタリングしてユーザに通知することができる。これにより、フラグが指定されたスキャンの場合、全体処理時間を待つ必要がなく、またオブジェクトを再スキャンする必要もないため、ユーザの体験が向上する。
画像スケールデータは、画像をキャプチャする装置の様々な属性、装置の移動、及び画像が撮影された高さに基づいて、決定することができる。メーカー及びモデルが異なる装置間のサンプリング率、誤差率、ノイズなどが一貫していないため、スケールデータ計算には慣性測定ユニットからの信号を正規化することが含まれ得る。信号の正規化には、信号を共通のサンプル率に変換すること、信号の最小値及び最大値を決定すること、及び/又は測定された信号からのノイズをフィルタリングすることが含まれ得る。高さは、物理的シミュレーションモデル及び信号によって決定される装置の経路に基づいて決定できる。モデルを改良して、信号のドリフト及び/又は誤差を修正することができる。物理モデル及び物理的に固定されたモデルの結果は、スキャン条件からのメタデータとともに、高さ固定推定値を生成する機械学習分類器に提供できる。機械学習分類器の使用により装置の計算能力を向上させることができ、これは機械学習分類器がメーカー及びモデルが異なる装置間の誤差及び/又は差異を修正するのに非常に適しているためである。例えば、異なる装置は、異なるカメラセンサ及びレンズを有してもよい。このような理由で、スキャンが行われた高さを知れば、適切な装置とともに、機械学習分類器がこの高さを高精度に画像スケールに変換するようにすることができる。図3Bを参照して、本開示の態様に係る画像データをキャプチャするための様々なプロセスを説明する。図5を参照して、本開示の態様による画像の高さ情報を予測し且つ画像のスケールデータを決定するための様々なプロセスを説明する。
ステップ320において、モデルデータを生成することができる。画像データと高さデータとに基づいてモデルデータを生成することができる。いくつかの実施形態では、モデルデータは、モバイル装置の深さセンサを使用して決定された画像内のオブジェクトのメッシュモデルに基づいて生成される。慣性測定データ及び/又は装置データは、キャプチャされた画像内の任意の遠近感を直線化及び/又は補正するために使用できる。この補正は、最適な測定を達成すること、及び/又は、キャプチャ中に装置の位置又は角度から発生する影響を中和するのに役立つ。多くの実施形態において、変換マトリックスは、画像を補正するために計算及び/又は使用することができる。
画像内のオブジェクトの位置を識別するために、画像内で境界ボックスを決定することができる。境界ボックスを使用して、画像のオブジェクト検出中に処理される部分を減らすことができる。画像内の1つ又は複数のオブジェクトを検出することができる。いくつかの実施形態では、オブジェクトのクラスを識別するように訓練された機械学習分類器を使用してオブジェクトを検出することができる。例えば、深さ学習ニューラルネットワークは、境界ボックスの結果を分類し、且つ、正しい位置で両足を見たか否か、他のものであるか、又は素足、靴、又は誤った姿勢などのユーザへの特定の通知であるか否かを分類するように、訓練されてもよい。また、これは行われたスキャンが正しいかどうかを検証するために使用でき、すべての足の大きさを測定するためにも使用できる。線は、画像内で決定できる。線は、キャプチャされた画像内の壁と床との間の輪郭を識別できる。例えば、単一画像ではかかとと足指ボックスの完全な形をキャプチャできないことがあり、基準オブジェクトを使用して足の位置の正確な開始点を決定することができる。様々な実施形態において、基準オブジェクトは壁である。
多くの実施形態において、LIDARセンサのような深さセンサを1つ又は複数使用してキャプチャした情報に基づいて、モデルデータを生成することができる。深さセンサは、画像データ内のキャプチャされたオブジェクトの1つ又は複数の部分の高さを決定するために使用され得る。オブジェクトの異なる部分の詳細な高さ情報を使用して、オブジェクトの体積(例えば、3D体積)及び/又は円周を適切に計算することができる。さらに、オブジェクトの異なる部分間の高さの差を使用して、オブジェクトの形状及び/又はキャプチャされたオブジェクトと基準オブジェクト(例、床又は壁)との間の輪郭を決定することができる。
様々な実施形態において、オブジェクトのメッシュモデルに基づいてモデルデータを生成することができる。深さセンサによってオブジェクトに投影された1つ以上のビーム及び/又はドットに基づいて、オブジェクトのメッシュモデルを決定することができる。ビーム及び/又はドットを接続して、オブジェクトのメッシュモデルを生成することができる。いくつかの実施形態では、画像をキャプチャする装置のオペレーティングシステムによって提供されるアプリケーションプログラミングインターフェース(API)は、オブジェクトのメッシュモデルを提供できる。
画像からオブジェクトを分割することができる。いくつかの実施形態では、オブジェクトの分割(segmentation)は、ピクセルパーフェクトである。画像をキャプチャする設定と組み合わせが非常に多様であることを考慮すると、処理の精度上、背景からオブジェクトを正確に分離することが極めて重要となる。一部の環境では照明条件やコントラスト条件が厳しくなる可能性があることを考慮すると、このタスクは困難になる場合がある。最大の精度を達成するには、オブジェクトが互いに平行である、及び/又は、基準オブジェクトに垂直である必要がある。その場合ではなく、ユーザが非常に誤った位置に立っている場合には、その旨をコンテキストにマークしてスキャン終了を許可しない旨を通知する。ただし、姿勢がわずかにずれている場合は、測定する前にオブジェクトの向きを修正できる。分割(segment)されたオブジェクト内部のピクセル及び画像スケールデータに基づいて、オブジェクトの測定値を計算することができる。オブジェクトのメッシュモデルは、キャプチャされた画像内のオブジェクトのエッジを適切に決定するのに役立つように使用されてもよい。
モデルデータは、オブジェクト、オブジェクトの測定値、オブジェクトのメッシュモデル、及び/又はオブジェクトに関する様々な他のデータを適切に含むことができる。モデルデータは、画像内の1つ又は複数のオブジェクトについて生成されてもよい。モデルデータは、キャプチャされたオブジェクトの様々な測定値及び/又はモデルを含むことができる。例えば、キャプチャされたオブジェクトに足が含まれる場合、足の長さ、幅、足指の長さ、対角線の幅、足の総面積に対する足指先ボックスの体積、及び長さと幅の比率のような、様々な測定値を計算してモデルデータに含めることができる。各足に対して個別に計算されるマトリックスに加え、各足の大きさ間の差のような両足を比較してマトリックスを生成する測定値もある。これらの測定値は、足ごとに履物の正確なサイズを決定するために使用できる。例えば、解剖学的情報は、靴のスタイルや種類からのデータ、及び他の選手からのデータ、並びに好みと一緒に、モデルデータにおいてモデル化された足のために推奨サイズを生成する。図6を参照して、本開示の態様によるモデルデータを生成するための様々なプロセスを説明する。
オブジェクトの画像をキャプチャする
図3Bは、本明細書に記載の1つ又は複数の態様に係る1つ又は複数のオブジェクトの画像をキャプチャするためのプロセスを概念的に示すフローチャートである。プロセス350のステップの一部又は全部は、本明細書に記載の1つ又は複数のコンピューティング装置を使用して実行されてもよい。様々な実施形態において、以下に説明されるステップの一部又は全部は、適宜に組み合わされてもよく、及び/又はサブステップに分けられてもよい。
図3Bは、本明細書に記載の1つ又は複数の態様に係る1つ又は複数のオブジェクトの画像をキャプチャするためのプロセスを概念的に示すフローチャートである。プロセス350のステップの一部又は全部は、本明細書に記載の1つ又は複数のコンピューティング装置を使用して実行されてもよい。様々な実施形態において、以下に説明されるステップの一部又は全部は、適宜に組み合わされてもよく、及び/又はサブステップに分けられてもよい。
ステップ360において、キャプチャ対象となるオブジェクトを決定することができる。いくつかの実施形態では、モバイル装置上で実行される画像キャプチャアプリケーションを使用して、キャプチャ対象となるオブジェクトをフレーミングすることができる。キャプチャ対象となるオブジェクトは、測定及び/又はモデリングする任意のオブジェクトである可能性がある。様々な実施形態において、オブジェクトには、ユーザの足が含まれ得る。画像キャプチャアプリケーションは、どのようにモバイル装置をターゲットオブジェクトに対して配向するか、及び/又は、どのようにモバイル装置を、空間内を移動させるかに関する様々な命令を提供することができる。例えば、命令には、画像をキャプチャするオブジェクトの解析を含む一連のステップが含まれることができ、当該命令は、モバイル装置によって提供される一連のユーザインターフェースを使用して、キャプチャのためのオブジェクトを準備し、オブジェクトを基準面に接して配置し、オブジェクトを定義された方向に配向することを保証し、画像キャプチャウィンドウ内でオブジェクトを中心に配置し、モバイル装置を水平にし、モバイル装置を基準面に移動させ、モバイル装置を基準面から除去するために用いられる。図4A~図4Fは、本明細書に記載の1つ又は複数の態様に係る画像をキャプチャするためのユーザインターフェースのスクリーンショットである。様々な機械学習分類器を使用して、ユーザインターフェースのステップ間で自動的に進むこと、及び/又は、キャプチャ対象となるオブジェクトに対するモバイル装置の配向を改善するようユーザに動的に指示することができる。
ステップ362において、装置をオブジェクトに整列することができる。オブジェクトがキャプチャされた画像内で一貫した位置に現れるように、装置をオブジェクトに整列することができる。例えば、モバイル装置を使用して、オブジェクトの画像をキャプチャすることができる。ただし、カメラの位置はモバイル装置ごとに異なる場合がある。したがって、特定のモバイル装置の大きさに基づいて、オブジェクトに対するモバイル装置の位置を調整する必要がある。多くの実施形態において、モバイル装置上で実行される画像キャプチャアプリケーションは、モバイル装置に対するオブジェクトの位置を示すフレームを提示し、及び/又は、オブジェクトに対するモバイル装置の正確な整列を指示するコンテキスト命令(及び/又は他の視覚的表示)を提供することができる。
いくつかの実施形態では、モバイル装置は、オブジェクトのライブプレビューを提供し、ライブプレビューに対して様々な分類器を実行して、モバイル装置とオブジェクトとが適切に整列されているかどうかを決定することができる。図6を参照して、本発明の実施形態に係る使用可能な正確な整列を決定するための様々なプロセスをより詳細に説明する。
オブジェクトをキャプチャする装置は、空間内で整列されることもできる。いくつかの実施形態では、オブジェクトを空間内で整列することには、モバイル装置が水平であることを決定することが含まれる。例えば、画像キャプチャアプリケーションは、モバイル装置内に位置する加速度計及び/又はジャイロスコープによって測定された、空間内のモバイル装置の配向を示す十字線要素を提示することができる。加速度計は、1つ又は複数の軸におけるモバイル装置の移動を個別に測定することができ、ジャイロスコープは、空間におけるモバイル装置の配向を測定することができる。
ステップ364において、画像をキャプチャすることができる。キャプチャされた画像には、オブジェクト及び1つ又は複数の基準面が含まれ得る。いくつかの実施形態では、2つの十字線を示すことができ、1番目の十字線は点線であり、一定の位置にある。2番目の十字線は、実線であり、空間内のモバイル装置の角度に沿って移動することができる。ピッチ角とロール角がゼロ近く、及び/又は所定の閾値を下回るとき、モバイルデバイスが安定的に維持されている間に十字が整列され、アニメーションが出現する。十字線を整列する間、オブジェクトの1つ又は複数の画像をキャプチャすることができる。様々な実施形態において、モバイル装置が空間内の位置及び/又はオブジェクトに関する位置から外れる場合、画像のキャプチャを中断及び/又は再開することができる。
ステップ366において、装置を基準面に移動させることができる。いくつかの実施形態では、キャプチャされた画像に関連しているメタデータは、画像をキャプチャする装置が基準面からどれだけ離れているかの測定を含み得る。装置を基準面に移動させることにより、加速度計、ジャイロスコープ、磁力計などのような様々なセンサを用いて装置から基準面までの距離を測定することができる。装置の移動中にキャプチャされたデータを用いて、画像が撮影された高さ及び基準面に移動中の装置の移動グラフを計算することができる。装置が基準面に到達して移動を停止するまで、100hertzなどのサンプリング率でデータをキャプチャすることができる。各センサは、同じ及び/又は異なるサンプリング率でデータをキャプチャできる。装置の移動中に、様々な状況メッセージを提供することができ、当該状況メッセージは、装置が移動を開始するタイミングと安定性に達したタイミングを識別すること、異常行動のマークを可能にする移動、着地などのための基本的な時間を測定すること、命令に従わなかったことを示す上向きの移動を識別することなどを含むが、これらに限定されない。
ステップ368において、装置を基準面から取り外すことができる。一旦、装置が基準面の上又は基準面の近くにあると、装置をピックアップすることができる。いくつかの実施形態では、装置が基準面に到達した後、それをピックアップするようにユーザに指示するためのユーザインターフェースを提示することができる。その間に、すべてのデータを圧縮及び/又は処理サーバシステムに伝送することができる。さらに、装置は、データ中の異常パターンを識別及び/又はフィルタリングすることができる。異常なデータが識別され、画像の再キャプチャを引き起こしたことを示す通知を提供することができる。
ステップ370において、メタデータを生成することができる。メタデータは、本明細書に記載されるように、装置が基準面への移動及び基準面からの移動の間に測定される任意のデータを含むことができる。メタデータには、装置の移動に対する説明も含まれ得る。装置の移動は、画像のキャプチャ中に装置が空気中を移動する勾配を再構成するために使用でき、且つ、画像のキャプチャ中に装置が位置する高さと位置を計算するために使用できる。いくつかの実施形態では、本明細書に記載の物理的シミュレーション及び/又は機械学習分類器を使用して、高さを計算する。図5に関するより詳細な説明のように、この高さは、キャプチャされた画像のスケールを生成するために使用できる。
ステップ372において、画像データを生成できる。画像データには、オブジェクトの画像及び/又はメタデータを含めることができる。いくつかの実施形態において、画像データ及び/又はメタデータを、物理的属性及び個人的好みを含むすべての関連情報が統合されたファイルフォーマットで保存して、ユーザを表し、且つ、ユーザが衣類、眼鏡、履物又は他の身体関連製品のパーソナライズ化されたカスタマイズ型又は非カスタマイズ型買い物を行うのを支援することができる。
図5は、本明細書に記載の1つ又は複数の態様に係る画像のスケールを決定するプロセスを模式的に示すフローチャートである。プロセス500のステップの一部又は全部は、本明細書に記載の1つ又は複数のコンピューティング装置を使用して実行されてもよい。様々な実施形態において、以下に説明されるステップの一部又は全部は、適宜に組み合わされてもよく、及び/又はサブステップに分けられてもよい。
ステップ510において、画像データ及びメタデータを取得できる。本明細書に記載されるように、画像データは、特定の位置から撮影されたオブジェクトの画像、及び/又は画像データをキャプチャする装置の配向及び移動を説明する様々なセンサ情報を含むことができる。様々な実施形態において、メタデータは、深さデータ及び/又は温度データだけでなく、それぞれ3軸にある加速器、ジャイロスコープ及び磁力計を含むが、これらに限定されない、モバイル装置から提供されるデータを含み得る。深さデータは、赤外線センサ、光検出及び測距(LIDAR)センサなどのような様々な深さセンサを使用して決定された深さを含み得る。さらに、メタデータには、ユーザインターフェース相互作用、画像がいつ撮影されたかを示す時間データ、モバイル装置が基準面に到達した時間データ、モバイル装置がモバイル装置から取り外された時間などのような、モバイル装置による画像のキャプチャ中に発生するイベントを含めることができる。さらに、メタデータには、モバイル装置を説明する様々なデータを含めることができ、当該データは、メーカー、モデル、オペレーティングシステムバージョン、カメラ識別データ、センサ識別データ、インターネットプロトコルデータなどを含むが、これらに限定されない。
ステップ512において、メタデータを削除することができる。メタデータの削除には、キャプチャされたデータ内のノイズをフィルタリングすること及び/又はデータを共通サンプリング率で正規化することを含むことができる。いくつかの実施形態では、メタデータの削除には、データをキャプチャするために使用される特定のセンサに基づくデータ処理が含まれ得る。例えば、センサの特定のメーカー及びモデルは、センサを使用して測定されたデータ内の特定のレベル及び/又はパターンのノイズのような、事前定義された特性を有してもよい。これらの特性は、センサのメーカー及び/又はモデルから予測されるノイズを除去するためのセンサを使用してキャプチャしたデータを正規化するために使用することができる。操作される特定のタイプのデータに適するように、フーリエ変換などの様々な方法を使用して、データを削除することができる。さらに、メタデータは、画像キャプチャプロセス中の既知の動作に基づいて削除及び/又はフィルタリングされることができる。例えば、モバイル装置が基準面に置かれているとき、オブジェクトに対する装置の高さと速度はどちらもゼロである。また、画像がキャプチャされるときのモバイル装置の速度は、ほぼゼロである。
ステップ514において、予測高さを計算することができる。高さは、キャプチャ時のモバイル装置の位置の測定値であってもよい。予測高さは、物理的シミュレーションモデルを使用して計算することができる。例えば、各軸の加速度を二重積分することで、モバイル装置の移動全過程にわたる速度及び変位経路を計算することができる。メタデータ内の加速度及び/又は他の生データを用いてこの時系列データを精査(refine)して、測定の潜在的なドリフトを解決することができる。例えば、モバイル装置移動の開始時と終了時に加速度がないこと、モバイル装置が基準面上に置かれているときに速度がゼロであることなどの予測される傾向に適合するように、一連の加速度及び速度データを操作して、結果を最適化することができる。図7Fは、本明細書に記載の1つ又は複数の態様に係るモバイル装置の移動に基づいて高さを予測する概念図である。
ステップ516において、予測高さを精査することができる。1つ又は複数の機械学習分類器で予測高さを精査することができる。機械学習分類器は、様々な特徴に基づいて物理モデルの誤差を識別して修正するように訓練され、当該特徴には、カメラパラメータ、カメラレンズの収差、及び特定のメーカー及びモデルモバイル装置の画像キャプチャ専用の他の問題などを含むが、これらに限定されない。この特徴には、インターネットプロトコルアドレス、メディアアクセス制御アクセスアドレス、携帯電話のタイプ、携帯電話の製造日及び/又はバージョン、オペレーティングシステムバージョン、及び/又はモバイル装置の属性及び/又はモバイル装置によってキャプチャされた画像の特性を識別するために使用できる任意の他のデータがさらに含まれることが可能である。この機械学習分類器は、高さを予測する物理モデル及び/又はメタデータを使用して、精査された高さと、精査された高さが画像の地面からの真の高さに対応する可能性を示す信頼性メトリックとを計算することができる。多くの実施形態において、LIDARセンサのような深さセンサを使用して決定された1つ又は複数の高さ測定値に基づいて、予測高さを精査することができる。様々な実施形態において、予測高さを精査するために、予測高さを、深さセンサを使用して決定された1つ以上の高さと平均することができる。
当業者には明らかなように、決定木、k近傍法(k-nearest neighbors)、サポートベクトルマシン(SVM)、ニューラルネットワーク(NN)、再帰ニューラルネットワーク(RNN)、畳み込みニューラルネットワーク(CNN)、及び/又は確率ニューラルネットワーク(PNN)を含むが、これらに限定されない、様々な機械学習分類器が使用され得る。RNNは、さらに、完全再帰ネットワーク、ホップフィールドネットワーク、ボルツマンマシン、自己組織化マップ、学習ベクトル定量化、単純再帰ネットワーク、エコ状態ネットワーク、長短期記憶ネットワーク、双方向RNN、階層型RNN、ランダムニューラルネットワーク及び/又は遺伝子スケールRNNを含めることができるが、これらに限定されない。いくつかの実施形態では、機械学習分類器の組み合わせを利用することができ、利用可能な場合には、より具体的な機械学習分類器を利用し、他の場合は一般的な機械学習分類器を利用して、予測の精度をさらに高めることができる。
ステップ518において、成功メトリックを決定することができる。成功メトリックは、精査された高さが画像の地面からの真の高さに対応する可能性を示すことができる。メタデータのルールベースの分析及び/又は機械学習分類器によって生成された信頼性メトリックに基づいて、成功メトリックを決定できる。ルールベースの分析には、メタデータからの様々なパラメータ(例えば、加速度、各段階のタイミング、電話の角度など)を処理すること、及び1つ又は複数のパラメータがパラメータの閾値を超えるとフラグを立てることが含まれる。
ステップ520において、画像のスケールデータを計算することができる。スケールデータは、画像内のピクセル数に基づいて、画像内のオブジェクトの実際のサイズを計算するために使用できるメトリックであり得る。多くの実施形態において、スケールデータは、画像のピクセル対ミリメートルの比率を示す。必要に応じて、メタデータ及び精査された高さデータに基づいて、スケールデータを計算することができる。各モバイル装置には異なるカメラセンサ及びレンズが含まれているので、特定の画像のスケールメトリックは、画像をキャプチャするモバイル装置の高さと特性の両方によって決定できる。様々な実施形態において、高さデータ及びメタデータは、高さデータをミリメートルレベルのピクセル測定値に変換するモデルへの入力として使用される。図7G~図7Hは、本明細書に記載の1つ又は複数の態様に係る画像に対して生成されるスケールの概念図である。
図6は、本明細書に記載の1つ又は複数の態様に係る画像内のオブジェクトを検出するプロセスを概念的に示したフローチャートである。プロセス600のステップの一部又は全部は、本明細書に記載の1つ又は複数のコンピューティング装置を使用して実行されてもよい。様々な実施形態において、以下に説明されるステップの一部又は全部は、適宜に組み合わされてもよく、及び/又はサブステップに分けられてもよい。
ステップ610において、画像データ及びメタデータを取得できる。本明細書で説明されているように、画像データ及びメタデータを取得できる。画像データには、検出対象の物体を1つ以上含むことができる。一旦検出されると、画像データに対して計算されたスケールデータを使用してオブジェクトを測定することができる。メタデータを使用してスケールデータを保存できる。
ステップ612において、遠近感を修正することができる。画像をキャプチャするためのカメラ及び/又はレンズの物理的特性及び/又は空間内のモバイル装置の向きの影響を受ける可能性のある特定の視点から、画像データをキャプチャすることができる。画像のキャプチャ中にモバイル装置の位置又は角度からの影響を制限することにより、画像をまっすぐにして高さの測定を改善することができる。キャプチャに使用されるモバイル装置の仕様と、視野及び焦点距離などのカメラの属性とを含むメタデータは、変換マトリックスを生成するために使用され得る。変換行列を画像に適用して画像を平らにし、遠近感効果を除去することができる。
ステップ614において、オブジェクトを検出することができる。画像データからオブジェクトを検出することができる。様々な実施形態において、機械学習分類器を使用して、画像内の1つ又は複数のオブジェクトの境界ボックスを決定することができる。機械学習分類器は、肌の色の変化、靴のタイプ及び/又は姿勢だけでなく、光線、床及び部屋の状態の組み合わせを含む様々な条件下で特定クラスのオブジェクトを検出するように、訓練されることができる。例えば、深層学習ニューラルネットワークを使用して、靴下を履いた2つの足を検出し、それらの周りに境界オブジェクトを生成することができる。境界オブジェクトには、オブジェクトを囲む境界オブジェクトの角座標が含まれることができる。図7Aは、本発明の1つ又は複数の態様に係る画像内で決定される境界ボックスを示す。
ステップ616において、線を検出できる。これらの線は、画像内で1つ又は複数の基準面が交差する位置を識別することができる。例えば、ユーザが足の画像を撮るために壁に向かって立っている画像の場合、これらの線は床(例えば、第1の基準面)が壁(例えば、第2の基準面)と交差する位置を識別することができる。これは、画像内のオブジェクトの始点を決定するのを助けるために使用できる。先の例に戻ると、壁と床との交差点を使用して、足が壁と床との交差点に位置する場合、かかとの位置を決めることができる。多くの実施形態において、LIDARセンサのような深さセンサを使用して、基準面内の1つ又は複数の位置を決定することができる。深さセンサは、1つ又は複数のビーム又はドットを画像に投影することができ、ビーム又はドットに基づいて基準面の形状を決定することができる。例えば、床や壁のような基準面は、通常、シーン内のオブジェクトに比べて非常に平らである。オブジェクトの平坦度(例えば、輪郭の欠如)をビーム又はドットに基づいて決定することができ、シーン内のオブジェクトの平らなものを画像内の基準オブジェクトとして決定することができる。
いくつかの実施形態では、画像内の線を識別するために3ステップのプロセスを使用することができる。第1のステップには、エッジ検出技術を使用して、画像の正しい領域にある線の候補を識別することが含まれ得る。検証セットを使用して、既知の物理的特性と設定及び姿勢に基づいて候補線を選別することができる。多くの実施形態において、深さセンサを使用して、キャプチャされた深さ情報に基づいて姿勢を決定することができる。第2のステップには、機械学習分類器を使用して各候補線の信頼性メトリックを決定することが含まれ得る。信頼性メトリックは、基準面の真の交差点を識別する可能性が最も高い線の候補を決定するために使用できる。第3のステップには、最大精度のために、選択された線の候補位置を完全固定ピクセルで表示される線に調整することが含まれ得る。これは、エッジ検出技術及び/又は機械学習分類器を適切に使用して実行できる。図7Bは、本発明の1つ又は複数の態様に係る画像内で決定される候補線セットを示す。
ステップ618において、オブジェクトを分割することができる。画像からオブジェクトを分割することには、画像内のオブジェクトを構成するピクセルを識別することが含まれ得る。画像がキャプチャされる様々な設定と組み合わせを考慮すると、画像内のオブジェクトの輪郭の精度は、オブジェクトの測定精度を確保するのに重要である。様々な実施形態において、生成された深さマップに基づいて、深さセンサを使用してオブジェクトの輪郭を決定することができる。多くの実施形態において、3ステップのプロセスを使用して、画像内のオブジェクトを分割することができる。第1のステップにおいて、機械学習分類器を使用して、画像内の背景から前景オブジェクトをマークするヒートマップを生成することができる。第2のステップには、前景オブジェクトとして識別された部分が正しいことを確認するためのヒートマップの検証が含まれ得る。一旦検証されると、バイナリマスクを生成して、画像から背景部分を除去することができる。第3のステップには、バイナリマスク及び画像データを使用して、オブジェクトに属するすべてのピクセルを含み、背景の一部であるピクセルを含まないように、オブジェクトの正確なエッジを決定することが含まれる。例えば、画像内のオブジェクトは足であり、背景には床及びユーザの足が投影された影が含まれ得る。図7Cは、本開示の1つ又は複数の態様に係る画像内の分割されたオブジェクトの図を示す。様々な実施形態において、キャプチャ装置のオペレーティングシステムによって提供されるオブジェクト追跡及びセグメンテーションアプリケーションプログラミングインターフェース(API)を使用して、オブジェクトを分割することができる。多くの実施形態において、APIを介して提供されるオブジェクトセグメンテーションと、バイナリマスクベースのオブジェクトセグメンテーションとを組み合わせて、キャプチャされた画像内のオブジェクトのエッジをさらに精査することができる。
ステップ620において、オブジェクトの向きを決定できる。オブジェクトの向きは、他の検出されたオブジェクトに対して及び/又は画像内の基準面に対して決定されることができる。複数のオブジェクトがある場合、オブジェクトが平行になるようにオブジェクトの向きを揃えることができる。いくつかの実施形態では、基準面に対して垂直になるように、オブジェクトを移動又は回転させることができる。例えば、画像に2つの足オブジェクトが含まれている場合には、各足オブジェクトの向きを、互いに平行になるとともに、基準面の壁に垂直になるように調整することができる。多くの実施形態において、バイナリマスクの形状及び傾向を使用して、実質的に垂直な姿勢を表す位置を見つけることができる。
ステップ622において、オブジェクトを測定できる。画像のスケールデータに基づいて、検出されたオブジェクトを測定できる。測定したいピクセル数にスケールを掛けることで、任意の次元での物体の測定が可能になる。例えば、検出されたオブジェクトが足である場合、足の様々な属性を計算することができる。これらの特性には、足の長さ、幅、足指の長さ、対角線の幅などが含まれるが、これらに限定されない。足の総面積に対する足指ボックスの体積及び縦横比など、様々な相対的測定値も測定することができる。図7Dは、本開示の1つ又は複数の態様に係る使用可能な足の測定の模式図を示す。複数のオブジェクトが検出された場合、複数のオブジェクトを比較する測定値も計算することができる。いくつかの実施形態では、LIDARセンサのような深さセンサによって提供される深さ情報に基づいて、オブジェクトを測定することができる。深さセンサを使用してキャプチャされたオブジェクトの特定の輪郭を決定し、これらの輪郭を使用してオブジェクトの大きさを微調整することができる。深さ情報の使用により、オブジェクトの体積や周長のようなオブジェクトの様々な属性を改善することができる。
図7Eは、本開示の1つ又は複数の態様によって計算できる足の測定値の表である。性別、地理的位置、及び/又は年齢別に、様々な足モデル上に生成されたモデルに基づいて、各測定値を計算することができる。いくつかの実施形態では、機械学習分類器を使用して足の測定値を生成することができる。
ステップ624において、モデルデータを生成することができる。モデルデータは、画像データ、メタデータ、及び/又は計算された測定値とともに、検出されたオブジェクトを適切に含むことができる。モデルデータには、2Dモデル、3Dモデル、メッシュモデル、及び/又は検出されたオブジェクトの任意の他のモデルが含まれ得る。様々な実施形態において、3次元モデリングプログラムと互換可能なファイルフォーマット(例えばSTLファイル)及び/又はデジタル切断(digital cutting)装置と互換可能なファイルフォーマット(例えばDXF及び/又はDWGファイル)を使用してモデルデータを生成することができる。ただし、任意のファイルフォーマットを使用してモデルデータを適切に保存することができる。図8を参照して説明したように、モデルデータを使用して、様々な製品の推奨及び/又はカスタマイズ製品の製造を提供することができる。
推奨(Recommendations)の提供
特定の製品のためのサイズの推奨を生成するために、モデルデータに記載される解剖学的情報、靴のスタイルからのデータ及びユーザの好みに基づいて様々な推奨を行うことができる。例えば、ユーザの好みには、青色又はグレーのスポーツシューズのような、好ましいスタイル、靴のタイプ、及び色が含まれ得る。製品のデータベースには、例えば、青、黒、赤の運動靴が含まれ得る。適切なサイズ(モデルデータに基づいて計算)と青色(ユーザの好みに基づいて決定)の運動靴を推奨することができる。様々な実施形態において、モデルデータに基づいて、カスタマイズ履物及びカスタマイズ矯正機のようなカスタマイズ製品を自動的に製造することを推奨することができる。モデルデータに基づいてカスタマイズ製品のサイズを決定することができ、好みデータに基づいてカスタマイズ製品のスタイル及び/又は色を決定することができる。このようにして、ユーザ固有の要件又はカスタマイズ要件に従って推奨製品を構成することができる。
特定の製品のためのサイズの推奨を生成するために、モデルデータに記載される解剖学的情報、靴のスタイルからのデータ及びユーザの好みに基づいて様々な推奨を行うことができる。例えば、ユーザの好みには、青色又はグレーのスポーツシューズのような、好ましいスタイル、靴のタイプ、及び色が含まれ得る。製品のデータベースには、例えば、青、黒、赤の運動靴が含まれ得る。適切なサイズ(モデルデータに基づいて計算)と青色(ユーザの好みに基づいて決定)の運動靴を推奨することができる。様々な実施形態において、モデルデータに基づいて、カスタマイズ履物及びカスタマイズ矯正機のようなカスタマイズ製品を自動的に製造することを推奨することができる。モデルデータに基づいてカスタマイズ製品のサイズを決定することができ、好みデータに基づいてカスタマイズ製品のスタイル及び/又は色を決定することができる。このようにして、ユーザ固有の要件又はカスタマイズ要件に従って推奨製品を構成することができる。
図8は、本明細書に記載の1つ又は複数の態様に係る推奨を提供するためのプロセスを概略フローチャートである。プロセス800のステップの一部又は全部は、本明細書に記載の1つ又は複数のコンピューティング装置を使用して実行されてもよい。様々な実施形態において、以下に説明されるステップの一部又は全部は、適宜に組み合わされてもよく、及び/又はサブステップに分けられてもよい。
ステップ810において、画像データをキャプチャすることができる。ステップ812において、モデルデータを生成することができる。本明細書に記載のように、画像データをキャプチャすることができ、モデルデータを生成することができる。
ステップ814において、ユーザの好みデータを取得することができる。ユーザの好みデータには、1つ又は複数の製品に対するユーザの任意の好みが含まれ得る。これには、スタイル、形状、色などが含まれるが、これらに限定されない。
ステップ816において、グローバル好みデータを取得できる。グローバル好みデータには、複数のユーザの好みデータが含まれ得る。グローバル好みデータには、さらに、ユーザの好みに関連する測定データ及び/又はモデルデータが含まれ得る。
ステップ818において、推奨データを生成できる。推奨データには、好みデータ、モデルデータ及び/又はグローバル好みデータに基づいて決定された1つ又は複数の製品が含まれ得る。取得したモデルデータと類似の測定値及び/又はモデルデータを持つユーザの好みデータ及び/又はグローバル好みデータに基づいて、製品を決定することができる。推奨製品のサイズはモデルデータに基づいて決定できる。好みデータに基づいて、推奨製品のスタイル、形状、色などを決定することができる。様々な実施形態において、ユーザが推奨製品を好む可能性及び/又は購入する可能性を示す信頼性メトリック及び潜在的に一致する製品を決定する機械学習分類器を使用して、推奨データを生成する。
ステップ820において、推奨データを提供できる。いくつかの実施形態では、推奨は、画像データをキャプチャするために使用されるモバイル装置上で実行されるアプリケーション内で提供される。様々な実施形態において、推奨データを使用して、オンラインストアから推奨製品を注文することができる。多くの実施形態において、推奨データを使用して、ユーザのための1回きりのカスタマイズ製品となるように、推奨製品を製造することができる。モデルデータは、3Dプリンタなどの製造装置に直接提供して、パーソナライズされた製品を製造することができる。
本明細書で説明される1つ又は複数の態様は、本明細書で説明されるように、1つ又は複数のコンピュータ又は他の装置によって実行される1つ又は複数のプログラムモジュールのような、コンピュータ実行可能データ又は可読データ及び/又はコンピュータ実行可能命令で具現化できる。一般に、プログラムモジュールには、ルーチン、プログラム、オブジェクト、構成要素、データ構造などが含まれ、それらは、コンピュータ又は他の装置内のプロセッサによって実行されるとき、特定のタスクを実行するか、特定の抽象データタイプを実装する。これらのモジュールは、実行のために後にコンパイルされるソースコードプログラミング言語で作成されるか、HTML又はXMLなど(ただし、これらに限定されない)のスクリプト言語で作成されることができる。コンピュータ実行可能命令は、ハードディスク、光ディスク、取り外し可能記憶媒体、固体メモリ、RAMなどのコンピュータ可読媒体に保存することができる。当業者が分かるように、プログラムモジュールの機能は、種々の実施形態において、所望に応じて組み合わされても、分散されてもよい。さらに、この機能の全部又は一部は、集積回路、フィールドプログラマブルゲートアレイ(FPGA)などのようなファームウェア又はハードウェアの等価物に実装できる。特定のデータ構造は、本明細書で検討される1つ又は複数の態様をより効果的に実装するために使用でき、このようなデータ構造は、本明細書で説明されるコンピュータ実行可能命令及びコンピュータ使用可能データの範囲内であると考えられる。本明細書で説明される様々な態様は、方法、コンピューティング装置、システム、及び/又はコンピュータプログラム製品として具現化され得る。
本発明を特定の態様で説明したが、多くの追加修正例及び変形は当事者には明らかであるだろう。特に、上記の様々なプロセスのいずれかは、特定の用途の要件により適した方法で類似の結果を達成するために、代替の順序及び/又は並列に(異なるコンピューティング装置上で)実行されてもよい。本発明は、本発明の範囲及び精神から逸脱することなく、具体的に説明された方法の以外の方法で実施することができることを理解されたい。したがって、本発明の実施形態は、すべての面で例示的なものであり、限定的なものではないと考えるべきである。
Claims (20)
- モバイル装置によって、基準オブジェクトに対して垂直に位置するオブジェクトの画像を表示するステップと、
前記モバイル装置によって、前記モバイル装置が前記オブジェクトに整列されていると決定するステップと、
前記モバイル装置によって、前記オブジェクト及び前記基準オブジェクトを含む画像をキャプチャするステップと、
前記モバイル装置によって、前記モバイル装置内の深さセンサを使用して決定された少なくとも1つの深さ測定値に基づいて、前記画像がキャプチャされたときの前記モバイル装置の予測高さを計算するステップと、
前記モバイル装置によって、前記予測高さに基づいて前記画像のためのスケールデータを計算するステップと、
前記モバイル装置によって、前記画像内の前記オブジェクトを検出するステップと、
前記モバイル装置によって、前記画像内の前記オブジェクト及び前記基準オブジェクトの位置を識別する基準線を決定するステップと、
前記モバイル装置によって、前記画像内の前記オブジェクトの内部のピクセルを前記画像内の前記オブジェクトの外部のピクセルから分割するステップと、
前記モバイル装置によって、前記オブジェクトの内部の前記ピクセル及び前記スケールデータに基づいて前記オブジェクトを測定するステップと、
前記モバイル装置によって、前記オブジェクト、前記スケールデータ及び前記測定値を含む、モデルデータを生成するステップと、
を含むオブジェクトのモデルを生成する方法。 - 前記モバイル装置によって、前記モデルデータに基づいて製品サイズの推奨を生成するステップをさらに含む、
請求項1に記載の方法。 - 前記モデルデータに足の測定値が含まれ、前記製品サイズの推奨に履物の勧めが含まれる、
請求項2に記載の方法。 - 前記モデルデータにユーザの身体の一部分の測定値が含まれ、前記製品サイズの推奨にアパレルの推奨が含まれる、
請求項2に記載の方法。 - 前記モバイル装置によって、前記深さ測定値に基づいて、前記モデルデータの透視を修正するステップをさらに含む、
請求項1に記載の方法。 - 前記モバイル装置が前記オブジェクトに整列されていると決定するステップは、前記モバイル装置上のアライメントインジケータにより前記モバイル装置を水平にするステップを含む、
請求項1に記載の方法。 - 前記モデルデータに基づいて、前記オブジェクトのモデルデータ及びユーザ固有の1つ又は複数の設定に関連するメタデータを含む画像データを生成するステップをさらに含む、
請求項1に記載の方法。 - 前記画像がキャプチャされたときの前記モバイル装置の前記予測高さを計算するステップは、
光検出及び測距(LIDAR)センサを含む前記深さセンサを使用して1つ又は複数のレーザビームを前記オブジェクトに投影するステップと、
前記LIDARセンサによって、反射されて前記LIDARセンサに戻る反射レーザビームを検出するステップと、
前記1つ又は複数のレーザビームを投影してから、前記反射レーザビームを検出するまでの持続時間を決定するステップと、
前記持続時間に基づいて前記予測高さを計算するステップと、
を含む、請求項1に記載の方法。 - 前記画像がキャプチャされたときの前記モバイル装置の前記予測高さを計算するステップは、前記深さセンサを使用して複数の深さ測定値を取得するステップと、前記複数の深さ測定値を平均化して前記予測高さを計算するステップとを含む、
請求項1に記載の方法。 - 前記モデルデータを生成するステップは、前記深さセンサから前記オブジェクトへの投影に基づいて、前記オブジェクトの1つ又は複数のメッシュモデルを生成するステップを含む、
請求項1に記載の方法。 - 前記1つ又は複数のメッシュモデルに基づいて前記オブジェクトのエッジ位置を決定するステップをさらに含む、
請求項10に記載の方法。 - 前記深さセンサを使用して生成した深さマップに基づいて、前記オブジェクトの輪郭を決定するステップをさらに含む、
請求項1に記載の方法。 - 前記画像内の前記オブジェクト及び前記基準オブジェクトの前記位置を識別する前記基準線を決定するステップは、前記深さセンサによって、1つ又は複数のビーム又はドットを前記オブジェクトに投影するステップと、前記1つ又は複数のビーム又はドットに基づいて前記基準線を決定するステップとを含む、
請求項1に記載の方法。 - 前記画像内の前記オブジェクトの内部のピクセルを前記画像内の前記オブジェクトの外部のピクセルから分割するステップは、機械学習分類器を適用して、前記画像内の背景から前記オブジェクトを含む前景がマークされているヒートマップを生成する、
請求項1に記載の方法。 - 少なくとも1つの深さセンサと、
少なくとも1つの画像キャプチャ装置と、
プロセッサと、
コンピュータ可読命令が格納されているメモリと、を含む機器であって、前記コンピュータ可読命令が実行されると、当該機器が、
基準オブジェクトに垂直に位置するオブジェクトの画像を表示し、
当該機器が前記オブジェクトに整列されていると決定し、
前記オブジェクト及び前記基準オブジェクトを含む画像をキャプチャし、
前記深さセンサを使用して決定された少なくとも1つの深さ測定値に基づいて、前記画像がキャプチャされたときの当該機器の予測高さを計算し、
前記予測高さに基づいて、前記画像のためのスケールデータを計算し、
前記画像内の前記オブジェクトの位置及び前記基準オブジェクトを識別する基準線を決定し、
前記画像内の前記オブジェクトの内部のピクセルを前記画像内の前記オブジェクトの外部のピクセルから分割し、
前記オブジェクトの内部の前記ピクセル及び前記スケールデータに基づいて前記オブジェクトを測定し、且つ、
前記オブジェクト、前記スケールデータ及び前記測定値を含む、モデルデータを生成するようになる、
機器。 - 前記少なくとも1つの深さセンサは、赤外線センサ、光検出センサ、又はLIDARセンサのうちの少なくとも1つを含む、
請求項15に記載の機器。 - 前記画像がキャプチャされたときの当該機器の前記予測高さの計算には、
LIDARセンサを含む前記深さセンサを使用して、1つ又は複数のレーザビームを前記オブジェクトに投影することと、
前記LIDARセンサによって、反射されて前記LIDARセンサに戻る反射レーザビームを検出することと、
前記1つ又は複数のレーザビームを投影してから、前記反射レーザビームを検出するまでの持続時間を決定することと、
前記持続時間に基づいて前記予測高さを計算することと、
が含まれる、請求項15に記載の機器。 - 前記モデルデータの生成には、前記深さセンサから前記オブジェクトへの投影に基づいて、前記オブジェクトの1つ又は複数のメッシュモデルを生成することが含まれる、
請求項15に記載の機器。 - 前記画像内の前記オブジェクト及び前記基準オブジェクトの前記位置を識別する前記基準線の決定には、前記深さセンサによって、1つ又は複数のビーム又はドットを前記オブジェクトに投影し、前記1つ又は複数のビーム又はドットに基づいて前記基準線を決定することが含まれる、
請求項15に記載の機器。 - モバイル装置によって、基準オブジェクトに対して垂直に位置するオブジェクトの画像を表示するステップと、
前記モバイル装置によって、前記モバイル装置が前記オブジェクトに整列されていると決定するステップと、
前記モバイル装置によって、前記オブジェクト及び前記基準オブジェクトを含む画像をキャプチャするステップと、
前記モバイル装置によって、前記モバイル装置が基準面に向いて移動する際の前記モバイル装置の移動を測定するステップと、
前記モバイル装置によって、前記測定された移動に基づいて、前記画像がキャプチャされたときの前記モバイル装置の予測高さを計算するステップと、
前記モバイル装置及び前記予測高さによって、前記画像のスケールデータを計算するステップと、
前記モバイル装置によって、前記画像内の前記オブジェクトを検出するステップと、
前記モバイル装置によって、前記画像内の前記オブジェクト及び前記基準オブジェクトの位置を識別する基準線を決定するステップと、
前記モバイル装置によって、前記画像内の前記オブジェクトの内部のピクセルを前記画像内の前記オブジェクトの外部のピクセルから分割するステップと、
前記モバイル装置によって、前記オブジェクトの内部の前記ピクセル及び前記スケールデータに基づいて前記オブジェクトを測定するステップと、
前記モバイル装置によって、前記オブジェクト、前記スケールデータ及び測定値を含む、モデルデータを生成するステップと、
を含む、オブジェクトのモデルを生成する方法。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202063031885P | 2020-05-29 | 2020-05-29 | |
US63/031,885 | 2020-05-29 | ||
US202063045431P | 2020-06-29 | 2020-06-29 | |
US63/045,431 | 2020-06-29 | ||
PCT/US2021/034932 WO2021243258A1 (en) | 2020-05-29 | 2021-05-28 | Systems and methods for processing captured images |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023528376A true JP2023528376A (ja) | 2023-07-04 |
Family
ID=76624187
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022573155A Pending JP2023528376A (ja) | 2020-05-29 | 2021-05-28 | キャプチャ画像の処理システム及び方法 |
Country Status (6)
Country | Link |
---|---|
US (2) | US11776147B2 (ja) |
EP (1) | EP4158593A1 (ja) |
JP (1) | JP2023528376A (ja) |
KR (1) | KR20230028316A (ja) |
CN (1) | CN116235210A (ja) |
WO (1) | WO2021243258A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10902551B1 (en) * | 2019-12-17 | 2021-01-26 | X Development Llc | True positive transplant |
US20230022065A1 (en) * | 2021-07-23 | 2023-01-26 | Aetrex, Inc. | Systems and methods for determining physical parameters of feet |
Family Cites Families (133)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5164793A (en) | 1991-09-13 | 1992-11-17 | Brown Group, Inc. | Shoe size selection system and apparatus therefor |
JPH06149376A (ja) | 1992-11-05 | 1994-05-27 | Mitsubishi Electric Corp | 経路生成装置 |
US5689446A (en) | 1995-11-03 | 1997-11-18 | Amfit, Inc. | Foot contour digitizer |
US6289107B1 (en) | 1996-05-23 | 2001-09-11 | Nike, Inc. | Apparatus and method of measuring human extremities using peripheral illumination techniques |
FR2749675B1 (fr) | 1996-06-07 | 1998-08-28 | Sextant Avionique | Procede de pilotage d'un aerodyne pour l'evitement vertical d'une zone |
JP2001101272A (ja) | 1999-07-26 | 2001-04-13 | Masaru Fujibayashi | インターネットを利用した身体関連商品の購入システム |
US6546356B1 (en) | 2000-05-01 | 2003-04-08 | Genovation Inc. | Body part imaging method |
JP2002203167A (ja) | 2000-12-28 | 2002-07-19 | Jeivan:Kk | 情報提供装置及びその方法 |
JP2003127994A (ja) | 2001-10-24 | 2003-05-08 | Kansai Electric Power Co Inc:The | 無人飛行物体の制御システム |
JP2003331108A (ja) | 2002-05-09 | 2003-11-21 | Kazuya Takahashi | 電子ワードローブシステム |
AU2003279283A1 (en) | 2002-10-16 | 2004-05-04 | Jeffrey S. Brooks, Inc. | Foot scanning and measurement system and method |
US7089152B2 (en) | 2003-06-19 | 2006-08-08 | Mizuno Corporation | System and method for assisting shoe selection |
JP2005169015A (ja) | 2003-12-15 | 2005-06-30 | Hisayo Ishimaru | 適合既製靴教示装置、適合既製靴教示システム及びプログラム |
AU2005221092A1 (en) | 2004-03-08 | 2005-09-22 | Craig E. Lowe | System and method for creating orthotics |
TWI259382B (en) | 2004-11-18 | 2006-08-01 | Chien Hui Chuan | Apparatus for rapidly measuring 3-dimensional foot sizes from multi-images |
US20070005174A1 (en) | 2005-06-29 | 2007-01-04 | Sony Ericsson Mobile Communications Ab | Virtual apparel fitting |
US7611550B2 (en) | 2005-09-15 | 2009-11-03 | The Boeing Company | Slurry fuels and associated methods |
CN101025564B (zh) | 2006-02-20 | 2010-12-15 | Hoya株式会社 | 四级光掩模制造方法和其中所使用的光掩模坯料 |
US20080040278A1 (en) | 2006-08-11 | 2008-02-14 | Dewitt Timothy R | Image recognition authentication and advertising system |
US7656402B2 (en) | 2006-11-15 | 2010-02-02 | Tahg, Llc | Method for creating, manufacturing, and distributing three-dimensional models |
US20080201643A1 (en) | 2007-02-01 | 2008-08-21 | 7 Billion People, Inc. | System for creating customized web content based on user behavioral portraits |
JP2010521253A (ja) | 2007-03-19 | 2010-06-24 | マッシ ミリアノ オーウー | 衣服の特別注文仕立てと衣服の小売りの方法及びシステム |
US20090051683A1 (en) | 2007-07-16 | 2009-02-26 | Ravindra Stephen Goonetilleke | Method and system for foot shape generation |
EP2211715A1 (de) | 2007-11-19 | 2010-08-04 | Corpus.E AG | Hochauflösende optische erfassung der raumform von körpern |
US8065200B2 (en) | 2007-11-26 | 2011-11-22 | International Business Machines Corporation | Virtual web store with product images |
US8152744B2 (en) | 2008-03-25 | 2012-04-10 | Comfort Lab. Inc. | Shoe or insole fitting navigation system |
US20090287452A1 (en) | 2008-05-13 | 2009-11-19 | Qinetiq Limited | Method and Apparatus for Accurate Footwear and Garment Fitting |
KR101513151B1 (ko) | 2008-08-08 | 2015-04-20 | 소프트포럼 주식회사 | 3d 아바타를 이용한 인터넷 서비스 제공 시스템 및 그 방법 |
BRPI0917864A2 (pt) | 2008-08-15 | 2015-11-24 | Univ Brown | aparelho e método para estimativa da forma corporal |
US11007070B2 (en) | 2008-11-09 | 2021-05-18 | 3D Systems, Inc. | Modular custom braces, casts and devices and methods for designing and fabricating |
CN101742048A (zh) | 2008-11-27 | 2010-06-16 | 英业达股份有限公司 | 手持式电子装置的影像产生方法 |
US8818883B2 (en) | 2009-07-23 | 2014-08-26 | Apple Inc. | Personalized shopping avatar |
CN101819663A (zh) | 2009-08-27 | 2010-09-01 | 珠海琳琅信息科技有限公司 | 一种服装虚拟试穿系统 |
US20110093344A1 (en) | 2009-10-21 | 2011-04-21 | Burke Wells D | Targeted interactive content for in-store retail customers |
US8908928B1 (en) | 2010-05-31 | 2014-12-09 | Andrew S. Hansen | Body modeling and garment fitting using an electronic device |
US8655053B1 (en) | 2010-05-31 | 2014-02-18 | Andrew S Hansen | Body modeling and garment fitting using an electronic device |
US10702216B2 (en) | 2010-06-08 | 2020-07-07 | Styku, LLC | Method and system for body scanning and display of biometric data |
US20110298897A1 (en) | 2010-06-08 | 2011-12-08 | Iva Sareen | System and method for 3d virtual try-on of apparel on an avatar |
ES2372349B1 (es) | 2010-06-25 | 2012-11-23 | Alu Group S.L. | Método y dispositivo de medición del pie. |
US20120054041A1 (en) | 2010-08-28 | 2012-03-01 | Ebay Inc. | Shopping profile in an online shopping environment |
US8567081B2 (en) | 2010-08-31 | 2013-10-29 | Northwest Podiatric Laboratory, Inc. | Apparatus and method for imaging feet |
ES2383976B1 (es) | 2010-12-03 | 2013-05-08 | Alu Group, S.L. | Método para el probado virtual de calzado. |
US9788759B2 (en) | 2010-12-27 | 2017-10-17 | Joseph Ralph Ferrantelli | Method and system for postural analysis and measuring anatomical dimensions from a digital three-dimensional image on a mobile device |
DE202010013232U1 (de) | 2010-12-29 | 2011-03-03 | Fischer, Seira | Personenreinigungsanlage |
GB201102794D0 (en) | 2011-02-17 | 2011-03-30 | Metail Ltd | Online retail system |
US20120239504A1 (en) | 2011-03-15 | 2012-09-20 | Microsoft Corporation | Virtual Shopping Assistance |
EP3654147A1 (en) | 2011-03-29 | 2020-05-20 | QUALCOMM Incorporated | System for the rendering of shared digital interfaces relative to each user's point of view |
KR20120123845A (ko) | 2011-05-02 | 2012-11-12 | 엘지전자 주식회사 | 터치 스크린 |
KR20120123842A (ko) | 2011-05-02 | 2012-11-12 | 하태준 | 3차원 아바타를 이용한 맞춤 쇼핑 시스템 및 그 방법 |
JP5005107B1 (ja) | 2011-06-23 | 2012-08-22 | 誠 大島 | データ蓄積システム |
ITMI20111550A1 (it) | 2011-08-25 | 2013-02-26 | Magari S R L | Metodo e sistema per la selezione ottimizzata di articoli calzaturieri o di abbigliamento |
US9098600B2 (en) | 2011-09-14 | 2015-08-04 | International Business Machines Corporation | Deriving dynamic consumer defined product attributes from input queries |
US9345957B2 (en) | 2011-09-30 | 2016-05-24 | Microsoft Technology Licensing, Llc | Enhancing a sport using an augmented reality display |
US9098908B2 (en) | 2011-10-21 | 2015-08-04 | Microsoft Technology Licensing, Llc | Generating a depth map |
US9788792B2 (en) | 2011-10-26 | 2017-10-17 | The United States of America, as represented by Department of Veterans Affairs, Office of General Counsel, Professional Staff Group IV(024) | System for screening skin condition for tissue damage |
US20130110666A1 (en) | 2011-10-28 | 2013-05-02 | Adidas Ag | Interactive retail system |
US8868157B1 (en) | 2011-11-09 | 2014-10-21 | VisionQuest Biomedical LLC | Thermal optical imager system and method for detection of peripheral neuropathy |
KR20130052159A (ko) | 2011-11-11 | 2013-05-22 | 강동연 | 스마트폰을 이용한 가상 피팅 방법 및 그 시스템 |
BR112014015639A8 (pt) | 2011-12-19 | 2017-07-04 | Intel Corp | comércio auxiliado por dispositivo inteligente |
US9027827B2 (en) | 2012-01-16 | 2015-05-12 | Qualcomm Incorporated | System and method for providing a personalized shopping experience and personalized pricing of products and services with a portable computing device |
US11154243B2 (en) | 2012-01-30 | 2021-10-26 | Sensoria Inc. | Sensor systems for user-specific evaluation of gait, footwear and garment fitting; monitoring of contact, force, pressure and/or shear at or near body surfaces |
US9483771B2 (en) | 2012-03-15 | 2016-11-01 | At&T Intellectual Property I, L.P. | Methods, systems, and products for personalized haptic emulations |
US20140108208A1 (en) | 2012-03-26 | 2014-04-17 | Tintoria Piana U.S., Inc. | Personalized virtual shopping assistant |
US20140018979A1 (en) | 2012-07-13 | 2014-01-16 | Honeywell International Inc. | Autonomous airspace flight planning and virtual airspace containment system |
WO2014022855A1 (en) | 2012-08-03 | 2014-02-06 | Ohnemus Isabelle | Garment fitting system and method |
US10664901B2 (en) | 2012-08-03 | 2020-05-26 | Eyefitu Ag | Garment fitting system and method |
WO2014037939A1 (en) | 2012-09-05 | 2014-03-13 | Body Pass Ltd. | System and method for deriving accurate body size measures from a sequence of 2d images |
US20140089134A1 (en) | 2012-09-27 | 2014-03-27 | Bonfire Holdings, Inc. | System and method for creating a customized shopping experience for a user |
US9462838B1 (en) | 2012-09-28 | 2016-10-11 | Google Inc. | Adjustable apparel fit template |
US20140104395A1 (en) | 2012-10-17 | 2014-04-17 | Gelsight, Inc. | Methods of and Systems for Three-Dimensional Digital Impression and Visualization of Objects Through an Elastomer |
US20140285646A1 (en) | 2012-11-08 | 2014-09-25 | Satwinder Kahlon | Apparatus for recommendation for best fitting shoe |
US20140156449A1 (en) | 2012-12-02 | 2014-06-05 | Embl Retail Inc. | Method and apparatus for item recommendation |
DE102013203667B4 (de) | 2013-03-04 | 2024-02-22 | Adidas Ag | Kabine zum Ausprobieren eines oder mehrerer Bekleidungsstücke |
US9489743B2 (en) | 2013-03-13 | 2016-11-08 | Mecommerce, Inc. | Determining dimension of target object in an image using reference object |
KR20160021118A (ko) | 2013-05-13 | 2016-02-24 | 엠포트 피티와이 엘티디 | 신체 치수 및 형상 정보의 사용자-구동 결정의 활성화 및 네트워크 환경에 걸친 그 정보의 이용을 위한 디바이스, 프레임워크 및 방법론 |
US9978090B2 (en) | 2013-07-05 | 2018-05-22 | Globalfoundries Inc. | Shopping optimizer |
US9760674B2 (en) | 2013-07-26 | 2017-09-12 | Aetrex Worldwide, Inc. | Systems and methods for generating orthotic device models from user-based data capture |
JP6389888B2 (ja) | 2013-08-04 | 2018-09-12 | アイズマッチ エルティーディー.EyesMatch Ltd. | 鏡における仮想化の装置、システム、及び方法 |
US9892424B2 (en) | 2013-08-05 | 2018-02-13 | International Business Machines Corporation | Communication with shoppers in a retail environment |
US10318916B2 (en) | 2013-08-28 | 2019-06-11 | Barbaro Technologies | Apparatus and method of identifying and sizing clothing in an inventory management system |
US20150066707A1 (en) | 2013-09-03 | 2015-03-05 | Cellco Partnership D/B/A Verizon Wireless | Methods and Systems for Personalizing an In-Store Shopping Experience for a User in a Retail Store that Provides Accessories for Computing Devices |
US20150127363A1 (en) | 2013-11-01 | 2015-05-07 | West Coast Vision Labs Inc. | Method and a system for facilitating a user to avail eye-care services over a communication network |
US20160286906A1 (en) | 2013-11-09 | 2016-10-06 | Edgimago 2012 Ltd. | Method and system for measuring 3-dimensional objects |
KR20150061089A (ko) | 2013-11-25 | 2015-06-04 | 김지후 | 아바타를 이용한 상품 구매 및 광고 시스템 및 방법 |
KR20150070459A (ko) | 2013-12-16 | 2015-06-25 | 대덕대학산학협력단 | 3d촬영 구매자 신체사진 활용, 가상 피팅 쇼핑몰 |
CN103852130B (zh) | 2014-01-15 | 2016-11-02 | 北京艾力泰尔信息技术有限公司 | 基于图像识别的水位采集方法 |
US20150228084A1 (en) | 2014-02-10 | 2015-08-13 | Netcoutoure, Inc. | Systems and methods for calculating foot size using image recognition |
US9649558B2 (en) | 2014-03-14 | 2017-05-16 | Sony Interactive Entertainment Inc. | Gaming device with rotatably placed cameras |
JP6618925B2 (ja) | 2014-04-09 | 2019-12-11 | バイエル・コンシューマー・ケア・アクチェンゲゼルシャフトBayer Consumer Care AG | 1セットの推奨矯正器具製品を生成するための方法、装置、およびコンピュータが読み出し可能な媒体 |
US10872408B2 (en) | 2014-05-02 | 2020-12-22 | Etreat Medical Diagnostics Inc. | Method and system for imaging and analysis of anatomical features |
NZ631213A (en) | 2014-05-13 | 2016-03-31 | Mport Pty Ltd | Frameworks and methodologies for enabling provision of computer implement functionalities via centralized management of data derived from three dimensional body scans |
US9858611B2 (en) | 2014-05-29 | 2018-01-02 | Like A Glove Ltd. | Self-measuring garment |
EP2954798B1 (de) | 2014-06-11 | 2017-04-12 | VITRONIC Dr.-Ing. Stein Bildverarbeitungssysteme GmbH | Messverfahren zur Bestimmung biometrischer Daten menschlicher Füße |
JP6330238B2 (ja) | 2014-06-11 | 2018-05-30 | 士華 管 | 試着画像表示方法 |
KR20160005977A (ko) | 2014-07-08 | 2016-01-18 | 삼성전기주식회사 | 체온 측정 장치 및 이를 이용한 체온 측정 방법 |
JP6154436B2 (ja) | 2014-07-22 | 2017-06-28 | 里 浩二 | ヒール及びパンプス用組立式インソール |
JP6091472B2 (ja) | 2014-08-12 | 2017-03-08 | ソフトバンク株式会社 | 商品等提供システム、商品等提供方法、及び商品等提供プログラム |
US10366447B2 (en) | 2014-08-30 | 2019-07-30 | Ebay Inc. | Providing a virtual shopping environment for an item |
US9648926B2 (en) | 2014-09-23 | 2017-05-16 | William H. Marks | Footwear recommendations from foot scan data describing feet of a user |
EP3201882A4 (en) | 2014-09-30 | 2018-07-11 | Fitfully Ltd. | System and method of 3d modeling and virtual fitting of 3d objects |
US20160110479A1 (en) | 2014-10-15 | 2016-04-21 | Yong Li | System and method for constructing customized foot orthotics |
US10013711B2 (en) | 2014-10-29 | 2018-07-03 | Superfeet Worldwide, Inc. | Shoe and/or insole selection system |
US10210544B2 (en) | 2014-12-17 | 2019-02-19 | Paypal, Inc. | Displaying merchandise with avatars |
ES2765277T3 (es) | 2014-12-22 | 2020-06-08 | Reactive Reality Gmbh | Método y sistema para generar datos de modelo de prenda |
EP3254058A1 (en) | 2015-02-09 | 2017-12-13 | C & J Clark International Limited | Measuring an object |
EP3298586B1 (en) | 2015-05-18 | 2022-03-23 | EMBL Retail Inc | Method and system for recommending fitting footwear |
US10178303B2 (en) | 2015-05-29 | 2019-01-08 | Hover Inc. | Directed image capture |
US10366524B2 (en) | 2015-05-29 | 2019-07-30 | Nike, Inc. | Three-dimensional body scanning and apparel recommendation |
US10062097B2 (en) | 2015-05-29 | 2018-08-28 | Nike, Inc. | Three-dimensional body scanning and apparel recommendation |
US20170004568A1 (en) | 2015-07-02 | 2017-01-05 | Alexander J. C. Radner | Retailer linked personalized shopping assistant |
EP3340943B1 (en) | 2015-08-25 | 2019-08-07 | Ossur Iceland EHF | Prosthetic system |
US20180247426A1 (en) | 2015-08-28 | 2018-08-30 | Lawrence Gluck | System for accurate remote measurement |
GB2542114B (en) | 2015-09-03 | 2018-06-27 | Heartfelt Tech Limited | Method and apparatus for determining volumetric data of a predetermined anatomical feature |
US9852234B2 (en) | 2015-09-16 | 2017-12-26 | Brian Gannon | Optimizing apparel combinations |
US20170169571A1 (en) | 2015-12-11 | 2017-06-15 | Nesi Trading Co., Ltd. | Foot scanning system |
US10564628B2 (en) | 2016-01-06 | 2020-02-18 | Wiivv Wearables Inc. | Generating of 3D-printed custom wearables |
US9985587B2 (en) | 2016-01-18 | 2018-05-29 | Cirrus Logic, Inc. | Switched mode converter with variable common mode voltage buffer |
US9996981B1 (en) | 2016-03-07 | 2018-06-12 | Bao Tran | Augmented reality system |
US20170272728A1 (en) | 2016-03-16 | 2017-09-21 | Aquifi, Inc. | System and method of three-dimensional scanning for customizing footwear |
US9875546B1 (en) | 2016-03-29 | 2018-01-23 | A9.Com, Inc. | Computer vision techniques for generating and comparing three-dimensional point clouds |
US10510077B2 (en) | 2016-05-03 | 2019-12-17 | Facebook, Inc. | Facial recognition identification for in-store payment transactions |
US10008040B2 (en) | 2016-07-29 | 2018-06-26 | OnePersonalization Limited | Method and system for virtual shoes fitting |
CN109804404A (zh) | 2016-09-06 | 2019-05-24 | 耐克创新有限合伙公司 | 用于个性化购物的系统、平台、装置和方法 |
US20180160777A1 (en) * | 2016-12-14 | 2018-06-14 | Black Brass, Inc. | Foot measuring and sizing application |
US10420397B2 (en) | 2016-12-14 | 2019-09-24 | Black Brass, Inc. | Foot measuring and sizing application |
FR3060735B1 (fr) | 2016-12-15 | 2019-12-27 | IFP Energies Nouvelles | Procede de mesure d'une partie du corps a partir de photographies numeriques, et mise en oeuvre d'un tel procede pour la fabrication de chaussures sur mesure |
KR102643553B1 (ko) | 2017-01-06 | 2024-03-05 | 나이키 이노베이트 씨.브이. | 자동 쇼핑 어시스턴트를 이용한 개인화 쇼핑을 위한 시스템, 플랫폼 및 방법 |
US11128794B2 (en) | 2017-07-31 | 2021-09-21 | Uplay1 | Augmented reality real estate MLS and virtual tours |
CN111278321A (zh) | 2017-08-25 | 2020-06-12 | 鞋履检索公司 | 鞋类尺码确定的系统和方法 |
TWI657761B (zh) | 2017-09-21 | 2019-05-01 | 劉懿賢 | 足底量測裝置 |
US20190228448A1 (en) | 2018-01-24 | 2019-07-25 | Nike, Inc. | System, Platform and Method for Personalized Shopping Using a Virtual Shopping Assistant |
US10755431B2 (en) | 2018-07-19 | 2020-08-25 | Radius Technologies, LLC | Systems and methods for sizing objects via a computing device |
US20200211170A1 (en) * | 2018-12-28 | 2020-07-02 | Wiivv Wearables Company | Live viewfinder verification of image viability |
-
2021
- 2021-05-28 WO PCT/US2021/034932 patent/WO2021243258A1/en unknown
- 2021-05-28 JP JP2022573155A patent/JP2023528376A/ja active Pending
- 2021-05-28 CN CN202180059100.XA patent/CN116235210A/zh active Pending
- 2021-05-28 KR KR1020227045746A patent/KR20230028316A/ko unknown
- 2021-05-28 EP EP21735047.9A patent/EP4158593A1/en active Pending
- 2021-05-28 US US17/333,938 patent/US11776147B2/en active Active
-
2023
- 2023-08-10 US US18/232,519 patent/US20230386065A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US11776147B2 (en) | 2023-10-03 |
CN116235210A (zh) | 2023-06-06 |
WO2021243258A1 (en) | 2021-12-02 |
US20230386065A1 (en) | 2023-11-30 |
US20210374985A1 (en) | 2021-12-02 |
KR20230028316A (ko) | 2023-02-28 |
EP4158593A1 (en) | 2023-04-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110335316B (zh) | 基于深度信息的位姿确定方法、装置、介质与电子设备 | |
US11200753B2 (en) | Virtual try-on systems and methods for spectacles | |
US20230386065A1 (en) | Systems and methods for processing captured images | |
US9519968B2 (en) | Calibrating visual sensors using homography operators | |
CN106887018B (zh) | 立体匹配方法、控制器和系统 | |
KR102362470B1 (ko) | 족부 정보 처리 방법 및 장치 | |
US20210333124A1 (en) | Method and system for detecting changes in road-layout information | |
US20230169686A1 (en) | Joint Environmental Reconstruction and Camera Calibration | |
JPWO2016208404A1 (ja) | 情報処理装置および方法、並びにプログラム | |
WO2019066938A1 (en) | METHODS AND APPARATUS FOR JOB EXECUTION FACILITATION USING A DRONE | |
US11657568B2 (en) | Methods and systems for augmented reality tracking based on volumetric feature descriptor data | |
JP5976089B2 (ja) | 位置姿勢計測装置、位置姿勢計測方法、およびプログラム | |
JP7394240B2 (ja) | 被写体下端位置に基づいた深度推定 | |
CN115862124A (zh) | 视线估计方法、装置、可读存储介质及电子设备 | |
KR102161488B1 (ko) | 3차원 제품 디스플레이 장치 및 방법 | |
TWI637353B (zh) | 測量裝置及測量方法 | |
CN115697183A (zh) | 用于测量瞳孔距离的系统和方法及其使用 | |
JP7301467B2 (ja) | 画像判読支援システムおよび画像判読支援プログラム | |
US11651625B2 (en) | Systems and methods for predicting elbow joint poses | |
WO2023203530A1 (en) | Interpupillary distance estimation method | |
TW201643814A (zh) | 點雲拼接方法及系統 | |
CN115315728A (zh) | 用于虚拟适配的系统和方法 | |
TW202407639A (zh) | 螺件裝配誤差檢測裝置、螺件裝配誤差檢測方法及電腦程式產品 | |
KR20240018150A (ko) | 영상 잡음 제거 방법 및 장치 | |
KR20210046218A (ko) | 방문자 정보 획득 방법 및 그 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230127 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231225 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240116 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240411 |