JP2020515351A - オブジェクトの形状に関する情報を取得する方法および装置 - Google Patents

オブジェクトの形状に関する情報を取得する方法および装置 Download PDF

Info

Publication number
JP2020515351A
JP2020515351A JP2019554403A JP2019554403A JP2020515351A JP 2020515351 A JP2020515351 A JP 2020515351A JP 2019554403 A JP2019554403 A JP 2019554403A JP 2019554403 A JP2019554403 A JP 2019554403A JP 2020515351 A JP2020515351 A JP 2020515351A
Authority
JP
Japan
Prior art keywords
information
shape
background
sensor
item
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019554403A
Other languages
English (en)
Other versions
JP6845346B2 (ja
Inventor
チェー,サンホ
パク,ビョンソン
ジン,ジョンファン
イ,ウォンヒョ
シン,ヒョンベ
ジョン,ソンヨプ
キム,ソンウク
ハム,ノア
キム,ジミン
Original Assignee
スノー コーポレーション
スノー コーポレーション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by スノー コーポレーション, スノー コーポレーション filed Critical スノー コーポレーション
Publication of JP2020515351A publication Critical patent/JP2020515351A/ja
Application granted granted Critical
Publication of JP6845346B2 publication Critical patent/JP6845346B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1072Measuring physical dimensions, e.g. size of the entire body or parts thereof measuring distances on the body, e.g. measuring length, height or thickness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/20Administration of product repair or maintenance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1079Measuring physical dimensions, e.g. size of the entire body or parts thereof using optical or photographic means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0631Item recommendations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/725Cordless telephones
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/539Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Abstract

少なくとも1つのセンサを含むセンサ部を使用し、オブジェクトの周りの背景とオブジェクトとを区分し、背景および/またはオブジェクトの測定ポイントまでの距離を測定し、測定された距離に基づいてオブジェクトを構成する少なくとも1つの部分の形状に関する情報を取得する方法および装置を提供する。

Description

本開示は、センサを使用してオブジェクトの形状に関する情報を取得する方法および装置に関し、より詳細には、センサを使用して身体であるオブジェクトの形状に関する情報を取得し、身体に適したアイテムを推薦する方法および装置に関する。
従来では、被写体に含まれるオブジェクトやオブジェクトを構成する部分の大きさ(サイズ)を測定および予測するにあたり、オブジェクトと背景とを識別した後、オブジェクトの大きさを計算するために、動くオブジェクトの動きを追跡する作業が求められていた。あるいは、オブジェクトを専用スキャナでスキャンする作業が求められていた。
しかしながら、動くオブジェクトの追跡は、時間基盤の追跡行為を必要とするため、オブジェクトの大きさを決定するための効率的な方法であるとは言い難い。さらに、このように動くオブジェクトの追跡を基盤とする方法は、オブジェクトの大きさ決定において求められる高い精密度の条件を満たすことができない。
一方、専用スキャナを使用してオブジェクトの大きさを決定する方法の場合には、オブジェクトの大きさを決定するために専用スキャナを備えなければならず、普遍的な使用が困難であるという問題がある。
したがって、ユーザが簡単に利用することのできるセンサを使用して取得するデータを用いて被写体に含まれる背景およびオブジェクトを識別することができ、さらにオブジェクトの大きさ決定において高い精密度を確保することのできる方法が求められている。
特許文献1には、撮影部を利用して被写体を撮影し、被写体の大きさを計算した後、被写体の大きさに基づいて被写体の距離を計算する距離測定装置および方法が記載されている。
上述した情報は、理解を助けるためのものに過ぎず、従来技術の一部を形成しない内容を含むこともあるし、従来技術が当業者に提示することのできる内容を含まないこともある。
韓国公開特許第10−2014−0118185号公報
一実施形態は、センサを使用し、オブジェクトの周りの背景とオブジェクトとを区分し、背景および/またはオブジェクトの測定ポイントまでの距離を測定し、測定された距離に基づいてオブジェクトの少なくとも1つの部分の形状に関する情報を取得する方法を提供することを目的とする。
一側面によると、少なくとも1つのセンサを含むセンサ部を使用し、オブジェクトの周りの背景と前記オブジェクトとを区分し、前記背景の少なくとも1つのポイントおよび前記オブジェクトの少なくとも1つのポイントのうちの少なくとも1つの測定ポイントから前記センサ部までの距離を測定する段階、および少なくとも測定された前記距離に基づいて、前記オブジェクトを構成する少なくとも1つの部分の形状に関する情報を取得する段階を含む、オブジェクトの形状に関する情報を取得する方法を提供する。
前記センサ部は、奥行きセンサを含んでよい。
前記測定する段階は、前記奥行きセンサを使用し、前記背景および前記オブジェクトの輪郭を把握することによって前記背景と前記オブジェクトとを区分する段階を含んでよい。
前記センサ部は、距離センサを含んでよい。
前記測定する段階は、前記距離センサを使用し、前記測定ポイントまでの飛行時間(Time of Flight:ToF)に基づいて距離を測定する段階を含んでよい。
前記形状に関する情報は、前記部分の大きさに関する情報を含んでよい。
前記測定する段階は、前記部分の2つの測定ポイントから前記センサ部までの距離を測定してよい。
前記取得する段階は、前記センサ部が前記測定ポイントと関連して位置する角度および測定された前記距離を用いて前記部分の大きさに関する情報を取得することにより、前記形状に関する情報を取得してよい。
前記大きさに関する情報は、前記部分の長さおよび幅のうちの少なくとも1つを含んでよい。
前記測定する段階は、前記背景を構成する少なくとも1つの背景要素の高さを示す情報および予め設定されたパターン情報のうちの少なくとも1つに基づいて、前記背景要素を前記背景の残りの部分と区別する段階を含んでよい。
前記測定する段階は、前記背景要素が示すデータと前記パターン情報との一致度が所定の値以上である場合、前記背景要素を予め設定されたタイプの背景要素として決定する段階を含んでよい。
前記オブジェクトは身体であり、前記部分は前記身体の部位であり、前記形状に関する情報は、前記部位の少なくとも一部の形状、長さ、および幅のうちの少なくとも1つに関する部位形態情報を含んでよい。
前記オブジェクトの形状に関する情報を取得する方法は、前記部位形態情報に基づいて前記身体の体型を決定する段階をさらに含んでよい。
前記身体は、複数の部位を含んでよい。
前記体型を決定する段階は、前記複数の部位のうちの少なくとも2つの部位に関する部位形態情報および前記複数の部位のうちの識別された所定の部位に関する部位形態情報のうちの少なくとも1つに基づいて、前記身体の体型を決定してよい。
前記オブジェクトの形状に関する情報を取得する方法は、前記部位形態情報に基づいて、前記部位に着用可能な衣類およびアクセサリのうちの少なくとも1つのアイテムに関する推薦情報を提供する段階をさらに含んでよい。
前記推薦情報を提供する段階は、前記部位形態情報に基づいて決定された前記身体の体型に基づいて決定された衣類およびアクセサリのうちの少なくとも1つのアイテムに関する推薦情報を提供してよい。
前記推薦情報を提供する段階は、前記部位形態情報に基づいて決定された前記身体の体型と関連付けられた統計学的情報に基づいて決定された衣類およびアクセサリのうちの少なくとも1つのアイテムに関する推薦情報を提供してよい。
前記推薦情報を提供する段階は、前記部位形態情報に基づいて決定された前記部位のサイズ情報に基づいて決定された衣類およびアクセサリのうちの少なくとも1つのアイテムに関する推薦情報を提供してよい。
前記オブジェクトの形状に関する情報を取得する方法は、決定された前記アイテムの寸法と前記部位形態情報とを比較して前記アイテムに対して直しが必要であるかを判断する段階、および前記直しが必要である場合、前記アイテムに対する直し情報を提供する段階をさらに含んでよい。
前記直しが必要であるかは、ユーザによって予め設定されたスタイル情報に基づいて判断されてよい。
他の側面によると、少なくとも1つのセンサを含むセンサ部、前記センサ部を使用し、オブジェクトの周りの背景と前記オブジェクトとを区分し、前記背景の少なくとも1つのポイントおよび前記オブジェクトの少なくとも1つのポイントのうちの少なくとも1つの測定ポイントから前記センサ部までの距離を測定する背景およびオブジェクト測定部、および少なくとも測定された前記距離に基づいて、前記オブジェクトを構成する少なくとも1つの部分の形状に関する情報を取得する情報取得部を備える、電子装置が提供される。
前記オブジェクトは身体であり、前記部分は前記身体の部位であり、前記形状に関する情報は、前記部位の少なくとも一部の形状、長さ、および幅のうちの少なくとも1つに関する部位形態情報を含んでよい
前記電子装置は、前記部位形態情報に基づいて前記身体の体型を決定する体型決定部をさらに備えてよい。
前記電子装置は、前記部位形態情報に基づいて、前記部位に着用可能な衣類およびアクセサリのうちの少なくとも1つのアイテムに関する推薦情報を提供する推薦情報提供部をさらに備えてよい。
センサが取得したデータに基づいて、オブジェクトの周りの背景とオブジェクトとを区分し、背景および/またはオブジェクトの測定ポイントまでの距離を測定し、オブジェクトの少なくとも1つの部分の形状に関する情報を取得することにより、オブジェクトの部分の大きさのような形状に関する情報を簡単に取得することができる。
一実施形態における、センサ部を使用してオブジェクトの形状に関する情報を取得し、取得した形状に関する情報に基づいて、適したアイテムに関する推薦情報を提供する方法を示した図である。 一実施形態における、オブジェクトの形状に関する情報を取得する電子装置の構造とアイテムに関する推薦情報を提供するサーバの構造とを示した図である。 一実施形態における、オブジェクトの形状に関する情報を取得する方法を示したフローチャートである。 一実施形態における、センサ部を使用して背景とオブジェクトとを区分し、背景および/またはオブジェクトの測定ポイントまでの距離を測定する方法を示したフローチャートである。 一実施形態における、基盤データを使用して背景に含まれる背景要素を区別する方法を示したフローチャートである。 一実施形態における、センサ部を使用して身体の部位に関する部位形態情報を取得し、取得した部位形態情報に基づいて、適したアイテムに関する推薦情報を提供する方法を示したフローチャートである。 一実施形態における、オブジェクトとオブジェクトの周りの背景とを区別する方法を示した図である。 一実施形態における、背景およびオブジェクトの測定ポイントまでの距離を測定する方法を示した図である。 一実施形態における、身体に該当するオブジェクトの部位に関するそれぞれの部位形態情報を示した図である。 一実施形態における、取得した部位形態情報に基づいて、適したアイテムに関する推薦情報および直し情報を提供する方法を示した図である。
以下、本発明の実施形態について、添付の図面を参照しながら詳細に説明する。
図1は、一実施形態における、センサ部を使用してオブジェクトの形状に関する情報を取得し、取得した形状に関する情報に基づいて、適したアイテムに関する推薦情報を提供する方法を示した図である。
図1は、電子装置100が、電子装置100が含むセンサ部105を使用し、被写体の該当となる、オブジェクト110とオブジェクト110の周辺に存在する背景120とを認識および区分し、センサ部105からオブジェクト110および/または背景120の少なくとも1つの測定ポイントまでの距離を測定し、測定した距離に基づいてオブジェクト110の形状に関する情報を取得する方法を示している。形状に関する情報の取得とは、電子装置100が測定した距離に基づいてオブジェクト110の形状に関する情報を計算して提供するものと解釈されてよい。
取得したオブジェクト110の形状に関する情報は、オブジェクト110を構成する少なくとも1つの部分の形状に関する情報であってよい。取得したオブジェクト110の形状に関する情報は、例えば、オブジェクト110またはオブジェクト110を構成する少なくとも1つの部分の大きさに関する情報であってよい。
電子装置100は、取得した大きさに関する情報に基づいて、例えば、取得した大きさに関する情報に適したアイテムに関する情報を外部に存在するサーバ130に要求してよく、サーバ130から適したアイテムに関する情報を推薦情報として受信してよい。電子装置100は、受信した推薦情報をユーザに提供してよい。図に示すものとは異なり、推薦情報として、外部に存在するサーバ130ではなく、電子装置100内に記録されている情報が提供されてもよい。
電子装置100は、センサ部105を含む装置であって、オブジェクト100またはオブジェクト110を構成する少なくとも1つの部分の大きさに関する情報を取得するように構成された装置であってよい。例えば、電子装置100は、図に示すように、スマートフォンのようなユーザ端末であってよい。電子装置100の構造および電子装置100を構成する要素の動作および機能については、図2を参照しながらさらに詳しく説明する。
オブジェクト110は、電子装置100を使用して形状に関する情報を取得する対象となる客体であってよい。例えば、オブジェクト110は、電子装置100のユーザの身体または身体の一部に対応してよい。すなわち、電子装置100が取得するようになる形状に関する情報は、身体を構成する少なくとも1つの部位に関する部位形態情報を含んでよい。
背景120は、電子装置100のセンサ部105を使用して識別される部分のうちからオブジェクト110を除いた部分であってよい。例えば、背景120は、天井や床、および壁を含んでよい。また、背景120は、ドア、照明機器、および各種装飾を含んでよく、オブジェクト110を除いたすべての事物を含んでよい。電子装置100は、背景120に含まれる1つ以上の背景要素を把握して背景120とオブジェクト110とを区分してよく、区分されたオブジェクト110に対し、オブジェクト110を構成する少なくとも1つの部分の形状に関する情報を取得してよい。
サーバ130は、電子装置100の要求にしたがい、あるいはオブジェクト110を構成する少なくとも1つの部分の形状に関する情報の取得にしたがい、該当の形状に関する情報に基づいて、オブジェクト110に適したアイテムに関する推薦情報を電子装置100に提供してよい。例えば、オブジェクト110が身体である場合、サーバ130は、オブジェクト110に対して把握された形状に関する情報(すなわち、身体のサイズ)に適した少なくとも1つの衣類および/またはアクセサリに関する推薦情報を、電子装置100に提供してよい。
サーバ130は、推薦情報と関連するアイテムに関する情報を記録するデータベースを含んでよい。サーバ130の構造およびサーバ130を構成する要素の動作および機能については、図2を参照しながらさらに詳しく説明する。
一方、電子装置100がオブジェクト110と背景120とを区分し、オブジェクト110の形状に関する情報を取得する具体的な方法については、図3〜図12を参照しながら詳しく説明する。
図2は、一実施形態における、オブジェクトの形状に関する情報を取得する電子装置の構造とアイテムに関する推薦情報を提供するサーバの構造とを示した図である。
図に示す電子装置100は、図1を参照しながら上述した電子装置100に対応してよい。図1において、電子装置100として、スマートフォンおよびこれと類似する装置が示されているが、電子装置100は、PC(personal computer)、ノート型PC、ラップトップコンピュータ、タブレット、IoT(Internet Of Things)機器、またはウェアラブルコンピュータなどであってもよく、実施形態のオブジェクト110の形状に関する情報を取得するために使用されるセンサ部を含むものであれば、いかなる機器であってもよい。
電子装置100は、センサ部210、通信部220、および制御部230を備えてよい。また、電子装置100は、処理または受信した情報を出力するための表示部240をさらに備えてよい。図に示されてはいないが、電子装置100は、メッセージの入力またはユーザからのインタラクションを受信するための入力部をさらに備えてもよい。
センサ部210は、図1を参照しながら説明したセンサ部105に対応してよい。センサ部210は、オブジェクト110および背景120からデータを測定/取得するための少なくとも1つのセンサを含んでよい。例えば、センサ部210は、奥行きセンサ212、距離センサ214、加速度センサ216、およびジャイロ(gyro)センサ216のうちの少なくとも1つのセンサを含んでよい。また、センサ部210は、オブジェクト110および背景120を撮影して映像を生成するためのイメージセンサを含むカメラ218をさらに含んでよい。
奥行きセンサ212は、被写体の少なくとも一部に対し、3次元の奥行きに関する情報を測定/取得するための装置であってよい。例えば、奥行きセンサ212は、発光部および受光部を備えてよく、発光部から放出される光によって被写体の奥行き映像を検出してよい。発光部から放出される光は、例えば、赤外線であってよい。すなわち、奥行きセンサ212は、赤外線センサを備えてよい。奥行きセンサ212は、発光部から放出された光が反射して戻ってくる時間(すなわち、飛行時間(ToF)を利用することによって奥行き映像情報を生成してよい。発光部と受光部とは、互いに離隔していてよく、その距離が短いほど誤差が減り、精密な奥行き映像情報を生成することが可能となる。
距離センサ214は、被写体に対し、距離センサ214から被写体の少なくとも1つの測定ポイントまでの距離を測定/感知するための装置であってよい。また、距離センサ214は、被写体の2つの測定ポイントの距離を測定/感知するための装置であってもよい。距離センサ214は、赤外線センサや超音波センサ、およびPSD(Position sensitve device)センサのうちの少なくとも1つのセンサを含んでよい。距離センサ214は、距離センサ214から放出された光または音波(または、その他の波動)の被写体の測定ポイントまでの飛行時間(ToF)に基づいて測定ポイントまでの距離を測定してよい。上述した奥行きセンサ212および距離センサ214は、1つのセンサで構成されてもよい。すなわち、奥行きセンサ212が距離センサ214の機能を実行してもよい。
ジャイロセンサ216は、電子装置100の回転を感知し、電子装置100の位置および/または方向に関する情報を測定/取得するための装置であってよい。
加速度センサ216は、電子装置100の動きを感知することにより、電子装置100のx、y、z軸に対する加速度データを測定/取得するための装置であってよい。加速度センサ216が測定/取得したデータに基づいて、電子装置100の位置および/または方向に関する情報が取得されてよい。図に示すように、ジャイロセンサと加速度センサとは、1つのセンサモジュール216で構成されてもよい。
カメラ218は、被写体を撮影して映像を生成する装置であってよい。
上述したセンサ212、214、216、およびカメラ218の他に、センサ部210は、オブジェクト110および/または背景120の測定ポイントまでの距離を取得するためのものであれば、いかなるセンサを追加で含んでもよいし、代替的に含んでもよい。また、図に示すものとは異なり、センサ212、214、216、およびカメラ218のうちの少なくとも一部は、統合されたモジュールとして構成されてもよい。
通信部220は、電子装置100が他の電子装置やサーバ130と通信するための装置であってよい。すなわち、通信部220は、電子装置やサーバ130に対してデータおよび/または情報を送信/受信する電子装置100のネットワークインタフェースカード、ネットワークインタフェースチップ、およびネットワーキングインタフェースポートなどのようなハードウェアモジュール、または、ネットワークデバイスドライバもしくはネットワーキングプログラムのようなソフトウェアモジュールであってよい。
制御部230は、電子装置100の構成要素を管理してよく、電子装置100が使用するプログラムまたはアプリケーションを実行するものであってよい。例えば、制御部230は、オブジェクト110の形状に関する情報を取得するために実行されるアプリケーションを実行し、サーバ130および他の電子装置から受信したデータを処理するように構成されてよい。また、制御部230は、アプリケーションの実行およびデータの処理などに必要な演算を処理してよい。制御部230は、電子装置100の少なくとも1つのプロセッサ、またはプロセッサ内の少なくとも1つのコアであってよい。制御部230の構成については、以下でさらに詳しく説明する。
表示部240は、ユーザが入力したデータを出力したり、取得/計算されたオブジェクト110に関する情報(例えば、オブジェクト110を構成する少なくとも1つの部分の形状に関する情報)およびサーバ130から提供された推薦情報を出力したりするためのディスプレイ装置を含んでよい。例えば、表示部240は、タッチスクリーンを含んでよい。すなわち、表示部240は、入力部(図示せず)の機能を含むように構成されてよく、電子装置100のユーザは、入力部を介して、電子装置100に関する設定、形状に関する情報の取得に関する設定、および推薦情報に関する設定(提供される推薦情報を決定するために要求される情報に関する設定)のうちの少なくとも1つの設定を変更したり選択したりしてよい。
一方、図には示されていないが、電子装置100は、データまたは情報を記録するための装置として記録部を含んでよい。記録部は、いかなるメモリまたは記録装置であってもよい。記録部には、制御部230が実行するプログラムまたはアプリケーション、およびこれと関連する情報が記録されてよい。例えば、記録部は、取得された(すなわち、計算された)オブジェクト110と関連する形状に関する情報、背景120に関する情報、その他のオブジェクト110と関連する情報、およびセンサ部210によって測定された情報のうちの少なくとも一部の情報を記録してよい。
制御部230についてさらに詳しく説明すると、制御部230は、背景およびオブジェクト測定部232および情報取得部234を含んでよい。また、制御部230は、体型決定部236をさらに含んでよく、推薦情報提供部238を追加でさらに含んでよい。上述した制御部230の構成232〜238は、制御部230内(または、制御部230の少なくとも1つのプロセッサ内)で実現されるソフトウェアまたはハードウェアモジュールであってよい。
背景およびオブジェクト測定部232は、上述したセンサ部210が取得/測定したデータに基づいてオブジェクト110と背景120とを区分し、背景120の少なくとも1つのポイントおよびオブジェクト110の少なくとも1つのポイントのうちの少なくとも1つの測定ポイントから電子装置100(すなわち、センサ部210)までの距離を測定してよい。
情報取得部234は、背景およびオブジェクト測定部232によって測定された距離に基づいて、オブジェクト110を構成する少なくとも1つの部分の形状に関する情報を取得してよい。情報取得部234は、オブジェクト110が身体に該当する場合、オブジェクト110の部分に該当する身体の部位の少なくとも一部の形状、長さ、および幅のうちの少なくとも1つに関する部位形態情報を取得してよい。
体型決定部236は、情報取得部234によって取得された部位形態情報に基づいて、身体の体型を決定してよい。
推薦情報提供部238は、情報取得部234によって取得された部位形態情報に基づいて、身体の少なくとも1つの部位に着用可能な衣類およびアクセサリのうちの少なくとも1つのアイテムに関する推薦情報を提供してよい。
制御部230の構成232〜238のさらに具体的な機能および動作については、図3〜図10を参照しながらさらに詳しく説明する。上述した制御部230の構成232〜238は、少なくとも1つのプロセッサ内で実現されることから、構成232〜238の機能および動作も少なくとも1つのプロセッサによって実行されてよい。
サーバ130は、図1を参照しながら上述したサーバ130に対応してよい。サーバ130は、取得されたオブジェクト110と関連する形状に関する情報に基づいてオブジェクト110に適したアイテムに関する推薦情報(または、推薦情報に含まれるアイテム情報)を電子装置100に提供するサーバ、またはその他のコンピュータ装置であってよい。サーバ130は、電子装置100に推薦情報を提供するために要求されるデータを記録する少なくとも1つのデータベース、およびその他のコンピュータデバイスを含んでよい。一方、図には示されていないが、サーバ130は、電子装置100に推薦情報を提供するためのデータを処理するプロセッサ、および電子装置100との通信のために使用される通信部を含んでよい。
図に示すように、サーバ130は、アイテム情報データベース250および統計情報データベース260を含んでよい。
アイテム情報データベース250は、オブジェクト110と関連し、オブジェクト110が着用可能なアイテムに関する情報を記録してよい。オブジェクト110が身体である場合、アイテム情報データベース250は、身体に着用可能な衣類およびアクセサリに関する情報を記録してよい。例えば、アイテム情報データベース250は、衣類およびアクセサリの寸法(例えば、実測寸法)、サイズ(例えば、スモール(S)、ミディアム(M)、ラージ(L)など)、価格、および衣類およびアクセサリのイメージ(画像)のうちの少なくとも1つに関する情報を記録してよい。
サーバ130は、アイテム情報データベース250に記録された情報と関連するアイテムを販売、販売促進、広告、または説明(レビュー)する主体(例えば、ショッピングモールまたは広告ウェブサイトなど)が運営するサーバと通信することによって、アイテムに関する情報を取得してよく、取得した情報をアイテム情報データベース250に記録してよい。
統計情報データベース260は、電子装置100に提供される推薦情報を決定するために使用される統計学的情報を記録している。例えば、オブジェクト110が身体である場合、統計情報データベース260には、人間の身体に関する統計学的な(または、人口統計学的な)体型情報(例えば、平均体重および/または平均身長に関する情報)、スタイル情報(統計的に選好されるシルエットやスタイルに関する情報)、流行情報(統計的に選好されるアイテムに関する情報)、およびトレンド情報(選好されるアイテムやスタイルに関する動向情報)のうちの少なくとも1つの情報が記録されてよい。
サーバ130は、統計情報データベース260に記録された情報と関連するデータを提供する主体(例えば、統計庁または報道機関など)が運営するサーバと通信することによって、統計学的情報を取得してよく、取得した情報を統計情報データベース260に記録してよい。
サーバ130は、アイテム情報データベース250および統計情報データベース260に記録されたデータを参照することにより、適したアイテムに関する推薦情報を電子装置100に提供してよい。
一方、図に示すものとは異なり、アイテム情報データベース250および統計情報データベース260は、1つのデータベースとして構成されてもよい。
電子装置100に推薦情報を提供する具体的な方法については、図6および図10を参照しながらさらに詳しく説明する。
図1を参照しながら説明した技術的特徴は、図2にもそのまま適用可能であるため、重複する説明を省略する。
図3は、一実施形態における、オブジェクトの形状に関する情報を取得する方法を示したフローチャートであり、図4は、一実施形態における、センサ部を使用して背景とオブジェクトとを区分し、背景および/またはオブジェクトの測定ポイントまでの距離を測定する方法を示したフローチャートである。
図3および図4を参照しながら、上述した電子装置100を使用してオブジェクト110と背景120とを区分し、オブジェクト110および/または背景120の測定ポイントを基盤として距離を測定し、オブジェクト110の部分の形状に関する情報を取得する方法について詳しく説明する。
段階310において、背景およびオブジェクト測定部232は、センサ部210を使用し、オブジェクト110の周りの背景120とオブジェクト110とを区分し、背景120の少なくとも1つのポイントおよびオブジェクト110の少なくとも1つのポイントのうちの少なくとも1つの測定ポイントから電子装置100(すなわち、センサ部210)までの距離を測定してよい。段階310は、後述する段階410および420を含んでよい。
先ず、段階410において、背景およびオブジェクト測定部232は、センサ部210に含まれるセンサおよび/またはカメラを使用して背景120とオブジェクト110とを区分してよい。
例えば、背景およびオブジェクト測定部232は、センサ部210に含まれる奥行きセンサ212を使用し、背景120およびオブジェクト110の輪郭を把握することによって背景120とオブジェクト110とを区分してよい。背景およびオブジェクト測定部232は、奥行きセンサ210が取得した背景120およびオブジェクト110の奥行き映像に基づいて、背景120およびオブジェクト110の輪郭を決定してよい。また、背景およびオブジェクト測定部232は、センサ部210に含まれるカメラ218を使用し、背景120およびオブジェクト110の輪郭を把握することによって背景120とオブジェクト110とを区分してよい。背景およびオブジェクト測定部232は、カメラ218が取得した背景120およびオブジェクト110の映像または画像に基づいて、背景120およびオブジェクト110の輪郭を決定してよい。
次に、段階420において、背景およびオブジェクト測定部232は、センサ部210に含まれるセンサおよび/またはカメラを使用し、(センサ部210から)背景120および/またはオブジェクト110の測定ポイントまでの距離を測定してよい。測定ポイントは、背景120またはオブジェクト100における任意のポイントであってよい。すなわち、背景およびオブジェクト測定部232は、背景120またはオブジェクト100の任意のポイントまでの距離を測定してよい。
例えば、背景およびオブジェクト測定部232は、センサ部210に含まれる距離センサ214を使用し、測定ポイントまでの飛行時間(ToF)に基づいて距離を測定してよい。例えば、距離センサ214から放出された光の速度に、距離センサ214によって取得された、距離センサ214から測定ポイントまでの飛行時間(ToF)を掛けた値に基づいて、距離センサ214から測定ポイントまでの距離を計算(取得)してよい。距離センサ214から放出される光は、赤外線であってよい。あるいは、赤外線の飛行時間の代わりに、超音波の飛行時間やその他の波動の飛行時間が使用されてもよい。
背景およびオブジェクト測定部232が測定ポイントまでの距離を測定する方法については、図8を参照しながらさらに詳しく説明する。
段階320において、情報取得部234は、背景120とは区分されたオブジェクト110から、オブジェクト110を構成する少なくとも1つの部分を識別してよい。例えば、オブジェクト110が身体である場合、情報取得部234は、身体を構成する頭、腕、脚、胴体などの部位を、オブジェクト110を構成する部分として識別してよい。
情報取得部234は、段階310において把握されたオブジェクト110の輪郭またはカメラ215によって撮影されたオブジェクト110の映像または画像に基づいて、オブジェクト110を構成する少なくとも1つの部分を識別してよい。
図3および図4に示したものとは異なり、段階320は、段階410と段階420との間で実行されてもよい。また、段階320は、段階310の一部として段階310に含まれてもよい。
段階330において、情報取得部234は、段階310において測定された測定ポイントまでの距離に基づいて、オブジェクト110を構成する少なくとも1つの識別された部分の形状に関する情報を取得してよい。取得した形状に関する情報は、関連する部分の大きさに関する情報を含んでよい。大きさに関する情報は、部分の長さおよび幅のうちの少なくとも1つを含んでよい。例えば、オブジェクト110が身体である場合、取得した形状に関する情報は、身体を構成する部位の長さおよび/または幅を示す情報を含んでよい。
オブジェクト110が身体である場合における実施形態および上述した段階310および330のさらに詳細な内容については、図4〜図10を参照しながらさらに詳しく説明する。
図1および図2を参照しながら説明した技術的特徴の説明は、図3および図4にもそのまま適用可能であるため、重複する説明を省略する。
図5は、一実施形態における、基盤データを使用して背景に含まれる背景要素を区別する方法を示したフローチャートである。
図5は、図3および図4を参照しながら説明した段階310または410において、背景120とオブジェクト110とを区分する方法をさらに詳しく説明した図である。
段階510において、背景およびオブジェクト測定部232は、基盤データに基づいてオブジェクト110と背景120とを区別してよい。基盤データは、オブジェクト110と背景120とをより正確に区分するために用いられるデータであってよい。例えば、基盤データは、ジャイロ/加速度センサ216が取得した電子装置100の高さ(高低)を示す位置情報、および背景120を構成する背景要素のパターンを示すパターン情報のうちの少なくとも1つを含んでよい。パターン情報は、電子装置100に予め設定されたものであっても、予め設定された情報として外部サーバなどから提供されたものであってもよい。
背景およびオブジェクト測定部232は、背景120を構成する少なくとも1つの背景要素の高さを示す情報および予め設定されたパターン情報のうちの少なくとも1つに基づいて、背景要素を背景120の残りの部分と区別してよい。背景要素の高さを示す情報は、ジャイロ/加速度センサ216が取得した電子装置100の高さ(高低)を示す位置情報に基づいて決定されてよい。背景要素は、例えば、床、天井、左右側壁面、および前面を含んでよい。または、背景要素は、オブジェクト110を除いたドアや家具のような要素を含んでよい。
段階520において、背景およびオブジェクト測定部232は、背景要素が示すデータと予め設定されたパターン情報との一致度が所定の値以上である場合、背景要素を予め設定されたタイプの背景要素として決定してよい。予め設定されたタイプは、天井、壁、床などのような要素はもちろん、ドア、照明機器、家具などを含んでよい。
例えば、背景およびオブジェクト測定部232は、センサ部210が取得した奥行き映像やカメラ218が取得した映像または画像から取得したデータと予め設定されたパターン情報との一致度を判断してよい。
段階510および520により、背景およびオブジェクト測定部232は、背景120の要素をオブジェクト110に対して区分してよい。また、背景120の要素(壁や家具など)がそれぞれ区分されてよい。
上述した基盤データは、オブジェクト110と背景120とをより正確に区分するために、センサ部210が取得したデータに対して補助的/追加的に用いられてよい。
区分された背景要素については、図7を参照しながらさらに詳しく説明する。
図1〜図4を参照しながら説明した技術的特徴の説明は、図5にもそのまま適用可能であるため、重複する説明を省略する。
図6は、一実施形態における、センサ部によって身体の部位に関する部位形態情報を取得し、取得した部位形態情報に基づいて、適したアイテムに関する推薦情報を提供する方法を示したフローチャートである。
図6を参照しながら、オブジェクト110が身体である場合の実施形態についてさらに詳しく説明する。
段階310’において、背景およびオブジェクト測定部232は、センサ部210を使用し、オブジェクト110の周りの背景120と身体とを区分し、背景120の少なくとも1つのポイントおよび身体の少なくとも1つのポイントのうちの少なくとも1つの測定ポイントから電子装置100(すなわち、センサ部210)までの距離を測定してよい。
段階320’において、情報取得部234は、背景120とは区分された身体から、身体を構成する少なくとも1つの部位を識別してよい。
段階330’において、情報取得部234は、段階310’において測定された測定ポイントに対する距離に基づいて、身体を構成する少なくとも1つの識別された部位の形状に関する部位形態情報を取得してよい。部位形態情報は、身体を構成する部位の少なくとも一部の形状、長さ、および幅のうちの少なくとも1つを含んでよい。
図3を参照しながら説明した段階310〜330のそれぞれについての説明は、図6の段階310’〜330’のそれぞれについての説明にもそのまま適用可能であるため、重複する説明を省略する。
段階610において、体型決定部236は、段階330’において取得された部位形態情報に基づいて、身体の体型を決定してよい。体型決定部236は、身体を構成する複数の部位に対して取得された部位形態情報を総合的に考慮した上で身体の体型を決定してよい。例えば、体型決定部236は、身体の部位のうちの少なくとも2つの部位に関する部位形態情報に基づいて、身体の体型を決定してよい。体型決定部236は、対象となる部位の部位形態情報が示す大きさがすべて所定の値以上であるか、そのうちの所定の一部の大きさがすべて所定の値以上であるかを判断し、身体の体型を決定してよい。例えば、身体の体型は、痩せ体型、普通体型、ぽっちゃり体型(肉付きの良い体型)などを含む体型のうちのいずれか1つとして決定されてよい。
または、体型決定部236は、身体の複数の部位のうちの識別された所定の部位に関する部位形態情報だけに基づいて身体の体型を決定してもよい。このとき、決定された身体の体型は、所定の部位に対する体型(例えば、顔に対し、細い顔、普通の顔、広い(肉付きの良い)顔など)を示してよい。
体型決定部236は、上述したサーバ130の統計情報データベース260に記録された統計学的情報をさらに利用して身体の体型を決定してよい。例えば、体型決定部236は、統計情報データベース260に記録された平均身長情報、平均体重情報、および身体の各部位の寸法に関する情報をさらに参照して身体の体型を決定してよい。
段階620において、推薦情報提供部238は、段階330’において取得された部位形態情報に基づいて、該当の部位に着用可能な衣類およびアクセサリのうちの少なくとも1つのアイテムに関する推薦情報を提供してよい。推薦情報は、部位形態情報が示す部位の大きさ(寸法、幅、または長さなど)に該当する衣類および/またはアクセサリに関する情報を含んでよい。例えば、推薦情報提供部238は、取得された部位形態情報に基づいて決定された該当の部位のサイズ情報に基づいて決定された衣類およびアクセサリのうちの少なくとも1つのアイテムに関する推薦情報を提供してよい。例えば、サイズ情報は、XS、S、M、L、XLなどのサイズを示してよい。
また、推薦情報提供部238は、段階610において決定された身体の体型に基づいて決定された衣類およびアクセサリのうちの少なくとも1つのアイテムに関する推薦情報を提供してよい。すなわち、推薦情報には、電子装置100によって把握された身体の体型に基づいて決定された衣類および/またはアクセサリに関する情報が含まれてよい。例えば、決定された体型が痩せ型である場合、推薦情報にはS(スモール)サイズの衣類を示す情報が含まれてよく、決定された体型がぽっちゃり型である場合、推薦情報にはL(ラージ)サイズの衣類を示す情報が含まれてよい。
また、推薦情報提供部238は、決定された身体の体型と関連する統計学的情報に基づいて決定された衣類およびアクセサリのうちの少なくとも1つのアイテムに関する推薦情報を提供してよい。例えば、決定された身体の体型と関連する人口学的統計情報、スタイル情報、流行情報、およびトレンド情報のうちの少なくとも1つの情報が反映されて決定されたアイテムに関する情報が、推薦情報に含まれてよい。一例として、決定された体型ごとに人気度が高い衣類および/またはアクセサリを示す情報が推薦情報に含まれてよい。このとき、決定された体型が痩せ型の場合、推薦情報には、スキニージーンズや横ストライプ柄デザインの衣類のように痩せた体型に人気のある衣類を示す情報が含まれてよく、決定された体型がぽっちゃり型の場合、推薦情報には、大きめサイズのTシャツや縦ストライプ柄デザインの衣類のようにぽっちゃり体型に人気のある衣類を示す情報が含まれてよい。
または、推薦情報提供部238は、ユーザが電子装置100を利用して予め設定したスタイル設定に基づいて決定された衣類およびアクセサリのうちの少なくとも1つのアイテムに関する推薦情報を提供してもよい。例えば、ユーザがタイトスタイルを好むとしてスタイル設定をした場合、推薦情報提供部238は、スキニージーンズのような衣類に関する情報を含む推薦情報を提供してよい。
推薦情報が示すアイテムは、上着や下着を含む上衣または下衣のような衣類はもちろん、帽子、シューズ、サングラス、ネックレス、イヤリングなどの身体に着用可能なアクセサリを含んでよい。
推薦情報は、推薦情報が示すアイテムが身体に着用された形態でユーザに提供されてよい。例えば、ユーザは、電子装置100の表示部240やその他の自身のユーザ端末において、推薦情報が示すアイテムが身体に着用された状態をシミュレーションとして確認してよい。すなわち、アイテムに対する仮想フィッティングサービスが、電子装置100またはユーザの他のユーザ端末に提供されてよい。または、推薦情報が示すアイテムは、リストの形態で提供されてもよい。または、身体に最も適しているか人気の高いアイテムが身体に着用された状態で表示され、少なくとも1つの候補アイテムがリストの形態で個別に提供されてもよい。
推薦情報が示すアイテムに関する情報は、上述したサーバ130のアイテム情報データベース250から取得されてよい。一方、体型と関連する人口学的統計情報、スタイル情報、流行情報、およびトレンド情報は、サーバ130の統計情報データベース260から取得されてよい。
段階630において、推薦情報提供部238は、推薦情報が示すアイテムの寸法と部位形態情報とを比較し、該当のアイテムに対して直しの必要性を判断してよい。推薦情報が示すアイテムの寸法は、アイテム情報データベース250から取得されてよい。アイテムの寸法は、該当のアイテムの実測寸法であってよい。また、アイテムの寸法として、サイズに対応する同種のアイテムの一般的な寸法値が使用されてもよい。
推薦情報提供部238は、ユーザが電子装置100を利用して予め設定したスタイル設定に基づいて直しの必要性を判断してよい。例えば、ユーザがロールアップ(ズボンの丈や袖を折り曲げて着用)スタイルを好むとしてスタイル設定をした場合、推薦情報提供部238は、推薦情報が示す衣類の袖やズボン丈の寸法が部位形態情報の示す長さよりも長くても、直しは必要でないと判断してよい。
段階640において、推薦情報提供部238は、直しが必要であると判断された場合、アイテムの直し情報を提供してよい。直し情報は、推薦情報が示すアイテムが身体に着用された形態でユーザに提供されてよい。例えば、直し情報は、電子装置100の表示部240においてシミュレーションとして視覚的に提示されてよく、ユーザは、表示部240において、直しが求められるアイテムに対し、どの部分にどれだけの直しが必要であるかを確認してよい。
直し情報を提供する方法については、図10を参照しながらさらに詳しく説明する。
図1〜図5を参照しながら説明した技術的特徴の説明は、図6にもそのまま適用可能であるため、重複する説明を省略する。
図7は、一実施形態における、オブジェクトとオブジェクトの周りの背景とを区別する方法を示した図である。
図7には、複数の背景要素120−1〜120−6を含む背景120とオブジェクト110とが示されている。
背景要素には、天井120−1、床120−2、左側壁120−3、右側壁120−4、および前面120−5が含まれてよい。さらに、ドア120−6のような事物や家具が背景要素に含まれてもよい。
背景およびオブジェクト測定部232は、センサ部210に含まれるセンサ/カメラを使用し、背景120およびオブジェクト110の輪郭を把握してよく、背景120の背景要素120−1〜120−6を区別してよい。
図5を参照しながら上述したように、背景およびオブジェクト測定部232は、パターン情報を用いて背景120の背景要素120−1〜120−6を区別してよい。例えば、パターン情報は、各背景要素に対応する一般的な形状(例えば、ドアは長方形に対応)や一般的な寸法に関する情報を含んでおり、背景要素が示すデータと予め設定されたパターン情報との一致度を判断して背景要素のタイプを決定してよい。
情報取得部234は、背景120で区分された背景要素の相対的な大きさ(長さまたは幅)とセンサ部210によって生成された奥行き映像から取得された奥行き値とを用いてオブジェクト110を構成する部分の形状に関する情報を取得してよい。すなわち、情報取得部は、奥行き値と背景要素の相対的な大きさとの関係を用いてオブジェクト110を構成する部分の大きさを計算してよく、これを形状に関する情報として取得してよい。上述した背景要素の相対的な大きさは、上述した段階330の形状に関する情報取得方法に補助的/追加的に用いられてよい。
図1〜図6を参照しながら説明した技術的特徴の説明は、図7にもそのまま適用可能であるため、重複する説明を省略する。
図8は、一実施形態における、背景およびオブジェクトの測定ポイントまでの距離を測定し、オブジェクトの部分の形状に関する情報を取得する方法を示した図である。
情報取得部234は、オブジェクト110の識別された部分の両端(例えば、部分の長さや幅を測定するための両終端)を測定ポイントとして決定し、背景およびオブジェクト測定部232によって測定された測定ポイントからセンサ部210までの距離と、測定ポイントとセンサ部210とを結ぶ直線がなす角度と、を用いて、測定ポイント間の距離を計算することにより、識別された部分の長さまたは幅を形状に関する情報として取得してよい。
例えば、図に示すように、背景およびオブジェクト測定部232は、オブジェクト110の頭部分の両端の測定ポイントおよび左脚の両端の測定ポイントに対し、センサ部210を使用し、センサ部210から測定ポイントまでの距離をそれぞれ測定してよい。情報取得部234は、一例として、頭に対して測定された長さLおよびLと角度θとを用いて、頭の長さXを頭の形状に関する情報(すなわち、部位形態情報)として計算(取得)してよい。また、情報取得部234は、左脚に対して測定された長さLおよびLと角度θとを用いて、左脚の長さXを左脚の形状に関する情報(すなわち、部位形態情報)として計算してよい。
すなわち、背景およびオブジェクト測定部232が、オブジェクト110を構成する部分の2つの測定ポイントからセンサ部210までの距離を測定し、情報取得部234が、センサ部210が測定ポイントと関連して位置する角度(例えば、上述した角度に対応)および上述した段階310において測定された距離を用いてオブジェクト110を構成する部分の大きさに関する情報を取得することにより、該当の部分の形状に関する情報を取得してよい。
また、図に示すものとは異なり、情報取得部234は、例えば、段階310において測定された1つ以上の測定ポイントからの1つ以上の距離に対するオブジェクト110の識別された部分の長さまたは幅に対する比、または識別された部分の長さまたは幅の相対的な大きさを用いてオブジェクト110の識別された部分の長さまたは幅を計算してよく、計算された値を該当の部分の形状に関する情報として取得してよい。
図1〜図7を参照しながら説明した技術的特徴の説明は、図8にもそのまま適用可能であるため、重複する説明を省略する。
図9は、一実施形態における、身体に該当するオブジェクトの部位に対するそれぞれの部位形態情報を示した図である。
図9は、オブジェクト110が身体に該当する場合であって、上述した実施形態の方法によって取得された部位形態情報910、部位形態情報910に基づいて決定された体型情報920、およびユーザが予め設定したスタイル設定情報930を示している。
部位形態情報910は、身体の部位の長さおよび幅を含んでよい。体型決定部236は、部位形態情報910に基づいて身体の体型を決定してよい。一例として、身体の体型は、普通体型と決定された。この他にも、部位形態情報910の値に応じ、身体の体型として、痩せ型またはぽっちゃり型などのような体型が決定されてよい。体型の決定には、統計情報データベース260に記録されたデータが用いられてよい。
図に示すように、ユーザは、スタイル設定情報930を普通と設定した。この他にも、タイトスタイル、スリムスタイル、およびルーズスタイルなどの設定が可能である。上述したように、スタイル設定情報930は、推薦情報に基づいて推薦するアイテムを決定するか、直し情報を提供するにあたって直しの必要性を判断するために使用されてよい。
図1〜図8を参照しながら説明した技術的特徴の説明は、図9にもそのまま適用可能であるため、重複する説明を省略する。
図10は、一実施形態における、取得された部位形態情報に基づいて、適したアイテムに関する推薦情報および直し情報を提供する方法を示した図である。
図10では、ユーザに推薦情報が提供され、推薦情報に基づいて身体に着用可能なアイテム1010〜1040が提供された場合を示している。
図に示すように、推薦情報は、推薦情報が示すアイテムが身体に着用された形態でユーザに提供されてよい。ユーザは、電子装置100の表示部240において、推薦情報が示すアイテムが身体に着用された状態をシミュレーションとして確認してよい。
図に示すように、推薦情報提供部238は、推薦されたアイテムのうちの一部のアイテム1010および1020に対して直しが必要であると判断した。図に示すように、直し情報は、電子装置100の表示部240においてシミュレーションとして視覚的に提示されてよく、ユーザは、表示部240において、直しが求められたアイテムに対してどの部分にどれだけの直しが必要であるかを確認してよい。図に示す例では、上衣1010に対してはaおよびaだけの直しが必要であり、下衣1020に対してはbおよびbだけの直しが必要であると判断された。
上述したように、直しの必要性は、推薦情報が示すアイテムの寸法と取得された部位形態情報とを比較した結果に基づいて判断されてよく、追加的/代替的に、ユーザが電子装置100において予め設定したスタイル設定に基づいて判断されてもよい。
図1〜図9を参照しながら説明した技術的特徴の説明は、図10にもそのまま適用可能であるため、重複する説明を省略する。
上述した実施形態において、身体の部位を測定して部位形態情報を取得するにあたり、身体は裸体状態でなければならなかったり、下着だけを着用した状態でなければならなかったりする場合がある。ただし、身体の部位測定および部位形態情報を取得するときに衣類および/またはアクセサリを着用している状態である場合には、着用している衣類および/またはアクセサリが着用されていない身体の状態を推定する作業が優先的に実行されてよい。また、部位形態情報を取得するときに着用していた衣類および/またはアクセサリに対する補修作業が追加で実行されてよい。
また、身体を部位測定するときに、測定対象となるユーザは、測定しやすい姿勢(例えば、腕と脚を大の字に広げた姿勢)を取るように要求されることもある。
上述した実施形態によれば、センサが取得したデータに基づいて、オブジェクトの周りの背景とオブジェクトとを区分し、背景および/またはオブジェクトの測定ポイントまでの距離を測定し、オブジェクトの少なくとも1つの部分の形状に関する情報を取得することにより、オブジェクトの部分の大きさのような形状に関する情報を簡単に取得することができる。
また、上述した実施形態によれば、背景に対するパターン情報やユーザ端末に一般的に含まれるセンサが取得したデータを基盤データとしてオブジェクトの部分の形状に関する情報の決定に利用することにより、オブジェクトの部分の大きさのような形状に関する情報を取得するにあたり、精密度を高めることができる。
また、身体に対して推定されたサイズや体型に基づいて身体に適したアイテムを推薦情報として提供し、該当のアイテムに対する直しが必要である場合には直し情報を提供することにより、身体に適したアイテムを選択するときのユーザの利便性を高めることができる。
上述した装置は、ハードウェア構成要素、ソフトウェア構成要素、および/またはハードウェア構成要素とソフトウェア構成要素との組み合わせによって実現されてよい。例えば、実施形態で説明された装置および構成要素は、プロセッサ、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ、マイクロコンピュータ、FPGA(field programmable gate array)、PLU(programmable logic unit)、マイクロプロセッサ、または命令を実行して応答することができる様々な装置のように、1つ以上の汎用コンピュータまたは特殊目的コンピュータを利用して実現されてよい。処理装置は、オペレーティングシステム(OS)およびOS上で実行される1つ以上のソフトウェアアプリケーションを実行してよい。また、処理装置は、ソフトウェアの実行に応答し、データにアクセスし、データを記録、操作、処理、および生成してもよい。理解の便宜のために、1つの処理装置が使用されるとして説明される場合もあるが、当業者は、処理装置が複数個の処理要素および/または複数種類の処理要素を含んでもよいことが理解できるであろう。例えば、処理装置は、複数個のプロセッサまたは1つのプロセッサおよび1つのコントローラを含んでよい。また、並列プロセッサのような、他の処理構成も可能である。
ソフトウェアは、コンピュータプログラム、コード、命令、またはこれらのうちの1つ以上の組み合わせを含んでもよく、思うままに動作するように処理装置を構成したり、独立的または集合的に処理装置に命令したりしてよい。ソフトウェアおよび/またはデータは、処理装置に基づいて解釈されたり、処理装置に命令またはデータを提供したりするために、いかなる種類の機械、コンポーネント、物理装置、仮想装置、コンピュータ記録媒体または装置に具現化されてよい。ソフトウェアは、ネットワークによって接続されたコンピュータシステム上に分散され、分散された状態で記録されても実行されてもよい。ソフトウェアおよびデータは、1つ以上のコンピュータ読み取り可能な記録媒体に記録されてよい。
実施形態に係る方法は、多様なコンピュータ手段によって実行可能なプログラム命令の形態で実現されてコンピュータ読み取り可能な媒体に記録されてよい。ここで、媒体は、コンピュータ実行可能なプログラムを継続して記録するものであっても、実行またはダウンロードのために一時的に記録するものであってもよい。また、媒体は、単一または複数のハードウェアが結合した形態の多様な記録手段または格納手段であってよく、あるコンピュータシステムに直接接続する媒体に限定されることはなく、ネットワーク上に分散して存在するものであってもよい。媒体の例は、ハードディスク、フロッピー(登録商標)ディスク、および磁気テープのような磁気媒体、CD−ROMおよびDVDのような光媒体、フロプティカルディスク(floptical disk)のような光磁気媒体、およびROM、RAM、フラッシュメモリなどを含み、プログラム命令が記録されるように構成されたものであってよい。また、媒体の他の例として、アプリケーションを配布するアプリケーションストアやその他の多様なソフトウェアを供給または配布するサイト、サーバなどで管理する記録媒体または格納媒体が挙げられる。
以上のように、実施形態を、限定された実施形態および図面に基づいて説明したが、当業者であれば、上述した記載から多様な修正および変形が可能であろう。例えば、説明された技術が、説明された方法とは異なる順序で実行されたり、かつ/あるいは、説明されたシステム、構造、装置、回路などの構成要素が、説明された方法とは異なる形態で結合されたりまたは組み合わされたり、他の構成要素または均等物によって対置されたり置換されたとしても、適切な結果を達成することができる。
したがって、異なる実施形態であっても、特許請求の範囲と均等なものであれば、添付される特許請求の範囲に属する。

Claims (20)

  1. 少なくとも1つのセンサを含むセンサ部を使用し、オブジェクトの周りの背景と前記オブジェクトとを区分し、前記背景の少なくとも1つのポイントおよび前記オブジェクトの少なくとも1つのポイントのうちの少なくとも1つの測定ポイントから前記センサ部までの距離を測定する段階、および
    少なくとも測定された前記距離に基づいて、前記オブジェクトを構成する少なくとも1つの部分の形状に関する情報を取得する段階
    を含む、オブジェクトの形状に関する情報を取得する方法。
  2. 前記センサ部は、奥行きセンサを含み、
    前記測定する段階は、
    前記奥行きセンサを使用し、前記背景および前記オブジェクトの輪郭を把握することによって前記背景と前記オブジェクトとを区分する段階
    を含む、
    請求項1に記載のオブジェクトの形状に関する情報を取得する方法。
  3. 前記センサ部は、距離センサを含み、
    前記測定する段階は、
    前記距離センサを使用し、前記測定ポイントまでの飛行時間に基づいて距離を測定する段階
    を含む、
    請求項1に記載のオブジェクトの形状に関する情報を取得する方法。
  4. 前記形状に関する情報は、前記部分の大きさに関する情報を含み、
    前記測定する段階は、前記部分の2つの測定ポイントから前記センサ部までの距離を測定し、
    前記取得する段階は、
    前記センサ部が前記測定ポイントと関連して位置する角度および測定された前記距離を用いて前記部分の大きさに関する情報を取得することにより、前記形状に関する情報を取得する、
    請求項1に記載のオブジェクトの形状に関する情報を取得する方法。
  5. 前記大きさに関する情報は、前記部分の長さおよび幅のうちの少なくとも1つを含む、
    請求項4に記載のオブジェクトの形状に関する情報を取得する方法。
  6. 前記測定する段階は、
    前記背景を構成する少なくとも1つの背景要素の高さを示す情報および予め設定されたパターン情報のうちの少なくとも1つに基づいて、前記背景要素を前記背景の残りの部分と区別する段階
    を含む、
    請求項1に記載のオブジェクトの形状に関する情報を取得する方法。
  7. 前記測定する段階は、
    前記背景要素が示すデータと前記パターン情報との一致度が所定の値以上である場合、前記背景要素を予め設定されたタイプの背景要素として決定する段階
    を含む、
    請求項6に記載のオブジェクトの形状に関する情報を取得する方法。
  8. 前記オブジェクトは身体であり、
    前記部分は前記身体の部位であり、
    前記形状に関する情報は、前記部位の少なくとも一部の形状、長さ、および幅のうちの少なくとも1つに関する部位形態情報を含む、
    請求項1に記載のオブジェクトの形状に関する情報を取得する方法。
  9. 前記部位形態情報に基づいて前記身体の体型を決定する段階
    をさらに含む、
    請求項8に記載のオブジェクトの形状に関する情報を取得する方法。
  10. 前記身体は複数の部位を含み、
    前記体型を決定する段階は、
    前記複数の部位のうちの少なくとも2つの部位に関する部位形態情報および前記複数の部位のうちの識別された所定の部位に関する部位形態情報のうちの少なくとも1つに基づいて、前記身体の体型を決定する、
    請求項9に記載のオブジェクトの形状に関する情報を取得する方法。
  11. 前記部位形態情報に基づいて、前記部位に着用可能な衣類およびアクセサリのうちの少なくとも1つのアイテムに関する推薦情報を提供する段階
    をさらに含む、
    請求項8に記載のオブジェクトの形状に関する情報を取得する方法。
  12. 前記推薦情報を提供する段階は、
    前記部位形態情報に基づいて決定された前記身体の体型に基づいて決定された衣類およびアクセサリのうちの少なくとも1つのアイテムに関する推薦情報を提供する、
    請求項11に記載のオブジェクトの形状に関する情報を取得する方法。
  13. 前記推薦情報を提供する段階は、
    前記部位形態情報に基づいて決定された前記身体の体型と関連する統計学的情報に基づいて決定された衣類およびアクセサリのうちの少なくとも1つのアイテムに関する推薦情報を提供する、
    請求項12に記載のオブジェクトの形状に関する情報を取得する方法。
  14. 前記推薦情報を提供する段階は、
    前記部位形態情報に基づいて決定された前記部位のサイズ情報に基づいて決定された衣類およびアクセサリのうちの少なくとも1つのアイテムに関する推薦情報を提供する、
    請求項11に記載のオブジェクトの形状に関する情報を取得する方法。
  15. 決定された前記アイテムの寸法と前記部位形態情報とを比較し、前記アイテムに対して直しが必要であるかを判断する段階、および
    前記直しが必要である場合、前記アイテムに対する直し情報を提供する段階
    をさらに含む、
    請求項14に記載のオブジェクトの形状に関する情報を取得する方法。
  16. 前記直しが必要であるかは、ユーザによって予め設定されたスタイル情報に基づいて判断される、
    請求項15に記載のオブジェクトの形状に関する情報を取得する方法。
  17. 請求項1〜16のうちのいずれか一項に記載のオブジェクトの形状に関する情報を取得する方法をコンピュータに実行させるプログラム。
  18. 少なくとも1つのセンサを含むセンサ部、
    前記センサ部を使用し、オブジェクトの周りの背景と前記オブジェクトとを区分し、前記背景の少なくとも1つのポイントおよび前記オブジェクトの少なくとも1つのポイントのうちの少なくとも1つの測定ポイントから前記センサ部までの距離を測定する背景およびオブジェクト測定部、および
    少なくとも測定された前記距離に基づいて、前記オブジェクトを構成する少なくとも1つの部分の形状に関する情報を取得する情報取得部
    を備える、電子装置。
  19. 前記オブジェクトは身体であり、
    前記部分は前記身体の部位であり、
    前記形状に関する情報は、前記部位の少なくとも一部の形状、長さ、および幅のうちの少なくとも1つに関する部位形態情報を含み、
    前記電子装置は、
    前記部位形態情報に基づいて前記身体の体型を決定する体型決定部
    をさらに備える、
    請求項18に記載の電子装置。
  20. 前記オブジェクトは身体であり、
    前記部分は前記身体の部位であり、
    前記形状に関する情報は、前記部位の少なくとも一部の形状、長さ、および幅のうちの少なくとも1つに関する部位形態情報を含み、
    前記電子装置は、
    前記部位形態情報に基づいて、前記部位に着用可能な衣類およびアクセサリのうちの少なくとも1つのアイテムに関する推薦情報を提供する推薦情報提供部
    をさらに備える、
    請求項18に記載の電子装置。
JP2019554403A 2017-03-27 2017-03-27 オブジェクトの形状に関する情報を取得する方法および装置 Active JP6845346B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2017/003273 WO2018182053A1 (ko) 2017-03-27 2017-03-27 오브젝트의 형상에 대한 정보를 획득하는 방법 및 장치

Publications (2)

Publication Number Publication Date
JP2020515351A true JP2020515351A (ja) 2020-05-28
JP6845346B2 JP6845346B2 (ja) 2021-03-17

Family

ID=63676542

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019554403A Active JP6845346B2 (ja) 2017-03-27 2017-03-27 オブジェクトの形状に関する情報を取得する方法および装置

Country Status (5)

Country Link
US (1) US11403864B2 (ja)
JP (1) JP6845346B2 (ja)
KR (1) KR102349481B1 (ja)
CN (1) CN110475510B (ja)
WO (1) WO2018182053A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11493998B2 (en) 2012-01-17 2022-11-08 Ultrahaptics IP Two Limited Systems and methods for machine control
US8693731B2 (en) 2012-01-17 2014-04-08 Leap Motion, Inc. Enhanced contrast for object detection and characterization by optical imaging

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030050866A1 (en) * 2001-09-10 2003-03-13 Nec Corporation Product selling system and method
JP2005165531A (ja) * 2003-12-01 2005-06-23 Canon Inc 情報機器、その制御方法及びプログラム
US20070198120A1 (en) * 2005-04-27 2007-08-23 Myshape, Inc. Computer system for rule-based clothing matching and filtering considering fit rules and fashion rules
JP2009536731A (ja) * 2006-05-11 2009-10-15 プライム・センス・リミテッド 深度マップによるヒューマノイド形状のモデル化
JP2010084263A (ja) * 2008-09-30 2010-04-15 Casio Computer Co Ltd カメラ装置
JP2011253521A (ja) * 2010-05-31 2011-12-15 Primesense Ltd 3次元場面の分析
JP2016040649A (ja) * 2014-08-12 2016-03-24 ソフトバンク株式会社 商品等提供システム、商品等提供方法、及び商品等提供プログラム
US20160292523A1 (en) * 2015-03-31 2016-10-06 Google Inc. Method and apparatus for identifying a person by measuring body part distances of the person

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6665577B2 (en) * 2000-12-20 2003-12-16 My Virtual Model Inc. System, method and article of manufacture for automated fit and size predictions
CA2359269A1 (en) * 2001-10-17 2003-04-17 Biodentity Systems Corporation Face imaging system for recordal and automated identity confirmation
US7479956B2 (en) * 2001-10-19 2009-01-20 Unique Solutions Design Ltd. Method of virtual garment fitting, selection, and processing
EP2327061A4 (en) * 2008-08-15 2016-11-16 Univ Brown METHOD AND DEVICE FOR ESTIMATING BODY SHAPES
JP5500559B2 (ja) * 2009-06-03 2014-05-21 学校法人中部大学 物体検出装置
US10335346B2 (en) * 2009-07-22 2019-07-02 Physio-Control Canada Sales Ltd. Optical techniques for the measurement of chest compression depth and other parameters during CPR
KR20120051212A (ko) * 2010-11-12 2012-05-22 엘지전자 주식회사 멀티미디어 장치의 사용자 제스쳐 인식 방법 및 그에 따른 멀티미디어 장치
CN102657532B (zh) * 2012-05-04 2014-09-17 深圳泰山在线科技有限公司 基于人体姿态识别的身高测量方法及装置
KR20130136090A (ko) * 2012-06-04 2013-12-12 최영진 전자상거래 고객의 신체 사진을 이용한 맞춤 수선 및 대리점화 계획 장치 및 그 방법과 시스템
KR101707707B1 (ko) * 2012-12-14 2017-02-16 한국전자통신연구원 인체 모델을 이용한 가상 아이템 피팅 방법 및 가상 아이템의 피팅 서비스 제공 시스템
CN103533449A (zh) * 2012-12-20 2014-01-22 Tcl集团股份有限公司 一种基于智能3d电视的3d试衣的实现方法及系统
KR20140118185A (ko) 2013-03-28 2014-10-08 인텔렉추얼디스커버리 주식회사 거리 측정 장치 및 방법
US9536321B2 (en) * 2014-03-21 2017-01-03 Intel Corporation Apparatus and method for foreground object segmentation
US10432842B2 (en) * 2015-04-06 2019-10-01 The Texas A&M University System Fusion of inertial and depth sensors for movement measurements and recognition

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030050866A1 (en) * 2001-09-10 2003-03-13 Nec Corporation Product selling system and method
JP2003082515A (ja) * 2001-09-10 2003-03-19 Nec Corp 製品販売システム
JP2005165531A (ja) * 2003-12-01 2005-06-23 Canon Inc 情報機器、その制御方法及びプログラム
US20070198120A1 (en) * 2005-04-27 2007-08-23 Myshape, Inc. Computer system for rule-based clothing matching and filtering considering fit rules and fashion rules
JP2009536731A (ja) * 2006-05-11 2009-10-15 プライム・センス・リミテッド 深度マップによるヒューマノイド形状のモデル化
JP2010524090A (ja) * 2007-04-06 2010-07-15 マイシェープ インコーポレイテッド フィット規則およびファッション規則を考慮する、規則に基づく衣服のマッチングおよびフィルタリングのためのコンピュータシステム
JP2010084263A (ja) * 2008-09-30 2010-04-15 Casio Computer Co Ltd カメラ装置
JP2011253521A (ja) * 2010-05-31 2011-12-15 Primesense Ltd 3次元場面の分析
JP2016040649A (ja) * 2014-08-12 2016-03-24 ソフトバンク株式会社 商品等提供システム、商品等提供方法、及び商品等提供プログラム
US20160292523A1 (en) * 2015-03-31 2016-10-06 Google Inc. Method and apparatus for identifying a person by measuring body part distances of the person

Also Published As

Publication number Publication date
KR102349481B1 (ko) 2022-01-10
US11403864B2 (en) 2022-08-02
US20200019766A1 (en) 2020-01-16
WO2018182053A1 (ko) 2018-10-04
CN110475510B (zh) 2022-08-02
KR20190107742A (ko) 2019-09-20
JP6845346B2 (ja) 2021-03-17
CN110475510A (zh) 2019-11-19

Similar Documents

Publication Publication Date Title
US9842255B2 (en) Calculation device and calculation method
US11042887B2 (en) Product exposure analysis in a shopping environment
JP5439787B2 (ja) カメラ装置
KR20160145732A (ko) 패션 선호도 분석 기법
US11461733B2 (en) Behavior analysis device, behavior analysis system, behavior analysis method, and program
US11816848B2 (en) Resilient dynamic projection mapping system and methods
US20150120496A1 (en) Shopping System
KR102580009B1 (ko) 의류 피팅 시스템 및 의류 피팅 시스템의 동작 방법
US11562545B2 (en) Method and device for providing augmented reality, and computer program
US20170287210A1 (en) System for 3D Clothing Model Creation
JP6845346B2 (ja) オブジェクトの形状に関する情報を取得する方法および装置
WO2018183155A1 (en) System and method for 3d profile determination using model-based peak selection
WO2016115536A2 (en) Determining three-dimensional information from projections or placement of two-dimensional patterns
JP6632298B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP6303918B2 (ja) ジェスチャ管理システム、ジェスチャ管理プログラム、ジェスチャ管理方法および指さし認識装置
US20170069138A1 (en) Information processing apparatus, method for controlling information processing apparatus, and storage medium
TWI637353B (zh) 測量裝置及測量方法
Peeters et al. Custom made cycling jerseys prediction based on kinect analysis for improved performance
JP6158734B2 (ja) 光沢度計測装置、光沢度演算装置及び光沢度計測方法
US20230281854A1 (en) Measurement system
WO2021179936A1 (en) System and method for virtual fitting
US20220254175A1 (en) An apparatus and method for performing image-based food quantity estimation
JP7301467B2 (ja) 画像判読支援システムおよび画像判読支援プログラム
JP2021101175A (ja) 検出装置、及び検出方法
JP2015018581A (ja) 衣服画像処理システム、衣服画像処理システムの制御方法、衣服画像処理装置、衣服画像処理装置の制御方法、プログラム、及び情報記憶媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190927

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200916

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200923

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201223

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210202

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210225

R150 Certificate of patent or registration of utility model

Ref document number: 6845346

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250