WO2022190217A1 - 情報処理装置、情報処理方法及び情報処理プログラム - Google Patents
情報処理装置、情報処理方法及び情報処理プログラム Download PDFInfo
- Publication number
- WO2022190217A1 WO2022190217A1 PCT/JP2021/009350 JP2021009350W WO2022190217A1 WO 2022190217 A1 WO2022190217 A1 WO 2022190217A1 JP 2021009350 W JP2021009350 W JP 2021009350W WO 2022190217 A1 WO2022190217 A1 WO 2022190217A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- dots
- suit
- information processing
- unit
- clusters
- Prior art date
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 40
- 238000003672 processing method Methods 0.000 title claims description 6
- 238000005259 measurement Methods 0.000 claims abstract description 45
- 239000007787 solid Substances 0.000 claims abstract description 21
- 230000015572 biosynthetic process Effects 0.000 claims abstract description 13
- 238000004458 analytical method Methods 0.000 claims abstract description 5
- 238000000034 method Methods 0.000 claims description 51
- 239000003550 marker Substances 0.000 claims description 26
- 238000012790 confirmation Methods 0.000 claims description 8
- 239000013013 elastic material Substances 0.000 claims description 4
- 230000037237 body shape Effects 0.000 abstract description 13
- 238000012545 processing Methods 0.000 description 35
- 238000003860 storage Methods 0.000 description 33
- 230000008569 process Effects 0.000 description 22
- 230000006870 function Effects 0.000 description 13
- 238000003384 imaging method Methods 0.000 description 11
- 210000002414 leg Anatomy 0.000 description 11
- 238000004891 communication Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 10
- 238000013461 design Methods 0.000 description 9
- 238000001514 detection method Methods 0.000 description 8
- 238000007639 printing Methods 0.000 description 7
- 230000001133 acceleration Effects 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 239000004744 fabric Substances 0.000 description 5
- 210000003414 extremity Anatomy 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 239000003086 colorant Substances 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 210000000887 face Anatomy 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 238000000691 measurement method Methods 0.000 description 2
- 238000002600 positron emission tomography Methods 0.000 description 2
- 238000007650 screen-printing Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000000859 sublimation Methods 0.000 description 2
- 230000008022 sublimation Effects 0.000 description 2
- 238000004441 surface measurement Methods 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000008602 contraction Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000037213 diet Effects 0.000 description 1
- 235000005911 diet Nutrition 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000009975 flexible effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000004513 sizing Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/564—Depth or shape recovery from multiple images from contours
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- A—HUMAN NECESSITIES
- A41—WEARING APPAREL
- A41H—APPLIANCES OR METHODS FOR MAKING CLOTHES, e.g. FOR DRESS-MAKING OR FOR TAILORING, NOT OTHERWISE PROVIDED FOR
- A41H1/00—Measuring aids or methods
- A41H1/02—Devices for taking measurements on the human body
Definitions
- the present invention relates to an information processing device, an information processing method, and an information processing program.
- Body sizing garments are used to create an accurate 3D model that accompanies the user's body shape and shows body measurements (such as waist and hip circumference). Therefore, there is a demand for a technique for creating a 3D model of a user's body shape with higher accuracy using clothes for body size measurement.
- the information processing apparatus includes a formation unit that analyzes the relative positions of dots, which are measurement markers that expand and contract with the suit, to form clusters of the dots, and a generation unit that generates a 3D model based on the clusters. and a part.
- a 3D model of the user's body shape can be created with higher accuracy.
- FIG. 1 is an explanatory diagram showing an outline of a body size measuring method according to an embodiment.
- FIG. 2 is a diagram showing an example of an old bodysuit and a new bodysuit.
- FIG. 3 is a diagram showing a comparison table between the old bodysuit and the new bodysuit.
- FIG. 4 is a diagram illustrating a configuration example of a terminal device according to the embodiment;
- FIG. 5 is a flow chart showing a processing procedure according to the embodiment.
- FIG. 6 is a flow chart showing an image processing procedure according to the embodiment.
- FIG. 7 is a flowchart showing a 3D fitting processing procedure according to the embodiment.
- FIG. 8 is a diagram illustrating an example of a hardware configuration;
- FIG. 1 is an explanatory diagram showing an outline of a body size measuring method according to an embodiment. Note that in FIG. 1, a case will be described as an example in which a 3D model (three-dimensional model) of the user's body is created by measuring the shape of the user's body wearing clothes for body size measurement.
- a 3D model three-dimensional model
- the information processing system 1 provides an accurate 3D body model showing body measurements (around the waist and hips, etc.) according to the shape of the body of a user wearing a body suit, which is clothing for body size measurement.
- 3D body models are adaptable for a variety of uses, including apparel fitting, tracking the effects of diet and fitness regimens, and training machine learning and artificial intelligence (AI) systems.
- a 3D body model may be simply referred to as a 3D model.
- the information processing system 1 consists of "hardware” (elastic bodysuit + smartphone) and “software” (applications activated on terminals, server software/website). These elements are described in detail below.
- the number of devices included in the information processing system 1 shown in FIG. 1 is not limited to that shown.
- the new bodysuit ZS may be simply referred to as a "suit”. That is, unless otherwise specified, the suit refers to the new bodysuit ZS.
- the information providing device 100 is an information processing device that cooperates with the terminal device 10 of the user U (user) and provides API services and the like for various applications (apps) and various data to the terminal device 10 of the user U. and is realized by a server device, a cloud system, or the like.
- the information providing apparatus 100 provides an application (app) for body size measurement to the terminal device 10 and receives a 3D body model generated using the app from the terminal device 10 .
- the information providing device 100 uses the 3D body model for various purposes and provides it to various terminal devices and server devices.
- a smartphone will be described as an example of the terminal device 10 .
- Smartphones do not require any special compatibility requirements, except for the condition that they are equipped with a camera (imaging device) of reasonable quality.
- smartphones only need to have a standard quality camera, they don't have to be the latest models with high resolution cameras, depth sensors, etc.
- the new bodysuit ZS is a stretchy, tight fitting bodysuit manufactured using standard low cost garment printing techniques (digital sublimation printing).
- the new bodysuit ZS covers the wearer's entire body (excluding the face and head) and consists of two parts: leggings and a top.
- the new bodysuit ZS has a dot pattern that covers most of the surface and is arranged in a dense regular hexagon (honeycomb). Each dot is either 'solid' or 'hollow' and is chosen using a pseudo-random algorithm.
- the hollow dots are O-shaped (doughnut-shaped). For example, there are about the same number of solid and hollow dots printed throughout the suit.
- FIG. 2 is a diagram showing an example of the old bodysuit FS and the new bodysuit ZS.
- the new bodysuit ZS has about 50 times as many markers as the old bodysuit FS, and the accuracy of measurement and analysis is greatly improved. This makes it possible to read detailed body shape information and generate a more accurate 3D model.
- the dots are white and the background color of the suit is black.
- the markers of the new bodysuit ZS are stretchy, so the suit itself can be stretched. Easier to manufacture.
- the new bodysuit ZS retains some non-stretchable fiducial markers RM (of known size) to have a scale reference.
- the reference marker RM is at least larger in size than the new markers M1, M2.
- the fiducial marker RM is the same size as the old style marker FM.
- the new bodysuit ZS has one in the center of the chest, two on the back around the shoulder blades (one on the right side and one on the left side), and two on the outside of both knees of the legs (right side). It holds a total of five reference markers RM, one on the leg side and one on the left leg side.
- the fiducial marker RM is made of non-stretchable plastic and attached to the suit using a heat press.
- the image is processed to recognize small circular/elliptical "blobs” that may be the dots of the suit (new markers M1, M2 of the new bodysuit ZS).
- each detected dot is classified into “solid”, “hollow”, and “unknown”.
- the relative positions of the dots detected in each local image neighborhood are then analyzed to form dot "clusters" that match the expected honeycomb (regular hexagon) pattern.
- Each formed cluster is confirmed to match the known pseudo-random pattern used to print the dots of the suit, taking into account rotational symmetry. Some clusters are rejected at this stage because they are too small to get a match or contain invalid dots to be recognized. For the remaining clusters, each dot is assigned a unique number (numerical identifier) to identify it on the suit.
- a dot detection and identification process is applied to each image to obtain a set of pixel coordinates and corresponding numeric identifiers for each detected dot.
- the acquired data are input to the 3D fitting algorithm as the basic input data required to fit the 3D body model.
- the algorithm used can also process each photo to identify the silhouette (outline) of a person in the image.
- contour identification also depends on the contrast between the suit and the background, so it can only be detected for pixels where the silhouette is clearly displayed.
- Silhouettes are powerful input data for more explicit fitting of 3D models.
- the parameters of the parametric body model are further adjusted to minimize the distance between predicted and observed dot positions for each image.
- the dots can be moved on the body surface as desired. This is because if there is variation in how the suit is worn, local twisting or stretching of the fabric may cause dots to appear in unexpected places on the body.
- Silhouette data is also included in the fitting process at this stage.
- the fitting process is iterative and follows a "coarse to fine" processing strategy. In this strategy, a subset of the most important model parameters are estimated first, and additional parameters are introduced as the algorithm progresses.
- the final step of fitting allows for "dynamic" changes in the model, i.e. limb movements between image frames.
- the terminal device 10 which is a smart phone
- the terminal device 10 is placed on a cardboard stand, and the rear camera is directed to the user U while the stand is placed on a flat desk.
- the stand described above may be provided to the user U as an accessory to the suit.
- the user U stands in front of the terminal device 10 and is guided to rotate the body at various angles while taking pictures.
- the user U should maintain a consistent body pose throughout the scan and be still while each picture is taken.
- the default scan pose stand upright with your legs shoulder-width apart and your arms straight and pointing downward, slightly away from your hips.
- poses such as raising the arm and scanning are also supported.
- the app provides tutorials, design drawings, interactive checks, and voice guidance to guide the user U to the optimal standing position, ensuring that the suit is worn correctly by the user U before scanning begins. .
- Other alternative scan modes are also implemented:
- the terminal device 10 When the scanning is completed, the terminal device 10 creates a 3D body model and displays it to the user U on the screen. Alternatively, if a problem is detected, an error is presented to user U so that he can try again. User U's body measurements (hip, waist, leg length, etc.) are also calculated from the 3D model and displayed to user U as measurement results.
- the terminal device 10 uploads the 3D body model to the information providing device 100, which is the main server.
- the information providing apparatus 100 can use the uploaded 3D body model in various situations such as clothing fitting and body shape tracking over time.
- the high-speed processing time of the algorithm is also one of the excellent functions of the information processing system 1, and there is no need to upload images to a server for centralized processing, and all processing can be performed locally on the terminal (terminal device 10). can be completed. For example, depending on the terminal device 10, the processing is completed in about 30 seconds. Users also benefit from this feature, as they do not have to wait for images to be uploaded and save personal images over the Internet.
- the server information providing device 100
- the terminal device 10 with a very slow OS is supported, or where the information processing system is executed by a web browser instead of a dedicated application.
- the algorithm and UX function according to this embodiment also support processing on the server (information providing apparatus 100). That is, the processing related to body size measurement and 3D model generation may be executed not only on the terminal (terminal device 10) but also on the server (information providing device 100). In this case, the above application may be read as server software.
- FIG. 3 is a diagram showing a comparison table between the old bodysuit FS and the new bodysuit ZS.
- the old bodysuit FS has 400 to 500 fixed size markers sparsely distributed throughout the suit.
- the new bodysuit ZS 20,000 to 40,000 elastic circular dots densely cover the surface of the suit. Therefore, it is possible to express the body shape more clearly, especially in a part with a high curvature.
- Each marker of the old bodysuit FS contains a series of small circular dots DT that encode an identifier from 1-512.
- each dot (new markers M1, M2) of the new bodysuit ZS is a solid or hollow circle. Uniquely identified by analyzing the local positions of dots and finding matches in larger pseudo-random patterns.
- Older Bodysuit FS uses a special low-stretch ink and is manufactured using a customized and expensive screen-printing process.
- the new bodysuit ZS uses standard low cost, fast and clean manufacturing methods (such as standard screen printing and digital printing). It also uses scale markers that are manually attached using heat transfer.
- Old-style bodysuit FS uses an algorithm to detect and identify any of the old-style markers FM as fiducial markers in the image.
- the new bodysuit ZS uses an algorithm to detect, classify and identify clusters of dots (new markers M1, M2) in the image.
- Body model Legacy Bodysuit FS uses its own PCA body model (only basic support for limb movements) to estimate body shape.
- PCA body model only basic support for limb movements
- SMPL articulated commercial body model
- the average surface measurement error is less than 7 mm.
- the new bodysuit ZS has an average surface measurement error of 4 mm or less.
- Predetermined positions and numbers are positions (chest, back, legs) and numbers (4 points or more) that always include fixed markers when shooting at each viewing angle when shooting the whole body without reducing measurement accuracy. . That is, the predetermined positions and number are positions and numbers at which the fixed markers are always included regardless of the angle of the entire suit.
- a plurality of suit size patterns are prepared in advance, and an arbitrary size pattern is selected according to the user's body.
- suits such as S size (small), M size (medium), and L size (large) may be prepared.
- a measurement algorithm is provided for each size pattern, and when photographing the suit, the size pattern is determined based on the analysis of the honeycomb structure, and the measurement algorithm corresponding to the size pattern is applied.
- the terminal device 10 activates an application, and uses the camera function to photograph the whole body (whole suit) of the user U wearing the new bodysuit ZS from various viewing angles (including angles of view). (step S1).
- suits of a plurality of size patterns are prepared in advance, and an arbitrary size pattern is selected according to the user U's body.
- the terminal device 10 takes 12 pictures from various viewing angles.
- a fixed marker reference marker RM is always included at the time of photographing at each viewing angle when photographing the whole body.
- the terminal device 10 detects small circular/elliptical "blobs" from the captured image, which may be the dots of the suit (new markers M1, M2 of the new bodysuit ZS). (Step S2).
- the terminal device 10 classifies each detected dot into one of "solid", “hollow”, and "unknown” (step S3).
- the terminal device 10 analyzes the relative positions of the detected dots and forms a "cluster" of dots that conforms to the expected honeycomb (regular hexagon) pattern (step S4). ). For example, the terminal device 10 creates hexagonal clusters from the dot pattern and increases the hexagonal clusters to create a unique honeycomb structure.
- the terminal device 10 confirms whether the formed cluster matches the known pseudo-random pattern used for printing the dots of the suit, taking rotational symmetry into consideration (step S5). . Some clusters are rejected at this stage because they are too small to get a match or contain invalid dots to be recognized.
- the terminal device 10 assigns a unique number to each dot for identification on the suit for the formed cluster (step S6). That is, the numbers are numeric identifiers.
- the terminal device 10 identifies the silhouette of the body shape of the user U wearing the new bodysuit ZS based on the applied measurement algorithm (step S8).
- terminal device 10 obtains a set of pixel coordinates and a corresponding numeric identifier for each detected dot.
- the acquired data is then input into the 3D fitting algorithm as the basic input data required to fit the 3D body model.
- the terminal device 10 processes each photograph to identify the silhouette of the person in the image, based on the algorithm used in addition to the position of the dots.
- the terminal device 10 generates a 3D model based on the specified silhouette (step S9).
- the terminal device 10 displays the generated 3D model to the user U on the screen.
- the terminal device 10 also calculates the measured values of the user U's body (hip, waist, leg length, etc.) from the generated 3D model, and displays them to the user U as the measured results.
- the terminal device 10 may upload the generated 3D model to the information providing device 100. Further, the processing of steps S2 to S9 may be performed by the information providing apparatus 100 at any stage. That is, in the description of steps S2 to S9 above, the terminal device 10 may be read as the information providing device 100. FIG.
- FIG. 4 is a diagram showing a configuration example of the terminal device 10.
- the terminal device 10 includes a communication unit 11, a display unit 12, an input unit 13, a positioning unit 14, an imaging unit 15, a sensor unit 20, a control unit 30 (controller), and a storage unit 40 .
- the communication unit 11 is connected to the network N (see FIG. 3) by wire or wirelessly, and transmits and receives information to and from the information providing apparatus 100 via the network N.
- the communication unit 11 is implemented by a NIC (Network Interface Card), an antenna, or the like.
- the display unit 12 is a display device that displays various information such as position information.
- the display unit 12 is a liquid crystal display (LCD) or an organic EL display (Organic Electro-Luminescent Display).
- the display unit 12 is a touch panel display, but is not limited to this.
- the input unit 13 is an input device that receives various operations from the user U.
- the input unit 13 has, for example, buttons and the like for inputting characters, numbers, and the like.
- the display unit 12 is a touch panel display, a part of the display unit 12 functions as the input unit 13 .
- the input unit 13 may be a microphone or the like that receives voice input from the user U.
- the microphone may be wireless.
- the positioning unit 14 receives signals (radio waves) transmitted from GPS (Global Positioning System) satellites, and based on the received signals, position information (for example, latitude and longitude). That is, the positioning unit 14 positions the position of the terminal device 10 .
- GPS Global Positioning System
- GNSS Global Navigation Satellite System
- the positioning unit 14 can measure positions by various methods other than GPS.
- the positioning unit 14 may measure the position using various communication functions of the terminal device 10 as auxiliary positioning means for position correction or the like.
- the image capturing unit 15 is an image sensor (camera) that captures an image of the user U wearing the new bodysuit ZS.
- the imaging unit 15 is a CMOS image sensor, a CCD image sensor, or the like.
- the imaging unit 15 is not limited to the built-in camera, and may be a wireless camera that can communicate with the terminal device 10 or an external camera such as a web camera.
- the sensor unit 20 includes various sensors mounted on or connected to the terminal device 10 .
- the connection may be wired connection or wireless connection.
- the sensors may be detection devices other than the terminal device 10, such as wearable devices and wireless devices.
- the sensor section 20 includes an acceleration sensor 21 , a gyro sensor 22 , an air pressure sensor 23 , an air temperature sensor 24 , a sound sensor 25 , an optical sensor 26 and a magnetic sensor 27 .
- the sensors 21 to 27 described above are merely examples and are not limited. That is, the sensor unit 20 may be configured to include a part of the sensors 21 to 27, or may include other sensors such as a humidity sensor in addition to or instead of the sensors 21 to 27. .
- the acceleration sensor 21 is, for example, a 3-axis acceleration sensor, and detects the physical movement of the terminal device 10 such as the moving direction, speed, and acceleration of the terminal device 10 .
- the gyro sensor 22 detects physical movements of the terminal device 10 such as inclination in three axial directions based on the angular velocity of the terminal device 10 and the like.
- the atmospheric pressure sensor 23 detects the atmospheric pressure around the terminal device 10, for example.
- the terminal device 10 Since the terminal device 10 is equipped with the above-described acceleration sensor 21, gyro sensor 22, atmospheric pressure sensor 23, etc., technologies such as Pedestrian Dead-Reckoning (PDR: Pedestrian Dead-Reckoning) using these sensors 21 to 23, etc. , the position of the terminal device 10 can be determined. This makes it possible to acquire indoor position information that is difficult to acquire with a positioning system such as GPS.
- PDR Pedestrian Dead-Reckoning
- a pedometer that uses the acceleration sensor 21 can calculate the number of steps, walking speed, and distance walked.
- the gyro sensor 22 it is possible to know the traveling direction, the direction of the line of sight, and the inclination of the body of the user U.
- the atmospheric pressure detected by the atmospheric pressure sensor 23 the altitude at which the terminal device 10 of the user U is present and the number of floors can be known.
- the arithmetic device 1030 of the computer 1000 implements the functions of the control unit 30 by executing a program loaded on the primary storage device 1040 .
- arithmetic device 1030 of computer 1000 may load a program acquired from another device via network I/F 1080 onto primary storage device 1040 and execute the loaded program.
- the arithmetic unit 1030 of the computer 1000 may cooperate with another device via the network I/F 1080, and call functions, data, etc. of the program from another program of the other device for use.
- each component of each device illustrated is functionally conceptual and does not necessarily need to be physically configured as illustrated.
- the specific form of distribution and integration of each device is not limited to the illustrated one, and all or part of them can be functionally or physically distributed and integrated in arbitrary units according to various loads and usage conditions. Can be integrated and configured.
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Image Processing (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Details Of Garments (AREA)
- Debugging And Monitoring (AREA)
Abstract
Description
まず、図1を参照し、実施形態に係る情報処理装置が行う身体サイズ測定方法の概要について説明する。図1は、実施形態に係る身体サイズ測定方法の概要を示す説明図である。なお、図1では、身体サイズ測定用衣服を着用したユーザの体の形状を測定して、ユーザの体の3Dモデル(3次元モデル)を作成する場合を例に挙げて説明する。
本実施形態に係る情報処理システム1は、身体サイズ測定用衣服であるボディスーツを着用したユーザの体の形状に伴い、体の測定値(ウエストやヒップの周囲など)を示す正確な3Dボディモデルを作成する。3Dボディモデルは、アパレルのフィッティング、ダイエット・フィットネスレジメンの効果の追跡、機械学習・AI(Artificial Intelligence)システムのトレーニングなど、様々な使用目的に適応可能である。以下の説明において、3Dボディモデルを3Dモデルと簡略に表記する場合がある。
情報提供装置100は、ユーザU(利用者)の端末装置10と連携し、ユーザUの端末装置10に対して、各種アプリケーション(アプリ)等に対するAPIサービス等と、各種データを提供する情報処理装置であり、サーバ装置やクラウドシステム等により実現される。本実施形態では、情報提供装置100は、端末装置10に対して身体サイズ測定用のアプリケーション(アプリ)を提供し、端末装置10からアプリを用いて生成された3Dボディモデルを受け取る。そして、情報提供装置100は、3Dボディモデルを様々な目的に使用したり、様々な端末装置やサーバ装置に提供したりする。
端末装置10は、ユーザUにより使用されるスマートフォンやタブレット等のスマートデバイスであり、4G(Generation)やLTE(Long Term Evolution)等の無線通信網を介して任意のサーバ装置と通信を行うことができる携帯端末装置である。また、端末装置10は、液晶ディスプレイ等の画面であって、タッチパネルの機能を有する画面を有し、ユーザから指やスタイラス等によりタップ操作、スライド操作、スクロール操作等、コンテンツ等の表示データに対する各種の操作を受付ける。なお、画面のうち、コンテンツが表示されている領域上で行われた操作を、コンテンツに対する操作としてもよい。また、端末装置10は、スマートデバイスのみならず、デスクトップPC(Personal Computer)やノートPC等の情報処理装置であってもよい。
新型ボディスーツZSは、標準的な低コストの衣服印刷技術(デジタル昇華印刷)を使用して製造された伸縮性及び密着性のあるぴったりとしたボディスーツである。新型ボディスーツZSは、着用者の全身(顔・頭を除く)をカバーし、レギンスとトップスの二つの部分で構成されている。新型ボディスーツZSには、表面のほとんどの部分を覆うドット柄のパターンがあり、密集された正六角形(ハニカム状)に配置されている。各ドットは「中実」(solid)または「中空」(hollow)のいずれかであり、疑似ランダムアルゴリズムを使用して選択されている。中空のドットはO字型(ドーナツ型)である。例えば、スーツ全体にほぼ同じ数の中実と中空のドットがプリントされている仕様である。新型ボディスーツZSの任意部位のドットのパターンを分析することにより、衣服のどの部分を見ているかを推測することができる。
スーツのドット(新型ボディスーツZSの新型マーカーM1、M2)は可能な限り密に詰める必要があるが、斜めから見たときとカメラのレンズを通して遠くから見たときにスーツの背景色から検出してセグメント化できるよう、各ドットの周囲に十分な余白が必要である。また、「中空」ドットの場合、円の内枠部分のサイズは上記の見た目条件下で中実のドットと明確に区別できる必要がある。さらに、印刷された各ドットの前景色と背景色のコントラストについては、照明環境が悪い場合でも簡単に検出できることが重要である。
伸縮性のないインクでプリントされていたマーカー(旧型マーカーFM)がついていた旧型ボディスーツFSとは異なり、新型ボディスーツZSのマーカー(新型マーカーM1、M2)は伸縮性があるため、スーツ自体の製造がより簡単である。ただし、新型ボディスーツZSは、スケールの参照を持つために、伸縮しない基準マーカーRM(既知のサイズ)をいくつか保持している。基準マーカーRMは、少なくとも新型マーカーM1、M2よりもサイズが大きい。本実施形態では、基準マーカーRMは、旧型マーカーFMと同じサイズである。これらの基準マーカーRMは、ロゴが中心にある白い丸型のもので、戦略的な部位(バスト、背中、脚)につけられている。本実施形態では、新型ボディスーツZSは、胸部の中心に1つ、背中の肩甲骨の辺りに2つ(右側に1つ、左側に1つ)、脚の両膝の外側に2つ(右脚側に1つ、左脚側に1つ)の合計5個の基準マーカーRMを保持している。基準マーカーRMの素材には伸縮しないプラスチックを使用していて、ヒートプレスを使ってスーツに付着している。
本実施形態では、ボディモデルとして、人体のパラメトリックモデルを想定している。例えば、ボディモデルとして、商用ライセンスされているSMPLモデル(Skinned Multi-Person Linear model)を使用する。他のパラメトリックボディモデル(独自仕様または第三者提供)も使用できる。原則として、適切なボディモデルが利用可能であれば、例えばPET(Positron Emission Tomography:陽電子放出断層撮影)など、他のオブジェクトのスキャンも可能である。
3Dモデルを構築するための基本的な入力データは、様々な視野角(画角も含む)から撮影された、スーツを着用したユーザUの写真(画像)である。本実施形態では、様々な視野角から12枚の写真を撮影する。使用アルゴリズムは、スーツを覆うドットパターンを検知して認識することにより画像内の人物を検出することができる。見えている範囲であれば、画像内の顔や目を検出することも可能である。
3Dフィッティングアルゴリズムでは、各画像フレームで検出されたドット、シルエットの位置に正確にフィットするボディモデルパラメーター、および相対的なカメラポーズのセットを計算する。具体的には、(i)ユーザUの体の形状の3Dモデル、(ii)体の各ドットの位置、(iii)体に対するカメラの位置と向き、そして(iv)各画像に写っている体のポーズを同時に推定することを目的としている。方法としては、反復手順を使用し、すべてのパラメーターを調整しながら(最初の推測から開始)、各画像の各ドットの予測位置と観測位置の間のピクセル距離を最小化する。一つまたは複数の画像フレームでシルエットが検出された場合、それらも最小化に含まれる。フィッティングプロセスは、以下のような、いくつかの連続したステップで構成されている。
平均的な体の形から始めて、体の各ドットの「デフォルト」の位置を想定し、フィッティングアルゴリズムが検出された画像データと一致する相対的なカメラポーズのセットを見つけようとする。収束を高速化させるために、アルゴリズムにユーザUの性別、身長、体重、ユーザUのポーズ(対応しているポーズから選択)などの追加情報(利用可能な場合)を入力する。
最初の推測から始めて、各ドットの3D位置とカメラのポーズの推定値が繰り返し調整され、各画像フレームで検出されたドットの位置との一致が向上する。このステップは、コンピュータービジョンでは標準的であり、通常は「バンドル調整」と呼ばれる。次に、パラメトリックボディモデル(SMPL)のパラメーターを最適化し、各3Dドット位置からメッシュの表面までの距離を最小化することにより、3Dボディモデルの初期フィットが実行される。
続いて、パラメトリックボディモデル(SMPL)のパラメーターをさらに調整して、各画像の予測ドット位置と観測ドット位置の間の距離を最小化する。このステップでは、必要に応じてドットを体の表面上で移動させることができる。スーツの着用方法にばらつきが生じた場合、生地を局所的にねじったり伸ばしたりすると、体の予期しない場所にドットが表示される可能性があるためである。また、シルエットデータは、この段階でフィッティングプロセスに含まれる。フィッティングプロセスは反復的であり、「粗いものから細かいものへ」の処理戦略に従う。この戦略では、最も重要なモデルパラメーターのサブセットが最初に推定され、アルゴリズムが進むにつれて追加のパラメーターが導入される。フィッティングの最後のステップでは、モデルの「動的」な変化、つまり画像フレーム間の手足の動きが可能になる。
ユーザUをスキャンするための「デフォルト」モードでは、スマートフォンである端末装置10を段ボール製のスタンドに乗せ、スタンドを平面の机の上に置いた状態で背面カメラをユーザUに向ける。上記のスタンドは、スーツの付属品としてユーザUに提供されてもよい。次に、ユーザUは端末装置10の前に立ち、写真を撮っている間、様々な角度で体を回転するように案内される。ユーザUはスキャン全体を通して一貫した体のポーズを維持し、各写真が撮影されている間は静止する必要がある。デフォルトのスキャンポーズでは、直立の状態で、脚を肩幅に広げ、腕をまっすぐにして下向きに保持し、腰から少し離す。デフォルトポーズの他、腕を上げてスキャンするポーズなども対応している。
ユーザUが静止している際に、2人目の人物に様々な角度から写真を撮ってもらう。いわゆる「バディモード」で、スキャン手順を理解していない子供をスキャンする場合に便利である。
ユーザUが写真を撮る際に停止する必要をなくすために、静止画のセットの代わりにビデオキャプチャを使用する。
例えば、画像のフレーム間の大幅な手足の動きを認識する。
端末装置10は、スキャンが成功すると、3Dボディモデルをメインサーバである情報提供装置100にアップロードする。これにより、情報提供装置100は、アップロードされた3Dボディモデルを、衣服のフィッティングや時間の経過に伴う体の形状の追跡など、様々な場面で使用できるようになる。
次に、図3を参照し、旧型ボディスーツFSと新型ボディスーツZSとの具体的な違いについて説明する。図3は、旧型ボディスーツFSと新型ボディスーツZSとの比較表を示す図である。
旧型ボディスーツFSには、400個から500個の固定サイズのマーカーがスーツ全体にまばらに分布されている。一方、新型ボディスーツZSでは、20,000個から40,000個の伸縮性のある円形ドットがスーツの表面を密に覆っている。そのため、特に曲率の高い部位では体形をより明確に表現することが可能である。
旧型ボディスーツFSの各マーカー(旧型マーカーFM)には、1~512の識別子をエンコードする一連の小さな円形のドットDTが含まれている。一方、新型ボディスーツZSの各ドット(新型マーカーM1、M2)は、中実または中空の円形になっている。ドットの局所的な位置を分析し、より大きな疑似ランダムパターンで一致を見つけることによって一意に識別される。
旧型ボディスーツFSでは、すべてのマーカー(旧型マーカーFM)は既知サイズの直径20mm(±0.5mm)の固定マーカーFMである。一方、新型ボディスーツZSでは、伸縮性がある新型マーカーM1、M2とは別に、いくつかの既知サイズのロゴ付きの固定マーカー(基準マーカーRM)が衣服の重要な位置(胸、背中、脚)につけられている。
旧型ボディスーツFSでは、特殊な低伸縮性インクを使用し、カスタマイズされた高価なスクリーン印刷方法で製造している。一方、新型ボディスーツZSでは、標準の低コストで高速かつクリーンな製造方法(標準のスクリーン印刷やデジタル印刷など)を使用している。熱伝達を使用して手動で取り付けられるスケールマーカーも用いている。
旧型ボディスーツFSでは、画像内の基準マーカーとなる旧型マーカーFMのいずれかを検出及び識別するためのアルゴリズムを用いている。一方、新型ボディスーツZSでは、画像内のドット(新型マーカーM1、M2)のクラスターを検出、分類、および識別するためのアルゴリズムを用いている。
旧型ボディスーツFSでは、独自のPCAボディモデル(手足の動きの基本的なサポートのみ)を使用し、体の形状を推定する。一方、新型ボディスーツZSでは、関節式の商用ボディモデル(SMPL)により、ボディ形状の推定とモデルの動的な再配置が可能である。
旧型ボディスーツFSでは、平均表面計測誤差は7mm以下である。一方、新型ボディスーツZSでは、平均表面計測誤差は4mm以下である。
ここで、新型ボディスーツZSの他の特徴点について以下に説明する。
スーツが伸縮するため、伸縮性がある計測マーカーである新型マーカーM1、M2も伸縮することにより、計測時の基準スケールが取得できなくなるという課題があった。そこで、スケールサイズを特定するために伸縮しない固定マーカーである基準マーカーRMを所定の数だけ所定の位置に、定点設置することで解決した。
端末装置10は、ドットの相対的な位置分析をして、ハニカムパターンに適合するように、ドットのクラスターを形成する。例えば、端末装置10は、ドットパターンから六角形のクラスターを作り、六角形のクラスターを増やしていき一意のハニカム構造を作る。そのハニカム構造から、クラスターとドットに番号を振り分ける。このとき、端末装置10は、各クラスターのドッドのランダムパターンが、既知のランダムパターンと一致しているか確認する(パターンマッチング)。端末装置10は、ランダムパターンを確認する際、各ドットを所定のドットに分類する。例えば、各ドットを、中実、中空、不明(特定不能)のいずれかに分類する。
スーツは、予め複数のサイズパターン(所定のパターン数)を用意し、ユーザ側の身体に応じて、任意のサイズパターンを選択する。例えば、サイズパターンとして、Sサイズ(小)、Mサイズ(中)、Lサイズ(大)等のスーツを用意してもよい。計測にあたっては、サイズパターンごとの計測アルゴリズムを設け、スーツ撮影時に、上記ハニカム構造の分析に基づき、サイズパターンを判定し、サイズパターンに応じた計測アルゴズムを適用する。
以上を踏まえて、実施形態に係る情報処理装置が行う身体サイズ測定方法の基本動作について説明する。
次に、図4を用いて、端末装置10の構成について説明する。図4は、端末装置10の構成例を示す図である。図4に示すように、端末装置10は、通信部11と、表示部12と、入力部13と、測位部14と、撮像部15と、センサ部20と、制御部30(コントローラ)と、記憶部40とを備える。
通信部11は、ネットワークN(図3参照)と有線又は無線で接続され、ネットワークNを介して、情報提供装置100との間で情報の送受信を行う。例えば、通信部11は、NIC(Network Interface Card)やアンテナ等によって実現される。
表示部12は、位置情報等の各種情報を表示する表示デバイスである。例えば、表示部12は、液晶ディスプレイ(LCD:Liquid Crystal Display)や有機ELディスプレイ(Organic Electro-Luminescent Display)である。また、表示部12は、タッチパネル式のディスプレイであるが、これに限定されるものではない。
入力部13は、ユーザUから各種操作を受け付ける入力デバイスである。また、入力部13は、例えば、文字や数字等を入力するためのボタン等を有する。また、表示部12がタッチパネル式のディスプレイである場合、表示部12の一部が入力部13として機能する。なお、入力部13は、ユーザUから音声入力を受け付けるマイク等であってもよい。マイクはワイヤレスであってもよい。
測位部14は、GPS(Global Positioning System)の衛星から送出される信号(電波)を受信し、受信した信号に基づいて、自装置である端末装置10の現在位置を示す位置情報(例えば、緯度及び経度)を取得する。すなわち、測位部14は、端末装置10の位置を測位する。なお、GPSは、GNSS(Global Navigation Satellite System)の一例に過ぎない。
撮像部15は、新型ボディスーツZSを着用したユーザUを撮影する画像センサ(カメラ)である。例えば、撮像部15は、CMOSイメージセンサやCCDイメージセンサ等である。なお、撮像部15は、内蔵カメラに限らず、端末装置10と通信可能なワイヤレスカメラや、Webカメラ等の外付けカメラであってもよい。
センサ部20は、端末装置10に搭載又は接続される各種のセンサを含む。なお、接続は、有線接続、無線接続を問わない。例えば、センサ類は、ウェアラブルデバイスやワイヤレスデバイス等、端末装置10以外の検知装置であってもよい。図4に示す例では、センサ部20は、加速度センサ21と、ジャイロセンサ22と、気圧センサ23と、気温センサ24と、音センサ25と、光センサ26と、磁気センサ27とを備える。
制御部30は、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM、入出力ポート等を有するマイクロコンピュータや各種の回路を含む。また、制御部30は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路等のハードウェアで構成されてもよい。
記憶部40は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、又は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、光ディスク等の記憶装置によって実現される。かかる記憶部40には、各種プログラムや各種データ等が記憶される。
次に、図5を用いて実施形態に係る端末装置10による処理手順について説明する。図5は、実施形態に係る処理手順を示すフローチャートである。なお、以下に示す処理手順は、端末装置10の制御部30によって繰り返し実行される。
ここで、図6を用いて実施形態に係る画像処理手順について説明する。図6は、実施形態に係る画像処理手順を示すフローチャートである。なお、以下に示す処理手順は、端末装置10の制御部30によって繰り返し実行される。
ここで、図7を用いて実施形態に係る3Dフィッティング処理手順について説明する。図7は、実施形態に係る3Dフィッティング処理手順を示すフローチャートである。なお、以下に示す処理手順は、端末装置10の制御部30によって繰り返し実行される。
上述した端末装置10及び情報提供装置100は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、実施形態の変形例について説明する。
上述してきたように、本願に係る端末装置10は、スーツ(新型ボディスーツZS)とともに伸縮する計測マーカーであるドット(新型マーカーM1、M2)の相対的な位置分析をして、ドットのクラスターを形成する形成部33と、クラスターに基づいて、3Dモデルを生成する生成部38と、を備える。
また、上述した実施形態に係る端末装置10や情報提供装置100は、例えば図8に示すような構成のコンピュータ1000によって実現される。以下、端末装置10を例に挙げて説明する。図8は、ハードウェア構成の一例を示す図である。コンピュータ1000は、出力装置1010、入力装置1020と接続され、演算装置1030、一次記憶装置1040、二次記憶装置1050、出力I/F(Interface)1060、入力I/F1070、ネットワークI/F1080がバス1090により接続された形態を有する。
以上、本願の実施形態を説明したが、これら実施形態の内容により本発明が限定されるものではない。また、前述した構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。さらに、前述した構成要素は適宜組み合わせることが可能である。さらに、前述した実施形態の要旨を逸脱しない範囲で構成要素の種々の省略、置換又は変更を行うことができる。
10 端末装置
11 通信部
15 撮像部
30 制御部
31 検出部
32 分類部
33 形成部
34 確認部
35 割当部
36 適用部
37 特定部
38 生成部
40 記憶部
100 情報提供装置
ZS 新型ボディスーツ
M1、M2 新型マーカー
RM 基準マーカー
Claims (12)
- スーツとともに伸縮する計測マーカーであるドットの相対的な位置分析をして、前記ドットのクラスターを形成する形成部と、
前記クラスターに基づいて、3Dモデルを生成する生成部と、
を備えることを特徴とする情報処理装置。 - 前記クラスターと前記ドットとに番号を割り当てる割当部と、
割り当てられた番号を取得して、所定の座標位置に設定し、シルエットを特定する特定部と、
をさらに備え、
前記生成部は、特定されたシルエットに基づいて、前記3Dモデルを生成する
ことを特徴とする請求項1に記載の情報処理装置。 - 前記形成部は、前記スーツのドットパターンから六角形のクラスターを形成し、前記六角形のクラスターを増やしていき一意のハニカム構造を形成し、
前記割当部は、前記ハニカム構造から、前記クラスターと前記ドットとに番号を割り当てる
ことを特徴とする請求項2に記載の情報処理装置。 - 前記スーツの全体に、前記ドットとして、中実のドットと中空のドットとがプリントされている
ことを特徴とする請求項1~3のうちいずれか1つに記載の情報処理装置。 - 前記スーツの各ドットを中実、中空、不明のいずれかに分類する分類部と、
形成されたクラスターのドッドのランダムパターンが既知のランダムパターンと一致しているか確認する確認部と、
をさらに備えることを特徴とする請求項4に記載の情報処理装置。 - 前記スーツには、スケールサイズを特定するために、前記ドットとは別に、伸縮しない固定マーカーが所定の数、所定の位置に、定点設置されている
ことを特徴とする請求項1~5のうちいずれか1つに記載の情報処理装置。 - 前記所定の位置と数は、前記スーツの全体を撮影する時の各視野角での撮影時に、必ず前記固定マーカーが含まれる位置と数である
ことを特徴とする請求項6に記載の情報処理装置。 - 前記所定の位置は、前記スーツの胸、背中、足に相当する位置であり、
前記所定の数は、4点以上である
ことを特徴とする請求項6又は7に記載の情報処理装置。 - 前記ドットとは別に、前記固定マーカーの周辺には伸縮素材エリアが設けられている
ことを特徴とする請求項6~8のうちいずれか1つに記載の情報処理装置。 - 前記スーツの撮影時に、前記クラスターの分析に基づいて、複数のサイズパターンが用意されている前記スーツのサイズパターンを判定し、サイズパターンごとに設けられた計測アルゴリズムのうち、判定されたサイズパターンに応じた計測アルゴズムを適用する適用部と、
をさらに備えることを特徴とする請求項1~3のうちいずれか1つに記載の情報処理装置。 - 情報処理装置が実行する情報処理方法であって、
スーツとともに伸縮する計測マーカーであるドットの相対的な位置分析をして、前記ドットのクラスターを形成する形成工程と、
前記クラスターに基づいて、3Dモデルを生成する生成工程と、
を含むことを特徴とする情報処理方法。 - スーツとともに伸縮する計測マーカーであるドットの相対的な位置分析をして、前記ドットのクラスターを形成する形成手順と、
前記クラスターに基づいて、3Dモデルを生成する生成手順と、
をコンピュータに実行させるための情報処理プログラム。
Priority Applications (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022517318A JP7169489B1 (ja) | 2021-03-09 | 2021-03-09 | 情報処理装置、情報処理方法及び情報処理プログラム |
CN202180095356.6A CN116964625A (zh) | 2021-03-09 | 2021-03-09 | 信息处理装置、信息处理方法以及信息处理程序 |
US18/280,635 US20240153204A1 (en) | 2021-03-09 | 2021-03-09 | Information processing device, information processing method, and a non-transitory computer-readable storage medium |
PCT/JP2021/009350 WO2022190217A1 (ja) | 2021-03-09 | 2021-03-09 | 情報処理装置、情報処理方法及び情報処理プログラム |
CA3212839A CA3212839A1 (en) | 2021-03-09 | 2021-03-09 | Information processing device, information processing method, and a non-transitory computer-readable storage medium |
EP21930074.6A EP4306903A1 (en) | 2021-03-09 | 2021-03-09 | Information processing device, information processing method, and information processing program |
TW111108248A TWI819512B (zh) | 2021-03-09 | 2022-03-07 | 資訊處理裝置、資訊處理方法及資訊處理程式 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2021/009350 WO2022190217A1 (ja) | 2021-03-09 | 2021-03-09 | 情報処理装置、情報処理方法及び情報処理プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2022190217A1 true WO2022190217A1 (ja) | 2022-09-15 |
Family
ID=83226438
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2021/009350 WO2022190217A1 (ja) | 2021-03-09 | 2021-03-09 | 情報処理装置、情報処理方法及び情報処理プログラム |
Country Status (7)
Country | Link |
---|---|
US (1) | US20240153204A1 (ja) |
EP (1) | EP4306903A1 (ja) |
JP (1) | JP7169489B1 (ja) |
CN (1) | CN116964625A (ja) |
CA (1) | CA3212839A1 (ja) |
TW (1) | TWI819512B (ja) |
WO (1) | WO2022190217A1 (ja) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003269936A (ja) * | 2002-03-19 | 2003-09-25 | Sanyo Electric Co Ltd | 自動採寸方法 |
JP2009508193A (ja) * | 2005-08-26 | 2009-02-26 | ソニー株式会社 | 1次マーカ及び2次マーカを使用するモーションキャプチャ |
US20120095589A1 (en) * | 2010-10-15 | 2012-04-19 | Arkady Vapnik | System and method for 3d shape measurements and for virtual fitting room internet service |
WO2018047687A1 (ja) * | 2016-09-12 | 2018-03-15 | パナソニックIpマネジメント株式会社 | 三次元モデル生成装置及び三次元モデル生成方法 |
WO2019189846A1 (ja) * | 2018-03-30 | 2019-10-03 | 株式会社Zozo | サイズ測定システム |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103514350A (zh) * | 2012-06-27 | 2014-01-15 | 富泰华工业(深圳)有限公司 | 具有虚拟试衣功能的电子装置及虚拟试衣方法 |
-
2021
- 2021-03-09 US US18/280,635 patent/US20240153204A1/en active Pending
- 2021-03-09 CN CN202180095356.6A patent/CN116964625A/zh active Pending
- 2021-03-09 EP EP21930074.6A patent/EP4306903A1/en active Pending
- 2021-03-09 WO PCT/JP2021/009350 patent/WO2022190217A1/ja active Application Filing
- 2021-03-09 JP JP2022517318A patent/JP7169489B1/ja active Active
- 2021-03-09 CA CA3212839A patent/CA3212839A1/en active Pending
-
2022
- 2022-03-07 TW TW111108248A patent/TWI819512B/zh active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003269936A (ja) * | 2002-03-19 | 2003-09-25 | Sanyo Electric Co Ltd | 自動採寸方法 |
JP2009508193A (ja) * | 2005-08-26 | 2009-02-26 | ソニー株式会社 | 1次マーカ及び2次マーカを使用するモーションキャプチャ |
US20120095589A1 (en) * | 2010-10-15 | 2012-04-19 | Arkady Vapnik | System and method for 3d shape measurements and for virtual fitting room internet service |
WO2018047687A1 (ja) * | 2016-09-12 | 2018-03-15 | パナソニックIpマネジメント株式会社 | 三次元モデル生成装置及び三次元モデル生成方法 |
WO2019189846A1 (ja) * | 2018-03-30 | 2019-10-03 | 株式会社Zozo | サイズ測定システム |
Non-Patent Citations (1)
Title |
---|
SOMEHARA, MUTSUMI ET AL.: "Rakuten and Itochu Join the Battle: Down with Zozo! E-Commerce Megacompetition", NIKKEI KONPYUTA - NIKKEI COMPUTER, NIKKEI MAGUROUHIRUSHA, TOKYO,, JP, vol. 965, 24 May 2018 (2018-05-24), JP , pages 6 - 9, XP009539671, ISSN: 0285-4619 * |
Also Published As
Publication number | Publication date |
---|---|
CA3212839A1 (en) | 2022-09-15 |
EP4306903A1 (en) | 2024-01-17 |
JPWO2022190217A1 (ja) | 2022-09-15 |
CN116964625A (zh) | 2023-10-27 |
TWI819512B (zh) | 2023-10-21 |
US20240153204A1 (en) | 2024-05-09 |
TW202248871A (zh) | 2022-12-16 |
JP7169489B1 (ja) | 2022-11-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6368142B2 (ja) | 情報処理装置、情報処理方法 | |
WO2017161660A1 (zh) | 增强现实设备、系统、图像处理方法及装置 | |
US20220198780A1 (en) | Information processing apparatus, information processing method, and program | |
WO2015108071A1 (ja) | 3次元データ生成装置、造形物製造システム及び3次元データ生成方法 | |
TWI790369B (zh) | 尺寸測定系統 | |
WO2022012019A1 (zh) | 身高测量方法、身高测量装置和终端 | |
US20220107415A1 (en) | Light direction detector systems and methods | |
KR20160110070A (ko) | 전자 장치 및 그 제어 방법 | |
US11443486B2 (en) | Mobile 3D body scanning methods and apparatus | |
WO2020040277A1 (ja) | 複合現実システム、プログラム、携帯端末装置、及び方法 | |
CN105814604B (zh) | 用于提供位置信息或移动信息以用于控制车辆的至少一种功能的方法和系统 | |
JP7169489B1 (ja) | 情報処理装置、情報処理方法及び情報処理プログラム | |
JP2013196388A (ja) | 画像処理装置、画像処理方法、および画像処理プログラム | |
TWI764393B (zh) | 壓力織物的製造方法 | |
JP5801690B2 (ja) | 画像処理装置、画像処理方法 | |
WO2022246608A1 (zh) | 生成全景视频的方法、装置和可移动平台 | |
JP7214092B2 (ja) | 画像制御装置、及びそのプログラム | |
JP2017184025A (ja) | 通信端末、画像通信システム、画像送信方法、画像表示方法、及びプログラム | |
US20160110886A1 (en) | Information processing apparatus and clothes proposing method | |
US10620436B2 (en) | Head-mounted apparatus | |
CN113405674B (zh) | 体温测量方法及摄像设备 | |
KR102495435B1 (ko) | 특수 마네킹의 마커를 이용한 의류제품의 3차원 이미지 생성 방법 | |
JP2016149139A (ja) | 画像処理方法および画像処理装置 | |
JP2024015004A (ja) | 静止判定システム及びコンピュータプログラム | |
KR20230082523A (ko) | 신체 치수 측정 장치 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
ENP | Entry into the national phase |
Ref document number: 2022517318 Country of ref document: JP Kind code of ref document: A |
|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 21930074 Country of ref document: EP Kind code of ref document: A1 |
|
WWE | Wipo information: entry into national phase |
Ref document number: 18280635 Country of ref document: US |
|
WWE | Wipo information: entry into national phase |
Ref document number: 202180095356.6 Country of ref document: CN Ref document number: 3212839 Country of ref document: CA |
|
WWE | Wipo information: entry into national phase |
Ref document number: 2021930074 Country of ref document: EP |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
ENP | Entry into the national phase |
Ref document number: 2021930074 Country of ref document: EP Effective date: 20231009 |