JP7497059B2 - IMAGE PROCESSING DEVICE, TRAINED MODEL, IMAGE COLLECTION DEVICE, IMAGE PROCESSING METHOD, AND IMAGE PROCESSING PROGRAM - Google Patents
IMAGE PROCESSING DEVICE, TRAINED MODEL, IMAGE COLLECTION DEVICE, IMAGE PROCESSING METHOD, AND IMAGE PROCESSING PROGRAM Download PDFInfo
- Publication number
- JP7497059B2 JP7497059B2 JP2021502253A JP2021502253A JP7497059B2 JP 7497059 B2 JP7497059 B2 JP 7497059B2 JP 2021502253 A JP2021502253 A JP 2021502253A JP 2021502253 A JP2021502253 A JP 2021502253A JP 7497059 B2 JP7497059 B2 JP 7497059B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- wearing
- user
- try
- posture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 66
- 238000003672 processing method Methods 0.000 title claims description 6
- PWPJGUXAGUPAHP-UHFFFAOYSA-N lufenuron Chemical compound C1=C(Cl)C(OC(F)(F)C(C(F)(F)F)F)=CC(Cl)=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F PWPJGUXAGUPAHP-UHFFFAOYSA-N 0.000 title 1
- 238000000034 method Methods 0.000 claims description 19
- 238000010801 machine learning Methods 0.000 claims description 17
- 238000012549 training Methods 0.000 claims description 17
- 239000000284 extract Substances 0.000 claims description 6
- 230000002194 synthesizing effect Effects 0.000 claims description 6
- 238000005259 measurement Methods 0.000 description 91
- 230000036544 posture Effects 0.000 description 81
- 238000010586 diagram Methods 0.000 description 18
- 230000015654 memory Effects 0.000 description 12
- 230000000694 effects Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 5
- 238000013434 data augmentation Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000003936 working memory Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/80—Creating or modifying a manually drawn or painted image using a manual input device, e.g. mouse, light pen, direction keys on keyboard
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
Description
本出願は、2019年2月22日に出願された米国仮出願62/809088に基づくもので、ここにその記載内容を援用する。This application is based on U.S. Provisional Application No. 62/809,088, filed February 22, 2019, the contents of which are incorporated herein by reference.
本発明は、画像処理装置、学習済みモデル、画像収集装置、画像処理方法、および、画像処理プログラムに関する。 The present invention relates to an image processing device, a trained model, an image collection device, an image processing method, and an image processing program.
従来、人体の動きに合わせて衣類の画像を生成し、生成した衣類の画像と人体の画像とを重ね合わせることで、仮想的な衣類の試着を行う技術が知られている(例えば、非特許文献1参照)。また、近年では、深層学習を用いて仮想的な衣類の試着を実現する技術も提案されている(例えば、非特許文献2参照)。Conventionally, a technique is known in which an image of clothing is generated in accordance with the movement of the human body, and the generated image of clothing is superimposed on an image of the human body to allow the user to virtually try on clothing (see, for example, Non-Patent Document 1). In recent years, a technique has also been proposed that uses deep learning to allow the user to virtually try on clothing (see, for example, Non-Patent Document 2).
しかしながら、従来の技術では、目的とする衣服毎に設定される多数のパラメータを用いたシミュレーションを実行する際に計算負荷が過大となってしまうという問題があった。However, conventional technology had the problem that the computational load became excessive when running a simulation using a large number of parameters set for each target garment.
なお、こうした課題は、衣類を仮想的に試着する場合に限らず、例えば、眼鏡や靴などの他の装着品を仮想的に試着する場合にも概ね共通するものであった。 Note that these issues are not limited to virtually trying on clothing, but are also common when virtually trying on other accessories such as glasses or shoes.
そこで、本発明は、仮想的な装着品の試着を行う場合の計算負荷を低減することができる画像処理装置、学習済みモデル、画像収集装置、画像処理方法、および、画像処理プログラムを提供する。 Therefore, the present invention provides an image processing device, a trained model, an image collection device, an image processing method, and an image processing program that can reduce the computational load when trying on virtual clothing items.
本発明の一態様に係る画像処理装置は、所定の姿勢で装着主体が装着した参照装着品の画像を入力データとし、前記所定の姿勢と共通する姿勢で装着主体が装着した試着装着品の画像を出力データとして関連付けた学習用データを用いた機械学習により学習させた学習済みモデルに対し、前記参照装着品を装着したユーザの画像を入力して、前記試着装着品を試着したユーザの画像を生成する画像生成部を備える。An image processing device according to one aspect of the present invention includes an image generating unit that inputs an image of a user wearing the reference wearing item into a trained model trained by machine learning using learning data in which an image of a reference wearing item worn by a wearer in a predetermined posture is associated as input data with an image of a tried-on wearing item worn by the wearer in a posture common to the predetermined posture, and generates an image of the user trying on the tried-on wearing item.
この態様によれば、参照装着品の画像と試着装着品の画像とを対応付けた学習用データを用いて学習済みモデルを学習させ、この学習モデルに参照装着品を装着したユーザの画像を入力することで、仮想的な装着品の試着を行う場合の計算負荷を低減することができる。According to this aspect, a trained model is trained using learning data that associates images of a reference wearing item with images of a tried-on wearing item, and an image of a user wearing the reference wearing item is input to this trained model, thereby reducing the computational load when trying on a virtual wearing item.
上記態様において、前記画像生成部は、前記参照装着品を装着したユーザの画像から前記参照装着品の画像と前記ユーザの身体部分の画像とを抽出し、前記抽出した参照装着品の画像を前記学習済みモデルに入力し、前記学習済みモデルから出力された前記試着装着品の画像と、前記抽出したユーザの身体部分の画像とを合成することによって、前記試着装着品を試着したユーザの画像を生成してもよい。In the above aspect, the image generation unit may extract an image of the reference wearing item and an image of the user's body part from an image of the user wearing the reference wearing item, input the extracted image of the reference wearing item to the trained model, and generate an image of the user trying on the try-on wearing item by combining the image of the try-on wearing item output from the trained model with the extracted image of the user's body part.
この態様によれば、試着装着品を試着したユーザの画像を正確に合成することができる。 According to this aspect, an image of a user trying on a try-on garment can be accurately synthesized.
上記態様において、前記画像生成部は、前記参照装着品を装着したユーザの画像から前記参照装着品の画像の深度情報と前記ユーザの身体部分の画像の深度情報とを抽出し、前記抽出した深度情報に基づいて、前記試着装着品の画像と前記ユーザの身体部分の画像とを合成してもよい。In the above aspect, the image generating unit may extract depth information of the image of the reference wearing item and depth information of the image of the user's body part from an image of the user wearing the reference wearing item, and synthesize the image of the tried-on wearing item and the image of the user's body part based on the extracted depth information.
この態様によれば、画像の深度情報を用いることで、試着装着品を装着したユーザの画像をより正確に合成することができる。 According to this aspect, by using image depth information, an image of a user wearing the tried-on garment can be synthesized more accurately.
上記態様において、前記学習用データは、所定の姿勢で装着主体が装着した前記参照装着品の画像を前記入力データとし、前記所定の姿勢と共通する姿勢で装着主体が装着した第1のバリエーションの前記試着装着品の画像を前記出力データとして関連付け、かつ、前記入力データに対して、前記所定の姿勢と共通する姿勢で装着主体が装着した第2のバリエーションの前記試着装着品の画像を前記出力データとして関連付け、前記画像生成部は、前記試着装着品のバリエーションの選択を受け付け、前記参照装着品を装着したユーザの画像を前記学習済みモデルに入力して、前記選択されたバリエーションの前記試着装着品を試着したユーザの画像を生成してもよい。In the above aspect, the learning data may be such that an image of the reference wearing item worn by the wearing subject in a predetermined posture is used as the input data, an image of the try-on wearing item of a first variation worn by the wearing subject in a posture common to the predetermined posture is associated as the output data, and an image of the try-on wearing item of a second variation worn by the wearing subject in a posture common to the predetermined posture is associated as the output data with the input data, and the image generation unit may accept a selection of a variation of the try-on wearing item, input an image of a user wearing the reference wearing item to the trained model, and generate an image of a user trying on the try-on wearing item of the selected variation.
この態様によれば、ユーザにより選択された試着装着品のバリエーションごとに区別して、試着装着品を試着したユーザの画像を生成することができる。According to this aspect, an image of a user trying on the try-on garment can be generated, distinguishing between variations of the try-on garment selected by the user.
上記態様において、前記装着品は、衣類であり、前記学習用データは、所定の姿勢で装着主体が装着した前記参照衣類の画像を前記入力データとし、前記所定の姿勢と共通する姿勢で装着主体が装着した前記試着衣類の画像を前記出力データとして関連付けたデータを含んでもよい。In the above aspect, the wearable item may be clothing, and the learning data may include data in which an image of the reference clothing worn by the wearer in a specified posture is used as the input data, and an image of the try-on clothing worn by the wearer in a posture common to the specified posture is used as the output data.
この態様によれば、参照衣類の画像と試着衣類の画像とを対応付けた学習用データを用いて学習済みモデルを学習させることで、仮想的な衣類の試着を行う場合の計算負荷を低減することができる。 According to this aspect, the computational load when trying on virtual clothing can be reduced by training a trained model using training data that matches images of reference clothing with images of tried-on clothing.
本発明の一態様に係る学習済みモデルは、所定の姿勢で装着主体が装着した参照装着品の画像を入力データとし、前記所定の姿勢と共通する姿勢で装着主体が装着した試着装着品の画像を出力データとして関連付けた学習用データを用いて機械学習により学習させた。The trained model according to one embodiment of the present invention is trained by machine learning using training data in which an image of a reference wearable item worn by the wearer in a specified posture is used as input data, and an image of a try-on wearable item worn by the wearer in a posture common to the specified posture is used as output data.
この態様によれば、上記画像処理装置の発明と同様の効果が得られる。According to this aspect, the same effect as the image processing device invention described above can be obtained.
本発明の一態様に係る画像収集装置は、ロボットマネキンと、カメラと、前記ロボットマネキンの姿勢を制御するロボット制御部と、前記ロボット制御部の制御に基づいて装着品を装着させた前記ロボットマネキンの姿勢を所定の姿勢に制御した状態で、前記カメラで前記装着品の画像を撮影し、撮影された画像を前記姿勢と関連付けて記憶部に記憶させる撮影制御部とを備える。 An image collection device according to one embodiment of the present invention comprises a robot mannequin, a camera, a robot control unit which controls the posture of the robot mannequin, and an image capture control unit which captures an image of an accessory with the camera while controlling the posture of the robot mannequin wearing the accessory to a predetermined posture based on the control of the robot control unit, and stores the captured image in a memory unit in association with the posture.
この態様によれば、参照装着品の画像と試着装着品の画像との対応付けを的確に行うことができ、学習済みモデルの学習に用いられる学習用データの信頼性を高めることができる。 According to this aspect, it is possible to accurately match images of reference wear items with images of try-on wear items, thereby improving the reliability of the learning data used to train the trained model.
本発明の一態様に係る画像処理方法は、所定の姿勢で装着主体が装着した参照装着品の画像を入力データとし、前記所定の姿勢と共通する姿勢で装着主体が装着した試着装着品の画像を出力データとして関連付けた学習用データを用いた機械学習により学習させた学習済みモデルに対し、前記参照装着品を装着したユーザの画像を入力して、前記試着装着品を試着したユーザの画像を生成する画像生成ステップを含む。An image processing method according to one aspect of the present invention includes an image generation step of inputting an image of a user wearing the reference wearing item into a trained model trained by machine learning using training data in which an image of a reference wearing item worn by a wearer in a predetermined posture is used as input data, and an image of a user trying on the tried-on wearing item is generated by inputting an image of the user wearing the reference wearing item into a trained model trained by machine learning using training data associated with an image of a tried-on wearing item worn by a wearer in a posture common to the predetermined posture.
この態様によれば、上記画像処理装置の発明と同様の効果が得られる。According to this aspect, the same effect as the image processing device invention described above can be obtained.
本発明の一態様に係る画像処理プログラムは、コンピュータに、所定の姿勢で装着主体が装着した参照装着品の画像を入力データとし、前記所定の姿勢と共通する姿勢で装着主体が装着した試着装着品の画像を出力データとして関連付けた学習用データを用いた機械学習により学習させた学習済みモデルに対し、前記参照装着品を装着したユーザの画像を入力して、前記試着装着品を試着したユーザの画像を生成させる処理を実行させる。 An image processing program according to one embodiment of the present invention causes a computer to execute a process of inputting an image of a user wearing the reference wearable item into a trained model trained by machine learning using learning data in which an image of a reference wearable item worn by a wearer in a predetermined posture is used as input data, and an image of a tried-on wearable item worn by the wearer in a posture common to the predetermined posture is used as output data. The trained model is trained by machine learning using learning data in which an image of a user wearing the reference wearable item is used as input data, and an image of a user trying on the tried-on wearable item is generated.
この態様によれば、上記画像処理プログラムの発明と同様の効果が得られる。 According to this aspect, the same effect as the above-mentioned image processing program invention can be obtained.
本発明によれば、仮想的な装着品の試着を行う場合の計算負荷を低減することができる。 According to the present invention, it is possible to reduce the computational load when trying on virtual clothing items.
(第1の実施の形態)
以下、図面を参照し、本発明の画像処理装置、学習済みモデル、画像収集装置、画像処理方法、および画像処理プログラムの実施形態について説明する。
(First embodiment)
Hereinafter, with reference to the drawings, embodiments of an image processing device, a trained model, an image collection device, an image processing method, and an image processing program of the present invention will be described.
図1に示すように、画像収集装置1は、例えば、カメラ10と、ロボットマネキン20と、ディスプレイ30と、画像処理装置100とを備える。これらの装置や機器は、通信線や無線通信網等によって互いに接続される。なお、図1に示す構成はあくまで一例であり、構成の一部が省略されてもよいし、更に別の構成が追加されてもよい。As shown in FIG. 1, the image collection device 1 includes, for example, a
カメラ10は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子を利用したデジタルカメラである。カメラ10は、例えば、ロボットマネキン20の前方に固定して配置され、装着品の一例である衣類を装着したロボットマネキン20の画像を撮影する。カメラ10は、例えば、ステレオカメラであってもよいし、深度カメラであってもよい。The
ロボットマネキン20は、例えば、ヒト型ロボットである。ロボットマネキン20は、例えば、両肩に4自由度、両肘に4自由度、腰の回転に2自由度で駆動可能に構成されており、衣類を装着した状態で様々な姿勢を取ることが可能である。The
ディスプレイ30は、例えば、液晶ディスプレイであり、画像処理装置100により生成された画像を表示する。
The
画像処理装置100は、例えば、制御部110と、記憶部120とを備える。制御部110は、例えば、CPU(Central Processing Unit)などのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)などのハードウェア(回路部:circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予め画像処理装置100のHDDやフラッシュメモリなどの記憶装置に格納されていてもよいし、DVDやCD-ROMなどの着脱可能な記憶媒体に格納されており、記憶媒体がドライブ装置に装着されることで画像処理装置100のHDDやフラッシュメモリにインストールされてもよい。The
制御部110は、例えば、ロボット制御部112と、撮影制御部114と、学習部116と、画像生成部118とを備える。The
ロボット制御部112は、ロボットマネキン20の動作を制御する。ロボット制御部112は、例えば、ロボットマネキン20の各自由度における動作量を制御することにより、ロボットマネキン20の姿勢を制御する。ロボットマネキン20の各自由度は、両肩の自由度、両肘の自由度、腰の回転の自由度など、ロボットマネキン20のポーズの自由度に加え、鉛直方向に延びる中心軸を中心としたロボットマネキン20の回転位置の自由度を含む。ロボットマネキン20の自由度は、例えば、カメラ10の撮影位置・方向に対するロボットマネキン20の角度を含んでもよい。なお、上記の説明は、ロボットマネキン20の姿勢の一例にすぎず、これに限られない。The
撮影制御部114は、カメラ10による画像の撮影動作を制御する。撮影制御部114は、例えば、ロボット制御部112の制御に基づいてロボットマネキン20の姿勢を所定の姿勢に制御した状態でロボットマネキン20の画像を撮影する。撮影制御部114は、例えば、ロボット制御部112の制御に基づいて、ロボットマネキン20の種々のポーズについて、ロボットマネキン20の回転位置を変化させつつ、ロボットマネキン20の画像を撮影する。撮影制御部114は、撮影された画像をロボットマネキン20の姿勢と関連付けて記憶部120に記憶させる。撮影制御部114は、例えば、計測用衣類を装着したロボットマネキン20の画像、および、試着用衣類を装着したロボットマネキン20の画像を撮影する。撮影制御部114は、計測用衣類を装着したロボットマネキン20の画像から計測用衣類の画像を領域分割し、領域分割した画像を、画像の撮影時におけるロボットマネキン20の姿勢と関連付けて画像データ122として記憶部120に記憶させる。また、撮影制御部114は、試着用衣類を装着したロボットマネキン20の画像から試着用衣類の画像を領域分割し、領域分割した画像を、画像の撮影時におけるロボットマネキン20の姿勢と関連付けて画像データ122として記憶部120に記憶させる。The photographing
図2は、画像データ122のデータ内容の一例を示す図である。図示の例では、画像データ122のデータ属性は、例えば、画像の種類、画像情報、および、ロボットマネキン20の姿勢を含む。画像の種類は、ロボットマネキン20が装着している衣類の種類であり、例えば、計測用衣類、および、試着用衣類を含む。計測用衣類は、試着用衣類を合成する上で参照される参照衣類の一例である。計測用衣類は、例えば、ユーザの身体に関する情報を取得するための衣類であり、人体の肌の色と区別しやすく、様々な試着用衣類と対応付けがしやすいことが好ましい。試着用衣類は、仮想的な試着の対象となる衣類であり、例えば、デザインが異なる複数の種類の衣類を含む。画像情報は、カメラ10により撮影された画像の画像位置ごとの輝度値(R,G,B)に関する情報を含む。画像情報は、さらに、カメラ10により撮影された画像の画像位置ごとの深度情報を含んでもよい。ロボットマネキン20の姿勢は、ロボットマネキン20の各自由度の動作量の組み合わせにより規定されるパラメータである。2 is a diagram showing an example of the data contents of the
学習部116は、計測用衣類の画像を入力データとし、計測用衣類の画像とロボットマネキン20の姿勢が共通する試着用衣類の画像を出力データとして関連付けた学習用データ124を記憶部120に格納する。すなわち、学習部116は、同じポーズで同じ方向から撮影した計測用衣類の画像と試着用衣類の画像とを対応付けて学習用データ124として記憶部120に格納する。学習部116は、例えば、記憶部120に格納された画像データ122を参照し、計測用衣類の画像と試着用衣類の画像とを対応付けて学習用データ124を記憶部120に格納する。学習部116は、学習用データ124を用いた機械学習により学習モデルを学習させて学習済みモデル126を生成する。学習済みモデル126は、例えば、機械学習のモデルの一種であるニューラルネットワークにより構成されている。学習部116は、計測用衣類の画像および試着用衣類の画像に対して平行移動、拡大縮小、回転、ノイズの付与などの処理を加えることで、学習用データ124のデータ数を水増しする、いわゆるデータオーギュメンテーションを行ってもよい。The
図3は、学習用データ124のデータ内容の一例を示す図である。図示の例では、学習用データ124は、計測用衣類の画像情報として、ロボットマネキン20の姿勢が互いに異なる複数(図示の例ではN個)の画像情報「A1」~「AN」が含まれている。また、学習用データ124は、計測用衣類のそれぞれの画像情報「A1」~「AN」とロボットマネキン20の姿勢が共通する試着用衣類の画像情報が対応付けられている。具体的には、学習用データ124は、計測用衣類のそれぞれの画像情報「A1」~「AN」とロボットマネキン20の姿勢が共通する衣類ごと(「衣類1」、「衣類2」など)の画像情報とが対応付けられている。
Figure 3 is a diagram showing an example of the data contents of the learning
図4は、計測用衣類の画像と試着用衣類の画像との対応付けの一例を示す図である。図4に示すように、学習用データ124は、ロボットマネキン20の姿勢ごとに区別して、計測用衣類の画像情報と試着用衣類の画像情報とが対応付けられている。図示の例では、学習用データ124は、例えば、ロボットマネキン20の姿勢が「姿勢1」である場合の計測用衣類の画像情報「A1」と試着用衣類の画像情報「B11」とが対応付けられ、ロボットマネキン20の姿勢が「姿勢2」である場合の計測用衣類の画像情報「A2」と試着用衣類の画像情報「B12」とが対応付けられている。
Figure 4 is a diagram showing an example of the correspondence between images of measurement clothing and images of try-on clothing. As shown in Figure 4, the learning
画像生成部118は、計測用衣類を装着したユーザの画像を学習済みモデル126入力して、試着用衣類を試着したユーザの画像を生成する。画像生成部118は、例えば、計測用衣類を装着したユーザの画像から計測用衣類の画像とユーザの身体部分の画像とを抽出し、抽出した計測用衣類の画像を学習済みモデル126に入力し、学習済みモデル126から出力された試着用衣類の画像と、抽出したユーザの身体部分の画像とを合成する。The
図5は、画像処理装置100による画像の生成処理の一例を説明するための図である。
Figure 5 is a diagram illustrating an example of an image generation process by the
同図に示すように、画像処理装置100は、学習フェーズとして、まず、計測用衣類を装着したロボットマネキン20の画像から計測用衣類の画像を領域分割し、かつ、試着用衣類を装着したロボットマネキン20の画像から試着用衣類の画像を領域分割する。As shown in the figure, in the learning phase, the
次に、画像処理装置100は、領域分割された計測用衣類の画像と試着用衣類の画像とを学習用データ124として対応付け、この学習用データ124を用いた機械学習により学習モデルを学習させることにより、学習済みモデル126を生成する。Next, the
次に、画像処理装置100は、実行フェーズとして、計測用衣類を装着したユーザの画像から、計測用衣類の画像、および、ユーザの身体部分の画像を領域分割する。この場合、画像処理装置100は、計測用衣類の画像の深度情報と、ユーザの身体部分の画像の深度情報とを取得してもよい。これにより、計測用衣類の画像と、ユーザの身体部分の画像との領域分割が正確に行われる。そして、画像処理装置100は、領域分割した計測用衣類の画像を学習済みモデル126に入力する。これにより、ユーザの姿勢に対応する試着用衣類の画像が学習済みモデル126から出力される。Next, in the execution phase, the
次に、画像処理装置100は、学習済みモデル126から出力された試着用衣類の画像と、上述のように領域分割したユーザの身体部分の画像とを合成することにより、試着用衣類を装着したユーザの画像を生成する。画像処理装置100は、例えば、ユーザの身体部分の画像を、計測用衣類の画像よりも手前に位置するように、試着用衣類を装着したユーザの画像を合成する。画像処理装置100は、例えば、計測用衣類の画像の深度情報と、ユーザの身体部分の画像の深度情報とに基づいて、試着用衣類を装着したユーザの画像を生成してもよい。この場合、画像処理装置100は、例えば、衣類の首の部分にユーザの顔や首を合成できたり、衣類の袖の部分にユーザの腕を合成できたりするなど、試着用異類を装着したユーザの画像を精度よく合成することができる。Next, the
図6は、学習済みモデル126の学習処理の一例を示すフローチャートである。なお、図6に示すフローチャートの処理に先立ち、ロボットマネキン20の姿勢ごとの計測用衣類の画像の撮影は完了しているものとする。また、図6に示すフローチャートの処理は、例えば、ロボットマネキン20に試着用衣類が装着された場合に、所定の操作をトリガーとして実行される。
Figure 6 is a flowchart showing an example of a learning process of the trained
図6に示すように、まず、ロボット制御部112は、試着用衣類を装着したロボットマネキン20を所定の姿勢に制御する(ステップS10)。次に、撮影制御部114は、カメラ10を用いてロボットマネキン20の画像を撮影する(ステップS12)。次に、撮影制御部114は、ロボットマネキン20の画像から試着用衣類の画像を領域分割する(ステップS14)。次に、撮影制御部114は、ロボットマネキン20の姿勢が共通する計測用衣類の画像と試着用衣類の画像とを対応付けて学習用データ124として記憶部120に格納する(ステップS16)。次に、学習部116は、記憶部120に格納された学習用データ124に加え、学習用データ124に対してデータオーギュメンテーションを行うことで水増しされたデータを用いて、機械学習により学習モデルを学習させる(ステップS18)。次に、撮影制御部114は、学習が終了したか否かを判定する(ステップS20)。そして、ロボット制御部112は、撮影制御部114により学習が終了していないと判定された場合には、ロボットマネキン20の姿勢を変更し(ステップS22)、計測用衣類の画像に対する試着用衣類の画像の対応付けが完了するまでの間、ステップS12~ステップS20の処理を繰り返す。一方、撮影制御部114は、学習が終了したと判定した場合には、本フローチャートの処理が終了する。As shown in FIG. 6, first, the
図7は、画像生成処理の一例を示すフローチャートである。なお、図7に示すフローチャートの処理に先立ち、試着用衣類はユーザにより事前に選択されているものとする。また、図7に示すフローチャートの処理は、例えば、計測用衣類を装着したユーザの画像が撮影された場合に、所定の操作をトリガーとして実行される。 Figure 7 is a flowchart showing an example of an image generation process. It is assumed that the user has selected the clothes to be tried on beforehand, prior to the processing of the flowchart shown in Figure 7. The processing of the flowchart shown in Figure 7 is executed, for example, when an image of the user wearing the measurement garment is captured, triggered by a specified operation.
図7に示すように、まず、画像生成部118は、計測用衣類を装着したユーザの画像から、ユーザの身体部分の画像と計測用衣類の画像とを領域分割する(ステップS30)。次に、画像生成部118は、先のステップS30において領域分割した計測用衣類の画像を学習済みモデル126に入力する(ステップS32)。次に、画像生成部118は、学習済みモデル126から出力された試着用衣類の画像と、先のステップS30において領域分割したユーザの身体部分の画像とを合成する(ステップS34)。次に、画像生成部118は、合成した画像をディスプレイ30に出力する(ステップS36)。これにより、本フローチャートの処理が終了する。As shown in FIG. 7, first, the
以上説明したように、上記第1の実施の形態によれば、以下に示す効果を得ることができる。
(1)画像処理装置100は、所定の姿勢でロボットマネキン20が装着した計測用衣類の画像を入力データとし、所定の姿勢と共通する姿勢でロボットマネキン20が装着した試着用衣類の画像を出力データとして関連付けた学習用データ124を用いた機械学習により学習済みモデル126を学習する。また、画像処理装置100は、学習済みモデル126に対し、計測用衣類を装着したユーザの画像を入力して、試着用衣類を試着したユーザの画像を生成する。すなわち、ユーザが装着した計測用衣類の画像を学習済みモデル126を用いて試着用衣類の画像に変換し、変換後の画像を用いて試着用衣類を試着したユーザの画像を生成する。これにより、人体や衣類の三次元モデルを用意して物理シミュレーションを実行することが不要となるため、仮想的な衣類の試着を行う場合の計算負荷を低減することができる。また、目的とする衣服毎に多数のパラメータを正確に計測することが不要となるため、仮想的な衣類の試着を行う場合の利便性を向上することができる。
As described above, according to the first embodiment, the following effects can be obtained.
(1) The
(2)画像処理装置100は、計測用衣類を装着したユーザの画像から計測用衣類の画像とユーザの身体部分の画像とを抽出し、抽出した計測用衣類の画像を学習済みモデル126に入力する。また、画像処理装置100は、学習済みモデル126から出力された試着用衣類の画像と、先に抽出したユーザの身体部分の画像とを合成することによって、試着用衣類を試着したユーザの画像を生成する。すなわち、学習済みモデル126を用いて変換した試着用衣類の画像とユーザの身体部分の画像とを位置合わせして合成することで、試着用衣類を試着したユーザの画像を正確に合成することができる。
(2) The
(3)画像処理装置100は、計測用衣類を装着したユーザの画像から計測用衣類の画像の深度情報とユーザの身体部分の画像の深度情報とを抽出し、抽出した深度情報に基づいて、試着用衣類の画像とユーザの身体部分の画像とを合成する。これにより、試着用衣類を試着したユーザの画像をより正確に合成することができる。(3) The
(4)画像処理装置100は、衣類を装着させたロボットマネキン20の姿勢を所定の姿勢に制御した状態で、カメラ10で衣類の画像を撮影し、撮影された衣類の画像をロボットマネキン20の姿勢と関連付けて記憶部120に記憶させる。これにより、計測用衣類の画像と試着用衣類の画像との対応付けを正確に行うことができ、学習用データ124の信頼性を高めることができる。(4) The
(5)画像処理装置100は、ロボットマネキン20を正面から見た画像に加え、ロボットマネキン20を横方向から見た画像など、ロボットマネキン20を様々な回転位置から見た画像を含むように学習用データ124を構成している。これにより、ユーザが様々な姿勢を取る場合であっても、試着用衣類を試着したユーザの画像を正確に合成することができる。
(5) The
(6)画像処理装置100は、計測用衣類の画像と試着用衣類の画像とを対応付けて学習用データ124を構成している。これにより、ユーザの姿勢の変化に伴った試着用衣類の変形を正確に予測することが可能となり、試着用衣類を装着したユーザの画像をより正確に合成することができる。
(6) The
(第2の実施の形態)
次に、画像処理装置の第2の実施の形態について図面を参照して説明する。なお、第2の実施の形態は、計測用衣類の画像と試着用衣類の画像との対応付けの方法が第1の実施の形態と異なる。したがって、以下の説明においては、第1の実施の形態と相違する構成について主に説明し、第1の実施の形態と同一のまたは相当する構成については重複する説明を省略する。
Second Embodiment
Next, a second embodiment of the image processing device will be described with reference to the drawings. The second embodiment differs from the first embodiment in the method of associating images of measurement garments with images of try-on garments. Therefore, in the following description, the configuration different from the first embodiment will be mainly described, and a duplicate description of the same or corresponding configuration as the first embodiment will be omitted.
第2の実施の形態に係る学習部116は、計測用衣類の画像を入力データとし、計測用衣類の画像とロボットマネキン20の姿勢が共通する複数のバリエーションの試着用衣類の画像を出力データとして関連付けた学習用データ124を記憶部120に格納する。複数のバリエーションは、例えば、試着用衣類の色やサイズを含む。学習用データ124は、例えば、計測用衣類の画像を入力データとし、計測用衣類とロボットマネキン20の姿勢が共通する第1のバリエーションの試着用衣類の画像を出力データとして関連付け、かつ、計測用衣類の画像を入力データとし、計測用衣類とロボットマネキン20の姿勢が共通する第2のバリエーションの試着用衣類の画像を出力データとして関連付けている。The
図8は、計測用衣類の画像と試着用衣類の画像との対応付けの一例を示す図である。図8に示すように、学習用データ124は、ロボットマネキン20の姿勢ごとに区別して、計測用衣類の画像情報と試着用衣類の画像情報とが対応付けられている。図示の例では、学習用データ124は、例えば、ロボットマネキン20の姿勢が「姿勢1」である計測用衣類の画像情報「A1」とSサイズの試着用衣類の画像情報「B11α」とが対応付けられている。また、ロボットマネキン20の姿勢が「姿勢1」である計測用衣類の画像情報「A1」とMサイズの試着用衣類の画像情報「B11β」とが対応付けられている。また、ロボットマネキン20の姿勢が「姿勢1」である計測用衣類の画像情報「A1」とLサイズの試着用衣類の画像情報「B11γ」とが対応付けられている。8 is a diagram showing an example of the correspondence between the image of the measurement garment and the image of the try-on garment. As shown in FIG. 8, the learning
図9は、画像処理装置100による画像の生成処理の一例を説明するための図である。
Figure 9 is a diagram illustrating an example of an image generation process by the
同図に示すように、画像処理装置100は、実行フェーズとして、計測用衣類を装着したユーザの画像から、計測用衣類の画像、および、ユーザの身体部分の画像を領域分割する。そして、画像処理装置100は、領域分割した計測用衣類の画像を学習済みモデル126に入力する。この場合、学習済みモデル126から出力される試着用衣類のサイズ(図示の例では「Mサイズ」)が事前に選択されている。これにより、事前に選択されたサイズに対応する試着用衣類の画像が学習済みモデル126から出力される。その後、画像処理装置100は、学習済みモデル126から出力された試着用衣類の画像と、上述のように領域分割したユーザの身体部分の画像とを合成することにより、試着用衣類を装着したユーザの画像を生成する。As shown in the figure, in the execution phase, the
以上説明したように、上記第2の実施の形態によれば、第1の実施の形態の上記(1)~(6)の効果に加えて、以下に示す効果を得ることができる。
(7)画像処理装置100は、試着用衣類のバリエーションの選択を受け付け、計測用衣類を装着したユーザの画像を学習済みモデル126に入力して、先に選択されたバリエーションの試着用衣類を試着したユーザの画像を生成する。これにより、ユーザにより選択された試着用衣類のバリエーションごとに区別して、試着用衣類を試着したユーザの画像を生成することができる。
As described above, according to the second embodiment, in addition to the effects (1) to (6) of the first embodiment, the following effects can be obtained.
(7) The
(第3の実施の形態)
次に、画像処理装置の第3の実施の形態について図面を参照して説明する。なお、第3の実施の形態は、計測用衣類の画像と試着用衣類の画像との対応付けの方法が第1の実施の形態と異なる。したがって、以下の説明においては、第1の実施の形態と相違する構成について主に説明し、第1の実施の形態と同一のまたは相当する構成については重複する説明を省略する。
Third Embodiment
Next, a third embodiment of the image processing device will be described with reference to the drawings. The third embodiment differs from the first embodiment in the method of associating images of measurement garments with images of try-on garments. Therefore, in the following description, the configuration different from the first embodiment will be mainly described, and a duplicate description of the same or corresponding configuration as the first embodiment will be omitted.
第3の実施の形態に係る学習部116は、計測用衣類の画像を入力データとし、計測用衣類の画像とロボットマネキン20の体型並びに姿勢が共通する試着用衣類の画像を出力データとして関連付けた学習用データ124を記憶部120に格納する。ロボットマネキン20の体型は、例えば、腕囲、肩幅、腹囲などのパラメータにより規定される。学習用データ124は、例えば、通常の体型に相当するロボットマネキン20により装着された計測用衣類の画像と、この計測用衣類とロボットマネキン20の体型ならびに姿勢が共通する試着用衣類の画像とを対応付け、かつ、肥満型に相当するロボットマネキン20により装着された計測用衣類の画像と、この計測用衣類とロボットマネキン20の体型ならびに姿勢が共通する試着用衣類の画像と対応付けて学習用データ124を構成している。すなわち、学習用データ124は、複数の体型のユーザに対応するように計測用衣類の画像と試着用衣類の画像とを対応付けており、学習用データ124のデータ数が水増しされている。The
図10は、計測用衣類の画像と試着用衣類の画像との対応付けの一例を示す図である。図10に示すように、学習用データ124は、ロボットマネキン20の体型ならびに姿勢ごとに区別して、計測用衣類の画像情報と試着用衣類の画像情報とが対応付けられている。図示の例では、学習用データ124は、例えば、通常の体型に相当するロボットマネキン20について、ロボットマネキン20の姿勢が「姿勢1」である計測用衣類の画像情報「A1」と試着用衣類の画像情報「B11」とが対応付けられている。また、肥満型に相当するロボットマネキン20について、ロボットマネキン20の姿勢が「姿勢1」である計測用衣類の画像情報「A1X」と試着用衣類の画像情報「B11X」とが対応付けられている。10 is a diagram showing an example of the correspondence between images of measurement clothing and images of try-on clothing. As shown in FIG. 10, the learning
図11は、画像処理装置100による画像の生成処理の一例を説明するための図である。
Figure 11 is a diagram illustrating an example of an image generation process by the
図11(a)に示すように、画像処理装置100は、実行フェーズとして、計測用衣類を装着した通常の体型のユーザの画像から、計測用衣類の画像、および、ユーザの身体部分の画像を領域分割する。そして、画像処理装置100は、領域分割した計測用衣類の画像を学習済みモデル126に入力する。これにより、通常の体型に近い試着用衣類の画像が学習済みモデル126から出力される。その後、画像処理装置100は、学習済みモデル126から出力された試着用衣類の画像と、上述のように領域分割したユーザの身体部分の画像とを合成することにより、試着用衣類を装着したユーザの画像を生成する。As shown in FIG. 11(a), in the execution phase, the
図11(b)に示すように、画像処理装置100は、実行フェーズとして、計測用衣類を装着した肥満型のユーザの画像から、計測用衣類の画像、および、ユーザの身体部分の画像を領域分割する。そして、画像処理装置100は、領域分割した計測用衣類の画像を学習済みモデル126に入力する。これにより、肥満型に近い試着用衣類の画像が学習済みモデル126から出力される。その後、画像処理装置100は、学習済みモデル126から出力された試着用衣類の画像と、上述のように領域分割したユーザの身体部分の画像とを合成することにより、試着用衣類を装着したユーザの画像を生成する。As shown in FIG. 11(b), in the execution phase, the
以上説明したように、上記第3の実施の形態によれば、第1の実施の形態の上記(1)~(6)の効果に加えて、以下に示す効果を得ることができる。
(8)画像処理装置100は、複数の体型のユーザに対応するように計測用衣類の画像と試着用衣類の画像とを対応付けた学習用データ124を用いて学習済みモデル126を学習している。また、画像処理装置100は、計測用衣類を装着したユーザの画像を学習済みモデル126に入力して、様々な体型のユーザが試着用衣類を装着した画像を生成する。すなわち、様々な体型のユーザに対応するように学習用データ124を構成することで、計算負荷を抑えつつ、リアリティの高い試着用衣類の画像を生成することができる。
As described above, according to the third embodiment, in addition to the effects (1) to (6) of the first embodiment, the following effects can be obtained.
(8) The
(その他の実施の形態)
なお、上記各実施の形態は、以下のような形態にて実施することもできる。
・上記各実施の形態においては、画像処理装置100がロボットマネキン20を制御することにより、計測用衣類の画像および試着用衣類の画像を学習用データ124として収集した。これに代えて、被験者が衣類を着用した状態で姿勢を変更することにより、計測用衣類の画像および試着用衣類の画像を学習用データ124として収集してもよい。
(Other embodiments)
Each of the above-described embodiments can also be implemented in the following forms.
In the above embodiments, the
・上記各実施の形態においては、ユーザが装着した計測用衣類の画像を用いて学習済みモデル126を学習するようにした。これに代えて、ユーザが装着した普通の衣類の画像を用いて学習済みモデル126を学習するようにしてもよい。例えば、ユーザが装着した普通の衣類の画像に基づいてユーザの姿勢を推定し、推定したユーザの姿勢を普通の衣類の画像と関連付けて学習用データ124を構成してもよい。なお、普通の衣類の画像に基づいてユーザの姿勢を推定する場合には、ロボットマネキン20に普通の衣類を装着させた画像を用いてもよいし、被検者に普通の衣類を装着させた画像を用いてもよい。
- In each of the above embodiments, the trained
〔ハードウェア構成〕
図12は、実施の形態の画像処理装置100のハードウェア構成の一例を示す図である。図示するように、画像処理装置100は、通信コントローラ100-1、CPU100-2、ワーキングメモリとして使用されるRAM(Randome Access Memory)100-3、ブートプログラムなどを格納するROM(Read Only Memory)100-4、フラッシュメモリやHDD(Hard Disk Drive)などの記憶装置100-5、ドライブ装置100-6などが、内部バスあるいは専用通信線によって相互に接続された構成となっている。通信コントローラ100-1は、画像処理装置100以外の構成要素との通信を行う。記憶装置100-5には、CPU100-2が実行するプログラム100-5aが格納されている。このプログラムは、DMA(Direct Memory Access)コントローラ(不図示)などによってRAM100-3に展開されて、CPU100-2によって実行される。これによって、ロボット制御部112、撮影制御部114、学習部116、画像生成部118が実現される。
[Hardware configuration]
FIG. 12 is a diagram showing an example of a hardware configuration of an
上記説明した実施形態は、以下のように表現することができる。
プログラムを記憶した記憶装置と、
ハードウェアプロセッサと、を備え、
前記ハードウェアプロセッサは、前記記憶装置に記憶されたプログラムを実行することにより、
所定の姿勢で装着主体が装着した参照装着品の画像を入力データとし、前記所定の姿勢と共通する姿勢で装着主体が装着した試着装着品の画像を出力データとして関連付けた学習用データを用いた機械学習により学習させた学習済みモデルに対し、前記参照装着品を装着したユーザの画像を入力して、前記試着装着品を試着したユーザの画像を生成させるように構成されている、画像処理装置。
The above-described embodiment can be expressed as follows.
A storage device storing a program;
a hardware processor;
The hardware processor executes the program stored in the storage device,
The image processing device is configured to input an image of a user wearing the reference wearing item to a trained model trained by machine learning using learning data in which an image of a reference wearing item worn by a wearer in a predetermined posture is used as input data, and an image of a tried-on wearing item worn by the wearer in a posture common to the predetermined posture is used as output data. The trained model is trained by machine learning using learning data in which an image of a user wearing the reference wearing item is used to generate an image of a user trying on the tried-on wearing item.
以上説明した実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。実施形態が備える各要素並びにその配置、材料、条件、形状及びサイズ等は、例示したものに限定されるわけではなく適宜変更することができる。また、異なる実施形態で示した構成同士を部分的に置換し又は組み合わせることが可能である。The above-described embodiments are intended to facilitate understanding of the present invention and are not intended to limit the present invention. The elements of the embodiments, as well as their arrangement, materials, conditions, shapes, sizes, etc., are not limited to those exemplified and can be modified as appropriate. Furthermore, configurations shown in different embodiments can be partially substituted or combined.
1…画像生成システム、10…カメラ、20…ロボットマネキン、30…ディスプレイ、100…画像処理装置、110…制御部、112…ロボット制御部、114…撮影制御部、116…学習部、118…画像生成部、120…記憶部、122…画像データ、124…学習用データ、126…学習済みモデル。 1...image generation system, 10...camera, 20...robot mannequin, 30...display, 100...image processing device, 110...control unit, 112...robot control unit, 114...photography control unit, 116...learning unit, 118...image generation unit, 120...memory unit, 122...image data, 124...learning data, 126...learned model.
Claims (7)
画像処理装置。 The image generating unit is provided for inputting an image of a user wearing the reference wearing product to a trained model trained by machine learning using training data in which an image of a reference wearing product worn by a wearer in a predetermined posture is used as input data, and an image of a tried-on wearing product worn by a wearer in a posture common to the predetermined posture is used as output data. The image generating unit generates an image of a user wearing the tried-on wearing product by inputting an image of a user wearing the reference wearing product to a trained model trained by machine learning using training data in which an image of a user wearing the reference wearing product is used as input data, and an image of a user trying on the tried-on wearing product is generated.
Image processing device.
前記参照装着品を装着したユーザの画像から前記参照装着品の画像と前記ユーザの身体部分の画像とを抽出し、
前記抽出した参照装着品の画像を前記学習済みモデルに入力し、前記学習済みモデルから出力された前記試着装着品の画像と、前記抽出したユーザの身体部分の画像とを合成することによって、前記試着装着品を試着したユーザの画像を生成する、
請求項1に記載の画像処理装置。 The image generating unit includes:
Extracting an image of the reference wearing item and an image of a body part of the user from an image of the user wearing the reference wearing item;
The extracted image of the reference wearing item is input to the trained model, and the image of the try-on wearing item output from the trained model is synthesized with the extracted image of the user's body part to generate an image of the user who has tried on the try-on wearing item.
The image processing device according to claim 1 .
前記抽出した深度情報に基づいて、前記試着装着品の画像と前記ユーザの身体部分の画像とを合成する、
請求項2に記載の画像処理装置。 The image generating unit extracts depth information of the image of the reference wearing item and depth information of the image of a body part of the user from an image of the user wearing the reference wearing item,
synthesizing the image of the try-on garment with an image of a body part of the user based on the extracted depth information;
The image processing device according to claim 2 .
前記画像生成部は、
前記試着装着品のバリエーションの選択を受け付け、
前記参照装着品を装着したユーザの画像を前記学習済みモデルに入力して、前記選択されたバリエーションの前記試着装着品を試着したユーザの画像を生成する、
請求項1から3のいずれか1項に記載の画像処理装置。 The learning data is obtained by associating an image of the reference wearing item worn by the wearing subject in a predetermined posture as the input data, an image of the try-on wearing item of a first variation worn by the wearing subject in a posture common to the predetermined posture as the output data, and an image of the try-on wearing item of a second variation worn by the wearing subject in a posture common to the predetermined posture as the output data with the input data;
The image generating unit includes:
Accepting a selection of a variation of the try-on garment;
An image of a user wearing the reference wearing item is input to the trained model to generate an image of a user trying on the try-on wearing item of the selected variation.
The image processing device according to claim 1 .
前記学習用データは、所定の姿勢で装着主体が装着した参照衣類の画像を前記入力データとし、前記所定の姿勢と共通する姿勢で装着主体が装着した試着衣類の画像を前記出力データとして関連付けたデータを含む、
請求項1から4のいずれか1項に記載の画像処理装置。 The wearable item is clothing,
The learning data includes data obtained by associating an image of a reference garment worn by a subject in a predetermined posture as the input data with an image of a try-on garment worn by the subject in a posture common to the predetermined posture as the output data.
The image processing device according to claim 1 .
画像処理方法。 The image generating step includes inputting an image of a user wearing the reference wearing product to a trained model trained by machine learning using training data in which an image of a reference wearing product worn by a wearer in a predetermined posture is used as input data, and an image of a user trying on the try-on wearing product worn by the wearer in a posture common to the predetermined posture is used as output data.
Image processing methods.
所定の姿勢で装着主体が装着した参照装着品の画像を入力データとし、前記所定の姿勢と共通する姿勢で装着主体が装着した試着装着品の画像を出力データとして関連付けた学習用データを用いた機械学習により学習させた学習済みモデルに対し、前記参照装着品を装着したユーザの画像を入力して、前記試着装着品を試着したユーザの画像を生成させる、
処理を実行させる、
画像処理プログラム。 On the computer,
An image of a user wearing the reference wearing item is input to a trained model trained by machine learning using training data in which an image of a reference wearing item worn by a wearer in a predetermined posture is used as input data, and an image of a user trying on the try-on wearing item is generated by inputting an image of the user wearing the reference wearing item into the trained model.
Execute the process,
Image processing program.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962809088P | 2019-02-22 | 2019-02-22 | |
US62/809,088 | 2019-02-22 | ||
PCT/JP2020/007392 WO2020171237A1 (en) | 2019-02-22 | 2020-02-25 | Image processing device, learned model, image collection device, image processing method, and image processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2020171237A1 JPWO2020171237A1 (en) | 2021-12-16 |
JP7497059B2 true JP7497059B2 (en) | 2024-06-10 |
Family
ID=72144680
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021502253A Active JP7497059B2 (en) | 2019-02-22 | 2020-02-25 | IMAGE PROCESSING DEVICE, TRAINED MODEL, IMAGE COLLECTION DEVICE, IMAGE PROCESSING METHOD, AND IMAGE PROCESSING PROGRAM |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7497059B2 (en) |
WO (1) | WO2020171237A1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6921768B2 (en) * | 2018-02-21 | 2021-08-18 | 株式会社東芝 | Virtual fitting system, virtual fitting method, virtual fitting program, and information processing device |
CN112991494B (en) * | 2021-01-28 | 2023-09-15 | 腾讯科技(深圳)有限公司 | Image generation method, device, computer equipment and computer readable storage medium |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019163218A1 (en) | 2018-02-21 | 2019-08-29 | 株式会社東芝 | Virtual trial fitting system, virtual trial fitting method, virtual trial fitting program, information processing device, and learning data |
-
2020
- 2020-02-25 WO PCT/JP2020/007392 patent/WO2020171237A1/en active Application Filing
- 2020-02-25 JP JP2021502253A patent/JP7497059B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019163218A1 (en) | 2018-02-21 | 2019-08-29 | 株式会社東芝 | Virtual trial fitting system, virtual trial fitting method, virtual trial fitting program, information processing device, and learning data |
Also Published As
Publication number | Publication date |
---|---|
JPWO2020171237A1 (en) | 2021-12-16 |
WO2020171237A1 (en) | 2020-08-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3479296B1 (en) | System of virtual dressing utilizing image processing, machine learning, and computer vision | |
US11501508B2 (en) | Parameterized model of 2D articulated human shape | |
US20210074005A1 (en) | Image processing method and apparatus, image device, and storage medium | |
US10991067B2 (en) | Virtual presentations without transformation-induced distortion of shape-sensitive areas | |
US8737767B2 (en) | Perceptually guided capture and stylization of 3D human figures | |
EP3568804A2 (en) | Systems, methods and apparatuses for stereo vision and tracking | |
US8976230B1 (en) | User interface and methods to adapt images for approximating torso dimensions to simulate the appearance of various states of dress | |
JP7497059B2 (en) | IMAGE PROCESSING DEVICE, TRAINED MODEL, IMAGE COLLECTION DEVICE, IMAGE PROCESSING METHOD, AND IMAGE PROCESSING PROGRAM | |
CN104966284A (en) | Method and equipment for acquiring object dimension information based on depth data | |
Xu et al. | 3d virtual garment modeling from rgb images | |
JP2022036963A (en) | Size measurement system | |
CN107016730A (en) | The device that a kind of virtual reality is merged with real scene | |
CN107622428A (en) | A kind of method and device for realizing virtually trying | |
CN106981100A (en) | The device that a kind of virtual reality is merged with real scene | |
US20160055682A1 (en) | Three-dimensional modeling method and electronic apparatus thereof | |
JP2007102478A (en) | Image processor, image processing method, and semiconductor integrated circuit | |
Ram et al. | A review on virtual reality for 3D virtual trial room | |
Xu et al. | Human body reshaping and its application using multiple RGB-D sensors | |
CN110309554B (en) | Video human body three-dimensional reconstruction method and device based on garment modeling and simulation | |
Chang et al. | Seeing through the appearance: Body shape estimation using multi-view clothing images | |
Wang et al. | Im2fit: Fast 3d model fitting and anthropometrics using single consumer depth camera and synthetic data | |
JP7294402B2 (en) | Image processing device, image processing method and program | |
JP2009095631A (en) | Golf swing measuring system | |
Pei et al. | An image-based measuring technique for the prediction of human body size | |
JP7501543B2 (en) | Information processing device, information processing method, and information processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230117 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240219 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240416 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240430 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240522 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7497059 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |