JP7497059B2 - IMAGE PROCESSING DEVICE, TRAINED MODEL, IMAGE COLLECTION DEVICE, IMAGE PROCESSING METHOD, AND IMAGE PROCESSING PROGRAM - Google Patents

IMAGE PROCESSING DEVICE, TRAINED MODEL, IMAGE COLLECTION DEVICE, IMAGE PROCESSING METHOD, AND IMAGE PROCESSING PROGRAM Download PDF

Info

Publication number
JP7497059B2
JP7497059B2 JP2021502253A JP2021502253A JP7497059B2 JP 7497059 B2 JP7497059 B2 JP 7497059B2 JP 2021502253 A JP2021502253 A JP 2021502253A JP 2021502253 A JP2021502253 A JP 2021502253A JP 7497059 B2 JP7497059 B2 JP 7497059B2
Authority
JP
Japan
Prior art keywords
image
wearing
user
try
posture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021502253A
Other languages
Japanese (ja)
Other versions
JPWO2020171237A1 (en
Inventor
健夫 五十嵐
信行 梅谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Tokyo NUC
Original Assignee
University of Tokyo NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Tokyo NUC filed Critical University of Tokyo NUC
Publication of JPWO2020171237A1 publication Critical patent/JPWO2020171237A1/en
Application granted granted Critical
Publication of JP7497059B2 publication Critical patent/JP7497059B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/80Creating or modifying a manually drawn or painted image using a manual input device, e.g. mouse, light pen, direction keys on keyboard

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Description

関連出願の相互参照CROSS-REFERENCE TO RELATED APPLICATIONS

本出願は、2019年2月22日に出願された米国仮出願62/809088に基づくもので、ここにその記載内容を援用する。This application is based on U.S. Provisional Application No. 62/809,088, filed February 22, 2019, the contents of which are incorporated herein by reference.

本発明は、画像処理装置、学習済みモデル、画像収集装置、画像処理方法、および、画像処理プログラムに関する。 The present invention relates to an image processing device, a trained model, an image collection device, an image processing method, and an image processing program.

従来、人体の動きに合わせて衣類の画像を生成し、生成した衣類の画像と人体の画像とを重ね合わせることで、仮想的な衣類の試着を行う技術が知られている(例えば、非特許文献1参照)。また、近年では、深層学習を用いて仮想的な衣類の試着を実現する技術も提案されている(例えば、非特許文献2参照)。Conventionally, a technique is known in which an image of clothing is generated in accordance with the movement of the human body, and the generated image of clothing is superimposed on an image of the human body to allow the user to virtually try on clothing (see, for example, Non-Patent Document 1). In recent years, a technique has also been proposed that uses deep learning to allow the user to virtually try on clothing (see, for example, Non-Patent Document 2).

Kim,J.,&Forsythe,S.″Adoption of Virtual Try - on technology for online apparel shopping.″Journal of Interactive Marketing, Volume 22, Spring 2008, Page 45-59.Kim, J., & Forsythe, S. "Adoption of Virtual Try-on technology for online apparel shopping." Journal of Interactive Marketing, Volume 22, Spring 2008, Pages 45-59. Christoph Lassner,Gerard Pons-Moll,Peter V.Gehler.The IEEE International Conference on Computer Vision(ICCV), July 2017,Page 853-862.Christoph Lassner, Gerard Pons-Moll, Peter V. Gehler.The IEEE International Conference on Computer Vision (ICCV), July 2017, Pages 853-862.

しかしながら、従来の技術では、目的とする衣服毎に設定される多数のパラメータを用いたシミュレーションを実行する際に計算負荷が過大となってしまうという問題があった。However, conventional technology had the problem that the computational load became excessive when running a simulation using a large number of parameters set for each target garment.

なお、こうした課題は、衣類を仮想的に試着する場合に限らず、例えば、眼鏡や靴などの他の装着品を仮想的に試着する場合にも概ね共通するものであった。 Note that these issues are not limited to virtually trying on clothing, but are also common when virtually trying on other accessories such as glasses or shoes.

そこで、本発明は、仮想的な装着品の試着を行う場合の計算負荷を低減することができる画像処理装置、学習済みモデル、画像収集装置、画像処理方法、および、画像処理プログラムを提供する。 Therefore, the present invention provides an image processing device, a trained model, an image collection device, an image processing method, and an image processing program that can reduce the computational load when trying on virtual clothing items.

本発明の一態様に係る画像処理装置は、所定の姿勢で装着主体が装着した参照装着品の画像を入力データとし、前記所定の姿勢と共通する姿勢で装着主体が装着した試着装着品の画像を出力データとして関連付けた学習用データを用いた機械学習により学習させた学習済みモデルに対し、前記参照装着品を装着したユーザの画像を入力して、前記試着装着品を試着したユーザの画像を生成する画像生成部を備える。An image processing device according to one aspect of the present invention includes an image generating unit that inputs an image of a user wearing the reference wearing item into a trained model trained by machine learning using learning data in which an image of a reference wearing item worn by a wearer in a predetermined posture is associated as input data with an image of a tried-on wearing item worn by the wearer in a posture common to the predetermined posture, and generates an image of the user trying on the tried-on wearing item.

この態様によれば、参照装着品の画像と試着装着品の画像とを対応付けた学習用データを用いて学習済みモデルを学習させ、この学習モデルに参照装着品を装着したユーザの画像を入力することで、仮想的な装着品の試着を行う場合の計算負荷を低減することができる。According to this aspect, a trained model is trained using learning data that associates images of a reference wearing item with images of a tried-on wearing item, and an image of a user wearing the reference wearing item is input to this trained model, thereby reducing the computational load when trying on a virtual wearing item.

上記態様において、前記画像生成部は、前記参照装着品を装着したユーザの画像から前記参照装着品の画像と前記ユーザの身体部分の画像とを抽出し、前記抽出した参照装着品の画像を前記学習済みモデルに入力し、前記学習済みモデルから出力された前記試着装着品の画像と、前記抽出したユーザの身体部分の画像とを合成することによって、前記試着装着品を試着したユーザの画像を生成してもよい。In the above aspect, the image generation unit may extract an image of the reference wearing item and an image of the user's body part from an image of the user wearing the reference wearing item, input the extracted image of the reference wearing item to the trained model, and generate an image of the user trying on the try-on wearing item by combining the image of the try-on wearing item output from the trained model with the extracted image of the user's body part.

この態様によれば、試着装着品を試着したユーザの画像を正確に合成することができる。 According to this aspect, an image of a user trying on a try-on garment can be accurately synthesized.

上記態様において、前記画像生成部は、前記参照装着品を装着したユーザの画像から前記参照装着品の画像の深度情報と前記ユーザの身体部分の画像の深度情報とを抽出し、前記抽出した深度情報に基づいて、前記試着装着品の画像と前記ユーザの身体部分の画像とを合成してもよい。In the above aspect, the image generating unit may extract depth information of the image of the reference wearing item and depth information of the image of the user's body part from an image of the user wearing the reference wearing item, and synthesize the image of the tried-on wearing item and the image of the user's body part based on the extracted depth information.

この態様によれば、画像の深度情報を用いることで、試着装着品を装着したユーザの画像をより正確に合成することができる。 According to this aspect, by using image depth information, an image of a user wearing the tried-on garment can be synthesized more accurately.

上記態様において、前記学習用データは、所定の姿勢で装着主体が装着した前記参照装着品の画像を前記入力データとし、前記所定の姿勢と共通する姿勢で装着主体が装着した第1のバリエーションの前記試着装着品の画像を前記出力データとして関連付け、かつ、前記入力データに対して、前記所定の姿勢と共通する姿勢で装着主体が装着した第2のバリエーションの前記試着装着品の画像を前記出力データとして関連付け、前記画像生成部は、前記試着装着品のバリエーションの選択を受け付け、前記参照装着品を装着したユーザの画像を前記学習済みモデルに入力して、前記選択されたバリエーションの前記試着装着品を試着したユーザの画像を生成してもよい。In the above aspect, the learning data may be such that an image of the reference wearing item worn by the wearing subject in a predetermined posture is used as the input data, an image of the try-on wearing item of a first variation worn by the wearing subject in a posture common to the predetermined posture is associated as the output data, and an image of the try-on wearing item of a second variation worn by the wearing subject in a posture common to the predetermined posture is associated as the output data with the input data, and the image generation unit may accept a selection of a variation of the try-on wearing item, input an image of a user wearing the reference wearing item to the trained model, and generate an image of a user trying on the try-on wearing item of the selected variation.

この態様によれば、ユーザにより選択された試着装着品のバリエーションごとに区別して、試着装着品を試着したユーザの画像を生成することができる。According to this aspect, an image of a user trying on the try-on garment can be generated, distinguishing between variations of the try-on garment selected by the user.

上記態様において、前記装着品は、衣類であり、前記学習用データは、所定の姿勢で装着主体が装着した前記参照衣類の画像を前記入力データとし、前記所定の姿勢と共通する姿勢で装着主体が装着した前記試着衣類の画像を前記出力データとして関連付けたデータを含んでもよい。In the above aspect, the wearable item may be clothing, and the learning data may include data in which an image of the reference clothing worn by the wearer in a specified posture is used as the input data, and an image of the try-on clothing worn by the wearer in a posture common to the specified posture is used as the output data.

この態様によれば、参照衣類の画像と試着衣類の画像とを対応付けた学習用データを用いて学習済みモデルを学習させることで、仮想的な衣類の試着を行う場合の計算負荷を低減することができる。 According to this aspect, the computational load when trying on virtual clothing can be reduced by training a trained model using training data that matches images of reference clothing with images of tried-on clothing.

本発明の一態様に係る学習済みモデルは、所定の姿勢で装着主体が装着した参照装着品の画像を入力データとし、前記所定の姿勢と共通する姿勢で装着主体が装着した試着装着品の画像を出力データとして関連付けた学習用データを用いて機械学習により学習させた。The trained model according to one embodiment of the present invention is trained by machine learning using training data in which an image of a reference wearable item worn by the wearer in a specified posture is used as input data, and an image of a try-on wearable item worn by the wearer in a posture common to the specified posture is used as output data.

この態様によれば、上記画像処理装置の発明と同様の効果が得られる。According to this aspect, the same effect as the image processing device invention described above can be obtained.

本発明の一態様に係る画像収集装置は、ロボットマネキンと、カメラと、前記ロボットマネキンの姿勢を制御するロボット制御部と、前記ロボット制御部の制御に基づいて装着品を装着させた前記ロボットマネキンの姿勢を所定の姿勢に制御した状態で、前記カメラで前記装着品の画像を撮影し、撮影された画像を前記姿勢と関連付けて記憶部に記憶させる撮影制御部とを備える。 An image collection device according to one embodiment of the present invention comprises a robot mannequin, a camera, a robot control unit which controls the posture of the robot mannequin, and an image capture control unit which captures an image of an accessory with the camera while controlling the posture of the robot mannequin wearing the accessory to a predetermined posture based on the control of the robot control unit, and stores the captured image in a memory unit in association with the posture.

この態様によれば、参照装着品の画像と試着装着品の画像との対応付けを的確に行うことができ、学習済みモデルの学習に用いられる学習用データの信頼性を高めることができる。 According to this aspect, it is possible to accurately match images of reference wear items with images of try-on wear items, thereby improving the reliability of the learning data used to train the trained model.

本発明の一態様に係る画像処理方法は、所定の姿勢で装着主体が装着した参照装着品の画像を入力データとし、前記所定の姿勢と共通する姿勢で装着主体が装着した試着装着品の画像を出力データとして関連付けた学習用データを用いた機械学習により学習させた学習済みモデルに対し、前記参照装着品を装着したユーザの画像を入力して、前記試着装着品を試着したユーザの画像を生成する画像生成ステップを含む。An image processing method according to one aspect of the present invention includes an image generation step of inputting an image of a user wearing the reference wearing item into a trained model trained by machine learning using training data in which an image of a reference wearing item worn by a wearer in a predetermined posture is used as input data, and an image of a user trying on the tried-on wearing item is generated by inputting an image of the user wearing the reference wearing item into a trained model trained by machine learning using training data associated with an image of a tried-on wearing item worn by a wearer in a posture common to the predetermined posture.

この態様によれば、上記画像処理装置の発明と同様の効果が得られる。According to this aspect, the same effect as the image processing device invention described above can be obtained.

本発明の一態様に係る画像処理プログラムは、コンピュータに、所定の姿勢で装着主体が装着した参照装着品の画像を入力データとし、前記所定の姿勢と共通する姿勢で装着主体が装着した試着装着品の画像を出力データとして関連付けた学習用データを用いた機械学習により学習させた学習済みモデルに対し、前記参照装着品を装着したユーザの画像を入力して、前記試着装着品を試着したユーザの画像を生成させる処理を実行させる。 An image processing program according to one embodiment of the present invention causes a computer to execute a process of inputting an image of a user wearing the reference wearable item into a trained model trained by machine learning using learning data in which an image of a reference wearable item worn by a wearer in a predetermined posture is used as input data, and an image of a tried-on wearable item worn by the wearer in a posture common to the predetermined posture is used as output data. The trained model is trained by machine learning using learning data in which an image of a user wearing the reference wearable item is used as input data, and an image of a user trying on the tried-on wearable item is generated.

この態様によれば、上記画像処理プログラムの発明と同様の効果が得られる。 According to this aspect, the same effect as the above-mentioned image processing program invention can be obtained.

本発明によれば、仮想的な装着品の試着を行う場合の計算負荷を低減することができる。 According to the present invention, it is possible to reduce the computational load when trying on virtual clothing items.

画像処理装置の第1の実施の形態の概略構成を示すブロック図。1 is a block diagram showing a schematic configuration of a first embodiment of an image processing apparatus; 画像データのデータ内容の一例を示す図。FIG. 4 is a diagram showing an example of data content of image data. 学習用データのデータ内容の一例を示す図。FIG. 4 is a diagram showing an example of data content of learning data. 計測用衣類の画像と試着用衣類の画像との対応付けの一例を示す図。FIG. 13 is a diagram showing an example of association between images of measurement garments and images of try-on garments. 画像の生成過程の一例を説明するための図。1A to 1C are diagrams for explaining an example of an image generation process. 学習済みモデルの学習処理の一例を示すフローチャート。13 is a flowchart showing an example of a learning process of a trained model. 画像生成処理の処理内容を示すフローチャート。11 is a flowchart showing the contents of an image generating process. 計測用衣類の画像と試着用衣類の画像との対応付けの一例を示す図。FIG. 13 is a diagram showing an example of association between images of measurement garments and images of try-on garments. 画像の生成過程の一例を説明するための図。1A to 1C are diagrams for explaining an example of an image generation process. 計測用衣類の画像と試着用衣類の画像との対応付けの一例を示す図。FIG. 13 is a diagram showing an example of association between images of measurement garments and images of try-on garments. 画像の生成過程の一例を説明するための図。1A to 1C are diagrams for explaining an example of an image generation process. 画像処理装置のハードウェア構成の一例を示す図である。FIG. 2 illustrates an example of a hardware configuration of an image processing apparatus.

(第1の実施の形態)
以下、図面を参照し、本発明の画像処理装置、学習済みモデル、画像収集装置、画像処理方法、および画像処理プログラムの実施形態について説明する。
(First embodiment)
Hereinafter, with reference to the drawings, embodiments of an image processing device, a trained model, an image collection device, an image processing method, and an image processing program of the present invention will be described.

図1に示すように、画像収集装置1は、例えば、カメラ10と、ロボットマネキン20と、ディスプレイ30と、画像処理装置100とを備える。これらの装置や機器は、通信線や無線通信網等によって互いに接続される。なお、図1に示す構成はあくまで一例であり、構成の一部が省略されてもよいし、更に別の構成が追加されてもよい。As shown in FIG. 1, the image collection device 1 includes, for example, a camera 10, a robot mannequin 20, a display 30, and an image processing device 100. These devices and equipment are connected to each other via communication lines, a wireless communication network, etc. Note that the configuration shown in FIG. 1 is merely an example, and some of the configuration may be omitted, or other configuration may be added.

カメラ10は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子を利用したデジタルカメラである。カメラ10は、例えば、ロボットマネキン20の前方に固定して配置され、装着品の一例である衣類を装着したロボットマネキン20の画像を撮影する。カメラ10は、例えば、ステレオカメラであってもよいし、深度カメラであってもよい。The camera 10 is, for example, a digital camera using a solid-state imaging element such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor). The camera 10 is, for example, fixedly disposed in front of the robot mannequin 20, and captures an image of the robot mannequin 20 wearing clothing, which is an example of an accessory. The camera 10 may be, for example, a stereo camera or a depth camera.

ロボットマネキン20は、例えば、ヒト型ロボットである。ロボットマネキン20は、例えば、両肩に4自由度、両肘に4自由度、腰の回転に2自由度で駆動可能に構成されており、衣類を装着した状態で様々な姿勢を取ることが可能である。The robot mannequin 20 is, for example, a humanoid robot. The robot mannequin 20 is configured to be drivable with, for example, four degrees of freedom in the shoulders, four degrees of freedom in the elbows, and two degrees of freedom in the waist rotation, and can assume various postures while wearing clothing.

ディスプレイ30は、例えば、液晶ディスプレイであり、画像処理装置100により生成された画像を表示する。 The display 30 is, for example, an LCD display and displays the image generated by the image processing device 100.

画像処理装置100は、例えば、制御部110と、記憶部120とを備える。制御部110は、例えば、CPU(Central Processing Unit)などのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)などのハードウェア(回路部:circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予め画像処理装置100のHDDやフラッシュメモリなどの記憶装置に格納されていてもよいし、DVDやCD-ROMなどの着脱可能な記憶媒体に格納されており、記憶媒体がドライブ装置に装着されることで画像処理装置100のHDDやフラッシュメモリにインストールされてもよい。The image processing device 100 includes, for example, a control unit 110 and a storage unit 120. The control unit 110 is realized by, for example, a hardware processor such as a CPU (Central Processing Unit) executing a program (software). In addition, some or all of these components may be realized by hardware (including circuitry) such as an LSI (Large Scale Integration), an ASIC (Application Specific Integrated Circuit), an FPGA (Field-Programmable Gate Array), or a GPU (Graphics Processing Unit), or may be realized by cooperation between software and hardware. The program may be stored in a storage device such as an HDD or flash memory of the image processing device 100 in advance, or may be stored in a removable storage medium such as a DVD or CD-ROM, and may be installed in the HDD or flash memory of the image processing device 100 by attaching the storage medium to a drive device.

制御部110は、例えば、ロボット制御部112と、撮影制御部114と、学習部116と、画像生成部118とを備える。The control unit 110 includes, for example, a robot control unit 112, a photography control unit 114, a learning unit 116, and an image generation unit 118.

ロボット制御部112は、ロボットマネキン20の動作を制御する。ロボット制御部112は、例えば、ロボットマネキン20の各自由度における動作量を制御することにより、ロボットマネキン20の姿勢を制御する。ロボットマネキン20の各自由度は、両肩の自由度、両肘の自由度、腰の回転の自由度など、ロボットマネキン20のポーズの自由度に加え、鉛直方向に延びる中心軸を中心としたロボットマネキン20の回転位置の自由度を含む。ロボットマネキン20の自由度は、例えば、カメラ10の撮影位置・方向に対するロボットマネキン20の角度を含んでもよい。なお、上記の説明は、ロボットマネキン20の姿勢の一例にすぎず、これに限られない。The robot control unit 112 controls the movement of the robot mannequin 20. The robot control unit 112 controls the posture of the robot mannequin 20, for example, by controlling the amount of movement in each degree of freedom of the robot mannequin 20. Each degree of freedom of the robot mannequin 20 includes the degree of freedom of the pose of the robot mannequin 20, such as the degree of freedom of both shoulders, the degree of freedom of both elbows, and the degree of freedom of rotation of the waist, as well as the degree of freedom of the rotation position of the robot mannequin 20 around a central axis extending in the vertical direction. The degree of freedom of the robot mannequin 20 may include, for example, the angle of the robot mannequin 20 relative to the shooting position and direction of the camera 10. Note that the above description is merely an example of the posture of the robot mannequin 20, and is not limited thereto.

撮影制御部114は、カメラ10による画像の撮影動作を制御する。撮影制御部114は、例えば、ロボット制御部112の制御に基づいてロボットマネキン20の姿勢を所定の姿勢に制御した状態でロボットマネキン20の画像を撮影する。撮影制御部114は、例えば、ロボット制御部112の制御に基づいて、ロボットマネキン20の種々のポーズについて、ロボットマネキン20の回転位置を変化させつつ、ロボットマネキン20の画像を撮影する。撮影制御部114は、撮影された画像をロボットマネキン20の姿勢と関連付けて記憶部120に記憶させる。撮影制御部114は、例えば、計測用衣類を装着したロボットマネキン20の画像、および、試着用衣類を装着したロボットマネキン20の画像を撮影する。撮影制御部114は、計測用衣類を装着したロボットマネキン20の画像から計測用衣類の画像を領域分割し、領域分割した画像を、画像の撮影時におけるロボットマネキン20の姿勢と関連付けて画像データ122として記憶部120に記憶させる。また、撮影制御部114は、試着用衣類を装着したロボットマネキン20の画像から試着用衣類の画像を領域分割し、領域分割した画像を、画像の撮影時におけるロボットマネキン20の姿勢と関連付けて画像データ122として記憶部120に記憶させる。The photographing control unit 114 controls the photographing operation of the camera 10. For example, the photographing control unit 114 photographs an image of the robot mannequin 20 while controlling the posture of the robot mannequin 20 to a predetermined posture based on the control of the robot control unit 112. For example, the photographing control unit 114 photographs an image of the robot mannequin 20 for various poses of the robot mannequin 20 while changing the rotational position of the robot mannequin 20 based on the control of the robot control unit 112. The photographing control unit 114 associates the photographed image with the posture of the robot mannequin 20 and stores it in the storage unit 120. For example, the photographing control unit 114 photographs an image of the robot mannequin 20 wearing a measurement garment and an image of the robot mannequin 20 wearing a try-on garment. The photographing control unit 114 divides the image of the measurement garment from the image of the robot mannequin 20 wearing the measurement garment, and stores the divided image in the storage unit 120 as image data 122 in association with the posture of the robot mannequin 20 at the time of photographing the image. In addition, the photography control unit 114 divides the image of the try-on clothing into regions from the image of the robot mannequin 20 wearing the clothing, and stores the divided image in the memory unit 120 as image data 122 in association with the posture of the robot mannequin 20 at the time the image was photographed.

図2は、画像データ122のデータ内容の一例を示す図である。図示の例では、画像データ122のデータ属性は、例えば、画像の種類、画像情報、および、ロボットマネキン20の姿勢を含む。画像の種類は、ロボットマネキン20が装着している衣類の種類であり、例えば、計測用衣類、および、試着用衣類を含む。計測用衣類は、試着用衣類を合成する上で参照される参照衣類の一例である。計測用衣類は、例えば、ユーザの身体に関する情報を取得するための衣類であり、人体の肌の色と区別しやすく、様々な試着用衣類と対応付けがしやすいことが好ましい。試着用衣類は、仮想的な試着の対象となる衣類であり、例えば、デザインが異なる複数の種類の衣類を含む。画像情報は、カメラ10により撮影された画像の画像位置ごとの輝度値(R,G,B)に関する情報を含む。画像情報は、さらに、カメラ10により撮影された画像の画像位置ごとの深度情報を含んでもよい。ロボットマネキン20の姿勢は、ロボットマネキン20の各自由度の動作量の組み合わせにより規定されるパラメータである。2 is a diagram showing an example of the data contents of the image data 122. In the illustrated example, the data attributes of the image data 122 include, for example, the type of image, image information, and the posture of the robot mannequin 20. The type of image is the type of clothing worn by the robot mannequin 20, and includes, for example, measurement clothing and try-on clothing. The measurement clothing is an example of reference clothing that is referenced when synthesizing the try-on clothing. The measurement clothing is, for example, clothing for obtaining information about the user's body, and is preferably easily distinguishable from the color of the human skin and easily associated with various try-on clothing. The try-on clothing is clothing that is the subject of virtual try-on, and includes, for example, multiple types of clothing with different designs. The image information includes information on the luminance values (R, G, B) for each image position of the image captured by the camera 10. The image information may further include depth information for each image position of the image captured by the camera 10. The posture of the robot mannequin 20 is a parameter defined by a combination of the movement amounts of each degree of freedom of the robot mannequin 20.

学習部116は、計測用衣類の画像を入力データとし、計測用衣類の画像とロボットマネキン20の姿勢が共通する試着用衣類の画像を出力データとして関連付けた学習用データ124を記憶部120に格納する。すなわち、学習部116は、同じポーズで同じ方向から撮影した計測用衣類の画像と試着用衣類の画像とを対応付けて学習用データ124として記憶部120に格納する。学習部116は、例えば、記憶部120に格納された画像データ122を参照し、計測用衣類の画像と試着用衣類の画像とを対応付けて学習用データ124を記憶部120に格納する。学習部116は、学習用データ124を用いた機械学習により学習モデルを学習させて学習済みモデル126を生成する。学習済みモデル126は、例えば、機械学習のモデルの一種であるニューラルネットワークにより構成されている。学習部116は、計測用衣類の画像および試着用衣類の画像に対して平行移動、拡大縮小、回転、ノイズの付与などの処理を加えることで、学習用データ124のデータ数を水増しする、いわゆるデータオーギュメンテーションを行ってもよい。The learning unit 116 uses an image of the measurement garment as input data, and stores in the storage unit 120 learning data 124 in which the image of the measurement garment and the image of the try-on garment in which the posture of the robot mannequin 20 is the same are associated as output data. That is, the learning unit 116 associates an image of the measurement garment and an image of the try-on garment taken in the same pose from the same direction, and stores them in the storage unit 120 as learning data 124. For example, the learning unit 116 refers to the image data 122 stored in the storage unit 120, associates the image of the measurement garment with the image of the try-on garment, and stores the learning data 124 in the storage unit 120. The learning unit 116 trains a learning model by machine learning using the learning data 124 to generate a trained model 126. The trained model 126 is, for example, composed of a neural network, which is a type of machine learning model. The learning unit 116 may perform so-called data augmentation, which inflate the number of data in the learning data 124, by performing processes such as translation, enlargement/reduction, rotation, and noise addition on the images of the measurement clothing and the images of the try-on clothing.

図3は、学習用データ124のデータ内容の一例を示す図である。図示の例では、学習用データ124は、計測用衣類の画像情報として、ロボットマネキン20の姿勢が互いに異なる複数(図示の例ではN個)の画像情報「A1」~「AN」が含まれている。また、学習用データ124は、計測用衣類のそれぞれの画像情報「A1」~「AN」とロボットマネキン20の姿勢が共通する試着用衣類の画像情報が対応付けられている。具体的には、学習用データ124は、計測用衣類のそれぞれの画像情報「A1」~「AN」とロボットマネキン20の姿勢が共通する衣類ごと(「衣類1」、「衣類2」など)の画像情報とが対応付けられている。 Figure 3 is a diagram showing an example of the data contents of the learning data 124. In the illustrated example, the learning data 124 includes a plurality of (N in the illustrated example) pieces of image information "A1" to "AN" of measurement garments in which the robot mannequin 20 has different postures. The learning data 124 also associates each piece of image information "A1" to "AN" of the measurement garments with image information of garments to be tried on that have a common posture on the robot mannequin 20. Specifically, the learning data 124 associates each piece of image information "A1" to "AN" of the measurement garments with image information for each garment (such as "Garment 1" and "Garment 2") that have a common posture on the robot mannequin 20.

図4は、計測用衣類の画像と試着用衣類の画像との対応付けの一例を示す図である。図4に示すように、学習用データ124は、ロボットマネキン20の姿勢ごとに区別して、計測用衣類の画像情報と試着用衣類の画像情報とが対応付けられている。図示の例では、学習用データ124は、例えば、ロボットマネキン20の姿勢が「姿勢1」である場合の計測用衣類の画像情報「A1」と試着用衣類の画像情報「B11」とが対応付けられ、ロボットマネキン20の姿勢が「姿勢2」である場合の計測用衣類の画像情報「A2」と試着用衣類の画像情報「B12」とが対応付けられている。 Figure 4 is a diagram showing an example of the correspondence between images of measurement clothing and images of try-on clothing. As shown in Figure 4, the learning data 124 corresponds image information of the measurement clothing and image information of the try-on clothing, distinguishing between different postures of the robot mannequin 20. In the illustrated example, the learning data 124 corresponds, for example, image information "A1" of the measurement clothing to image information "B11" of the try-on clothing when the posture of the robot mannequin 20 is "posture 1", and image information "A2" of the measurement clothing to image information "B12" of the try-on clothing when the posture of the robot mannequin 20 is "posture 2".

画像生成部118は、計測用衣類を装着したユーザの画像を学習済みモデル126入力して、試着用衣類を試着したユーザの画像を生成する。画像生成部118は、例えば、計測用衣類を装着したユーザの画像から計測用衣類の画像とユーザの身体部分の画像とを抽出し、抽出した計測用衣類の画像を学習済みモデル126に入力し、学習済みモデル126から出力された試着用衣類の画像と、抽出したユーザの身体部分の画像とを合成する。The image generation unit 118 inputs an image of a user wearing the measurement garment into the trained model 126 to generate an image of the user trying on the try-on garment. For example, the image generation unit 118 extracts an image of the measurement garment and an image of the user's body part from the image of the user wearing the measurement garment, inputs the extracted image of the measurement garment into the trained model 126, and synthesizes the image of the try-on garment output from the trained model 126 with the extracted image of the user's body part.

図5は、画像処理装置100による画像の生成処理の一例を説明するための図である。 Figure 5 is a diagram illustrating an example of an image generation process by the image processing device 100.

同図に示すように、画像処理装置100は、学習フェーズとして、まず、計測用衣類を装着したロボットマネキン20の画像から計測用衣類の画像を領域分割し、かつ、試着用衣類を装着したロボットマネキン20の画像から試着用衣類の画像を領域分割する。As shown in the figure, in the learning phase, the image processing device 100 first divides an image of the measurement garment into regions from an image of the robot mannequin 20 wearing the measurement garment, and also divides an image of the try-on garment into regions from an image of the robot mannequin 20 wearing the try-on garment.

次に、画像処理装置100は、領域分割された計測用衣類の画像と試着用衣類の画像とを学習用データ124として対応付け、この学習用データ124を用いた機械学習により学習モデルを学習させることにより、学習済みモデル126を生成する。Next, the image processing device 100 matches the region-divided image of the measurement clothing with the image of the try-on clothing as training data 124, and generates a trained model 126 by training a training model through machine learning using this training data 124.

次に、画像処理装置100は、実行フェーズとして、計測用衣類を装着したユーザの画像から、計測用衣類の画像、および、ユーザの身体部分の画像を領域分割する。この場合、画像処理装置100は、計測用衣類の画像の深度情報と、ユーザの身体部分の画像の深度情報とを取得してもよい。これにより、計測用衣類の画像と、ユーザの身体部分の画像との領域分割が正確に行われる。そして、画像処理装置100は、領域分割した計測用衣類の画像を学習済みモデル126に入力する。これにより、ユーザの姿勢に対応する試着用衣類の画像が学習済みモデル126から出力される。Next, in the execution phase, the image processing device 100 divides the image of the user wearing the measurement garment into an image of the measurement garment and an image of the user's body parts. In this case, the image processing device 100 may acquire depth information of the image of the measurement garment and depth information of the image of the user's body parts. This allows accurate division of the image of the measurement garment and the image of the user's body parts. Then, the image processing device 100 inputs the divided image of the measurement garment into the trained model 126. As a result, an image of the try-on garment corresponding to the user's posture is output from the trained model 126.

次に、画像処理装置100は、学習済みモデル126から出力された試着用衣類の画像と、上述のように領域分割したユーザの身体部分の画像とを合成することにより、試着用衣類を装着したユーザの画像を生成する。画像処理装置100は、例えば、ユーザの身体部分の画像を、計測用衣類の画像よりも手前に位置するように、試着用衣類を装着したユーザの画像を合成する。画像処理装置100は、例えば、計測用衣類の画像の深度情報と、ユーザの身体部分の画像の深度情報とに基づいて、試着用衣類を装着したユーザの画像を生成してもよい。この場合、画像処理装置100は、例えば、衣類の首の部分にユーザの顔や首を合成できたり、衣類の袖の部分にユーザの腕を合成できたりするなど、試着用異類を装着したユーザの画像を精度よく合成することができる。Next, the image processing device 100 generates an image of the user wearing the try-on clothes by synthesizing the image of the try-on clothes output from the trained model 126 with the image of the user's body parts divided into regions as described above. The image processing device 100 synthesizes the image of the user wearing the try-on clothes so that, for example, the image of the user's body parts is positioned in front of the image of the measurement clothes. The image processing device 100 may generate an image of the user wearing the try-on clothes based on, for example, depth information of the image of the measurement clothes and depth information of the image of the user's body parts. In this case, the image processing device 100 can accurately synthesize an image of the user wearing the try-on clothes, for example, by synthesizing the user's face or neck on the neck part of the clothes or the user's arms on the sleeves of the clothes.

図6は、学習済みモデル126の学習処理の一例を示すフローチャートである。なお、図6に示すフローチャートの処理に先立ち、ロボットマネキン20の姿勢ごとの計測用衣類の画像の撮影は完了しているものとする。また、図6に示すフローチャートの処理は、例えば、ロボットマネキン20に試着用衣類が装着された場合に、所定の操作をトリガーとして実行される。 Figure 6 is a flowchart showing an example of a learning process of the trained model 126. It is assumed that, prior to the processing of the flowchart shown in Figure 6, images of the measurement garment for each posture of the robot mannequin 20 have been taken. The processing of the flowchart shown in Figure 6 is executed, for example, when a predetermined operation is triggered when the try-on garment is put on the robot mannequin 20.

図6に示すように、まず、ロボット制御部112は、試着用衣類を装着したロボットマネキン20を所定の姿勢に制御する(ステップS10)。次に、撮影制御部114は、カメラ10を用いてロボットマネキン20の画像を撮影する(ステップS12)。次に、撮影制御部114は、ロボットマネキン20の画像から試着用衣類の画像を領域分割する(ステップS14)。次に、撮影制御部114は、ロボットマネキン20の姿勢が共通する計測用衣類の画像と試着用衣類の画像とを対応付けて学習用データ124として記憶部120に格納する(ステップS16)。次に、学習部116は、記憶部120に格納された学習用データ124に加え、学習用データ124に対してデータオーギュメンテーションを行うことで水増しされたデータを用いて、機械学習により学習モデルを学習させる(ステップS18)。次に、撮影制御部114は、学習が終了したか否かを判定する(ステップS20)。そして、ロボット制御部112は、撮影制御部114により学習が終了していないと判定された場合には、ロボットマネキン20の姿勢を変更し(ステップS22)、計測用衣類の画像に対する試着用衣類の画像の対応付けが完了するまでの間、ステップS12~ステップS20の処理を繰り返す。一方、撮影制御部114は、学習が終了したと判定した場合には、本フローチャートの処理が終了する。As shown in FIG. 6, first, the robot control unit 112 controls the robot mannequin 20 wearing the try-on clothes to a predetermined posture (step S10). Next, the photography control unit 114 uses the camera 10 to take an image of the robot mannequin 20 (step S12). Next, the photography control unit 114 divides the image of the try-on clothes from the image of the robot mannequin 20 into regions (step S14). Next, the photography control unit 114 associates the image of the measurement clothes and the image of the try-on clothes, which have a common posture of the robot mannequin 20, and stores them in the memory unit 120 as learning data 124 (step S16). Next, the learning unit 116 uses the learning data 124 stored in the memory unit 120, as well as data augmented by performing data augmentation on the learning data 124, to train a learning model by machine learning (step S18). Next, the photography control unit 114 determines whether learning has been completed (step S20). Then, when the photography control unit 114 determines that the learning has not been completed, the robot control unit 112 changes the posture of the robot mannequin 20 (step S22), and repeats the processes of steps S12 to S20 until the correspondence between the image of the measurement garment and the image of the try-on garment is completed. On the other hand, when the photography control unit 114 determines that the learning has been completed, the process of this flowchart ends.

図7は、画像生成処理の一例を示すフローチャートである。なお、図7に示すフローチャートの処理に先立ち、試着用衣類はユーザにより事前に選択されているものとする。また、図7に示すフローチャートの処理は、例えば、計測用衣類を装着したユーザの画像が撮影された場合に、所定の操作をトリガーとして実行される。 Figure 7 is a flowchart showing an example of an image generation process. It is assumed that the user has selected the clothes to be tried on beforehand, prior to the processing of the flowchart shown in Figure 7. The processing of the flowchart shown in Figure 7 is executed, for example, when an image of the user wearing the measurement garment is captured, triggered by a specified operation.

図7に示すように、まず、画像生成部118は、計測用衣類を装着したユーザの画像から、ユーザの身体部分の画像と計測用衣類の画像とを領域分割する(ステップS30)。次に、画像生成部118は、先のステップS30において領域分割した計測用衣類の画像を学習済みモデル126に入力する(ステップS32)。次に、画像生成部118は、学習済みモデル126から出力された試着用衣類の画像と、先のステップS30において領域分割したユーザの身体部分の画像とを合成する(ステップS34)。次に、画像生成部118は、合成した画像をディスプレイ30に出力する(ステップS36)。これにより、本フローチャートの処理が終了する。As shown in FIG. 7, first, the image generating unit 118 divides an image of the user wearing the measurement garment into an image of the user's body part and an image of the measurement garment (step S30). Next, the image generating unit 118 inputs the image of the measurement garment divided into regions in the previous step S30 into the trained model 126 (step S32). Next, the image generating unit 118 synthesizes the image of the try-on garment output from the trained model 126 with the image of the user's body part divided into regions in the previous step S30 (step S34). Next, the image generating unit 118 outputs the combined image to the display 30 (step S36). This ends the processing of this flowchart.

以上説明したように、上記第1の実施の形態によれば、以下に示す効果を得ることができる。
(1)画像処理装置100は、所定の姿勢でロボットマネキン20が装着した計測用衣類の画像を入力データとし、所定の姿勢と共通する姿勢でロボットマネキン20が装着した試着用衣類の画像を出力データとして関連付けた学習用データ124を用いた機械学習により学習済みモデル126を学習する。また、画像処理装置100は、学習済みモデル126に対し、計測用衣類を装着したユーザの画像を入力して、試着用衣類を試着したユーザの画像を生成する。すなわち、ユーザが装着した計測用衣類の画像を学習済みモデル126を用いて試着用衣類の画像に変換し、変換後の画像を用いて試着用衣類を試着したユーザの画像を生成する。これにより、人体や衣類の三次元モデルを用意して物理シミュレーションを実行することが不要となるため、仮想的な衣類の試着を行う場合の計算負荷を低減することができる。また、目的とする衣服毎に多数のパラメータを正確に計測することが不要となるため、仮想的な衣類の試着を行う場合の利便性を向上することができる。
As described above, according to the first embodiment, the following effects can be obtained.
(1) The image processing device 100 learns the trained model 126 by machine learning using the training data 124 in which an image of the measurement garment worn by the robot mannequin 20 in a predetermined posture is used as input data and an image of the try-on garment worn by the robot mannequin 20 in a posture common to the predetermined posture is used as output data. The image processing device 100 also inputs an image of a user wearing the measurement garment to the trained model 126 to generate an image of the user trying on the try-on garment. That is, the image of the measurement garment worn by the user is converted into an image of the try-on garment using the trained model 126, and an image of the user trying on the try-on garment is generated using the converted image. This makes it unnecessary to prepare three-dimensional models of the human body and the garment and perform a physical simulation, thereby reducing the calculation load when trying on virtual garments. In addition, it is unnecessary to accurately measure a large number of parameters for each target garment, thereby improving the convenience when trying on virtual garments.

(2)画像処理装置100は、計測用衣類を装着したユーザの画像から計測用衣類の画像とユーザの身体部分の画像とを抽出し、抽出した計測用衣類の画像を学習済みモデル126に入力する。また、画像処理装置100は、学習済みモデル126から出力された試着用衣類の画像と、先に抽出したユーザの身体部分の画像とを合成することによって、試着用衣類を試着したユーザの画像を生成する。すなわち、学習済みモデル126を用いて変換した試着用衣類の画像とユーザの身体部分の画像とを位置合わせして合成することで、試着用衣類を試着したユーザの画像を正確に合成することができる。 (2) The image processing device 100 extracts an image of the measurement garment and an image of the user's body part from an image of the user wearing the measurement garment, and inputs the extracted image of the measurement garment to the trained model 126. The image processing device 100 also generates an image of the user trying on the try-on garment by synthesizing the image of the try-on garment output from the trained model 126 with the image of the user's body part previously extracted. In other words, by aligning and synthesizing the image of the try-on garment converted using the trained model 126 with the image of the user's body part, it is possible to accurately synthesize an image of the user trying on the try-on garment.

(3)画像処理装置100は、計測用衣類を装着したユーザの画像から計測用衣類の画像の深度情報とユーザの身体部分の画像の深度情報とを抽出し、抽出した深度情報に基づいて、試着用衣類の画像とユーザの身体部分の画像とを合成する。これにより、試着用衣類を試着したユーザの画像をより正確に合成することができる。(3) The image processing device 100 extracts depth information of the image of the measurement garment and depth information of the image of the user's body part from an image of the user wearing the measurement garment, and synthesizes the image of the try-on garment and the image of the user's body part based on the extracted depth information. This makes it possible to more accurately synthesize an image of the user trying on the try-on garment.

(4)画像処理装置100は、衣類を装着させたロボットマネキン20の姿勢を所定の姿勢に制御した状態で、カメラ10で衣類の画像を撮影し、撮影された衣類の画像をロボットマネキン20の姿勢と関連付けて記憶部120に記憶させる。これにより、計測用衣類の画像と試着用衣類の画像との対応付けを正確に行うことができ、学習用データ124の信頼性を高めることができる。(4) The image processing device 100 captures an image of the clothing with the camera 10 while controlling the posture of the robot mannequin 20 wearing the clothing to a predetermined posture, and stores the captured image of the clothing in the memory unit 120 in association with the posture of the robot mannequin 20. This makes it possible to accurately match the image of the measurement clothing with the image of the try-on clothing, thereby improving the reliability of the learning data 124.

(5)画像処理装置100は、ロボットマネキン20を正面から見た画像に加え、ロボットマネキン20を横方向から見た画像など、ロボットマネキン20を様々な回転位置から見た画像を含むように学習用データ124を構成している。これにより、ユーザが様々な姿勢を取る場合であっても、試着用衣類を試着したユーザの画像を正確に合成することができる。 (5) The image processing device 100 configures the learning data 124 to include images of the robot mannequin 20 viewed from various rotational positions, such as an image of the robot mannequin 20 viewed from the side, in addition to an image of the robot mannequin 20 viewed from the front. This makes it possible to accurately synthesize an image of a user trying on the try-on garment, even when the user is in various postures.

(6)画像処理装置100は、計測用衣類の画像と試着用衣類の画像とを対応付けて学習用データ124を構成している。これにより、ユーザの姿勢の変化に伴った試着用衣類の変形を正確に予測することが可能となり、試着用衣類を装着したユーザの画像をより正確に合成することができる。 (6) The image processing device 100 constructs the learning data 124 by associating images of the measurement garments with images of the try-on garments. This makes it possible to accurately predict deformation of the try-on garments that accompanies changes in the user's posture, and more accurately synthesize an image of the user wearing the try-on garments.

(第2の実施の形態)
次に、画像処理装置の第2の実施の形態について図面を参照して説明する。なお、第2の実施の形態は、計測用衣類の画像と試着用衣類の画像との対応付けの方法が第1の実施の形態と異なる。したがって、以下の説明においては、第1の実施の形態と相違する構成について主に説明し、第1の実施の形態と同一のまたは相当する構成については重複する説明を省略する。
Second Embodiment
Next, a second embodiment of the image processing device will be described with reference to the drawings. The second embodiment differs from the first embodiment in the method of associating images of measurement garments with images of try-on garments. Therefore, in the following description, the configuration different from the first embodiment will be mainly described, and a duplicate description of the same or corresponding configuration as the first embodiment will be omitted.

第2の実施の形態に係る学習部116は、計測用衣類の画像を入力データとし、計測用衣類の画像とロボットマネキン20の姿勢が共通する複数のバリエーションの試着用衣類の画像を出力データとして関連付けた学習用データ124を記憶部120に格納する。複数のバリエーションは、例えば、試着用衣類の色やサイズを含む。学習用データ124は、例えば、計測用衣類の画像を入力データとし、計測用衣類とロボットマネキン20の姿勢が共通する第1のバリエーションの試着用衣類の画像を出力データとして関連付け、かつ、計測用衣類の画像を入力データとし、計測用衣類とロボットマネキン20の姿勢が共通する第2のバリエーションの試着用衣類の画像を出力データとして関連付けている。The learning unit 116 according to the second embodiment stores in the memory unit 120 learning data 124 in which the image of the measurement garment is used as input data and the image of the measurement garment is associated with multiple variations of try-on garments in which the posture of the robot mannequin 20 is common as output data. The multiple variations include, for example, the color and size of the try-on garment. For example, the learning data 124 uses an image of the measurement garment as input data and associates with an image of a first variation of try-on garments in which the posture of the measurement garment is common to the robot mannequin 20 as output data, and also uses an image of the measurement garment as input data and associates with an image of a second variation of try-on garments in which the posture of the measurement garment is common to the robot mannequin 20 as output data.

図8は、計測用衣類の画像と試着用衣類の画像との対応付けの一例を示す図である。図8に示すように、学習用データ124は、ロボットマネキン20の姿勢ごとに区別して、計測用衣類の画像情報と試着用衣類の画像情報とが対応付けられている。図示の例では、学習用データ124は、例えば、ロボットマネキン20の姿勢が「姿勢1」である計測用衣類の画像情報「A1」とSサイズの試着用衣類の画像情報「B11α」とが対応付けられている。また、ロボットマネキン20の姿勢が「姿勢1」である計測用衣類の画像情報「A1」とMサイズの試着用衣類の画像情報「B11β」とが対応付けられている。また、ロボットマネキン20の姿勢が「姿勢1」である計測用衣類の画像情報「A1」とLサイズの試着用衣類の画像情報「B11γ」とが対応付けられている。8 is a diagram showing an example of the correspondence between the image of the measurement garment and the image of the try-on garment. As shown in FIG. 8, the learning data 124 corresponds image information of the measurement garment and image information of the try-on garment for each posture of the robot mannequin 20. In the illustrated example, the learning data 124 corresponds, for example, image information "A1" of the measurement garment in which the posture of the robot mannequin 20 is "posture 1" with image information "B11α" of the S-size try-on garment. Also, image information "A1" of the measurement garment in which the posture of the robot mannequin 20 is "posture 1" with image information "B11β" of the M-size try-on garment. Also, image information "A1" of the measurement garment in which the posture of the robot mannequin 20 is "posture 1" with image information "B11γ" of the L-size try-on garment.

図9は、画像処理装置100による画像の生成処理の一例を説明するための図である。 Figure 9 is a diagram illustrating an example of an image generation process by the image processing device 100.

同図に示すように、画像処理装置100は、実行フェーズとして、計測用衣類を装着したユーザの画像から、計測用衣類の画像、および、ユーザの身体部分の画像を領域分割する。そして、画像処理装置100は、領域分割した計測用衣類の画像を学習済みモデル126に入力する。この場合、学習済みモデル126から出力される試着用衣類のサイズ(図示の例では「Mサイズ」)が事前に選択されている。これにより、事前に選択されたサイズに対応する試着用衣類の画像が学習済みモデル126から出力される。その後、画像処理装置100は、学習済みモデル126から出力された試着用衣類の画像と、上述のように領域分割したユーザの身体部分の画像とを合成することにより、試着用衣類を装着したユーザの画像を生成する。As shown in the figure, in the execution phase, the image processing device 100 divides an image of a user wearing the measurement garment into an image of the measurement garment and an image of the user's body parts. The image processing device 100 then inputs the divided image of the measurement garment into the trained model 126. In this case, the size of the try-on garment output from the trained model 126 ("M size" in the illustrated example) is selected in advance. As a result, an image of the try-on garment corresponding to the pre-selected size is output from the trained model 126. The image processing device 100 then generates an image of the user wearing the try-on garment by combining the image of the try-on garment output from the trained model 126 with the image of the user's body parts divided as described above.

以上説明したように、上記第2の実施の形態によれば、第1の実施の形態の上記(1)~(6)の効果に加えて、以下に示す効果を得ることができる。
(7)画像処理装置100は、試着用衣類のバリエーションの選択を受け付け、計測用衣類を装着したユーザの画像を学習済みモデル126に入力して、先に選択されたバリエーションの試着用衣類を試着したユーザの画像を生成する。これにより、ユーザにより選択された試着用衣類のバリエーションごとに区別して、試着用衣類を試着したユーザの画像を生成することができる。
As described above, according to the second embodiment, in addition to the effects (1) to (6) of the first embodiment, the following effects can be obtained.
(7) The image processing device 100 receives a selection of a variation of the try-on clothing, inputs an image of the user wearing the measurement clothing to the trained model 126, and generates an image of the user trying on the try-on clothing of the previously selected variation. This makes it possible to generate images of the user trying on the try-on clothing, distinguishing between the variations of the try-on clothing selected by the user.

(第3の実施の形態)
次に、画像処理装置の第3の実施の形態について図面を参照して説明する。なお、第3の実施の形態は、計測用衣類の画像と試着用衣類の画像との対応付けの方法が第1の実施の形態と異なる。したがって、以下の説明においては、第1の実施の形態と相違する構成について主に説明し、第1の実施の形態と同一のまたは相当する構成については重複する説明を省略する。
Third Embodiment
Next, a third embodiment of the image processing device will be described with reference to the drawings. The third embodiment differs from the first embodiment in the method of associating images of measurement garments with images of try-on garments. Therefore, in the following description, the configuration different from the first embodiment will be mainly described, and a duplicate description of the same or corresponding configuration as the first embodiment will be omitted.

第3の実施の形態に係る学習部116は、計測用衣類の画像を入力データとし、計測用衣類の画像とロボットマネキン20の体型並びに姿勢が共通する試着用衣類の画像を出力データとして関連付けた学習用データ124を記憶部120に格納する。ロボットマネキン20の体型は、例えば、腕囲、肩幅、腹囲などのパラメータにより規定される。学習用データ124は、例えば、通常の体型に相当するロボットマネキン20により装着された計測用衣類の画像と、この計測用衣類とロボットマネキン20の体型ならびに姿勢が共通する試着用衣類の画像とを対応付け、かつ、肥満型に相当するロボットマネキン20により装着された計測用衣類の画像と、この計測用衣類とロボットマネキン20の体型ならびに姿勢が共通する試着用衣類の画像と対応付けて学習用データ124を構成している。すなわち、学習用データ124は、複数の体型のユーザに対応するように計測用衣類の画像と試着用衣類の画像とを対応付けており、学習用データ124のデータ数が水増しされている。The learning unit 116 according to the third embodiment uses an image of a measurement garment as input data, and stores in the storage unit 120 learning data 124 in which the image of the measurement garment and the image of a try-on garment that has the same body type and posture as the robot mannequin 20 are associated as output data. The body type of the robot mannequin 20 is defined by parameters such as arm circumference, shoulder width, and waist circumference. The learning data 124 is configured by associating, for example, an image of a measurement garment worn by the robot mannequin 20 that corresponds to a normal body type with an image of a try-on garment that has the same body type and posture as the measurement garment and the robot mannequin 20, and by associating an image of a measurement garment worn by the robot mannequin 20 that corresponds to an obese type with an image of a try-on garment that has the same body type and posture as the measurement garment and the robot mannequin 20. That is, the learning data 124 associates the image of the measurement garment with the image of the try-on garment so as to correspond to users of a plurality of body types, and the number of data in the learning data 124 is inflated.

図10は、計測用衣類の画像と試着用衣類の画像との対応付けの一例を示す図である。図10に示すように、学習用データ124は、ロボットマネキン20の体型ならびに姿勢ごとに区別して、計測用衣類の画像情報と試着用衣類の画像情報とが対応付けられている。図示の例では、学習用データ124は、例えば、通常の体型に相当するロボットマネキン20について、ロボットマネキン20の姿勢が「姿勢1」である計測用衣類の画像情報「A1」と試着用衣類の画像情報「B11」とが対応付けられている。また、肥満型に相当するロボットマネキン20について、ロボットマネキン20の姿勢が「姿勢1」である計測用衣類の画像情報「A1X」と試着用衣類の画像情報「B11X」とが対応付けられている。10 is a diagram showing an example of the correspondence between images of measurement clothing and images of try-on clothing. As shown in FIG. 10, the learning data 124 corresponds image information of measurement clothing and image information of try-on clothing according to the body type and posture of the robot mannequin 20. In the illustrated example, the learning data 124 corresponds, for example, image information "A1" of measurement clothing in which the posture of the robot mannequin 20 is "posture 1" with image information "B11" of try-on clothing for a robot mannequin 20 corresponding to a normal body type. Also, image information "A1X" of measurement clothing in which the posture of the robot mannequin 20 is "posture 1" with image information "B11X" of try-on clothing for a robot mannequin 20 corresponding to an obese type.

図11は、画像処理装置100による画像の生成処理の一例を説明するための図である。 Figure 11 is a diagram illustrating an example of an image generation process by the image processing device 100.

図11(a)に示すように、画像処理装置100は、実行フェーズとして、計測用衣類を装着した通常の体型のユーザの画像から、計測用衣類の画像、および、ユーザの身体部分の画像を領域分割する。そして、画像処理装置100は、領域分割した計測用衣類の画像を学習済みモデル126に入力する。これにより、通常の体型に近い試着用衣類の画像が学習済みモデル126から出力される。その後、画像処理装置100は、学習済みモデル126から出力された試着用衣類の画像と、上述のように領域分割したユーザの身体部分の画像とを合成することにより、試着用衣類を装着したユーザの画像を生成する。As shown in FIG. 11(a), in the execution phase, the image processing device 100 divides an image of a user of a normal body type wearing measurement clothing into an image of the measurement clothing and an image of the user's body parts. The image processing device 100 then inputs the divided image of the measurement clothing into the trained model 126. As a result, an image of try-on clothing that is close to a normal body type is output from the trained model 126. The image processing device 100 then generates an image of the user wearing the try-on clothing by combining the image of the try-on clothing output from the trained model 126 with the image of the user's body parts divided as described above.

図11(b)に示すように、画像処理装置100は、実行フェーズとして、計測用衣類を装着した肥満型のユーザの画像から、計測用衣類の画像、および、ユーザの身体部分の画像を領域分割する。そして、画像処理装置100は、領域分割した計測用衣類の画像を学習済みモデル126に入力する。これにより、肥満型に近い試着用衣類の画像が学習済みモデル126から出力される。その後、画像処理装置100は、学習済みモデル126から出力された試着用衣類の画像と、上述のように領域分割したユーザの身体部分の画像とを合成することにより、試着用衣類を装着したユーザの画像を生成する。As shown in FIG. 11(b), in the execution phase, the image processing device 100 segments an image of an obese user wearing the measurement garment into an image of the measurement garment and an image of the user's body parts. The image processing device 100 then inputs the segmented image of the measurement garment into the trained model 126. As a result, an image of try-on garments that are close to the obese type is output from the trained model 126. The image processing device 100 then generates an image of the user wearing the try-on garment by combining the image of the try-on garment output from the trained model 126 with the image of the user's body parts segmented as described above.

以上説明したように、上記第3の実施の形態によれば、第1の実施の形態の上記(1)~(6)の効果に加えて、以下に示す効果を得ることができる。
(8)画像処理装置100は、複数の体型のユーザに対応するように計測用衣類の画像と試着用衣類の画像とを対応付けた学習用データ124を用いて学習済みモデル126を学習している。また、画像処理装置100は、計測用衣類を装着したユーザの画像を学習済みモデル126に入力して、様々な体型のユーザが試着用衣類を装着した画像を生成する。すなわち、様々な体型のユーザに対応するように学習用データ124を構成することで、計算負荷を抑えつつ、リアリティの高い試着用衣類の画像を生成することができる。
As described above, according to the third embodiment, in addition to the effects (1) to (6) of the first embodiment, the following effects can be obtained.
(8) The image processing device 100 trains the trained model 126 using the training data 124 in which images of measurement garments and images of try-on garments are associated so as to correspond to users of a variety of body types. The image processing device 100 also inputs images of users wearing the measurement garments to the trained model 126 to generate images of users of various body types wearing the try-on garments. In other words, by configuring the training data 124 so as to correspond to users of various body types, it is possible to generate highly realistic images of try-on garments while reducing the computational load.

(その他の実施の形態)
なお、上記各実施の形態は、以下のような形態にて実施することもできる。
・上記各実施の形態においては、画像処理装置100がロボットマネキン20を制御することにより、計測用衣類の画像および試着用衣類の画像を学習用データ124として収集した。これに代えて、被験者が衣類を着用した状態で姿勢を変更することにより、計測用衣類の画像および試着用衣類の画像を学習用データ124として収集してもよい。
(Other embodiments)
Each of the above-described embodiments can also be implemented in the following forms.
In the above embodiments, the image processing device 100 controls the robot mannequin 20 to collect images of the measurement garments and images of the try-on garments as the learning data 124. Alternatively, images of the measurement garments and images of the try-on garments may be collected as the learning data 124 by having the subject change their posture while wearing the garments.

・上記各実施の形態においては、ユーザが装着した計測用衣類の画像を用いて学習済みモデル126を学習するようにした。これに代えて、ユーザが装着した普通の衣類の画像を用いて学習済みモデル126を学習するようにしてもよい。例えば、ユーザが装着した普通の衣類の画像に基づいてユーザの姿勢を推定し、推定したユーザの姿勢を普通の衣類の画像と関連付けて学習用データ124を構成してもよい。なお、普通の衣類の画像に基づいてユーザの姿勢を推定する場合には、ロボットマネキン20に普通の衣類を装着させた画像を用いてもよいし、被検者に普通の衣類を装着させた画像を用いてもよい。 - In each of the above embodiments, the trained model 126 is trained using an image of measurement clothing worn by the user. Alternatively, the trained model 126 may be trained using an image of ordinary clothing worn by the user. For example, the user's posture may be estimated based on an image of ordinary clothing worn by the user, and the estimated user's posture may be associated with the image of the ordinary clothing to form the training data 124. When estimating the user's posture based on an image of ordinary clothing, an image of a robot mannequin 20 wearing ordinary clothing may be used, or an image of a subject wearing ordinary clothing may be used.

〔ハードウェア構成〕
図12は、実施の形態の画像処理装置100のハードウェア構成の一例を示す図である。図示するように、画像処理装置100は、通信コントローラ100-1、CPU100-2、ワーキングメモリとして使用されるRAM(Randome Access Memory)100-3、ブートプログラムなどを格納するROM(Read Only Memory)100-4、フラッシュメモリやHDD(Hard Disk Drive)などの記憶装置100-5、ドライブ装置100-6などが、内部バスあるいは専用通信線によって相互に接続された構成となっている。通信コントローラ100-1は、画像処理装置100以外の構成要素との通信を行う。記憶装置100-5には、CPU100-2が実行するプログラム100-5aが格納されている。このプログラムは、DMA(Direct Memory Access)コントローラ(不図示)などによってRAM100-3に展開されて、CPU100-2によって実行される。これによって、ロボット制御部112、撮影制御部114、学習部116、画像生成部118が実現される。
[Hardware configuration]
FIG. 12 is a diagram showing an example of a hardware configuration of an image processing device 100 according to an embodiment. As shown in the figure, the image processing device 100 includes a communication controller 100-1, a CPU 100-2, a RAM (Random Access Memory) 100-3 used as a working memory, a ROM (Read Only Memory) 100-4 for storing a boot program, a storage device 100-5 such as a flash memory or a HDD (Hard Disk Drive), a drive device 100-6, and the like, all connected to each other via an internal bus or a dedicated communication line. The communication controller 100-1 communicates with components other than the image processing device 100. The storage device 100-5 stores a program 100-5a executed by the CPU 100-2. This program is expanded in the RAM 100-3 by a DMA (Direct Memory Access) controller (not shown) or the like, and executed by the CPU 100-2. This realizes a robot control unit 112, an imaging control unit 114, a learning unit 116, and an image generating unit 118.

上記説明した実施形態は、以下のように表現することができる。
プログラムを記憶した記憶装置と、
ハードウェアプロセッサと、を備え、
前記ハードウェアプロセッサは、前記記憶装置に記憶されたプログラムを実行することにより、
所定の姿勢で装着主体が装着した参照装着品の画像を入力データとし、前記所定の姿勢と共通する姿勢で装着主体が装着した試着装着品の画像を出力データとして関連付けた学習用データを用いた機械学習により学習させた学習済みモデルに対し、前記参照装着品を装着したユーザの画像を入力して、前記試着装着品を試着したユーザの画像を生成させるように構成されている、画像処理装置。
The above-described embodiment can be expressed as follows.
A storage device storing a program;
a hardware processor;
The hardware processor executes the program stored in the storage device,
The image processing device is configured to input an image of a user wearing the reference wearing item to a trained model trained by machine learning using learning data in which an image of a reference wearing item worn by a wearer in a predetermined posture is used as input data, and an image of a tried-on wearing item worn by the wearer in a posture common to the predetermined posture is used as output data. The trained model is trained by machine learning using learning data in which an image of a user wearing the reference wearing item is used to generate an image of a user trying on the tried-on wearing item.

以上説明した実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。実施形態が備える各要素並びにその配置、材料、条件、形状及びサイズ等は、例示したものに限定されるわけではなく適宜変更することができる。また、異なる実施形態で示した構成同士を部分的に置換し又は組み合わせることが可能である。The above-described embodiments are intended to facilitate understanding of the present invention and are not intended to limit the present invention. The elements of the embodiments, as well as their arrangement, materials, conditions, shapes, sizes, etc., are not limited to those exemplified and can be modified as appropriate. Furthermore, configurations shown in different embodiments can be partially substituted or combined.

1…画像生成システム、10…カメラ、20…ロボットマネキン、30…ディスプレイ、100…画像処理装置、110…制御部、112…ロボット制御部、114…撮影制御部、116…学習部、118…画像生成部、120…記憶部、122…画像データ、124…学習用データ、126…学習済みモデル。 1...image generation system, 10...camera, 20...robot mannequin, 30...display, 100...image processing device, 110...control unit, 112...robot control unit, 114...photography control unit, 116...learning unit, 118...image generation unit, 120...memory unit, 122...image data, 124...learning data, 126...learned model.

Claims (7)

所定の姿勢で装着主体が装着した参照装着品の画像を入力データとし、前記所定の姿勢と共通する姿勢で装着主体が装着した試着装着品の画像を出力データとして関連付けた学習用データを用いた機械学習により学習させた学習済みモデルに対し、前記参照装着品を装着したユーザの画像を入力して、前記試着装着品を試着したユーザの画像を生成する画像生成部を備える、
画像処理装置。
The image generating unit is provided for inputting an image of a user wearing the reference wearing product to a trained model trained by machine learning using training data in which an image of a reference wearing product worn by a wearer in a predetermined posture is used as input data, and an image of a tried-on wearing product worn by a wearer in a posture common to the predetermined posture is used as output data. The image generating unit generates an image of a user wearing the tried-on wearing product by inputting an image of a user wearing the reference wearing product to a trained model trained by machine learning using training data in which an image of a user wearing the reference wearing product is used as input data, and an image of a user trying on the tried-on wearing product is generated.
Image processing device.
前記画像生成部は、
前記参照装着品を装着したユーザの画像から前記参照装着品の画像と前記ユーザの身体部分の画像とを抽出し、
前記抽出した参照装着品の画像を前記学習済みモデルに入力し、前記学習済みモデルから出力された前記試着装着品の画像と、前記抽出したユーザの身体部分の画像とを合成することによって、前記試着装着品を試着したユーザの画像を生成する、
請求項1に記載の画像処理装置。
The image generating unit includes:
Extracting an image of the reference wearing item and an image of a body part of the user from an image of the user wearing the reference wearing item;
The extracted image of the reference wearing item is input to the trained model, and the image of the try-on wearing item output from the trained model is synthesized with the extracted image of the user's body part to generate an image of the user who has tried on the try-on wearing item.
The image processing device according to claim 1 .
前記画像生成部は、前記参照装着品を装着したユーザの画像から前記参照装着品の画像の深度情報と前記ユーザの身体部分の画像の深度情報とを抽出し、
前記抽出した深度情報に基づいて、前記試着装着品の画像と前記ユーザの身体部分の画像とを合成する、
請求項2に記載の画像処理装置。
The image generating unit extracts depth information of the image of the reference wearing item and depth information of the image of a body part of the user from an image of the user wearing the reference wearing item,
synthesizing the image of the try-on garment with an image of a body part of the user based on the extracted depth information;
The image processing device according to claim 2 .
前記学習用データは、所定の姿勢で装着主体が装着した前記参照装着品の画像を前記入力データとし、前記所定の姿勢と共通する姿勢で装着主体が装着した第1のバリエーションの前記試着装着品の画像を前記出力データとして関連付け、かつ、前記入力データに対して、前記所定の姿勢と共通する姿勢で装着主体が装着した第2のバリエーションの前記試着装着品の画像を前記出力データとして関連付け、
前記画像生成部は、
前記試着装着品のバリエーションの選択を受け付け、
前記参照装着品を装着したユーザの画像を前記学習済みモデルに入力して、前記選択されたバリエーションの前記試着装着品を試着したユーザの画像を生成する、
請求項1から3のいずれか1項に記載の画像処理装置。
The learning data is obtained by associating an image of the reference wearing item worn by the wearing subject in a predetermined posture as the input data, an image of the try-on wearing item of a first variation worn by the wearing subject in a posture common to the predetermined posture as the output data, and an image of the try-on wearing item of a second variation worn by the wearing subject in a posture common to the predetermined posture as the output data with the input data;
The image generating unit includes:
Accepting a selection of a variation of the try-on garment;
An image of a user wearing the reference wearing item is input to the trained model to generate an image of a user trying on the try-on wearing item of the selected variation.
The image processing device according to claim 1 .
前記装着品は、衣類であり、
前記学習用データは、所定の姿勢で装着主体が装着した参照衣類の画像を前記入力データとし、前記所定の姿勢と共通する姿勢で装着主体が装着した試着衣類の画像を前記出力データとして関連付けたデータを含む、
請求項1から4のいずれか1項に記載の画像処理装置。
The wearable item is clothing,
The learning data includes data obtained by associating an image of a reference garment worn by a subject in a predetermined posture as the input data with an image of a try-on garment worn by the subject in a posture common to the predetermined posture as the output data.
The image processing device according to claim 1 .
所定の姿勢で装着主体が装着した参照装着品の画像を入力データとし、前記所定の姿勢と共通する姿勢で装着主体が装着した試着装着品の画像を出力データとして関連付けた学習用データを用いた機械学習により学習させた学習済みモデルに対し、前記参照装着品を装着したユーザの画像を入力して、前記試着装着品を試着したユーザの画像を生成する画像生成ステップを含む、
画像処理方法。
The image generating step includes inputting an image of a user wearing the reference wearing product to a trained model trained by machine learning using training data in which an image of a reference wearing product worn by a wearer in a predetermined posture is used as input data, and an image of a user trying on the try-on wearing product worn by the wearer in a posture common to the predetermined posture is used as output data.
Image processing methods.
コンピュータに、
所定の姿勢で装着主体が装着した参照装着品の画像を入力データとし、前記所定の姿勢と共通する姿勢で装着主体が装着した試着装着品の画像を出力データとして関連付けた学習用データを用いた機械学習により学習させた学習済みモデルに対し、前記参照装着品を装着したユーザの画像を入力して、前記試着装着品を試着したユーザの画像を生成させる、
処理を実行させる、
画像処理プログラム。
On the computer,
An image of a user wearing the reference wearing item is input to a trained model trained by machine learning using training data in which an image of a reference wearing item worn by a wearer in a predetermined posture is used as input data, and an image of a user trying on the try-on wearing item is generated by inputting an image of the user wearing the reference wearing item into the trained model.
Execute the process,
Image processing program.
JP2021502253A 2019-02-22 2020-02-25 IMAGE PROCESSING DEVICE, TRAINED MODEL, IMAGE COLLECTION DEVICE, IMAGE PROCESSING METHOD, AND IMAGE PROCESSING PROGRAM Active JP7497059B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201962809088P 2019-02-22 2019-02-22
US62/809,088 2019-02-22
PCT/JP2020/007392 WO2020171237A1 (en) 2019-02-22 2020-02-25 Image processing device, learned model, image collection device, image processing method, and image processing program

Publications (2)

Publication Number Publication Date
JPWO2020171237A1 JPWO2020171237A1 (en) 2021-12-16
JP7497059B2 true JP7497059B2 (en) 2024-06-10

Family

ID=72144680

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021502253A Active JP7497059B2 (en) 2019-02-22 2020-02-25 IMAGE PROCESSING DEVICE, TRAINED MODEL, IMAGE COLLECTION DEVICE, IMAGE PROCESSING METHOD, AND IMAGE PROCESSING PROGRAM

Country Status (2)

Country Link
JP (1) JP7497059B2 (en)
WO (1) WO2020171237A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6921768B2 (en) * 2018-02-21 2021-08-18 株式会社東芝 Virtual fitting system, virtual fitting method, virtual fitting program, and information processing device
CN112991494B (en) * 2021-01-28 2023-09-15 腾讯科技(深圳)有限公司 Image generation method, device, computer equipment and computer readable storage medium

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019163218A1 (en) 2018-02-21 2019-08-29 株式会社東芝 Virtual trial fitting system, virtual trial fitting method, virtual trial fitting program, information processing device, and learning data

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019163218A1 (en) 2018-02-21 2019-08-29 株式会社東芝 Virtual trial fitting system, virtual trial fitting method, virtual trial fitting program, information processing device, and learning data

Also Published As

Publication number Publication date
JPWO2020171237A1 (en) 2021-12-16
WO2020171237A1 (en) 2020-08-27

Similar Documents

Publication Publication Date Title
EP3479296B1 (en) System of virtual dressing utilizing image processing, machine learning, and computer vision
US11501508B2 (en) Parameterized model of 2D articulated human shape
US20210074005A1 (en) Image processing method and apparatus, image device, and storage medium
US10991067B2 (en) Virtual presentations without transformation-induced distortion of shape-sensitive areas
US8737767B2 (en) Perceptually guided capture and stylization of 3D human figures
EP3568804A2 (en) Systems, methods and apparatuses for stereo vision and tracking
US8976230B1 (en) User interface and methods to adapt images for approximating torso dimensions to simulate the appearance of various states of dress
JP7497059B2 (en) IMAGE PROCESSING DEVICE, TRAINED MODEL, IMAGE COLLECTION DEVICE, IMAGE PROCESSING METHOD, AND IMAGE PROCESSING PROGRAM
CN104966284A (en) Method and equipment for acquiring object dimension information based on depth data
Xu et al. 3d virtual garment modeling from rgb images
JP2022036963A (en) Size measurement system
CN107016730A (en) The device that a kind of virtual reality is merged with real scene
CN107622428A (en) A kind of method and device for realizing virtually trying
CN106981100A (en) The device that a kind of virtual reality is merged with real scene
US20160055682A1 (en) Three-dimensional modeling method and electronic apparatus thereof
JP2007102478A (en) Image processor, image processing method, and semiconductor integrated circuit
Ram et al. A review on virtual reality for 3D virtual trial room
Xu et al. Human body reshaping and its application using multiple RGB-D sensors
CN110309554B (en) Video human body three-dimensional reconstruction method and device based on garment modeling and simulation
Chang et al. Seeing through the appearance: Body shape estimation using multi-view clothing images
Wang et al. Im2fit: Fast 3d model fitting and anthropometrics using single consumer depth camera and synthetic data
JP7294402B2 (en) Image processing device, image processing method and program
JP2009095631A (en) Golf swing measuring system
Pei et al. An image-based measuring technique for the prediction of human body size
JP7501543B2 (en) Information processing device, information processing method, and information processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240416

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240430

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240522

R150 Certificate of patent or registration of utility model

Ref document number: 7497059

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150