JP7418677B1 - Information processing system, information processing method, and information processing program - Google Patents

Information processing system, information processing method, and information processing program Download PDF

Info

Publication number
JP7418677B1
JP7418677B1 JP2023113355A JP2023113355A JP7418677B1 JP 7418677 B1 JP7418677 B1 JP 7418677B1 JP 2023113355 A JP2023113355 A JP 2023113355A JP 2023113355 A JP2023113355 A JP 2023113355A JP 7418677 B1 JP7418677 B1 JP 7418677B1
Authority
JP
Japan
Prior art keywords
clothing
model
human body
clothing model
simulation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023113355A
Other languages
Japanese (ja)
Inventor
秀夫 橋浦
孝昌 鈴木
Original Assignee
株式会社Laila
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Laila filed Critical 株式会社Laila
Priority to JP2023113355A priority Critical patent/JP7418677B1/en
Application granted granted Critical
Publication of JP7418677B1 publication Critical patent/JP7418677B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

【課題】実世界における人物の動きに追随する衣服の動きを、仮想空間で再現可能な情報処理システムを提供する【解決手段】情報処理システムは、衣服を複数方向から撮影した複数の画像に基づいて三次元の仮想空間に表示可能な衣服モデルを生成する生成部、衣服モデルの所定の箇所に調整点を付与する付与部、衣服モデルを着用させる三次元の人体モデルに設定された複数のボーンのうち、衣服モデルの所定の箇所に対応するボーンと衣服モデルの調整点とを関連付ける関連付け部、衣服モデルを着用した人体モデルを人体モデルの連続的な動作を定義するモーションデータに基づいて動作させた場合の、衣服モデルの動きをシミュレーションし、人体モデルが、衣服の撮影時の形状である初期形状の衣服モデルにおける各調整点の位置に、当該各調整点に関連付けられたボーンを位置づけた初期姿勢にある状態から、シミュレーションを開始させるシミュレーション部を備える。【選択図】 図2[Problem] To provide an information processing system that can reproduce in a virtual space the movement of clothing that follows the movement of a person in the real world. [Solution] The information processing system is based on multiple images of clothing taken from multiple directions. a generation unit that generates a clothing model that can be displayed in a three-dimensional virtual space, an assignment unit that adds adjustment points to predetermined locations on the clothing model, and multiple bones set on the three-dimensional human body model that makes the clothing model wearable. Among them, an association unit associates bones corresponding to predetermined points of the clothing model with adjustment points of the clothing model, and an association unit that moves the human body model wearing the clothing model based on motion data that defines continuous motion of the human body model. In this case, the movement of the clothing model is simulated, and the human body model is initialized by positioning the bone associated with each adjustment point at the position of each adjustment point in the clothing model with the initial shape, which is the shape at the time the clothing was photographed. The apparatus includes a simulation unit that starts a simulation from a posture. [Selection diagram] Figure 2

Description

本発明は、情報処理システム、情報処理方法、及び情報処理プログラムに関する。 The present invention relates to an information processing system, an information processing method, and an information processing program.

近年、情報通信技術の発展によって仮想空間に関する技術開発が進み、ファッションの世界でも、仮想空間を活用したサービスが多数提案されている。例えば、ユーザが、現実世界に存在する店舗を仮想空間に再現したバーチャル店舗を訪問して、商品の閲覧や購入が可能であるサービスや、仮想空間を行き来するアバターに着用させる衣服や靴等(バーチャルアイテム)の購入が可能であるサービスが提供されている。また、NFT(Non-Fungible Token:非代替性トークン)の技術によって、バーチャルアイテムの偽造や改ざんを防ぐことが可能であるため、バーチャルアイテム固有の価値を維持しての取引が可能となり、バーチャルアイテムの流通が進んでいる(例えば、非特許文献1)。 In recent years, with the development of information and communication technology, technological development related to virtual spaces has progressed, and many services that utilize virtual spaces have been proposed in the fashion world as well. For example, there are services that allow users to visit virtual stores that reproduce stores that exist in the real world in a virtual space, and browse and purchase products, and clothes and shoes that are worn by avatars that move back and forth in the virtual space. A service is provided that allows users to purchase virtual items (virtual items). In addition, NFT (Non-Fungible Token) technology makes it possible to prevent virtual items from being counterfeited or tampered with, making it possible to trade virtual items while maintaining their inherent value. distribution is progressing (for example, Non-Patent Document 1).

メタバース総研、“[事例14選]メタバースのアパレル業界での活用方法やメリットとは”、[online]、令和5年5月22日検索、インターネット<URL:https://metaversesouken.com/metaverse/fashion-2/>Metaverse Research Institute, “[14 Case Studies] How to use Metaverse in the apparel industry and its benefits”, [online], retrieved on May 22, 2020, Internet <URL: https://metaversesouken.com/metaverse /fashion-2/>

出願人は、希少性の高いヴィンテージ(vintage)服を多数コレクションしており、それらの衣服をNFTによって価値を守りつつデジタル化して、仮想空間で流通させることを試みている。しかしながら、実世界に存在する衣服をデジタル化してアバターに着用させた場合に、仮想空間において、実世界における人物の動きに追随する衣服の動きを再現することは困難であった。 The applicant has a large collection of highly rare vintage clothing, and is attempting to digitize these clothing items using NFT while preserving their value and distribute them in virtual space. However, when clothing that exists in the real world is digitized and worn by an avatar, it is difficult to reproduce the movement of the clothing that follows the movement of the person in the real world in a virtual space.

本発明の一実施形態に係る情報処理システムは、衣服を複数方向から撮影した複数の画像に基づいて、三次元の仮想空間に表示可能な衣服モデルを生成する生成部と、衣服モデルの所定の箇所に調整点を付与する付与部と、衣服モデルを着用させる三次元の人体モデルに設定された複数のボーンのうち、衣服モデルの所定の箇所に対応するボーンと、衣服モデルの調整点とを関連付ける関連付け部と、衣服モデルを着用した人体モデルを、人体モデルの連続的な動作を定義するモーションデータに基づいて動作させた場合の、衣服モデルの動きをシミュレーションするシミュレーション部と、を備え、シミュレーション部は、人体モデルが、衣服の撮影時の形状である初期形状の衣服モデルにおける各調整点の位置に、当該各調整点に関連付けられたボーンを位置づけた初期姿勢にある状態から、シミュレーションを開始させる。 An information processing system according to an embodiment of the present invention includes a generation unit that generates a clothing model that can be displayed in a three-dimensional virtual space based on a plurality of images of clothing taken from multiple directions; A provision unit that assigns adjustment points to locations, a bone that corresponds to a predetermined location of the clothing model among a plurality of bones set on a three-dimensional human body model on which the clothing model is worn, and adjustment points of the clothing model. a simulation unit that simulates the movement of the clothing model when the human body model wearing the clothing model is operated based on motion data that defines continuous movements of the human body model; The part starts the simulation from a state in which the human body model is in an initial posture in which bones associated with each adjustment point are positioned at the position of each adjustment point in the clothing model of the initial shape, which is the shape at the time the clothing was photographed. let

本発明の一実施形態に係る情報処理システムにおいて、所定の箇所は、衣服モデルの初期形状における、衣服の身頃に対する袖の開き角の算出を可能とする、少なくとも3以上の点であってよい。 In the information processing system according to an embodiment of the present invention, the predetermined points may be at least three or more points in the initial shape of the clothing model that enable calculation of the opening angle of the sleeve with respect to the body of the clothing.

本発明の一実施形態に係る情報処理システムにおいて、シミュレーション部は、モーションデータに基づき、人体モデルを仮想的な面上で動作させ、衣服モデルに含まれる、衣服の素材に応じた重みデータに応じたシミュレーションにおいて、人体モデルに着用させた衣服モデルと仮想的な面との衝突が発生するか否かを判定し、衝突の発生なくモーションデータに基づく動作が完了するまで、重みデータを変更しながら初期姿勢からのシミュレーションを繰り返し実行してよい。 In the information processing system according to an embodiment of the present invention, the simulation unit moves the human body model on a virtual surface based on the motion data, and moves the human body model in accordance with weight data included in the clothing model and corresponding to the material of the clothing. In a simulation, it is determined whether or not a collision will occur between the clothing model worn by the human body model and the virtual surface, and the weight data is changed until the motion based on the motion data is completed without collision. The simulation from the initial posture may be repeatedly executed.

本発明の一実施形態に係る情報処理システムにおいて、衝突の発生なくモーションデータに基づく動作が完了した場合の重みデータによる衣服モデルの動きで、衣服モデルを着用した人体モデルのモーションデータに基づくアニメーションを表示させるアニメーションデータを、人体モデルと関連付けて記憶する記憶部をさらに備え、記憶部は、複数のモーションデータ、複数の人体モデル、および複数の衣服モデルによる複数の組み合わせについて、それぞれアニメーションデータを記憶してよい。 In an information processing system according to an embodiment of the present invention, animation based on motion data of a human body model wearing a clothing model is performed using the movement of the clothing model based on weight data when the motion based on the motion data is completed without occurrence of a collision. The device further includes a storage unit that stores animation data to be displayed in association with the human body model, and the storage unit stores animation data for each of a plurality of combinations of a plurality of motion data, a plurality of human body models, and a plurality of clothing models. It's fine.

本発明の一実施形態に係る情報処理システムにおいて、シミュレーション部によって実行されたシミュレーションにおける、重みデータを含む衣服モデル、調整点、人体モデル、及びモーションデータに関する条件を入力、条件によるシミュレーション結果を出力とする機械学習によって、所定の衣服モデルに対する調整点及び重みデータを出力する学習モデルを生成する学習部をさらに備えてよい。 In an information processing system according to an embodiment of the present invention, conditions regarding a clothing model including weight data, adjustment points, a human body model, and motion data in a simulation executed by a simulation unit are input, and simulation results based on the conditions are output. The apparatus may further include a learning unit that generates a learning model that outputs adjustment points and weight data for a predetermined clothing model using machine learning.

本発明の一実施形態に係る情報処理システムは、複数の衣服モデルが配置された仮想空間を生成する仮想空間生成部と、仮想空間をユーザの表示装置に表示させる表示データを、表示装置に出力する出力部と、をさらに備え、出力部は、ユーザによる、仮想空間における衣服モデルの選択操作を検出したことに応じて、ユーザによって選択された衣服モデルを着用した人体モデルによるアニメーションを表示させるアニメーションデータを、表示装置に送信してよい。 An information processing system according to an embodiment of the present invention includes a virtual space generation unit that generates a virtual space in which a plurality of clothing models are arranged, and outputs display data for displaying the virtual space on a user's display device to the display device. The output unit further comprises an animation for displaying an animation of a human body model wearing the clothing model selected by the user in response to detecting the user's selection operation of the clothing model in the virtual space. The data may be sent to a display device.

本発明の一実施形態に係る情報処理システムは、仮想空間における衣服モデルの配置に関する配置指示を、仮想空間の複数の管理ユーザから受け付ける受付部をさらに備えてよい。 The information processing system according to an embodiment of the present invention may further include a reception unit that receives placement instructions regarding placement of clothing models in the virtual space from a plurality of management users of the virtual space.

本発明の一実施形態に係る、情報処理装置が実行する情報処理方法は、衣服を複数方向から撮影した複数の画像に基づいて、三次元の衣服モデルを生成するステップと、衣服モデルの所定の箇所に調整点を付与するステップと、衣服モデルを着用させる三次元の人体モデルに設定されたボーンのうち、衣服モデルの所定の箇所に対応するボーンと、衣服モデルの調整点とを関連付けるステップと、衣服モデルを着用した人体モデルを、人体モデルの連続的な動作を定義するモーションデータに基づいて動作させた場合の、衣服モデルの動きをシミュレーションするステップと、を含み、シミュレーションするステップは、人体モデルが、衣服の撮影時の形状である初期形状の衣服モデルにおける各調整点の位置に、当該各調整点に関連付けられたボーンを位置づけた初期姿勢にある状態から、シミュレーションを開始させる。 An information processing method executed by an information processing apparatus according to an embodiment of the present invention includes the steps of generating a three-dimensional clothing model based on a plurality of images of clothing taken from a plurality of directions; a step of assigning an adjustment point to a location; a step of associating a bone corresponding to a predetermined location of the clothing model with an adjustment point of the clothing model among bones set on a three-dimensional human body model on which the clothing model is to be worn; , simulating the movement of the clothing model when the human body model wearing the clothing model is operated based on motion data that defines continuous motion of the human body model, and the simulating step includes The simulation is started from a state in which the model is in an initial posture in which bones associated with each adjustment point are positioned at the position of each adjustment point in the clothing model of the initial shape that is the shape at the time the clothing was photographed.

本発明の一実施形態に係る情報処理プログラムは、情報処理装置に、衣服を複数方向から撮影した複数の画像に基づいて、三次元の衣服モデルを生成する機能と、衣服モデルの所定の箇所に調整点を付与する機能と、衣服モデルを着用させる三次元の人体モデルに設定されたボーンのうち、衣服モデルの所定の箇所に対応するボーンと、衣服モデルの調整点とを関連付ける機能と、衣服モデルを着用した人体モデルを、人体モデルの連続的な動作を定義するモーションデータに基づいて動作させた場合の、衣服モデルの動きをシミュレーションする機能と、を実現させ、シミュレーションする機能は、人体モデルが、衣服の撮影時の形状である初期形状の衣服モデルにおける各調整点の位置に、当該各調整点に関連付けられたボーンを位置づけた初期姿勢にある状態から、シミュレーションを開始させる、情報処理プログラム。 An information processing program according to an embodiment of the present invention provides an information processing device with a function of generating a three-dimensional clothing model based on a plurality of images taken of clothing from a plurality of directions, and a function of generating a three-dimensional clothing model based on a plurality of images taken of clothing from a plurality of directions. A function for assigning adjustment points, a function for associating adjustment points of a clothing model with bones set in a three-dimensional human body model on which the clothing model is worn, and a bone that corresponds to a predetermined location on the clothing model. A function for simulating the movement of a clothing model when a human body model wearing the model is operated based on motion data that defines continuous movements of the human body model. is an information processing program that starts a simulation from a state in which the bone associated with each adjustment point is positioned at the position of each adjustment point in a clothing model with an initial shape that is the shape at the time the clothing was photographed. .

本発明の一実施形態によれば、実世界に存在する衣服をデジタル化してアバターに着用させた場合に、実世界における人物の動きに追随する衣服の動きを、仮想空間におけるアバターの動きに追随する衣服の動きとして再現可能な情報処理システム等を提供することができる。 According to an embodiment of the present invention, when clothing that exists in the real world is digitized and worn by an avatar, the movement of the clothing that follows the movement of the person in the real world can be made to follow the movement of the avatar in the virtual space. It is possible to provide an information processing system etc. that can reproduce the movement of clothes.

図1は、本発明の一実施形態に係る情報処理システム構成の概略図である。FIG. 1 is a schematic diagram of an information processing system configuration according to an embodiment of the present invention. 図2は、本発明の一実施形態に係る情報処理システムの機能ブロック図の一例である。FIG. 2 is an example of a functional block diagram of an information processing system according to an embodiment of the present invention. 図3は、本発明の一実施形態に係る情報処理方法の一例を示すフローチャートである。FIG. 3 is a flowchart illustrating an example of an information processing method according to an embodiment of the present invention. 図4(a)~(c)は、本発明の一実施形態に係る情報処理システムの概略を説明するための図である。FIGS. 4(a) to 4(c) are diagrams for explaining the outline of an information processing system according to an embodiment of the present invention. 図5(a)、(b)は、本発明の一実施形態に係る情報処理システムの概略を説明するための図である。FIGS. 5A and 5B are diagrams for explaining the outline of an information processing system according to an embodiment of the present invention. 図6は、本発明の一実施形態に係る情報処理方法の一例を示すフローチャートである。FIG. 6 is a flowchart illustrating an example of an information processing method according to an embodiment of the present invention. 図7は、本発明の一実施形態に係る情報処理システムにおいて記憶されるデータテーブルの一例である。FIG. 7 is an example of a data table stored in the information processing system according to an embodiment of the present invention. 図8は、本発明の一実施形態に係る情報処理システムにおいて実現される仮想空間の一例を示す概略図である。FIG. 8 is a schematic diagram showing an example of a virtual space realized in an information processing system according to an embodiment of the present invention.

以降、図を用いて、本開示に係る発明(本発明ともいう)の一実施形態を説明する。なお、図は一例であって、本発明は図に示すものに限定されない。例えば、図示したサーバ(情報処理装置)、ユーザ端末(通信装置)のブロック図、フローチャート、データテーブル、ユーザ端末の表示画面等は一例であって、本発明はこれらに限定されない。 Hereinafter, one embodiment of the invention (also referred to as the present invention) according to the present disclosure will be described with reference to the drawings. Note that the drawings are just examples, and the present invention is not limited to what is shown in the drawings. For example, the illustrated block diagrams, flowcharts, data tables, display screens of user terminals, etc. of the server (information processing device), user terminal (communication device), etc. are merely examples, and the present invention is not limited thereto.

また、本明細書において、「仮想空間」は、情報処理装置(コンピュータ)やネットワーク上に構築された、物質的には存在しない仮想的な情報空間を指すものとし、利用者がアバターを操作して他者との交流が可能な空間である、いわゆる「メタバース」を含むものとする。なお、「アバター」は、人物、または、動物、生物、物等を擬人化したキャラクタオブジェクトであって、「デジタルヒューマン(バーチャルヒューマン)」とも呼称されてよい。なお、以降では、アバターとしては人物を一例とし、「人体モデル」と称することもある。 In addition, in this specification, "virtual space" refers to a virtual information space that does not physically exist, built on an information processing device (computer) or network, in which a user operates an avatar. It includes the so-called ``metaverse,'' which is a space where people can interact with others. Note that an "avatar" is a character object that is an anthropomorphic person, animal, creature, object, etc., and may also be called a "digital human (virtual human)." Note that hereinafter, a person will be used as an example of an avatar, and the avatar may also be referred to as a "human body model."

また、本明細書において、「衣服」は、人物またはアバターが身に着けるものであって、洋装、和装等を問わず、ズボン、スカート、ワンピース、オールインワン、シャツ、Tシャツ、ジャケット、コート、水着等を含む。さらに、「衣服」には、帽子、スカーフ、手袋、ネクタイ、ベルト等の服飾品、ネックレス、イヤリング、時計、眼鏡、仮面等の装飾品、靴、サンダル、下駄等の履物、衛生用品としてのマスクを含んでよい。 In addition, in this specification, "clothes" refers to things worn by a person or avatar, including pants, skirts, dresses, all-in-ones, shirts, T-shirts, jackets, coats, and swimsuits, regardless of whether they are Western clothes or Japanese clothes. Including etc. Furthermore, "clothing" includes accessories such as hats, scarves, gloves, ties, and belts; accessories such as necklaces, earrings, watches, glasses, and masks; footwear such as shoes, sandals, and clogs; and masks as sanitary products. may include.

<システム構成>
図1は、本発明の一実施形態に係る情報処理システムの構成例を示す図である。情報処理システム600は、人体モデルに着用させることが可能な、実世界に存在する衣服(以降、「実衣服」とも称する)をデジタル化した衣服モデルを提供し、実世界における衣服の動きを仮想空間上で再現可能とする情報通信システムである。また、情報処理システム600は、複数の実衣服をデジタル化し、立体的な三次元(3D)の形状を閲覧可能な状態で展示したデジタルミュージアムを提供する情報通信システムであってよい。
<System configuration>
FIG. 1 is a diagram showing a configuration example of an information processing system according to an embodiment of the present invention. The information processing system 600 provides a clothing model that is a digitized version of clothing that exists in the real world (hereinafter also referred to as "real clothing") that can be worn by a human body model, and virtualizes the movement of clothing in the real world. It is an information communication system that can be reproduced in space. Furthermore, the information processing system 600 may be an information communication system that provides a digital museum in which a plurality of real clothes are digitized and their three-dimensional (3D) shapes are displayed in a viewable state.

情報処理システム600は、サーバ100と、データベースサーバ400と、ユーザの通信端末(ユーザ端末)200(200A,200B)とを少なくとも含む。サーバ100は、通信端末200A,200Bと、ネットワーク500を介して接続され、通信端末200との間で各種情報の送受信を行うとともに、情報処理システムに係る種々の処理を実行する。なお、図1において、サーバ100は1つのみ示してあるが、これに限られるものではなく、複数存在してもよい。また、サーバ100は、ネットワークを介して通信を行うことで協調動作する分散型サーバシステムであって、エッジサーバを含んでもよく、いわゆるクラウドサーバでもよい。すなわち、サーバ100は、物理的なサーバに限らず、仮想的なサーバも含まれてよい。また、サーバ100の各機能部の機能又は処理は、実現可能な範囲において、機械学習又はAI(Artificial Intelligence)により実現されてもよい。 Information processing system 600 includes at least server 100, database server 400, and user communication terminals (user terminals) 200 (200A, 200B). The server 100 is connected to the communication terminals 200A and 200B via the network 500, transmits and receives various information to and from the communication terminal 200, and executes various processes related to the information processing system. Note that although only one server 100 is shown in FIG. 1, the number is not limited to this, and a plurality of servers may exist. Further, the server 100 is a distributed server system that operates cooperatively by communicating via a network, and may include an edge server, or may be a so-called cloud server. That is, the server 100 is not limited to a physical server, but may also include a virtual server. Further, the functions or processing of each functional unit of the server 100 may be realized by machine learning or AI (Artificial Intelligence) to the extent possible.

ネットワーク500は、無線ネットワークや有線ネットワークを含んでよく、例えば、ワイヤレスLAN(wireless LAN:WLAN)や広域ネットワーク(wide area network:WAN)、ISDNs(integrated service digital networks)、無線LANs、CDMA(code division multiple access)、LTE(long term evolution)、LTE-Advanced、第4世代通信(4G)、第5世代通信(5G)、及び第6世代通信(6G)以降の移動体通信システム等やこれらの組み合わせであってもよい。 Network 500 may include wireless networks or wired networks, such as wireless LANs (WLANs), wide area networks (WANs), integrated service digital networks (ISDNs), wireless LANs, or code division networks (CDMA). multiple access), LTE (long term evolution), LTE-Advanced, 4th generation communication (4G), 5th generation communication (5G), 6th generation communication (6G) and later mobile communication systems, and combinations thereof. It may be.

ユーザ端末200A,200Bは、情報処理システム600によって提供される仮想空間サービスを利用するユーザの通信端末であってよい。なお、図1において、ユーザ端末は、ユーザA,Bに関するものをそれぞれユーザ端末200A,200Bとして2台のみ示してある。しかしながら、ユーザ端末は、仮想空間サービスを利用するユーザの数だけ存在してよく、また、特に区別しない場合、単にユーザ端末200と記す。 The user terminals 200A and 200B may be communication terminals of users who use virtual space services provided by the information processing system 600. In addition, in FIG. 1, only two user terminals are shown as user terminals 200A and 200B for users A and B, respectively. However, there may be as many user terminals as there are users who use the virtual space service, and unless there is a particular distinction, they will simply be referred to as user terminals 200.

ユーザ端末200には、情報処理システム600が提供する仮想空間サービスを利用するためのアプリケーション(以降、「アプリ」とも称する)がインストールされ、サーバ100との間で各種情報の送受信が可能であってよい。なお、ユーザ端末200へのアプリのインストールは必須ではなく、ユーザ端末200とサーバ100とは、ウェブブラウザを介して各種情報の送受信を行ってもよい。なお、図1では、ユーザ端末200Aとしてスマートフォンを、ユーザ端末200Bとしてノートパソコンを示してあるが、ユーザ端末200としては、これ以降に説明する各実施形態において記載する機能を実現できる端末であればどのような端末であってもよい。例えば、ユーザ端末200は、コンピュータ(例えば、タブレット)、ハンドヘルドコンピュータデバイス(限定でなく例として、PDA(personal digital assistant)、ウェアラブル端末(メガネ型デバイス、時計型デバイスなど)、HMD(Head Mount Display:ヘッドマウントディスプレイ)であってよい。 The user terminal 200 is installed with an application (hereinafter also referred to as an "app") for using the virtual space service provided by the information processing system 600, and is capable of transmitting and receiving various information to and from the server 100. good. Note that it is not essential to install an application on the user terminal 200, and the user terminal 200 and the server 100 may send and receive various information via a web browser. Although FIG. 1 shows a smartphone as the user terminal 200A and a notebook computer as the user terminal 200B, the user terminal 200 can be any terminal as long as it can realize the functions described in each embodiment described below. It can be any type of terminal. For example, the user terminal 200 may include a computer (e.g., a tablet), a handheld computer device (for example, but not limited to, a PDA (personal digital assistant)), a wearable terminal (such as a glasses-type device or a watch-type device), or an HMD (Head Mount Display). head-mounted display).

データベースサーバ400は、情報処理システム600で利用する各種情報(データ)を記憶(格納)する。なお、図1において、データベースサーバ400はサーバ100とは別に1つのみ示してあるが、サーバ100に一体化されていてもよい。すなわち、データベースサーバ400は、サーバ100の揮発性メモリ又は不揮発性メモリであってもよい。また、データベースサーバ400は、複数の記憶装置から構成されてもよい。なお、データベースサーバ400は、ネットワーク500とは異なる専用の内部ネットワークにて、サーバ100と接続されてもよいし、ネットワーク500を介してサーバ100と接続されてもよい。 The database server 400 stores various information (data) used in the information processing system 600. Note that although only one database server 400 is shown separately from the server 100 in FIG. 1, it may be integrated into the server 100. That is, database server 400 may be volatile memory or nonvolatile memory of server 100. Further, the database server 400 may be composed of a plurality of storage devices. Note that the database server 400 may be connected to the server 100 through a dedicated internal network different from the network 500, or may be connected to the server 100 via the network 500.

<ユーザ端末>
図2は、本発明の一実施形態に係るユーザ端末200の構成図である。図2を用いて、本発明の一実施形態に係るユーザ端末200のハードウェア構成、機能構成について説明する。
<User terminal>
FIG. 2 is a configuration diagram of a user terminal 200 according to an embodiment of the present invention. The hardware configuration and functional configuration of the user terminal 200 according to an embodiment of the present invention will be described using FIG. 2.

(1)ユーザ端末のハードウェア構成
ユーザ端末200は、制御部210、通信部220、表示部230、入出力部240、記憶部270を備える。
(1) Hardware configuration of user terminal The user terminal 200 includes a control section 210, a communication section 220, a display section 230, an input/output section 240, and a storage section 270.

制御部210は、典型的にはプロセッサであって、中央処理装置(CPU)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)等で実現される。制御部210は、記憶部270に記憶されるプログラムを読み出し、読み出したプログラムに含まれるコード又は命令を実行することによって、各実施形態に示す機能、方法を実行する。 The control unit 210 is typically a processor, and is implemented by a central processing unit (CPU), an MPU (Micro Processing Unit), a GPU (Graphics Processing Unit), or the like. The control unit 210 reads the program stored in the storage unit 270 and executes the functions and methods shown in each embodiment by executing the code or instructions included in the read program.

記憶部270は、ユーザ端末200が動作するうえで必要とする各種プログラムや各種データを記憶する。記憶部270は、例えば、フラッシュメモリ等を含んでよく、また、制御部210に対する作業領域を提供するメモリ(RAM(Random Access Memory)、ROM(Read Only Memory)等)を含んでよい。 The storage unit 270 stores various programs and various data necessary for the operation of the user terminal 200. The storage unit 270 may include, for example, a flash memory or the like, and may also include a memory (RAM (Random Access Memory), ROM (Read Only Memory), etc.) that provides a work area for the control unit 210.

通信部220は、NIC(Network Interface Card)等のハードウェアや通信用ソフトウェア、及びこれらの組み合わせとして実装され、ネットワーク500を介して、サーバ100との間で各種データの送受信を行ってよい。当該通信は、有線、無線のいずれで実行されてもよく、互いの通信が実行できるのであれば、どのような通信プロトコルを用いてもよい。なお、通信部220が物理的に構造化された回路で構成される場合には、通信回路と表現する場合もある。 The communication unit 220 may be implemented as hardware such as a NIC (Network Interface Card), communication software, or a combination thereof, and may transmit and receive various data to and from the server 100 via the network 500. The communication may be performed by wire or wirelessly, and any communication protocol may be used as long as mutual communication can be performed. Note that when the communication unit 220 is composed of a physically structured circuit, it may be expressed as a communication circuit.

表示部230は、フレームバッファに書き込まれた表示データに従って、データを表示するモニタであって、例えば、タッチパネル、タッチディスプレイ等であってよい。 The display unit 230 is a monitor that displays data according to the display data written in the frame buffer, and may be, for example, a touch panel, a touch display, or the like.

入出力部240は、ユーザ端末200に対する各種操作を入力する入力装置、及び、ユーザ端末200で処理された処理結果を出力する出力装置を含んでよい。入出力部240は、入力装置と出力装置が一体化していてもよいし、入力装置と出力装置とに分離していてもよい。入力装置は、ユーザ20からの入力操作を受け付けて、当該入力に係る情報を制御部210に伝達できる全ての種類の装置のいずれか、又は、その組み合わせにより実現されてよい。入力装置は、例えば、タッチパネル、タッチディスプレイ、カメラ、マイクを含んでよい。出力装置は、制御部210で処理された処理結果を出力してよい。出力装置は、例えば、ディスプレイ、タッチパネル、スピーカ等を含んでよい。 The input/output unit 240 may include an input device for inputting various operations to the user terminal 200 and an output device for outputting processing results processed by the user terminal 200. The input/output unit 240 may have an input device and an output device integrated, or may be separated into an input device and an output device. The input device may be realized by any one of all types of devices capable of receiving an input operation from the user 20 and transmitting information related to the input to the control unit 210, or a combination thereof. Input devices may include, for example, a touch panel, a touch display, a camera, and a microphone. The output device may output the processing results processed by the control unit 210. The output device may include, for example, a display, a touch panel, a speaker, and the like.

(2)ユーザ端末の機能構成
ユーザ端末200は、制御部210を備える。制御部210は、通信部220によるネットワーク500を介したサーバ100との間の通信を制御し、各種情報の送受信を実行する。また、制御部210は、表示部230へのデータの表示を制御し、例えば、サーバ100から送信された情報に応じた画面を、表示部230に表示させる。さらに、制御部210は、入出力部240を介した外部装置との各種情報の伝達を制御し、例えば、入力装置で受け付けたユーザの入力操作に応じて、各種情報を各機能部へ伝達したり、タッチパネル、モニタ、スピーカ等の図示しない出力装置に対し、各機能部からの情報を伝達したりする。
(2) Functional configuration of user terminal The user terminal 200 includes a control unit 210. The control unit 210 controls communication between the communication unit 220 and the server 100 via the network 500, and executes transmission and reception of various information. Further, the control unit 210 controls the display of data on the display unit 230, and causes the display unit 230 to display a screen according to information transmitted from the server 100, for example. Further, the control unit 210 controls transmission of various information to and from an external device via the input/output unit 240, and transmits various information to each functional unit in response to a user's input operation received by the input device, for example. It also transmits information from each functional unit to an output device (not shown) such as a touch panel, monitor, or speaker.

<サーバ>
図2は、本発明の一実施形態に係るサーバ100の構成図である。図2を用いて、本発明の一実施形態に係るサーバ(情報処理装置)100のハードウェア構成、機能構成について説明する。
<Server>
FIG. 2 is a configuration diagram of the server 100 according to an embodiment of the present invention. The hardware configuration and functional configuration of the server (information processing device) 100 according to an embodiment of the present invention will be described using FIG. 2.

(1)サーバのハードウェア構成
サーバ100は、ハードウェア構成として、制御部110、通信部120、入出力部130、記憶部170を備える。なお、サーバ100は、図示しないが、一般的なサーバが備える構成を適宜備えてもよい。
(1) Hardware Configuration of Server The server 100 includes a control unit 110, a communication unit 120, an input/output unit 130, and a storage unit 170 as a hardware configuration. Note that although not shown, the server 100 may be appropriately equipped with a configuration that is included in a general server.

制御部110は、典型的にはプロセッサであって、中央処理装置(CPU)やMPU等であってよい。制御部110は、記憶部170に記憶されたプログラムを読み出し、読み出したプログラムに含まれるコード又は命令を実行することによって、各実施形態に示す機能、方法を実行してよい。 The control unit 110 is typically a processor, and may be a central processing unit (CPU), MPU, or the like. The control unit 110 may execute the functions and methods shown in each embodiment by reading a program stored in the storage unit 170 and executing codes or instructions included in the read program.

記憶部170は、サーバ100が動作するうえで必要とする各種プログラムや、各種データを記憶(格納)する。例えば、詳細は後述するが、記憶部170は、衣服モデルを着用した人体モデルの動作に追随する衣服モデルの動きに関するデータを記憶してよい。記憶部170は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ等を含んでよい。また、記憶部170は、制御部110に対する作業領域を提供するメモリを含んでよい。 The storage unit 170 stores various programs and data necessary for the operation of the server 100. For example, although details will be described later, the storage unit 170 may store data regarding the movement of a clothing model that follows the movement of a human body model wearing the clothing model. The storage unit 170 may include, for example, an HDD (Hard Disk Drive), an SSD (Solid State Drive), a flash memory, or the like. Furthermore, the storage unit 170 may include a memory that provides a work area for the control unit 110.

通信部120は、NIC等のハードウェアや通信用ソフトウェア、及びこれらの組み合わせとして実装され、サーバ100と他の装置との間で情報の送受信を行う。 The communication unit 120 is implemented as hardware such as a NIC, communication software, or a combination thereof, and transmits and receives information between the server 100 and other devices.

(2)サーバの機能構成
サーバ100は、制御部110によって実現される機能として、生成部111、付与部112、関連付け部113、シミュレーション部114、出力部115、学習部116、及び受付部117を備える。なお、図2において、これ以降に説明する各実施形態で必須でない機能部はなくともよい。また、各機能部の機能又は処理は、実現可能な範囲において、機械学習又はAIにより実現されてもよい。
(2) Functional configuration of server The server 100 includes a generation unit 111, a provision unit 112, an association unit 113, a simulation unit 114, an output unit 115, a learning unit 116, and a reception unit 117 as functions realized by the control unit 110. Be prepared. Note that in FIG. 2, functional units that are not essential in each of the embodiments described hereinafter may be omitted. Further, the functions or processing of each functional unit may be realized by machine learning or AI to the extent possible.

以降、本発明の一実施形態について、サーバ100の各機能部の処理とともに、図3~7を用いて説明する。 Hereinafter, one embodiment of the present invention will be described with reference to FIGS. 3 to 7, along with the processing of each functional unit of the server 100.

図3は、一実施形態に係るサーバ100による処理を示すフローチャートの一例である。まず、生成部111は、衣服を複数方向から撮影した複数の画像に基づいて、三次元の仮想空間で表示可能な衣服モデルを生成する(ステップS11)。ここで、「三次元の仮想空間で表示可能な衣服モデル」とは、見かけ上、三次元で立体的にユーザに視認させるように衣服モデルを表示させることを指してよい。 FIG. 3 is an example of a flowchart showing processing by the server 100 according to one embodiment. First, the generation unit 111 generates a clothing model that can be displayed in a three-dimensional virtual space based on a plurality of images of clothing taken from multiple directions (step S11). Here, "a clothing model that can be displayed in a three-dimensional virtual space" may refer to displaying a clothing model so that the user can visually recognize it in three dimensions.

なお、上述のように、本発明の一実施形態において、衣服モデルは、衣服を複数方向から撮影した複数の画像に基づくフォトグラメトリによって生成される。なお、「フォトグラメトリ(Photogrammetry)」とは、被写体を様々なアングルから撮影し、そのデジタル画像を解析、統合して立体的な3DCG(3 Dimensional Computer Graphics)モデルを作成する手法である。複数方向からの撮影手法については特に限定されず、多数(例えば、200台)の撮影部(カメラ)を、撮影対象を囲むように規則的に設置して、複数の画像を撮影してもよいし、撮影対象を載置したターンテーブルを回転させながらカメラで撮影することで、複数の画像を撮影してもよい。あるいは、撮影対象は移動させず、カメラを移動させながら撮影することで、複数の画像を撮影してもよい。なお、複数の画像から三次元のモデルを生成する手法については、既存のものが用いられてよい。 Note that, as described above, in one embodiment of the present invention, a clothing model is generated by photogrammetry based on a plurality of images of clothing taken from multiple directions. Note that "Photogrammetry" is a method of photographing a subject from various angles, analyzing and integrating the digital images, and creating a three-dimensional 3DCG (3 Dimensional Computer Graphics) model. The method of photographing from multiple directions is not particularly limited, and a large number (for example, 200) of photographing units (cameras) may be regularly installed to surround the subject to photograph a plurality of images. However, a plurality of images may be taken by photographing with a camera while rotating a turntable on which an object is placed. Alternatively, a plurality of images may be taken by moving the camera and not moving the object to be photographed. Note that an existing method may be used to generate a three-dimensional model from a plurality of images.

図4(a)は、生成部111によって生成された衣服モデルの一例である。生成部111は、衣服の撮影時に用いられた例えばトルソーやマネキンといった、衣服を固定するための物体は、画像処理によって消去した上で、衣服モデル10を生成してよい。衣服モデル10は、ポリゴンメッシュ、テクスチャ情報、衣服の素材に基づく重みデータを含んでよい。 FIG. 4A is an example of a clothing model generated by the generation unit 111. The generation unit 111 may generate the clothing model 10 after eliminating objects for fixing the clothing, such as a torso or a mannequin, that were used when photographing the clothing through image processing. The clothing model 10 may include a polygon mesh, texture information, and weight data based on the material of the clothing.

付与部112は、衣服モデル10の所定の箇所に調整点を付与する(ステップS12)。「調整点」とは、後述する衣服モデルと人体モデルとの位置合わせに用いられる、仮想的な点(マーカー)であってよい。図5(a)、(b)は、所定の箇所及び調整点を説明する図である。一実施形態において、所定の箇所は、衣服モデル10の初期形状における、衣服の身頃に対する袖の開き角の算出を可能とする、少なくとも3以上の点であってよい。なお、初期形状とは、衣服の撮影時の形状を指す。詳細は後述するが、衣服モデルを人体モデルに着用させ、人体モデルの動きに追随する衣服の動きをシミュレーションする際に、衣服モデルが人体モデルからずれ落ちる現象が発生する。本発明の一実施形態によれば、衣服モデルの所定の箇所に付与した調整点を用いて、シミュレーション時に衣服がずれ落ちる可能性を低減することができる。 The assigning unit 112 assigns adjustment points to predetermined locations on the clothing model 10 (step S12). The "adjustment point" may be a virtual point (marker) used for alignment between a clothing model and a human body model, which will be described later. FIGS. 5A and 5B are diagrams illustrating predetermined locations and adjustment points. In one embodiment, the predetermined locations may be at least three or more points in the initial shape of the clothing model 10 that allow calculation of the opening angle of the sleeves relative to the body of the clothing. Note that the initial shape refers to the shape of the clothing at the time of photographing. Although details will be described later, when a clothing model is worn on a human body model and the movement of the clothing following the movement of the human body model is simulated, a phenomenon occurs in which the clothing model slips off from the human body model. According to one embodiment of the present invention, the possibility that clothing will slip off during simulation can be reduced by using adjustment points provided at predetermined locations on a clothing model.

図5(a)、(b)は、それぞれ、衣服モデルとしてワンピース、Tシャツの場合を説明する概略図である。図5(a)のように、衣服モデル10がワンピースの場合、調整点は、首部分M10、右手首部分M11、左手首部分M12、腰部分M13、右脚部分M14及び左脚部分M15に付与されてよい。また、図5(b)のように、衣服モデル10′がTシャツの場合、調整点は、首部分M20、右袖口部分M21、左袖口部分M22、及び腰部分M23に付与されてよい。なお、調整点は、仮想空間サービスを提供する管理ユーザが操作する図示しない管理ユーザ端末から、管理ユーザの操作に基づき指定されてもよい。あるいは、付与部112は、衣服モデルと、当該衣服モデルに付与された調整点との対応を学習してあらかじめ生成された学習モデルを用いて、任意の衣服モデルに対し、自動的に調整点を付与してもよい。また、付与された調整点を、ユーザが修正可能であってもよいし、補正もプログラムによって実行されてもよい。 FIGS. 5A and 5B are schematic diagrams illustrating cases of a dress and a T-shirt as clothing models, respectively. As shown in FIG. 5(a), when the clothing model 10 is a dress, adjustment points are given to the neck part M10, right wrist part M11, left wrist part M12, waist part M13, right leg part M14, and left leg part M15. It's okay to be. Further, as shown in FIG. 5(b), when the clothing model 10' is a T-shirt, adjustment points may be given to the neck part M20, right cuff part M21, left cuff part M22, and waist part M23. Note that the adjustment point may be specified based on the operation of the management user from a management user terminal (not shown) operated by the management user who provides the virtual space service. Alternatively, the assigning unit 112 automatically assigns adjustment points to any clothing model using a learning model generated in advance by learning the correspondence between clothing models and adjustment points assigned to the clothing models. May be granted. Further, the assigned adjustment points may be able to be modified by the user, or the correction may be performed by a program.

なお、上述のように、調整点は、衣服の種類によって設定されてよい。例えば、Tシャツは首、右手首及び左手首に、スカートは腰、右脚及び左脚に、ワンピースは首、右手首、左手首、腰、右脚及び左脚に、ズボンは腰、右膝、左膝、右足及び左足に、調整点が付与されてよい。また、調整点は袖のない衣服でも適用可能であって、例えば、タンクトップの場合は両肩及び腰に、チューブトップの場合は両脇及び腰に対応する部分に、調整点が設定されてよい。なお、調整点を管理ユーザ端末で指定する場合、衣服モデルの種類に応じて、設定すべき調整点が、管理ユーザ端末において通知されてよい。 Note that, as described above, the adjustment points may be set depending on the type of clothing. For example, T-shirts are worn around the neck, right wrist and left wrist; skirts are worn around the waist, right leg and left leg; dresses are worn around the neck, right wrist, left wrist, waist, right leg and left leg; pants are worn around the waist and right knee. , the left knee, right foot, and left foot may be provided with adjustment points. Further, the adjustment points can be applied to clothing without sleeves, and for example, in the case of a tank top, the adjustment points may be set at both shoulders and the waist, and in the case of a tube top, the adjustment points may be set at the parts corresponding to both sides and the waist. In addition, when specifying adjustment points at the management user terminal, the adjustment points to be set may be notified at the management user terminal depending on the type of clothing model.

関連付け部113は、衣服モデル10を着用させる三次元の人体モデルに設定されたボーンのうち、衣服モデル10の所定の箇所に対応するボーンと衣服モデル10の調整点とを関連付ける(ステップS13)。ここで、図4(b)に、人体モデル21とボーン22との関係を示す。一般に、ボーンは、三次元アニメーション(3Dアニメーション)において、三次元モデルを動かすための動きの単位となる要素を示し、ボーンの動きに三次元モデルが変形しながら追従することでアニメーションが生成される。人体のアニメーションの作成に際し、人体と同様に関節23を定義し、ボーン22同士を関節23によって連結することで、関節23部分でボーンを曲げたり、回転させたりすることができる。 The association unit 113 associates the adjustment points of the clothing model 10 with the bones corresponding to predetermined locations on the clothing model 10, among the bones set in the three-dimensional human body model on which the clothing model 10 is to be worn (step S13). Here, FIG. 4(b) shows the relationship between the human body model 21 and the bones 22. In general, a bone indicates an element that is a unit of movement for moving a three-dimensional model in three-dimensional animation (3D animation), and animation is generated by the three-dimensional model following the movement of the bone while deforming. . When creating an animation of a human body, joints 23 are defined in the same way as for the human body, and bones 22 are connected to each other by joints 23, so that the bones can be bent or rotated at the joints 23.

図5(a)に示す例では、関連付け部113は、衣服モデル10において、首、右手首、左手首、腰、右脚及び左脚部分に付与された調整点を、人体モデル21における、首、右手首、左手首、腰、右脚及び左脚部分に対応するボーンに関連付ける。また、図5(b)に示す例では、関連付け部113は、衣服モデル10′において、首、右袖口、左袖口、及び腰部分に付与された調整点を、人体モデル21における、首、右肘、左肘、及び腰部分に対応するボーンに関連付ける。ここで、「関連付ける」とは、調整点とボーンの位置とが一致するように設定することを指してよい。これにより、ボーンの動きに調整点が追随して動くことになる。 In the example shown in FIG. 5A, the association unit 113 uses the adjustment points given to the neck, right wrist, left wrist, waist, right leg, and left leg portions in the clothing model 10 to , to the bones corresponding to the right wrist, left wrist, waist, right leg, and left leg. Furthermore, in the example shown in FIG. 5B, the association unit 113 uses the adjustment points given to the neck, right cuff, left cuff, and waist in the clothing model 10' to the neck, right elbow, and other points in the human body model 21. , the left elbow, and the bones corresponding to the waist. Here, "associating" may refer to setting the adjustment points and the bone positions so that they match. This causes the adjustment point to move following the movement of the bone.

シミュレーション部114は、衣服モデル10を着用した人体モデル21をモーションデータに基づいて動作させた場合の、衣服モデル10の動きをシミュレーションする(ステップS13)。モーションデータは、人体モデル21の連続的な動作を定義するデータであってよい。衣服モデル10の動きのシミュレーションは、布(クロス)に作用する物理法則に関する物理演算である、いわゆるクロスシミュレーションであってよい。 The simulation unit 114 simulates the movement of the clothing model 10 when the human body model 21 wearing the clothing model 10 is moved based on the motion data (step S13). The motion data may be data that defines continuous motion of the human body model 21. The simulation of the movement of the clothing model 10 may be a so-called cloth simulation, which is a physical calculation related to physical laws that act on cloth.

図6のフローチャートを用いて、本発明の一実施形態に係るサーバ100の処理を引き続き説明する。シミュレーション部114は、人体モデル21が、衣服の撮影時の形状である初期形状の衣服モデルにおける各調整点の位置に、当初各調整点に関連付けられたボーンを位置づけた初期姿勢にある状態から、シミュレーションを開始させる(ステップS21)。このことを、図4,5を用いて説明する。 Processing of the server 100 according to an embodiment of the present invention will be continued with reference to the flowchart of FIG. 6 . The simulation unit 114 starts from a state in which the human body model 21 is in an initial posture in which bones associated with each adjustment point are initially positioned at the position of each adjustment point in the clothing model of the initial shape that is the shape at the time the clothing was photographed. A simulation is started (step S21). This will be explained using FIGS. 4 and 5.

図5の衣服モデル10は初期形状であって、シミュレーション部114は、図5の初期形状にある衣服モデル10の調整点と、当該調整点に関連付けられた人体モデル21のボーンとが一致するように、人体モデル21の姿勢を変形してよい。ここで、「変形」とは、人体モデル21の、腕や肩幅、座高といったパーツの長さを変更することが含まれてよい。また、シミュレーション部114は、図5に示す初期形状にある衣服モデル10において、肩の角度θを、次の式で算出する。ここで、肩の角度θは、衣服モデル10の初期形状における、衣服の身頃に対する袖の開き角であってよい。 The clothing model 10 in FIG. 5 has an initial shape, and the simulation unit 114 makes sure that the adjustment points of the clothing model 10 in the initial shape of FIG. 5 match the bones of the human body model 21 associated with the adjustment points. Additionally, the posture of the human body model 21 may be changed. Here, "transformation" may include changing the lengths of parts of the human body model 21, such as the arms, shoulder width, and sitting height. Further, the simulation unit 114 calculates the shoulder angle θ in the clothing model 10 in the initial shape shown in FIG. 5 using the following equation. Here, the shoulder angle θ may be the opening angle of the sleeve with respect to the body of the garment in the initial shape of the garment model 10.

なお、上の式において、αは首と手首との間のベクトル、βは首と腰との間のベクトルである。 Note that in the above equation, α is a vector between the neck and wrist, and β is a vector between the neck and waist.

シミュレーション部114は、人体モデル21の腕の位置を、胴体からの開き角がθとなる位置(初期姿勢)に変形してから、人体モデル21に衣服モデル10を着用させた状態で、クロスシミュレーションを開始してよい。なお、シミュレーション部114は、モーションデータに基づき、人体モデル21を仮想的な面上で動作させ、衣服モデル10に含まれる、衣服の素材に応じた重みデータに応じたシミュレーションを行う(ステップS22)。例えば、シミュレーション部114は、図4(c)に示すように、人体モデル21が仮想空間における地面を歩行した場合の、衣服モデルの時間変化をシミュレーションしてよい。このとき、シミュレーション部114は、布の種類(シルク、デニム、麻素材等)に応じて衣服のポリゴンメッシュに設定された重みに基づいて、クロスシミュレーションを行う。 The simulation unit 114 transforms the position of the arm of the human body model 21 to a position where the opening angle from the torso is θ (initial posture), and then performs a cross simulation with the human body model 21 wearing the clothing model 10. You may start. Note that the simulation unit 114 moves the human body model 21 on a virtual surface based on the motion data, and performs a simulation according to the weight data according to the material of the clothing included in the clothing model 10 (step S22). . For example, as shown in FIG. 4C, the simulation unit 114 may simulate changes in the clothing model over time when the human body model 21 walks on the ground in the virtual space. At this time, the simulation unit 114 performs a cloth simulation based on the weight set to the polygon mesh of the clothing according to the type of cloth (silk, denim, linen material, etc.).

シミュレーション部114は、人体モデル21がモーションデータに基づく動作を行っている間に、人体モデル21に着用させた衣服モデル10と仮想的な面(地面)との衝突が発生したか否かを判定してよい(ステップS23)。衝突が発生したことは、衣服モデル10が人体モデル21からずれ落ちてしまったことを意味する。ステップS23でYESと判定された場合、シミュレーション部114は、衣服モデル10に設定された重みデータを変更してよい(ステップS24)。衣服モデル10のずれ落ちは、例えば、人体モデル10の肩幅と、衣服モデル10の襟ぐりの深さとの関係に応じて生じ得る。ずり落ちが生じた場合、シミュレーション部114は、衣服モデル10の重みを、ずり落ちを制御する方向に変更してよい。例えば、シミュレーション部は、衣服モデル10の重みを、部分的に重くしてもよい。すなわち、シミュレーション部114は、クロスシミュレーションにおいて一般的に設定される、重力を再現するための重みに加え、衣服モデル10において部分的に重みを変更する(重くする)ことにより、ずり落ちの発生を防止してよい。なお、衣服モデル10において重みを変更する部分は、一例として、肩部分、襟部分等であってよいが、これらに限定されない。また、重みは軽くされてもよい。シミュレーション部114は、ステップS24で変更された重みデータを用いて、ステップS22のクロスシミュレーションを再度実行してよい。 The simulation unit 114 determines whether or not a collision occurs between the clothing model 10 worn by the human body model 21 and a virtual surface (ground) while the human body model 21 is performing a motion based on the motion data. (Step S23). The occurrence of a collision means that the clothing model 10 has slipped off the human body model 21. If the determination in step S23 is YES, the simulation unit 114 may change the weight data set for the clothing model 10 (step S24). The clothing model 10 may slip down depending on, for example, the relationship between the shoulder width of the human body model 10 and the depth of the neckline of the clothing model 10. If slip-off occurs, the simulation unit 114 may change the weight of the clothing model 10 in a direction that controls the slip-off. For example, the simulation unit may partially increase the weight of the clothing model 10. That is, in addition to the weights for reproducing gravity, which are generally set in the cloth simulation, the simulation unit 114 partially changes (makes heavier) the weights in the clothing model 10 to prevent the occurrence of shedding. May be prevented. Note that the portions of the clothing model 10 whose weights are changed may be, for example, shoulder portions, collar portions, etc., but are not limited thereto. Also, the weight may be reduced. The simulation unit 114 may perform the cross simulation in step S22 again using the weight data changed in step S24.

シミュレーション中に、地面と衣服モデル10との衝突が発生せず(ステップS23でNO)、モーションデータに基づく人体モデル21の動作が完了(すなわち、シミュレーションが成功)した場合、シミュレーション部114は、衝突の発生なくモーションデータに基づく動作が完了した場合の重みデータによる衣服モデル10の動きで、衣服モデル10を着用した人体モデル21の、モーションデータに基づくアニメーションを表示させるアニメーションデータを、人体モデル21と関連付けて、データベースサーバ400に記憶させる(ステップS25)。アニメーションデータには、衣服モデル10を着用させた状態で人体モデル21を歩行させた際の、衣服モデル10のポリゴンメッシュの時間変化(衣服モデル10の形状の時間変化)が含まれてよい。 During the simulation, if no collision occurs between the ground and the clothing model 10 (NO in step S23) and the movement of the human body model 21 based on the motion data is completed (that is, the simulation is successful), the simulation unit 114 determines whether the collision occurs. The animation data for displaying the animation based on the motion data of the human body model 21 wearing the clothing model 10 with the movement of the clothing model 10 according to the weight data when the motion based on the motion data is completed without occurrence of The information is stored in the database server 400 in association with each other (step S25). The animation data may include temporal changes in the polygon mesh of the clothing model 10 (temporal changes in the shape of the clothing model 10) when the human body model 21 is made to walk while wearing the clothing model 10.

シミュレーション部114は、複数のモーションデータ、複数の人体モデル、および複数の衣服モデルによる複数の組み合わせについて、上述したシミュレーションを行ってよい。そして、シミュレーションが成功した際のアニメーションデータを、データベースサーバ400に記憶させてよい。すなわち、データベースサーバ400は、複数のモーションデータ、複数の人体モデル、および複数の衣服モデルによる複数の組み合わせについて、それぞれ前記アニメーションデータを記憶してよく、図7に、データベースサーバ400に格納されるアニメーションデータテーブルの一例を示す。なお、図は一例であって、データベースサーバ400に格納されるデータはこれ以下でもこれ以上であってもよく、また、データ形式は図示したものに限定されない。 The simulation unit 114 may perform the above-described simulation for a plurality of combinations of a plurality of motion data, a plurality of human body models, and a plurality of clothing models. Then, animation data when the simulation is successful may be stored in the database server 400. That is, the database server 400 may store the animation data for each of a plurality of combinations of a plurality of motion data, a plurality of human body models, and a plurality of clothing models. An example of a data table is shown. Note that the figure is an example, and the data stored in the database server 400 may be smaller or larger than this, and the data format is not limited to what is shown in the figure.

アニメーションデータテーブルTB10には、各人体モデルを識別する識別情報(図の例では、「avatar_X」、「avatar_Y」、「avatar_Z」)ごとに、複数の衣服モデルの識別情報(cloth_1、cloth_2、cloth_3)、モーションデータの識別情報(motion_1、motion_2)が関連付けられたアニメーションデータが、アニメーションデータの識別情報(ID:Identifier)で識別可能に格納されている。例えば、アニメーションID「animation_X11」で識別されるアニメーションデータは、人体モデル「avatar_X」が、衣服モデル「cloth_1」を着用し、モーションデータ「motion_1」の動きをした場合の、衣服モデルの形状の時間変化を示す。また、アニメーションID「animation_X22」で識別されるアニメーションデータは、人体モデル「avatar_X」が、衣服モデル「cloth_2」を着用し、モーションデータ「motion_2」の動きをした場合の、衣服モデルの形状の時間変化を示す。 Animation data table TB10 includes identification information for multiple clothing models (cloth_1, cloth_2, cloth_3) for each identification information for identifying each human body model (in the illustrated example, "avatar_X", "avatar_Y", "avatar_Z"). , animation data associated with motion data identification information (motion_1, motion_2) are stored such that they can be identified by the animation data identification information (ID: Identifier). For example, the animation data identified by the animation ID "animation_X11" is the time change in the shape of the clothing model when the human body model "avatar_X" wears the clothing model "cloth_1" and moves according to the motion data "motion_1". shows. In addition, the animation data identified by the animation ID "animation_X22" is the temporal change in the shape of the clothing model when the human body model "avatar_X" wears the clothing model "cloth_2" and moves according to the motion data "motion_2". shows.

ユーザ端末200は、ユーザから、アニメーションを表示させたい人体モデル、衣服、動作の選択操作を受け付け、アニメーションのリクエストとして、サーバ100へ送信することができる。サーバ100の出力部115は、データベースサーバ400から、リクエストに応じたアニメーションデータを選択し、通信部120を介してユーザ端末200へ出力させてよい。ユーザ端末200の表示部230は、サーバ100から受信したアニメーションデータに基づき、図4(c)に示すような、アバター21に着用させた衣服が、アバター21の歩行に合わせて動くアニメーションを表示することができる。 The user terminal 200 can receive from the user an operation to select a human body model, clothing, or motion for which an animation is to be displayed, and can transmit the selection operation to the server 100 as an animation request. The output unit 115 of the server 100 may select animation data according to the request from the database server 400 and output it to the user terminal 200 via the communication unit 120. Based on the animation data received from the server 100, the display unit 230 of the user terminal 200 displays an animation in which the clothes worn by the avatar 21 move in accordance with the walking of the avatar 21, as shown in FIG. 4(c). be able to.

このように、本発明の一実施形態によれば、フォトグラメトリによって実衣服の三次元データである衣服データを生成し、人体モデルの動きに合わせて衣服が動く様子をアニメーションで再現することができる。この際、衣服データに人体モデルの形状を合わせてシミュレーションを開始することで、衣服が人体モデルからずり落ちる現象が発生する可能性を低減し、クロスシミュレーションが成功する確率を向上させることができる。 As described above, according to an embodiment of the present invention, it is possible to generate clothing data, which is three-dimensional data of real clothing, using photogrammetry, and to reproduce in animation how the clothing moves in accordance with the movement of a human body model. can. At this time, by starting the simulation by matching the shape of the human body model to the clothing data, it is possible to reduce the possibility that the clothing will fall off the human body model and improve the probability that the cross simulation will be successful.

なお、本発明の一実施形態によれば、学習部116は、シミュレーション部114によって実行されたシミュレーションにおける、重みデータを含む衣服モデル、調整点、人体モデル、及びモーションデータに関する条件を入力、当該条件によるシミュレーション結果を出力とする機械学習によって、所定の衣服モデルに対する調整点及び重みデータを出力する学習モデルを生成してもよい。 According to an embodiment of the present invention, the learning unit 116 inputs conditions related to the clothing model including weight data, adjustment points, human body model, and motion data in the simulation executed by the simulation unit 114, A learning model that outputs adjustment points and weight data for a predetermined clothing model may be generated by machine learning that outputs simulation results.

これにより、シミュレーションが失敗する確率を減らし、演算負荷を低減させることができる。 This reduces the probability that the simulation will fail and reduces the computational load.

<衣服モデルの展示>
上述のように、出願人は、希少性の高いヴィンテージ服を多数コレクションしており、それらの衣服を展示する仮想空間上の博物館(デジタルミュージアム)を提供している。図8は、ユーザ端末200に表示されるデジタルミュージアムの一例である。図8に示すように、デジタルミュージアム40は、衣服モデル41を仮想空間上に複数配置したものであって、ユーザは、アバターを介してデジタルミュージアムを訪問することが可能であってよい。すなわち、サーバ100は、図示しない仮想空間生成部をさらに備え、衣服モデルが配置された仮想空間を表示させる表示情報を生成してよい。なお、ユーザのアバターによって衣服モデル41が選択されたことをトリガとして、ユーザ端末200において、選択された衣服モデルについての上述したアニメーションが開始されてもよい。
<Display of clothing models>
As mentioned above, the applicant has a large collection of highly rare vintage clothing, and provides a virtual museum (digital museum) that displays these clothing items. FIG. 8 is an example of a digital museum displayed on the user terminal 200. As shown in FIG. 8, the digital museum 40 has a plurality of clothing models 41 arranged in a virtual space, and the user may be able to visit the digital museum via an avatar. That is, the server 100 may further include a virtual space generating section (not shown), and may generate display information for displaying a virtual space in which clothing models are arranged. Note that the above-described animation for the selected clothing model may be started on the user terminal 200 by using the selection of the clothing model 41 by the user's avatar as a trigger.

なお、サーバ100の受付部117は、仮想空間(デジタルミュージアム)40における衣服モデル41の配置に関する配置指示を、仮想空間の複数の管理ユーザから受け付けてもよい。すなわち、サーバ100は、複数の管理ユーザのユーザ端末200からの要求に応じて、複数のユーザ端末200を、同一の仮想空間40に同時に接続させてよい。これは、複数の管理ユーザのアバターが、同一の仮想空間40内に同時に存在することを意味してよい。 Note that the reception unit 117 of the server 100 may receive placement instructions regarding the placement of the clothing models 41 in the virtual space (digital museum) 40 from a plurality of management users of the virtual space. That is, the server 100 may simultaneously connect multiple user terminals 200 to the same virtual space 40 in response to requests from the user terminals 200 of multiple management users. This may mean that avatars of multiple administrative users exist simultaneously within the same virtual space 40.

本発明の一実施形態において、複数の衣服モデル41を表示するためのデータは、例えばデータベースサーバ400に格納され、管理ユーザは、データベースサーバ400にアクセスして、衣服モデル41を仮想空間40に配置してよい。なお、「仮想空間に配置する」とは、仮想空間に対して設定している座標系に対して、衣服モデル41に当該座標系における位置座標を設定することであってよい。これにより、仮想空間40内に衣服モデル41が配置されたようにユーザに視認させることができる。 In an embodiment of the present invention, data for displaying a plurality of clothing models 41 is stored, for example, in a database server 400, and an administrative user accesses the database server 400 to place clothing models 41 in the virtual space 40. You may do so. Note that "placing in a virtual space" may mean setting the position coordinates of the clothing model 41 in the coordinate system set for the virtual space. This allows the user to view the clothing model 41 as if it were placed within the virtual space 40.

仮想空間40内に配置された衣服モデル41は、管理ユーザによって操作可能(アクセス可能)であってよい。例えば、本発明の一実施形態によれば、管理ユーザのアバターは、仮想空間40内の衣服モデル41を持ち運ぶことができてよい。すなわち、サーバ100の受付部117は、管理ユーザ100のユーザ端末200において、入出力部240で入力された操作指示に応じた、衣服モデル41の配置指示を受け付ける。サーバ100の出力部115は、配置指示に応じて、管理ユーザのアバターが衣服モデル41を持ち運ぶ様子の動画像を、仮想空間40内に存在する他の管理ユーザのユーザ端末200に表示させる表示情報を、他の管理ユーザのユーザ端末200に出力してよい。なお、仮想空間40内のアバター同士は、既存の技術によるボイスチャットやテキストチャットによって、会話が可能であってよく、衣服モデル41の配置について、管理ユーザ同士で意見を交換できてよい。 The clothing model 41 placed in the virtual space 40 may be operable (accessible) by an administrative user. For example, according to one embodiment of the invention, the administrative user's avatar may be able to carry a clothing model 41 within the virtual space 40. That is, the receiving unit 117 of the server 100 receives an instruction for arranging the clothing model 41 in response to an operation instruction inputted through the input/output unit 240 at the user terminal 200 of the management user 100 . The output unit 115 of the server 100 outputs display information for displaying a moving image of the administrative user's avatar carrying the clothing model 41 on the user terminal 200 of another administrative user existing in the virtual space 40 in accordance with the placement instruction. may be output to the user terminal 200 of another management user. Note that avatars in the virtual space 40 may be able to converse with each other through voice chat or text chat using existing technology, and management users may be able to exchange opinions regarding the arrangement of the clothing models 41.

なお、管理ユーザ間で異なる権限を付与し、データベースサーバ400にアクセスして仮想空間40内に衣服モデル41を移動可能な管理ユーザが、制限されてもよい。これにより、同じ衣服モデル41が重複することを回避することができる。 Note that different permissions may be granted to administrative users, and the administrative users who can access the database server 400 and move the clothing model 41 within the virtual space 40 may be restricted. This makes it possible to avoid duplication of the same clothing model 41.

このように、本発明の一実施形態によれば、複数ユーザによる共同作業が可能であるため、仮想空間を効率的に設計することができる。 In this way, according to one embodiment of the present invention, multiple users can work together, so it is possible to efficiently design a virtual space.

なお、仮想空間40内に配置可能なオブジェクトは、衣服モデルに限定されない。例えば、仮想空間40には、動物、魚、昆虫等の生物や、草木、花木等の植物、絵画、陶磁器、彫刻等の工芸品・美術品等が、ユーザの指示に応じて配置されてよい。 Note that objects that can be placed in the virtual space 40 are not limited to clothing models. For example, in the virtual space 40, creatures such as animals, fish, and insects, plants such as plants, flowers, and trees, and crafts and works of art such as paintings, ceramics, and sculptures may be arranged according to instructions from the user. .

本発明を諸図面や実施例に基づき説明してきたが、当業者であれば本開示に基づき種々の変形や修正を行うことが容易であることに注意されたい。従って、これらの変形や修正は本発明の範囲に含まれることに留意されたい。例えば、各構成部、各ステップ等に含まれる機能等は論理的に矛盾しないように再配置可能であり、複数の構成部やステップ等を1つに組み合わせたり、或いは分割したりすることが可能である。また、上記実施の形態に示す構成を適宜組み合わせることとしてもよい。 Although the present invention has been described based on the drawings and examples, it should be noted that those skilled in the art will be able to easily make various changes and modifications based on the present disclosure. Therefore, it should be noted that these variations and modifications are included within the scope of the present invention. For example, the functions included in each component, step, etc. can be rearranged to avoid logical contradictions, and multiple components, steps, etc. can be combined into one or divided. It is. Further, the structures shown in the above embodiments may be combined as appropriate.

例えば、上述では、シミュレーションが失敗した際に重みデータを調整する態様について説明した。しかしながら、調整するパラメータとしてはこれに限定されず、ポリゴンメッシュの大きさ、調整点を関連付けるボーンの変更等であってもよい。 For example, the above description describes how weight data is adjusted when a simulation fails. However, the parameters to be adjusted are not limited to these, and may also be changes such as the size of the polygon mesh or the bones associated with the adjustment points.

また、上述では、人体モデル、衣服モデル及びモーションデータの組み合わせに対するアニメーションをあらかじめ記憶しておき、ユーザの選択に応じてアニメーションデータが出力される態様について説明した。しかしながら、ユーザ自身の人体モデル(ユーザアバター)を生成し、ユーザアバターに対して衣服モデルを着用させた場合のクロスシミュレーションが行われてもよい。 Further, in the above description, a mode has been described in which animations for combinations of a human body model, a clothing model, and motion data are stored in advance, and the animation data is output in accordance with the user's selection. However, a cross simulation may be performed in which a human body model (user avatar) of the user is generated and the user avatar is made to wear a clothing model.

本開示の各実施形態のプログラムは、情報処理装置に読み取り可能な記憶媒体に記憶された状態で提供されてもよい。記憶媒体は、「一時的でない有形の媒体」に、プログラムを記憶可能である。プログラムは、例えば、ソフトウェアプログラムや制御プログラムを含む。サーバの各機能部をソフトウェアにより実現する場合、サーバは、プロセッサがメモリ上にロードされたプログラムを実行することにより、生成部111、付与部112、関連付け部113、シミュレーション部114、出力部115、学習部116及び受付部117として機能する。 The program of each embodiment of the present disclosure may be provided in a state stored in a storage medium readable by an information processing device. The storage medium is a "non-temporary tangible medium" that can store a program. Programs include, for example, software programs and control programs. When each functional part of the server is realized by software, the server has a generation part 111, a provision part 112, an association part 113, a simulation part 114, an output part 115, It functions as a learning section 116 and a reception section 117.

記憶媒体は適切な場合、1つ又は複数の半導体ベースの、又は他の集積回路(IC)(例えば、フィールド・プログラマブル・ゲート・アレイ(FPGA)、特定用途向けIC(ASIC)等)、ハード・ディスク・ドライブ(HDD)、ハイブリッド・ハード・ドライブ(HHD)、光ディスク、光ディスクドライブ(ODD)、光磁気ディスク、光磁気ドライブ、フロッピィ・ディスケット、フロッピィ・ディスク・ドライブ(FDD)、磁気テープ、固体ドライブ(SSD)、RAMドライブ、セキュア・デジタル・カードもしくはドライブ、任意の他の適切な記憶媒体、又はこれらの2つ以上の適切な組合せを含むことができる。記憶媒体は、適切な場合、揮発性、不揮発性、又は揮発性と不揮発性の組合せでよい。 The storage medium may, where appropriate, include one or more semiconductor-based or other integrated circuits (ICs) (e.g., field programmable gate arrays (FPGAs), application specific integrated circuits (ASICs), etc.), hard drives, etc. Disk drive (HDD), hybrid hard drive (HHD), optical disk, optical disk drive (ODD), magneto-optical disk, magneto-optical drive, floppy diskette, floppy disk drive (FDD), magnetic tape, solid-state drive (SSD), a RAM drive, a secure digital card or drive, any other suitable storage medium, or a suitable combination of two or more thereof. Storage media may be volatile, non-volatile, or a combination of volatile and non-volatile, where appropriate.

また、本開示のプログラムは、当該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して、サーバに提供されてもよい。 Further, the program of the present disclosure may be provided to a server via any transmission medium (communication network, broadcast wave, etc.) that can transmit the program.

また、本開示の各実施形態は、プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。なお、本開示のプログラムは、例えば、JavaScript(登録商標)、Python等のスクリプト言語、C言語、Go言語、Swift,Koltin、Java(登録商標)等を用いて実装されてよい。 Each embodiment of the present disclosure may also be implemented in the form of a data signal embedded in a carrier wave, where the program is embodied by electronic transmission. Note that the program of the present disclosure may be implemented using, for example, a script language such as JavaScript (registered trademark) or Python, C language, Go language, Swift, Koltin, Java (registered trademark), or the like.

100 サーバ(情報処理装置)
110 制御部
111 生成部
112 付与部
113 関連付け部
114 シミュレーション部
115 出力部
116 学習部
117 受付部
120 通信部
130 入出力部
170 記憶部
200 ユーザ端末(通信装置)
210 制御部
220 通信部
230 表示部
240 入出力部
270 記憶部
400 データベースサーバ
500 ネットワーク
600 情報処理システム
10,10′ 衣服モデル
21 人体モデル
22 ボーン
23 関節
M10~M15,M20~M23 調整点
40 仮想空間
41 衣服モデル
100 Server (information processing device)
110 Control unit 111 Generation unit 112 Addition unit 113 Association unit 114 Simulation unit 115 Output unit 116 Learning unit 117 Reception unit 120 Communication unit 130 Input/output unit 170 Storage unit 200 User terminal (communication device)
210 Control unit 220 Communication unit 230 Display unit 240 Input/output unit 270 Storage unit 400 Database server 500 Network 600 Information processing system 10, 10' Clothing model 21 Human body model 22 Bone 23 Joint M10 to M15, M20 to M23 Adjustment point 40 Virtual space 41 Clothing model

Claims (8)

衣服を複数方向から撮影した複数の画像に基づいて、三次元の衣服モデルを生成する生成部と、
前記衣服モデルの所定の箇所に調整点を付与する付与部と、
前記衣服モデルを着用させる三次元の人体モデルに設定されたボーンのうち、前記衣服モデルの所定の箇所に対応するボーンと、前記衣服モデルの調整点とを関連付ける関連付け部と、
前記衣服モデルを着用した前記人体モデルを、前記人体モデルの連続的な動作を定義するモーションデータに基づいて動作させた場合の、前記衣服モデルの動きをシミュレーションするシミュレーション部と、を備え、
前記シミュレーション部は、前記人体モデルが、前記衣服の撮影時の形状である初期形状の前記衣服モデルにおける各調整点の位置に、当該各調整点に関連付けられたボーンを位置づけた初期姿勢にある状態から、前記シミュレーションを開始させ、前記モーションデータに基づき、前記人体モデルを仮想的な面上で動作させ、前記衣服モデルに含まれる、前記衣服の素材に応じた重みデータに応じた前記シミュレーションにおいて、前記人体モデルに着用させた前記衣服モデルと前記仮想的な面との衝突が発生するか否かを判定し、衝突の発生なく前記モーションデータに基づく前記動作が完了するまで、前記重みデータを変更しながら前記初期姿勢からのシミュレーションを繰り返し実行する、
情報処理システム。
a generation unit that generates a three-dimensional clothing model based on multiple images of clothing taken from multiple directions;
an assigning unit that assigns adjustment points to predetermined locations on the clothing model;
an association unit that associates a bone corresponding to a predetermined location of the clothing model with an adjustment point of the clothing model among bones set on a three-dimensional human body model on which the clothing model is worn;
a simulation unit that simulates the movement of the clothing model when the human body model wearing the clothing model is operated based on motion data that defines continuous movements of the human body model;
The simulation unit is configured to perform a state in which the human body model is in an initial posture in which a bone associated with each adjustment point is positioned at a position of each adjustment point in the clothing model having an initial shape that is the shape at the time the clothing was photographed. starting the simulation, causing the human body model to move on a virtual surface based on the motion data, and in the simulation according to weight data corresponding to the material of the clothing included in the clothing model, Determining whether or not a collision occurs between the clothing model worn by the human body model and the virtual surface, and changing the weight data until the motion based on the motion data is completed without a collision occurring. while repeatedly executing the simulation from the initial posture ,
Information processing system.
前記所定の箇所は、前記衣服モデルの初期形状における、前記衣服の身頃に対する袖の開き角の算出を可能とする、少なくとも3以上の点である、請求項1に記載の情報処理システム。 2. The information processing system according to claim 1, wherein the predetermined points are at least three points in the initial shape of the clothing model that enable calculation of the opening angle of the sleeve with respect to the body of the clothing. 前記衝突の発生なく前記モーションデータに基づく動作が完了した場合の重みデータによる前記衣服モデルの動きで、前記衣服モデルを着用した前記人体モデルの前記モーションデータに基づくアニメーションを表示させるアニメーションデータを、前記人体モデルと関連付けて記憶する記憶部をさらに備え、
前記記憶部は、複数のモーションデータ、複数の人体モデル、および複数の衣服モデルによる複数の組み合わせについて、それぞれ前記アニメーションデータを記憶する、請求項に記載の情報処理システム。
the animation data for displaying an animation based on the motion data of the human body model wearing the clothing model with the movement of the clothing model according to the weight data when the motion based on the motion data is completed without the occurrence of a collision; It further includes a memory unit that stores information in association with the human body model.
The information processing system according to claim 1 , wherein the storage unit stores the animation data for each of a plurality of combinations of a plurality of motion data, a plurality of human body models, and a plurality of clothing models.
前記シミュレーション部によって実行されたシミュレーションにおける、重みデータを含む衣服モデル、調整点、人体モデル、及びモーションデータに関する条件を入力、前記条件によるシミュレーション結果を出力とする機械学習によって、所定の衣服モデルに対する調整点及び重みデータを出力する学習モデルを生成する学習部をさらに備える、請求項に記載の情報処理システム。 In the simulation executed by the simulation unit, conditions regarding the clothing model including weight data, adjustment points, human body model, and motion data are input, and the simulation results based on the conditions are output. Adjustment is made to a predetermined clothing model by machine learning. The information processing system according to claim 3 , further comprising a learning section that generates a learning model that outputs point and weight data. 複数の前記衣服モデルが配置された仮想空間を生成する仮想空間生成部と、
記仮想空間をユーザの表示装置に表示させる表示データを、前記表示装置に出力する出力部と、をさらに備え、
前記出力部は、前記ユーザによる、前記仮想空間における前記衣服モデルの選択操作を検出したことに応じて、前記ユーザによって選択された前記衣服モデルを着用した人体モデルによるアニメーションを表示させるアニメーションデータを、前記表示装置に送信する、請求項に記載の情報処理システム。
a virtual space generation unit that generates a virtual space in which a plurality of the clothing models are arranged;
further comprising an output unit that outputs display data for displaying the virtual space on a user's display device to the display device,
The output unit, in response to detecting a selection operation of the clothing model in the virtual space by the user, generates animation data for displaying an animation of a human body model wearing the clothing model selected by the user. The information processing system according to claim 4 , wherein the information processing system transmits the information to the display device.
前記仮想空間における前記衣服モデルの配置に関する配置指示を、前記仮想空間の複数の管理ユーザから受け付ける受付部、をさらに備える、請求項に記載の情報処理システム。 The information processing system according to claim 5 , further comprising a reception unit that receives placement instructions regarding placement of the clothing model in the virtual space from a plurality of management users of the virtual space. 情報処理装置が実行する情報処理方法であって、
衣服を複数方向から撮影した複数の画像に基づいて、三次元の衣服モデルを生成するステップと、
前記衣服モデルの所定の箇所に調整点を付与するステップと、
前記衣服モデルを着用させる三次元の人体モデルに設定されたボーンのうち、前記衣服モデルの所定の箇所に対応するボーンと、前記衣服モデルの調整点とを関連付けるステップと、
前記衣服モデルを着用した前記人体モデルを、前記人体モデルの連続的な動作を定義するモーションデータに基づいて動作させた場合の、前記衣服モデルの動きをシミュレーションするステップと、を含み、
前記シミュレーションするステップは、前記人体モデルが、前記衣服の撮影時の形状である初期形状の前記衣服モデルにおける各調整点の位置に、当該各調整点に関連付けられたボーンを位置づけた初期姿勢にある状態から、前記シミュレーションを開始させ、前記モーションデータに基づき、前記人体モデルを仮想的な面上で動作させ、前記衣服モデルに含まれる、前記衣服の素材に応じた重みデータに応じた前記シミュレーションにおいて、前記人体モデルに着用させた前記衣服モデルと前記仮想的な面との衝突が発生するか否かを判定し、衝突の発生なく前記モーションデータに基づく前記動作が完了するまで、前記重みデータを変更しながら前記初期姿勢からのシミュレーションを繰り返し実行する、情報処理方法。
An information processing method executed by an information processing device, the method comprising:
generating a three-dimensional clothing model based on a plurality of images taken of the clothing from multiple directions;
adding adjustment points to predetermined locations of the clothing model;
a step of associating a bone corresponding to a predetermined location of the clothing model among bones set on a three-dimensional human body model on which the clothing model is to be worn with an adjustment point of the clothing model;
simulating the movement of the clothing model when the human body model wearing the clothing model is operated based on motion data that defines continuous movements of the human body model;
In the step of simulating, the human body model is in an initial posture in which a bone associated with each adjustment point is positioned at a position of each adjustment point in the clothing model having an initial shape that is the shape at the time the clothing was photographed. start the simulation from the state , move the human body model on a virtual surface based on the motion data, and perform the simulation according to weight data according to the material of the clothing included in the clothing model. , determine whether a collision occurs between the clothing model worn by the human body model and the virtual surface, and update the weight data until the motion based on the motion data is completed without collision. An information processing method that repeatedly executes a simulation from the initial posture while changing the initial posture .
情報処理装置に、
衣服を複数方向から撮影した複数の画像に基づいて、三次元の衣服モデルを生成する機能と、
前記衣服モデルの所定の箇所に調整点を付与する機能と、
前記衣服モデルを着用させる三次元の人体モデルに設定されたボーンのうち、前記衣服モデルの所定の箇所に対応するボーンと、前記衣服モデルの調整点とを関連付ける機能と、
前記衣服モデルを着用した前記人体モデルを、前記人体モデルの連続的な動作を定義するモーションデータに基づいて動作させた場合の、前記衣服モデルの動きをシミュレーションする機能と、を実現させ、
前記シミュレーションする機能は、前記人体モデルが、前記衣服の撮影時の形状である初期形状の前記衣服モデルにおける各調整点の位置に、当該各調整点に関連付けられたボーンを位置づけた初期姿勢にある状態から、前記シミュレーションを開始させ、前記モーションデータに基づき、前記人体モデルを仮想的な面上で動作させ、前記衣服モデルに含まれる、前記衣服の素材に応じた重みデータに応じた前記シミュレーションにおいて、前記人体モデルに着用させた前記衣服モデルと前記仮想的な面との衝突が発生するか否かを判定し、衝突の発生なく前記モーションデータに基づく前記動作が完了するまで、前記重みデータを変更しながら前記初期姿勢からのシミュレーションを繰り返し実行する、情報処理プログラム。
In the information processing device,
A function that generates a three-dimensional clothing model based on multiple images of clothing taken from multiple directions,
a function of adding adjustment points to predetermined locations of the clothing model;
A function of associating adjustment points of the clothing model with bones corresponding to predetermined locations of the clothing model among bones set on a three-dimensional human body model on which the clothing model is worn;
realizing a function of simulating the movement of the clothing model when the human body model wearing the clothing model is operated based on motion data that defines continuous movements of the human body model;
The simulation function is such that the human body model is in an initial posture in which a bone associated with each adjustment point is positioned at a position of each adjustment point in the clothing model having an initial shape that is the shape at the time the clothing was photographed. start the simulation from the state , move the human body model on a virtual surface based on the motion data, and perform the simulation according to weight data according to the material of the clothing included in the clothing model. , determine whether a collision occurs between the clothing model worn by the human body model and the virtual surface, and update the weight data until the motion based on the motion data is completed without collision. An information processing program that repeatedly executes a simulation from the initial posture while changing the initial posture .
JP2023113355A 2023-07-10 2023-07-10 Information processing system, information processing method, and information processing program Active JP7418677B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023113355A JP7418677B1 (en) 2023-07-10 2023-07-10 Information processing system, information processing method, and information processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2023113355A JP7418677B1 (en) 2023-07-10 2023-07-10 Information processing system, information processing method, and information processing program

Publications (1)

Publication Number Publication Date
JP7418677B1 true JP7418677B1 (en) 2024-01-22

Family

ID=89616104

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023113355A Active JP7418677B1 (en) 2023-07-10 2023-07-10 Information processing system, information processing method, and information processing program

Country Status (1)

Country Link
JP (1) JP7418677B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003103047A (en) 2001-09-28 2003-04-08 Namco Ltd Image generation system and method and program for image generation
JP6804125B1 (en) 2020-07-27 2020-12-23 株式会社Vrc 3D data system and 3D data generation method
JP7039094B1 (en) 2021-05-20 2022-03-22 株式会社Vrc Information processing equipment, information processing methods, and programs
JP2022088007A (en) 2020-12-02 2022-06-14 株式会社コーエーテクモゲームス Image generating program, recording medium, and image generating method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003103047A (en) 2001-09-28 2003-04-08 Namco Ltd Image generation system and method and program for image generation
JP6804125B1 (en) 2020-07-27 2020-12-23 株式会社Vrc 3D data system and 3D data generation method
JP2022088007A (en) 2020-12-02 2022-06-14 株式会社コーエーテクモゲームス Image generating program, recording medium, and image generating method
JP7039094B1 (en) 2021-05-20 2022-03-22 株式会社Vrc Information processing equipment, information processing methods, and programs

Similar Documents

Publication Publication Date Title
US7663648B1 (en) System and method for displaying selected garments on a computer-simulated mannequin
KR101911133B1 (en) Avatar construction using depth camera
CN103106604B (en) Based on the 3D virtual fit method of body sense technology
US9811854B2 (en) 3-D immersion technology in a virtual store
CN111787242B (en) Method and apparatus for virtual fitting
CN106355629A (en) Virtual image configuration method and device
US20130173226A1 (en) Garment modeling simulation system and process
Gültepe et al. Real-time virtual fitting with body measurement and motion smoothing
US20130170715A1 (en) Garment modeling simulation system and process
WO2019154339A1 (en) Method and device for generating special effect program file package, method and device for generating special effect, and electronic device
CN109671141B (en) Image rendering method and device, storage medium and electronic device
JP2015184875A (en) Data processing device and data processing program
CN113610612B (en) 3D virtual fitting method, system and storage medium
JP2019204476A (en) Image creation device, image creation method, and program
JP2011113135A (en) Virtual character generation device and virtual character generation program
US11880947B2 (en) Real-time upper-body garment exchange
US20170193677A1 (en) Apparatus and method for reconstructing experience items
KR101158453B1 (en) Apparatus and Method for coordinating a simulated clothes with the three dimensional effect at plane using the two dimensions image data
JP7418677B1 (en) Information processing system, information processing method, and information processing program
Ami-Williams et al. Digitizing traditional dances under extreme clothing: The case study of eyo
WO2018182938A1 (en) Method and system for wireless ultra-low footprint body scanning
CN111861822A (en) Patient model construction method, equipment and medical education system
JP2004213481A (en) Image processor and processing method
Ileperuma et al. An enhanced virtual fitting room using deep neural networks
KR20230156138A (en) Layered clothing and/or layers of clothing that fit the body underneath.

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230714

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230714

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230808

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230904

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231010

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231107

R150 Certificate of patent or registration of utility model

Ref document number: 7418677

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150