JP2018148525A - Virtual three-dimensional object generation device - Google Patents

Virtual three-dimensional object generation device Download PDF

Info

Publication number
JP2018148525A
JP2018148525A JP2017044832A JP2017044832A JP2018148525A JP 2018148525 A JP2018148525 A JP 2018148525A JP 2017044832 A JP2017044832 A JP 2017044832A JP 2017044832 A JP2017044832 A JP 2017044832A JP 2018148525 A JP2018148525 A JP 2018148525A
Authority
JP
Japan
Prior art keywords
subject
dimensional object
virtual
information
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017044832A
Other languages
Japanese (ja)
Inventor
芳貴 清水
Yoshitaka Shimizu
芳貴 清水
勉 足立
Tsutomu Adachi
勉 足立
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ADC Technology Inc
Original Assignee
ADC Technology Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ADC Technology Inc filed Critical ADC Technology Inc
Priority to JP2017044832A priority Critical patent/JP2018148525A/en
Publication of JP2018148525A publication Critical patent/JP2018148525A/en
Pending legal-status Critical Current

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technique for generating a virtual three-dimensional object for three-dimensionally displaying a subject, which can easily recognize a size of the subject.SOLUTION: A virtual three-dimensional object generation device is a device configured to generate a virtual three-dimensional object for three-dimensionally displaying a subject. The virtual three-dimensional object generation device comprises: an image acquisition part; a size acquisition part; and a subject generation part. The image acquisition part is configured to acquire a plurality of picked-up images obtained by imaging the subject from a plurality of different angles in S110. The size acquisition part is configured to acquire size information for specifying a size of the subject in S130. The subject generation part is configured to generate the virtual three-dimensional object of the subject to which the size of the subject is made to correspond, on the basis of the plurality of picked-up images and the size information in S140 and S170.SELECTED DRAWING: Figure 2

Description

本開示は、被写体を立体的に表示させるための仮想的な立体物を生成する技術に関する。   The present disclosure relates to a technique for generating a virtual three-dimensional object for displaying a subject three-dimensionally.

下記の特許文献1には、展示物等の被写体が回転しているように表示させるなど、被写体を立体的に表示させる技術が提案されている。   Patent Document 1 below proposes a technique for displaying a subject in a three-dimensional manner, such as displaying an object such as an exhibit as if it is rotating.

特開2014−042655号公報JP 2014-042655 A

ところで、特許文献1の技術のように、一般的に被写体を画像で表示させる場合、被写体の大きさが認識しにくい。本開示の一側面は、被写体を立体的に表示させるための仮想的な立体物を生成する技術において、被写体の大きさを認識しやすく構成されることが望ましい。   By the way, as in the technique of Patent Document 1, when a subject is generally displayed as an image, it is difficult to recognize the size of the subject. One aspect of the present disclosure is preferably configured to easily recognize the size of a subject in a technique for generating a virtual three-dimensional object for displaying a subject three-dimensionally.

本開示の一側面の仮想立体物生成装置は、被写体を立体的に表示させるための仮想的な立体物を生成するように構成された装置である。この仮想立体物生成装置は、画像取得部と、サイズ取得部と、被写体生成部と、を備える。   The virtual three-dimensional object generation device according to one aspect of the present disclosure is an apparatus configured to generate a virtual three-dimensional object for displaying a subject three-dimensionally. The virtual three-dimensional object generation device includes an image acquisition unit, a size acquisition unit, and a subject generation unit.

画像取得部は、被写体を複数の異なる角度から撮像した複数の撮像画像を取得するように構成される。サイズ取得部は、被写体のサイズを特定するためのサイズ情報を取得するように構成される。   The image acquisition unit is configured to acquire a plurality of captured images obtained by imaging the subject from a plurality of different angles. The size acquisition unit is configured to acquire size information for specifying the size of the subject.

被写体生成部は、複数の撮像画像およびサイズ情報に基づいて、被写体のサイズが対応付けられた被写体についての仮想的な立体物を生成するように構成される。
このような仮想立体物生成装置によれば、複数の撮像画像およびサイズ情報に基づいて被写体のサイズが対応付けられた被写体についての仮想的な立体物を生成するので、被写体の大きさを認識しやすくすることができる。
The subject generation unit is configured to generate a virtual three-dimensional object for a subject associated with the size of the subject based on a plurality of captured images and size information.
According to such a virtual three-dimensional object generation device, a virtual three-dimensional object is generated for a subject associated with the size of the subject based on a plurality of captured images and size information, so that the size of the subject is recognized. It can be made easier.

また、本開示の一側面の仮想立体物生成装置は、部材取得部と、被覆生成部と、を備えてもよい。部材取得部は、被写体の少なくとも一部を覆うことができる部材を表す被覆部材について、少なくとも該被覆部材の外観および寸法を含む部材情報を取得するように構成される。被覆生成部は、部材情報に基づいて被覆部材を被写体立体物の表面に沿って配置した仮想的な立体物を表す被覆立体物を生成するように構成される。   Moreover, the virtual three-dimensional object generation device according to one aspect of the present disclosure may include a member acquisition unit and a covering generation unit. The member acquisition unit is configured to acquire member information including at least the appearance and dimensions of the covering member that represents a member that can cover at least a part of the subject. The covering generation unit is configured to generate a covering solid object representing a virtual three-dimensional object in which the covering member is arranged along the surface of the subject three-dimensional object based on the member information.

このような仮想立体物生成装置によれば、被写体の少なくとも一部を被覆部材で覆った場合にどのような状態なるかを仮想的な立体物で表現することができる。
また、本開示の一側面の仮想立体物生成装置において、部材取得部は、部材情報として、被覆部材の外観および寸法に加えて、被覆部材の伸縮に関する情報を表す伸縮情報を取得し、被覆生成部は、伸縮情報を加味して被覆部材を伸縮させて被写体立体物の表面に沿って配置した被覆立体物を生成するように構成されてもよい。
According to such a virtual three-dimensional object generation device, it is possible to represent a state in which at least a part of a subject is covered with a covering member with a virtual three-dimensional object.
Further, in the virtual three-dimensional object generation device according to one aspect of the present disclosure, the member acquisition unit acquires, as member information, expansion / contraction information representing information related to expansion / contraction of the covering member, in addition to the appearance and dimensions of the covering member, The unit may be configured to generate a covered three-dimensional object arranged along the surface of the subject three-dimensional object by expanding and contracting the covering member in consideration of expansion / contraction information.

このような仮想立体物生成装置によれば、被覆部材を伸縮させて被写体立体物の表面に沿って配置した被覆立体物を生成するので、被覆部材が伸縮する場合に、伸縮を考慮した仮想的な立体物を生成することができる。   According to such a virtual three-dimensional object generation device, the covering member is expanded and contracted to generate the covering three-dimensional object arranged along the surface of the subject three-dimensional object. 3D objects can be generated.

仮想試着システム1の構成を示すブロック図である。1 is a block diagram showing a configuration of a virtual try-on system 1. FIG. 立体画像生成処理のフローチャートである。It is a flowchart of a three-dimensional image generation process. 立体画像の基となる撮像画像を得る手法を示す平面図である。It is a top view which shows the method of obtaining the captured image used as the basis of a stereo image. 立体画像を示す側面図および断面図である。It is the side view and sectional drawing which show a stereo image. 着衣画像生成処理のフローチャートである。It is a flowchart of a clothing image generation process. 部材情報の一例を示す説明図(その1)である。It is explanatory drawing (the 1) which shows an example of member information. 部材情報の一例を示す説明図(その2)である。It is explanatory drawing (the 2) which shows an example of member information. 衣服の画像と座標とを対応付ける処理を示す説明図(その1)である。It is explanatory drawing (the 1) which shows the process which matches the image of clothes, and a coordinate. 衣服の画像と座標とを対応付ける処理を示す説明図(その2)である。It is explanatory drawing (the 2) which shows the process which matches the image of clothes, and a coordinate. 着衣画像の生成する処理における位置合わせを示す説明図(その1)である。It is explanatory drawing (the 1) which shows the position alignment in the process which produces | generates a clothing image. 着衣画像の生成する処理における位置合わせを示す説明図(その2)である。It is explanatory drawing (the 2) which shows the position alignment in the process which produces | generates a clothing image. 変位画像生成処理のフローチャートである。It is a flowchart of a displacement image generation process. 変位画像を生成する際の動作の一例を示す説明図である。It is explanatory drawing which shows an example of the operation | movement at the time of producing | generating a displacement image. 端末処理のフローチャートである。It is a flowchart of a terminal process. 他の実施形態における着衣画像生成処理のフローチャートである。It is a flowchart of the clothing image generation process in other embodiment. コーディネート処理のフローチャートである。It is a flowchart of a coordination process.

以下、図面を参照しながら、本開示の実施形態を説明する。
[1.実施形態]
[1−1.構成]
図1に示す仮想試着システム1は、当該システム1の被写体である利用者についての仮想的な立体物である三次元マネキンを生成し、この三次元マネキンに仮想的な任意の衣服を試着させる機能を有する。つまり、仮想試着システム1は、被写体が衣服を着用したときの具体的なイメージを抱かせることによって、利用者による衣服の購入をサポートするシステムである。
Hereinafter, embodiments of the present disclosure will be described with reference to the drawings.
[1. Embodiment]
[1-1. Constitution]
The virtual try-on system 1 shown in FIG. 1 generates a three-dimensional mannequin that is a virtual three-dimensional object for a user who is the subject of the system 1, and causes the three-dimensional mannequin to try on a virtual arbitrary garment. Have That is, the virtual try-on system 1 is a system that supports purchase of clothes by a user by giving a specific image when the subject wears clothes.

仮想試着システム1は、サーバ10と、データベース31,32と、を備える。また、仮想試着システム1は、1または複数の端末装置40を備えてもよい。なお、図1では1の端末装置40のみを図示するが、同様の構成とされた他の端末装置40を備えてもよい。   The virtual try-on system 1 includes a server 10 and databases 31 and 32. The virtual try-on system 1 may include one or a plurality of terminal devices 40. Although only one terminal device 40 is illustrated in FIG. 1, another terminal device 40 having the same configuration may be provided.

サーバ10は、データベース31,32内のデータを読み書き可能に構成されるとともに、インターネット網5、携帯電話の基地局7、無線LANのアクセスポイント9等を介して、1または複数の端末装置40と通信可能に構成される。サーバ10のハードウェア構成は、一般的なサーバと同様とされる。   The server 10 is configured to be able to read and write data in the databases 31 and 32, and with one or a plurality of terminal devices 40 via the Internet network 5, a mobile phone base station 7, a wireless LAN access point 9, and the like. It is configured to be communicable. The hardware configuration of the server 10 is the same as that of a general server.

データベース31,32としては、商品DB31、被写体DB32とを備える。商品DB31は、多数の商品に関するデータを格納するデータベースである。商品に関するデータには、後述するように、衣服等の商品の外観、商品の各部の寸法、商品の伸縮率等の情報が含まれる。   The databases 31 and 32 include a product DB 31 and a subject DB 32. The product DB 31 is a database that stores data related to a large number of products. As will be described later, the data related to the product includes information such as the appearance of the product such as clothes, the dimensions of each part of the product, and the expansion and contraction rate of the product.

被写体DB32は、多数の被写体に関する情報を被写体毎に格納するデータベースである。被写体に関する情報については後述する。
それぞれの端末装置40は、多数の利用者がそれぞれ所持するスマートフォンやタブレット端末等の通信機器である。端末装置40は、基地局7やアクセスポイント9に接続されることによってサーバ10と通信可能に構成される。
The subject DB 32 is a database that stores information on a large number of subjects for each subject. Information on the subject will be described later.
Each terminal device 40 is a communication device such as a smartphone or a tablet terminal possessed by a large number of users. The terminal device 40 is configured to be able to communicate with the server 10 by being connected to the base station 7 and the access point 9.

サーバ10および端末装置40は、それぞれCPU11,41と、RAM、ROM、フラッシュメモリ等の半導体メモリ(以下、メモリ12,42)と、を有する周知のマイクロコンピュータを中心に構成される。サーバ10および端末装置40の各種機能は、CPU11,41が非遷移的実体的記録媒体に格納されたプログラムを実行することにより実現される。この例では、メモリ12,42が、プログラムを格納した非遷移的実体的記録媒体に該当する。   The server 10 and the terminal device 40 are mainly configured by known microcomputers having CPUs 11 and 41 and semiconductor memories (hereinafter, memories 12 and 42) such as RAM, ROM, and flash memory. Various functions of the server 10 and the terminal device 40 are realized by the CPUs 11 and 41 executing programs stored in a non-transitional physical recording medium. In this example, the memories 12 and 42 correspond to non-transitional tangible recording media storing programs.

また、このプログラムが実行されることで、プログラムに対応する方法が実行される。なお、非遷移的実体的記録媒体とは、記録媒体のうちの電磁波を除く意味である。また、サーバ10および端末装置40を構成するマイクロコンピュータの数は1つでも複数でもよい。   Also, by executing this program, a method corresponding to the program is executed. Note that the non-transitional tangible recording medium means that the electromagnetic waves in the recording medium are excluded. Further, the number of microcomputers constituting the server 10 and the terminal device 40 may be one or plural.

サーバ10は、CPU11がプログラムを実行することで実現される機能の構成として、立体画像生成部16と、着衣画像生成部17と、変位画像生成部18と、を備える。端末装置40は、CPU41がプログラムを実行することで実現される機能の構成として、表示制御部46を備える。   The server 10 includes a stereoscopic image generation unit 16, a clothing image generation unit 17, and a displacement image generation unit 18 as functional configurations realized by the CPU 11 executing the program. The terminal device 40 includes a display control unit 46 as a function configuration realized by the CPU 41 executing the program.

サーバ10および端末装置40を構成するこれらの要素を実現する手法はソフトウェアに限るものではなく、その一部または全部の要素について、1つあるいは複数のハードウェアを用いて実現してもよい。例えば、上記機能がハードウェアである電子回路によって実現される場合、その電子回路は多数の論理回路を含むデジタル回路、またはアナログ回路、あるいはこれらの組合せによって実現してもよい。   The method of realizing these elements constituting the server 10 and the terminal device 40 is not limited to software, and some or all of the elements may be realized using one or a plurality of hardware. For example, when the above function is realized by an electronic circuit that is hardware, the electronic circuit may be realized by a digital circuit including a large number of logic circuits, an analog circuit, or a combination thereof.

サーバ10において、立体画像生成部16としての機能では、後述する立体画像生成処理を実施することによってユーザデータを生成し、ユーザデータに基づいて被写体の立体画像を生成する。ユーザデータとは、被写体立体物および被写体立体座標群を表す。   In the server 10, the function as the stereoscopic image generation unit 16 generates user data by performing a stereoscopic image generation process to be described later, and generates a stereoscopic image of the subject based on the user data. The user data represents a subject solid object and a subject solid coordinate group.

被写体立体物とは、被写体を三次元で表示させるための画像データを表す。被写体立体物は、被写体の各部を直方体や円柱等で表現する場合の頂点の座標、座標間を接続するリンクの形状を示すパラメタ等を備えればよい。具体的には、被写体立体物は、三次元CADデータと同等のデータとして構成されてもよい。   The subject three-dimensional object represents image data for displaying the subject in three dimensions. The subject three-dimensional object may be provided with coordinates of vertices when each part of the subject is represented by a rectangular parallelepiped, a cylinder, or the like, a parameter indicating the shape of a link connecting the coordinates, and the like. Specifically, the subject three-dimensional object may be configured as data equivalent to three-dimensional CAD data.

被写体立体座標群とは、被写体の表面における多数の各部を座標値で表した座標群としての情報を表す。すなわち、被写体立体座標群は、頂点の座標に限らず、それらの間の部位の座標を含むデータとなる。   The subject three-dimensional coordinate group represents information as a coordinate group in which a large number of parts on the surface of the subject are represented by coordinate values. That is, the subject three-dimensional coordinate group is not limited to the coordinates of the vertices but is data including the coordinates of the parts between them.

着衣画像生成部17としての機能では、後述する着衣画像生成処理を実施することによって着衣画像を生成する。着衣画像とは、利用者が仮想的に衣服を着用した状態の画像を表す。   The function as the clothing image generation unit 17 generates a clothing image by performing a clothing image generation process described later. A clothing image represents an image in a state where a user virtually wears clothing.

変位画像生成部18としての機能では、後述する変位画像生成処理を実施することによって変位画像を生成する。変位画像とは、外部指令に応じて腕を伸縮させる等、着衣画像を変位させたときの画像を表す。   The function as the displacement image generation unit 18 generates a displacement image by performing a displacement image generation process described later. A displacement image represents an image when a clothing image is displaced, such as by extending or contracting an arm in accordance with an external command.

また、サーバ10は、通信部19をさらに備える。通信部19は、基地局7やアクセスポイント9を介した通信を行うための周知の通信モジュールとして構成される。
次に、端末装置40において、表示制御部46としての機能では、後述する端末処理を実施することによって、サーバ10とのデータのやり取りを行い、被写体に提供する表示画像を表示させる。
The server 10 further includes a communication unit 19. The communication unit 19 is configured as a known communication module for performing communication via the base station 7 or the access point 9.
Next, in the terminal device 40, the function as the display control unit 46 performs terminal processing described later, thereby exchanging data with the server 10 and displaying a display image to be provided to the subject.

また、端末装置40は、撮像部47と、表示部48と、動作検知部49と、通信部50とをさらに備える。撮像部47は、端末装置40の周囲の物体を撮像する周知の撮像装置として構成される。本実施形態では、撮像部47は被写体の画像を得るために用いられる。   The terminal device 40 further includes an imaging unit 47, a display unit 48, an operation detection unit 49, and a communication unit 50. The imaging unit 47 is configured as a known imaging device that images an object around the terminal device 40. In the present embodiment, the imaging unit 47 is used to obtain an image of a subject.

表示部48は、周知のディスプレイとして構成される。表示部48には、例えば着衣画像が表示される。動作検知部49は、端末装置40に加わる力を検知する周知のモーションセンサとして構成される。動作検知部49は、例えば、ジャイロ、加速度センサ、ヨーレートセンサ等を組み合わせて構成され、端末装置40を持った状態の被写体がどのような動きをしているかを検知するために利用される。   The display unit 48 is configured as a known display. For example, a clothing image is displayed on the display unit 48. The motion detection unit 49 is configured as a known motion sensor that detects a force applied to the terminal device 40. The motion detection unit 49 is configured by combining, for example, a gyro, an acceleration sensor, a yaw rate sensor, and the like, and is used to detect how the subject in the state with the terminal device 40 moves.

通信部50は、インターネット網5を介した通信を行うための周知の通信モジュールとして構成される。
[1−2.処理]
[1−2−1.立体画像生成処理]
サーバ10が実行する立体画像生成処理について、図2のフローチャートを用いて説明する。まず、S110で、サーバ10は、画像情報を取得する。
The communication unit 50 is configured as a known communication module for performing communication via the Internet network 5.
[1-2. processing]
[1-2-1. Stereoscopic image generation processing]
A stereoscopic image generation process executed by the server 10 will be described with reference to the flowchart of FIG. First, in S110, the server 10 acquires image information.

ここで取得される画像情報には、図3に示すように、複数の方位から端末装置40の撮像部47を用いて被写体を撮像した撮像画像が含まれる。撮像部47が複数のフレームから成る動画として撮像しながら、被写体が水平方向に1回転するような手法で撮像してもよい。   As shown in FIG. 3, the image information acquired here includes captured images obtained by capturing an image of a subject using the imaging unit 47 of the terminal device 40 from a plurality of directions. The image may be captured by a technique in which the subject rotates once in the horizontal direction while the imaging unit 47 captures a moving image including a plurality of frames.

続いて、S120で、サーバ10は、画像毎に被写体の角度を検出する。この処理では、被写体のうちの予め基準となる部位の向きから角度を検出するとよい。例えば、被写体が人物である場合、被写体の顔の向き、足先の向き、肩の向き等を勘案して、画像毎に被写体が水平方向のどの方向を向いているかを認識する。例えば、被写体の正面を基準として、被写体が時計回りに回転する角度を検出する。   Subsequently, in S120, the server 10 detects the angle of the subject for each image. In this process, the angle may be detected from the orientation of the reference portion of the subject in advance. For example, when the subject is a person, the direction of the subject in the horizontal direction is recognized for each image in consideration of the orientation of the face of the subject, the orientation of the toes, the orientation of the shoulders, and the like. For example, the angle at which the subject rotates clockwise with respect to the front of the subject is detected.

続いて、S130で、サーバ10は、複数の撮像画像のうちの少なくとも何れか1つの画像中から被写体のサイズを特定する際に用いられる基準物を抽出する。被写体のサイズとは、被写体の任意の部位における寸法を表す。被写体のサイズには、例えば、全長、全幅、周長等が該当する。   Subsequently, in S130, the server 10 extracts a reference object used when specifying the size of the subject from at least one of the plurality of captured images. The size of the subject represents a dimension at an arbitrary part of the subject. The size of the subject corresponds to, for example, the full length, the full width, the circumference, and the like.

また、基準物とは、大きさの基準となる物体を表す。基準物には、例えば、飲料缶、書籍、新聞紙等、寸法が規格化されて既知である物体が該当する。なお、この処理では、被写体と同程度の距離に存在する物体を基準物として抽出する。   The reference object represents an object serving as a reference for size. The reference object corresponds to an object whose dimensions are standardized and known, such as a beverage can, a book, and newspaper. In this process, an object existing at a distance similar to the subject is extracted as a reference object.

ただし、基準物に関する情報は画像から得る必要はない。被写体の身長、顔の長さ、両目間の距離等、被写体の寸法に関する情報を基準物として、サーバ10が別途取得してもよい。   However, it is not necessary to obtain information on the reference object from the image. The server 10 may separately acquire information on the dimensions of the subject, such as the height of the subject, the length of the face, and the distance between both eyes, as a reference object.

続いて、S140で、サーバ10は、基準物の大きさと被写体の大きさとを比較することによって被写体の各部位に長さを対応付ける。具体的には、長さが既知である基準物が画像中の縦方向および横方向においてどの程度の画素数を占めるかを算出し、方向毎に1画素あたりの長さを算出する。そして、被写体の各部位がどの程度の画素数を占めるかによって各部の寸法を得る。この際、撮像部47から被写体までの距離および撮像部47から基準物までの距離が異なる場合には、この距離の差に応じて各部の寸法を補正するとよい。   Subsequently, in S140, the server 10 associates the length with each part of the subject by comparing the size of the reference object with the size of the subject. Specifically, it calculates how many pixels the reference object having a known length occupies in the vertical and horizontal directions in the image, and calculates the length per pixel for each direction. Then, the size of each part is obtained depending on how many pixels each part of the subject occupies. At this time, when the distance from the imaging unit 47 to the subject and the distance from the imaging unit 47 to the reference object are different, the dimensions of the respective units may be corrected according to the difference in distance.

続いて、S150で、サーバ10は、被写体の立体画像を生成する。立体画像は、多数の角度にて撮像された撮像画像から被写体の部分を切り出し、各角度での外観を連続的につなぎ合わせることによって三次元の仮想的な立体物を得る。この立体物は、前述の被写体立体物に該当する。この立体物を任意の角度から見たときの画像を被写体画像とする。   Subsequently, in S150, the server 10 generates a stereoscopic image of the subject. A stereoscopic image is obtained by cutting out a portion of a subject from captured images captured at a number of angles and continuously joining the appearance at each angle to obtain a three-dimensional virtual three-dimensional object. This three-dimensional object corresponds to the subject three-dimensional object described above. An image when this three-dimensional object is viewed from an arbitrary angle is defined as a subject image.

続いて、S170で、サーバ10は、被写体立体物に座標を対応付ける。この処理では、被写体立体物の表面の座標を対応付けることによって、被写体のサイズに応じた座標が対応付けられた被写体を示す座標群を生成する。   Subsequently, in S170, the server 10 associates coordinates with the subject three-dimensional object. In this process, by associating the coordinates of the surface of the subject three-dimensional object, a coordinate group indicating the subject associated with the coordinates corresponding to the size of the subject is generated.

この座標群は、前述の被写体立体座標群に該当する。具体的には、図4に示すように、被写体立体物65に対して、例えば、鉛直方向の単位長さ(例えば、身長の1cm程度)毎に断面図を得て、断面図毎に物体の周囲の位置を示す座標を被写体立体物65の座標として対応付ける。   This coordinate group corresponds to the subject solid coordinate group described above. Specifically, as shown in FIG. 4, for the subject three-dimensional object 65, for example, a cross-sectional view is obtained for each unit length in the vertical direction (for example, about 1 cm of height), and the object is detected for each cross-sectional view. The coordinates indicating the surrounding positions are associated as the coordinates of the subject three-dimensional object 65.

図4に示す例の場合、胴体の部分の周囲、および腕や足の部分の周囲の座標が抽出される。この際、断面図において1辺の長さが1cm等の単位長さに設定された正方形を縦横に並べた網目を準備しておき、これらの正方形の辺と断面図における周囲との交点のそれぞれについて座標値を得るとよい。   In the case of the example shown in FIG. 4, the coordinates of the periphery of the body part and the periphery of the arm and foot parts are extracted. At this time, in the cross-sectional view, a mesh is prepared in which squares each having a side length of 1 cm or the like are arranged vertically and horizontally, and each of the intersections of the sides of these squares and the surroundings in the cross-sectional view is prepared. The coordinate value should be obtained for.

続いて、S180で、サーバ10は、被写体立体物および被写体立体座標群を、当該被写体に関するユーザデータとして被写体DB32に記録した後、図2の立体画像生成処理を終了する。なお、この処理の際には、首、手足、腰等の関節の位置を認識し、記録しておくとよい。関節の位置は、被写体の外観から被写体毎に特定してもよいし、多数の被写体の平均的な関節の位置を採用してもよい。   Subsequently, in S180, the server 10 records the subject three-dimensional object and the subject three-dimensional coordinate group in the subject DB 32 as user data related to the subject, and then ends the three-dimensional image generation process of FIG. In this process, it is preferable to recognize and record the positions of joints such as the neck, limbs and waist. The position of the joint may be specified for each subject from the appearance of the subject, or an average joint position of many subjects may be adopted.

[1−2−2.着衣画像生成処理]
次に、サーバ10が実行する着衣画像生成処理について、図5のフローチャートを用いて説明する。
[1-2-2. Clothing image generation processing]
Next, clothing image generation processing executed by the server 10 will be described with reference to the flowchart of FIG.

まず、S210で、サーバ10は、商品指定情報を取得する。商品指定情報とは、利用者が選択した商品を特定するための情報を表す。例えば、商品指定情報には、商品番号等が該当する。商品指定情報は、端末装置40が後述する端末処理にてサーバ10に送信する。   First, in S210, the server 10 acquires product designation information. The product designation information represents information for specifying the product selected by the user. For example, a product number corresponds to the product designation information. The product designation information is transmitted to the server 10 by the terminal process described later by the terminal device 40.

続いて、S220で、サーバ10は、部材情報を取得する。部材情報とは、前述の商品に関するデータを表す。部材情報は、商品DB31から取得される。部材情報は、例えば、図6および図7に示すような上衣71,72が商品として選択された場合には、衣服等の商品の外観、各部の寸法、伸縮率等の情報が含まれる。商品の外観については、少なくとも衣服の腹側と背中側のそれぞれが含まれる。   Subsequently, in S220, the server 10 acquires member information. The member information represents data related to the above-described product. The member information is acquired from the product DB 31. For example, when the upper garments 71 and 72 as shown in FIGS. 6 and 7 are selected as products, the member information includes information such as the appearance of the product such as clothes, the dimensions of each part, and the expansion / contraction rate. The appearance of the product includes at least the stomach side and the back side of the clothes.

伸縮率については、衣服の素材毎に予め設定された値を用いてもよい。また、衣服毎、或いは衣服の素材毎に、実際の伸縮率を測定し、その値を採用してもよい。衣服の伸縮率を測定するには、例えば、図8に示すように、1つ格子の寸法が既知であるチェック柄の服を準備し、複数の格子の頂点を、複数の基準点として設定する。例えば、図8に示す例では、P10,P20,P30,P40等を基準点とする。   As the expansion / contraction rate, a value set in advance for each material of clothing may be used. Further, the actual expansion / contraction rate may be measured for each piece of clothing or for each material of the clothing, and the value may be adopted. In order to measure the expansion / contraction rate of clothes, for example, as shown in FIG. 8, a checkered clothes whose dimensions of one grid are known are prepared, and apexes of a plurality of grids are set as a plurality of reference points. . For example, in the example shown in FIG. 8, P10, P20, P30, P40, etc. are used as reference points.

そして、実際にこの衣服をモデルが着用したときに、複数の基準点間の距離がどのように変化するかを測定する。図9に示す例では、基準点P10,P20,P30,P40等がP11,P21,P31,P41等に移動し、格子に歪みが生じていることから基準点P11,P21,P31,P41間の距離が変化していることが分かる。この際の変化率を、縦方向、横方向等の各方向における伸縮率として採用するとよい。   Then, how the distance between the plurality of reference points changes when the model actually wears the garment is measured. In the example shown in FIG. 9, the reference points P10, P20, P30, P40, etc. are moved to P11, P21, P31, P41, etc., and the lattice is distorted, so that there is a distortion between the reference points P11, P21, P31, P41. It can be seen that the distance is changing. The change rate at this time may be adopted as the expansion / contraction rate in each direction such as the vertical direction and the horizontal direction.

続いて、S230で、サーバ10は、ユーザデータを取得する。ここでのユーザデータは、被写体DB32に格納された多数の被写体立体座標群のうちの、商品指定情報を送信した利用者についてのデータを表す。   Subsequently, in S230, the server 10 acquires user data. Here, the user data represents data about a user who has transmitted the product designation information among a large number of subject solid coordinate groups stored in the subject DB 32.

続いて、S240で、サーバ10は、座標位置を合成する。この処理では、図10に示すように、被写体立体座標群が示す座標に応じて、衣服の座標を配置する処理を行う。なお、衣服については、例えば、衣服において輪になった1または複数の部位を仮想的に切断することによって1枚の布状に展開し、各部に座標値を対応付けておく。   Subsequently, in S240, the server 10 combines the coordinate positions. In this process, as shown in FIG. 10, the process of arranging clothes coordinates is performed according to the coordinates indicated by the subject solid coordinate group. In addition, about clothing, for example, one or a plurality of parts which became a ring in the clothing is virtually cut and developed into one cloth shape, and coordinate values are associated with each part.

ただし、仮想的に切断した部位は、後から切断した部位同士を接合できるよう対応付けておく。また、衣服の各部に座標値を対応付ける際には、前述のS170の処理と同様に、衣服の1辺の長さが1cm等の単位長さに設定された正方形を縦横に並べた網目を準備しておき、これらの正方形の辺と断面図における周囲との交点のそれぞれについて座標値を得るとよい。また、商品に柄や文字が含まれる場合には、柄や文字との位置関係を座標値に対応付ける。   However, the virtually cut portions are associated with each other so that the cut portions can be joined later. Also, when associating coordinate values with each part of clothes, as in the process of S170 described above, a mesh is prepared in which squares in which the length of one side of the clothes is set to a unit length such as 1 cm are arranged vertically and horizontally. A coordinate value may be obtained for each of the intersections between the sides of the square and the periphery in the cross-sectional view. Further, when the product includes a pattern or a character, the positional relationship with the pattern or the character is associated with the coordinate value.

そして、図10、図11に示すように、被写体立体物65の表面の座標のうちの予め設定されたユーザ基準位置F10,F20と、衣服の座標値のうちの予め設定された衣服基準位置F11,F21とのうちの少なくとも一組の位置が一致するように位置を合わせる。なお、ユーザ基準位置F10,F20および衣服基準位置F11,F21は、互いに対応付けられた位置であって、体型に合わない衣服を着用しても体の部位と衣服の部位との位置関係が変化しにくい位置に設定される。   10 and 11, preset user reference positions F10 and F20 among the coordinates of the surface of the subject three-dimensional object 65, and a preset clothing reference position F11 among the coordinate values of clothes. , F21 are aligned so that at least one set of the positions matches. Note that the user reference positions F10 and F20 and the clothes reference positions F11 and F21 are positions that are associated with each other, and the positional relationship between the body part and the clothes part changes even if clothes that do not match the body shape are worn. It is set at a position where it is difficult to do.

この衣服基準位置F11,F21を始点として、ユーザデータの座標が示す被写体立体物65の表面に沿って、衣服を示す複数の座標間の距離が変化しないように衣服の座標値を順に並べることによって、伸縮を考慮しない状態の衣服についての座標群が得られる。この座標群を被覆立体座標群とする。なお、この被覆立体座標群において衣服の周囲の長さが不足する場合には、仮想的に切断した部位は互いに接合されていない状態としておくとよい。   Starting from the clothes reference positions F11 and F21, the coordinate values of the clothes are arranged in order along the surface of the subject solid object 65 indicated by the coordinates of the user data so that the distance between the plurality of coordinates indicating the clothes does not change. A coordinate group is obtained for the clothes in a state that does not consider expansion and contraction. Let this coordinate group be a covering solid coordinate group. In addition, when the circumference | surroundings length of clothes is insufficient in this coating | coated solid coordinate group, it is good to leave the virtually cut | disconnected site | parts not mutually joined.

続いて、S250で、サーバ10は、表面位置を補正する。この処理では、被覆立体座標群において衣服の周囲の長さが余る場合には、例えば、衣服の座標を全体的にユーザデータの座標から外周側に移動させることによって衣服が余らない状態とするとよい。   Subsequently, in S250, the server 10 corrects the surface position. In this process, when the peripheral length of the clothes remains in the cover solid coordinate group, for example, the clothes may be left in a state where the clothes are not left by moving the clothes coordinates from the coordinates of the user data to the outer peripheral side as a whole. .

続いて、S260で、サーバ10は、伸縮率に基づいて座標を補正する。この処理では、被覆立体座標群における縦方向、つまり鉛直方向については、衣服基準位置F11,F21に対して、設定された伸縮率に合わせて座標値を移動させる。重力の影響を受けるためである。   Subsequently, in S260, the server 10 corrects the coordinates based on the expansion / contraction rate. In this process, in the vertical direction in the covering solid coordinate group, that is, the vertical direction, the coordinate value is moved with respect to the clothes reference positions F11 and F21 according to the set expansion / contraction ratio. This is because it is affected by gravity.

また、被覆立体座標群における横方向、つまり水平方向については、衣服の周囲の長さが余る場合には、伸縮させることを必要としない。この場合、被写体は衣服をゆったりと着用できることを意味する。   Further, in the horizontal direction in the covering solid coordinate group, that is, in the horizontal direction, it is not necessary to expand and contract when the peripheral length of the clothes remains. In this case, it means that the subject can wear clothes comfortably.

また、衣服の周囲の長さが不足する場合には、横方向の伸縮率を上限として、被写体の立体画像の周囲の形状に沿うように伸縮させる。このように伸縮を考慮して補正された被覆立体座標群を得る。   Further, when the length of the circumference of the clothes is insufficient, the clothes are stretched / contracted so as to conform to the shape of the periphery of the stereoscopic image of the subject, with the lateral expansion / contraction rate as the upper limit. Thus, a covered solid coordinate group corrected in consideration of expansion and contraction is obtained.

また、伸縮率の上限値を採用しても衣服の周囲の長さが不足する場合には、メモリ12内において着衣不能である旨のフラグを立てる。この場合は、被写体は選択した衣服を物理的に着用できないことを意味する。   Further, if the perimeter of the garment is insufficient even when the upper limit value of the expansion / contraction rate is adopted, a flag indicating that the clothing cannot be worn is set in the memory 12. In this case, it means that the subject cannot physically wear the selected clothes.

続いて、S270で、サーバ10は、補正後の被覆立体座標群に基づいて被覆立体物を生成する。被覆立体物とは、衣服を三次元で表示させるための画像データを表す。被覆立体物は、被写体立体物と同様に、衣服の各部を直方体や円柱等で表現する場合の頂点の座標、座標間を接続するリンクの形状を示すパラメタ等を備えればよい。   Subsequently, in S270, the server 10 generates a covered solid object based on the corrected covered solid coordinate group. The covered three-dimensional object represents image data for displaying clothes in three dimensions. Similar to the subject three-dimensional object, the covered three-dimensional object only needs to include coordinates of vertices when each part of the clothes is represented by a rectangular parallelepiped, a cylinder, or the like, a parameter indicating the shape of a link connecting the coordinates, and the like.

続いて、S280で、サーバ10は、着衣画像を出力するとともに着衣画像を商品DB31に記録した後、図5の着衣画像生成処理を終了する。着衣画像は、被写体立体物を被覆立体物で一部を覆った状態の立体物を、任意の方向から見た画像とされる。   Subsequently, in S280, the server 10 outputs the clothing image and records the clothing image in the product DB 31, and then ends the clothing image generation processing of FIG. The clothing image is an image of a three-dimensional object in which a subject three-dimensional object is partially covered with a covering three-dimensional object when viewed from an arbitrary direction.

なお、S280の処理では、利用者の選択による指令に応じて、着衣画像に換えて、着衣時の衣服のみの画像を表す被覆画像や、前述の被写体画像を出力してもよい。また、着衣不能である旨のフラグがたてられた場合には、例えば、着衣画像では、仮想的に切断した部位が接合されていない状態としておいてもよいし、画像において赤色表示や点滅表示させる等、着衣不能であることが示されてもよい。   In the process of S280, instead of the clothing image, a cover image representing an image of only the clothing at the time of clothing or the above-described subject image may be output in accordance with a command selected by the user. In addition, when a flag indicating that clothing is not possible is set, for example, in a clothing image, a virtually cut portion may not be joined, or red or flashing display may be displayed in the image. It may be shown that it is not possible to wear clothes.

[1−2−3.変位画像生成処理]
次に、サーバ10が実行する変位画像生成処理について、図12のフローチャートを用いて説明する。
[1-2-3. Displacement image generation processing]
Next, displacement image generation processing executed by the server 10 will be described with reference to the flowchart of FIG.

まず、S310で、サーバ10は、動作情報を受信したか否かを判定する。動作情報とは、着衣画像を変位させるための指示となる情報を表す。動作情報には、例えば、着画像が表示された表示部48上において、手の部分を上にスライドさせるような操作が含まれる。端末装置40においてこのような操作がされた場合、端末装置40は手を上げた状態の着衣画像を生成する指示が入力されたと判断し、手が上げられた旨を動作情報として出力する。   First, in S310, the server 10 determines whether or not operation information has been received. The action information represents information serving as an instruction for displacing the clothing image. The operation information includes, for example, an operation of sliding the hand portion upward on the display unit 48 on which the wearing image is displayed. When such an operation is performed on the terminal device 40, the terminal device 40 determines that an instruction to generate a clothing image with a hand raised is input, and outputs that the hand is raised as operation information.

また、動作情報は、実際に被写体を撮像した画像から得られてもよい。例えば、図13に示すように、端末装置40の撮像部47にて手を上げた状態の被写体が撮像された場合、手が上げられた旨を動作情報として出力するとよい。   Further, the operation information may be obtained from an image obtained by actually capturing a subject. For example, as illustrated in FIG. 13, when a subject with his hand raised is imaged by the imaging unit 47 of the terminal device 40, the fact that the hand has been raised may be output as operation information.

また、動作情報は、動作検知部49による検知結果から得られてもよい。動作検知部49は、例えば、端末装置40を振る、端末装置40を回す、端末装置40を上下或いは左右に移動させる、といった動作を検知できるが、これらの動作のそれぞれに対して、被写体の動きを予め対応付けておくとよい。例えば、端末装置40を振る、という動作と、被写体が手を上げた状態とを対応付けておけば、端末装置40を振ることによって手を上げた状態の着衣画像を生成する指示を入力することができる。   Further, the motion information may be obtained from the detection result by the motion detection unit 49. For example, the motion detection unit 49 can detect motions such as shaking the terminal device 40, turning the terminal device 40, and moving the terminal device 40 up and down or left and right. May be associated in advance. For example, if an operation of shaking the terminal device 40 is associated with a state where the subject raises his hand, an instruction to generate a clothing image with his hand raised by shaking the terminal device 40 is input. Can do.

サーバ10は、S310で動作情報を受信していないと判定した場合には、図12の変位画像生成処理を終了する。一方、サーバ10は、S310で動作情報を受信したと判定した場合には、S320へ移行し、動作に応じた被写体立体物を生成する。すなわち、図13に示すように、手が上げられた旨の動作情報を受けていれば、関節の座標等と動作の内容に応じて体の部位毎の移動量を算出し、被写体立体物を変形することによって新たな被写体立体物を得る。   If the server 10 determines in S310 that the motion information has not been received, the displacement image generation process in FIG. 12 ends. On the other hand, if the server 10 determines that the motion information has been received in S310, the server 10 proceeds to S320 and generates a subject three-dimensional object corresponding to the motion. That is, as shown in FIG. 13, if movement information indicating that the hand is raised is received, the movement amount for each part of the body is calculated according to the coordinates of the joints and the content of the movement, and the subject three-dimensional object is A new object three-dimensional object is obtained by deformation.

このとき、関節の可動部以外の部位については既に得られた寸法を保持し、関節の部分のみ、得られた寸法に拘らず、関節の支持点を中心に体の部位を移動させる。
続いて、S330で、サーバ10は、被写体立体物に座標を対応付ける。この処理では、S150の処理と同様の処理が実施される。
At this time, the obtained dimensions are maintained for the parts other than the movable part of the joint, and only the joint part is moved around the support point of the joint regardless of the obtained dimensions.
Subsequently, in S330, the server 10 associates coordinates with the subject three-dimensional object. In this process, the same process as that of S150 is performed.

続いて、S340で、サーバ10は、着衣画像生成処理のうちのS240−S280の処理を順に実施した後、図12の変位画像生成処理を終了する。つまり、図13に示すように、動作情報に応じて変位させた被写体立体物65に応じて被覆立体物を作成し、これらの立体物から着衣画像を生成する。そして、この着衣画像を表示部48に表示させることができる。   Subsequently, in S340, the server 10 sequentially performs the processes of S240 to S280 in the clothing image generation process, and then ends the displacement image generation process of FIG. That is, as shown in FIG. 13, a covered three-dimensional object is created according to the subject three-dimensional object 65 displaced according to the motion information, and a clothing image is generated from these three-dimensional objects. Then, this clothing image can be displayed on the display unit 48.

[1−2−4.端末処理]
次に、端末装置40が実行する端末処理について、図14のフローチャートを用いて説明する。端末処理は、前述の立体画像生成処理、着衣画像生成処理、変位画像生成処理に対応して端末装置40にて実施される処理である。
[1-2-4. Terminal processing]
Next, terminal processing executed by the terminal device 40 will be described using the flowchart of FIG. The terminal process is a process performed by the terminal device 40 in response to the above-described stereoscopic image generation process, clothing image generation process, and displacement image generation process.

まず、S410で、端末装置40は、被写体の画像が撮像されたか否かを判定する。ここでの画像は、被写体を複数の方向から撮像した複数の画像が相当する。端末装置40は、S410で被写体の画像が撮像されたと判定した場合には、S420へ移行し、撮像された画像を画像情報としてサーバ10に送信する。   First, in S410, the terminal device 40 determines whether an image of the subject has been captured. The image here corresponds to a plurality of images obtained by imaging the subject from a plurality of directions. If the terminal device 40 determines in S410 that an image of the subject has been captured, the terminal device 40 proceeds to S420, and transmits the captured image to the server 10 as image information.

一方、端末装置40は、S410で被写体の画像が撮像されていないと判定した場合には、S430へ移行し、商品が選択されたか否かを判定する。端末装置40は、S430で商品が選択されたと判定した場合には、S440へ移行し、商品選択情報をサーバ10に送信する。   On the other hand, if the terminal device 40 determines in S410 that an image of the subject has not been captured, the terminal device 40 proceeds to S430 and determines whether or not a product has been selected. If the terminal device 40 determines that the product has been selected in S430, the terminal device 40 proceeds to S440 and transmits the product selection information to the server 10.

一方、端末装置40は、S430で商品が選択されていないと判定した場合には、S450へ移行し、着衣画像を受信したか否かを判定する。端末装置40は、S450で着衣画像を受信したと判定した場合には、S460へ移行し、着衣画像を表示部48に表示する。   On the other hand, if it is determined in S430 that no product has been selected, the terminal device 40 proceeds to S450 and determines whether a clothing image has been received. If the terminal device 40 determines that the clothing image has been received in S450, the terminal device 40 proceeds to S460, and displays the clothing image on the display unit 48.

続いて、S470で、端末装置40は、動作を検知したか否かを判定する。端末装置40は、S470で動作を検知していないと判定した場合には、S470に戻る。一方、端末装置40は、S470で動作を検知したと判定した場合には、S480へ移行し、動作情報をサーバ10に送信した後、S450に戻る。動作情報には、利用者がどのような動作をしたか、或いは、着衣画像をどのように変位させるかを指示するための情報が含まれる。   Subsequently, in S470, the terminal device 40 determines whether an operation is detected. If the terminal device 40 determines that the operation is not detected in S470, the terminal device 40 returns to S470. On the other hand, if it is determined that the operation is detected in S470, the terminal device 40 proceeds to S480, transmits the operation information to the server 10, and then returns to S450. The operation information includes information for instructing what operation the user has performed or how to displace the clothing image.

一方、端末装置40は、S450で着衣画像を受信していないと判定した場合には、S490で、端末装置40は、着衣画像の表示を終了するか否かを判定する。表示を終了するか否かは利用者の指示によって決定される。   On the other hand, if it is determined that the clothing image has not been received in S450, the terminal device 40 determines whether or not to end the display of the clothing image in S490. Whether or not to end the display is determined by an instruction from the user.

端末装置40は、S490で終了しないと判定した場合には、S410に戻る。一方、端末装置40は、S490で終了すると判定した場合には、図14の端末処理を終了する。   If it is determined that the terminal device 40 does not end in S490, the terminal device 40 returns to S410. On the other hand, if the terminal device 40 determines to end in S490, it ends the terminal processing of FIG.

[1−3.効果]
以上詳述した第1実施形態によれば、以下の効果を奏する。
(1a)上記の仮想試着システム1は、被写体を立体的に表示させるための仮想的な立体物を生成するように構成され、立体画像生成部16の機能を備える。立体画像生成部16の機能では、被写体を複数の異なる角度から撮像した複数の撮像画像を取得するように構成される。また、立体画像生成部16の機能では、被写体のサイズを特定するためのサイズ情報を取得するように構成される。また、立体画像生成部16の機能では、複数の撮像画像およびサイズ情報に基づいて、被写体のサイズが対応付けられた被写体についての仮想的な立体物を生成するように構成される。
[1-3. effect]
According to the first embodiment described in detail above, the following effects are obtained.
(1a) The virtual try-on system 1 described above is configured to generate a virtual three-dimensional object for displaying a subject three-dimensionally, and includes the function of the three-dimensional image generation unit 16. The function of the stereoscopic image generation unit 16 is configured to acquire a plurality of captured images obtained by imaging the subject from a plurality of different angles. The function of the stereoscopic image generation unit 16 is configured to acquire size information for specifying the size of the subject. In addition, the function of the stereoscopic image generation unit 16 is configured to generate a virtual three-dimensional object for a subject associated with the size of the subject based on a plurality of captured images and size information.

このような仮想試着システム1によれば、複数の撮像画像およびサイズ情報に基づいて被写体のサイズが対応付けられた被写体についての仮想的な立体物を生成するので、被写体の大きさを認識しやすくすることができる。   According to such a virtual try-on system 1, a virtual three-dimensional object is generated for a subject associated with the subject size based on a plurality of captured images and size information, so that the size of the subject can be easily recognized. can do.

(1b)上記の仮想試着システム1は、着衣画像生成部17の機能を備える。着衣画像生成部17の機能では、被写体の少なくとも一部を覆うことができる部材を表す被覆部材について、少なくとも該被覆部材の外観および寸法を含む部材情報を取得するように構成される。また、着衣画像生成部17の機能では、部材情報に基づいて被覆部材を被写体立体物の表面に沿って配置した仮想的な立体物を表す被覆立体物を生成するように構成される。   (1b) The virtual try-on system 1 includes the function of the clothing image generation unit 17. The function of the clothing image generation unit 17 is configured to acquire member information including at least the appearance and dimensions of the covering member that represents a member that can cover at least a part of the subject. In addition, the function of the clothing image generation unit 17 is configured to generate a covered three-dimensional object representing a virtual three-dimensional object in which a covering member is disposed along the surface of the subject three-dimensional object based on the member information.

このような仮想試着システム1によれば、被写体の少なくとも一部を被覆部材で覆った場合にどのような状態なるかを立体画像で表現することができる。
(1c)上記の仮想試着システム1において、着衣画像生成部17の機能では、部材情報として、被覆部材の外観および寸法に加えて、被覆部材の伸縮に関する情報を表す伸縮情報を取得し、伸縮情報を加味して被覆部材を伸縮させて被写体立体物の表面に沿って配置した被覆立体物を生成するように構成される。
According to such a virtual try-on system 1, it is possible to represent a state when a subject is covered with a covering member as a stereoscopic image.
(1c) In the virtual try-on system 1 described above, in the function of the clothing image generation unit 17, in addition to the appearance and dimensions of the covering member, expansion / contraction information representing information regarding expansion / contraction of the covering member is acquired as member information. In consideration of the above, the covering member is expanded and contracted to generate a covering solid object arranged along the surface of the subject solid object.

このような仮想試着システム1によれば、被覆部材を伸縮させて被写体立体物の表面に沿って配置した被覆立体物を生成するので、被覆部材が伸縮する場合に、伸縮を考慮した立体画像を生成することができる。   According to such a virtual try-on system 1, the covering member is expanded and contracted to generate a covering three-dimensional object arranged along the surface of the subject three-dimensional object. Therefore, when the covering member expands and contracts, a stereoscopic image considering expansion and contraction is generated. Can be generated.

[2.他の実施形態]
以上、本開示の実施形態について説明したが、本開示は上述の実施形態に限定されることなく、種々変形して実施することができる。
[2. Other Embodiments]
As mentioned above, although embodiment of this indication was described, this indication is not limited to the above-mentioned embodiment, and can carry out various modifications.

(2a)上記実施形態では、利用者が選択した衣服を、その都度仮想的に試着させたが、これに限定されるものではない。例えば、既に類似する体形を有する別の利用者が同様の衣服を試着した場合には、その画像を提供する構成としてもよい。   (2a) In the above embodiment, the clothes selected by the user are virtually tried on each time, but the present invention is not limited to this. For example, when another user who already has a similar body shape tries on similar clothes, the image may be provided.

具体的には、サーバ10が実行する変形例の着衣画像生成処理について、図15のフローチャートを用いて説明する。まず、サーバ10は、前述のS210−S230の処理を実施する。   Specifically, a modification image generation process executed by the server 10 will be described with reference to the flowchart of FIG. First, the server 10 performs the processes of S210 to S230 described above.

続いて、S610で、サーバ10は、類似の着衣画像が存在するであるか否かを判定する。類似の着衣画像とは、利用者によく似た体形を有する他の利用者による同様の衣服の着衣画像を示す。着衣画像は、実際に撮像された画像でもよいし、他の利用者に対して着衣画像生成処理を実施して得られた画像でもよい。   Subsequently, in S610, the server 10 determines whether a similar clothing image exists. A similar clothing image refers to a clothing image of similar clothing by another user having a body shape similar to the user. The clothing image may be an actually captured image, or an image obtained by performing a clothing image generation process on another user.

サーバ10は、S610で類似の着衣画像が存在しないと判定した場合には、S240−S260の処理を実施し、その後、S280の処理を実施した後、図15の着衣画像生成処理を終了する。   If the server 10 determines in S610 that a similar clothing image does not exist, the server 10 performs the processing of S240 to S260, and then performs the processing of S280, and then ends the clothing image generation processing of FIG.

一方、サーバ10は、S610で類似の着衣画像が存在すると判定した場合には、S620へ移行し、類似着衣画像を取得する。続いて、S630で、サーバ10は、利用者に適合する補正をし、その後、S280の処理を実施した後、図15の着衣画像生成処理を終了する。なお、適合する補正とは、例えば、他の利用者の顔を当該利用者の顔に変更したり、体形の微調整をしたりするような補正が含まれうる。   On the other hand, if the server 10 determines in S610 that a similar clothing image exists, the server 10 proceeds to S620 and acquires a similar clothing image. Subsequently, in S630, the server 10 performs a correction suitable for the user, and then performs the process of S280, and then ends the clothing image generation process of FIG. The appropriate correction may include, for example, a correction that changes the face of another user to the user's face or makes fine adjustments to the body shape.

このような仮想試着システムによれば、既に生成された着衣画像を有効活用することができる。
(2b)上記実施形態では、利用者が選択した衣服のみを仮想的に試着させたが、これに限定されるものではない。例えば、利用者が選択した衣服に加えて、店舗等のサーバ10の管理者が推奨する衣服についても仮想的に試着させてもよい。
According to such a virtual try-on system, the already generated clothing image can be used effectively.
(2b) In the above embodiment, only the clothes selected by the user are virtually tried on, but the present invention is not limited to this. For example, in addition to the clothes selected by the user, clothes recommended by the manager of the server 10 such as a store may be virtually tried on.

具体的には、サーバ10が実行するコーディネート処理について、図16のフローチャートを用いて説明する。まず、S710で、サーバ10は、対応商品を抽出する。対応商品とは、選択商品に対応する商品として予め設定された商品を表す。例えば、図6および図7に示すように、商品には、対応する商品が予め設定されている。図6、図7に示すような上衣には、対応する商品として、ズボン、鞄、アクセサリ類等、選択された衣服と同時に着用可能な衣服が対応付けられている。   Specifically, the coordination process executed by the server 10 will be described with reference to the flowchart of FIG. First, in S710, the server 10 extracts corresponding products. The corresponding product represents a product set in advance as a product corresponding to the selected product. For example, as shown in FIG. 6 and FIG. 7, corresponding products are set in advance for the products. The upper garments as shown in FIGS. 6 and 7 are associated with clothes that can be worn simultaneously with the selected clothes such as trousers, bags, accessories, and the like as corresponding products.

続いて、S720で、サーバ10は、選択された商品および対応商品について着衣画像生成処理のうちのS220−S280の処理を実施する。続いて、S730で、サーバ10は、対応商品を含む着衣画像を出力した後、図16のコーディネート処理を終了する。   Subsequently, in S720, the server 10 performs the processing of S220 to S280 of the clothing image generation processing for the selected product and the corresponding product. Subsequently, in S730, the server 10 outputs the clothing image including the corresponding product, and then ends the coordination process of FIG.

このような仮想試着システムによれば、利用者が選択した商品だけでなく、管理者側が推奨する商品についても同時に試着した着衣画像を提供することができる。
(2c)上記実施形態では、被写体が人物である例について説明したが、被写体は任意に適用することができる。例えば、被写体として、乗用車等の車両等を適用し、被覆部材として、車両を覆う保護カバー等を適用してもよい。
According to such a virtual try-on system, it is possible to provide a clothing image that is tried on not only on the product selected by the user but also on the product recommended by the administrator.
(2c) In the above embodiment, an example in which the subject is a person has been described, but the subject can be arbitrarily applied. For example, a vehicle such as a passenger car may be applied as the subject, and a protective cover that covers the vehicle may be applied as the covering member.

(2d)上記実施形態では、サーバ10において立体画像生成処理、着衣画像生成処理、変位画像生成処理、コーディネート処理を実施したが、これらの処理は、端末装置40で実施してもよい。このようにしても概ね上記実施形態と同様の効果を享受できる。   (2d) In the embodiment described above, the server 10 performs the stereoscopic image generation process, the clothing image generation process, the displacement image generation process, and the coordination process, but these processes may be performed by the terminal device 40. Even if it does in this way, the effect similar to the said embodiment can be enjoyed substantially.

(2e)上記実施形態における1つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加または置換してもよい。なお、特許請求の範囲に記載した文言から特定される技術思想に含まれるあらゆる態様が本開示の実施形態である。   (2e) A plurality of functions of one constituent element in the above embodiment may be realized by a plurality of constituent elements, or a single function of one constituent element may be realized by a plurality of constituent elements. . Further, a plurality of functions possessed by a plurality of constituent elements may be realized by one constituent element, or one function realized by a plurality of constituent elements may be realized by one constituent element. Moreover, you may abbreviate | omit a part of structure of the said embodiment. Further, at least a part of the configuration of the above embodiment may be added to or replaced with the configuration of the other embodiment. In addition, all the aspects included in the technical idea specified from the wording described in the claims are embodiments of the present disclosure.

(2f)上述した仮想試着システム1の他、当該仮想試着システム1の構成要素となる装置、当該仮想試着システム1としてコンピュータを機能させるためのプログラム、このプログラムを記録した半導体メモリ等の非遷移的実態的記録媒体、仮想試着方法、或いは仮想立体物生成方法など、種々の形態で本開示を実現することもできる。   (2f) In addition to the virtual try-on system 1 described above, non-transitional devices, such as a device serving as a component of the virtual try-on system 1, a program for causing a computer to function as the virtual try-on system 1, and a semiconductor memory storing the program The present disclosure can also be realized in various forms such as an actual recording medium, a virtual fitting method, or a virtual three-dimensional object generation method.

[3.実施形態の構成と本開示の構成との対応関係]
上記実施形態において仮想試着システム1は本開示でいう仮想立体物生成装置の一例に相当する。また、上記実施形態においてサーバ10が実行する処理のうちのS110の処理は本開示でいう画像取得部の一例に相当し、上記実施形態においてS130の処理は本開示でいうサイズ取得部の一例に相当する。また、上記実施形態においてS140,S170の処理は本開示でいう被写体生成部の一例に相当し、上記実施形態においてS220の処理は本開示でいう部材取得部の一例に相当する。また、上記実施形態においてS240,S250,S260の処理は本開示でいう被覆生成部の一例に相当する。
[3. Correspondence between Configuration of Embodiment and Configuration of Present Disclosure]
In the embodiment described above, the virtual try-on system 1 corresponds to an example of a virtual three-dimensional object generation device as referred to in the present disclosure. In addition, the process of S110 among the processes executed by the server 10 in the above embodiment corresponds to an example of an image acquisition unit referred to in the present disclosure, and the process of S130 in the above embodiment is an example of a size acquisition unit referred to in the present disclosure. Equivalent to. In the above embodiment, the processes of S140 and S170 correspond to an example of a subject generation unit referred to in the present disclosure, and the process of S220 in the above embodiment corresponds to an example of a member acquisition unit referred to in the present disclosure. Moreover, in the said embodiment, the process of S240, S250, S260 is equivalent to an example of the coating | coated production | generation part said by this indication.

1…仮想試着システム、5…インターネット網、7…基地局、9…アクセスポイント、10…サーバ、11…CPU、12…メモリ、16…立体画像生成部、17…着衣画像生成部、18…変位画像生成部、19…通信部、31…商品DB、32…被写体DB、40…端末装置、41…CPU、42…メモリ、46…表示制御部、47…撮像部、48…表示部、49…動作検知部、50…通信部、65…被写体立体物、71…上衣。   DESCRIPTION OF SYMBOLS 1 ... Virtual try-on system, 5 ... Internet network, 7 ... Base station, 9 ... Access point, 10 ... Server, 11 ... CPU, 12 ... Memory, 16 ... Three-dimensional image generation part, 17 ... Clothes image generation part, 18 ... Displacement Image generation unit, 19 ... communication unit, 31 ... product DB, 32 ... subject DB, 40 ... terminal device, 41 ... CPU, 42 ... memory, 46 ... display control unit, 47 ... imaging unit, 48 ... display unit, 49 ... Motion detection unit, 50 ... communication unit, 65 ... three-dimensional object, 71 ... upper garment.

Claims (3)

被写体を立体的に表示させるための仮想的な立体物を生成するように構成された仮想立体物生成装置であって、
被写体を複数の異なる角度から撮像した複数の撮像画像を取得するように構成された画像取得部と、
前記被写体のサイズを特定するためのサイズ情報を取得するように構成されたサイズ取得部と、
前記複数の撮像画像および前記サイズ情報に基づいて、前記被写体のサイズが対応付けられた前記被写体についての仮想的な立体物を表す被写体立体物を生成するように構成された被写体生成部と、
を備えた仮想立体物生成装置。
A virtual three-dimensional object generation device configured to generate a virtual three-dimensional object for displaying a subject three-dimensionally,
An image acquisition unit configured to acquire a plurality of captured images obtained by imaging a subject from a plurality of different angles;
A size acquisition unit configured to acquire size information for specifying the size of the subject;
A subject generation unit configured to generate a subject three-dimensional object representing a virtual three-dimensional object for the subject associated with the subject size, based on the plurality of captured images and the size information;
A virtual three-dimensional object generation device comprising:
請求項1に記載の仮想立体物生成装置であって、
前記被写体の少なくとも一部を覆うことができる部材を表す被覆部材について、少なくとも該被覆部材の外観および寸法を含む部材情報を取得するように構成された部材取得部と、
前記部材情報に基づいて前記被覆部材を前記被写体立体物の表面に沿って配置した仮想的な立体物を表す被覆立体物を生成するように構成された被覆生成部と、
をさらに備えた仮想立体物生成装置。
The virtual three-dimensional object generation device according to claim 1,
A member acquisition unit configured to acquire member information including at least the appearance and dimensions of the covering member with respect to the covering member representing a member capable of covering at least a part of the subject;
A covering generation unit configured to generate a covering three-dimensional object representing a virtual three-dimensional object in which the covering member is arranged along the surface of the subject three-dimensional object based on the member information;
A virtual three-dimensional object generation device further comprising:
請求項2に記載の仮想立体物生成装置であって、
前記部材取得部は、前記部材情報として、前記被覆部材の外観および寸法に加えて、前記被覆部材の伸縮に関する情報を表す伸縮情報を取得するように構成され、
前記被覆生成部は、前記伸縮情報を加味して前記被覆部材を伸縮させて前記被写体立体物の表面に沿って配置した被覆立体物を生成する
ように構成された仮想立体物生成装置。
The virtual three-dimensional object generation device according to claim 2,
The member acquisition unit is configured to acquire, as the member information, expansion / contraction information representing information related to expansion / contraction of the covering member, in addition to the appearance and dimensions of the covering member,
The virtual three-dimensional object generation device configured to generate a three-dimensional covered object arranged along a surface of the subject three-dimensional object by expanding and contracting the covering member in consideration of the expansion / contraction information.
JP2017044832A 2017-03-09 2017-03-09 Virtual three-dimensional object generation device Pending JP2018148525A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017044832A JP2018148525A (en) 2017-03-09 2017-03-09 Virtual three-dimensional object generation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017044832A JP2018148525A (en) 2017-03-09 2017-03-09 Virtual three-dimensional object generation device

Publications (1)

Publication Number Publication Date
JP2018148525A true JP2018148525A (en) 2018-09-20

Family

ID=63591792

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017044832A Pending JP2018148525A (en) 2017-03-09 2017-03-09 Virtual three-dimensional object generation device

Country Status (1)

Country Link
JP (1) JP2018148525A (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015184875A (en) * 2014-03-24 2015-10-22 株式会社東芝 Data processing device and data processing program
JP2017037637A (en) * 2015-07-22 2017-02-16 アディダス アーゲー Method and apparatus for generating artificial picture

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015184875A (en) * 2014-03-24 2015-10-22 株式会社東芝 Data processing device and data processing program
JP2017037637A (en) * 2015-07-22 2017-02-16 アディダス アーゲー Method and apparatus for generating artificial picture

Similar Documents

Publication Publication Date Title
JP4473754B2 (en) Virtual fitting device
TWI659335B (en) Graphic processing method and device, virtual reality system, computer storage medium
CN107251026B (en) System and method for generating virtual context
JP4508049B2 (en) 360 ° image capturing device
KR102461232B1 (en) Image processing method and apparatus, electronic device, and storage medium
WO2015122108A1 (en) Information processing device, information processing method and program
EP0933728A2 (en) A method and system for generating a stereoscopic image of a garment
CN109671141B (en) Image rendering method and device, storage medium and electronic device
JP2013101526A (en) Information processing apparatus, display control method, and program
JP6373026B2 (en) Image processing apparatus, image processing system, image processing method, and program
KR101212636B1 (en) Method and apparatus for presenting location information on augmented reality
JP7228025B2 (en) Methods and Devices for Augmented Reality-Based Virtual Garment Try-On with Multiple Detections
TW201738847A (en) Assembly instruction system and assembly instruction method
JPWO2016151691A1 (en) Image processing apparatus, image processing system, image processing method, and program
WO2015108071A1 (en) Three-dimensional data generation device, formed object production system, and three-dimensional data generation method
JP6262105B2 (en) Image processing apparatus, image processing system, image processing method, and program
CN109668545A (en) Localization method, locator and positioning system for head-mounted display apparatus
KR20230078777A (en) 3D reconstruction methods, devices and systems, media and computer equipment
JP7353782B2 (en) Information processing device, information processing method, and program
TWI790369B (en) Dimensional system
JP2020030748A (en) Mixed reality system, program, mobile terminal device, and method
KR102199772B1 (en) Method for providing 3D modeling data
JP2020071718A (en) Information processing device, information processing method, and program
CN111179341B (en) Registration method of augmented reality equipment and mobile robot
JP2018148525A (en) Virtual three-dimensional object generation device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180312

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190219

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20191001