JP2012118948A - Extended reality presentation device, and extended reality presentation method and program - Google Patents

Extended reality presentation device, and extended reality presentation method and program Download PDF

Info

Publication number
JP2012118948A
JP2012118948A JP2010270884A JP2010270884A JP2012118948A JP 2012118948 A JP2012118948 A JP 2012118948A JP 2010270884 A JP2010270884 A JP 2010270884A JP 2010270884 A JP2010270884 A JP 2010270884A JP 2012118948 A JP2012118948 A JP 2012118948A
Authority
JP
Japan
Prior art keywords
image data
dimensional image
person
objects
augmented reality
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010270884A
Other languages
Japanese (ja)
Other versions
JP5722603B2 (en
Inventor
Ryuichiro Kai
龍一郎 甲斐
Kengo Nakahashi
憲悟 中橋
Keiko Harashima
圭子 原島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NS Solutions Corp
Original Assignee
NS Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NS Solutions Corp filed Critical NS Solutions Corp
Priority to JP2010270884A priority Critical patent/JP5722603B2/en
Publication of JP2012118948A publication Critical patent/JP2012118948A/en
Application granted granted Critical
Publication of JP5722603B2 publication Critical patent/JP5722603B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To freely represent foreground/background arrangement relation among a plurality of objects which are displayed on over another.SOLUTION: An extended reality presentation device 10 recognizes a specified part of a person based upon three-dimensional image data on the person which is acquired through photography, and positions the three-dimensional image data on the person and three-dimensional image data on the plurality of objects based upon a recognition result. Then the extended reality presentation device 10 arranges the three-dimensional image data on the plurality of objects outside the three-dimensional image data on the person according to a positioning result, and arranges and displays three-dimensional image data on a second object outside three-dimensional image data on a first object.

Description

本発明は、現実空間の映像とコンピュータグラフィックス画像データとを合成して提示させることが可能な技術に関するものである。   The present invention relates to a technology capable of synthesizing and presenting real-space video and computer graphics image data.

近年、AR(Augmented Reality)の技術を利用して試着する試みが広まってきている。非特許文献1に開示されている技術は、腕時計型のマーカを手首に装着し、カメラで捉えた実際の腕のマーカ位置に、腕時計の画像を重畳表示するものである。腕時計以外にも、ネクタイ型のマーカを使ってネクタイを試着するような仕組みも実用化されている。また、非特許文献2に開示されている技術は、マーカを装着することなく、カメラで捉えた人物の顔に、サングラスの画像を重畳表示するものである。   In recent years, attempts to try on using AR (Augmented Reality) technology have become widespread. The technique disclosed in Non-Patent Document 1 is to wear a wristwatch-type marker on the wrist and superimpose and display the wristwatch image on the actual arm marker position captured by the camera. In addition to wristwatches, a mechanism to try on a tie using a tie-type marker has been put into practical use. The technique disclosed in Non-Patent Document 2 superimposes and displays an image of sunglasses on the face of a person captured by a camera without wearing a marker.

これら従来の技術は仮想装着物を簡単に試着することはできるが、単品の試着であり、仮想装着物同士のコーディネートをすることまでは想定されていない。例えば、複数のマーカを装着して一つのカメラ画像に収まれば、そのマーカ毎に対応する仮想画像がマーカ位置に重畳表示されるが、マーカ同士が前後に重なって撮影されると、後ろ側のマーカは隠れてしまい、位置や形状が認識されないため、仮想画像は表示されなくなってしまう。所謂、重ね着のように複数のアイテムを同時に前後に重ねてARで試着することはできなかった。   Although these conventional techniques can easily try on virtual wearing objects, they are single-on fittings, and it is not envisaged to coordinate virtual wearing objects. For example, if a plurality of markers are attached and fit in one camera image, a virtual image corresponding to each marker is superimposed and displayed at the marker position. Since the marker is hidden and the position and shape are not recognized, the virtual image is not displayed. Like so-called layering, it was not possible to try on AR with a plurality of items stacked one after the other at the same time.

TISSOT REALITY、インターネット<URL:http://www.tissot.ch/reality/>TISSOT REALITY, Internet <URL: http://www.tissot.ch/reality/> RAY−BAN Offical Web Site、インターネット<URL:http://www.ray-ban.com/france/science/virtual-mirror>RAY-BAN Official Web Site, Internet <URL: http://www.ray-ban.com/france/science/virtual-mirror>

また、シャツとジャケットでの重ね着を考えた場合、シャツの襟をジャケットの内側に着る方法と、襟をジャケットの外側に出して着る方法とを比較したくても、そのような表示はできなかった。ARでは、カメラからの相対位置で、近い側のオブジェクトを、遠い側のオブジェクトより手前側に表示するということは行われている。しかしながら、このような技術を用いたとしても、例えばジャケットをシャツより手前側に表示すると、シャツの画像は完全にジャケットの後ろ側に表示されてしまうため、試着しているような画像を得ることはできなかった。   Also, when considering layering with a shirt and jacket, such a display is not possible even if you want to compare the method of wearing the shirt collar inside the jacket with the method of putting the collar outside the jacket. There wasn't. In AR, a near object is displayed in front of a far object at a relative position from the camera. However, even if such a technique is used, for example, if the jacket is displayed on the front side of the shirt, the shirt image will be completely displayed on the back side of the jacket. I couldn't.

そこで、本発明の目的は、重ねて表示される複数のオブジェクト間における手前と奥との配置関係を自由に表現することにある。   Accordingly, an object of the present invention is to freely express the positional relationship between the front and back between a plurality of objects displayed in an overlapping manner.

本発明の拡張現実感提示装置の第1の態様は、現実空間の映像と画像データとを合成して表示させることが可能な拡張現実感提示装置であって、撮影により取得された人物の3次元画像データに基づいて、前記人物の所定の部位を認識する認識手段と、前記認識手段による認識結果に基づいて、前記人物の3次元画像データと複数のオブジェクトの3次元画像データとの位置合わせを行う位置合わせ手段と、前記位置合わせ手段による位置合わせの結果に基づいて、前記人物の3次元画像データの外側に前記複数のオブジェクトの3次元画像データを配置し、且つ、前記複数のオブジェクトに含まれる第1のオブジェクトの3次元画像データの外側に、前記複数のオブジェクトに含まれる第2のオブジェクトの3次元画像データを配置して表示手段に表示させる表示制御手段とを有することを特徴とする。
本発明の拡張現実感提示装置の第2の態様は、現実空間の映像と画像データとを合成して表示させることが可能な拡張現実感提示装置であって、撮影により取得された人物の2次元画像データに基づいて、前記人物の所定の部位を認識する認識手段と、前記認識手段による認識結果に基づいて、前記人物の2次元画像データと複数のオブジェクトの2次元画像データとの位置合わせを行う位置合わせ手段と、前記複数のオブジェクトに含まれる第1のオブジェクト上に重ねて配置される、前記複数のオブジェクトに含まれる前記第2のオブジェクトの2次元画像データの所定の部分を抜き加工する第1の加工手段と、前記位置合わせ手段による位置合わせの結果に基づいて、前記人物の2次元画像データ上に前記複数のオブジェクトの2次元画像データが重なり、且つ、前記第1のオブジェクトの2次元画像データ上に前記第1の加工手段により抜き加工された前記第2のオブジェクトの2次元画像データが重なるように表示手段に表示させる表示制御手段とを有することを特徴とする。
本発明の拡張現実感提示方法の第1の態様は、現実空間の映像と画像データとを合成して表示させることが可能な拡張現実感提示装置によって実行される拡張現実感提示方法であって、撮影により取得された人物の3次元画像データに基づいて、前記人物の所定の部位を認識する認識ステップと、前記認識ステップによる認識結果に基づいて、前記人物の3次元画像データと複数のオブジェクトの3次元画像データとの位置合わせを行う位置合わせステップと、前記位置合わせステップによる位置合わせの結果に基づいて、前記人物の3次元画像データの外側に前記複数のオブジェクトの3次元画像データを配置し、且つ、前記複数のオブジェクトに含まれる第1のオブジェクトの3次元画像データの外側に、前記複数のオブジェクトに含まれる第2のオブジェクトの3次元画像データを配置して表示手段に表示させる表示制御ステップとを有することを特徴とする。
本発明の拡張現実感提示方法の第2の態様は、現実空間の映像と画像データとを合成して表示させることが可能な拡張現実感提示装置によって実行される拡張現実感提示方法であって、撮影により取得された人物の2次元画像データに基づいて、前記人物の所定の部位を認識する認識ステップと、前記認識ステップによる認識結果に基づいて、前記人物の2次元画像データと複数のオブジェクトの2次元画像データとの位置合わせを行う位置合わせステップと、前記複数のオブジェクトに含まれる第1のオブジェクト上に重ねて配置される、前記複数のオブジェクトに含まれる前記第2のオブジェクトの2次元画像データの所定の部分を抜き加工する加工ステップと、前記位置合わせステップによる位置合わせの結果に基づいて、前記人物の2次元画像データ上に前記複数のオブジェクトの2次元画像データが重なり、且つ、前記第1のオブジェクトの2次元画像データ上に前記加工ステップにより抜き加工された前記第2のオブジェクトの2次元画像データが重なるように表示手段に表示させる表示制御ステップとを有することを特徴とする。
本発明のプログラムの第1の態様は、現実空間の映像と画像データとを合成して表示させることが可能な拡張現実感提示装置によって実行される拡張現実感提示方法をコンピュータに実行させるためのプログラムであって、撮影により取得された人物の3次元画像データに基づいて、前記人物の所定の部位を認識する認識ステップと、前記認識ステップによる認識結果に基づいて、前記人物の3次元画像データと複数のオブジェクトの3次元画像データとの位置合わせを行う位置合わせステップと、前記位置合わせステップによる位置合わせの結果に基づいて、前記人物の3次元画像データの外側に前記複数のオブジェクトの3次元画像データを配置し、且つ、前記複数のオブジェクトに含まれる第1のオブジェクトの3次元画像データの外側に、前記複数のオブジェクトに含まれる第2のオブジェクトの3次元画像データを配置して表示手段に表示させる表示制御ステップとをコンピュータに実行させることを特徴とする。
本発明のプログラムの第2の態様は、現実空間の映像と画像データとを合成して表示させることが可能な拡張現実感提示装置によって実行される拡張現実感提示方法をコンピュータに実行させるためのプログラムであって、撮影により取得された人物の2次元画像データに基づいて、前記人物の所定の部位を認識する認識ステップと、前記認識ステップによる認識結果に基づいて、前記人物の2次元画像データと複数のオブジェクトの2次元画像データとの位置合わせを行う位置合わせステップと、前記複数のオブジェクトに含まれる第1のオブジェクト上に重ねて配置される、前記複数のオブジェクトに含まれる前記第2のオブジェクトの2次元画像データの所定の部分を抜き加工する加工ステップと、前記位置合わせステップによる位置合わせの結果に基づいて、前記人物の2次元画像データ上に前記複数のオブジェクトの2次元画像データが重なり、且つ、前記第1のオブジェクトの2次元画像データ上に前記加工ステップにより抜き加工された前記第2のオブジェクトの2次元画像データが重なるように表示手段に表示させる表示制御ステップとをコンピュータに実行させることを特徴とする。
A first aspect of the augmented reality presentation apparatus according to the present invention is an augmented reality presentation apparatus capable of combining and displaying a video of real space and image data, and is a method for displaying a 3 person obtained by photographing. Recognition means for recognizing a predetermined part of the person based on the three-dimensional image data, and alignment of the three-dimensional image data of the person and the three-dimensional image data of a plurality of objects based on the recognition result by the recognition means Positioning means for performing the positioning, and arranging the three-dimensional image data of the plurality of objects outside the three-dimensional image data of the person based on the result of the positioning by the positioning means, and the plurality of objects The 3D image data of the second object included in the plurality of objects is arranged outside the 3D image data of the first object included. And having a display control means for displaying on the device.
A second aspect of the augmented reality presentation device according to the present invention is an augmented reality presentation device capable of combining and displaying a video of real space and image data, and is for a person acquired by photographing. Recognition means for recognizing a predetermined part of the person based on the two-dimensional image data, and alignment of the two-dimensional image data of the person and the two-dimensional image data of a plurality of objects based on the recognition result by the recognition means And a predetermined portion of the two-dimensional image data of the second object included in the plurality of objects that are arranged on the first object included in the plurality of objects. Two-dimensional images of the plurality of objects on the two-dimensional image data of the person based on the result of alignment by the first processing means and the alignment means Display that displays on the display means such that the image data overlaps and the two-dimensional image data of the second object that has been processed by the first processing means overlaps the two-dimensional image data of the first object. And a control means.
A first aspect of the augmented reality presenting method of the present invention is an augmented reality presenting method executed by an augmented reality presenting apparatus capable of combining and displaying a video of real space and image data. A recognition step for recognizing a predetermined part of the person based on the three-dimensional image data of the person acquired by photographing, and the three-dimensional image data of the person and a plurality of objects based on the recognition result of the recognition step An alignment step for aligning with the three-dimensional image data, and arranging the three-dimensional image data of the plurality of objects outside the three-dimensional image data of the person based on the alignment result of the alignment step And included in the plurality of objects outside the three-dimensional image data of the first object included in the plurality of objects. That is characterized by having a display control step of displaying on the display unit by arranging the three-dimensional image data of the second object.
A second aspect of the augmented reality presenting method of the present invention is an augmented reality presenting method executed by an augmented reality presenting apparatus capable of combining and displaying video in real space and image data. A recognition step for recognizing a predetermined part of the person based on the two-dimensional image data of the person acquired by photographing, and the two-dimensional image data of the person and a plurality of objects based on the recognition result of the recognition step An alignment step for performing alignment with the two-dimensional image data, and a two-dimensional image of the second object included in the plurality of objects, which is arranged on the first object included in the plurality of objects. Based on the processing step of punching a predetermined portion of the image data and the alignment result of the alignment step, Two-dimensional image data of the plurality of objects overlaps with the two-dimensional image data, and the two-dimensional image data of the second object that has been cut out by the processing step on the two-dimensional image data of the first object. And a display control step for displaying on the display means so as to overlap each other.
According to a first aspect of the program of the present invention, there is provided a computer for executing an augmented reality presentation method executed by an augmented reality presentation apparatus capable of combining and displaying a video of real space and image data. A recognition step for recognizing a predetermined part of the person based on the three-dimensional image data of the person acquired by photographing, and the three-dimensional image data of the person based on the recognition result of the recognition step An alignment step for aligning the three-dimensional image data of the plurality of objects with the three-dimensional image data of the plurality of objects outside the three-dimensional image data of the person based on the alignment result of the alignment step Outside the 3D image data of the first object included in the plurality of objects in which image data is arranged In, characterized in that to execute a display control step of displaying on the display unit by arranging the three-dimensional image data of a second object included in the plurality of objects in a computer.
A second aspect of the program of the present invention is a program for causing a computer to execute an augmented reality presentation method executed by an augmented reality presentation device capable of combining and displaying a video of real space and image data. A recognition step for recognizing a predetermined part of the person based on the two-dimensional image data of the person acquired by photographing, and the two-dimensional image data of the person based on the recognition result of the recognition step An alignment step for aligning the two-dimensional image data of the plurality of objects with the second object included in the plurality of objects, which is arranged on the first object included in the plurality of objects. A processing step for cutting a predetermined portion of the two-dimensional image data of the object, and a position by the positioning step The two-dimensional image data of the plurality of objects is overlapped on the two-dimensional image data of the person and the two-dimensional image data of the first object is cut out by the processing step based on the result of matching. A display control step of causing the display unit to display the two-dimensional image data of the second object so as to overlap is executed by the computer.

本発明によれば、重ねて表示される複数のオブジェクト間における手前と奥との配置関係を自由に表現することが可能となる。   According to the present invention, it is possible to freely express the positional relationship between the front and back between a plurality of objects displayed in an overlapping manner.

本発明の第1の実施形態に係るAR表示システムの構成を概略的に示す図である。1 is a diagram schematically showing a configuration of an AR display system according to a first embodiment of the present invention. 本発明の第1の実施形態に係るAR表示システムの機能的な構成を示すブロック図である。It is a block diagram which shows the functional structure of the AR display system which concerns on the 1st Embodiment of this invention. 本発明の実施形態における拡張現実感提示装置のハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of the augmented reality presentation apparatus in embodiment of this invention. 本発明の第1の実施形態に係るAR表示システムの動作を示すフローチャートである。It is a flowchart which shows operation | movement of AR display system which concerns on the 1st Embodiment of this invention. ステップS205における各オブジェクトの配置処理を具体的に説明するための図である。It is a figure for demonstrating concretely the arrangement | positioning process of each object in step S205. ステップS205における抜き加工処理について詳細に説明するための図である。It is a figure for demonstrating in detail the blanking process in step S205. ステップS206における抜き加工処理を具体的に説明するための図である。It is a figure for demonstrating concretely the punching process in step S206. 本発明の第2の実施形態に係るAR表示システムの機能的な構成を示すブロック図である。It is a block diagram which shows the functional structure of the AR display system which concerns on the 2nd Embodiment of this invention. 本発明の第2の実施形態に係るAR表示システムの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the AR display system which concerns on the 2nd Embodiment of this invention. ステップS407における各オブジェクトの配置処理を具体的に説明するための図である。It is a figure for demonstrating concretely the arrangement | positioning process of each object in step S407. 本発明の第2の実施形態における抜き加工処理について詳細に説明するための図である。It is a figure for demonstrating in detail the blanking process in the 2nd Embodiment of this invention. 本発明の第3の実施形態に係るAR表示システムの構成を概略的に示す図である。It is a figure which shows schematically the structure of the AR display system which concerns on the 3rd Embodiment of this invention.

以下、本発明を適用した好適な実施形態を、添付図面を参照しながら詳細に説明する。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments to which the invention is applied will be described in detail with reference to the accompanying drawings.

先ず、本発明の第1の実施形態について説明する。図1は、本発明の第1の実施形態に係るAR表示システムの構成を概略的に示す図である。図1に示すように、本実施形態に係るAR表示システムは、撮影により被写体の3次元画像データを生成する3次元カメラ20と、3次元カメラ20により生成された3次元画像データを入力してディスプレイに表示するとともに、当該被写体の3次元画像データと整合する位置に衣服等のオブジェクトの3次元画像データを合成表示する拡張現実感提示装置10とにより構成される。拡張現実感提示装置10は、例えばワイシャツやTシャツ等の装着物のオブジェクトの3次元画像データを格納しており、これらのオブジェクトの3次元画像データ30、40を、被写体である人物の3次元画像データ50と整合する位置に合成表示することにより、仮想的に人物がワイシャツやTシャツを試着しているような映像を提示することができる。以下では、このように現実空間の映像にコンピュータグラフィックス画像データを合成表示して拡張された現実感を演出することを、AR(Augmented Reality)表示と称することがある。なお、3次元カメラ20と拡張現実感提示装置10とはLAN等の通信回線により接続されている。   First, a first embodiment of the present invention will be described. FIG. 1 is a diagram schematically showing the configuration of an AR display system according to the first embodiment of the present invention. As shown in FIG. 1, the AR display system according to the present embodiment inputs a 3D camera 20 that generates 3D image data of a subject by photographing, and 3D image data generated by the 3D camera 20. The augmented reality presentation device 10 is configured to display on the display and to synthesize and display the 3D image data of the object such as clothes at a position matching the 3D image data of the subject. The augmented reality presentation device 10 stores, for example, three-dimensional image data of objects such as shirts and T-shirts, and the three-dimensional image data 30 and 40 of these objects are stored as three-dimensional images of a person who is a subject. By combining and displaying the image data 50 at a position that matches the image data 50, it is possible to present an image in which a person is virtually trying on a shirt or T-shirt. In the following description, such a combination of computer graphics image data displayed on a real-space image to produce an expanded reality may be referred to as AR (Augmented Reality) display. The three-dimensional camera 20 and the augmented reality presentation device 10 are connected by a communication line such as a LAN.

以下で説明する実施形態においては、AR表示を行うデバイスであるAR表示デバイスの例としてPC型のAR表示デバイスを挙げているが、これに限られない。例えば、カメラ機能と画像表示機能とが搭載された携帯端末型のAR表示デバイスも適用することができる。   In the embodiments described below, a PC-type AR display device is cited as an example of an AR display device that is a device that performs AR display, but the present invention is not limited thereto. For example, a mobile terminal type AR display device equipped with a camera function and an image display function can also be applied.

図2は、本実施形態に係るAR表示システムの機能的な構成を示すブロック図である。図2において、3次元カメラ20は、3次元画像撮影部201と画像データ送信部202とを備える。3次元画像撮影部201は、撮影により人物の3次元画像データを生成する。画像データ送信部202は、3次元画像撮影部201により生成された3次元画像データを拡張現実感提示装置10に対して送信する。   FIG. 2 is a block diagram showing a functional configuration of the AR display system according to the present embodiment. In FIG. 2, the three-dimensional camera 20 includes a three-dimensional image photographing unit 201 and an image data transmission unit 202. A three-dimensional image photographing unit 201 generates three-dimensional image data of a person by photographing. The image data transmission unit 202 transmits the 3D image data generated by the 3D image capturing unit 201 to the augmented reality presentation device 10.

拡張現実感提示装置10は、画像データ受信部101、人体認識部102、オブジェクト格納部103、オブジェクト検索部104、位置合わせ部105、オブジェクト配置部106、抜き加工部107、色指定部108及び表示制御部109を備える。   The augmented reality presentation device 10 includes an image data receiving unit 101, a human body recognition unit 102, an object storage unit 103, an object search unit 104, an alignment unit 105, an object placement unit 106, a punching processing unit 107, a color designation unit 108, and a display. A control unit 109 is provided.

画像データ受信部101は、3次元カメラ20の画像データ送信部202より送信された人物の3次元画像データを受信する。人体認識部102は、人物の3次元画像データに基づいて、顔や両肩等の人体の所定の部位や人体のサイズの認識等、人体に関する認識処理を行う。オブジェクト格納部103は、ワイシャツやTシャツ等、装着物のオブジェクトの3次元画像データを格納している。オブジェクト検索部104は、人体認識部102の認識結果に基づいて、人体に適合するオブジェクトの3次元画像データを検索する。位置合わせ部105は、人体認識部102の認識結果に基づいて、人物の3次元画像データと、オブジェクト検索部104で検索されたオブジェクトの3次元画像データとの位置合わせを行う。オブジェクト配置部106は、位置合わせ部105による位置合わせの結果に応じてオブジェクトの3次元画像データを仮想3次元空間内に配置する。これにより、人物の3次元画像データと各オブジェクトの3次元画像データとが整合した位置に配置され、人物が各装着物のオブジェクトを試着したように見える。   The image data receiving unit 101 receives the 3D image data of the person transmitted from the image data transmitting unit 202 of the 3D camera 20. The human body recognition unit 102 performs human body recognition processing such as recognition of a predetermined part of the human body such as the face and both shoulders and the size of the human body based on the three-dimensional image data of the person. The object storage unit 103 stores three-dimensional image data of an object such as a shirt or a T-shirt. Based on the recognition result of the human body recognition unit 102, the object search unit 104 searches for 3D image data of an object that matches the human body. The alignment unit 105 aligns the 3D image data of the person and the 3D image data of the object searched by the object search unit 104 based on the recognition result of the human body recognition unit 102. The object arrangement unit 106 arranges the three-dimensional image data of the object in the virtual three-dimensional space according to the result of the alignment performed by the alignment unit 105. As a result, the person's 3D image data and the 3D image data of each object are arranged at a matching position, and it looks as if the person tried on the object of each attachment.

色指定部108は、ユーザに任意の色を指定させる操作手段に対応する。抜き加工部107は、人物の3次元画像データのうち、色指定部108によって指定された色に該当する部分に重畳する、各オブジェクトの3次元画像データの部分を抜き加工する。抜き加工とは、対象となる部分を透明化することである。例えば、仮想3次元空間において、第1のオブジェクトと第2のオブジェクトとが奥行き方向に重なるように配置された状態(第1のオブジェクトが奥、第2のオブジェクトが手前に配置された状態)において、第2のオブジェクトのある部分が抜き加工されると、その部分に隠れていた第1のオブジェクトの部分の3次元画像データが透けて見えるようになる。表示制御部109は、仮想3次元空間に配置された各3次元画像データをディスプレイ307に表示する。   The color designation unit 108 corresponds to an operation unit that allows the user to designate an arbitrary color. The punching processing unit 107 punches out the 3D image data portion of each object to be superimposed on the portion corresponding to the color specified by the color specifying unit 108 in the 3D image data of the person. The punching process is to make a target part transparent. For example, in the virtual three-dimensional space, the first object and the second object are arranged so as to overlap in the depth direction (the first object is arranged in the back and the second object is arranged in the foreground). When a part of the second object is punched out, the three-dimensional image data of the part of the first object hidden in the part can be seen through. The display control unit 109 displays each 3D image data arranged in the virtual 3D space on the display 307.

図3は、本実施形態における拡張現実感提示装置10のハードウェア構成を示す図である。図3において、CPU301は、システムバスに接続される各デバイスやコントローラを統括的に制御する。ROM302には、CPU301の制御プログラムであるオペレーティングシステム(OS)が記憶されている。HDD305には、図2に示した各機能を実現するためのプログラムが記憶されている。RAM303は、CPU301の主メモリ、ワークエリア、一時退避領域等として機能する。通信I/Fコントローラ304は、ネットワークを介して外部機器(例えば、3次元カメラ20)との通信制御処理を実行する。なお、HDD305の代替手段として、SDD(Solid State Drive)を用いてもよい。ディスプレイコントローラ306は、ディスプレイ307に対する画像表示を制御する。   FIG. 3 is a diagram illustrating a hardware configuration of the augmented reality presentation device 10 according to the present embodiment. In FIG. 3, a CPU 301 comprehensively controls each device and controller connected to the system bus. The ROM 302 stores an operating system (OS) that is a control program for the CPU 301. The HDD 305 stores a program for realizing each function shown in FIG. The RAM 303 functions as a main memory, work area, temporary save area, and the like for the CPU 301. The communication I / F controller 304 executes communication control processing with an external device (for example, the three-dimensional camera 20) via a network. As an alternative to the HDD 305, an SDD (Solid State Drive) may be used. The display controller 306 controls image display on the display 307.

図2における、画像データ受信部101は、通信I/Fコントローラ304に対応する構成である。人体認識部102、オブジェクト検索部104、位置合わせ部105、オブジェクト配置部106、抜き加工部107は、CPU301及びHDD305に記憶されるプログラムに対応する構成である。表示制御部109は、ディスプレイコントローラ306に対応する構成である。オブジェクト格納部103は、HDD305に対応する構成である。色指定部108は、不図示のマウスやキーボード等の操作手段に対応する構成である。   The image data receiving unit 101 in FIG. 2 has a configuration corresponding to the communication I / F controller 304. The human body recognition unit 102, the object search unit 104, the alignment unit 105, the object placement unit 106, and the punching processing unit 107 are configured to correspond to programs stored in the CPU 301 and the HDD 305. The display control unit 109 has a configuration corresponding to the display controller 306. The object storage unit 103 has a configuration corresponding to the HDD 305. The color designation unit 108 has a configuration corresponding to an operation unit such as a mouse or a keyboard (not shown).

図4は、第1の実施形態に係るAR表示システムの動作を示すフローチャートである。以下、図4を参照しながら、本実施形態に係るAR表示システムの動作を詳細に説明する。   FIG. 4 is a flowchart showing the operation of the AR display system according to the first embodiment. Hereinafter, the operation of the AR display system according to the present embodiment will be described in detail with reference to FIG.

ステップS101において、3次元画像撮影部201は、被写体である人物を撮影し、当該人物の3次元画像データを生成する。ステップS102において、画像データ送信部202は、3次元画像撮影部201により生成された人物の3次元画像データを拡張現実感提示装置10に対して送信する。ステップS103において、3次元カメラ20は、ユーザによる撮影終了の操作があったか否かを判定する。撮影終了の操作があった場合、処理は終了する。一方、撮影終了の操作がない場合、処理はステップS101に戻り、人物の3次元画像データの生成、送信が繰り返される。   In step S101, the three-dimensional image photographing unit 201 photographs a person who is a subject and generates three-dimensional image data of the person. In step S <b> 102, the image data transmission unit 202 transmits the 3D image data of the person generated by the 3D image capturing unit 201 to the augmented reality presentation apparatus 10. In step S <b> 103, the three-dimensional camera 20 determines whether or not the user has performed an operation to end shooting. If there is an operation to end shooting, the process ends. On the other hand, when there is no photographing end operation, the process returns to step S101, and generation and transmission of the three-dimensional image data of the person are repeated.

ステップS201において、画像データ受信部101は、3次元カメラ20から人物の3次元画像データを受信する。ステップS202において、人体認識部102は、人物の3次元画像データに基づいて、顔や両肩等の人体の所定の部位や人体のサイズ等を認識する。人体の所定の部位の認識方法としては、例えば、モデルとなる顔や両肩等の画像データを予め用意しておき、人物の3次元画像データとマッチングすることにより、これらの部位を認識する方法等が挙げられる。   In step S <b> 201, the image data receiving unit 101 receives 3D image data of a person from the 3D camera 20. In step S202, the human body recognition unit 102 recognizes a predetermined part of the human body such as the face and both shoulders, the size of the human body, and the like based on the three-dimensional image data of the person. As a method for recognizing a predetermined part of a human body, for example, a method of recognizing these parts by preparing image data of a model face and both shoulders in advance and matching with three-dimensional image data of a person Etc.

また、人体の骨格モデル情報を骨格モデルデータベース(図示せず)で保持し、カメラで撮影された3次元画像データに対して不自然な部位認識をしないようにすることもできる。例えば、撮影された人物像の顔部分と背景部分に基づいて背景を誤って人体と認識してしまう可能性がある。誤認識を起こすと、顔と体の相対位置がずれてしまったり、肘や膝が本来曲がらない反対側に曲がって判断されてしまう等の不都合が生じる。そこで、人体の骨格モデル情報として、顔と体の相対位置や肘・膝の曲がり方向・角度等を保持し、認識された顔等を基準に骨格モデル情報に適合した人体の部位を特定するようにするとよい。   It is also possible to store human skeleton model information in a skeleton model database (not shown) so that unnatural part recognition is not performed on three-dimensional image data captured by a camera. For example, there is a possibility that the background is mistakenly recognized as a human body based on the face portion and background portion of the photographed person image. When misrecognition occurs, the relative position of the face and body shifts, and inconveniences such as the elbow and the knee being bent to the opposite side where they are not bent are judged. Therefore, as the skeleton model information of the human body, the relative position of the face and body, the bending direction and angle of the elbow / knee, etc. are retained, and the human body part suitable for the skeleton model information is specified based on the recognized face etc. It is good to make it.

その他、人物の3次元画像データをディスプレイに表示させ、ユーザに顔や両肩等を指示入力させることにより、これらの部位を認識するようにしてもよい。なお、ここで認識する部位は、人物の3次元画像データとオブジェクトの3次元画像データとの位置を整合させるために利用するものであるため、顔や両肩に限定されないことは勿論である。例えば、オブジェクトがズボンである場合には、腰や足首等を認識するようにすればよい。また、人体のサイズの認識方法は、例えば、人物との被写体距離と当該人物の撮影画像のサイズとに基づいて認識する方法等が挙げられる。人体のサイズは、当該人物がキーボード等の操作手段を使用して自ら入力するようにしてもよい。   In addition, these parts may be recognized by displaying three-dimensional image data of a person on a display and causing the user to input an instruction such as a face or both shoulders. In addition, since the site | part recognized here is used in order to match the position of the person's 3D image data and the object's 3D image data, it is not limited to the face and both shoulders. For example, when the object is pants, the waist, ankle, etc. may be recognized. Examples of the method for recognizing the size of the human body include a method for recognizing based on the subject distance from the person and the size of the photographed image of the person. The size of the human body may be input by the person himself using an operation means such as a keyboard.

ステップS203において、オブジェクト検索部104は、人物の3次元画像データに基づいて、オブジェクト格納部103から当該人物に適合するオブジェクトの3次元画像データを検索する。ここでは、ステップS202において認識された人体のサイズに合ったオブジェクトの3次元画像データが検索される。なお、本実施形態は、現実の重ね着に近い着用状態をAR表示にて表現するものであるため、ステップS203では、当該人物について少なくとも2以上のオブジェクトの3次元画像データが検索されるものとする。   In step S203, the object search unit 104 searches the object storage unit 103 for 3D image data of an object that matches the person based on the 3D image data of the person. Here, the three-dimensional image data of the object matching the size of the human body recognized in step S202 is searched. In addition, since this embodiment represents the wearing state close | similar to the actual layering by AR display, in step S203, the 3D image data of the at least 2 or more object is searched about the said person. To do.

ステップS204において、位置合わせ部105は、人物の3次元画像データに基づいて、人物の3次元画像データと、オブジェクト検索部104で検索された各オブジェクトの3次元画像データとの位置合わせを行う。即ち、位置合わせ部105は、人体認識部102によって認識された人体の部位を基準にして各オブジェクトの3次元画像データの位置を決定する。例えば、両肩が認識されている場合、その両肩と、ワイシャツやTシャツのオブジェクトの両肩部分が一致するように、ワイシャツやTシャツの配置位置及び向きが決定される。また、顔の認識されている場合には、目や口等の位置からどの方向に顔が向いているのか判定し、顔の向きと整合するように帽子の配置位置及び向きが決定される。   In step S <b> 204, the alignment unit 105 performs alignment between the 3D image data of the person and the 3D image data of each object searched by the object search unit 104 based on the 3D image data of the person. That is, the alignment unit 105 determines the position of the three-dimensional image data of each object based on the part of the human body recognized by the human body recognition unit 102. For example, when both shoulders are recognized, the arrangement position and orientation of the shirt and the T-shirt are determined so that the shoulders coincide with both shoulder portions of the shirt and the T-shirt object. When the face is recognized, it is determined in which direction the face is facing from the position of the eyes or mouth, and the arrangement position and orientation of the hat are determined so as to match the face orientation.

ステップS205において、オブジェクト配置部106は、位置合わせ部105による位置合わせの結果に応じて、各オブジェクトの3次元画像データを仮想3次元空間内に配置する。これにより、人物が各オブジェクトを試着したような配置状態となる。   In step S <b> 205, the object placement unit 106 places the three-dimensional image data of each object in the virtual three-dimensional space according to the result of the positioning performed by the positioning unit 105. Thereby, it will be in the arrangement state as if a person tried on each object.

図5は、ステップS205における各オブジェクトの配置処理を具体的に説明するための図である。図5において、501は、仮想3次元空間内に人物の3次元画像データだけが配置されている状態を表している。502は、位置合わせ部105の位置合わせの結果に応じて、ワイシャツ(第1のオブジェクト)の3次元画像データを人物の3次元画像データと整合するように配置した状態を表している。503は、位置合わせ部105の位置合わせの結果に応じて、Tシャツ(第2のオブジェクト)の3次元画像データを人物の3次元画像データと整合するように配置した状態を表している。このとき、503に示すように、ワイシャツの3次元画像データはTシャツの3次元画像データの内側に配置されているが、ワイシャツの襟の部分がTシャツの外側に出てしまうようなワイシャツの形状の場合がある。この状態においても現実の重ね着に近い状態が表現されているが、ユーザによっては、ワイシャツの襟がTシャツの内側に入った状態も見たいという場合がある。このような場合、ユーザがその旨の指示を与えると、抜き加工部107は、ワイシャツの襟の部分のうち、Tシャツと重畳する部分を抜き加工する。これにより、Tシャツの外側に出ていたワイシャツの襟の部分が透明化され、ワイシャツの襟がTシャツの内側に入ったような状態となる。   FIG. 5 is a diagram for specifically explaining the arrangement processing of each object in step S205. In FIG. 5, reference numeral 501 represents a state in which only three-dimensional image data of a person is arranged in the virtual three-dimensional space. Reference numeral 502 denotes a state in which the three-dimensional image data of the shirt (first object) is arranged so as to match the three-dimensional image data of the person according to the alignment result of the alignment unit 105. Reference numeral 503 denotes a state in which the 3D image data of the T-shirt (second object) is arranged so as to be aligned with the 3D image data of the person according to the alignment result of the alignment unit 105. At this time, as shown at 503, the three-dimensional image data of the shirt is arranged inside the three-dimensional image data of the T-shirt, but the shirt collar such that the collar portion of the shirt appears outside the T-shirt. It may be a shape. Even in this state, a state close to actual layering is expressed, but some users may want to see a state in which the shirt collar is inside the T-shirt. In such a case, when the user gives an instruction to that effect, the punching processing unit 107 punches out a portion of the shirt collar that overlaps the T-shirt. Thereby, the collar portion of the shirt that has been outside the T-shirt is made transparent, and the shirt collar enters the inside of the T-shirt.

図6は、上記の抜き加工について詳細に説明するための図である。図6において、601は、ワイシャツの3次元画像データとTシャツの3次元画像データとの位置関係を示している。601の破線がTシャツの3次元画像データの位置を表している。602は、ワイシャツの襟のうち、Tシャツと重畳する部分、即ち、Tシャツの外側に出ている襟の部分を示しており、一点鎖線で囲まれた部分がそれに該当する。この一点鎖線で囲まれた部分を抜き加工(透明化)することにより、その奥に位置するワイシャツの部分が透けて表示され、図5の504に示すように、ワイシャツの襟がTシャツの内側に入ったような状態となる。   FIG. 6 is a diagram for explaining the above-described punching process in detail. In FIG. 6, reference numeral 601 denotes the positional relationship between the shirt three-dimensional image data and the T-shirt three-dimensional image data. A broken line 601 represents the position of the three-dimensional image data of the T-shirt. Reference numeral 602 denotes a portion of the shirt collar that overlaps with the T-shirt, that is, a portion of the collar that protrudes outside the T-shirt, and a portion surrounded by an alternate long and short dash line corresponds thereto. The portion surrounded by the alternate long and short dash line is punched out (transparent), so that the portion of the shirt located behind it is displayed transparently. As shown at 504 in FIG. 5, the collar of the shirt is the inner side of the T-shirt. It becomes the state that entered.

ステップS206において、抜き加工部107は、仮想3次元空間内に人物の3次元画像データ及び各オブジェクトの3次元画像データが配置された状態において、人物の3次元画像データのうち、色指定部108により指定された色に該当する部分と重畳する、各オブジェクトの3次元画像データの部分を抜き加工する。例えば、色指定部108により髪の色が指定された場合、人物の3次元画像データのうち、髪の色と同一色の部分(髪の部分)と重畳する各オブジェクトの3次元画像データの部分が抜き加工される。これにより、人物の3次元画像データの外側に各オブジェクトの3次元画像データが配置される際に、人物の髪は必ず各オブジェクトの外側に位置するように表示されることになる。   In step S <b> 206, the punching processing unit 107 includes the color designation unit 108 in the human three-dimensional image data in a state where the human three-dimensional image data and the three-dimensional image data of each object are arranged in the virtual three-dimensional space. The part of the three-dimensional image data of each object to be superimposed on the part corresponding to the color designated by the above is processed. For example, when the hair color is designated by the color designation unit 108, the part of the 3D image data of each object to be superimposed on the part of the same color as the hair color (hair part) in the 3D image data of the person Is punched. Thus, when the 3D image data of each object is arranged outside the 3D image data of the person, the hair of the person is always displayed so as to be positioned outside the object.

図7は、ステップS206における抜き加工処理を具体的に説明するための図である。人物の外側に、ワイシャツの3次元画像データとTシャツの3次元画像データとを配置すると、701に示すように、髪の外側にワイシャツやTシャツが出ているような状態になることがある。実際の着用状態においては、髪の外側にワイシャツやTシャツが出ているようなことは殆どないので、実際の衣服の着用状態に近づけるように3次元画像データを加工することが望ましい。そこで本実施形態では、色指定部108により髪の色が指定されると、人物の3次元画像データのうち、指定された色と同一色の部分と重畳するワイシャツやTシャツの3次元画像データの部分7011を抜き加工する。これにより、702に示すように、ワイシャツやTシャツの3次元画像データに隠れていた髪の部分が見えるようになり、ワイシャツやTシャツの外側に髪が出たような状態となる。   FIG. 7 is a diagram for specifically explaining the punching process in step S206. When the 3D image data of the shirt and the 3D image data of the T-shirt are arranged outside the person, a shirt or a T-shirt may appear on the outside of the hair as indicated by 701. . In an actual wearing state, there is almost no shirt or T-shirt appearing on the outside of the hair, so it is desirable to process the three-dimensional image data so as to approximate the wearing state of the actual clothes. Therefore, in the present embodiment, when the hair color is designated by the color designation unit 108, the three-dimensional image data of shirts and T-shirts that are superimposed on the same color portion as the designated color among the three-dimensional image data of the person. The part 7011 is cut and processed. As a result, as shown at 702, the hair portion hidden in the three-dimensional image data of the shirt or T-shirt can be seen, and the hair appears on the outside of the shirt or T-shirt.

また、特定のオブジェクトについては、ステップS206における抜き加工処理を無効化するようにしてもよい。具体的には、例えば帽子、フード等の髪の上に表示させたいオブジェクトについては、仮に髪と重畳する位置にそれらのオブジェクトが配置されていても抜き加工処理は実行しないようにする。これにより、帽子やフード等を頭にかぶった状態を表現することができる。   Further, for a specific object, the punching process in step S206 may be invalidated. Specifically, for example, for objects such as hats and hoods that are to be displayed on the hair, the punching process is not executed even if the objects are arranged at positions that overlap the hair. As a result, it is possible to express a state of wearing a hat, a hood, or the like on the head.

ステップS207において、表示制御部109は、人物や各オブジェクトの3次元画像データをディスプレイ307に表示する。このとき、ディスプレイ307は平面形状であるため、3次元画像データから2次元画像データへの変換処理が行われる。   In step S207, the display control unit 109 displays the three-dimensional image data of the person and each object on the display 307. At this time, since the display 307 has a planar shape, conversion processing from three-dimensional image data to two-dimensional image data is performed.

ステップS208において、拡張現実感提示装置10は、ユーザによる撮影終了の操作があったか否かを判定する。この判定処理は、ステップS103と連動するものであってもよいし、拡張現実感提示装置10単独のものであってもよい。撮影終了の操作があった場合、処理は終了する。一方、撮影終了の操作がない場合、処理はステップS201に戻り、3次元カメラ20から受信する3次元画像データに基づくAR表示が繰り返される。   In step S <b> 208, the augmented reality presentation device 10 determines whether or not there has been a shooting end operation by the user. This determination process may be linked to step S103, or may be performed by the augmented reality presentation device 10 alone. If there is an operation to end shooting, the process ends. On the other hand, if there is no operation for ending photographing, the process returns to step S201, and AR display based on the 3D image data received from the 3D camera 20 is repeated.

次に、本発明の第2の実施形態について説明する。第2の実施形態に係るAR表示システムの概略構成は、図1に示す構成と略同一であり、3次元カメラ20が2次元カメラ10に代わることと、拡張現実感提示装置10が2次元画像データに対応した機能を持つことが第1の実施形態と相違する。   Next, a second embodiment of the present invention will be described. The schematic configuration of the AR display system according to the second embodiment is substantially the same as the configuration shown in FIG. 1, and the three-dimensional camera 20 is replaced with the two-dimensional camera 10, and the augmented reality presentation device 10 is a two-dimensional image. It differs from the first embodiment in having a function corresponding to data.

図8は、本実施形態に係るAR表示システムの機能的な構成を示すブロック図である。図8において、2次元カメラ80は、2次元画像撮影部801と画像データ送信部802とを備える。2次元画像撮影部801は、撮影により人物の2次元画像データを生成する。画像データ送信部802は、2次元画像撮影部801により生成された2次元画像データを拡張現実感提示装置90に対して送信する。   FIG. 8 is a block diagram showing a functional configuration of the AR display system according to the present embodiment. In FIG. 8, the two-dimensional camera 80 includes a two-dimensional image capturing unit 801 and an image data transmission unit 802. A two-dimensional image photographing unit 801 generates two-dimensional image data of a person by photographing. The image data transmission unit 802 transmits the 2D image data generated by the 2D image capturing unit 801 to the augmented reality presentation device 90.

拡張現実感提示装置90は、画像データ受信部901、人体認識部902、オブジェクト格納部903、オブジェクト検索部904、変換部905、位置合わせ部906、第1の抜き加工部907、オブジェクト配置部908、第2の抜き加工部909、色指定部910、表示制御部911を備える。   The augmented reality presentation device 90 includes an image data receiving unit 901, a human body recognition unit 902, an object storage unit 903, an object search unit 904, a conversion unit 905, a positioning unit 906, a first blanking unit 907, and an object placement unit 908. , A second punching unit 909, a color designation unit 910, and a display control unit 911.

画像データ受信部901は、2次元カメラ80の画像データ送信部802により送信された人物の2次元画像データを受信する。人体認識部902は、人物の2次元画像データに基づいて、顔や両肩等の人物の所定の部位や人体のサイズの認識等、人体に関する認識処理を行う。オブジェクト格納部903は、ワイシャツやTシャツ等、装着物のオブジェクトの3次元画像データを格納している。オブジェクト検索部904は、人体認識部902の認識結果に基づいて、人体に適合するオブジェクトの3次元画像データを検索する。位置合わせ部906は、人体認識部902の認識結果に基づいて、人物の3次元画像データと各オブジェクトの3次元画像データとの位置合わせを行う。変換部905は、位置合わせ部906による位置合わせの結果に応じて、オブジェクト検索部904によって検索された各オブジェクトの3次元画像データを2次元画像データに変換する。第1の抜き加工部907は、或るオブジェクト(第1のオブジェクト)の2次元画像データ上に重ねて配置される他のオブジェクト(第2のオブジェクト)の2次元画像データの所定の部分を抜き加工する処理を行う。オブジェクト配置部908は、位置合わせ部906による位置合わせの結果に応じてオブジェクトの2次元画像データを配置する。これにより、人物の2次元画像データと各オブジェクトの2次元画像データとが整合する位置に配置され、人物が各装着物のオブジェクトを試着したように見える。   The image data receiving unit 901 receives the two-dimensional image data of the person transmitted by the image data transmitting unit 802 of the two-dimensional camera 80. The human body recognition unit 902 performs recognition processing related to the human body, such as recognition of a predetermined part of the person such as the face and both shoulders and the size of the human body based on the two-dimensional image data of the person. The object storage unit 903 stores three-dimensional image data of an object such as a shirt or a T-shirt. Based on the recognition result of the human body recognition unit 902, the object search unit 904 searches for three-dimensional image data of an object that matches the human body. The alignment unit 906 aligns the 3D image data of the person and the 3D image data of each object based on the recognition result of the human body recognition unit 902. The conversion unit 905 converts the three-dimensional image data of each object searched by the object search unit 904 into two-dimensional image data according to the alignment result by the alignment unit 906. The first punching processing unit 907 extracts a predetermined portion of the two-dimensional image data of another object (second object) arranged so as to be superimposed on the two-dimensional image data of a certain object (first object). Process to process. The object arrangement unit 908 arranges the two-dimensional image data of the object according to the result of the alignment performed by the alignment unit 906. As a result, the two-dimensional image data of the person and the two-dimensional image data of each object are arranged at a matching position, and it looks as if the person tried on the object of each attachment.

色指定部910は、ユーザに任意の色を指定させる操作手段に対応する。第2の抜き加工部909は、人物の2次元画像データのうち、色指定部910によって指定された色に該当する部分に重畳する、各オブジェクトの2次元画像データの部分を抜き加工する。2次元画像データの抜き加工も3次元画像データの抜き加工と同様である。例えば、第1のオブジェクトと第2のオブジェクトとが奥行き方向に重なるように配置された状態(第1のオブジェクトが奥、第2のオブジェクトが手前に配置された状態)において、第2のオブジェクトのある部分が抜き加工されると、その部分に隠れていた第1のオブジェクトの部分の2次元画像データが透けて見えるようになる。表示制御部911は、配置された各2次元画像データをディスプレイ912に表示する。   The color designation unit 910 corresponds to an operation unit that allows the user to designate an arbitrary color. The second blanking unit 909 cuts and processes the part of the two-dimensional image data of each object to be superimposed on the part corresponding to the color designated by the color designation unit 910 in the two-dimensional image data of the person. The two-dimensional image data blanking process is the same as the three-dimensional image data blanking process. For example, in a state where the first object and the second object are arranged so as to overlap each other in the depth direction (a state where the first object is located at the back and the second object is located at the front), the second object When a certain part is punched, the two-dimensional image data of the part of the first object hidden in the part can be seen through. The display control unit 911 displays each arranged two-dimensional image data on the display 912.

なお、第2の実施形態における拡張現実感提示装置90のハードウェア構成は、図3に示す構成と同様である。即ち、図8の画像データ受信部901は、通信I/Fコントローラ304に対応する構成である。人体認識部902、オブジェクト検索部904、変換部905、位置合わせ部906、第1の抜き加工部907、オブジェクト配置部908、第2の抜き加工部909は、CPU301及びHDD305に記憶されるプログラムに対応する構成である。表示制御部911は、ディスプレイコントローラ306に対応する構成である。オブジェクト格納部903は、HDD305に対応する構成である。色指定部910は、不図示のマウスやキーボード等の操作部に対応する構成である。   Note that the hardware configuration of the augmented reality presentation device 90 in the second embodiment is the same as the configuration shown in FIG. That is, the image data receiving unit 901 in FIG. 8 has a configuration corresponding to the communication I / F controller 304. The human body recognition unit 902, the object search unit 904, the conversion unit 905, the alignment unit 906, the first blanking unit 907, the object placement unit 908, and the second blanking unit 909 are stored in programs stored in the CPU 301 and the HDD 305. Corresponding configuration. The display control unit 911 has a configuration corresponding to the display controller 306. The object storage unit 903 has a configuration corresponding to the HDD 305. The color designation unit 910 has a configuration corresponding to an operation unit such as a mouse or a keyboard (not shown).

図9は、第2の実施形態に係るAR表示システムの動作を示すフローチャートである。以下、図9を参照しながら、本実施形態に係るAR表示システムの動作を詳細に説明する。   FIG. 9 is a flowchart showing the operation of the AR display system according to the second embodiment. Hereinafter, the operation of the AR display system according to the present embodiment will be described in detail with reference to FIG.

ステップS301において、2次元画像撮影部801は、被写体である人物を撮影し、当該人物の2次元画像データを生成する。ステップS302において、画像データ送信部802は、2次元画像撮影部801により生成された人物の2次元画像データを拡張現実感提示装置90に対して送信する。ステップS303において、2次元カメラ80は、ユーザによる撮影終了の操作があったか否かを判定する。撮影終了の操作があった場合、処理は終了する。一方、撮影終了の操作がない場合、処理はステップS301に戻り、人物の2次元画像データの生成、送信が繰り返される。   In step S301, the two-dimensional image capturing unit 801 captures a person who is a subject and generates two-dimensional image data of the person. In step S <b> 302, the image data transmission unit 802 transmits the two-dimensional image data of the person generated by the two-dimensional image photographing unit 801 to the augmented reality presentation device 90. In step S <b> 303, the two-dimensional camera 80 determines whether or not there has been an operation for ending shooting by the user. If there is an operation to end shooting, the process ends. On the other hand, when there is no photographing end operation, the process returns to step S301, and generation and transmission of the two-dimensional image data of the person are repeated.

ステップS401において、画像データ受信部901は、2次元カメラ80から人物の2次元画像データを受信する。ステップS402において、人体認識部902は、人物の2次元画像データに基づいて、顔や両肩等の人体の所定の部位や人体のサイズ等を認識する。人体の部位の認識方法としては、第1の実施形態と同様の方法が挙げられる。また、認識する部位が顔や両肩に限定されないことも第1の実施形態と同様である。さらに、人体のサイズの認識方法についても第1の実施形態と同様である。   In step S <b> 401, the image data receiving unit 901 receives two-dimensional image data of a person from the two-dimensional camera 80. In step S402, the human body recognition unit 902 recognizes a predetermined part of the human body such as the face and both shoulders, the size of the human body, and the like based on the two-dimensional image data of the person. As a method for recognizing a part of a human body, the same method as in the first embodiment can be mentioned. Moreover, it is the same as that of 1st Embodiment that the site | part to recognize is not limited to a face and both shoulders. Further, the human body size recognition method is the same as that in the first embodiment.

ステップS403において、オブジェクト検索部904は、人物の2次元画像データに基づいて、オブジェクト格納部903から当該人物に適合するオブジェクトの2次元画像データを検索する。ここでのオブジェクトの検索方法も第1の実施形態と同様である。また、本実施形態においても、現実の重ね着に近い着用状態をAR表示にて表現するものであるため、ステップS403では、当該人物について少なくとも2以上のオブジェクトの2次元画像データが検索されるものとする。   In step S403, the object search unit 904 searches the object storage unit 903 for 2D image data of an object that matches the person based on the 2D image data of the person. The object search method here is the same as in the first embodiment. Also in this embodiment, since the wearing state close to the actual layering is expressed by AR display, in step S403, two-dimensional image data of at least two or more objects is searched for the person. And

ステップS404において、位置合わせ部906は、人物の2次元画像データに基づいて、人物の2次元画像データと、オブジェクト検索部904により検索された各オブジェクトの2次元画像データとの位置合わせを行う。即ち、位置合わせ部906は、人体認識部902によって認識された人体の部位を基準にして各オブジェクトの3次元画像データの位置を決定する。例えば、両肩が認識されている場合、その両肩と、ワイシャツやTシャツのオブジェクトの両肩部分が一致するように、ワイシャツやTシャツの配置位置及び向きが決定される。また、顔の認識されている場合には、目や口等の位置からどの方向に顔が向いているのか判定し、顔の向きと整合するように帽子の配置位置及び向きが決定される。   In step S <b> 404, the alignment unit 906 performs alignment between the two-dimensional image data of the person and the two-dimensional image data of each object searched by the object search unit 904 based on the two-dimensional image data of the person. That is, the alignment unit 906 determines the position of the three-dimensional image data of each object based on the part of the human body recognized by the human body recognition unit 902. For example, when both shoulders are recognized, the arrangement position and orientation of the shirt and the T-shirt are determined so that the shoulders coincide with both shoulder portions of the shirt and the T-shirt object. When the face is recognized, it is determined in which direction the face is facing from the position of the eyes or mouth, and the arrangement position and orientation of the hat are determined so as to match the face orientation.

ステップS405において、変換部905は、位置合わせ部906により決定された各オブジェクトの3次元画像データの配置位置や向き等に応じて、オブジェクト検索部904により検索された各オブジェクトの3次元画像データを2次元画像データに変換する。即ち、変換部905は、ディスプレイ307上で夫々のオブジェクトが上記配置位置において上記の向きで見えるように3次元画像データから2次元画像データへの変換を行う。   In step S405, the conversion unit 905 converts the 3D image data of each object searched by the object search unit 904 in accordance with the arrangement position and orientation of the 3D image data of each object determined by the alignment unit 906. Convert to 2D image data. That is, the conversion unit 905 converts the three-dimensional image data into the two-dimensional image data so that each object can be seen in the above-described direction at the arrangement position on the display 307.

ステップS406において、第1の抜き加工部907は、或るオブジェクト(第1のオブジェクト)の2次元画像データ上に重ねて配置される他のオブジェクト(第2のオブジェクト)の2次元画像データの所定の部分を抜き加工する処理を行う。ステップS407において、オブジェクト配置部908は、位置合わせ部906による位置合わせの結果に応じて、各オブジェクトの2次元画像データを配置する。ここで配置される2次元画像データには、第1の抜き加工部907によって抜き加工が施されたオブジェクトの2次元画像データも含まれる。   In step S <b> 406, the first punching processing unit 907 determines predetermined two-dimensional image data of another object (second object) that is arranged on the two-dimensional image data of a certain object (first object). The process of punching out the part is performed. In step S407, the object arrangement unit 908 arranges the two-dimensional image data of each object according to the result of the alignment by the alignment unit 906. The two-dimensional image data arranged here includes two-dimensional image data of the object that has been subjected to the punching process by the first punching unit 907.

図10は、ステップS407における各オブジェクトの配置処理を具体的に説明するための図である。図10において、1001は、人物の2次元画像データだけが配置されている状態を表している。1002は、位置合わせ部906の位置合わせの結果に応じて、ワイシャツ(第1のオブジェクト)の2次元画像データを人物の2次元画像データと整合するように配置した状態を表している。1003は、位置合わせ部906の位置合わせの結果に応じて、Tシャツ(第2のオブジェクト)の2次元画像データを人物の2次元画像データと整合するように配置した状態を表している。1003に示す状態においては、Tシャツの2次元画像データは、ワイシャツの2次元画像データ上に単純に重ね合わされているため、ワイシャツの2次元画像データのうち、Tシャツの2次元画像データと重畳する部分は全て隠れてしまう。従って、ワイシャツの襟がTシャツの内側に入ったような状態となり、実際の重ね着の状態でワイシャツの襟がTシャツの外側に出ていることを想定しているユーザにとっては、違和感のあるAR表示となる。従って、本実施形態では、ユーザによってワイシャツの襟をTシャツの外側に出した状態の重ね着を見たい旨の指示があった場合、第1の抜き加工部907は、ワイシャツの襟の部分のうち、Tシャツと重畳する部分を抜き加工する。これにより、Tシャツの内側に入っていたワイシャツの部分が透明化され、ワイシャツの襟がTシャツの外側に出たような状態となる。また、ワイシャツとジャケットとの関係を考えた場合、単にワイシャツの2次元画像データの手前にジャケットの2次元画像データを配置すると、ワイシャツの2次元画像データの殆どがジャケットの2次元画像データに隠れてしまい、重ね着したような状態とはならない。そこで本実施形態のような抜き加工処理をジャケットの2次元画像データの該当する部分に実行すると、奥のワイシャツの2次元画像データが見えるようになり、重ね着したような状態となる。   FIG. 10 is a diagram for specifically explaining the arrangement processing of each object in step S407. In FIG. 10, reference numeral 1001 denotes a state in which only two-dimensional image data of a person is arranged. Reference numeral 1002 denotes a state in which the two-dimensional image data of the shirt (first object) is arranged so as to be aligned with the two-dimensional image data of the person in accordance with the alignment result of the alignment unit 906. Reference numeral 1003 denotes a state in which the two-dimensional image data of the T-shirt (second object) is arranged so as to be aligned with the two-dimensional image data of the person according to the alignment result of the alignment unit 906. In the state shown in 1003, since the 2D image data of the T-shirt is simply superimposed on the 2D image data of the shirt, the 2D image data of the T-shirt is superimposed on the 2D image data of the shirt. All the parts to do are hidden. Accordingly, it is uncomfortable for a user who assumes that the shirt collar is inside the T-shirt and the shirt collar is outside the T-shirt in an actual layered state. AR display is displayed. Therefore, in this embodiment, when the user gives an instruction to view the layered shirt with the shirt collar placed outside the T-shirt, the first punching section 907 displays the shirt collar portion. Of these, the part that overlaps the T-shirt is punched out. As a result, the portion of the shirt that was inside the T-shirt is made transparent, and the shirt collar comes out of the outside of the T-shirt. When considering the relationship between the shirt and the jacket, if the two-dimensional image data of the jacket is simply placed in front of the two-dimensional image data of the shirt, most of the two-dimensional image data of the shirt is hidden in the two-dimensional image data of the jacket. It will not be in a state of being layered. Therefore, when the punching process as in the present embodiment is performed on the corresponding portion of the two-dimensional image data of the jacket, the two-dimensional image data of the back shirt can be seen, and it is in a state of being layered.

図11は、上記の抜き加工について詳細に説明するための図である。図11において、1101は、ワイシャツの3次元画像データとTシャツの3次元画像データとの位置関係を示しており、単純に、ワイシャツの2次元画像データ上にTシャツの2次元画像データを重ねた状態を表している。なお、1101の破線がTシャツに隠れたワイシャツの襟の部分を表している。1102は、Tシャツとワイシャツの襟とが重畳する部分、即ち、抜き加工の対象となるTシャツの部分を示しており、一点鎖線で囲まれた部分がそれに該当する。この一点鎖線で囲まれた部分を抜き加工(透明化)することにより、ワイシャツの襟の部分が透けて表示され、図10の1004に示すように、ワイシャツの襟がTシャツの外に出たような状態となる。   FIG. 11 is a diagram for explaining the above-described punching process in detail. In FIG. 11, reference numeral 1101 denotes the positional relationship between the shirt 3D image data and the T shirt 3D image data. Simply overlay the T shirt 2D image data on the shirt 2D image data. It represents the state. Note that a broken line 1101 represents a collar portion of the shirt hidden behind the T-shirt. Reference numeral 1102 denotes a portion where a T-shirt and a shirt collar overlap, that is, a portion of a T-shirt to be punched, and a portion surrounded by an alternate long and short dash line corresponds thereto. The portion surrounded by the alternate long and short dash line is punched out (transparent), so that the collar portion of the shirt is transparently displayed, and as shown by 1004 in FIG. 10, the collar of the shirt comes out of the T-shirt. It will be in such a state.

ステップS408において、第2の抜き加工部909は、人物の2次元画像データ及び各オブジェクトの2次元画像データが配置された状態において、人物の2次元画像データのうち、色指定部910により指定された色に該当する部分と重畳する、各オブジェクトの2次元画像データの部分を抜き加工する。これにより、図7を用いて説明したように、実際の重ね着に近い着用状態に2次元画像データを加工することができる。また第2の実施形態においても、第1の実施形態と同様に、特定のオブジェクトについてはステップS206における抜き加工処理を無効化するようにしてもよい。   In step S408, the second blanking unit 909 is designated by the color designation unit 910 out of the two-dimensional image data of the person in a state where the two-dimensional image data of the person and the two-dimensional image data of each object are arranged. The portion of the two-dimensional image data of each object that overlaps the portion corresponding to the selected color is processed. Thereby, as demonstrated using FIG. 7, two-dimensional image data can be processed into the wearing state close | similar to an actual layering. Also in the second embodiment, similarly to the first embodiment, the blanking process in step S206 may be invalidated for a specific object.

ステップS409において、表示制御部911は、人物や各オブジェクトの2次元画像データをディスプレイ307に表示する。ステップS410において、拡張現実感提示装置90は、ユーザによる撮影終了の操作があったか否かを判定する。この判定処理は、ステップS303と連動するものであってもよいし、拡張現実感提示装置90単独のものであってもよい。撮影終了の操作があった場合、処理は終了する。一方、撮影終了の操作がない場合、処理はステップS401に戻り、2次元カメラ80から受信する2次元画像データに基づくAR表示が繰り返される。   In step S409, the display control unit 911 displays the two-dimensional image data of the person and each object on the display 307. In step S <b> 410, the augmented reality presentation device 90 determines whether or not the user has performed a shooting end operation. This determination process may be linked to step S303, or may be performed by the augmented reality presentation device 90 alone. If there is an operation to end shooting, the process ends. On the other hand, if there is no operation for ending photographing, the process returns to step S401, and AR display based on the two-dimensional image data received from the two-dimensional camera 80 is repeated.

次に、本発明の第3の実施形態について説明する。第1、第2の実施形態では、人物の画像データ(3次元画像データ、2次元画像データ)に基づいて、拡張現実感提示装置が自動的に当該人物(人体)に適合するオブジェクトを検索したが、本発明はこれに限定されない。即ち、人物の画像データ(3次元画像データ、2次元画像データ)を外部の通信端末に送信し、外部装置を使用する者が当該画像データに基づいて当該人物(人体)に適合するオブジェクトを推奨するようにしてもよい。   Next, a third embodiment of the present invention will be described. In the first and second embodiments, the augmented reality presentation device automatically searches for an object suitable for the person (human body) based on the person's image data (3D image data, 2D image data). However, the present invention is not limited to this. That is, a person's image data (3D image data, 2D image data) is transmitted to an external communication terminal, and a person who uses the external device recommends an object suitable for the person (human body) based on the image data. You may make it do.

図12は、第3の実施形態に係るAR表示システムの構成を概略的に示す図である。図12に示すように、本実施形態に係るAR表示システムは、撮影により被写体である人物の3次元画像データを生成する3次元カメラ1220と、3次元カメラ1220により生成された3次元画像データを拡張現実感提示装置1210を介して受信し、当該3次元画像データに基づいて店舗側から推奨されたオブジェクトの3次元画像データを拡張現実感提示装置1210に返す店舗PC1230と、当該人物が店舗PC1230を設置する店舗で購入した商品(オブジェクト)の履歴を管理する購入商品管理テーブル1240と、3次元カメラ1220によって生成された3次元画像データと、店舗PC1230から受信した各オブジェクトの3次元画像データとをディスプレイに合成表示する拡張現実感提示装置1210とにより構成される。なお、拡張現実感提示装置1210と店舗PC1230とはインターネットを介して接続される。   FIG. 12 is a diagram schematically showing a configuration of an AR display system according to the third embodiment. As shown in FIG. 12, the AR display system according to the present embodiment uses a 3D camera 1220 that generates 3D image data of a person who is a subject by photographing, and 3D image data generated by the 3D camera 1220. A store PC 1230 that receives the augmented reality presentation device 1210 and returns the three-dimensional image data of the object recommended from the store side based on the three-dimensional image data to the augmented reality presentation device 1210, and the person stores the store PC 1230. Purchased product management table 1240 for managing the history of products (objects) purchased at the store where the product is installed, 3D image data generated by the 3D camera 1220, 3D image data of each object received from the store PC 1230, And an augmented reality presentation device 1210 for composing and displaying the image on the display. It is. The augmented reality presentation device 1210 and the store PC 1230 are connected via the Internet.

以下、第3の実施形態に係るAR表示システムの動作について説明する。3次元カメラ1220で生成された人物の3次元画像データは拡張現実感提示装置1210を介して店舗PC1230に対して送信される。店舗PC1230は人物の3次元画像データをディスプレイに表示する。店舗側では、当該3次元画像データを参照しつつ、店舗PC1230に接続される購入商品管理テーブル1240から当該人物がこれまで購入してきたオブジェクトの履歴を検索し、当該人物に適合する(似合う)オブジェクトを選択する。オブジェクトが選択されると、店舗PC1230は、選択された各オブジェクトの3次元画像データを購入商品管理テーブル1240から取得し、拡張現実感提示装置1210に対して送信する。拡張現実感提示装置1210は、各オブジェクトの3次元画像データを受信すると、各オブジェクトの3次元画像データを人物の3次元画像データと整合する位置に合成表示する。この合成表示のための処理は、図4のステップS201〜ステップS208と同様である。ここでは、3次元画像データを対象に説明したが、2次元画像データを対象とした場合、合成表示のための処理は図9のステップS401〜ステップS410と同様の処理を適用することになる。なお、3次元カメラ又は2次元カメラから店舗PCに対して送信される人物の画像データは、録画したものであってもよいし、リアルタイムのものでもよい。   The operation of the AR display system according to the third embodiment will be described below. The three-dimensional image data of the person generated by the three-dimensional camera 1220 is transmitted to the store PC 1230 via the augmented reality presentation device 1210. Store PC 1230 displays the three-dimensional image data of the person on the display. On the store side, referring to the 3D image data, a history of objects that the person has purchased so far is searched from the purchased product management table 1240 connected to the store PC 1230, and an object that suits (applies to) the person. Select. When the object is selected, the store PC 1230 acquires the three-dimensional image data of each selected object from the purchased product management table 1240 and transmits it to the augmented reality presentation device 1210. Upon receiving the 3D image data of each object, the augmented reality presentation device 1210 synthesizes and displays the 3D image data of each object at a position that matches the 3D image data of the person. The process for the composite display is the same as steps S201 to S208 in FIG. Here, the description has been made on the three-dimensional image data, but when the two-dimensional image data is the target, the same processing as that in steps S401 to S410 in FIG. 9 is applied to the processing for composite display. The image data of the person transmitted from the three-dimensional camera or the two-dimensional camera to the store PC may be recorded or real-time.

その他の実施形態として、単一の店舗で購入したオブジェクトだけから当該人物に似合うオブジェクトが推奨されるのではなく、複数の店舗で購入したオブジェクトから当該人物に似合うオブジェクトを推奨するようにしてもよい。この場合、例えば、複数の店舗で購入した装着物がクローゼットに格納されており、クローゼット内で各装着物を吊り下げているハンガーにRFIDを取り付けておくことで、各装着物のIDを読み取れるようにしておく。そして、読み取った各装着物のID、当該IDに対応する各装着物の画像データ、及び、当該人物の画像データを友人のPCに送信することにより、友人から装着物の推奨を受けることができる。なお、各IDに対応する装着物の画像データの管理場所は当該人物側でなくてもよい。友人のPCが各IDを受信すると、IDをキーにして外部サイトから該当する画像データを取得するようにしてもよい。   As another embodiment, an object that suits the person is not recommended only from an object purchased at a single store, but an object that suits the person may be recommended from objects purchased at a plurality of stores. . In this case, for example, attachments purchased at a plurality of stores are stored in the closet, and the RFID of each attachment can be read by attaching an RFID to a hanger that suspends each attachment in the closet. Keep it. Then, by sending the read ID of each attachment, the image data of each attachment corresponding to the ID, and the image data of the person to the friend's PC, the attachment can be recommended from the friend. . In addition, the management location of the image data of the attachment corresponding to each ID may not be the person side. When the friend's PC receives each ID, the corresponding image data may be acquired from an external site using the ID as a key.

上述した実施形態によれば、重ねて表示される複数のオブジェクト間における手前と奥との配置関係を自由に表現することが可能となる。より具体的には、複数の装着物のオブジェクトを重ねてAR表示する際に、実際の重ね着に近い状態で表現することができるとともに、装着物のオブジェクトのある部分を、他の装着物のオブジェクトの手前或いは奥に表示させるのか自由に選択することが可能となる。また、上述した実施形態では、装着物として衣服を例示したが、広義の人物の装着物として車にも適用することができる。これにより、所望の車を試乗した状態をAR表示により閲覧することができる。   According to the above-described embodiment, it is possible to freely express the positional relationship between the front and back between a plurality of objects displayed in an overlapping manner. More specifically, when the objects of a plurality of wearing objects are overlapped and displayed in AR, it can be expressed in a state close to the actual wearing, and a part of the wearing object can be represented by another wearing object. It is possible to freely select whether to display in front of or behind the object. In the above-described embodiment, clothes are exemplified as the attachments. However, the present invention can also be applied to cars as attachments for people in a broad sense. Thereby, the state which test-rided the desired vehicle can be browsed by AR display.

なお、上述した実施形態では詳述を省略したが、重畳表示するオブジェクトの画像データは、所謂ポリゴンデータ等で作成しておくことで、人物の動作に合わせて重畳するオブジェクトの形状を変更することができる。例えば、人物が腕を伸ばした状態から肘を曲げた状態に動くと、重畳されるワイシャツ等のオブジェクトも肘を曲げた形状に変形できる。これにより、実際に人物が肘を曲げているにも関わらず、ワイシャツの袖がまっすぐに伸びて重畳表示されてしまう等の不自然さをなくすことができる。   Although detailed description is omitted in the above-described embodiment, the shape of the object to be superimposed can be changed in accordance with the movement of the person by creating the image data of the object to be superimposed by using so-called polygon data or the like. Can do. For example, when a person moves from a state where his arms are stretched to a state where his elbows are bent, the superimposed object such as a shirt can be deformed into a shape where his elbows are bent. As a result, it is possible to eliminate the unnaturalness such as the sleeve of the shirt being stretched and displayed in a superimposed manner even though the person is actually bending the elbow.

10:拡張現実感提示装置、101:画像データ受信部、102:人体認識部、103:オブジェクト格納部、104:オブジェクト検索部、105:位置合わせ部、106:オブジェクト配置部、107:抜き加工部、108:色指定部、109:表示制御部、20:3次元カメラ、201:3次元画像撮影部、202:画像データ送信部、80:2次元カメラ、801:2次元画像撮影部、802:画像データ送信部、90:拡張現実感提示装置、901:画像データ受信部、902:人体認識部、903:オブジェクト格納部、904:オブジェクト検索部、905:変換部、906:位置合わせ部、907:第1の抜き加工部、908:オブジェクト配置部、909:第2の抜き加工部、910:色指定部、911:表示制御部   DESCRIPTION OF SYMBOLS 10: Augmented reality presentation apparatus, 101: Image data receiving part, 102: Human body recognition part, 103: Object storage part, 104: Object search part, 105: Position alignment part, 106: Object arrangement part, 107: Extraction process part , 108: color designation unit, 109: display control unit, 20: three-dimensional camera, 201: three-dimensional image photographing unit, 202: image data transmission unit, 80: two-dimensional camera, 801: two-dimensional image photographing unit, 802: Image data transmission unit, 90: augmented reality presentation device, 901: image data reception unit, 902: human body recognition unit, 903: object storage unit, 904: object search unit, 905: conversion unit, 906: alignment unit, 907 : First punching section, 908: object placement section, 909: second punching section, 910: color designation section, 911: display control section

Claims (17)

現実空間の映像と画像データとを合成して表示させることが可能な拡張現実感提示装置であって、
撮影により取得された人物の3次元画像データに基づいて、前記人物の所定の部位を認識する認識手段と、
前記認識手段による認識結果に基づいて、前記人物の3次元画像データと複数のオブジェクトの3次元画像データとの位置合わせを行う位置合わせ手段と、
前記位置合わせ手段による位置合わせの結果に基づいて、前記人物の3次元画像データの外側に前記複数のオブジェクトの3次元画像データを配置し、且つ、前記複数のオブジェクトに含まれる第1のオブジェクトの3次元画像データの外側に、前記複数のオブジェクトに含まれる第2のオブジェクトの3次元画像データを配置して表示手段に表示させる表示制御手段とを有することを特徴とする拡張現実感提示装置。
An augmented reality presentation device capable of combining and displaying real space video and image data,
Recognition means for recognizing a predetermined part of the person based on the three-dimensional image data of the person acquired by photographing;
Alignment means for aligning the three-dimensional image data of the person and the three-dimensional image data of a plurality of objects based on the recognition result by the recognition means;
Based on the result of the alignment by the alignment means, the 3D image data of the plurality of objects is arranged outside the 3D image data of the person, and the first object included in the plurality of objects An augmented reality presentation device comprising: display control means for arranging and displaying on a display means three-dimensional image data of a second object included in the plurality of objects outside the three-dimensional image data.
前記第2のオブジェクトの3次元画像データの所定の部分を抜き加工する加工手段を更に有し、
前記表示手段は、前記加工手段により抜き加工された前記第2のオブジェクトの3次元画像データを前記第1のオブジェクトの3次元画像データの外側に配置して表示することを特徴とする請求項1に記載の拡張現実感提示装置。
Processing means for cutting a predetermined portion of the three-dimensional image data of the second object;
The display means displays the 3D image data of the second object that has been punched and processed by the processing means, arranged outside the 3D image data of the first object. Augmented reality presentation device described in 1.
前記所定の部分は、前記第1のオブジェクトの3次元画像データと前記第2のオブジェクトの3次元画像データとが重畳する部分のうちの一部であることを特徴とする請求項2に記載の拡張現実感提示装置。   3. The predetermined portion is a part of a portion where the three-dimensional image data of the first object and the three-dimensional image data of the second object overlap each other. Augmented reality presentation device. 任意の色を指定可能な指定手段を更に有し、
前記加工手段は、前記指定手段により指定された色である前記人物の3次元画像データの部分と重畳する、前記複数のオブジェクトの3次元画像データの部分を抜き加工することを特徴とする請求項1乃至3の何れか1項に記載の拡張現実感提示装置。
It further has a designation means capable of designating an arbitrary color,
2. The processing unit according to claim 1, wherein the processing unit extracts and processes a part of the three-dimensional image data of the plurality of objects to be superimposed on a part of the three-dimensional image data of the person having a color specified by the specifying unit. The augmented reality presentation device according to any one of 1 to 3.
前記人物に係る情報に基づいて、前記位置合わせ手段が3次元画像データの位置合わせを行う前記複数のオブジェクトを検索する検索手段を更に有することを特徴とする請求項1乃至4の何れか1項に記載の拡張現実感提示装置。   5. The search unit according to claim 1, further comprising: a search unit that searches the plurality of objects in which the positioning unit performs positioning of the three-dimensional image data based on information relating to the person. Augmented reality presentation device described in 1. 前記人物に係る情報に基づいて推奨された前記複数のオブジェクトに係る情報を外部装置から受信する受信手段を更に有し、
前記位置合わせ手段は、前記人物の3次元画像データと、前記受信手段により受信された前記複数のオブジェクトの3次元画像データとの位置合わせを行うことを特徴とする請求項1乃至4の何れか1項に記載の拡張現実感提示装置。
Receiving means for receiving information on the plurality of objects recommended based on the information on the person from an external device;
5. The alignment unit according to claim 1, wherein the alignment unit performs alignment between the 3D image data of the person and the 3D image data of the plurality of objects received by the reception unit. The augmented reality presentation apparatus according to item 1.
前記人物に係る情報は、前記人物の3次元画像データであることを特徴とする請求項5又は6に記載の拡張現実感提示装置。   The augmented reality presentation apparatus according to claim 5, wherein the information related to the person is three-dimensional image data of the person. 現実空間の映像と画像データとを合成して表示させることが可能な拡張現実感提示装置であって、
撮影により取得された人物の2次元画像データに基づいて、前記人物の所定の部位を認識する認識手段と、
前記認識手段による認識結果に基づいて、前記人物の2次元画像データと複数のオブジェクトの2次元画像データとの位置合わせを行う位置合わせ手段と、
前記複数のオブジェクトに含まれる第1のオブジェクト上に重ねて配置される、前記複数のオブジェクトに含まれる前記第2のオブジェクトの2次元画像データの所定の部分を抜き加工する第1の加工手段と、
前記位置合わせ手段による位置合わせの結果に基づいて、前記人物の2次元画像データ上に前記複数のオブジェクトの2次元画像データが重なり、且つ、前記第1のオブジェクトの2次元画像データ上に前記第1の加工手段により抜き加工された前記第2のオブジェクトの2次元画像データが重なるように表示手段に表示させる表示制御手段とを有することを特徴とする拡張現実感提示装置。
An augmented reality presentation device capable of combining and displaying real space video and image data,
Recognizing means for recognizing a predetermined part of the person based on the two-dimensional image data of the person acquired by photographing;
Alignment means for aligning the two-dimensional image data of the person and the two-dimensional image data of a plurality of objects based on the recognition result by the recognition means;
First processing means for extracting and processing a predetermined portion of the two-dimensional image data of the second object included in the plurality of objects, which is arranged on the first object included in the plurality of objects; ,
Based on the result of the alignment by the alignment means, the 2D image data of the plurality of objects overlaps the 2D image data of the person, and the 2D image data of the first object overlaps the 2D image data of the first object. An augmented reality presentation apparatus, comprising: display control means for causing the display means to display the two-dimensional image data of the second object that has been punched and processed by one processing means.
前記所定の部分は、前記第1のオブジェクトの2次元画像データと前記第2のオブジェクトの2次元画像データとが重畳する部分のうちの一部であることを特徴とする請求項8に記載の拡張現実感提示装置。   9. The predetermined part is a part of a part where two-dimensional image data of the first object and two-dimensional image data of the second object overlap. Augmented reality presentation device. 任意の色を指定可能な指定手段と、
前記指定手段により指定された色である前記人物の2次元画像データの部分と重畳する、前記複数のオブジェクトの2次元画像データの部分を抜き加工する第2の加工手段とを更に有することを特徴とする請求項8又は9に記載の拡張現実感提示装置。
A designation means that can designate any color;
The image processing apparatus further includes second processing means for extracting and processing the two-dimensional image data portions of the plurality of objects to be superimposed on the two-dimensional image data portion of the person having the color specified by the specifying means. The augmented reality presentation device according to claim 8 or 9.
前記人物に係る情報に基づいて、前記位置合わせ手段が2次元画像データの位置合わせを行う前記複数のオブジェクトを検索する検索手段を更に有することを特徴とする請求項8乃至10の何れか1項に記載の拡張現実感提示装置。   11. The apparatus according to claim 8, further comprising a search unit that searches the plurality of objects in which the alignment unit performs alignment of two-dimensional image data based on information relating to the person. Augmented reality presentation device described in 1. 前記人物に係る情報に基づいて推奨された前記複数のオブジェクトに係る情報を外部装置から受信する受信手段を更に有し、
前記位置合わせ手段は、前記人物の2次元画像データと、前記受信手段により受信された前記複数のオブジェクトの2次元画像データとの位置合わせを行うことを特徴とする請求項8乃至10の何れか1項に記載の拡張現実感提示装置。
Receiving means for receiving information on the plurality of objects recommended based on the information on the person from an external device;
11. The alignment unit according to claim 8, wherein the alignment unit performs alignment between the two-dimensional image data of the person and the two-dimensional image data of the plurality of objects received by the reception unit. The augmented reality presentation apparatus according to item 1.
前記人物に係る情報は、前記人物の2次元画像データであることを特徴とする請求項11又は12に記載の拡張現実感提示装置。   The augmented reality presentation apparatus according to claim 11, wherein the information related to the person is two-dimensional image data of the person. 現実空間の映像と画像データとを合成して表示させることが可能な拡張現実感提示装置によって実行される拡張現実感提示方法であって、
撮影により取得された人物の3次元画像データに基づいて、前記人物の所定の部位を認識する認識ステップと、
前記認識ステップによる認識結果に基づいて、前記人物の3次元画像データと複数のオブジェクトの3次元画像データとの位置合わせを行う位置合わせステップと、
前記位置合わせステップによる位置合わせの結果に基づいて、前記人物の3次元画像データの外側に前記複数のオブジェクトの3次元画像データを配置し、且つ、前記複数のオブジェクトに含まれる第1のオブジェクトの3次元画像データの外側に、前記複数のオブジェクトに含まれる第2のオブジェクトの3次元画像データを配置して表示手段に表示させる表示制御ステップとを有することを特徴とする拡張現実感提示方法。
An augmented reality presentation method executed by an augmented reality presentation device capable of combining and displaying a video of real space and image data,
A recognition step for recognizing a predetermined part of the person based on the three-dimensional image data of the person acquired by photographing;
An alignment step for aligning the 3D image data of the person and the 3D image data of a plurality of objects based on the recognition result of the recognition step;
Based on the result of the alignment in the alignment step, the 3D image data of the plurality of objects is arranged outside the 3D image data of the person, and the first object included in the plurality of objects An augmented reality presentation method comprising: a display control step of arranging and displaying on a display means three-dimensional image data of a second object included in the plurality of objects outside the three-dimensional image data.
現実空間の映像と画像データとを合成して表示させることが可能な拡張現実感提示装置によって実行される拡張現実感提示方法であって、
撮影により取得された人物の2次元画像データに基づいて、前記人物の所定の部位を認識する認識ステップと、
前記認識ステップによる認識結果に基づいて、前記人物の2次元画像データと複数のオブジェクトの2次元画像データとの位置合わせを行う位置合わせステップと、
前記複数のオブジェクトに含まれる第1のオブジェクト上に重ねて配置される、前記複数のオブジェクトに含まれる前記第2のオブジェクトの2次元画像データの所定の部分を抜き加工する加工ステップと、
前記位置合わせステップによる位置合わせの結果に基づいて、前記人物の2次元画像データ上に前記複数のオブジェクトの2次元画像データが重なり、且つ、前記第1のオブジェクトの2次元画像データ上に前記加工ステップにより抜き加工された前記第2のオブジェクトの2次元画像データが重なるように表示手段に表示させる表示制御ステップとを有することを特徴とする拡張現実感提示方法。
An augmented reality presentation method executed by an augmented reality presentation device capable of combining and displaying a video of real space and image data,
A recognition step for recognizing a predetermined part of the person based on the two-dimensional image data of the person acquired by photographing;
An alignment step of aligning the two-dimensional image data of the person and the two-dimensional image data of a plurality of objects based on the recognition result of the recognition step;
A processing step of punching out a predetermined portion of the two-dimensional image data of the second object included in the plurality of objects, which is arranged on the first object included in the plurality of objects;
Based on the result of the alignment in the alignment step, the two-dimensional image data of the plurality of objects overlaps the two-dimensional image data of the person, and the processing is performed on the two-dimensional image data of the first object. An augmented reality presentation method comprising: a display control step of causing the display means to display the two-dimensional image data of the second object that has been punched and processed in steps.
現実空間の映像と画像データとを合成して表示させることが可能な拡張現実感提示装置によって実行される拡張現実感提示方法をコンピュータに実行させるためのプログラムであって、
撮影により取得された人物の3次元画像データに基づいて、前記人物の所定の部位を認識する認識ステップと、
前記認識ステップによる認識結果に基づいて、前記人物の3次元画像データと複数のオブジェクトの3次元画像データとの位置合わせを行う位置合わせステップと、
前記位置合わせステップによる位置合わせの結果に基づいて、前記人物の3次元画像データの外側に前記複数のオブジェクトの3次元画像データを配置し、且つ、前記複数のオブジェクトに含まれる第1のオブジェクトの3次元画像データの外側に、前記複数のオブジェクトに含まれる第2のオブジェクトの3次元画像データを配置して表示手段に表示させる表示制御ステップとをコンピュータに実行させるためのプログラム。
A program for causing a computer to execute an augmented reality presentation method executed by an augmented reality presentation device capable of combining and displaying a video of real space and image data,
A recognition step for recognizing a predetermined part of the person based on the three-dimensional image data of the person acquired by photographing;
An alignment step for aligning the 3D image data of the person and the 3D image data of a plurality of objects based on the recognition result of the recognition step;
Based on the result of the alignment in the alignment step, the 3D image data of the plurality of objects is arranged outside the 3D image data of the person, and the first object included in the plurality of objects A program for causing a computer to execute a display control step in which 3D image data of a second object included in the plurality of objects is arranged outside the 3D image data and displayed on a display unit.
現実空間の映像と画像データとを合成して表示させることが可能な拡張現実感提示装置によって実行される拡張現実感提示方法をコンピュータに実行させるためのプログラムであって、
撮影により取得された人物の2次元画像データに基づいて、前記人物の所定の部位を認識する認識ステップと、
前記認識ステップによる認識結果に基づいて、前記人物の2次元画像データと複数のオブジェクトの2次元画像データとの位置合わせを行う位置合わせステップと、
前記複数のオブジェクトに含まれる第1のオブジェクト上に重ねて配置される、前記複数のオブジェクトに含まれる前記第2のオブジェクトの2次元画像データの所定の部分を抜き加工する加工ステップと、
前記位置合わせステップによる位置合わせの結果に基づいて、前記人物の2次元画像データ上に前記複数のオブジェクトの2次元画像データが重なり、且つ、前記第1のオブジェクトの2次元画像データ上に前記加工ステップにより抜き加工された前記第2のオブジェクトの2次元画像データが重なるように表示手段に表示させる表示制御ステップとをコンピュータに実行させるためのプログラム。
A program for causing a computer to execute an augmented reality presentation method executed by an augmented reality presentation device capable of combining and displaying a video of real space and image data,
A recognition step for recognizing a predetermined part of the person based on the two-dimensional image data of the person acquired by photographing;
An alignment step of aligning the two-dimensional image data of the person and the two-dimensional image data of a plurality of objects based on the recognition result of the recognition step;
A processing step of punching out a predetermined portion of the two-dimensional image data of the second object included in the plurality of objects, which is arranged on the first object included in the plurality of objects;
Based on the result of the alignment in the alignment step, the two-dimensional image data of the plurality of objects overlaps the two-dimensional image data of the person, and the processing is performed on the two-dimensional image data of the first object. A program for causing a computer to execute a display control step of causing the display means to display the two-dimensional image data of the second object that has been punched and processed in steps.
JP2010270884A 2010-12-03 2010-12-03 Augmented reality presentation device, augmented reality presentation method and program Active JP5722603B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010270884A JP5722603B2 (en) 2010-12-03 2010-12-03 Augmented reality presentation device, augmented reality presentation method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010270884A JP5722603B2 (en) 2010-12-03 2010-12-03 Augmented reality presentation device, augmented reality presentation method and program

Publications (2)

Publication Number Publication Date
JP2012118948A true JP2012118948A (en) 2012-06-21
JP5722603B2 JP5722603B2 (en) 2015-05-20

Family

ID=46501653

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010270884A Active JP5722603B2 (en) 2010-12-03 2010-12-03 Augmented reality presentation device, augmented reality presentation method and program

Country Status (1)

Country Link
JP (1) JP5722603B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014071501A (en) * 2012-09-27 2014-04-21 Toshiba Corp Image processor, image processing method and program
JP2014225301A (en) * 2014-09-08 2014-12-04 株式会社東芝 Image processing apparatus, method, and program
JP2015079362A (en) * 2013-10-17 2015-04-23 セーレン株式会社 Try-on support device and method
JP2017528727A (en) * 2014-09-25 2017-09-28 ファロ テクノロジーズ インコーポレーテッド Augmented reality camera used in combination with a 3D meter to generate a 3D image from a 2D camera image
WO2020009066A1 (en) * 2018-07-02 2020-01-09 株式会社ブルームスキーム Virtual try-on fitting apparatus, virtual try-on fitting method, and virtual try-on fitting program
US10574963B2 (en) 2014-12-16 2020-02-25 Faro Technologies, Inc. Triangulation scanner and camera for augmented reality
JP2020511048A (en) * 2017-07-18 2020-04-09 テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド Virtual prop allocation method, server, client and storage medium
JP2021518626A (en) * 2018-04-05 2021-08-02 ページ インターナショナル エフゼッド エルエルシーPage International Fz Llc Methods and devices for virtual fitting of garments based on augmented reality with multiple detection
CN113760088A (en) * 2020-06-04 2021-12-07 史克威尔·艾尼克斯有限公司 Augmented reality display device and recording medium

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12100156B2 (en) 2021-04-12 2024-09-24 Snap Inc. Garment segmentation
US11670059B2 (en) 2021-09-01 2023-06-06 Snap Inc. Controlling interactive fashion based on body gestures
US11673054B2 (en) 2021-09-07 2023-06-13 Snap Inc. Controlling AR games on fashion items
US11900506B2 (en) 2021-09-09 2024-02-13 Snap Inc. Controlling interactive fashion based on facial expressions
US11734866B2 (en) 2021-09-13 2023-08-22 Snap Inc. Controlling interactive fashion based on voice
US11983826B2 (en) 2021-09-30 2024-05-14 Snap Inc. 3D upper garment tracking
US11636662B2 (en) 2021-09-30 2023-04-25 Snap Inc. Body normal network light and rendering control
US11651572B2 (en) 2021-10-11 2023-05-16 Snap Inc. Light and rendering of garments

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000254352A (en) * 1999-03-10 2000-09-19 Konami Co Ltd Game assembly, control method thereof and recording medium stored with game program
JP2004110383A (en) * 2002-09-18 2004-04-08 Namco Ltd Image forming system, its program and information storage medium
JP2004246729A (en) * 2003-02-14 2004-09-02 Japan Science & Technology Agency Figure motion picture creating system
JP2004272530A (en) * 2003-03-07 2004-09-30 Digital Fashion Ltd Virtual fitting display device and method, virtual fitting display program, and computer readable recoding medium with the same program recorded
JP2005524777A (en) * 2002-03-22 2005-08-18 ワン,ケネス,クックキー Method and apparatus for viewing, storing and transmitting clothing models over a computer network
JP2008071271A (en) * 2006-09-15 2008-03-27 Square Enix Co Ltd Dress and ornament coordination support processing server, dress and ornament coordination support processing method, dress and ornament coordination support processing program and dress and ornament coordination support processing system
US20100030578A1 (en) * 2008-03-21 2010-02-04 Siddique M A Sami System and method for collaborative shopping, business and entertainment
US20100302275A1 (en) * 1999-11-12 2010-12-02 My Virtual Model Inc. System and method for displaying selected garments on a computer-simulated mannequin

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000254352A (en) * 1999-03-10 2000-09-19 Konami Co Ltd Game assembly, control method thereof and recording medium stored with game program
US20100302275A1 (en) * 1999-11-12 2010-12-02 My Virtual Model Inc. System and method for displaying selected garments on a computer-simulated mannequin
JP2005524777A (en) * 2002-03-22 2005-08-18 ワン,ケネス,クックキー Method and apparatus for viewing, storing and transmitting clothing models over a computer network
JP2004110383A (en) * 2002-09-18 2004-04-08 Namco Ltd Image forming system, its program and information storage medium
JP2004246729A (en) * 2003-02-14 2004-09-02 Japan Science & Technology Agency Figure motion picture creating system
JP2004272530A (en) * 2003-03-07 2004-09-30 Digital Fashion Ltd Virtual fitting display device and method, virtual fitting display program, and computer readable recoding medium with the same program recorded
JP2008071271A (en) * 2006-09-15 2008-03-27 Square Enix Co Ltd Dress and ornament coordination support processing server, dress and ornament coordination support processing method, dress and ornament coordination support processing program and dress and ornament coordination support processing system
US20100030578A1 (en) * 2008-03-21 2010-02-04 Siddique M A Sami System and method for collaborative shopping, business and entertainment

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9779699B2 (en) 2012-09-27 2017-10-03 Kabushiki Kaisha Toshiba Image processing device, image processing method, computer readable medium
JP2014071501A (en) * 2012-09-27 2014-04-21 Toshiba Corp Image processor, image processing method and program
JP2015079362A (en) * 2013-10-17 2015-04-23 セーレン株式会社 Try-on support device and method
JP2014225301A (en) * 2014-09-08 2014-12-04 株式会社東芝 Image processing apparatus, method, and program
US10665012B2 (en) 2014-09-25 2020-05-26 Faro Technologies, Inc Augmented reality camera for use with 3D metrology equipment in forming 3D images from 2D camera images
JP2017528727A (en) * 2014-09-25 2017-09-28 ファロ テクノロジーズ インコーポレーテッド Augmented reality camera used in combination with a 3D meter to generate a 3D image from a 2D camera image
US10574963B2 (en) 2014-12-16 2020-02-25 Faro Technologies, Inc. Triangulation scanner and camera for augmented reality
JP2020511048A (en) * 2017-07-18 2020-04-09 テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド Virtual prop allocation method, server, client and storage medium
JP2021518626A (en) * 2018-04-05 2021-08-02 ページ インターナショナル エフゼッド エルエルシーPage International Fz Llc Methods and devices for virtual fitting of garments based on augmented reality with multiple detection
JP7228025B2 (en) 2018-04-05 2023-02-22 ページ インターナショナル エフゼッド エルエルシー Methods and Devices for Augmented Reality-Based Virtual Garment Try-On with Multiple Detections
WO2020009066A1 (en) * 2018-07-02 2020-01-09 株式会社ブルームスキーム Virtual try-on fitting apparatus, virtual try-on fitting method, and virtual try-on fitting program
JP6631988B1 (en) * 2018-07-02 2020-01-15 株式会社ブルームスキーム Virtual fitting device, virtual fitting method, and virtual fitting program
CN113760088A (en) * 2020-06-04 2021-12-07 史克威尔·艾尼克斯有限公司 Augmented reality display device and recording medium
US11302088B2 (en) 2020-06-04 2022-04-12 Square Enix Co., Ltd. Augmented reality display device and program

Also Published As

Publication number Publication date
JP5722603B2 (en) 2015-05-20

Similar Documents

Publication Publication Date Title
JP5722603B2 (en) Augmented reality presentation device, augmented reality presentation method and program
JP5871345B2 (en) 3D user interface device and 3D operation method
JP5936155B2 (en) 3D user interface device and 3D operation method
JP5564300B2 (en) Head mounted augmented reality video presentation device and virtual display object operating method thereof
JP5843340B2 (en) 3D environment sharing system and 3D environment sharing method
JP6490430B2 (en) Image processing apparatus, image processing system, image processing method, and program
JP5762892B2 (en) Information display system, information display method, and information display program
JP6373026B2 (en) Image processing apparatus, image processing system, image processing method, and program
CN108885482A (en) Augmented reality in visual field including image
JP5791082B2 (en) Image composition apparatus, image composition system, image composition method and program
JP6242768B2 (en) Virtual try-on device, virtual try-on method, and program
JP2014089665A (en) Image processor, image processing method, and image processing program
JP6320237B2 (en) Virtual try-on device, virtual try-on method, and program
JP6262105B2 (en) Image processing apparatus, image processing system, image processing method, and program
TW201401222A (en) Electronic device capable of generating virtual clothing model and method for generating virtual clothing model
CN110088710A (en) Heat management system for wearable component
JP2016038811A (en) Virtual try-on apparatus, virtual try-on method and program
CN111538405A (en) Information processing method, terminal and non-transitory computer readable storage medium
WO2014128751A1 (en) Head mount display apparatus, head mount display program, and head mount display method
JP2016038813A (en) Virtual try-on apparatus, virtual try-on system, virtual try-on method and program
JP2014071501A (en) Image processor, image processing method and program
JP2019009816A (en) Information processing device, information processing system, control method thereof and program
CN114049468A (en) Display method, device, equipment and storage medium
KR101767144B1 (en) Apparatus, method and computer program for generating 3-dimensional model of clothes
KR20190048810A (en) Apparatus and method for providing augmented reality contents

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131101

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140714

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140826

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141015

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150317

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150326

R150 Certificate of patent or registration of utility model

Ref document number: 5722603

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250