JP6656572B1 - Information processing apparatus, display control method, and display control program - Google Patents

Information processing apparatus, display control method, and display control program Download PDF

Info

Publication number
JP6656572B1
JP6656572B1 JP2019157288A JP2019157288A JP6656572B1 JP 6656572 B1 JP6656572 B1 JP 6656572B1 JP 2019157288 A JP2019157288 A JP 2019157288A JP 2019157288 A JP2019157288 A JP 2019157288A JP 6656572 B1 JP6656572 B1 JP 6656572B1
Authority
JP
Japan
Prior art keywords
dimensional image
image data
virtual object
display
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019157288A
Other languages
Japanese (ja)
Other versions
JP2021033963A (en
Inventor
彩乃 鳥巣
彩乃 鳥巣
敦 小野沢
敦 小野沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sally127
Original Assignee
Sally127
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sally127 filed Critical Sally127
Priority to JP2019157288A priority Critical patent/JP6656572B1/en
Application granted granted Critical
Publication of JP6656572B1 publication Critical patent/JP6656572B1/en
Priority to PCT/JP2020/032224 priority patent/WO2021039856A1/en
Publication of JP2021033963A publication Critical patent/JP2021033963A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/40Hidden part removal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/377Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/38Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position

Abstract

【課題】装着感を高めて購買を促進することを課題とする。【解決手段】ユーザ端末は、撮影された2次元画像を表示し、2次元画像の中から、時系列的に変化する予め決められた被写体を検出し、仮想オブジェクトの3次元画像データを表示する表示姿勢を指示する。ユーザ端末は、指示された仮想オブジェクトの3次元画像データの表示姿勢に基づき表示される仮想オブジェクトのうち、優先的に表示する優先領域を決定する。ユーザ端末は、2次元画像とともに、予め決められた表示位置に仮想オブジェクトを表示するとともに、少なくとも表示されている被写体と仮想オブジェクトの表示が重なったときに、重なった領域のうち、優先領域を被写体に優先して表示するとともに、優先領域以外の仮想オブジェクトの領域を非表示とする。【選択図】図8PROBLEM TO BE SOLVED: To increase the feeling of wearing and promote purchase. A user terminal displays a captured two-dimensional image, detects a predetermined subject that changes in time series from the two-dimensional image, and displays three-dimensional image data of a virtual object. Instruct the display posture. The user terminal determines a priority area to be displayed preferentially among the virtual objects displayed based on the display posture of the instructed virtual object of the three-dimensional image data. The user terminal displays the virtual object at a predetermined display position together with the two-dimensional image, and at least when the display of the displayed subject and the display of the virtual object overlap each other, the priority region in the overlapped region is set as the subject. And the virtual object area other than the priority area is hidden. [Selection diagram] FIG.

Description

本発明は、情報処理装置、表示制御方法および表示制御プログラムに関する。   The present invention relates to an information processing device, a display control method, and a display control program.

近年、仮想試着などのサービスが利用されている。例えば、店舗内に鏡に見立てた大型ディスプレイを置き、その大型ディスプレイにカメラで撮像した試着者の映像を写し、洋服の画像データを試着者の映像に重畳させることで、あたかも試着しているように見せるシステムが知られている。また、被写体の身体の骨格位置の時系列変化を算出し、被写体に重畳して表示される仮想的な服飾品の着脱を制御する技術が知られている。   In recent years, services such as virtual fitting have been used. For example, a large display that looks like a mirror is placed in a store, the image of the dresser captured by the camera is captured on the large display, and the image data of the clothes is superimposed on the image of the dresser, as if trying on. Is known. There is also known a technique of calculating a time-series change of a skeleton position of a subject's body and controlling the attachment / detachment of virtual clothing items superimposed and displayed on the subject.

特開2013−97699号公報JP 2013-97699 A 特開2006−72669号公報JP 2006-72669 A 特開2013−101527号公報JP 2013-101527 A 特開2010−152556号公報JP 2010-152556 A

しかしながら、上記技術では、現実の試着と仮想的な試着との感覚の違いが大きいので、満足な装着感を得られるとは言い難く、購買を促進する有効な手法とは言い難い。   However, in the above technique, since there is a large difference in sense between real fitting and virtual fitting, it is hard to say that a satisfactory wearing feeling can be obtained, and it is hard to say that it is an effective method to promote purchase.

特に、指輪やピアスなどの小さな服飾品の場合、服飾品を付けた状態と服飾品を外した状態とを繰り返して、装着感を確認することが多いが、店舗内の大型ディスプレイでは、小さな服飾品の仮想試着は却って見づらく、有効的とは言い難い。また、わざわざ店舗に行って順番等を待って仮想試着を行うことも、ユーザの負担が大きく、有効な手法とは言い難い。   In particular, in the case of small accessories such as rings and earrings, it is often the case that the user wears and removes the accessories repeatedly to check the wearing feeling. Virtual fitting of goods is rather difficult to see and is not effective. Also, going to the store and waiting for the turn or the like to perform virtual fitting is a burden on the user, and is not an effective method.

一つの側面では、装着感を高めて購買を促進することができる情報処理装置、表示制御方法および表示制御プログラムを提供することを目的とする。   In one aspect, an object is to provide an information processing device, a display control method, and a display control program that can enhance a feeling of wearing and promote purchase.

第1の案では、情報処理装置は、撮影された2次元画像を表示する表示手段と、前記撮影された2次元画像の中から、時系列的に変化する予め決められた被写体を検出する検出手段と、表示すべき仮想オブジェクトの3次元画像データを記憶する記憶手段と、前記記憶手段に記憶された前記仮想オブジェクトの3次元画像データを前記表示手段に表示する表示姿勢を指示する指示手段と、前記指示手段により指示された前記仮想オブジェクトの3次元データの表示姿勢に基づき前記表示手段に表示される前記仮想オブジェクトのうち、優先的に表示する優先領域を決定する決定手段と、前記撮影された2次元画像とともに、前記表示手段の予め決められた表示位置に前記仮想オブジェクトを表示するとともに、少なくとも前記表示手段に表示されている前記被写体と前記仮想オブジェクトの表示が重なったときに、当該重なった領域のうち、前記決定手段により決定された前記優先領域を前記被写体に優先して表示するとともに、前記優先領域以外の前記仮想オブジェクトの領域を非表示とする表示制御手段と、を備える。   According to a first aspect, an information processing apparatus includes a display unit that displays a captured two-dimensional image and a detection unit that detects a predetermined subject that changes in time series from the captured two-dimensional image. Means, storage means for storing three-dimensional image data of a virtual object to be displayed, and instructing means for instructing a display attitude for displaying the three-dimensional image data of the virtual object stored in the storage means on the display means. Deciding means for deciding a priority area to be displayed preferentially among the virtual objects displayed on the display means based on the display orientation of the three-dimensional data of the virtual object instructed by the instructing means; Displaying the virtual object at a predetermined display position of the display means together with the two-dimensional image, and displaying the virtual object at least on the display means. When the display of the virtual object overlaps with the displayed subject, the priority area determined by the determining unit is displayed in priority to the subject, and the overlapping area other than the priority area is displayed. Display control means for hiding an area of the virtual object.

一つの側面では、装着感を高めて購買を促進することができる。   In one aspect, purchasing can be promoted by enhancing the feeling of wearing.

図1は、実施例1にかかるシステムの全体構成例を説明する図である。FIG. 1 is a diagram illustrating an example of the overall configuration of a system according to the first embodiment. 図2は、実施例1にかかるシステムの利用シーンを説明する図である。FIG. 2 is a diagram illustrating a usage scene of the system according to the first embodiment. 図3は、実施例1にかかる商品サーバの機能構成を示す機能ブロック図である。FIG. 3 is a functional block diagram illustrating the functional configuration of the product server according to the first embodiment. 図4は、商品情報DBに記憶される情報の例を示す図である。FIG. 4 is a diagram illustrating an example of information stored in the product information DB. 図5は、画像データDBに記憶される情報の例を示す図である。FIG. 5 is a diagram illustrating an example of information stored in the image data DB. 図6は、表示されるWebページの遷移を説明する図である。FIG. 6 is a diagram illustrating transition of a displayed Web page. 図7は、仮想オブジェクトの2次元画像データを生成する例を説明する図である。FIG. 7 is a diagram illustrating an example of generating two-dimensional image data of a virtual object. 図8は、生成される2次元画像データを説明する図である。FIG. 8 is a diagram illustrating generated two-dimensional image data. 図9は、試着イメージを説明する図である。FIG. 9 is a diagram illustrating a fitting image. 図10は、仮想オブジェクトの試着の構成を説明する図である。FIG. 10 is a diagram illustrating a configuration of fitting of a virtual object. 図11は、試着の遷移を説明する図である。FIG. 11 is a diagram illustrating the transition of fitting. 図12は、試着の別例を説明する図である。FIG. 12 is a diagram for explaining another example of fitting. 図13は、試着処理の流れを示すシーケンス図である。FIG. 13 is a sequence diagram illustrating a flow of the fitting process. 図14は、ハードウェア構成例を説明する図である。FIG. 14 is a diagram illustrating an example of a hardware configuration.

以下に、本願の開示する情報処理装置、表示制御方法および表示制御プログラムの実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。また、各実施例は、矛盾のない範囲内で適宜組み合わせることができる。   Hereinafter, embodiments of an information processing apparatus, a display control method, and a display control program disclosed in the present application will be described in detail with reference to the drawings. The present invention is not limited by the embodiment. In addition, the embodiments can be appropriately combined within a consistent range.

[システム構成]
図1は、実施例1にかかるシステムの全体構成例を説明する図である。図1に示すように、このシステムは、商品サーバ10とユーザ端末30とがネットワークNを介して相互に通信可能に接続される。なお、商品サーバ10やユーザ端末30の数は、一例であり、図示したもの限定されない。また、ネットワークNには、有線や無線を問わず、インターネットや専用線などの各種通信網を採用することができる。
[System configuration]
FIG. 1 is a diagram illustrating an example of the overall configuration of a system according to the first embodiment. As shown in FIG. 1, in this system, a product server 10 and a user terminal 30 are communicably connected to each other via a network N. Note that the numbers of the product servers 10 and the user terminals 30 are merely examples, and are not limited to those illustrated. In addition, various communication networks such as the Internet and a dedicated line can be adopted as the network N regardless of whether it is wired or wireless.

商品サーバ10は、ユーザ端末30に対して、商品の閲覧、試着、購入などの各種サービスを提供するサーバ装置の一例である。例えば、商品サーバ10は、Webブラウザなどを介してユーザ端末5からのアクセスを受け付けると、各種商品の情報が掲載される商品サイトを表示する。そして、商品サーバ10は、Webブラウザにより表示される各ページによって各種サービスを提供する。   The product server 10 is an example of a server device that provides the user terminal 30 with various services such as product browsing, fitting, and purchasing. For example, when the product server 10 receives an access from the user terminal 5 via a Web browser or the like, the product server 10 displays a product site on which information of various products is posted. And the goods server 10 provides various services by each page displayed by the Web browser.

ユーザ端末30は、指輪やスカーフなどの服飾品の購入を検討するユーザが利用する端末装置の一例であり、例えばカメラなどの撮像部やWebブラウザなどを有する端末装置である。例えば、ユーザ端末30としては、スマートフォン、携帯電話、タブレット、パーソナルコンピュータなどを採用することができる。このユーザ端末30は、Webブラウザなどを用いて、商品サーバ10へアクセスし、商品サーバ10が提供する各種サービスを利用する。   The user terminal 30 is an example of a terminal device used by a user who considers purchasing accessories such as a ring and a scarf, and is, for example, a terminal device having an imaging unit such as a camera and a Web browser. For example, as the user terminal 30, a smartphone, a mobile phone, a tablet, a personal computer, or the like can be employed. The user terminal 30 accesses the product server 10 using a Web browser or the like, and uses various services provided by the product server 10.

ここで、ユーザ端末30は、商品サーバ10から商品に関する情報を取得して、Webブラウザ上で試着サービスを実行する。具体的には、商品サーバ10は、例えば指輪などの商品の値段やサイズなどの商品に関する情報である商品情報と、商品の3次元画像データとを保存する。そして、商品サーバ10は、ユーザ端末30からアクセスを受け付けると、商品情報が掲載される商品サイトをユーザ端末30に表示する。続いて、商品サーバ10は、商品サイトを表示するWebブラウザ上でユーザ端末30から試着対象の商品の選択を受け付けると、当該商品の3次元画像データと制御用のスクリプトを組み込んだ試着ページを、ユーザ端末30に応答する。   Here, the user terminal 30 acquires the information on the product from the product server 10 and executes the fitting service on the Web browser. Specifically, the product server 10 stores, for example, product information, which is information on the product such as the price and size of the product such as a ring, and three-dimensional image data of the product. Then, when receiving the access from the user terminal 30, the product server 10 displays a product site where the product information is posted on the user terminal 30. Subsequently, when the product server 10 receives a selection of a product to be tried on from the user terminal 30 on a Web browser that displays a product site, the product server 10 displays a fitting page incorporating the three-dimensional image data of the product and a control script. Responds to user terminal 30.

このようにして、ユーザは、試着対象の商品の3次元画像データと制御スクリプトが組み込まれた試着ページを用いて、ユーザ端末30上で商品の試着を行う。具体的には、ユーザ端末30は、Webブラウザで表示する試着ページ上に、カメラにより撮影される被写体(例えば、手)の映像を表示させる。そして、ユーザ端末30は、商品の3次元画像データから2次元画像データを生成し、Webブラウザ上で、2次元画像データをその被写体の映像に重畳することで、試着を実現する。   In this way, the user tries on the product on the user terminal 30 using the fitting page in which the three-dimensional image data of the product to be tried on and the control script are incorporated. Specifically, the user terminal 30 displays an image of a subject (for example, a hand) photographed by the camera on a fitting page displayed by a Web browser. Then, the user terminal 30 generates the two-dimensional image data from the three-dimensional image data of the product and superimposes the two-dimensional image data on the video of the subject on the Web browser, thereby realizing the fitting.

[利用シーン]
次に、ユーザ端末30を用いて実行される試着サービスの利用シーンを説明する。図2は、実施例1にかかるシステムの利用シーンを説明する図である。図2に示すように、ユーザは、商品サーバ10から商品の3次元画像データと制御用のスクリプトを組み込んだ試着ページを取得することで、オンラインに限らず、オフラインの状態であっても試着サービスを利用することができる。
[Use scene]
Next, the use scene of the try-on service executed using the user terminal 30 will be described. FIG. 2 is a diagram illustrating a usage scene of the system according to the first embodiment. As shown in FIG. 2, the user obtains a try-on page incorporating the three-dimensional image data of the product and a control script from the product server 10, so that the user is not limited to online, but also in a try-on service even in an offline state. Can be used.

例えば、図2に示すように、自宅のリビングで無線通信を行いながら、指輪の試着サービスを利用することができる。また、恋人同士で婚約指輪を検討する際に、商品サーバ10が提供する試着サービスを利用することにより、様々なブランドの婚約指輪の試着をリビングで繰り返すことができ、店舗に行く前に、購入対象を絞り込むこともできる。また、通勤途中の電車の中で、指輪の試着サービスを利用することができる。   For example, as shown in FIG. 2, a ring fitting service can be used while performing wireless communication in a living room at home. In addition, when lovers consider an engagement ring, by using the fitting service provided by the product server 10, it is possible to repeatedly try on engagement rings of various brands in the living room. You can also narrow down the target. Also, a ring fitting service can be used on a train on the way to work.

このように、商品サーバ10が提供する試着サービスは、実際の店舗に行く必要はなく、Webブラウザを用いて利用することができることから、場所を選ばすに、様々な場所で利用することができる。   As described above, the fitting service provided by the commodity server 10 does not need to go to an actual store, and can be used using a Web browser. Therefore, the fitting service can be used in various places to select a place. .

[機能構成]
次に、図3を用いて、図1に示した各装置の機能構成を説明する。図3は、実施例1にかかるシステムの機能構成を示す機能ブロック図である。ここでは、商品サーバ10とユーザ端末30のそれぞれについて説明する。
[Function configuration]
Next, the functional configuration of each device shown in FIG. 1 will be described with reference to FIG. FIG. 3 is a functional block diagram illustrating the functional configuration of the system according to the first embodiment. Here, each of the product server 10 and the user terminal 30 will be described.

(商品サーバ10の機能構成)
図3に示すように、商品サーバ10は、通信部11、記憶部12、制御部20を有する。通信部11は、他の装置との間の通信を制御する処理部であり、例えば通信インタフェースなどである。例えば、通信部11は、ユーザ端末30との間で、Webブラウザによるセッションを確立し、Webブラウザを介してデータの送受信を実行する。
(Functional Configuration of Product Server 10)
As shown in FIG. 3, the product server 10 includes a communication unit 11, a storage unit 12, and a control unit 20. The communication unit 11 is a processing unit that controls communication with another device, and is, for example, a communication interface. For example, the communication unit 11 establishes a session with the user terminal 30 using a Web browser, and transmits and receives data via the Web browser.

記憶部12は、各種データや制御部20が実行する各種プログラムなどを記憶する記憶装置の一例であり、例えばメモリやハードディスクなどである。この記憶部12は、商品情報DB13、画像データDB14を記憶する。   The storage unit 12 is an example of a storage device that stores various data and various programs executed by the control unit 20, and is, for example, a memory or a hard disk. The storage unit 12 stores a product information DB 13 and an image data DB 14.

商品情報DB13は、商品サーバ10が取り扱う各商品に関するデータを記憶するデータベースである。具体的には、商品情報DB13は、各服飾品に関するデータを記憶する。図4は、商品情報DB13に記憶される情報の例を示す図である。図4に示すように、商品情報DB13は、「商品ID、商品、価格」などを対応付けて記憶する。   The product information DB 13 is a database that stores data on each product handled by the product server 10. Specifically, the product information DB 13 stores data on each piece of clothing. FIG. 4 is a diagram illustrating an example of information stored in the product information DB 13. As shown in FIG. 4, the product information DB 13 stores “product ID, product, price” and the like in association with each other.

ここで記憶される「商品ID」は、商品を識別する識別子であり、「商品」は、商品名などであり、「価格」は、商品の価格である。図4の例では、商品ID「ID01」で識別される商品「指輪A」の価格が「3万円」であることを示す。   The “merchandise ID” stored here is an identifier for identifying the merchandise, the “merchandise” is a merchandise name or the like, and the “price” is the price of the merchandise. In the example of FIG. 4, the price of the product “Ring A” identified by the product ID “ID01” is “30,000 yen”.

画像データDB14は、各商品の3次元の画像データ(以下では単に「3次元画像データ」と記載する場合がある)を記憶するデータベースである。具体的には、画像データDB14は、試着サービスの利用時にユーザ端末30に仮想オブジェクトとして送信される3次元画像データを記憶する。   The image data DB 14 is a database that stores three-dimensional image data (hereinafter, may be simply referred to as “three-dimensional image data”) of each product. Specifically, the image data DB 14 stores three-dimensional image data transmitted as a virtual object to the user terminal 30 when using the fitting service.

図5は、画像データDB14に記憶される情報の例を示す図である。図5に示すように、画像データDB14は、「商品ID、商品、3次元画像データ」を対応付けて記憶する。ここで記憶される「商品ID」は、商品情報DB13の商品IDと同じであり、商品を識別する識別子である。「商品」は、商品情報DB13の商品と同じであり、商品名などである。「3次元画像データ」は、商品の3次元画像データである。図5の例では、商品ID「ID01」で識別される商品「指輪A」には、画像データ「3次元画像データA」が対応付けられていることを示す。なお、3次元画像データは、商品そのものを撮像したデータから作成したり、仮想空間上で作成したり、公知の手法を用いて作成することができる。   FIG. 5 is a diagram illustrating an example of information stored in the image data DB 14. As shown in FIG. 5, the image data DB 14 stores “product ID, product, three-dimensional image data” in association with each other. The “product ID” stored here is the same as the product ID in the product information DB 13 and is an identifier for identifying the product. “Product” is the same as the product in the product information DB 13, such as a product name. “Three-dimensional image data” is three-dimensional image data of a product. In the example of FIG. 5, the image data “3D image data A” is associated with the product “Ring A” identified by the product ID “ID01”. Note that the three-dimensional image data can be created from data obtained by imaging the product itself, created in a virtual space, or created using a known method.

制御部20は、商品サーバ10全体を司る処理部であり、例えばプロセッサなどである。この制御部20は、受付部21、応答部22を有する。なお、受付部21、応答部22は、プロセッサが有する電子回路の一例やプロセッサが実行するプロセスの一例である。また、制御部20は、アクセスしてきたユーザが正規なユーザであるか否かを認証する認証処理、ユーザが購入する意思を示したときに実行される商品の購入処理なども実行するが、一般的な処理なので、詳細な説明は省略する。   The control unit 20 is a processing unit that controls the entire product server 10, and is, for example, a processor. The control unit 20 includes a reception unit 21 and a response unit 22. The receiving unit 21 and the responding unit 22 are an example of an electronic circuit included in the processor and an example of a process executed by the processor. The control unit 20 also executes an authentication process for authenticating whether or not the accessing user is a legitimate user, a product purchase process executed when the user has indicated an intention to purchase, and the like. Detailed description is omitted.

受付部21は、ユーザ端末30からの要求に応じて、各種Webページをユーザ端末30に表示し、ユーザ端末30からの各種操作を受け付ける処理部である。具体的には、受付部21は、ユーザ端末30からWebブラウザ等を用いたアクセスを受け付けると、商品サイトをユーザ端末30に表示する。そして、受付部21は、商品サイト上で商品の選択を受け付けると、商品の詳細情報が掲示される商品ページをユーザ端末30に表示する。このようにして、受付部21は、ユーザの操作に対応するWebページ等を表示する。   The receiving unit 21 is a processing unit that displays various Web pages on the user terminal 30 in response to a request from the user terminal 30 and receives various operations from the user terminal 30. Specifically, upon receiving access from the user terminal 30 using a Web browser or the like, the receiving unit 21 displays a product site on the user terminal 30. Then, when receiving the selection of a product on the product site, the receiving unit 21 displays a product page on which detailed information of the product is posted on the user terminal 30. In this way, the reception unit 21 displays a Web page or the like corresponding to the user's operation.

応答部22は、ユーザ端末30から商品の試着要求を受け付けた場合に、試着サービスを提供する各種情報をユーザ端末30に応答する処理部である。具体的には、応答部22は、受付部21により表示された商品ページにおいて、ユーザにより試着の選択が行われると、試着が要求された商品の3次元画像データを画像データDB14から取得する。そして、応答部23は、仮想オブジェクトとして利用される商品の3次元画像データと、商品の3次元画像データの操作に関する制御用のスクリプトとを組み込んだ試着ページを、ユーザ端末30に応答する。   The response unit 22 is a processing unit that responds to the user terminal 30 with various information for providing a try-on service when a request to try on a product is received from the user terminal 30. Specifically, when the user selects fitting on the product page displayed by the accepting unit 21, the responding unit 22 acquires, from the image data DB 14, three-dimensional image data of the product requested to be tried on. Then, the response unit 23 responds to the user terminal 30 with a try-on page incorporating the three-dimensional image data of the product used as the virtual object and a control script related to the operation of the three-dimensional image data of the product.

ここで、表示されるWebページの遷移を説明する。図6は、表示されるWebページの遷移を説明する図である。図6の(a)に示すように、受付部21は、ユーザ端末30からアクセスを受け付けると、各商品が掲載される商品サイト60をユーザ端末30に表示する。なお、商品サイト60には、画面をスクロールするスライダーなども表示される。   Here, the transition of the displayed Web page will be described. FIG. 6 is a diagram illustrating transition of a displayed Web page. As shown in FIG. 6A, when receiving the access from the user terminal 30, the receiving unit 21 displays a product site 60 on which each product is posted on the user terminal 30. Note that a slider or the like for scrolling the screen is also displayed on the product site 60.

続いて、図6の(b)に示すように、受付部21は、商品サイト60上で商品「指輪A」が選択されると、選択された商品「指輪A」の詳細情報を商品情報DB13から取得して、商品「指輪A」の詳細情報が掲載される商品ページ61をユーザ端末30に表示する。なお、商品ページ61には、前の画面に戻る「戻る」ボタン、商品の購入に進む「購入」ボタン、商品の試着に進む「試着」ボタンなども表示される。   Subsequently, as shown in FIG. 6B, when the product “ring A” is selected on the product site 60, the receiving unit 21 stores the detailed information of the selected product “ring A” in the product information DB 13. And displays on the user terminal 30 a product page 61 on which detailed information of the product “Ring A” is posted. The product page 61 also displays a “return” button for returning to the previous screen, a “purchase” button for proceeding to purchase of the product, a “try-on” button for proceeding to try on the product, and the like.

その後、図6の(c)に示すように、商品ページ61上で「試着」ボタンが選択されると、応答部22は、表示中の商品「指輪A」の3次元画像データAを画像データDB14から取得して、3次元画像データAと試着を行うための各種制御を制御用のスクリプトとを組み込んだ、商品「指輪A」の試着を行う試着ページ62を表示する。なお、制御用のスクリプトで実行される各種処理は、ユーザ端末30で説明する各種処理部の機能を提供する。なお、この試着ページ62には、試着ページ62をディスプレイに表示するユーザ端末30のカメラと連携し、カメラの撮影対象の領域を含むとともに、当該領域に商品「指輪A」の仮想オブジェクトが表示される。なお、試着ページ62には、前の画面に戻る「戻る」ボタン、商品の購入に進む「購入」ボタンなども表示される。   Thereafter, as shown in FIG. 6C, when the “try on” button is selected on the product page 61, the response unit 22 converts the three-dimensional image data A of the displayed product “ring A” into image data. A try-on page 62 for trying on the product “Ring A”, which is obtained from the DB 14 and incorporates the three-dimensional image data A and various control scripts for performing the try-on, is displayed. The various processes executed by the control script provide the functions of various processing units described in the user terminal 30. The try-on page 62 includes an area to be photographed by the camera in cooperation with the camera of the user terminal 30 that displays the try-on page 62 on the display, and a virtual object of the product “Ring A” is displayed in the area. You. The fitting page 62 also displays a “return” button for returning to the previous screen, a “purchase” button for proceeding to purchase of a product, and the like.

(ユーザ端末30の機能構成)
図3に示すように、ユーザ端末30は、通信部31、撮像部32、記憶部33、制御部40を有する。
(Functional Configuration of User Terminal 30)
As shown in FIG. 3, the user terminal 30 includes a communication unit 31, an imaging unit 32, a storage unit 33, and a control unit 40.

通信部31は、他の装置との間の通信を制御する処理部であり、例えば通信インタフェースなどである。例えば、通信部31は、商品サーバ10との間で、Webブラウザによるセッションを確立し、Webブラウザを介してデータの送受信を実行する。   The communication unit 31 is a processing unit that controls communication with another device, and is, for example, a communication interface. For example, the communication unit 31 establishes a session with the product server 10 using a Web browser, and transmits and receives data via the Web browser.

撮像部32は、カメラなどを用いて撮像された画像や映像などの2次元画像データを取得する処理部である。例えば、撮像部32は、試着を行うユーザの手、顔、身体などを撮像し、撮像した画像データを、制御部40に出力する。   The imaging unit 32 is a processing unit that acquires two-dimensional image data such as images and videos captured using a camera or the like. For example, the imaging unit 32 captures an image of a hand, a face, a body, and the like of the user performing the fitting, and outputs captured image data to the control unit 40.

記憶部33は、各種データや制御部40が実行する各種プログラムなどを記憶する記憶装置の一例であり、例えばメモリやハードディスクなどである。例えば、この記憶部33は、商品サーバ10から受信した商品の3次元画像データや、撮像部32により撮像された画像データなどを記憶する。   The storage unit 33 is an example of a storage device that stores various data and various programs executed by the control unit 40, and is, for example, a memory or a hard disk. For example, the storage unit 33 stores three-dimensional image data of a product received from the product server 10, image data captured by the imaging unit 32, and the like.

制御部40は、ユーザ端末30全体を司る処理部であり、例えばプロセッサなどである。この制御部40は、アクセス部41と試着制御部42を有する。なお、アクセス部41と試着制御部42は、プロセッサが有する電子回路の一例やプロセッサが実行するプロセスの一例である。   The control unit 40 is a processing unit that controls the entire user terminal 30, and is, for example, a processor. The control unit 40 includes an access unit 41 and a try-on control unit 42. The access unit 41 and the try-on control unit 42 are an example of an electronic circuit included in the processor and an example of a process executed by the processor.

アクセス部41は、商品サーバ10との間で、Webブラウザを用いた各種制御を実行する処理部である。例えば、アクセス部41は、ユーザの指示操作により、Webブラウザを起動し、商品サーバ10にアクセスする。そして、アクセス部41は、商品サーバ10から受け付けた商品サイト60や商品ページ61をディスプレイ等に表示する。また、アクセス部41は、試着対象の商品の3次元画像データと制御用のスクリプトが組み込まれた試着ページ62を受け付けると、試着ページをディスプレイ等に表示する。   The access unit 41 is a processing unit that executes various controls using the Web browser with the product server 10. For example, the access unit 41 activates a Web browser and accesses the product server 10 according to a user's instruction operation. Then, the access unit 41 displays the product site 60 or the product page 61 received from the product server 10 on a display or the like. Further, when receiving the fitting page 62 in which the three-dimensional image data of the product to be tried on and the control script are incorporated, the access unit 41 displays the fitting page on a display or the like.

試着制御部42は、2次元画像生成部43と表示制御部44を有し、ユーザ端末30のディスプレイ上で、試着サービスを実行する処理部である。具体的には、試着制御部42は、アクセス部41により試着ページ62が取得されると、試着ページ62に組み込まれる制御用のスクリプトを実行して、2次元画像生成部43と表示制御部44とによる処理を実行することで、試着対象の商品の2次元画像データを生成する仮想空間を用いた制御と、その2次元画像データをディスプレイに実際に表示する制御とを、リアルタイムに連携して試着サービスを実行する。   The fitting control unit 42 has a two-dimensional image generation unit 43 and a display control unit 44, and is a processing unit that executes a fitting service on the display of the user terminal 30. Specifically, when the fitting page 62 is acquired by the access unit 41, the fitting control unit 42 executes a control script incorporated in the fitting page 62, and executes the control script to execute the two-dimensional image generation unit 43 and the display control unit 44. By executing the processing described above, the control using the virtual space for generating the two-dimensional image data of the product to be tried on and the control for actually displaying the two-dimensional image data on the display are linked in real time. Perform the fitting service.

2次元画像生成部43は、各商品について、試着サービスで使用する仮想オブジェクトの2次元画像データを生成する処理部である。具体的には、2次元画像生成部43は、アクセス部41により取得された試着ページ62から、商品サーバ10によって送信された商品の3次元画像データを取得する。そして、2次元画像生成部43は、コンピュータ上でシミュレートした3次元の仮想空間上に、当該商品の3次元画像データを仮想オブジェクトとして配置する。そして、2次元画像生成部43は、3次元の仮想空間上に配置した仮想カメラを用いて、商品の仮想オブジェクトを撮像し、2次元画像データを生成する。また、2次元画像生成部43は、撮影して得られた商品の2次元画像データを、表示制御部44などに出力する。なお、3次元的な仮想空間のシミュレートや仮想カメラなどは、公知のソフトウェアなどを用いることもできる。   The two-dimensional image generation unit 43 is a processing unit that generates, for each product, two-dimensional image data of a virtual object used in the try-on service. Specifically, the two-dimensional image generation unit 43 obtains three-dimensional image data of the product transmitted by the product server 10 from the fitting page 62 obtained by the access unit 41. Then, the two-dimensional image generation unit 43 arranges the three-dimensional image data of the product as a virtual object in a three-dimensional virtual space simulated on a computer. Then, the two-dimensional image generation unit 43 uses the virtual camera arranged in the three-dimensional virtual space to image the virtual object of the product, and generates two-dimensional image data. Further, the two-dimensional image generation unit 43 outputs two-dimensional image data of the product obtained by shooting to the display control unit 44 and the like. For simulating a three-dimensional virtual space, a virtual camera, and the like, known software can be used.

図7は、仮想オブジェクトの2次元画像データを生成する例を説明する図である。図7に示す図は、商品の仮想オブジェクトの2次元画像データを生成する3次元の仮想空間を上から見た図であり、仮想空間上に配置した複数の仮想カメラを用いて商品となるオブジェクトを撮像する。図7に示すように、仮想空間上で仮想カメラ1と仮想カメラ1´とを同位置に設置する。そして、仮想カメラ1が撮影できる領域Pと仮想カメラ1´が撮影できる領域P´との境界上に仮想オブジェクト(3次元画像データ)を配置する。なお、仮想オブジェクトは、任意の方向に回転させることができる。また、仮想オブジェクトのうち、各仮想カメラが撮影できる領域から外れた部分は、その仮想カメラの映像には映らない。そして、仮想オブジェクトを回転させて、各仮想カメラで仮想オブジェクトを撮影し、撮影された画像を組み合わせることで、仮想オブジェクトの2次元画像データを生成する。   FIG. 7 is a diagram illustrating an example of generating two-dimensional image data of a virtual object. FIG. 7 is a top view of a three-dimensional virtual space that generates two-dimensional image data of a virtual object of a product, and an object that becomes a product using a plurality of virtual cameras arranged in the virtual space. Is imaged. As shown in FIG. 7, the virtual camera 1 and the virtual camera 1 'are installed at the same position in the virtual space. Then, the virtual object (three-dimensional image data) is arranged on the boundary between the area P where the virtual camera 1 can shoot and the area P 'where the virtual camera 1' can shoot. The virtual object can be rotated in any direction. In addition, a portion of the virtual object that is out of the area that can be photographed by each virtual camera does not appear in the image of the virtual camera. Then, the virtual object is rotated, the virtual object is photographed by each virtual camera, and the photographed images are combined to generate two-dimensional image data of the virtual object.

より詳細に説明する。仮想空間上における仮想オブジェクトの中心座標を(x=0,y=0,z=100)と設定し、仮想オブジェクトは、仮想空間上で様々な方向に自転することができ、自転しても中心座標は変わらない。また、2つの仮想カメラ(仮想カメラ1、仮想カメラ1´)は、仮想空間上の(x=0,y=0,z=0)の位置にあり(x=0,y=0,z=100)の方向を撮影する。   This will be described in more detail. The center coordinates of the virtual object in the virtual space are set to (x = 0, y = 0, z = 100), and the virtual object can rotate in various directions in the virtual space. The coordinates do not change. The two virtual cameras (virtual camera 1 and virtual camera 1 ') are located at (x = 0, y = 0, z = 0) in the virtual space (x = 0, y = 0, z = 100) direction is photographed.

そして、仮想カメラ1は、z≧10からz≦100までの領域を撮影し映像化し、z<10またはz>100の領域は映らない。仮想カメラ1´は、z>100からz≦200までの領域を撮影し映像化し、z≦100またはz>200の領域は映らない。すなわち、仮想カメラ1からは、z≧10からz≦100までの領域に含まれる仮想オブジェクトのうち一部分が映り、それ以外が透過された映像が得られる。仮想カメラ1´からは、z>100からz≦200までの領域に含まれる仮想オブジェクトの一部分が映り、それ以外が透過された映像が得られる。   Then, the virtual camera 1 captures and images an area from z ≧ 10 to z ≦ 100, and does not show an area of z <10 or z> 100. The virtual camera 1 ′ captures and images an area from z> 100 to z ≦ 200, and does not show an area where z ≦ 100 or z> 200. That is, the virtual camera 1 obtains an image in which a part of the virtual object included in the region from z ≧ 10 to z ≦ 100 is reflected, and the other portions are transmitted. From the virtual camera 1 ′, a part of the virtual object included in the region from z> 100 to z ≦ 200 is reflected, and an image in which the rest is transmitted is obtained.

そして、仮想カメラ1と仮想カメラ1´の映像をそれぞれHTML(Hyper Text Markup Language)上のcanvas要素に出力し、画面に表示することで、仮想カメラ1の映像を出力したcanvasと仮想カメラ1´の映像を出力したcanvasとが、画面上で同じ位置に重なって表示されるようレイアウトされる。   Then, the images of the virtual camera 1 and the virtual camera 1 'are output to canvas elements in HTML (Hyper Text Markup Language), respectively, and displayed on the screen, so that the canvas and the virtual camera 1' which output the image of the virtual camera 1 are output. And the canvas that output the video of the image are laid out so as to be overlapped and displayed at the same position on the screen.

このように、2次元画像生成部43は、シミュレーションした3次元空間上に試着対象として選択された商品の仮想オブジェクトを配置し、2つの仮想カメラで撮影した画像を組み合わせて、商品の2次元画像データを生成する。図8は、生成される2次元画像データを説明する図である。図8に示すように、2次元画像生成部43は、仮想カメラ1から得られる映像と、仮想カメラ1´から得られる映像とを合成して、1つの2次元画像データを生成する。なお、1つの2次元画像データのうち、仮想カメラ1で撮影された映像(データ)の領域が被写体よりも常に優先表示される優先領域となる。   As described above, the two-dimensional image generation unit 43 arranges the virtual object of the product selected as the fitting target on the simulated three-dimensional space, combines the images captured by the two virtual cameras, and generates a two-dimensional image of the product. Generate data. FIG. 8 is a diagram illustrating generated two-dimensional image data. As shown in FIG. 8, the two-dimensional image generation unit 43 combines the video obtained from the virtual camera 1 and the video obtained from the virtual camera 1 ′ to generate one two-dimensional image data. Note that, in one piece of two-dimensional image data, an area of a video (data) captured by the virtual camera 1 is a priority area that is always displayed with priority over the subject.

上述したように、仮想空間上の各仮想カメラは、仮想空間上の仮想オブジェクトを常に撮像して、3次元画像データである仮想オブジェクトのリアルタイムな2次元画像データを生成する。   As described above, each virtual camera in the virtual space always captures a virtual object in the virtual space and generates real-time two-dimensional image data of the virtual object, which is three-dimensional image data.

ここで、2次元画像データの生成タイミングについて具体的に説明する。例えば、2次元画像生成部43は、試着サービス開始時は、仮想空間上の所定位置に、予め定めたデフォルトの姿勢で仮想オブジェクトを配置して、2次元画像データを生成する。   Here, the generation timing of the two-dimensional image data will be specifically described. For example, when starting the try-on service, the two-dimensional image generation unit 43 generates a two-dimensional image data by arranging a virtual object at a predetermined position in a virtual space with a predetermined default posture.

また、2次元画像生成部43は、試着ページ62に表示される仮想オブジェクトの2次元画像データに対してユーザが操作すると、当該操作に応じて、仮想空間上の仮想オブジェクト(3次元画像データ)の姿勢を変更して、2次元画像データを生成する。より詳細には、2次元画像生成部43は、試着ページ62に表示される仮想オブジェクトの2次元画像データに対するフリック操作を検出すると、フリック操作に応じた距離だけ、仮想空間上の仮想オブジェクトを回転させる。そして、2次元画像生成部43は、回転後の姿勢の仮想オブジェクトを撮影して2次元画像データを生成する。   In addition, when the user operates the two-dimensional image data of the virtual object displayed on the fitting page 62, the two-dimensional image generation unit 43 responds to the operation by using the virtual object (three-dimensional image data) in the virtual space. Is changed to generate two-dimensional image data. More specifically, upon detecting a flick operation on the two-dimensional image data of the virtual object displayed on the fitting page 62, the two-dimensional image generation unit 43 rotates the virtual object in the virtual space by a distance corresponding to the flick operation. Let it. Then, the two-dimensional image generation unit 43 generates a two-dimensional image data by photographing the virtual object in the posture after the rotation.

図3に戻り、表示制御部44は、ユーザ端末30のディスプレイに表示される試着ページ62の表示制御に関する各種処理を実行する処理部である。具体的には、表示制御部44は、仮想オブジェクトの2次元画像データを表示する表示処理、試着を行う被写体を検出する検出処理、2次元画像データを用いた試着を行う試着処理などを実行する。   Returning to FIG. 3, the display control unit 44 is a processing unit that executes various processes related to display control of the fitting page 62 displayed on the display of the user terminal 30. Specifically, the display control unit 44 executes a display process of displaying two-dimensional image data of the virtual object, a detection process of detecting a subject to be tried on, a fitting process of performing a try on using the two-dimensional image data, and the like. .

(表示処理)
例えば、表示制御部44は、2次元画像生成部43により生成された仮想オブジェクトの2次元画像データを、試着ページ62の予め指定された位置に表示する処理部である。すなわち、表示制御部44は、2次元画像生成部43が随時生成する2次元画像データを、ディスプレイに表示される試着ページ62にリアルタイムに表示する。
(Display processing)
For example, the display control unit 44 is a processing unit that displays the two-dimensional image data of the virtual object generated by the two-dimensional image generation unit 43 at a predetermined position on the fitting page 62. That is, the display control unit 44 displays the two-dimensional image data generated by the two-dimensional image generation unit 43 as needed on the fitting page 62 displayed on the display in real time.

(検出処理)
また、表示制御部44は、カメラ等により撮像された画像データから被写体を検出する。例えば、表示制御部44は、ユーザ端末30の撮像部32により取得される2次元画像である画像データを試着ページ62に表示し、表示される画像データから、時系列に変化する被写体を検出する。具体的には、表示制御部44は、カメラにより撮影された画像データから、被写体の輪郭、肌色等の指定された色の領域、予め定めておいた型と類似する領域などの様々な手法を用いて、手などの被写体を検出する。
(Detection processing)
The display control unit 44 detects a subject from image data captured by a camera or the like. For example, the display control unit 44 displays image data that is a two-dimensional image acquired by the imaging unit 32 of the user terminal 30 on the fitting page 62, and detects a subject that changes in time series from the displayed image data. . Specifically, the display control unit 44 performs various methods such as an outline of a subject, an area of a designated color such as a skin color, an area similar to a predetermined type, and the like from image data captured by a camera. To detect a subject such as a hand.

ここで、被写体の検出手法の一例として、(1)特定の色と類似する領域を検出する手法、(2)特徴量抽出を用いた手法、(3)背景差分を用いる手法を説明する。   Here, as an example of a subject detection method, (1) a method of detecting a region similar to a specific color, (2) a method using feature amount extraction, and (3) a method using background difference will be described.

(1)特定の色と類似する領域を検出する手法
例えば、表示制御部44は、あらかじめ決めておいた基準の色と合致する画素だけを、被写体と判断することができる。具体的には、表示制御部44は、検出対象のRGB値(画素値)の範囲を予め保持する。そして、表示制御部44は、撮像された画像データの各画素を参照して検出対象のRGB値の範囲内か否かを判定する。そして、表示制御部44は、検出対象のRGB値の範囲内と判定された各画素を、被写体と判定する。
(1) Method of Detecting Region Similar to Specific Color For example, the display control unit 44 can determine only a pixel that matches a predetermined reference color as a subject. Specifically, the display control unit 44 holds in advance a range of RGB values (pixel values) to be detected. Then, the display control unit 44 refers to each pixel of the captured image data and determines whether or not the pixel value is within the range of the RGB values to be detected. Then, the display control unit 44 determines each pixel determined to be within the range of the RGB values to be detected as the subject.

また、表示制御部44は、撮像された画像データ上でユーザの選択を受け付ける。そして、表示制御部44は、選択された画素のRGB値を中央値として所定の範囲を検出対象に決定する。その後、表示制御部44は、撮像された画像データの各画素を参照して、検出対象のRGB値の範囲内の各画素を、被写体と判定する。このようにして、表示制御部44は、画像データの各画素を参照して、被写体(例えば手)の輪郭を検出することができる。なお、所定の範囲等は、任意に設定変更することができる。   In addition, the display control unit 44 accepts a user's selection on the captured image data. Then, the display control unit 44 determines a predetermined range as a detection target with the RGB value of the selected pixel as a median value. Thereafter, the display control unit 44 refers to each pixel of the captured image data and determines each pixel within the range of the RGB values to be detected as the subject. In this way, the display control unit 44 can detect the contour of the subject (for example, a hand) with reference to each pixel of the image data. The predetermined range and the like can be arbitrarily changed.

(2)特徴量抽出を用いた手法
例えば、表示制御部44は、画像データの中から特徴を検出し、あらかじめ決めておいた被写体の特徴との類似度を比較し、類似する部分を被写体と判断することもできる。具体的には、表示制御部44は、画素同士の明暗差の並びのパターンを特徴とする手法(Haar Like特徴)、画素同士の輝度の分布を特徴とする手法(Local Binary Pattern特徴)、輝度の方向(画像データの中のグラデーションのつき方)の組み合わせ方を特徴とする手法(Histogram of Oriented Gradients特徴)などを用いることができる。
(2) Method Using Feature Extraction For example, the display control unit 44 detects a feature from the image data, compares the similarity with a predetermined feature of the subject, and regards a similar part to the subject. You can also judge. More specifically, the display control unit 44 includes a method (Haar Like feature) that features a pattern of arrangement of brightness differences between pixels, a method (Local Binary Pattern feature) that features a distribution of luminance between pixels, and a luminance. (Histogram of Oriented Gradients feature) or the like, which is characterized by the combination of the directions (how to apply gradation in image data).

(3)背景差分を用いる手法
例えば、表示制御部44は、時系列に沿って画像を比較し、差分がある領域を被写体として検出することができる。具体的には、表示制御部44は、例えば1秒おきに画像データを撮像部32から順次取得する。そして、表示制御部44は、前後の各画像データを比較し、画像データの中で動きがあった領域を被写体と判定することができる。
(3) Method Using Background Difference For example, the display control unit 44 can compare images in time series and detect a region having a difference as a subject. Specifically, the display control unit 44 sequentially acquires image data from the imaging unit 32, for example, every one second. Then, the display control unit 44 compares each of the preceding and following image data, and can determine an area in which the image data has moved as a subject.

(試着処理)
また、表示制御部44は、試着ページ62上に、2次元画像生成部43により生成される仮想オブジェクトの2次元画像データと、カメラ等によりリアルタイムに撮影された画像データから検出された被写体とを表示し、仮想オブジェクトの試着を実行する。
(Try-on process)
The display control unit 44 also displays, on the fitting page 62, two-dimensional image data of the virtual object generated by the two-dimensional image generation unit 43 and a subject detected from image data captured in real time by a camera or the like. Display and try on the virtual object.

例えば、表示制御部44は、撮影された画像データから随時認識される被写体の画像データとともに、予め決められた表示位置に商品に対応する2次元画像データを表示する。そして、表示制御部44は、表示されている被写体と2次元画像データの表示が重なったときに、当該重なった領域のうち、優先的に表示させる仮想カメラ1で撮影された2次元画像データの領域を被写体に優先して表示するとともに、それ以外の2次元画像データの領域を非表示する。   For example, the display control unit 44 displays the two-dimensional image data corresponding to the product at a predetermined display position together with the image data of the subject that is occasionally recognized from the captured image data. When the displayed subject and the display of the two-dimensional image data overlap with each other, the display control unit 44 displays the two-dimensional image data of the two-dimensional image data captured by the virtual camera 1 to be preferentially displayed in the overlapping area. The area is displayed in preference to the subject, and the other areas of the two-dimensional image data are not displayed.

[具体例]
次に、図9から図12を用いて、一例として、指輪Aの試着を行う具体例で説明する。ここでは、ユーザ操作、ディスプレイ制御、試着における画面遷移例、試着例を順に説明する。
[Concrete example]
Next, a specific example of trying on the ring A will be described as an example with reference to FIGS. 9 to 12. Here, a user operation, display control, a screen transition example in fitting, and a fitting example will be sequentially described.

(ユーザ操作)
図9は、試着イメージを説明する図である。図9に示すように、ユーザ端末30の表示制御部44は、ディスプレイに表示される試着ページ62に、2次元画像生成部43により生成された指輪Aの2次元画像データQを表示する。ユーザが、このユーザ端末30のカメラを用いて自分の手を撮影することで、表示制御部44が、被写体であるユーザの手を検出して、試着ページ62に表示する。そして、ユーザが、カメラで撮影しながら自分の手を移動させると、表示制御部44が、時系列で撮影された各画像データからユーザの指を随時検出して試着ページ62に表示する。この結果、ユーザは、カメラで手を撮影しながら、試着ページ62上で指に指輪(2次元画像データQ)をはめることで、試着を行う。
(User operation)
FIG. 9 is a diagram illustrating a fitting image. As illustrated in FIG. 9, the display control unit 44 of the user terminal 30 displays the two-dimensional image data Q of the ring A generated by the two-dimensional image generation unit 43 on the fitting page 62 displayed on the display. When the user shoots his / her own hand using the camera of the user terminal 30, the display control unit 44 detects the hand of the user as the subject and displays it on the fitting page 62. Then, when the user moves his or her hand while shooting with the camera, the display control unit 44 detects the user's finger from each image data shot in time series and displays it on the fitting page 62 as needed. As a result, the user performs the fitting by putting a ring (two-dimensional image data Q) on the finger on the fitting page 62 while photographing the hand with the camera.

(ディスプレイ制御)
ここで、ユーザ端末30の試着制御部42は、Webブラウザを介して、カメラなどによりリアルタイムに撮像された指の状態を取得し、ユーザ端末30のディスプレイ上で試着を実現する。図10は、商品に対応する2次元画像データの試着の構成を説明する図である。
(Display control)
Here, the try-on control unit 42 of the user terminal 30 acquires the state of the finger imaged in real time by a camera or the like via the Web browser, and implements the try-on on the display of the user terminal 30. FIG. 10 is a diagram illustrating a configuration of fitting of two-dimensional image data corresponding to a product.

図10に示すように、表示制御部44は、ユーザ端末30で撮影された実オブジェクトの映像(レイヤー3)から、検出された被写体(手)のみの領域を示す映像(レイヤー2)を切り抜く。そして、表示制御部44は、2次元画像生成部43により生成された商品の仮想オブジェクトの2次元画像データのうち優先的に表示されないレイヤー1´の映像、レイヤー3から切り抜かれた被写体(手)のみの領域を示す映像(レイヤー2)、当該商品に対応する2次元画像データのうち優先的に表示されるレイヤー1の映像を順に重ねて1つの画面に映し出す。なお、表示制御部44は、レイヤー1´、レイヤー2、レイヤー1については、表示対象のオブジェクトや手以外の領域を透明にすることで、各レイヤーを重ねても下のレイヤーが映るように制御する。また、表示制御部44は、試着ページ62の背景として、カメラで手を撮影しているときの背景を表示することもでき、予め用意しておいた別の背景を表示することもできる。   As illustrated in FIG. 10, the display control unit 44 cuts out a video (layer 2) indicating an area of only the detected subject (hand) from the video (layer 3) of the real object captured by the user terminal 30. Then, the display control unit 44 controls the image of the layer 1 ′ that is not preferentially displayed in the two-dimensional image data of the virtual object of the product generated by the two-dimensional image generation unit 43, and the subject (hand) cut out from the layer 3. The video (layer 2) showing only the area and the video of layer 1 which is preferentially displayed in the two-dimensional image data corresponding to the product are sequentially superimposed and projected on one screen. The display control unit 44 controls the layers 1 ′, 2, and 1 by making areas other than the display target object and the hand transparent so that the lower layer is reflected even when the layers are overlapped. I do. In addition, the display control unit 44 can display the background when the hand is shot with the camera as the background of the try-on page 62, or can display another background prepared in advance.

(試着における画面遷移例)
次に、実際の試着例について説明する。図11は、試着の遷移を説明する図である。図11の(a)に示すように、試着制御部42は、レイヤー1の映像とレイヤー1´の映像とを組み合わせた指輪Aの2次元画像データ(図11の説明では単に指輪Aと記載する場合がある)を予め指定した領域に表示させた試着ページ62上で、ユーザ端末30のカメラで撮像された映像を表示させ、被写体である手を検出する。
(Example of screen transition during fitting)
Next, an actual fitting example will be described. FIG. 11 is a diagram illustrating the transition of fitting. As shown in FIG. 11A, the try-on control unit 42 generates two-dimensional image data of the ring A obtained by combining the image of the layer 1 and the image of the layer 1 ′ (in the description of FIG. 11, simply described as the ring A). (Sometimes) is displayed on the try-on page 62 displayed in the area designated in advance, and the image captured by the camera of the user terminal 30 is displayed to detect the hand as the subject.

続いて、図11の(b)に示すように、試着制御部42は、ユーザの操作によって手が指輪Aに近づき、ユーザの指が指輪Aと重なり始めると、指輪Aのレイヤー1´の部分より手を優先させて表示する。この結果、指輪Aのレイヤー1´の部分の上に、ユーザの指が表示される。   Subsequently, as shown in FIG. 11B, when the hand approaches the ring A by the operation of the user and the finger of the user starts to overlap with the ring A, the try-on control unit 42 determines the layer 1 ′ portion of the ring A. Display with more priority on the hand. As a result, the user's finger is displayed on the layer 1 'of the ring A.

その後、図11の(c)に示すように、試着制御部42は、ユーザの操作によって手が指輪Aに近づき、ユーザの指が指輪Aと完全に重なると、指輪Aのレイヤー1´の部分より手を優先させて表示するとともに、指輪Aのレイヤー1の部分を手より優先させて表示する。   After that, as shown in FIG. 11C, the try-on control unit 42 determines that the hand approaches the ring A by the user's operation, and when the user's finger completely overlaps the ring A, the layer 1 'portion of the ring A The hand is displayed with higher priority than the hand, and the layer A portion of the ring A is displayed with higher priority than the hand.

この結果、試着制御部42は、指輪Aが指に装着しているように表示することができる。なお、試着制御部42は、指輪Aのレイヤー1´の部分について、指と重なっている部分だけを非表示とするので、指の太さ等により、非表示となる領域の大きさが変わる。したがって、ユーザごとの各指に適した装着感を提供することができる。   As a result, the try-on control unit 42 can display as if the ring A was worn on the finger. Since the fitting controller 42 hides only the portion of the layer A 'of the ring A that overlaps the finger, the size of the non-displayed area changes depending on the thickness of the finger and the like. Therefore, a feeling of wearing suitable for each finger for each user can be provided.

(試着例)
次に、試着制御部42は、指輪などの商品に対応する2次元画像データ(図12の説明では、単に指輪と記載する場合がある)を様々な方向に動かすことができるので、様々な方向からの試着をユーザに提供することができる。図12は、試着の別例を説明する図である。
(Example of fitting)
Next, the try-on control unit 42 can move the two-dimensional image data (which may be simply described as a ring in the description of FIG. 12) corresponding to a product such as a ring in various directions, so that the various directions can be used. Can be provided to the user. FIG. 12 is a diagram for explaining another example of fitting.

図12に示すように、ユーザ端末30の表示制御部44は、試着ページ62に、指輪を横方向に回転させるスライダーAと指輪を上下方向に回転させるスライダーBとを表示する。これらのスライダーにより、指輪を様々な向きに変更することができる。例えば、表示制御部44は、スライダーが操作されると、操作方向や操作距離を検出して2次元画像生成部43に出力する。2次元画像生成部43は、入力された操作方向や操作距離に応じて、仮想空間上に配置した仮想オブジェクトの姿勢を変更し、変更後の姿勢の仮想オブジェクトを撮影して2次元画像データを生成する。そして、表示制御部44は、新たな2次元画像データを試着ページ62に表示する。このように、試着ページ62のユーザ操作を仮想空間にリアルタイムに通知して、仮想オブジェクトの姿勢を動的に変更することができるので、ユーザは、試着ページ62上であたかも商品を動かしているかのように認識することができる。なお、指輪の回転等の操作は、スライダーに限らず、指輪を選択した状態でのフリック操作を採用することができる。   As shown in FIG. 12, the display control unit 44 of the user terminal 30 displays, on the fitting page 62, a slider A for rotating the ring in the horizontal direction and a slider B for rotating the ring in the vertical direction. With these sliders, the ring can be changed in various directions. For example, when the slider is operated, the display control unit 44 detects an operation direction and an operation distance and outputs the operation direction and the operation distance to the two-dimensional image generation unit 43. The two-dimensional image generation unit 43 changes the posture of the virtual object arranged in the virtual space according to the input operation direction and operation distance, captures the virtual object having the changed posture, and converts the two-dimensional image data. Generate. Then, the display control unit 44 displays the new two-dimensional image data on the fitting page 62. As described above, the user operation of the fitting page 62 is notified to the virtual space in real time, and the posture of the virtual object can be dynamically changed. Therefore, the user can determine whether the product is moving on the fitting page 62. Can be recognized as follows. The operation such as rotation of the ring is not limited to the slider, and a flick operation in a state where the ring is selected can be adopted.

ユーザ端末30の試着制御部42は、指輪を横向きにした状態で、ユーザの手を検出することで、横から見た試着を提供する。ここでも、試着制御部42は、指輪のレイヤー1´の部分より手を優先させて表示するとともに、指輪のレイヤー1の部分を手より優先させて表示する。   The try-on control unit 42 of the user terminal 30 detects the user's hand with the ring turned sideways, and provides a try-on view from the side. Also in this case, the fitting control unit 42 displays the hand with priority over the layer 1 'portion of the ring, and also displays the hand with the layer 1 portion of the ring prior to the hand.

また、試着制御部42は、指輪を裏側にした状態で、すなわち手のひら側の指輪が見える状態で、ユーザの手を検出して、裏側から見た試着を提供する。ここでも、試着制御部42は、指輪のレイヤー1´の部分より手を優先させて表示するとともに、指輪のレイヤー1の部分を手より優先させて表示する。なお、図12に示すように、裏側の場合、通常時とレイヤーの映像の位置が逆となるが、レイヤー1の映像は常に優先され、レイヤー1´の映像は常に優先されないので、通常時と同様に、仮想的に正しく装着した映像を提供できる。   In addition, the fitting control unit 42 detects the user's hand with the ring on the back side, that is, with the palm-side ring visible, and provides the fitting viewed from the back side. Also in this case, the fitting control unit 42 displays the hand with priority over the layer 1 'portion of the ring, and also displays the hand with the layer 1 portion of the ring prior to the hand. As shown in FIG. 12, in the case of the back side, the position of the image of the layer is opposite to that of the normal state, but the image of the layer 1 is always given priority, and the image of the layer 1 'is not always given priority. Similarly, it is possible to provide a video that is virtually correctly mounted.

なお、ここでは、スライダーを用いて、指輪を回転させる例を説明したが、これに限定されるものではない。例えば、2次元画像生成部43は、表示される指輪に対するフリック操作等により指輪の姿勢や向きを変更した2次元画像データを生成することもできる。また、ディスプレイの任意の領域をフリック操作することにより、操作されたフリックの向きに合わせて、指輪の姿勢等を変更した2次元画像データを生成することもできる。また、ダブルクリックやピンチアウト操作等に応じて、2次元画像生成部43が2次元画像データの拡大縮小を行うことで、試着ページ62に表示される指輪を拡大縮小させることもできる。   Here, an example in which a ring is rotated using a slider has been described, but the present invention is not limited to this. For example, the two-dimensional image generation unit 43 can also generate two-dimensional image data in which the posture and orientation of the ring are changed by a flick operation or the like on the displayed ring. Further, by performing a flick operation on an arbitrary area of the display, it is possible to generate two-dimensional image data in which the orientation of the ring is changed according to the direction of the operated flick. Also, the ring displayed on the fitting page 62 can be enlarged or reduced by the two-dimensional image generation unit 43 performing enlargement or reduction of the two-dimensional image data in response to a double click, a pinch out operation, or the like.

[処理の流れ]
図13は、試着処理の流れを示すシーケンス図である。図13に示すように、ユーザ端末30のアクセス部41は、ユーザ操作により、Webブラウザを用いて商品サーバ10のサイトへアクセスする(S101とS102)。すると、商品サーバ10の受付部21は、各商品が掲示される商品サイト60をユーザ端末30に表示する(S103とS104)。
[Processing flow]
FIG. 13 is a sequence diagram illustrating a flow of the fitting process. As shown in FIG. 13, the access unit 41 of the user terminal 30 accesses a site of the product server 10 using a Web browser by a user operation (S101 and S102). Then, the reception unit 21 of the product server 10 displays the product site 60 on which each product is posted on the user terminal 30 (S103 and S104).

その後、ユーザ端末30において、商品サイト60上で商品が選択されると(S105とS106)、商品サーバ10の受付部21は、選択された商品の商品ページ61をユーザ端末30に表示する(S107とS108)。   Thereafter, when a product is selected on the product site 60 in the user terminal 30 (S105 and S106), the receiving unit 21 of the product server 10 displays the product page 61 of the selected product on the user terminal 30 (S107). And S108).

そして、ユーザ端末30において、商品ページ61上で試着ボタンが選択されると(S109とS110)、商品サーバ10の応答部23は、選択された商品の3次元画像データと制御用のスクリプトとを組み込んだ試着ページ62を、ユーザ端末30に応答する(S111とS112)。   Then, when the try-on button is selected on the product page 61 in the user terminal 30 (S109 and S110), the response unit 23 of the product server 10 transmits the three-dimensional image data of the selected product and the control script. The incorporated fitting page 62 is returned to the user terminal 30 (S111 and S112).

このようにして、ユーザ端末30の試着制御部42は、試着ページ62を取得すると(S113)、試着ページ62に含まれる3次元画像データを用いて、商品に対応する2次元画像データを生成する(S114)。   In this way, when the try-on control unit 42 of the user terminal 30 acquires the try-on page 62 (S113), it generates two-dimensional image data corresponding to the product using the three-dimensional image data included in the try-on page 62. (S114).

その後、ユーザ端末30の試着制御部42は、商品サーバ10から送信された制御用スクリプトを用いて、商品の2次元画像データを表示させた試着ページ62をディスプレイ等に表示する(S115)。   Thereafter, the try-on control unit 42 of the user terminal 30 uses the control script transmitted from the product server 10 to display a try-on page 62 displaying two-dimensional image data of the product on a display or the like (S115).

続いて、ユーザ端末30の試着制御部42は、手の撮像(S116)、商品の2次元画像データを回転させたりする操作(S117)、商品の試着確認(S118)などを実行して試着サービスを実行する。   Next, the try-on control unit 42 of the user terminal 30 executes the try-on service by executing an operation of imaging the hand (S116), rotating the two-dimensional image data of the product (S117), checking on the try-on of the product (S118), and the like. Execute

そして、ユーザ端末30上で試着が繰り返される間(S119:No)、S116以降が繰り返され、ユーザ端末30上で試着終了の操作が実行されると(S119:Yes)、試着サービスを終了する(S120)。   Then, while the fitting is repeated on the user terminal 30 (S119: No), S116 and subsequent steps are repeated, and when the operation of ending the fitting on the user terminal 30 is performed (S119: Yes), the fitting service is ended (S119: Yes). S120).

[効果]
上述したように、ユーザ端末30は、場所や時間を選ばずに、商品の試着サービスを実行することができる。また、ユーザ端末30は、各ユーザの指の大きさなどに応じて、商品に対応する2次元画像データの非表示とする部分を動的に制御することができるので、実際の指輪装着と同じような装着感を提供することができる。これらの結果、ユーザ端末30は、試着サービスにおける装着感を高めて購買を促進することができる。
[effect]
As described above, the user terminal 30 can execute the try-on service of the product regardless of the place and the time. In addition, the user terminal 30 can dynamically control the non-displayed part of the two-dimensional image data corresponding to the product according to the size of each user's finger, etc. Such a feeling of wearing can be provided. As a result, the user terminal 30 can enhance the feeling of wearing in the try-on service and promote purchase.

さて、これまで本発明の実施例について説明したが、本発明は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。   [C] Third Embodiment Although the embodiments of the present invention have been described above, the present invention may be implemented in various different forms other than the above-described embodiments.

[商品例]
上記例では、指輪を例にして説明したが、これに限定されるものではない。例えば、スカーフ、ブレスレット、アンクレット、イヤリング、ピアス、時計、帽子などの服飾品も同様に処理することができる。また、これらの服飾品は、ユーザが自分で手などの一部分を用いた試着を行うが、洋服などユーザ全体を撮影して試着を行う商品も採用することができる。例えば、乳幼児、被介護者などを撮影して、洋服の試着などを行うこともできる。また、人間に限らず、ペットの洋服や服飾品も採用することができる。
[Product example]
In the above example, a ring was described as an example, but the present invention is not limited to this. For example, apparel such as scarves, bracelets, anklets, earrings, earrings, watches, hats, etc. can be treated similarly. In addition, the user performs a try-on using a part of the hand or the like by himself / herself, but it is also possible to adopt a product such as clothes that performs a try-on by photographing the entire user. For example, an infant, a cared person, or the like can be photographed to try on clothes. Further, not only humans but also pet clothes and accessories can be adopted.

[数値等]
上記実施例で用いたデータ例、数値例、表示例等は、あくまで一例であり、任意に変更することができる。例えば、各種Webページの構成等は一例であり、任意に変更することができる。被写体も指に限らず、スカーフの時は首、時計の時は手首のように、商品によって検出する被写体を変更することができる。例えば、商品サーバ10や試着制御部42が、商品と検出対象の被写体とを対応付けて管理することで、試着する商品によって、検出対象を動的に変更することができる。
[Numerical values, etc.]
The data examples, numerical examples, display examples, and the like used in the above embodiments are merely examples, and can be arbitrarily changed. For example, the configuration of various Web pages is an example, and can be arbitrarily changed. The subject is not limited to the finger, and the subject to be detected can be changed depending on the product, such as the neck for a scarf and the wrist for a watch. For example, the merchandise server 10 or the try-on control unit 42 manages the merchandise in association with the subject to be detected, so that the detection target can be dynamically changed depending on the merchandise to be tried on.

[商品の操作]
また、商品に対応する2次元画像データが被写体とともに表示されているときでも当該商品の表示姿勢の指示が可能である。例えば、試着制御部42は、指輪(2次元画像データ)が指と重なっている状態であっても、試着ページ62上で指輪の回転などの操作を受け付けると、仮想空間上で回転等を行って回転後の2次元画像データを生成して、試着ページ62に表示することができる。このときの回転後の2次元画像データにおいても、レイヤー1の映像が優先的に表示される。なお、ディスプレイ上でユーザによって操作された領域を特定する手法は、公知の手法を採用することができる。
[Product operation]
Further, even when the two-dimensional image data corresponding to the product is displayed together with the subject, the display orientation of the product can be instructed. For example, even when the ring (two-dimensional image data) overlaps with the finger, the fitting controller 42 performs rotation or the like in the virtual space when receiving an operation such as rotation of the ring on the fitting page 62. Thus, the rotated two-dimensional image data can be generated and displayed on the fitting page 62. Also in the rotated two-dimensional image data at this time, the image of layer 1 is displayed with priority. In addition, as a method of specifying an area operated by the user on the display, a known method can be adopted.

また、試着制御部42は、指輪の2次元画像データが指を装着できないような姿勢で試着ページ62に表示されるときは、時系列で撮影される各画像データから認識された指(被写体)の認識結果を用いて、試着ページ62上で指の向きや移動方向等を検出し、仮想空間上の仮想オブジェクトの姿勢を装着可能な姿勢に修正した上で2次元画像データの生成を行って、試着ページ62に表示することもできる。この結果、ユーザ操作により指輪(2次元画像データ)の姿勢が正しくない場合でも、試着可能な姿勢に動的に補正することができる。   Also, when the two-dimensional image data of the ring is displayed on the fitting page 62 in such a posture that the finger cannot be worn, the fitting controller 42 recognizes the finger (subject) recognized from each image data taken in chronological order. Using the recognition result of the above, the direction and the moving direction of the finger on the fitting page 62 are detected, and the posture of the virtual object in the virtual space is corrected to a posture that can be mounted, and then two-dimensional image data is generated. , Can be displayed on the fitting page 62. As a result, even when the posture of the ring (two-dimensional image data) is incorrect due to a user operation, it is possible to dynamically correct the posture to a try-on posture.

[サイト例]
上記実施例で説明したWebサイトやWebページには、HTML(HyperText Markup Language)などで記述されたサイトやページを採用することができる。また、制御用のスクリプトとしては、JavaScript(登録商標)などを採用することができる。また、仮想空間に限らず、商品を各方向から撮影した2次元画像データを予め用意しておき、試着ページ62に表示することもできる。
[Example of site]
A site or page described in HTML (HyperText Markup Language) or the like can be adopted as the Web site or Web page described in the above embodiment. In addition, as a control script, JavaScript (registered trademark) or the like can be adopted. In addition to the virtual space, two-dimensional image data obtained by photographing a product from each direction may be prepared in advance and displayed on the fitting page 62.

[適用システム]
上記実施例では、商品の閲覧、試着、購入を行うEC(Electronic Commerce)サイトを例にして説明したが、これに限定されるものではない。例えば、試作品や、現品を作る前にデザインの段階で、仮想オブジェクトとする3次元画像データを生成することで、上記試着サービスと同等のサービスを提供することができる。この結果、商品の大量生産を行う前に、デザインの修正や相談を行うことができるので、不要なコストの削減や製造工程を効率化することができる。
[Applicable system]
In the above embodiment, an EC (Electronic Commerce) site for browsing, trying on, and purchasing a product has been described as an example, but the present invention is not limited to this. For example, a service equivalent to the above-mentioned fitting service can be provided by generating three-dimensional image data as a virtual object at the stage of designing before making a prototype or an actual product. As a result, the design can be modified or consulted before the mass production of the product, so that unnecessary costs can be reduced and the manufacturing process can be made more efficient.

また、商品サーバ10上で試着サービスを提供することもできる。具体的には、商品サーバ10が、ユーザ端末30と試着制御部42と同等の処理部を有し、Webブラウザを用いて、ユーザ端末30に試着サービスを提供する。また、ユーザ端末30は、ユーザ端末30は、制御用のスクリプトがすでに組み込まれたWebブラウザを用いて、商品の3次元画像データを商品サーバ10から取得して試着サービスを実行することもできる。   Further, a fitting service can be provided on the product server 10. Specifically, the product server 10 includes a processing unit equivalent to the user terminal 30 and the try-on control unit 42, and provides a try-on service to the user terminal 30 using a Web browser. In addition, the user terminal 30 can execute the try-on service by acquiring the three-dimensional image data of the product from the product server 10 using a Web browser in which a control script is already installed.

また、上記例では、ユーザ端末30が、1つの商品の3次元画像データを商品サーバ10から取得する例を説明したが、これに限定されず、複数の商品それぞれの3次元画像データを商品サーバ10から取得することもできる。例えば、ユーザ端末30は、試着対象の指輪を3つ選択して、それぞれの3次元画像データを商品サーバ10から取得する。ユーザ端末30は、ユーザの指示操作により、対象商品を切替えて、試着サービスを実行することができる。   In the above example, the example in which the user terminal 30 acquires the three-dimensional image data of one product from the product server 10 is described. However, the present invention is not limited thereto. 10 can also be obtained. For example, the user terminal 30 selects three rings to be tried on and acquires the respective three-dimensional image data from the product server 10. The user terminal 30 can execute the try-on service by switching the target product by the instruction operation of the user.

[システム]
上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
[system]
The processing procedures, control procedures, specific names, and information including various data and parameters shown in the above-mentioned documents and drawings can be arbitrarily changed unless otherwise specified.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散や統合の具体的形態は図示のものに限られない。つまり、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、オブジェクト生成、試着サービス、商品管理などを別々のサーバで実現することもできる。   Each component of each device illustrated is a functional concept, and does not necessarily need to be physically configured as illustrated. That is, the specific form of distribution and integration of each device is not limited to the illustrated one. That is, all or a part thereof can be configured to be functionally or physically distributed / integrated in arbitrary units according to various loads and usage conditions. For example, object generation, try-on service, product management, and the like can be realized by separate servers.

さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。   Further, all or any part of each processing function performed by each device can be realized by a CPU and a program analyzed and executed by the CPU, or can be realized as hardware by wired logic.

[ハードウェア]
図14は、ハードウェア構成例を説明する図である。商品サーバ10とユーザ端末30とは同様のハードウェア構成を有するので、ここでは、コンピュータ100として説明する。図14に示すように、コンピュータ100は、通信装置100a、HDD(Hard Disk Drive)100b、メモリ100c、プロセッサ100dを有する。また、図14に示した各部は、バス等で相互に接続される。
[hardware]
FIG. 14 is a diagram illustrating an example of a hardware configuration. Since the product server 10 and the user terminal 30 have the same hardware configuration, they will be described here as the computer 100. As shown in FIG. 14, the computer 100 includes a communication device 100a, a hard disk drive (HDD) 100b, a memory 100c, and a processor 100d. The units shown in FIG. 14 are mutually connected by a bus or the like.

通信装置100aは、ネットワークインタフェースカードなどであり、他の装置との通信を行う。HDD100bは、図3に示した機能を動作させるプログラムやDBを記憶する。   The communication device 100a is a network interface card or the like, and performs communication with another device. The HDD 100b stores programs and DBs for operating the functions shown in FIG.

プロセッサ100dは、図3に示した各処理部と同様の処理を実行するプログラムをHDD10b等から読み出してメモリ10cに展開することで、図3等で説明した各機能を実行するプロセスを動作させる。例えば、ユーザ端末30を例にして説明すると、このプロセスは、ユーザ端末30が有する各処理部と同様の機能を実行する。具体的には、プロセッサ10dは、アクセス部41と試着制御部42等と同様の機能を有するプログラムをHDD10b等から読み出す。そして、プロセッサ10dは、アクセス部41と試着制御部42等と同様の処理を実行するプロセスを実行する。   The processor 100d operates the process of executing each function described in FIG. 3 and the like by reading a program for executing the same processing as each processing unit illustrated in FIG. 3 from the HDD 10b or the like and expanding the program in the memory 10c. For example, taking the user terminal 30 as an example, this process performs the same function as each processing unit of the user terminal 30. Specifically, the processor 10d reads a program having the same functions as those of the access unit 41 and the try-on control unit 42 from the HDD 10b and the like. Then, the processor 10d executes a process of executing the same processing as the access unit 41 and the try-on control unit 42 and the like.

このように、コンピュータ100は、プログラムを読み出して実行することで試着制御方法を実行する情報処理装置として動作する。また、コンピュータ100は、媒体読取装置によって記録媒体から上記プログラムを読み出し、読み出された上記プログラムを実行することで上記した実施例と同様の機能を実現することもできる。なお、この他の実施例でいうプログラムは、コンピュータ100によって実行されることに限定されるものではない。例えば、他のコンピュータまたはサーバがプログラムを実行する場合や、これらが協働してプログラムを実行するような場合にも、本発明を同様に適用することができる。   As described above, the computer 100 operates as an information processing apparatus that executes the fitting control method by reading and executing the program. The computer 100 can also realize the same functions as those in the above-described embodiments by reading the program from a recording medium using a medium reading device and executing the read program. The programs referred to in the other embodiments are not limited to being executed by the computer 100. For example, the present invention can be similarly applied to a case where another computer or server executes a program, or a case where these execute a program in cooperation with each other.

10 商品サーバ
11 通信部
12 記憶部
13 商品情報DB
14 画像データDB
20 制御部
21 受付部
22 応答部
30 ユーザ端末
31 通信部
32 撮像部
33 記憶部
40 制御部
41 アクセス部
42 試着制御部
43 2次元画像生成部
44 表示制御部
10 product server 11 communication unit 12 storage unit 13 product information DB
14 Image data DB
Reference Signs List 20 control unit 21 reception unit 22 response unit 30 user terminal 31 communication unit 32 imaging unit 33 storage unit 40 control unit 41 access unit 42 try-on control unit 43 two-dimensional image generation unit 44 display control unit

Claims (11)

撮影された2次元画像を表示する表示手段と、
前記撮影された2次元画像の中から、時系列的に変化する予め決められた被写体を検出する検出手段と、
表示すべき仮想オブジェクトの3次元画像データを記憶する記憶手段と、
前記記憶手段に記憶された前記仮想オブジェクトの3次元画像データを前記表示手段に表示する表示姿勢を指示する指示手段と、
前記指示手段により指示された前記仮想オブジェクトの3次元データの表示姿勢に基づき前記表示手段に表示される前記仮想オブジェクトの2次元画像データのうち、優先的に表示する優先領域と前記優先領域以外の非優先領域とを決定する決定手段と、
前記表示手段の予め決められた表示位置に前記仮想オブジェクトの2次元画像データの前記優先領域および前記非優先領域とともに前記撮影された前記被写体の2次元画像を表示するとともに、少なくとも前記表示手段に表示されている前記被写体の2次元画像と前記仮想オブジェクトの2次元画像データの表示が重なったときに、当該重なった領域における前記優先領域と前記非優先領域のうち、前記優先領域を前記被写体の2次元画像に優先して表示するとともに、前記非優先領域を非表示とする表示制御手段と、
を備えた情報処理装置。
Display means for displaying the captured two-dimensional image;
Detecting means for detecting a predetermined subject that changes in time series from the photographed two-dimensional image;
Storage means for storing three-dimensional image data of a virtual object to be displayed;
Instructing means for instructing a display posture for displaying the three-dimensional image data of the virtual object stored in the storage means on the display means;
In the two-dimensional image data of the virtual object displayed on the display means based on the display orientation of the three-dimensional data of the virtual object instructed by the instructing means, a priority area to be displayed preferentially and a priority area other than the priority area Determining means for determining a non-priority area ;
A two-dimensional image of the photographed subject is displayed at a predetermined display position of the display means together with the priority area and the non-priority area of the two-dimensional image data of the virtual object , and is displayed on at least the display means. When the two-dimensional image of the subject and the display of the two-dimensional image data of the virtual object overlap each other, the priority area and the non-priority area in the overlapped area are replaced with the priority area of the subject . Display control means for displaying in priority to the three- dimensional image and for hiding the non-priority area,
Information processing device provided with.
前記検出手段は、前記撮影された2次元画像の各画素を参照し、前記各画素の画素値、前記各画素を用いた特徴量または前記各画素の変化量に基づき、前記時系列的に変化する予め決められた被写体を検出することを特徴とする請求項1に記載の情報処理装置。 Said detecting means refers to each pixel of the captured two-dimensional image, the pixel value of each pixel, based the amount of change in feature amount or the pixel using each pixel, the time series varying The information processing apparatus according to claim 1, wherein a predetermined subject to be detected is detected. 前記指示手段は、前記仮想オブジェクトの2次元画像データが前記被写体とともに前記表示手段に表示されているときでも前記仮想オブジェクトの3次元画像データの表示姿勢の指示が可能であり、
前記表示制御手段は、前記指示手段による表示姿勢の指示により前記優先領域および前記非優先領域を動的に変化させることを特徴とする請求項1または2に記載の情報処理装置。
The instruction means is capable of instructing the display orientation of the three-dimensional image data of the virtual object even when the two-dimensional image data of the virtual object is displayed on the display means together with the subject.
The information processing apparatus according to claim 1, wherein the display control unit dynamically changes the priority area and the non-priority area according to a display orientation instruction from the instruction means.
前記仮想オブジェクトは、前記被写体に仮想的に装着する服飾品であり、
前記決定手段は、前記服飾品の表示姿勢により決定される前記被写体への装着時に前記被写体によって隠れる領域以外を前記被写体に優先して表示する前記優先領域と決定することを特徴とする請求項1乃至3の何れか1項に記載の情報処理装置。
The virtual object is an accessory virtually worn on the subject,
2. The apparatus according to claim 1, wherein the determining unit determines a region other than a region that is hidden by the subject when attached to the subject and that is determined by a display orientation of the accessory, as the priority region that is displayed with priority over the subject. The information processing apparatus according to any one of claims 3 to 3.
第1の領域と第2の領域とを有する3次元の仮想空間をシミュレートし、前記第1の領域と前記第2の領域との境界に、前記仮想オブジェクトの3次元画像データを配置するとともに、前記第1の領域のみを撮影する第1の仮想カメラを用いて、前記仮想オブジェクトの3次元画像データのうち前記第1の領域に位置する第1の部分画像を撮影し、前記第2の領域のみを撮影する第2の仮想カメラを用いて、前記仮想オブジェクトの3次元画像データのうち前記第2の領域に位置する第2の部分画像を撮影し、前記第1の部分画像と前記第2の部分画像とを組み合わせた、前記仮想オブジェクトの2次元画像データを生成する生成手段を、さらに有し、
前記表示制御手段は、前記仮想オブジェクトの2次元画像データを前記表示手段に表示する際に、前記第1の部分画像を前記優先領域として表示することを特徴とする請求項1に記載の情報処理装置。
Simulating a three-dimensional virtual space having a first region and a second region, arranging three-dimensional image data of the virtual object at a boundary between the first region and the second region, Using a first virtual camera that captures only the first area, capturing a first partial image located in the first area of the three-dimensional image data of the virtual object, A second virtual camera that captures only the area is used to capture a second partial image located in the second area among the three-dimensional image data of the virtual object, and the first partial image and the second partial image are captured. Generating means for generating two-dimensional image data of the virtual object in combination with the two partial images;
2. The information processing apparatus according to claim 1, wherein the display control unit displays the first partial image as the priority area when displaying the two-dimensional image data of the virtual object on the display unit. apparatus.
撮影された2次元画像を表示するステップと、
前記2次元画像の中から、時系列的に変化する予め決められた被写体を検出するステップと、
仮想オブジェクトの3次元画像データを表示する表示姿勢を指示するステップと、
指示された前記仮想オブジェクトの3次元画像データの表示姿勢に基づき表示される前記仮想オブジェクトの2次元画像データのうち、優先的に表示する優先領域と前記優先領域以外の非優先領域とを決定するステップと、
め決められた表示位置に前記仮想オブジェクトの2次元画像データの前記優先領域および前記非優先領域とともに、少なくとも表示されている被写体の2次元画像と前記仮想オブジェクトの2次元画像データの表示が重なったときに、重なった領域における前記優先領域と前記非優先領域のうち、前記優先領域を被写体の2次元画像に優先して表示するとともに、前記非優先領域を非表示とするステップと、
を含む、表示制御方法。
Displaying the captured two-dimensional image;
Detecting a predetermined subject that changes in time series from the two-dimensional image;
Instructing a display posture for displaying three-dimensional image data of the virtual object;
In the two-dimensional image data of the virtual object displayed based on the designated display orientation of the three-dimensional image data of the virtual object, a priority area to be displayed preferentially and a non-priority area other than the priority area are determined. Steps and
Together with the priority area and the non-priority area of the two-dimensional image data of the virtual object to the display position determined Me pre, display of two-dimensional image data of a two-dimensional image of an object that is at least displayed the virtual object is overlapped And when the priority area and the non-priority area in the overlapped area are displayed in preference to the two-dimensional image of the subject , and the non -priority area is hidden.
And a display control method.
撮影された2次元画像を表示する処理と、
前記2次元画像の中から、時系列的に変化する予め決められた被写体を検出する処理と、
仮想オブジェクトの3次元画像データを表示する表示姿勢を指示する処理と、
指示された前記仮想オブジェクトの3次元画像データの表示姿勢に基づき表示される前記仮想オブジェクトの2次元画像データのうち、優先的に表示する優先領域と前記優先領域以外の非優先領域とを決定する処理と、
め決められた表示位置に前記仮想オブジェクトの2次元画像データの前記優先領域および前記非優先領域とともに、少なくとも表示されている被写体の2次元画像と前記仮想オブジェクトの2次元画像データの表示が重なったときに、重なった領域における前記優先領域と前記非優先領域のうち、前記優先領域を被写体の2次元画像に優先して表示するとともに、前記非優先領域を非表示とする処理と、
をコンピュータに実行させる、表示制御プログラム。
A process of displaying the captured two-dimensional image;
A process of detecting a predetermined subject that changes in time series from the two-dimensional image;
A process of instructing a display posture for displaying three-dimensional image data of the virtual object;
In the two-dimensional image data of the virtual object displayed based on the designated display orientation of the three-dimensional image data of the virtual object, a priority area to be displayed preferentially and a non-priority area other than the priority area are determined. Processing,
Together with the priority area and the non-priority area of the two-dimensional image data of the virtual object to the display position determined Me pre, display of two-dimensional image data of a two-dimensional image of an object that is at least displayed the virtual object is overlapped when the among the priority area and the non-priority area in the overlapping area, and displays with priority the priority area in the two-dimensional image of an object, a process to hide the non-priority area,
Display control program that causes a computer to execute
前記被写体を検出する処理は、前記撮影された2次元画像の各画素を参照し、前記各画素の画素値、前記各画素を用いた特徴量または前記各画素の変化量に基づき、前記時系列的に変化する予め決められた被写体を検出する請求項7に記載の表示制御プログラム。 Processing for detecting the object refers to each pixel of the captured two-dimensional image, the pixel value of each pixel, based the amount of change in feature amount or the pixel using each pixel, the time series The display control program according to claim 7, wherein a predetermined subject that changes in time is detected. 前記表示姿勢を指示する処理は、前記仮想オブジェクトの2次元画像データが前記被写体とともに表示されているときでも前記仮想オブジェクトの3次元画像データの表示姿勢の指示が可能であり、
前記表示を制御する処理は、前記表示姿勢の指示により前記優先領域および前記非優先領域を動的に変化させる、請求項7または8に記載の表示制御プログラム。
The process of instructing the display posture can instruct the display posture of the three-dimensional image data of the virtual object even when the two-dimensional image data of the virtual object is displayed together with the subject,
9. The display control program according to claim 7, wherein the processing for controlling the display dynamically changes the priority area and the non-priority area according to an instruction of the display attitude. 10.
前記仮想オブジェクトは、前記被写体に仮想的に装着する服飾品であり、
前記優先領域を決定する処理は、前記服飾品の表示姿勢により決定される前記被写体への装着時に前記被写体によって隠れる領域以外を前記被写体に優先して表示する前記優先領域と決定する、請求項7乃至9の何れか1項に記載の表示制御プログラム。
The virtual object is an accessory virtually worn on the subject,
8. The processing of determining the priority area, wherein the priority area is displayed in priority to the subject other than an area that is hidden by the subject when attached to the subject and that is determined by a display orientation of the accessory. 10. The display control program according to any one of claims 9 to 9.
第1の領域と第2の領域とを有する3次元の仮想空間をシミュレートし、
前記第1の領域と前記第2の領域との境界に、前記服飾品に対応する前記仮想オブジェクトの3次元画像データを配置するとともに、前記第1の領域のみを撮影する第1の仮想カメラを用いて、前記仮想オブジェクトの3次元画像データのうち前記第1の領域に位置する第1の部分画像を撮影し、
前記第2の領域のみを撮影する第2の仮想カメラを用いて、前記仮想オブジェクトの3次元画像データのうち前記第2の領域に位置する第2の部分画像を撮影し、
前記第1の部分画像と前記第2の部分画像とを組み合わせた、前記仮想オブジェクトの2次元画像データを生成する処理を、前記コンピュータにさらに実行させ、
前記表示する処理は、前記仮想オブジェクトの2次元画像データを表示する際に、前記第1の部分画像を前記優先領域として表示することを特徴とする請求項10に記載の表示制御プログラム。
Simulating a three-dimensional virtual space having a first region and a second region,
At the boundary between the first area and the second area, a three-dimensional image data of the virtual object corresponding to the accessory is arranged, and a first virtual camera for photographing only the first area is provided. A first partial image located in the first region in the three-dimensional image data of the virtual object;
Using a second virtual camera that captures only the second area, captures a second partial image located in the second area in the three-dimensional image data of the virtual object,
Causing the computer to further execute a process of generating two-dimensional image data of the virtual object, in which the first partial image and the second partial image are combined;
11. The display control program according to claim 10, wherein the displaying process displays the first partial image as the priority area when displaying the two-dimensional image data of the virtual object.
JP2019157288A 2019-08-29 2019-08-29 Information processing apparatus, display control method, and display control program Active JP6656572B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019157288A JP6656572B1 (en) 2019-08-29 2019-08-29 Information processing apparatus, display control method, and display control program
PCT/JP2020/032224 WO2021039856A1 (en) 2019-08-29 2020-08-26 Information processing device, display control method, and display control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019157288A JP6656572B1 (en) 2019-08-29 2019-08-29 Information processing apparatus, display control method, and display control program

Publications (2)

Publication Number Publication Date
JP6656572B1 true JP6656572B1 (en) 2020-03-04
JP2021033963A JP2021033963A (en) 2021-03-01

Family

ID=69997894

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019157288A Active JP6656572B1 (en) 2019-08-29 2019-08-29 Information processing apparatus, display control method, and display control program

Country Status (2)

Country Link
JP (1) JP6656572B1 (en)
WO (1) WO2021039856A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022050096A1 (en) * 2020-09-02 2022-03-10 ソニーグループ株式会社 Information processing device, information processing method, and program
JP7470999B2 (en) 2021-12-24 2024-04-19 EncodeRing株式会社 Information processing device, information processing method, and information processing program

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114489404A (en) * 2022-01-27 2022-05-13 北京字跳网络技术有限公司 Page interaction method, device, equipment and storage medium
JP7441289B1 (en) 2022-11-14 2024-02-29 株式会社バンダイ Computer program, information processing terminal, and its control method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3239683B2 (en) * 1995-05-11 2001-12-17 株式会社セガ Image processing apparatus and image processing method
JP5595655B2 (en) * 2008-12-24 2014-09-24 株式会社ソニー・コンピュータエンタテインメント Image processing apparatus and image processing method
JP6545847B2 (en) * 2018-03-01 2019-07-17 株式会社東芝 Image processing apparatus, image processing method and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022050096A1 (en) * 2020-09-02 2022-03-10 ソニーグループ株式会社 Information processing device, information processing method, and program
JP7470999B2 (en) 2021-12-24 2024-04-19 EncodeRing株式会社 Information processing device, information processing method, and information processing program

Also Published As

Publication number Publication date
JP2021033963A (en) 2021-03-01
WO2021039856A1 (en) 2021-03-04

Similar Documents

Publication Publication Date Title
JP6656572B1 (en) Information processing apparatus, display control method, and display control program
US11227008B2 (en) Method, system, and device of virtual dressing utilizing image processing, machine learning, and computer vision
RU2668408C2 (en) Devices, systems and methods of virtualising mirror
US9369638B2 (en) Methods for extracting objects from digital images and for performing color change on the object
US8976160B2 (en) User interface and authentication for a virtual mirror
US8982110B2 (en) Method for image transformation, augmented reality, and teleperence
US8970569B2 (en) Devices, systems and methods of virtualizing a mirror
US20240056653A1 (en) Video distribution system for live distributing video containing animation of character object generated based on motion of distributor user, distribution method, and storage medium storing video distribution program
CN111787242B (en) Method and apparatus for virtual fitting
US20160300393A1 (en) Virtual trial-fitting system, virtual trial-fitting program, virtual trial-fitting method, and storage medium in which virtual fitting program is stored
US20120299912A1 (en) Avatar-based virtual dressing room
US10475099B1 (en) Displaying relevant content
WO2019105411A1 (en) Information recommending method, intelligent mirror, and computer readable storage medium
US20130254066A1 (en) Shared user experiences
JP2014509758A (en) Real-time virtual reflection
WO2016112346A1 (en) Devices, systems and methods for auto-delay video presentation
US10504264B1 (en) Method and system for combining images
CN116324850A (en) Providing AR-based garments in messaging systems
WO2023039183A1 (en) Controlling interactive fashion based on facial expressions
CN114125421A (en) Image processing method, mobile terminal and storage medium
US11127218B2 (en) Method and apparatus for creating augmented reality content
CN114125271B (en) Image processing method and device and electronic equipment
US11373375B2 (en) Augmented reality product display
CN115965826A (en) Image processing method, image processing device, electronic equipment and storage medium
US20220028123A1 (en) Information processing apparatus, information processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190829

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190829

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20190912

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20190912

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20191009

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191023

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200117

R150 Certificate of patent or registration of utility model

Ref document number: 6656572

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250