JP6656572B1 - Information processing apparatus, display control method, and display control program - Google Patents
Information processing apparatus, display control method, and display control program Download PDFInfo
- Publication number
- JP6656572B1 JP6656572B1 JP2019157288A JP2019157288A JP6656572B1 JP 6656572 B1 JP6656572 B1 JP 6656572B1 JP 2019157288 A JP2019157288 A JP 2019157288A JP 2019157288 A JP2019157288 A JP 2019157288A JP 6656572 B1 JP6656572 B1 JP 6656572B1
- Authority
- JP
- Japan
- Prior art keywords
- dimensional image
- image data
- virtual object
- display
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 46
- 230000010365 information processing Effects 0.000 title claims description 11
- 238000012545 processing Methods 0.000 claims description 28
- 230000008569 process Effects 0.000 claims description 22
- 238000003860 storage Methods 0.000 claims description 14
- 230000008859 change Effects 0.000 claims description 4
- 238000010586 diagram Methods 0.000 abstract description 29
- 238000004891 communication Methods 0.000 description 17
- 238000013515 script Methods 0.000 description 13
- 238000003384 imaging method Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 8
- 230000004044 response Effects 0.000 description 8
- 230000007704 transition Effects 0.000 description 7
- 238000001514 detection method Methods 0.000 description 6
- 238000013459 approach Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/40—Hidden part removal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
- G09G5/37—Details of the operation on graphic patterns
- G09G5/377—Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
- G09G5/38—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
Abstract
【課題】装着感を高めて購買を促進することを課題とする。【解決手段】ユーザ端末は、撮影された2次元画像を表示し、2次元画像の中から、時系列的に変化する予め決められた被写体を検出し、仮想オブジェクトの3次元画像データを表示する表示姿勢を指示する。ユーザ端末は、指示された仮想オブジェクトの3次元画像データの表示姿勢に基づき表示される仮想オブジェクトのうち、優先的に表示する優先領域を決定する。ユーザ端末は、2次元画像とともに、予め決められた表示位置に仮想オブジェクトを表示するとともに、少なくとも表示されている被写体と仮想オブジェクトの表示が重なったときに、重なった領域のうち、優先領域を被写体に優先して表示するとともに、優先領域以外の仮想オブジェクトの領域を非表示とする。【選択図】図8PROBLEM TO BE SOLVED: To increase the feeling of wearing and promote purchase. A user terminal displays a captured two-dimensional image, detects a predetermined subject that changes in time series from the two-dimensional image, and displays three-dimensional image data of a virtual object. Instruct the display posture. The user terminal determines a priority area to be displayed preferentially among the virtual objects displayed based on the display posture of the instructed virtual object of the three-dimensional image data. The user terminal displays the virtual object at a predetermined display position together with the two-dimensional image, and at least when the display of the displayed subject and the display of the virtual object overlap each other, the priority region in the overlapped region is set as the subject. And the virtual object area other than the priority area is hidden. [Selection diagram] FIG.
Description
本発明は、情報処理装置、表示制御方法および表示制御プログラムに関する。 The present invention relates to an information processing device, a display control method, and a display control program.
近年、仮想試着などのサービスが利用されている。例えば、店舗内に鏡に見立てた大型ディスプレイを置き、その大型ディスプレイにカメラで撮像した試着者の映像を写し、洋服の画像データを試着者の映像に重畳させることで、あたかも試着しているように見せるシステムが知られている。また、被写体の身体の骨格位置の時系列変化を算出し、被写体に重畳して表示される仮想的な服飾品の着脱を制御する技術が知られている。 In recent years, services such as virtual fitting have been used. For example, a large display that looks like a mirror is placed in a store, the image of the dresser captured by the camera is captured on the large display, and the image data of the clothes is superimposed on the image of the dresser, as if trying on. Is known. There is also known a technique of calculating a time-series change of a skeleton position of a subject's body and controlling the attachment / detachment of virtual clothing items superimposed and displayed on the subject.
しかしながら、上記技術では、現実の試着と仮想的な試着との感覚の違いが大きいので、満足な装着感を得られるとは言い難く、購買を促進する有効な手法とは言い難い。 However, in the above technique, since there is a large difference in sense between real fitting and virtual fitting, it is hard to say that a satisfactory wearing feeling can be obtained, and it is hard to say that it is an effective method to promote purchase.
特に、指輪やピアスなどの小さな服飾品の場合、服飾品を付けた状態と服飾品を外した状態とを繰り返して、装着感を確認することが多いが、店舗内の大型ディスプレイでは、小さな服飾品の仮想試着は却って見づらく、有効的とは言い難い。また、わざわざ店舗に行って順番等を待って仮想試着を行うことも、ユーザの負担が大きく、有効な手法とは言い難い。 In particular, in the case of small accessories such as rings and earrings, it is often the case that the user wears and removes the accessories repeatedly to check the wearing feeling. Virtual fitting of goods is rather difficult to see and is not effective. Also, going to the store and waiting for the turn or the like to perform virtual fitting is a burden on the user, and is not an effective method.
一つの側面では、装着感を高めて購買を促進することができる情報処理装置、表示制御方法および表示制御プログラムを提供することを目的とする。 In one aspect, an object is to provide an information processing device, a display control method, and a display control program that can enhance a feeling of wearing and promote purchase.
第1の案では、情報処理装置は、撮影された2次元画像を表示する表示手段と、前記撮影された2次元画像の中から、時系列的に変化する予め決められた被写体を検出する検出手段と、表示すべき仮想オブジェクトの3次元画像データを記憶する記憶手段と、前記記憶手段に記憶された前記仮想オブジェクトの3次元画像データを前記表示手段に表示する表示姿勢を指示する指示手段と、前記指示手段により指示された前記仮想オブジェクトの3次元データの表示姿勢に基づき前記表示手段に表示される前記仮想オブジェクトのうち、優先的に表示する優先領域を決定する決定手段と、前記撮影された2次元画像とともに、前記表示手段の予め決められた表示位置に前記仮想オブジェクトを表示するとともに、少なくとも前記表示手段に表示されている前記被写体と前記仮想オブジェクトの表示が重なったときに、当該重なった領域のうち、前記決定手段により決定された前記優先領域を前記被写体に優先して表示するとともに、前記優先領域以外の前記仮想オブジェクトの領域を非表示とする表示制御手段と、を備える。 According to a first aspect, an information processing apparatus includes a display unit that displays a captured two-dimensional image and a detection unit that detects a predetermined subject that changes in time series from the captured two-dimensional image. Means, storage means for storing three-dimensional image data of a virtual object to be displayed, and instructing means for instructing a display attitude for displaying the three-dimensional image data of the virtual object stored in the storage means on the display means. Deciding means for deciding a priority area to be displayed preferentially among the virtual objects displayed on the display means based on the display orientation of the three-dimensional data of the virtual object instructed by the instructing means; Displaying the virtual object at a predetermined display position of the display means together with the two-dimensional image, and displaying the virtual object at least on the display means. When the display of the virtual object overlaps with the displayed subject, the priority area determined by the determining unit is displayed in priority to the subject, and the overlapping area other than the priority area is displayed. Display control means for hiding an area of the virtual object.
一つの側面では、装着感を高めて購買を促進することができる。 In one aspect, purchasing can be promoted by enhancing the feeling of wearing.
以下に、本願の開示する情報処理装置、表示制御方法および表示制御プログラムの実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。また、各実施例は、矛盾のない範囲内で適宜組み合わせることができる。 Hereinafter, embodiments of an information processing apparatus, a display control method, and a display control program disclosed in the present application will be described in detail with reference to the drawings. The present invention is not limited by the embodiment. In addition, the embodiments can be appropriately combined within a consistent range.
[システム構成]
図1は、実施例1にかかるシステムの全体構成例を説明する図である。図1に示すように、このシステムは、商品サーバ10とユーザ端末30とがネットワークNを介して相互に通信可能に接続される。なお、商品サーバ10やユーザ端末30の数は、一例であり、図示したもの限定されない。また、ネットワークNには、有線や無線を問わず、インターネットや専用線などの各種通信網を採用することができる。
[System configuration]
FIG. 1 is a diagram illustrating an example of the overall configuration of a system according to the first embodiment. As shown in FIG. 1, in this system, a
商品サーバ10は、ユーザ端末30に対して、商品の閲覧、試着、購入などの各種サービスを提供するサーバ装置の一例である。例えば、商品サーバ10は、Webブラウザなどを介してユーザ端末5からのアクセスを受け付けると、各種商品の情報が掲載される商品サイトを表示する。そして、商品サーバ10は、Webブラウザにより表示される各ページによって各種サービスを提供する。
The
ユーザ端末30は、指輪やスカーフなどの服飾品の購入を検討するユーザが利用する端末装置の一例であり、例えばカメラなどの撮像部やWebブラウザなどを有する端末装置である。例えば、ユーザ端末30としては、スマートフォン、携帯電話、タブレット、パーソナルコンピュータなどを採用することができる。このユーザ端末30は、Webブラウザなどを用いて、商品サーバ10へアクセスし、商品サーバ10が提供する各種サービスを利用する。
The
ここで、ユーザ端末30は、商品サーバ10から商品に関する情報を取得して、Webブラウザ上で試着サービスを実行する。具体的には、商品サーバ10は、例えば指輪などの商品の値段やサイズなどの商品に関する情報である商品情報と、商品の3次元画像データとを保存する。そして、商品サーバ10は、ユーザ端末30からアクセスを受け付けると、商品情報が掲載される商品サイトをユーザ端末30に表示する。続いて、商品サーバ10は、商品サイトを表示するWebブラウザ上でユーザ端末30から試着対象の商品の選択を受け付けると、当該商品の3次元画像データと制御用のスクリプトを組み込んだ試着ページを、ユーザ端末30に応答する。
Here, the
このようにして、ユーザは、試着対象の商品の3次元画像データと制御スクリプトが組み込まれた試着ページを用いて、ユーザ端末30上で商品の試着を行う。具体的には、ユーザ端末30は、Webブラウザで表示する試着ページ上に、カメラにより撮影される被写体(例えば、手)の映像を表示させる。そして、ユーザ端末30は、商品の3次元画像データから2次元画像データを生成し、Webブラウザ上で、2次元画像データをその被写体の映像に重畳することで、試着を実現する。
In this way, the user tries on the product on the
[利用シーン]
次に、ユーザ端末30を用いて実行される試着サービスの利用シーンを説明する。図2は、実施例1にかかるシステムの利用シーンを説明する図である。図2に示すように、ユーザは、商品サーバ10から商品の3次元画像データと制御用のスクリプトを組み込んだ試着ページを取得することで、オンラインに限らず、オフラインの状態であっても試着サービスを利用することができる。
[Use scene]
Next, the use scene of the try-on service executed using the
例えば、図2に示すように、自宅のリビングで無線通信を行いながら、指輪の試着サービスを利用することができる。また、恋人同士で婚約指輪を検討する際に、商品サーバ10が提供する試着サービスを利用することにより、様々なブランドの婚約指輪の試着をリビングで繰り返すことができ、店舗に行く前に、購入対象を絞り込むこともできる。また、通勤途中の電車の中で、指輪の試着サービスを利用することができる。
For example, as shown in FIG. 2, a ring fitting service can be used while performing wireless communication in a living room at home. In addition, when lovers consider an engagement ring, by using the fitting service provided by the
このように、商品サーバ10が提供する試着サービスは、実際の店舗に行く必要はなく、Webブラウザを用いて利用することができることから、場所を選ばすに、様々な場所で利用することができる。
As described above, the fitting service provided by the
[機能構成]
次に、図3を用いて、図1に示した各装置の機能構成を説明する。図3は、実施例1にかかるシステムの機能構成を示す機能ブロック図である。ここでは、商品サーバ10とユーザ端末30のそれぞれについて説明する。
[Function configuration]
Next, the functional configuration of each device shown in FIG. 1 will be described with reference to FIG. FIG. 3 is a functional block diagram illustrating the functional configuration of the system according to the first embodiment. Here, each of the
(商品サーバ10の機能構成)
図3に示すように、商品サーバ10は、通信部11、記憶部12、制御部20を有する。通信部11は、他の装置との間の通信を制御する処理部であり、例えば通信インタフェースなどである。例えば、通信部11は、ユーザ端末30との間で、Webブラウザによるセッションを確立し、Webブラウザを介してデータの送受信を実行する。
(Functional Configuration of Product Server 10)
As shown in FIG. 3, the
記憶部12は、各種データや制御部20が実行する各種プログラムなどを記憶する記憶装置の一例であり、例えばメモリやハードディスクなどである。この記憶部12は、商品情報DB13、画像データDB14を記憶する。
The
商品情報DB13は、商品サーバ10が取り扱う各商品に関するデータを記憶するデータベースである。具体的には、商品情報DB13は、各服飾品に関するデータを記憶する。図4は、商品情報DB13に記憶される情報の例を示す図である。図4に示すように、商品情報DB13は、「商品ID、商品、価格」などを対応付けて記憶する。
The
ここで記憶される「商品ID」は、商品を識別する識別子であり、「商品」は、商品名などであり、「価格」は、商品の価格である。図4の例では、商品ID「ID01」で識別される商品「指輪A」の価格が「3万円」であることを示す。 The “merchandise ID” stored here is an identifier for identifying the merchandise, the “merchandise” is a merchandise name or the like, and the “price” is the price of the merchandise. In the example of FIG. 4, the price of the product “Ring A” identified by the product ID “ID01” is “30,000 yen”.
画像データDB14は、各商品の3次元の画像データ(以下では単に「3次元画像データ」と記載する場合がある)を記憶するデータベースである。具体的には、画像データDB14は、試着サービスの利用時にユーザ端末30に仮想オブジェクトとして送信される3次元画像データを記憶する。
The image data DB 14 is a database that stores three-dimensional image data (hereinafter, may be simply referred to as “three-dimensional image data”) of each product. Specifically, the image data DB 14 stores three-dimensional image data transmitted as a virtual object to the
図5は、画像データDB14に記憶される情報の例を示す図である。図5に示すように、画像データDB14は、「商品ID、商品、3次元画像データ」を対応付けて記憶する。ここで記憶される「商品ID」は、商品情報DB13の商品IDと同じであり、商品を識別する識別子である。「商品」は、商品情報DB13の商品と同じであり、商品名などである。「3次元画像データ」は、商品の3次元画像データである。図5の例では、商品ID「ID01」で識別される商品「指輪A」には、画像データ「3次元画像データA」が対応付けられていることを示す。なお、3次元画像データは、商品そのものを撮像したデータから作成したり、仮想空間上で作成したり、公知の手法を用いて作成することができる。
FIG. 5 is a diagram illustrating an example of information stored in the image data DB 14. As shown in FIG. 5, the image data DB 14 stores “product ID, product, three-dimensional image data” in association with each other. The “product ID” stored here is the same as the product ID in the
制御部20は、商品サーバ10全体を司る処理部であり、例えばプロセッサなどである。この制御部20は、受付部21、応答部22を有する。なお、受付部21、応答部22は、プロセッサが有する電子回路の一例やプロセッサが実行するプロセスの一例である。また、制御部20は、アクセスしてきたユーザが正規なユーザであるか否かを認証する認証処理、ユーザが購入する意思を示したときに実行される商品の購入処理なども実行するが、一般的な処理なので、詳細な説明は省略する。
The
受付部21は、ユーザ端末30からの要求に応じて、各種Webページをユーザ端末30に表示し、ユーザ端末30からの各種操作を受け付ける処理部である。具体的には、受付部21は、ユーザ端末30からWebブラウザ等を用いたアクセスを受け付けると、商品サイトをユーザ端末30に表示する。そして、受付部21は、商品サイト上で商品の選択を受け付けると、商品の詳細情報が掲示される商品ページをユーザ端末30に表示する。このようにして、受付部21は、ユーザの操作に対応するWebページ等を表示する。
The receiving unit 21 is a processing unit that displays various Web pages on the
応答部22は、ユーザ端末30から商品の試着要求を受け付けた場合に、試着サービスを提供する各種情報をユーザ端末30に応答する処理部である。具体的には、応答部22は、受付部21により表示された商品ページにおいて、ユーザにより試着の選択が行われると、試着が要求された商品の3次元画像データを画像データDB14から取得する。そして、応答部23は、仮想オブジェクトとして利用される商品の3次元画像データと、商品の3次元画像データの操作に関する制御用のスクリプトとを組み込んだ試着ページを、ユーザ端末30に応答する。
The
ここで、表示されるWebページの遷移を説明する。図6は、表示されるWebページの遷移を説明する図である。図6の(a)に示すように、受付部21は、ユーザ端末30からアクセスを受け付けると、各商品が掲載される商品サイト60をユーザ端末30に表示する。なお、商品サイト60には、画面をスクロールするスライダーなども表示される。
Here, the transition of the displayed Web page will be described. FIG. 6 is a diagram illustrating transition of a displayed Web page. As shown in FIG. 6A, when receiving the access from the
続いて、図6の(b)に示すように、受付部21は、商品サイト60上で商品「指輪A」が選択されると、選択された商品「指輪A」の詳細情報を商品情報DB13から取得して、商品「指輪A」の詳細情報が掲載される商品ページ61をユーザ端末30に表示する。なお、商品ページ61には、前の画面に戻る「戻る」ボタン、商品の購入に進む「購入」ボタン、商品の試着に進む「試着」ボタンなども表示される。
Subsequently, as shown in FIG. 6B, when the product “ring A” is selected on the product site 60, the receiving unit 21 stores the detailed information of the selected product “ring A” in the
その後、図6の(c)に示すように、商品ページ61上で「試着」ボタンが選択されると、応答部22は、表示中の商品「指輪A」の3次元画像データAを画像データDB14から取得して、3次元画像データAと試着を行うための各種制御を制御用のスクリプトとを組み込んだ、商品「指輪A」の試着を行う試着ページ62を表示する。なお、制御用のスクリプトで実行される各種処理は、ユーザ端末30で説明する各種処理部の機能を提供する。なお、この試着ページ62には、試着ページ62をディスプレイに表示するユーザ端末30のカメラと連携し、カメラの撮影対象の領域を含むとともに、当該領域に商品「指輪A」の仮想オブジェクトが表示される。なお、試着ページ62には、前の画面に戻る「戻る」ボタン、商品の購入に進む「購入」ボタンなども表示される。
Thereafter, as shown in FIG. 6C, when the “try on” button is selected on the product page 61, the
(ユーザ端末30の機能構成)
図3に示すように、ユーザ端末30は、通信部31、撮像部32、記憶部33、制御部40を有する。
(Functional Configuration of User Terminal 30)
As shown in FIG. 3, the
通信部31は、他の装置との間の通信を制御する処理部であり、例えば通信インタフェースなどである。例えば、通信部31は、商品サーバ10との間で、Webブラウザによるセッションを確立し、Webブラウザを介してデータの送受信を実行する。
The
撮像部32は、カメラなどを用いて撮像された画像や映像などの2次元画像データを取得する処理部である。例えば、撮像部32は、試着を行うユーザの手、顔、身体などを撮像し、撮像した画像データを、制御部40に出力する。
The
記憶部33は、各種データや制御部40が実行する各種プログラムなどを記憶する記憶装置の一例であり、例えばメモリやハードディスクなどである。例えば、この記憶部33は、商品サーバ10から受信した商品の3次元画像データや、撮像部32により撮像された画像データなどを記憶する。
The storage unit 33 is an example of a storage device that stores various data and various programs executed by the
制御部40は、ユーザ端末30全体を司る処理部であり、例えばプロセッサなどである。この制御部40は、アクセス部41と試着制御部42を有する。なお、アクセス部41と試着制御部42は、プロセッサが有する電子回路の一例やプロセッサが実行するプロセスの一例である。
The
アクセス部41は、商品サーバ10との間で、Webブラウザを用いた各種制御を実行する処理部である。例えば、アクセス部41は、ユーザの指示操作により、Webブラウザを起動し、商品サーバ10にアクセスする。そして、アクセス部41は、商品サーバ10から受け付けた商品サイト60や商品ページ61をディスプレイ等に表示する。また、アクセス部41は、試着対象の商品の3次元画像データと制御用のスクリプトが組み込まれた試着ページ62を受け付けると、試着ページをディスプレイ等に表示する。
The
試着制御部42は、2次元画像生成部43と表示制御部44を有し、ユーザ端末30のディスプレイ上で、試着サービスを実行する処理部である。具体的には、試着制御部42は、アクセス部41により試着ページ62が取得されると、試着ページ62に組み込まれる制御用のスクリプトを実行して、2次元画像生成部43と表示制御部44とによる処理を実行することで、試着対象の商品の2次元画像データを生成する仮想空間を用いた制御と、その2次元画像データをディスプレイに実際に表示する制御とを、リアルタイムに連携して試着サービスを実行する。
The
2次元画像生成部43は、各商品について、試着サービスで使用する仮想オブジェクトの2次元画像データを生成する処理部である。具体的には、2次元画像生成部43は、アクセス部41により取得された試着ページ62から、商品サーバ10によって送信された商品の3次元画像データを取得する。そして、2次元画像生成部43は、コンピュータ上でシミュレートした3次元の仮想空間上に、当該商品の3次元画像データを仮想オブジェクトとして配置する。そして、2次元画像生成部43は、3次元の仮想空間上に配置した仮想カメラを用いて、商品の仮想オブジェクトを撮像し、2次元画像データを生成する。また、2次元画像生成部43は、撮影して得られた商品の2次元画像データを、表示制御部44などに出力する。なお、3次元的な仮想空間のシミュレートや仮想カメラなどは、公知のソフトウェアなどを用いることもできる。
The two-dimensional
図7は、仮想オブジェクトの2次元画像データを生成する例を説明する図である。図7に示す図は、商品の仮想オブジェクトの2次元画像データを生成する3次元の仮想空間を上から見た図であり、仮想空間上に配置した複数の仮想カメラを用いて商品となるオブジェクトを撮像する。図7に示すように、仮想空間上で仮想カメラ1と仮想カメラ1´とを同位置に設置する。そして、仮想カメラ1が撮影できる領域Pと仮想カメラ1´が撮影できる領域P´との境界上に仮想オブジェクト(3次元画像データ)を配置する。なお、仮想オブジェクトは、任意の方向に回転させることができる。また、仮想オブジェクトのうち、各仮想カメラが撮影できる領域から外れた部分は、その仮想カメラの映像には映らない。そして、仮想オブジェクトを回転させて、各仮想カメラで仮想オブジェクトを撮影し、撮影された画像を組み合わせることで、仮想オブジェクトの2次元画像データを生成する。 FIG. 7 is a diagram illustrating an example of generating two-dimensional image data of a virtual object. FIG. 7 is a top view of a three-dimensional virtual space that generates two-dimensional image data of a virtual object of a product, and an object that becomes a product using a plurality of virtual cameras arranged in the virtual space. Is imaged. As shown in FIG. 7, the virtual camera 1 and the virtual camera 1 'are installed at the same position in the virtual space. Then, the virtual object (three-dimensional image data) is arranged on the boundary between the area P where the virtual camera 1 can shoot and the area P 'where the virtual camera 1' can shoot. The virtual object can be rotated in any direction. In addition, a portion of the virtual object that is out of the area that can be photographed by each virtual camera does not appear in the image of the virtual camera. Then, the virtual object is rotated, the virtual object is photographed by each virtual camera, and the photographed images are combined to generate two-dimensional image data of the virtual object.
より詳細に説明する。仮想空間上における仮想オブジェクトの中心座標を(x=0,y=0,z=100)と設定し、仮想オブジェクトは、仮想空間上で様々な方向に自転することができ、自転しても中心座標は変わらない。また、2つの仮想カメラ(仮想カメラ1、仮想カメラ1´)は、仮想空間上の(x=0,y=0,z=0)の位置にあり(x=0,y=0,z=100)の方向を撮影する。 This will be described in more detail. The center coordinates of the virtual object in the virtual space are set to (x = 0, y = 0, z = 100), and the virtual object can rotate in various directions in the virtual space. The coordinates do not change. The two virtual cameras (virtual camera 1 and virtual camera 1 ') are located at (x = 0, y = 0, z = 0) in the virtual space (x = 0, y = 0, z = 100) direction is photographed.
そして、仮想カメラ1は、z≧10からz≦100までの領域を撮影し映像化し、z<10またはz>100の領域は映らない。仮想カメラ1´は、z>100からz≦200までの領域を撮影し映像化し、z≦100またはz>200の領域は映らない。すなわち、仮想カメラ1からは、z≧10からz≦100までの領域に含まれる仮想オブジェクトのうち一部分が映り、それ以外が透過された映像が得られる。仮想カメラ1´からは、z>100からz≦200までの領域に含まれる仮想オブジェクトの一部分が映り、それ以外が透過された映像が得られる。 Then, the virtual camera 1 captures and images an area from z ≧ 10 to z ≦ 100, and does not show an area of z <10 or z> 100. The virtual camera 1 ′ captures and images an area from z> 100 to z ≦ 200, and does not show an area where z ≦ 100 or z> 200. That is, the virtual camera 1 obtains an image in which a part of the virtual object included in the region from z ≧ 10 to z ≦ 100 is reflected, and the other portions are transmitted. From the virtual camera 1 ′, a part of the virtual object included in the region from z> 100 to z ≦ 200 is reflected, and an image in which the rest is transmitted is obtained.
そして、仮想カメラ1と仮想カメラ1´の映像をそれぞれHTML(Hyper Text Markup Language)上のcanvas要素に出力し、画面に表示することで、仮想カメラ1の映像を出力したcanvasと仮想カメラ1´の映像を出力したcanvasとが、画面上で同じ位置に重なって表示されるようレイアウトされる。 Then, the images of the virtual camera 1 and the virtual camera 1 'are output to canvas elements in HTML (Hyper Text Markup Language), respectively, and displayed on the screen, so that the canvas and the virtual camera 1' which output the image of the virtual camera 1 are output. And the canvas that output the video of the image are laid out so as to be overlapped and displayed at the same position on the screen.
このように、2次元画像生成部43は、シミュレーションした3次元空間上に試着対象として選択された商品の仮想オブジェクトを配置し、2つの仮想カメラで撮影した画像を組み合わせて、商品の2次元画像データを生成する。図8は、生成される2次元画像データを説明する図である。図8に示すように、2次元画像生成部43は、仮想カメラ1から得られる映像と、仮想カメラ1´から得られる映像とを合成して、1つの2次元画像データを生成する。なお、1つの2次元画像データのうち、仮想カメラ1で撮影された映像(データ)の領域が被写体よりも常に優先表示される優先領域となる。
As described above, the two-dimensional
上述したように、仮想空間上の各仮想カメラは、仮想空間上の仮想オブジェクトを常に撮像して、3次元画像データである仮想オブジェクトのリアルタイムな2次元画像データを生成する。 As described above, each virtual camera in the virtual space always captures a virtual object in the virtual space and generates real-time two-dimensional image data of the virtual object, which is three-dimensional image data.
ここで、2次元画像データの生成タイミングについて具体的に説明する。例えば、2次元画像生成部43は、試着サービス開始時は、仮想空間上の所定位置に、予め定めたデフォルトの姿勢で仮想オブジェクトを配置して、2次元画像データを生成する。
Here, the generation timing of the two-dimensional image data will be specifically described. For example, when starting the try-on service, the two-dimensional
また、2次元画像生成部43は、試着ページ62に表示される仮想オブジェクトの2次元画像データに対してユーザが操作すると、当該操作に応じて、仮想空間上の仮想オブジェクト(3次元画像データ)の姿勢を変更して、2次元画像データを生成する。より詳細には、2次元画像生成部43は、試着ページ62に表示される仮想オブジェクトの2次元画像データに対するフリック操作を検出すると、フリック操作に応じた距離だけ、仮想空間上の仮想オブジェクトを回転させる。そして、2次元画像生成部43は、回転後の姿勢の仮想オブジェクトを撮影して2次元画像データを生成する。
In addition, when the user operates the two-dimensional image data of the virtual object displayed on the
図3に戻り、表示制御部44は、ユーザ端末30のディスプレイに表示される試着ページ62の表示制御に関する各種処理を実行する処理部である。具体的には、表示制御部44は、仮想オブジェクトの2次元画像データを表示する表示処理、試着を行う被写体を検出する検出処理、2次元画像データを用いた試着を行う試着処理などを実行する。
Returning to FIG. 3, the
(表示処理)
例えば、表示制御部44は、2次元画像生成部43により生成された仮想オブジェクトの2次元画像データを、試着ページ62の予め指定された位置に表示する処理部である。すなわち、表示制御部44は、2次元画像生成部43が随時生成する2次元画像データを、ディスプレイに表示される試着ページ62にリアルタイムに表示する。
(Display processing)
For example, the
(検出処理)
また、表示制御部44は、カメラ等により撮像された画像データから被写体を検出する。例えば、表示制御部44は、ユーザ端末30の撮像部32により取得される2次元画像である画像データを試着ページ62に表示し、表示される画像データから、時系列に変化する被写体を検出する。具体的には、表示制御部44は、カメラにより撮影された画像データから、被写体の輪郭、肌色等の指定された色の領域、予め定めておいた型と類似する領域などの様々な手法を用いて、手などの被写体を検出する。
(Detection processing)
The
ここで、被写体の検出手法の一例として、(1)特定の色と類似する領域を検出する手法、(2)特徴量抽出を用いた手法、(3)背景差分を用いる手法を説明する。 Here, as an example of a subject detection method, (1) a method of detecting a region similar to a specific color, (2) a method using feature amount extraction, and (3) a method using background difference will be described.
(1)特定の色と類似する領域を検出する手法
例えば、表示制御部44は、あらかじめ決めておいた基準の色と合致する画素だけを、被写体と判断することができる。具体的には、表示制御部44は、検出対象のRGB値(画素値)の範囲を予め保持する。そして、表示制御部44は、撮像された画像データの各画素を参照して検出対象のRGB値の範囲内か否かを判定する。そして、表示制御部44は、検出対象のRGB値の範囲内と判定された各画素を、被写体と判定する。
(1) Method of Detecting Region Similar to Specific Color For example, the
また、表示制御部44は、撮像された画像データ上でユーザの選択を受け付ける。そして、表示制御部44は、選択された画素のRGB値を中央値として所定の範囲を検出対象に決定する。その後、表示制御部44は、撮像された画像データの各画素を参照して、検出対象のRGB値の範囲内の各画素を、被写体と判定する。このようにして、表示制御部44は、画像データの各画素を参照して、被写体(例えば手)の輪郭を検出することができる。なお、所定の範囲等は、任意に設定変更することができる。
In addition, the
(2)特徴量抽出を用いた手法
例えば、表示制御部44は、画像データの中から特徴を検出し、あらかじめ決めておいた被写体の特徴との類似度を比較し、類似する部分を被写体と判断することもできる。具体的には、表示制御部44は、画素同士の明暗差の並びのパターンを特徴とする手法(Haar Like特徴)、画素同士の輝度の分布を特徴とする手法(Local Binary Pattern特徴)、輝度の方向(画像データの中のグラデーションのつき方)の組み合わせ方を特徴とする手法(Histogram of Oriented Gradients特徴)などを用いることができる。
(2) Method Using Feature Extraction For example, the
(3)背景差分を用いる手法
例えば、表示制御部44は、時系列に沿って画像を比較し、差分がある領域を被写体として検出することができる。具体的には、表示制御部44は、例えば1秒おきに画像データを撮像部32から順次取得する。そして、表示制御部44は、前後の各画像データを比較し、画像データの中で動きがあった領域を被写体と判定することができる。
(3) Method Using Background Difference For example, the
(試着処理)
また、表示制御部44は、試着ページ62上に、2次元画像生成部43により生成される仮想オブジェクトの2次元画像データと、カメラ等によりリアルタイムに撮影された画像データから検出された被写体とを表示し、仮想オブジェクトの試着を実行する。
(Try-on process)
The
例えば、表示制御部44は、撮影された画像データから随時認識される被写体の画像データとともに、予め決められた表示位置に商品に対応する2次元画像データを表示する。そして、表示制御部44は、表示されている被写体と2次元画像データの表示が重なったときに、当該重なった領域のうち、優先的に表示させる仮想カメラ1で撮影された2次元画像データの領域を被写体に優先して表示するとともに、それ以外の2次元画像データの領域を非表示する。
For example, the
[具体例]
次に、図9から図12を用いて、一例として、指輪Aの試着を行う具体例で説明する。ここでは、ユーザ操作、ディスプレイ制御、試着における画面遷移例、試着例を順に説明する。
[Concrete example]
Next, a specific example of trying on the ring A will be described as an example with reference to FIGS. 9 to 12. Here, a user operation, display control, a screen transition example in fitting, and a fitting example will be sequentially described.
(ユーザ操作)
図9は、試着イメージを説明する図である。図9に示すように、ユーザ端末30の表示制御部44は、ディスプレイに表示される試着ページ62に、2次元画像生成部43により生成された指輪Aの2次元画像データQを表示する。ユーザが、このユーザ端末30のカメラを用いて自分の手を撮影することで、表示制御部44が、被写体であるユーザの手を検出して、試着ページ62に表示する。そして、ユーザが、カメラで撮影しながら自分の手を移動させると、表示制御部44が、時系列で撮影された各画像データからユーザの指を随時検出して試着ページ62に表示する。この結果、ユーザは、カメラで手を撮影しながら、試着ページ62上で指に指輪(2次元画像データQ)をはめることで、試着を行う。
(User operation)
FIG. 9 is a diagram illustrating a fitting image. As illustrated in FIG. 9, the
(ディスプレイ制御)
ここで、ユーザ端末30の試着制御部42は、Webブラウザを介して、カメラなどによりリアルタイムに撮像された指の状態を取得し、ユーザ端末30のディスプレイ上で試着を実現する。図10は、商品に対応する2次元画像データの試着の構成を説明する図である。
(Display control)
Here, the try-on
図10に示すように、表示制御部44は、ユーザ端末30で撮影された実オブジェクトの映像(レイヤー3)から、検出された被写体(手)のみの領域を示す映像(レイヤー2)を切り抜く。そして、表示制御部44は、2次元画像生成部43により生成された商品の仮想オブジェクトの2次元画像データのうち優先的に表示されないレイヤー1´の映像、レイヤー3から切り抜かれた被写体(手)のみの領域を示す映像(レイヤー2)、当該商品に対応する2次元画像データのうち優先的に表示されるレイヤー1の映像を順に重ねて1つの画面に映し出す。なお、表示制御部44は、レイヤー1´、レイヤー2、レイヤー1については、表示対象のオブジェクトや手以外の領域を透明にすることで、各レイヤーを重ねても下のレイヤーが映るように制御する。また、表示制御部44は、試着ページ62の背景として、カメラで手を撮影しているときの背景を表示することもでき、予め用意しておいた別の背景を表示することもできる。
As illustrated in FIG. 10, the
(試着における画面遷移例)
次に、実際の試着例について説明する。図11は、試着の遷移を説明する図である。図11の(a)に示すように、試着制御部42は、レイヤー1の映像とレイヤー1´の映像とを組み合わせた指輪Aの2次元画像データ(図11の説明では単に指輪Aと記載する場合がある)を予め指定した領域に表示させた試着ページ62上で、ユーザ端末30のカメラで撮像された映像を表示させ、被写体である手を検出する。
(Example of screen transition during fitting)
Next, an actual fitting example will be described. FIG. 11 is a diagram illustrating the transition of fitting. As shown in FIG. 11A, the try-on
続いて、図11の(b)に示すように、試着制御部42は、ユーザの操作によって手が指輪Aに近づき、ユーザの指が指輪Aと重なり始めると、指輪Aのレイヤー1´の部分より手を優先させて表示する。この結果、指輪Aのレイヤー1´の部分の上に、ユーザの指が表示される。
Subsequently, as shown in FIG. 11B, when the hand approaches the ring A by the operation of the user and the finger of the user starts to overlap with the ring A, the try-on
その後、図11の(c)に示すように、試着制御部42は、ユーザの操作によって手が指輪Aに近づき、ユーザの指が指輪Aと完全に重なると、指輪Aのレイヤー1´の部分より手を優先させて表示するとともに、指輪Aのレイヤー1の部分を手より優先させて表示する。
After that, as shown in FIG. 11C, the try-on
この結果、試着制御部42は、指輪Aが指に装着しているように表示することができる。なお、試着制御部42は、指輪Aのレイヤー1´の部分について、指と重なっている部分だけを非表示とするので、指の太さ等により、非表示となる領域の大きさが変わる。したがって、ユーザごとの各指に適した装着感を提供することができる。
As a result, the try-on
(試着例)
次に、試着制御部42は、指輪などの商品に対応する2次元画像データ(図12の説明では、単に指輪と記載する場合がある)を様々な方向に動かすことができるので、様々な方向からの試着をユーザに提供することができる。図12は、試着の別例を説明する図である。
(Example of fitting)
Next, the try-on
図12に示すように、ユーザ端末30の表示制御部44は、試着ページ62に、指輪を横方向に回転させるスライダーAと指輪を上下方向に回転させるスライダーBとを表示する。これらのスライダーにより、指輪を様々な向きに変更することができる。例えば、表示制御部44は、スライダーが操作されると、操作方向や操作距離を検出して2次元画像生成部43に出力する。2次元画像生成部43は、入力された操作方向や操作距離に応じて、仮想空間上に配置した仮想オブジェクトの姿勢を変更し、変更後の姿勢の仮想オブジェクトを撮影して2次元画像データを生成する。そして、表示制御部44は、新たな2次元画像データを試着ページ62に表示する。このように、試着ページ62のユーザ操作を仮想空間にリアルタイムに通知して、仮想オブジェクトの姿勢を動的に変更することができるので、ユーザは、試着ページ62上であたかも商品を動かしているかのように認識することができる。なお、指輪の回転等の操作は、スライダーに限らず、指輪を選択した状態でのフリック操作を採用することができる。
As shown in FIG. 12, the
ユーザ端末30の試着制御部42は、指輪を横向きにした状態で、ユーザの手を検出することで、横から見た試着を提供する。ここでも、試着制御部42は、指輪のレイヤー1´の部分より手を優先させて表示するとともに、指輪のレイヤー1の部分を手より優先させて表示する。
The try-on
また、試着制御部42は、指輪を裏側にした状態で、すなわち手のひら側の指輪が見える状態で、ユーザの手を検出して、裏側から見た試着を提供する。ここでも、試着制御部42は、指輪のレイヤー1´の部分より手を優先させて表示するとともに、指輪のレイヤー1の部分を手より優先させて表示する。なお、図12に示すように、裏側の場合、通常時とレイヤーの映像の位置が逆となるが、レイヤー1の映像は常に優先され、レイヤー1´の映像は常に優先されないので、通常時と同様に、仮想的に正しく装着した映像を提供できる。
In addition, the
なお、ここでは、スライダーを用いて、指輪を回転させる例を説明したが、これに限定されるものではない。例えば、2次元画像生成部43は、表示される指輪に対するフリック操作等により指輪の姿勢や向きを変更した2次元画像データを生成することもできる。また、ディスプレイの任意の領域をフリック操作することにより、操作されたフリックの向きに合わせて、指輪の姿勢等を変更した2次元画像データを生成することもできる。また、ダブルクリックやピンチアウト操作等に応じて、2次元画像生成部43が2次元画像データの拡大縮小を行うことで、試着ページ62に表示される指輪を拡大縮小させることもできる。
Here, an example in which a ring is rotated using a slider has been described, but the present invention is not limited to this. For example, the two-dimensional
[処理の流れ]
図13は、試着処理の流れを示すシーケンス図である。図13に示すように、ユーザ端末30のアクセス部41は、ユーザ操作により、Webブラウザを用いて商品サーバ10のサイトへアクセスする(S101とS102)。すると、商品サーバ10の受付部21は、各商品が掲示される商品サイト60をユーザ端末30に表示する(S103とS104)。
[Processing flow]
FIG. 13 is a sequence diagram illustrating a flow of the fitting process. As shown in FIG. 13, the
その後、ユーザ端末30において、商品サイト60上で商品が選択されると(S105とS106)、商品サーバ10の受付部21は、選択された商品の商品ページ61をユーザ端末30に表示する(S107とS108)。
Thereafter, when a product is selected on the product site 60 in the user terminal 30 (S105 and S106), the receiving unit 21 of the
そして、ユーザ端末30において、商品ページ61上で試着ボタンが選択されると(S109とS110)、商品サーバ10の応答部23は、選択された商品の3次元画像データと制御用のスクリプトとを組み込んだ試着ページ62を、ユーザ端末30に応答する(S111とS112)。
Then, when the try-on button is selected on the product page 61 in the user terminal 30 (S109 and S110), the response unit 23 of the
このようにして、ユーザ端末30の試着制御部42は、試着ページ62を取得すると(S113)、試着ページ62に含まれる3次元画像データを用いて、商品に対応する2次元画像データを生成する(S114)。
In this way, when the try-on
その後、ユーザ端末30の試着制御部42は、商品サーバ10から送信された制御用スクリプトを用いて、商品の2次元画像データを表示させた試着ページ62をディスプレイ等に表示する(S115)。
Thereafter, the try-on
続いて、ユーザ端末30の試着制御部42は、手の撮像(S116)、商品の2次元画像データを回転させたりする操作(S117)、商品の試着確認(S118)などを実行して試着サービスを実行する。
Next, the try-on
そして、ユーザ端末30上で試着が繰り返される間(S119:No)、S116以降が繰り返され、ユーザ端末30上で試着終了の操作が実行されると(S119:Yes)、試着サービスを終了する(S120)。
Then, while the fitting is repeated on the user terminal 30 (S119: No), S116 and subsequent steps are repeated, and when the operation of ending the fitting on the
[効果]
上述したように、ユーザ端末30は、場所や時間を選ばずに、商品の試着サービスを実行することができる。また、ユーザ端末30は、各ユーザの指の大きさなどに応じて、商品に対応する2次元画像データの非表示とする部分を動的に制御することができるので、実際の指輪装着と同じような装着感を提供することができる。これらの結果、ユーザ端末30は、試着サービスにおける装着感を高めて購買を促進することができる。
[effect]
As described above, the
さて、これまで本発明の実施例について説明したが、本発明は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。 [C] Third Embodiment Although the embodiments of the present invention have been described above, the present invention may be implemented in various different forms other than the above-described embodiments.
[商品例]
上記例では、指輪を例にして説明したが、これに限定されるものではない。例えば、スカーフ、ブレスレット、アンクレット、イヤリング、ピアス、時計、帽子などの服飾品も同様に処理することができる。また、これらの服飾品は、ユーザが自分で手などの一部分を用いた試着を行うが、洋服などユーザ全体を撮影して試着を行う商品も採用することができる。例えば、乳幼児、被介護者などを撮影して、洋服の試着などを行うこともできる。また、人間に限らず、ペットの洋服や服飾品も採用することができる。
[Product example]
In the above example, a ring was described as an example, but the present invention is not limited to this. For example, apparel such as scarves, bracelets, anklets, earrings, earrings, watches, hats, etc. can be treated similarly. In addition, the user performs a try-on using a part of the hand or the like by himself / herself, but it is also possible to adopt a product such as clothes that performs a try-on by photographing the entire user. For example, an infant, a cared person, or the like can be photographed to try on clothes. Further, not only humans but also pet clothes and accessories can be adopted.
[数値等]
上記実施例で用いたデータ例、数値例、表示例等は、あくまで一例であり、任意に変更することができる。例えば、各種Webページの構成等は一例であり、任意に変更することができる。被写体も指に限らず、スカーフの時は首、時計の時は手首のように、商品によって検出する被写体を変更することができる。例えば、商品サーバ10や試着制御部42が、商品と検出対象の被写体とを対応付けて管理することで、試着する商品によって、検出対象を動的に変更することができる。
[Numerical values, etc.]
The data examples, numerical examples, display examples, and the like used in the above embodiments are merely examples, and can be arbitrarily changed. For example, the configuration of various Web pages is an example, and can be arbitrarily changed. The subject is not limited to the finger, and the subject to be detected can be changed depending on the product, such as the neck for a scarf and the wrist for a watch. For example, the
[商品の操作]
また、商品に対応する2次元画像データが被写体とともに表示されているときでも当該商品の表示姿勢の指示が可能である。例えば、試着制御部42は、指輪(2次元画像データ)が指と重なっている状態であっても、試着ページ62上で指輪の回転などの操作を受け付けると、仮想空間上で回転等を行って回転後の2次元画像データを生成して、試着ページ62に表示することができる。このときの回転後の2次元画像データにおいても、レイヤー1の映像が優先的に表示される。なお、ディスプレイ上でユーザによって操作された領域を特定する手法は、公知の手法を採用することができる。
[Product operation]
Further, even when the two-dimensional image data corresponding to the product is displayed together with the subject, the display orientation of the product can be instructed. For example, even when the ring (two-dimensional image data) overlaps with the finger, the
また、試着制御部42は、指輪の2次元画像データが指を装着できないような姿勢で試着ページ62に表示されるときは、時系列で撮影される各画像データから認識された指(被写体)の認識結果を用いて、試着ページ62上で指の向きや移動方向等を検出し、仮想空間上の仮想オブジェクトの姿勢を装着可能な姿勢に修正した上で2次元画像データの生成を行って、試着ページ62に表示することもできる。この結果、ユーザ操作により指輪(2次元画像データ)の姿勢が正しくない場合でも、試着可能な姿勢に動的に補正することができる。
Also, when the two-dimensional image data of the ring is displayed on the
[サイト例]
上記実施例で説明したWebサイトやWebページには、HTML(HyperText Markup Language)などで記述されたサイトやページを採用することができる。また、制御用のスクリプトとしては、JavaScript(登録商標)などを採用することができる。また、仮想空間に限らず、商品を各方向から撮影した2次元画像データを予め用意しておき、試着ページ62に表示することもできる。
[Example of site]
A site or page described in HTML (HyperText Markup Language) or the like can be adopted as the Web site or Web page described in the above embodiment. In addition, as a control script, JavaScript (registered trademark) or the like can be adopted. In addition to the virtual space, two-dimensional image data obtained by photographing a product from each direction may be prepared in advance and displayed on the
[適用システム]
上記実施例では、商品の閲覧、試着、購入を行うEC(Electronic Commerce)サイトを例にして説明したが、これに限定されるものではない。例えば、試作品や、現品を作る前にデザインの段階で、仮想オブジェクトとする3次元画像データを生成することで、上記試着サービスと同等のサービスを提供することができる。この結果、商品の大量生産を行う前に、デザインの修正や相談を行うことができるので、不要なコストの削減や製造工程を効率化することができる。
[Applicable system]
In the above embodiment, an EC (Electronic Commerce) site for browsing, trying on, and purchasing a product has been described as an example, but the present invention is not limited to this. For example, a service equivalent to the above-mentioned fitting service can be provided by generating three-dimensional image data as a virtual object at the stage of designing before making a prototype or an actual product. As a result, the design can be modified or consulted before the mass production of the product, so that unnecessary costs can be reduced and the manufacturing process can be made more efficient.
また、商品サーバ10上で試着サービスを提供することもできる。具体的には、商品サーバ10が、ユーザ端末30と試着制御部42と同等の処理部を有し、Webブラウザを用いて、ユーザ端末30に試着サービスを提供する。また、ユーザ端末30は、ユーザ端末30は、制御用のスクリプトがすでに組み込まれたWebブラウザを用いて、商品の3次元画像データを商品サーバ10から取得して試着サービスを実行することもできる。
Further, a fitting service can be provided on the
また、上記例では、ユーザ端末30が、1つの商品の3次元画像データを商品サーバ10から取得する例を説明したが、これに限定されず、複数の商品それぞれの3次元画像データを商品サーバ10から取得することもできる。例えば、ユーザ端末30は、試着対象の指輪を3つ選択して、それぞれの3次元画像データを商品サーバ10から取得する。ユーザ端末30は、ユーザの指示操作により、対象商品を切替えて、試着サービスを実行することができる。
In the above example, the example in which the
[システム]
上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
[system]
The processing procedures, control procedures, specific names, and information including various data and parameters shown in the above-mentioned documents and drawings can be arbitrarily changed unless otherwise specified.
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散や統合の具体的形態は図示のものに限られない。つまり、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、オブジェクト生成、試着サービス、商品管理などを別々のサーバで実現することもできる。 Each component of each device illustrated is a functional concept, and does not necessarily need to be physically configured as illustrated. That is, the specific form of distribution and integration of each device is not limited to the illustrated one. That is, all or a part thereof can be configured to be functionally or physically distributed / integrated in arbitrary units according to various loads and usage conditions. For example, object generation, try-on service, product management, and the like can be realized by separate servers.
さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。 Further, all or any part of each processing function performed by each device can be realized by a CPU and a program analyzed and executed by the CPU, or can be realized as hardware by wired logic.
[ハードウェア]
図14は、ハードウェア構成例を説明する図である。商品サーバ10とユーザ端末30とは同様のハードウェア構成を有するので、ここでは、コンピュータ100として説明する。図14に示すように、コンピュータ100は、通信装置100a、HDD(Hard Disk Drive)100b、メモリ100c、プロセッサ100dを有する。また、図14に示した各部は、バス等で相互に接続される。
[hardware]
FIG. 14 is a diagram illustrating an example of a hardware configuration. Since the
通信装置100aは、ネットワークインタフェースカードなどであり、他の装置との通信を行う。HDD100bは、図3に示した機能を動作させるプログラムやDBを記憶する。
The
プロセッサ100dは、図3に示した各処理部と同様の処理を実行するプログラムをHDD10b等から読み出してメモリ10cに展開することで、図3等で説明した各機能を実行するプロセスを動作させる。例えば、ユーザ端末30を例にして説明すると、このプロセスは、ユーザ端末30が有する各処理部と同様の機能を実行する。具体的には、プロセッサ10dは、アクセス部41と試着制御部42等と同様の機能を有するプログラムをHDD10b等から読み出す。そして、プロセッサ10dは、アクセス部41と試着制御部42等と同様の処理を実行するプロセスを実行する。
The processor 100d operates the process of executing each function described in FIG. 3 and the like by reading a program for executing the same processing as each processing unit illustrated in FIG. 3 from the HDD 10b or the like and expanding the program in the memory 10c. For example, taking the
このように、コンピュータ100は、プログラムを読み出して実行することで試着制御方法を実行する情報処理装置として動作する。また、コンピュータ100は、媒体読取装置によって記録媒体から上記プログラムを読み出し、読み出された上記プログラムを実行することで上記した実施例と同様の機能を実現することもできる。なお、この他の実施例でいうプログラムは、コンピュータ100によって実行されることに限定されるものではない。例えば、他のコンピュータまたはサーバがプログラムを実行する場合や、これらが協働してプログラムを実行するような場合にも、本発明を同様に適用することができる。 As described above, the computer 100 operates as an information processing apparatus that executes the fitting control method by reading and executing the program. The computer 100 can also realize the same functions as those in the above-described embodiments by reading the program from a recording medium using a medium reading device and executing the read program. The programs referred to in the other embodiments are not limited to being executed by the computer 100. For example, the present invention can be similarly applied to a case where another computer or server executes a program, or a case where these execute a program in cooperation with each other.
10 商品サーバ
11 通信部
12 記憶部
13 商品情報DB
14 画像データDB
20 制御部
21 受付部
22 応答部
30 ユーザ端末
31 通信部
32 撮像部
33 記憶部
40 制御部
41 アクセス部
42 試着制御部
43 2次元画像生成部
44 表示制御部
10 product server 11
14 Image data DB
Claims (11)
前記撮影された2次元画像の中から、時系列的に変化する予め決められた被写体を検出する検出手段と、
表示すべき仮想オブジェクトの3次元画像データを記憶する記憶手段と、
前記記憶手段に記憶された前記仮想オブジェクトの3次元画像データを前記表示手段に表示する表示姿勢を指示する指示手段と、
前記指示手段により指示された前記仮想オブジェクトの3次元データの表示姿勢に基づき前記表示手段に表示される前記仮想オブジェクトの2次元画像データのうち、優先的に表示する優先領域と前記優先領域以外の非優先領域とを決定する決定手段と、
前記表示手段の予め決められた表示位置に前記仮想オブジェクトの2次元画像データの前記優先領域および前記非優先領域とともに前記撮影された前記被写体の2次元画像を表示するとともに、少なくとも前記表示手段に表示されている前記被写体の2次元画像と前記仮想オブジェクトの2次元画像データの表示が重なったときに、当該重なった領域における前記優先領域と前記非優先領域のうち、前記優先領域を前記被写体の2次元画像に優先して表示するとともに、前記非優先領域を非表示とする表示制御手段と、
を備えた情報処理装置。 Display means for displaying the captured two-dimensional image;
Detecting means for detecting a predetermined subject that changes in time series from the photographed two-dimensional image;
Storage means for storing three-dimensional image data of a virtual object to be displayed;
Instructing means for instructing a display posture for displaying the three-dimensional image data of the virtual object stored in the storage means on the display means;
In the two-dimensional image data of the virtual object displayed on the display means based on the display orientation of the three-dimensional data of the virtual object instructed by the instructing means, a priority area to be displayed preferentially and a priority area other than the priority area Determining means for determining a non-priority area ;
A two-dimensional image of the photographed subject is displayed at a predetermined display position of the display means together with the priority area and the non-priority area of the two-dimensional image data of the virtual object , and is displayed on at least the display means. When the two-dimensional image of the subject and the display of the two-dimensional image data of the virtual object overlap each other, the priority area and the non-priority area in the overlapped area are replaced with the priority area of the subject . Display control means for displaying in priority to the three- dimensional image and for hiding the non-priority area,
Information processing device provided with.
前記表示制御手段は、前記指示手段による表示姿勢の指示により前記優先領域および前記非優先領域を動的に変化させることを特徴とする請求項1または2に記載の情報処理装置。 The instruction means is capable of instructing the display orientation of the three-dimensional image data of the virtual object even when the two-dimensional image data of the virtual object is displayed on the display means together with the subject.
The information processing apparatus according to claim 1, wherein the display control unit dynamically changes the priority area and the non-priority area according to a display orientation instruction from the instruction means.
前記決定手段は、前記服飾品の表示姿勢により決定される前記被写体への装着時に前記被写体によって隠れる領域以外を前記被写体に優先して表示する前記優先領域と決定することを特徴とする請求項1乃至3の何れか1項に記載の情報処理装置。 The virtual object is an accessory virtually worn on the subject,
2. The apparatus according to claim 1, wherein the determining unit determines a region other than a region that is hidden by the subject when attached to the subject and that is determined by a display orientation of the accessory, as the priority region that is displayed with priority over the subject. The information processing apparatus according to any one of claims 3 to 3.
前記表示制御手段は、前記仮想オブジェクトの2次元画像データを前記表示手段に表示する際に、前記第1の部分画像を前記優先領域として表示することを特徴とする請求項1に記載の情報処理装置。 Simulating a three-dimensional virtual space having a first region and a second region, arranging three-dimensional image data of the virtual object at a boundary between the first region and the second region, Using a first virtual camera that captures only the first area, capturing a first partial image located in the first area of the three-dimensional image data of the virtual object, A second virtual camera that captures only the area is used to capture a second partial image located in the second area among the three-dimensional image data of the virtual object, and the first partial image and the second partial image are captured. Generating means for generating two-dimensional image data of the virtual object in combination with the two partial images;
2. The information processing apparatus according to claim 1, wherein the display control unit displays the first partial image as the priority area when displaying the two-dimensional image data of the virtual object on the display unit. apparatus.
前記2次元画像の中から、時系列的に変化する予め決められた被写体を検出するステップと、
仮想オブジェクトの3次元画像データを表示する表示姿勢を指示するステップと、
指示された前記仮想オブジェクトの3次元画像データの表示姿勢に基づき表示される前記仮想オブジェクトの2次元画像データのうち、優先的に表示する優先領域と前記優先領域以外の非優先領域とを決定するステップと、
予め決められた表示位置に前記仮想オブジェクトの2次元画像データの前記優先領域および前記非優先領域とともに、少なくとも表示されている被写体の2次元画像と前記仮想オブジェクトの2次元画像データの表示が重なったときに、重なった領域における前記優先領域と前記非優先領域のうち、前記優先領域を被写体の2次元画像に優先して表示するとともに、前記非優先領域を非表示とするステップと、
を含む、表示制御方法。 Displaying the captured two-dimensional image;
Detecting a predetermined subject that changes in time series from the two-dimensional image;
Instructing a display posture for displaying three-dimensional image data of the virtual object;
In the two-dimensional image data of the virtual object displayed based on the designated display orientation of the three-dimensional image data of the virtual object, a priority area to be displayed preferentially and a non-priority area other than the priority area are determined. Steps and
Together with the priority area and the non-priority area of the two-dimensional image data of the virtual object to the display position determined Me pre, display of two-dimensional image data of a two-dimensional image of an object that is at least displayed the virtual object is overlapped And when the priority area and the non-priority area in the overlapped area are displayed in preference to the two-dimensional image of the subject , and the non -priority area is hidden.
And a display control method.
前記2次元画像の中から、時系列的に変化する予め決められた被写体を検出する処理と、
仮想オブジェクトの3次元画像データを表示する表示姿勢を指示する処理と、
指示された前記仮想オブジェクトの3次元画像データの表示姿勢に基づき表示される前記仮想オブジェクトの2次元画像データのうち、優先的に表示する優先領域と前記優先領域以外の非優先領域とを決定する処理と、
予め決められた表示位置に前記仮想オブジェクトの2次元画像データの前記優先領域および前記非優先領域とともに、少なくとも表示されている被写体の2次元画像と前記仮想オブジェクトの2次元画像データの表示が重なったときに、重なった領域における前記優先領域と前記非優先領域のうち、前記優先領域を被写体の2次元画像に優先して表示するとともに、前記非優先領域を非表示とする処理と、
をコンピュータに実行させる、表示制御プログラム。 A process of displaying the captured two-dimensional image;
A process of detecting a predetermined subject that changes in time series from the two-dimensional image;
A process of instructing a display posture for displaying three-dimensional image data of the virtual object;
In the two-dimensional image data of the virtual object displayed based on the designated display orientation of the three-dimensional image data of the virtual object, a priority area to be displayed preferentially and a non-priority area other than the priority area are determined. Processing,
Together with the priority area and the non-priority area of the two-dimensional image data of the virtual object to the display position determined Me pre, display of two-dimensional image data of a two-dimensional image of an object that is at least displayed the virtual object is overlapped when the among the priority area and the non-priority area in the overlapping area, and displays with priority the priority area in the two-dimensional image of an object, a process to hide the non-priority area,
Display control program that causes a computer to execute
前記表示を制御する処理は、前記表示姿勢の指示により前記優先領域および前記非優先領域を動的に変化させる、請求項7または8に記載の表示制御プログラム。 The process of instructing the display posture can instruct the display posture of the three-dimensional image data of the virtual object even when the two-dimensional image data of the virtual object is displayed together with the subject,
9. The display control program according to claim 7, wherein the processing for controlling the display dynamically changes the priority area and the non-priority area according to an instruction of the display attitude. 10.
前記優先領域を決定する処理は、前記服飾品の表示姿勢により決定される前記被写体への装着時に前記被写体によって隠れる領域以外を前記被写体に優先して表示する前記優先領域と決定する、請求項7乃至9の何れか1項に記載の表示制御プログラム。 The virtual object is an accessory virtually worn on the subject,
8. The processing of determining the priority area, wherein the priority area is displayed in priority to the subject other than an area that is hidden by the subject when attached to the subject and that is determined by a display orientation of the accessory. 10. The display control program according to any one of claims 9 to 9.
前記第1の領域と前記第2の領域との境界に、前記服飾品に対応する前記仮想オブジェクトの3次元画像データを配置するとともに、前記第1の領域のみを撮影する第1の仮想カメラを用いて、前記仮想オブジェクトの3次元画像データのうち前記第1の領域に位置する第1の部分画像を撮影し、
前記第2の領域のみを撮影する第2の仮想カメラを用いて、前記仮想オブジェクトの3次元画像データのうち前記第2の領域に位置する第2の部分画像を撮影し、
前記第1の部分画像と前記第2の部分画像とを組み合わせた、前記仮想オブジェクトの2次元画像データを生成する処理を、前記コンピュータにさらに実行させ、
前記表示する処理は、前記仮想オブジェクトの2次元画像データを表示する際に、前記第1の部分画像を前記優先領域として表示することを特徴とする請求項10に記載の表示制御プログラム。 Simulating a three-dimensional virtual space having a first region and a second region,
At the boundary between the first area and the second area, a three-dimensional image data of the virtual object corresponding to the accessory is arranged, and a first virtual camera for photographing only the first area is provided. A first partial image located in the first region in the three-dimensional image data of the virtual object;
Using a second virtual camera that captures only the second area, captures a second partial image located in the second area in the three-dimensional image data of the virtual object,
Causing the computer to further execute a process of generating two-dimensional image data of the virtual object, in which the first partial image and the second partial image are combined;
11. The display control program according to claim 10, wherein the displaying process displays the first partial image as the priority area when displaying the two-dimensional image data of the virtual object.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019157288A JP6656572B1 (en) | 2019-08-29 | 2019-08-29 | Information processing apparatus, display control method, and display control program |
PCT/JP2020/032224 WO2021039856A1 (en) | 2019-08-29 | 2020-08-26 | Information processing device, display control method, and display control program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019157288A JP6656572B1 (en) | 2019-08-29 | 2019-08-29 | Information processing apparatus, display control method, and display control program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6656572B1 true JP6656572B1 (en) | 2020-03-04 |
JP2021033963A JP2021033963A (en) | 2021-03-01 |
Family
ID=69997894
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019157288A Active JP6656572B1 (en) | 2019-08-29 | 2019-08-29 | Information processing apparatus, display control method, and display control program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6656572B1 (en) |
WO (1) | WO2021039856A1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022050096A1 (en) * | 2020-09-02 | 2022-03-10 | ソニーグループ株式会社 | Information processing device, information processing method, and program |
JP7470999B2 (en) | 2021-12-24 | 2024-04-19 | EncodeRing株式会社 | Information processing device, information processing method, and information processing program |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114489404A (en) * | 2022-01-27 | 2022-05-13 | 北京字跳网络技术有限公司 | Page interaction method, device, equipment and storage medium |
JP7441289B1 (en) | 2022-11-14 | 2024-02-29 | 株式会社バンダイ | Computer program, information processing terminal, and its control method |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3239683B2 (en) * | 1995-05-11 | 2001-12-17 | 株式会社セガ | Image processing apparatus and image processing method |
JP5595655B2 (en) * | 2008-12-24 | 2014-09-24 | 株式会社ソニー・コンピュータエンタテインメント | Image processing apparatus and image processing method |
JP6545847B2 (en) * | 2018-03-01 | 2019-07-17 | 株式会社東芝 | Image processing apparatus, image processing method and program |
-
2019
- 2019-08-29 JP JP2019157288A patent/JP6656572B1/en active Active
-
2020
- 2020-08-26 WO PCT/JP2020/032224 patent/WO2021039856A1/en active Application Filing
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022050096A1 (en) * | 2020-09-02 | 2022-03-10 | ソニーグループ株式会社 | Information processing device, information processing method, and program |
JP7470999B2 (en) | 2021-12-24 | 2024-04-19 | EncodeRing株式会社 | Information processing device, information processing method, and information processing program |
Also Published As
Publication number | Publication date |
---|---|
JP2021033963A (en) | 2021-03-01 |
WO2021039856A1 (en) | 2021-03-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6656572B1 (en) | Information processing apparatus, display control method, and display control program | |
US11227008B2 (en) | Method, system, and device of virtual dressing utilizing image processing, machine learning, and computer vision | |
RU2668408C2 (en) | Devices, systems and methods of virtualising mirror | |
US9369638B2 (en) | Methods for extracting objects from digital images and for performing color change on the object | |
US8976160B2 (en) | User interface and authentication for a virtual mirror | |
US8982110B2 (en) | Method for image transformation, augmented reality, and teleperence | |
US8970569B2 (en) | Devices, systems and methods of virtualizing a mirror | |
US20240056653A1 (en) | Video distribution system for live distributing video containing animation of character object generated based on motion of distributor user, distribution method, and storage medium storing video distribution program | |
CN111787242B (en) | Method and apparatus for virtual fitting | |
US20160300393A1 (en) | Virtual trial-fitting system, virtual trial-fitting program, virtual trial-fitting method, and storage medium in which virtual fitting program is stored | |
US20120299912A1 (en) | Avatar-based virtual dressing room | |
US10475099B1 (en) | Displaying relevant content | |
WO2019105411A1 (en) | Information recommending method, intelligent mirror, and computer readable storage medium | |
US20130254066A1 (en) | Shared user experiences | |
JP2014509758A (en) | Real-time virtual reflection | |
WO2016112346A1 (en) | Devices, systems and methods for auto-delay video presentation | |
US10504264B1 (en) | Method and system for combining images | |
CN116324850A (en) | Providing AR-based garments in messaging systems | |
WO2023039183A1 (en) | Controlling interactive fashion based on facial expressions | |
CN114125421A (en) | Image processing method, mobile terminal and storage medium | |
US11127218B2 (en) | Method and apparatus for creating augmented reality content | |
CN114125271B (en) | Image processing method and device and electronic equipment | |
US11373375B2 (en) | Augmented reality product display | |
CN115965826A (en) | Image processing method, image processing device, electronic equipment and storage medium | |
US20220028123A1 (en) | Information processing apparatus, information processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190829 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20190829 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7426 Effective date: 20190912 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20190912 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20191009 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191023 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191219 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200107 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200117 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6656572 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |