JP2024050844A - DISPLAY CONTROL DEVICE, DISPLAY CONTROL METHOD, AND DISPLAY CONTROL PROGRAM - Google Patents

DISPLAY CONTROL DEVICE, DISPLAY CONTROL METHOD, AND DISPLAY CONTROL PROGRAM Download PDF

Info

Publication number
JP2024050844A
JP2024050844A JP2024017257A JP2024017257A JP2024050844A JP 2024050844 A JP2024050844 A JP 2024050844A JP 2024017257 A JP2024017257 A JP 2024017257A JP 2024017257 A JP2024017257 A JP 2024017257A JP 2024050844 A JP2024050844 A JP 2024050844A
Authority
JP
Japan
Prior art keywords
user
display control
information
article
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2024017257A
Other languages
Japanese (ja)
Inventor
万理 黒岩
大輔 根岸
広美 野島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Unicharm Corp
Original Assignee
Unicharm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Unicharm Corp filed Critical Unicharm Corp
Priority to JP2024017257A priority Critical patent/JP2024050844A/en
Publication of JP2024050844A publication Critical patent/JP2024050844A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0641Shopping interfaces
    • G06Q30/0643Graphical representation of items or shoppers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Remote Sensing (AREA)
  • General Engineering & Computer Science (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Figure 2024050844000001

【課題】使い捨て着用物品が利用者に適した商品であるか否かを購入前に効果的に認識させること。
【解決手段】本願に係る表示制御装置は、利用者による入力情報に応じて特定された使い捨て着用物品の形状を示す物品情報を取得する取得部と、物品情報が示す形状の使い捨て着用物品を前記利用者が仮想的に装着した態様で、利用者が撮影された撮影画像に当該使い捨て着用物品の画像を重畳した状態で表示させる表示制御部とを有することを特徴とする。
【選択図】図6

Figure 2024050844000001

To allow a user to effectively recognize whether a disposable wearing article is suitable for him/her before purchasing it.
[Solution] The display control device of the present application is characterized by having an acquisition unit that acquires article information indicating the shape of a disposable wearable article specified in response to information input by a user, and a display control unit that displays an image of a disposable wearable article having the shape indicated by the article information superimposed on an image captured by the user in a manner in which the user is virtually wearing the disposable wearable article.
[Selected Figure] Figure 6

Description

特許法第30条第2項適用申請有り 令和1年11月26日品川プリンスホテルにおいて開催されたユニ・チャーム新製品発表会で発表Application for application of Article 30, Paragraph 2 of the Patent Act filed. Announced at the Unicharm New Product Launch held at Shinagawa Prince Hotel on November 26, 2019.

特許法第30条第2項適用申請有り 令和1年11月26日https://www.webarphoto.com/unicharm/5918313810/index.htmlにて令和1年11月26日時点における本願に関連するデジタル技術を公開Application for application of Article 30, Paragraph 2 of the Patent Act filed on November 26, 2019. https://www.webarphoto.com/unicharm/5918313810/index.html discloses digital technology related to this application as of November 26, 2019.

本発明は、表示制御装置、表示制御方法および表示制御プログラムに関する。 The present invention relates to a display control device, a display control method, and a display control program.

従来、情報処理の進歩に従い、様々な態様で利用者に情報を提供する技術が提案されている。例えば、商品に関する仮想的な画像を、利用者が撮影された画像に重畳させて表示させることで、商品の販売を促進させる技術が提案されている。 Conventionally, with the advancement of information processing, technologies have been proposed for providing information to users in various ways. For example, a technology has been proposed that promotes product sales by displaying a virtual image of a product superimposed on an image taken by the user.

特開2012-181688号公報JP 2012-181688 A

しかしながら、上記の従来技術では、使い捨て着用物品が利用者に適した商品であるか否かを購入前に効果的に認識させることができるとは限らない。例えば、上記の従来技術では、撮像部から順次取得した画像内の顔パーツを認識し、認識結果に含まれる顔パーツの位置に基づいて、画像内の顔にトラッキングする仮想的な化粧画像をこの画像に重畳させて表示させる。 However, the above-mentioned conventional technology does not necessarily allow a user to effectively recognize whether a disposable wearable item is suitable for the user before purchasing it. For example, the above-mentioned conventional technology recognizes facial features in images sequentially acquired from an imaging unit, and based on the positions of the facial features included in the recognition results, displays a virtual makeup image that tracks the face in the image and is superimposed on the image.

このように、上記の従来技術は、化粧支援に特化した技術あり、マスクなどの使い捨て着用物品については、画像に重畳させて表示させる表示対象となっていないため、使い捨て着用物品が利用者に適した商品であるか否かを購入前に効果的に認識させることができるとは限らない。 As such, the above-mentioned conventional technologies are specialized for makeup assistance, and do not display disposable wearable items such as masks by superimposing them on an image, so they are not necessarily able to effectively allow users to recognize whether a disposable wearable item is suitable for them before purchasing it.

本願は、上記に鑑みてなされたものであって、使い捨て着用物品が利用者に適した商品であるか否かを購入前に効果的に認識させることを目的とする。 The present application has been made in consideration of the above, and aims to allow users to effectively determine whether a disposable wearable article is suitable for them before they purchase it.

本願に係る表示制御装置は、利用者による入力情報に応じて特定された使い捨て着用物品の形状を示す物品情報を取得する取得部と、前記物品情報が示す形状の使い捨て着用物品を前記利用者が仮想的に装着した態様で、前記利用者が撮影された撮影画像に当該使い捨て着用物品の画像を重畳した状態で表示させる表示制御部とを有することを特徴とする。 The display control device according to the present application is characterized by having an acquisition unit that acquires article information indicating the shape of a disposable wearable article specified in response to information input by a user, and a display control unit that displays an image of the disposable wearable article having the shape indicated by the article information superimposed on an image captured by the user in a state in which the user is virtually wearing the disposable wearable article.

実施形態の一態様によれば、使い捨て着用物品が利用者に適した商品であるか否かを購入前に効果的に認識させることができる。 According to one aspect of the embodiment, it is possible to effectively allow a user to recognize whether a disposable wearable article is suitable for them before purchasing it.

図1は、陳列コーナーを概念的に説明する説明図である。FIG. 1 is an explanatory diagram conceptually explaining a display corner. 図2は、実施形態に係る表示制御処理の一例(1)を示す図である。FIG. 2 is a diagram illustrating an example (1) of a display control process according to the embodiment. 図3は、実施形態に係る表示制御処理の一例(2)を示す図である。FIG. 3 is a diagram illustrating an example (2) of the display control process according to the embodiment. 図4は、実施形態に係る表示制御処理の一例(3)を示す図である。FIG. 4 is a diagram illustrating an example (3) of the display control process according to the embodiment. 図5は、実施形態に係る画像比較の一例を示す図である。FIG. 5 is a diagram illustrating an example of image comparison according to the embodiment. 図6は、実施形態に係る情報処理装置の構成例を示す図である。FIG. 6 is a diagram illustrating an example of the configuration of an information processing apparatus according to an embodiment. 図7は、実施形態に係る表示制御処理のうち、前半の表示制御処理手順を示すフローチャートである。FIG. 7 is a flowchart showing the first half of the display control process according to the embodiment. 図8は、実施形態に係る表示制御処理のうち、後半の表示制御処理手順を示すフローチャートである。FIG. 8 is a flowchart showing the latter half of the display control process according to the embodiment. 図9は、ハードウェア構成の一例を示す図である。FIG. 9 is a diagram illustrating an example of a hardware configuration.

本明細書及び添付図面の記載により、少なくとも以下の事項が明らかとなる。 The present specification and accompanying drawings make clear at least the following:

利用者による入力情報に応じて特定された使い捨て着用物品の形状を示す物品情報を取得する取得部と、前記物品情報が示す形状の使い捨て着用物品を前記利用者が仮想的に装着した態様で、前記利用者が撮影された撮影画像に当該使い捨て着用物品の画像を重畳した状態で表示させる表示制御部とを有することを特徴とする表示制御装置。 A display control device comprising: an acquisition unit that acquires article information indicating the shape of a disposable wearable article specified in response to information input by a user; and a display control unit that displays an image of the disposable wearable article superimposed on an image captured of the user in a state in which the user is virtually wearing the disposable wearable article having the shape indicated by the article information.

このような表示制御装置によれば、利用者による入力情報に応じて特定された使い捨て着用物品の形状を示す物品情報を取得し、取得した物品情報が示す形状の使い捨て着用物品を利用者が仮想的に装着した態様で、利用者が撮影された撮影画像に当該使い捨て着用物品の画像を重畳した状態で表示させるため、使い捨て着用物品が利用者に適した商品であるか否かを購入前に効果的に認識させることができる。 This type of display control device acquires product information indicating the shape of a disposable wearable item specified in response to information input by a user, and displays an image of the disposable wearable item superimposed on an image captured by the user in a state in which the user is virtually wearing the disposable wearable item having the shape indicated by the acquired product information, thereby allowing the user to effectively recognize whether the disposable wearable item is suitable for the user before purchasing it.

また、表示制御装置は、前記使い捨て着用物品として、不織布で構成された使い捨てマスクの形状を示す前記物品情報を取得する。 The display control device also acquires the item information indicating the shape of a disposable mask made of nonwoven fabric as the disposable wearable item.

このような表示制御装置によれば、使い捨て着用物品として、不織布で構成された使い捨てマスクの形状を示す物品情報を取得するため、使い捨てマスクが利用者に適したマスク商品であるか否かを購入前に効果的に認識させることができる。 This type of display control device obtains product information indicating the shape of a disposable mask made of nonwoven fabric as a disposable wearable item, allowing the user to effectively recognize whether or not the disposable mask is a suitable mask product before purchasing it.

また、表示制御装置は、前記入力情報として、前記使い捨て着用物品が商品として陳列されている陳列棚に付された識別情報に応じて特定された使い捨て着用物品の形状を示す前記物品情報を取得する。 The display control device also acquires, as the input information, the item information indicating the shape of the disposable wearing article identified according to identification information attached to the display shelf on which the disposable wearing article is displayed as a commodity.

このような表示制御装置によれば、入力情報として、使い捨て着用物品が商品として陳列されている陳列棚に付された識別情報に応じて特定された使い捨て着用物品の形状を示す物品情報を取得するため、使い捨て着用物品の装着体験ができる機会を効果的に増やすことができる。 According to such a display control device, the input information obtained is product information indicating the shape of the disposable wearable article specified according to the identification information attached to the display shelf on which the disposable wearable article is displayed as a commodity, so that it is possible to effectively increase the opportunities to experience wearing the disposable wearable article.

また、表示制御装置は、前記識別情報に応じて特定された使い捨て着用物品として、前記識別情報で識別される使い捨て着用物品であって、前記陳列棚に現在陳列されている使い捨て着用物品の形状を示す前記物品情報を取得する。 The display control device also acquires the item information indicating the shape of a disposable wearable item identified by the identification information and currently displayed on the display shelf as the disposable wearable item specified according to the identification information.

このような表示制御装置によれば、識別情報に応じて特定された使い捨て着用物品として、識別情報で識別される使い捨て着用物品であって、陳列棚に現在陳列されている使い捨て着用物品の形状を示す物品情報を取得するため、現在、利用者が注目している着用物品そのものの画像を表示することができる。 According to such a display control device, the disposable wearable article specified according to the identification information is a disposable wearable article identified by the identification information, and article information indicating the shape of the disposable wearable article currently displayed on the display shelf is obtained, so that an image of the wearable article that the user is currently paying attention to can be displayed.

また、表示制御装置は、前記識別情報に応じて特定された使い捨て着用物品として、前記識別情報で識別される着用物品、および、前記識別情報で識別される着用物品に関連する着用物品である表示候補の使い捨て着用物品のうち、前記利用者により選択されたカテゴリに対応する使い捨て着用物品の形状を示す前記物品情報を取得する。 The display control device also acquires the item information indicating the shape of the disposable wearable item corresponding to the category selected by the user from among the wearable item identified by the identification information and the disposable wearable items that are display candidates related to the wearable item identified by the identification information as the disposable wearable item specified according to the identification information.

このような表示制御装置によれば、識別情報に応じて特定された使い捨て着用物品として、識別情報で識別される着用物品、および、識別情報で識別される着用物品に関連する着用物品である表示候補の使い捨て着用物品のうち、利用者により選択されたカテゴリに対応する使い捨て着用物品の形状を示す物品情報を取得するため、装着体験したい使い捨て着用物品がより簡単に見付けられるよう効果的に支援することができる。 According to such a display control device, the disposable wearable item identified according to the identification information is the wearable item identified by the identification information, and among the display candidate disposable wearable items related to the wearable item identified by the identification information, item information is obtained that indicates the shape of the disposable wearable item corresponding to the category selected by the user, thereby effectively supporting the user to more easily find the disposable wearable item that the user wishes to try on.

また、表示制御装置は、前記利用者により選択された第1のカテゴリに属する表示候補の使い捨て着用物品のうち、前記利用者によりさらに選択された第2のカテゴリであって、前記第1のカテゴリに対する下位のカテゴリである第2のカテゴリに属する着用物品の形状を示す前記物品情報を取得する。 The display control device also acquires the item information indicating the shape of a wearing article that belongs to a second category further selected by the user from among the disposable wearing articles that are candidates for display and belong to a first category selected by the user, the second category being a lower category than the first category.

このような表示制御装置によれば、利用者により選択された第1のカテゴリに属する表示候補の使い捨て着用物品のうち、利用者によりさらに選択された第2のカテゴリであって、第1のカテゴリに対する下位のカテゴリである第2のカテゴリに属する着用物品の形状を示す物品情報を取得するため、装着体験したい使い捨て着用物品がより簡単に見付けられるよう効果的に支援することができる。 This display control device obtains item information indicating the shape of a wearable item belonging to a second category further selected by the user from among the disposable wearable items that are display candidates belonging to a first category selected by the user, the second category being a lower category than the first category, and can effectively help the user more easily find a disposable wearable item that he or she wishes to try on.

また、表示制御装置は、前記表示候補の使い捨て着用物品のうち、前記利用者により選択された使い捨て着用物品の形状を示す前記物品情報を取得する。 The display control device also acquires the item information indicating the shape of the disposable wearable item selected by the user from among the display candidates for disposable wearable items.

このような表示制御装置によれば、表示候補の使い捨て着用物品のうち、利用者により選択された使い捨て着用物品の形状を示す物品情報を取得するため、利用者側の要望に合った使い捨て着用物品の装着体験を簡単に行わせることができる。 This type of display control device obtains article information indicating the shape of a disposable wearable article selected by the user from among the displayed candidates, allowing the user to easily try on a disposable wearable article that meets their needs.

また、表示制御装置は、前記利用者の属性情報または嗜好性に応じて特定された前記表示候補の使い捨て着用物品のうち、前記利用者により選択された使い捨て着用物品の形状を示す前記物品情報を取得する。 The display control device also acquires the item information indicating the shape of a disposable wearable item selected by the user from among the display candidates for disposable wearable items identified according to the attribute information or preferences of the user.

このような示制御装置によれば、利用者の属性情報または嗜好性に応じて特定された表示候補の使い捨て着用物品のうち、利用者により選択された使い捨て着用物品の形状を示す物品情報を取得するため、利用者側の好みに合った使い捨て着用物品の装着体験を簡単に行わせることができる。 This display control device obtains article information indicating the shape of a disposable wearable article selected by the user from among the display candidates for disposable wearable articles identified according to the user's attribute information or preferences, allowing the user to easily experience wearing a disposable wearable article that matches his or her preferences.

また、表示制御装置は、前記入力情報として、前記利用者が撮影された撮影画像に応じて特定された使い捨て着用物品の形状を示す前記物品情報を取得する。 The display control device also acquires, as the input information, the item information indicating the shape of a disposable wearable item identified according to the captured image of the user.

このような示制御装置によれば、入力情報として、利用者が撮影された撮影画像に応じて特定された使い捨て着用物品の形状を示す物品情報を取得するため、利用者の興味を高め、使い捨て着用物品が販売される店舗へと利用者を効果的に誘導することができるようになる。 With such a display control device, the input information obtained is product information indicating the shape of a disposable wearable item identified according to an image captured by the user, which can increase the user's interest and effectively guide the user to a store selling the disposable wearable item.

また、表示制御装置は、前記利用者が撮影された撮影画像から検出された前記利用者の身体のパーツに基づいて、使い捨て着用物品の利用用途に応じた適切な身体の位置に対して前記物品情報が示す形状の使い捨て着用物品が位置するよう、前記撮影画像に前記使い捨て着用物品の画像を重畳した状態で表示させる。 The display control device also displays an image of the disposable wearable article superimposed on the captured image, so that the disposable wearable article having the shape indicated by the article information is positioned at an appropriate body position according to the intended use of the disposable wearable article, based on the body parts of the user detected from the captured image of the user.

このような表示制御装置によれば、利用者が撮影された撮影画像から検出された利用者の身体のパーツに基づいて、使い捨て着用物品の利用用途に応じた適切な身体の位置に対して物品情報が示す形状の使い捨て着用物品が位置するよう、撮影画像に使い捨て着用物品の画像を重畳した状態で表示させるため、使い捨て着用物品の装着体験を違和感なく行わせることができる。 This type of display control device displays an image of the disposable wearable article superimposed on the captured image so that the disposable wearable article having the shape indicated by the article information is positioned at an appropriate body position according to the intended use of the disposable wearable article based on the body parts of the user detected from the captured image of the user, thereby allowing the user to experience wearing the disposable wearable article without feeling unnatural.

また、表示制御装置は、前記撮影画像で示される前記利用者の顔の向きであって、前記利用者を撮影する撮影手段に対する顔の向きに応じて、前記物品情報が示す形状を制御し、制御した形状の使い捨て着用物品を前記利用者が仮想的に装着した態様で、前記撮影画像に前記使い捨て着用物品の画像を重畳した状態で表示させる。 The display control device also controls the shape indicated by the item information according to the orientation of the user's face shown in the captured image relative to the image capturing device capturing the user's image, and displays an image of the disposable wearable item superimposed on the captured image in a manner such that the user is virtually wearing the disposable wearable item having the controlled shape.

このような表示制御装置によれば、撮影画像で示される利用者の顔の向きであって、利用者を撮影する撮影手段に対する顔の向きに応じて、物品情報が示す形状を制御し、制御した形状の使い捨て着用物品を前記利用者が仮想的に装着した態様で、撮影画像に使い捨て着用物品の画像を重畳した状態で表示させるため、使い捨て着用物品をした状態での見た目が顔の向きに応じてどのように変化するかを精度よくイメージさせることができる。 With this type of display control device, the shape indicated by the product information is controlled according to the orientation of the user's face shown in the captured image relative to the image capturing means capturing the user's image, and an image of the disposable wearable product with the controlled shape is displayed superimposed on the captured image in a state in which the user is virtually wearing the disposable wearable product, allowing the user to accurately visualize how the appearance of the disposable wearable product changes depending on the orientation of the face.

また、表示制御装置は、前記利用者の顔のサイズに応じて、前記使い捨て着用物品の画像のサイズを制御し、制御したサイズの画像を前記撮影画像に重畳させる。 The display control device also controls the size of the image of the disposable wearable article according to the size of the user's face, and superimposes the image of the controlled size on the captured image.

このような表示制御装置によれば、利用者の顔のサイズに応じて、使い捨て着用物品の画像のサイズを制御し、制御したサイズの画像を撮影画像に重畳させるため、使い捨て着用物品の装着体験を違和感なく行わせることができる。 This type of display control device controls the size of the image of the disposable wearable item according to the size of the user's face, and superimposes the image of the controlled size on the captured image, allowing the user to experience wearing the disposable wearable item without feeling uncomfortable.

また、表示制御装置は、前記利用者により使い捨て着用物品の色または模様が指定された場合には、前記使い捨て着用物品の画像として、指定された色または模様の使い捨て着用物品の画像を前記撮影画像に重畳させる。 In addition, when the color or pattern of the disposable wearable item is specified by the user, the display control device superimposes an image of the disposable wearable item of the specified color or pattern on the captured image as an image of the disposable wearable item.

このような表示制御装置によれば、利用者により使い捨て着用物品の色または模様が指定された場合には、使い捨て着用物品の画像として、指定された色または模様の使い捨て着用物品の画像を撮影画像に重畳させるため、どのような色や模様の使い捨て着用物品が利用者に適した商品であるか否かを購入前に効果的に認識させることができる。 With this type of display control device, when a user specifies a color or pattern of a disposable wearable item, an image of the disposable wearable item with the specified color or pattern is superimposed on the captured image as an image of the disposable wearable item, allowing the user to effectively recognize whether or not a disposable wearable item with a certain color or pattern is suitable for the user before purchasing it.

また、表示制御装置は、前記利用者により使い捨て着用物品のサイズが指定された場合には、前記使い捨て着用物品の画像として、指定されたサイズに応じたサイズの画像を前記撮影画像に重畳させる。 In addition, when the size of the disposable wearable item is specified by the user, the display control device superimposes an image of the disposable wearable item of a size corresponding to the specified size on the captured image.

このような表示制御装置によれば、利用者により使い捨て着用物品のサイズが指定された場合には、使い捨て着用物品の画像として、指定されたサイズに応じたサイズの画像を撮影画像に重畳させるため、どのようなサイズの使い捨て着用物品が利用者に適した商品であるか否かを購入前に効果的に認識させることができる。 When a user specifies the size of a disposable wearable item, such a display control device superimposes an image of the disposable wearable item of a size corresponding to the specified size on the captured image, thereby allowing the user to effectively recognize what size disposable wearable item is suitable for the user before purchasing the product.

また、表示制御装置は、利用者に関する利用者情報に基づき特定された利用者であって、前記撮影画像に使い捨て着用物品の画像を重畳した状態で表示させるアプリケーションを導入していない利用者の端末装置に対して、当該アプリケーションを導入するよう案内する案内情報を表示させる。 The display control device also displays guidance information on a terminal device of a user who is identified based on the user information about the user and who does not have an application installed that displays an image of a disposable wearable article superimposed on the captured image, guiding the user to install the application.

このような表示制御装置によれば、利用者に関する利用者情報に基づき特定された利用者であって、撮影画像に使い捨て着用物品の画像を重畳した状態で表示させるアプリケーションを導入していない利用者の端末装置に対して、当該アプリケーションを導入するよう案内する案内情報を表示させるため、使い捨て着用物品の装着体験を店頭で行わすための敷居を効果的に下げることができるようになる。 This type of display control device displays guidance information on a terminal device of a user who is identified based on user information about the user and who does not have an application installed that displays an image of a disposable wearable article superimposed on a captured image, guiding the user to install the application, thereby effectively lowering the barrier to experiencing wearing disposable wearable articles in a store.

また、表示制御装置は、前記入力情報が入力された後において、前記使い捨て着用物品を仮想的に装着させるパーツであって、前記利用者の身体のパーツが、前記利用者が撮影された撮影画像に含まれないと判定された場合には、当該部位を含むように撮影するよう案内情報を表示させる。 In addition, after the input information is received, if it is determined that a body part of the user that is to be virtually worn by the disposable wearable article is not included in the captured image of the user, the display control device displays guidance information to take an image including that body part.

このような表示制御装置によれば、入力情報が入力された後において、使い捨て着用物品を仮想的に装着させるパーツであって、利用者の身体のパーツが、利用者が撮影された撮影画像に含まれないと判定された場合には、当該パーツを含むように撮影するよう案内情報を表示させるため、使い捨て着用物品の画像が、使い捨て着用物品の利用用途に応じた正しい態様で表示されるよう制御することができる。 According to such a display control device, after input information is input, if it is determined that a part of the user's body that is to be virtually worn by the disposable wearable article is not included in the image captured of the user, guidance information is displayed to take an image that includes that part, so that the image of the disposable wearable article can be controlled to be displayed in the correct manner according to the intended use of the disposable wearable article.

また、表示制御装置は、前記利用者が撮影された撮影画像であって、前記使い捨て着用物品の画像が重畳された撮影画像のうち、これまでに撮影された撮影画像を比較可能なように表示させる。 The display control device also displays images of the user that have been taken so far, among images on which the image of the disposable wearable article is superimposed, in a manner that allows comparison.

このような表示制御装置によれば、利用者が撮影された撮影画像であって、使い捨て着用物品の画像が重畳された撮影画像のうち、これまでに撮影された撮影画像を比較可能なように表示させるため、利用者に対して、どの使い捨て着用物品が似合っているかを容易に比較させることができる。 This type of display control device allows images taken of the user, in which images of disposable wearable items are superimposed, to be displayed in a comparative manner, allowing the user to easily compare which disposable wearable item suits them best.

また、表示制御装置は、前記利用者が撮影された撮影画像であって、前記使い捨て着用物品の画像が重畳された撮影画像のうち、過去に撮影された撮影画像を、現在撮影されている撮影画像であって、前記使い捨て着用物品の画像が重畳された撮影画像とともに表示させる。 The display control device also displays images of the user that have been captured in the past and have the image of the disposable wearable superimposed thereon, together with a currently captured image that has the image of the disposable wearable superimposed thereon.

このような表示制御装置によれば、利用者が撮影された撮影画像であって、使い捨て着用物品の画像が重畳された撮影画像のうち、過去に撮影された撮影画像を、現在撮影されている撮影画像であって、使い捨て着用物品の画像が重畳された撮影画像とともに表示させるため、利用者に対して、どの使い捨て着用物品が似合っているかを容易に比較させることができる。 This type of display control device displays images of the user that have been taken in the past and have images of disposable wearables superimposed on them together with images of currently taken images that have images of disposable wearables superimposed on them, allowing the user to easily compare which disposable wearables look best on them.

また、表示制御装置は、前記利用者が撮影された撮影画像であって、前記使い捨て着用物品の画像が重畳された撮影画像に対して、所定の情報共有サービスへの投稿に応じた所定の情報を表示させる。 The display control device also displays predetermined information corresponding to the posting to a predetermined information sharing service on a captured image of the user on which an image of the disposable wearable article is superimposed.

このような表示制御装置によれば、利用者が撮影された撮影画像であって、使い捨て着用物品の画像が重畳された撮影画像に対して、所定の情報共有サービスへの投稿に応じた所定の情報を表示させるため、使い捨て着用物品や、使い捨て着用物品の事業者について効果的に宣伝することができるようになる。 This type of display control device allows a user to take an image on which an image of a disposable wearable item is superimposed and displays specific information corresponding to the post to a specific information sharing service, thereby enabling effective advertising of disposable wearable items and businesses that sell disposable wearable items.

また、表示制御装置は、前記所定の情報として、前記使い捨て着用物品に関する情報を表示させる。 The display control device also displays information about the disposable wearable article as the predetermined information.

このような表示制御装置によれば、所定の情報として、使い捨て着用物品に関する情報を表示させるため、使い捨て着用物品や、使い捨て着用物品の事業者について効果的に宣伝することができるようになる。 With such a display control device, information about disposable wearable items is displayed as the specified information, making it possible to effectively advertise disposable wearable items and businesses that sell disposable wearable items.

[実施形態]
以下に、表示制御装置、表示制御方法および表示制御プログラムを実施するための形態(以下、「実施形態」と記載する)の一例について図面を参照しつつ詳細に説明する。なお、この実施形態により表示制御装置、表示制御方法および表示制御プログラムが限定されるものではない。また、以下の実施形態において同一の部位には同一の符号を付し、重複する説明は省略する。
[Embodiment]
An example of a form for implementing a display control device, a display control method, and a display control program (hereinafter, referred to as an "embodiment") will be described in detail below with reference to the drawings. Note that the display control device, the display control method, and the display control program are not limited to this embodiment. Also, the same components in the following embodiments are given the same reference numerals, and duplicated descriptions will be omitted.

〔1.実施形態に係る表示制御処理の概要〕
まず、前提に沿って実施形態に係る表示制御処理の概要について説明する。使い捨て着用物品の一例としては、マスクが挙げられるが、近年マスクの需要は高まっている。また、マスクは、通年で使用されることも多いため、着用した際の見た目を気にしたり、なるべくファッショナブルに着用したという人も多くなってきている。このため、購入前にマスクを試着することが出来れば便利であるが、マスクは、衛生商品であり、また、その多くが使い捨て商品であるため、購入前に試着させることは難しい。
1. Overview of display control process according to embodiment
First, an overview of the display control process according to the embodiment will be described along the premise. One example of a disposable wearable article is a mask, and the demand for masks has been increasing in recent years. In addition, since masks are often used throughout the year, many people are concerned about the appearance when wearing them, and wear them as fashionably as possible. For this reason, it would be convenient if masks could be tried on before purchasing them, but since masks are hygiene products and many of them are disposable products, it is difficult to try them on before purchasing them.

そこで、実施形態に係る表示制御処理は、このような問題点を解決するための着想であり、利用者が有する端末装置(例えば、スマートフォンなど)、あるいは、店頭に置かれた端末装置(例えば、タブレット端末やデジタルサイネ-ジなど)を介して、利用者に対して、仮想的にマスクの画像を装着させることで、マスクを着用した際の見た目をシミュレーションさせるというものである。 The display control process according to the embodiment is an idea to solve these problems, and allows users to simulate how a mask will look when worn by having them wear a virtual image of a mask via a terminal device owned by the user (e.g., a smartphone) or a terminal device installed in a store (e.g., a tablet device or digital signage).

具体的には、実施形態に係る表示制御処理は、利用者による入力情報に応じて特定された使い捨て着用物品の形状を示す物品情報を取得し、取得した物品情報が示す形状の使い捨て着用物品を利用者が仮想的に装着した態様で、利用者が撮影された撮影画像に当該使い捨て着用物品の画像を重畳した状態で表示させる、というものである。 Specifically, the display control process according to the embodiment acquires article information indicating the shape of a disposable wearable article specified in response to information input by a user, and displays an image of the disposable wearable article superimposed on an image captured by the user in a state in which the user is virtually wearing the disposable wearable article having the shape indicated by the acquired article information.

そして、このような表示制御処理によれば、使い捨て着用物品(例えば、マスク)が利用者に適した商品であるか否かを購入前に効果的に認識させることができるようになる。 This type of display control process allows users to effectively determine whether a disposable wearable item (e.g., a mask) is suitable for them before they purchase it.

また、上記の通り、実施形態に係る表示制御処理は、端末装置を介して、利用者に対して仮想的にマスクの画像を装着させるものであるため、利用者は店頭などで簡単にマスクの装着体験ができるようになる。このことを「売り」として、例えば、「スマホで簡単に装着体験!」といった店頭ポップとともに、自社製品(例えば、事業者T)のマスクを陳列すれば、自社製品の訴求力を高めることができる。後に図1を用いて、店頭ポップが付された状態でマスクが陳列される陳列コーナーのイメージを示す。 As described above, the display control process according to the embodiment allows the user to virtually wear an image of a mask via a terminal device, so that the user can easily try on a mask in a store, etc. Using this as a "selling point," a company can increase the appeal of its products by displaying its own masks (e.g., company T) along with in-store pop-ups such as "Easily try on masks with your smartphone!" Later, an image of a display corner where masks are displayed with in-store pop-ups attached will be shown using FIG. 1.

〔2.表示制御処理に対応するプログラムについて〕
次に、実施形態に係る表示制御処理に対応するプログラムについて説明する。係るプログラムは、利用者による入力情報に応じて特定された使い捨て着用物品の形状を示す物品情報を取得する取得手順と、取得手順により取得された物品情報が示す形状の使い捨て着用物品を前記利用者が仮想的に装着した態様で、利用者が撮影された撮影画像に当該使い捨て着用物品の画像を重畳した状態で表示させる表示制御手順とをコンピュータに実行させるためのプログラムである。
2. Programs Corresponding to Display Control Processing
Next, a program corresponding to the display control process according to the embodiment will be described. The program is a program for causing a computer to execute an acquisition procedure for acquiring article information indicating a shape of a disposable wearing article specified in response to information input by a user, and a display control procedure for displaying an image of a disposable wearing article having a shape indicated by the article information acquired by the acquisition procedure, superimposed on an image captured by the user in a state in which the user virtually wears the disposable wearing article.

そして、このようなプログラムである実施形態に係るアプリケーションは、例えば、利用者が有する端末装置(例えば、スマートフォンなど)、店頭に置かれた端末装置(例えば、タブレット端末やデジタルサイネ-ジなど)といった、所謂、エンドユーザ用の端末装置、あるいは、係る端末装置と通信を行うサーバ装置に対して導入(インストール)される。 The application according to the embodiment, which is such a program, is introduced (installed) into so-called end-user terminal devices, such as a terminal device owned by a user (e.g., a smartphone) or a terminal device placed in a store (e.g., a tablet terminal or digital signage), or into a server device that communicates with such terminal devices.

以下の実施形態では、このような端末装置の一例として端末装置10を例示し、また、このようなサーバ装置の一例としてサーバ装置100を例示する。また、端末装置10およびサーバ装置100は、ともに表示制御装置の一例といえる装置である。 In the following embodiment, a terminal device 10 is illustrated as an example of such a terminal device, and a server device 100 is illustrated as an example of such a server device. In addition, both the terminal device 10 and the server device 100 are devices that can be considered as examples of a display control device.

また、実施形態に係るアプリケーションは、端末装置10とサーバ装置100を連携させるために端末装置10にインストールされる専用のアプリケーション(以下「アプリAP11」とする)であってもよい。一方で、実施形態に係るアプリケーションは、端末装置10にインストールされる汎用的なアプリケーション(「アプリAP12」)であってもよい。例えば、アプリAP12は、端末装置10の有するブラウザ上で動作するウェブアプリ(ウェブコンテンツを表示させるためのアプリケーション)あってもよい。 The application according to the embodiment may be a dedicated application (hereinafter referred to as "app AP11") installed in the terminal device 10 to link the terminal device 10 and the server device 100. On the other hand, the application according to the embodiment may be a general-purpose application ("app AP12") installed in the terminal device 10. For example, the app AP12 may be a web app (an application for displaying web content) that runs on a browser of the terminal device 10.

また、アプリAP11およびアプリAP12は、実施形態に係る表示制御処理を端末装置10またはサーバ装置100の少なくともいずれか一方に対して実行させるためのアプリケーションといえる。本実施形態では、アプリAP11またはアプリAP12の制御に従って、端末装置10とサーバ装置100とが協働して実施形態に係る表示制御処理を行うものとして説明するが、例えば、端末装置10がアプリAP11またはアプリAP12の制御に従って、単独で実施形態に係る表示制御処理を行ってもよい。 The apps AP11 and AP12 can be considered as applications for causing at least one of the terminal device 10 and the server device 100 to execute the display control process according to the embodiment. In this embodiment, the terminal device 10 and the server device 100 cooperate to perform the display control process according to the embodiment in accordance with the control of the app AP11 or the app AP12. However, for example, the terminal device 10 may independently perform the display control process according to the embodiment in accordance with the control of the app AP11 or the app AP12.

また、アプリAP11がインストールされている場合における、端末装置10およびサーバ装置100との間で行われる実施形態に係る表示制御処理と、アプリAP12がインストールされている場合における、端末装置10およびサーバ装置100との間で行われる実施形態に係る表示制御処理とを、それぞれ分けて説明する。前者については、主に図3で説明し、後者については主に図4で説明する。一方で、アプリAP11がインストールされている場合での表示制御処理は、アプリAP12の制御によって行われてもよい。また、アプリAP12がインストールされている場合での表示制御処理は、アプリAP11の制御によって行われてもよい。 In addition, the display control process according to the embodiment performed between the terminal device 10 and the server device 100 when the app AP11 is installed, and the display control process according to the embodiment performed between the terminal device 10 and the server device 100 when the app AP12 is installed will be described separately. The former will be mainly described with reference to FIG. 3, and the latter will be mainly described with reference to FIG. 4. On the other hand, the display control process when the app AP11 is installed may be performed under the control of the app AP12. In addition, the display control process when the app AP12 is installed may be performed under the control of the app AP11.

〔3.使い捨て着用物品について〕
次に、使い捨て着用物品について説明する。本実施形態では、実施形態に係る使い捨て着用物品は、マスクであるものとする。具体的には、実施形態に係る使い捨て着用物品は、不織布で構成された使い捨てマスクであるものとする。一方で、使い捨て着用物品は、必ずしもマスクである必要はなく、例えば、大人用の吸収性物品(大人用おむつ)であってもよい。
[3. Disposable clothing items]
Next, a disposable wearing article will be described. In this embodiment, the disposable wearing article according to the embodiment is a mask. Specifically, the disposable wearing article according to the embodiment is a disposable mask made of a nonwoven fabric. On the other hand, the disposable wearing article does not necessarily have to be a mask, and may be, for example, an absorbent article for adults (adult diapers).

〔4.記憶部と店頭での陳列について〕
次に、図1を用いて、サーバ装置100が有する記憶部と、店頭ポップが付された状態でマスクが陳列される陳列コーナーについて説明する。図1は、陳列コーナーを概念的に説明する説明図である。
[4. Memory and store display]
Next, a storage unit included in the server device 100 and a display corner where masks are displayed with in-store POPs attached will be described with reference to Fig. 1. Fig. 1 is an explanatory diagram conceptually explaining the display corner.

図1の左側には、表示制御装置の一例であるサーバ装置100が有する記憶部のうち、商品としてのマスクに関する各種情報を記憶する商品情報記憶部121の一例が示されている。図1に示す商品情報記憶部121は、「シリーズ情報」、「第1タイプ」、「第2タイプ」、「商品ID」、「AR情報」、「取扱店舗」といった項目を有する。 The left side of FIG. 1 shows an example of a product information storage unit 121 that stores various information related to masks as a product, among the storage units of the server device 100, which is an example of a display control device. The product information storage unit 121 shown in FIG. 1 has items such as "series information," "first type," "second type," "product ID," "AR information," and "store."

「シリーズ情報」は、サーバ装置100に対応する事業者(マスク販売メーカー)である事業者Tによるマスク商品に関するシリーズ情報を示す。「シリーズ情報」に対応付けられる商品(「商品ID」で識別される商品)は、「シリーズ情報」が示す商品シリーズに対応する。図1の例では、シリーズ情報「今春発売新商品」に対して、商品ID「PD11」で識別されるマスク商品(マスクPD11)が対応付けられている。係る例は、マスクPD11は、事業者Tにより今春発売された新商品シリーズ(ラインナップ)のうちの1つである例を示す。 "Series information" indicates series information about mask products by business operator T, which is a business operator (mask sales manufacturer) corresponding to the server device 100. Products (products identified by "product ID") associated with "series information" correspond to the product series indicated by "series information". In the example of Figure 1, a mask product (mask PD11) identified by product ID "PD11" is associated with the series information "New products released this spring". In this example, mask PD11 is one of the new product series (lineup) released by business operator T this spring.

「第1タイプ」および「第2タイプ」は、マスクを用途(例えば、女性用、子供用など)、形状(プリーツ型、立体型など)、各種スペック(着用した際の付け心地、マスクを介して発散される息の状況など)などで分類するための分類情報、すなわち、マスクのカテゴリに対応し、「第1タイプ」および「第2タイプ」は、それぞれカバーする範囲(粒度)が異なる。具体的には、「第2タイプ」は、「第1タイプ」よりも粒度の狭いカテゴリである。換言すると、「第2タイプ」は、「第1タイプ」に対して下位のカテゴリに相当する。また、このようなことから、「第1タイプ」および「第2タイプ」は、階層構造の関係性にある。 The "first type" and "second type" correspond to classification information for classifying masks by purpose (e.g., for women, for children, etc.), shape (pleated, three-dimensional, etc.), various specifications (comfort when worn, breath released through the mask, etc.), etc., i.e., mask categories, and the "first type" and "second type" each cover a different range (granularity). Specifically, the "second type" is a category with a narrower granularity than the "first type." In other words, the "second type" corresponds to a lower category than the "first type." Also, for this reason, the "first type" and the "second type" have a hierarchical relationship.

図1に示す商品情報記憶部121の例では、第1タイプとして、「TY11」・「TY12」・「TY13」・「TY14」が示されている。また、図1に示す商品情報記憶部121の例では、第1タイプ「TY11」には、第2タイプとして、「TY11-1」および「TY11-2」が対応付けられている。また、図1に示す商品情報記憶部121の例では、第1タイプ「TY12」には、第2タイプとして、「TY12-1」および「TY12-2」が対応付けられている。また、図1に示す商品情報記憶部121の例では、第1タイプ「TY13」には、第2タイプとして、「TY13-1」および「TY13-2」が対応付けられている。また、図1に示す商品情報記憶部121の例では、第1タイプ「TY14」には、第2タイプとして、「TY14-1」および「TY14-2」が対応付けられている。 In the example of the product information storage unit 121 shown in FIG. 1, "TY11", "TY12", "TY13", and "TY14" are shown as the first type. Also, in the example of the product information storage unit 121 shown in FIG. 1, the first type "TY11" is associated with "TY11-1" and "TY11-2" as the second type. Also, in the example of the product information storage unit 121 shown in FIG. 1, the first type "TY12" is associated with "TY12-1" and "TY12-2" as the second type. Also, in the example of the product information storage unit 121 shown in FIG. 1, the first type "TY13" is associated with "TY13-1" and "TY13-2" as the second type. In addition, in the example of the product information storage unit 121 shown in FIG. 1, the first type "TY14" is associated with "TY14-1" and "TY14-2" as second types.

「商品ID」は、マスク商品を識別する識別情報を示す。「商品ID」は、マスク商品を識別可能な情報であればいかなる情報であってもよく、「商品ID」としては、例えば、商品番号、商品名(ブランド名)が挙げられる。また、「商品ID」で識別される各マスク商品は、表示候補のマスク商品といえる。 "Product ID" indicates identification information that identifies a mask product. "Product ID" may be any information that can identify a mask product, and examples of "product ID" include product numbers and product names (brand names). Furthermore, each mask product identified by a "product ID" can be said to be a display candidate mask product.

「AR情報」は、マスクの仮想的な画像(例えば、マスクを3次元的に示す仮想的な立体画像)であるAR画像を生成するための元となる情報であり、少なくともマスクの形状を示す情報が含まれる。また、「AR情報」は、マスクの形状を示す物品情報の一例である。また、「AR情報」には、マスクのデフォルトの色や模様を示す情報も含まれてよい。図1に示す商品情報記憶部121の例では、商品ID「PD11」で識別されるマスク商品であるマスクPD11に対して、AR情報「3D11」が対応付けられている。係る例では、AR情報「3D11」には、マスクPD11の特徴的な形状を示す情報が物品情報として含まれる。例えば、マスクPD11は、プリーツタイプであるとともに、事業者T特有の形状を有しているマスク商品であるとすると、AR情報「3D11」には、この特徴的な形状を示す情報が含まれる。 "AR information" is information that is the basis for generating an AR image, which is a virtual image of a mask (for example, a virtual stereoscopic image showing a mask in three dimensions), and includes at least information indicating the shape of the mask. Furthermore, "AR information" is an example of product information that indicates the shape of a mask. Furthermore, "AR information" may also include information indicating the default color or pattern of the mask. In the example of the product information storage unit 121 shown in FIG. 1, AR information "3D11" is associated with mask PD11, which is a mask product identified by product ID "PD11". In this example, AR information "3D11" includes information indicating the characteristic shape of mask PD11 as product information. For example, if mask PD11 is a pleated type mask product that has a shape specific to business operator T, AR information "3D11" includes information indicating this characteristic shape.

「取扱店舗」は、商品IDで識別されるマスク商品を取り扱っている店舗を示す情報である。例えば、「取扱店舗」は、商品IDで識別されるマスク商品を取り扱っている店舗を識別する店舗ID、店舗名、店舗所在地などである。 "Stores that sell the mask product identified by the product ID" is information that indicates a store that sells the mask product identified by the product ID. For example, "stores that sell the mask product" is a store ID, store name, store location, etc. that identifies a store that sells the mask product identified by the product ID.

次に、店頭ポップについて説明する。図1の右側には、店頭ポップが付された状態でマスクが陳列される陳列コーナーの一例が示される。図1の例では、商品情報記憶部121で管理されているマスク商品のうち、マスクPD21が、店舗SH1の店頭に設置される陳列コーナーCN11に置かれた状態で販売されている様子が示されている。また、図1の例では、陳列コーナーCN11の最前部に、「スマホで簡単に装着体験!」と記載された店頭ポップP21が付されている。また、店頭ポップP21には、実施形態に係る表示制御のトリガーとなるQRコード(登録商標)として、コード情報QR21が示されている。また、コード情報QR21には、例えば、マスクPD21を識別する商品IDが含まれている。したがって、利用者は、自身の端末装置10を介して、マスクを着用した際の自身の見た目をシミュレーションしたい場合、まずは、端末装置10の撮像手段(図6に示す撮像部13)を用いて、端末装置10にコード情報QR21を入力することで、端末装置10にコード情報QR21を読み取らせる。 Next, the in-store POP will be described. On the right side of FIG. 1, an example of a display corner where masks are displayed with an in-store POP attached is shown. In the example of FIG. 1, among the mask products managed in the product information storage unit 121, a mask PD21 is shown being sold in a display corner CN11 installed in the store SH1. In addition, in the example of FIG. 1, an in-store POP P21 with the words "Easily try wearing it with your smartphone!" is attached to the front of the display corner CN11. In addition, the in-store POP P21 shows code information QR21 as a QR code (registered trademark) that triggers the display control according to the embodiment. In addition, the code information QR21 includes, for example, a product ID that identifies the mask PD21. Therefore, when a user wants to simulate how he or she will look when wearing a mask via his or her own terminal device 10, first, the user inputs the code information QR21 into the terminal device 10 using the imaging means of the terminal device 10 (the imaging unit 13 shown in FIG. 6) to cause the terminal device 10 to read the code information QR21.

なお、例えば、店舗SH1は、マスクPD21の他にもマスクPD22を取り扱っている場合、陳列コーナーCN11の隣の陳列コーナーCN12(付図示)においてマスクPD22が陳列され、また、陳列コーナーCN12には、マスクPD22に対応する店頭ポップP22(付図示)が付される。ここで、店頭ポップP22に示されるQRコードは、店頭ポップP21と同様のコード情報QR21であってもよいし、マスクPD22を識別する商品IDが含まれる他のQRコードであってもよい。 For example, if store SH1 sells mask PD22 in addition to mask PD21, mask PD22 is displayed in display corner CN12 (see attached figure) next to display corner CN11, and display corner CN12 is provided with an in-store POP P22 (see attached figure) corresponding to mask PD22. Here, the QR code shown on the in-store POP P22 may be the same code information QR21 as the in-store POP P21, or may be another QR code including a product ID that identifies mask PD22.

また、異なるマスク商品それぞれのシミュレーションを行いたい場合、その都度、マスク商品毎のQRコードを入力するのは面倒な場合がある。したがって、1つの店舗が事業者Tにおける複数の異なるマスク商品を陳列している場合であっても、このうちのいずれかのマスク商品にだけQRコードが対応付けられていてもよい。また、1つの店舗が事業者Tにおける複数の異なるマスク商品を陳列しているにも拘わらず、QRコードは1つという場合であっても、表示候補のマスク商品の中から、表示を希望するマスク商品を選択させることで、利用者がシミレーションしたいと考えるマスク商品に対応するマスク画像を表示させることができるようになる。この点については、図2で詳細に説明する。 Furthermore, when simulating different mask products, it may be cumbersome to input the QR code for each mask product each time. Therefore, even if a single store displays multiple different mask products from business T, a QR code may be associated with only one of these mask products. Even if a single store displays multiple different mask products from business T but has only one QR code, it is possible to display a mask image corresponding to the mask product that the user wishes to simulate by having the user select the mask product they wish to display from among the mask products that are candidates for display. This point will be explained in detail in FIG. 2.

〔5.表示制御処理について〕
ここからは、図2~図4を用いて、実施形態に係る表示制御処理の一例について説明する。図2では、実施形態に係る表示制御処理のうち、利用者による入力に応じて、サーバ装置100が、入力された情報に応じたマスク商品に対応するAR情報を取得するまでの処理について説明する。また、図3では、端末装置10が、アプリAP11に従って動作する場合の表示制御処理の一例について説明する。また、図4では、端末装置10が、アプリAP12に従って動作する場合の表示制御処理の一例について説明する。
5. Display control process
From here, an example of the display control process according to the embodiment will be described with reference to Fig. 2 to Fig. 4. Fig. 2 describes the display control process according to the embodiment, in which the server device 100 acquires AR information corresponding to a mask product according to input information in response to an input by a user. Fig. 3 describes an example of the display control process when the terminal device 10 operates according to the application AP11. Fig. 4 describes an example of the display control process when the terminal device 10 operates according to the application AP12.

また、図2~図4では、利用者U1が自身の端末装置10を用いて、マスクを着用した際の見た目をシミュレーションしようとする場合を想定する。より具体的には、利用者U1は、店舗SH1の陳列コーナーCN11に置かれるマスクPD21を着用した際の見た目をシミュレーションするために、店頭ポップP21に示されるコード情報QR21を入力する場合を想定する。 In addition, in Figures 2 to 4, it is assumed that user U1 is using his/her terminal device 10 to simulate how he/she will look when wearing a mask. More specifically, it is assumed that user U1 enters code information QR21 shown on an in-store POP P21 to simulate how he/she will look when wearing mask PD21 placed in display corner CN11 of store SH1.

〔5-1.表示制御処理(1)について〕
まず、図2を用いて、サーバ装置100が、利用者による入力に応じて、入力された情報に応じたマスク商品に対応するAR情報を取得するまでの処理について説明する。図2は、実施形態に係る表示制御処理の一例(1)を示す図である。
5-1. Display control process (1)
First, a process in which the server device 100 acquires AR information corresponding to a mask product according to input information by a user will be described with reference to Fig. 2. Fig. 2 is a diagram showing an example (1) of a display control process according to an embodiment.

まず、利用者U1が、端末装置のカメラ(図6に示す撮像部13)を用いて、QRコードであるコード情報QR21を端末装置10に入力したとする。係る例では、コード情報QR21は、利用者U1による入力情報といえる。また、コード情報は、マスク商品が陳列されている陳列棚に付された識別情報ともいえる。 First, assume that user U1 inputs code information QR21, which is a QR code, into terminal device 10 using the camera of the terminal device (imaging unit 13 shown in FIG. 6). In this example, code information QR21 can be considered as information input by user U1. Furthermore, code information can also be considered as identification information attached to the display shelf on which mask products are displayed.

そして、端末装置10は、QRコードの入力を受け付けると、QRコードを読み取ることにより、QRコードで示される商品IDを検出する(ステップS11)。具体的には、端末装置10は、コード情報QR21の入力を受け付けると、コード情報QR21を読み取ることにより、コード情報QR21で示される商品IDを検出する。図1の例では、端末装置10は、商品IDとして、マスクPD21を示す商品ID「PD21」を検出したものとする。 Then, when the terminal device 10 accepts the input of the QR code, it reads the QR code to detect the product ID indicated by the QR code (step S11). Specifically, when the terminal device 10 accepts the input of the code information QR21, it reads the code information QR21 to detect the product ID indicated by the code information QR21. In the example of FIG. 1, it is assumed that the terminal device 10 detects the product ID "PD21" indicating the mask PD21 as the product ID.

次に、端末装置10は、検出した商品IDをサーバ装置100に送信する。例えば、端末装置10は、所定のアプリケーションを介して、検出した商品IDをサーバ装置100に送信する。例えば、端末装置10にアプリAP11がインストールされている場合、端末装置10は、アプリAP11の制御に従い、検出した商品IDをサーバ装置100に送信する。また、端末装置10にはアプリAP11がインストールされていない一方で、アプリAP12がインストールされている場合(すなわち、アプリAP12に対応するウェブアプリであるブラウザがインストールされている場合)、端末装置10は、アプリAP12を介して、検出した商品IDをサーバ装置100に送信する。このような送信により、サーバ装置100は、端末装置10から商品IDを取得する(ステップS12)。具体的には、サーバ装置100は、端末装置10が商品ID「PD21」を送信したことにより、端末装置10から商品ID「PD21」を取得する。 Next, the terminal device 10 transmits the detected product ID to the server device 100. For example, the terminal device 10 transmits the detected product ID to the server device 100 via a predetermined application. For example, if the application AP11 is installed in the terminal device 10, the terminal device 10 transmits the detected product ID to the server device 100 according to the control of the application AP11. Also, if the application AP11 is not installed in the terminal device 10 but the application AP12 is installed (i.e., if a browser, which is a web application corresponding to the application AP12, is installed), the terminal device 10 transmits the detected product ID to the server device 100 via the application AP12. By such transmission, the server device 100 acquires the product ID from the terminal device 10 (step S12). Specifically, the server device 100 acquires the product ID "PD21" from the terminal device 10 as a result of the terminal device 10 transmitting the product ID "PD21".

なお、コード情報QR21に店舗SH1を識別する店舗IDが含まれている場合、端末装置10は、商品IDとともにこの店舗IDもサーバ装置100に送信してもよい。これにより、サーバ装置100は、商品情報記憶部121の「取扱店舗」と、端末装置10から取得した「店舗ID」とのマッチングにより、店舗SH1で取り扱われているマスク商品のうち、事業者Tのマスク商品を特定することが可能となる。 If the code information QR21 includes a store ID that identifies store SH1, the terminal device 10 may transmit this store ID to the server device 100 along with the product ID. This enables the server device 100 to identify mask products from operator T among the mask products sold at store SH1 by matching the "store" in the product information storage unit 121 with the "store ID" acquired from the terminal device 10.

次に、サーバ装置100は、商品IDに基づいて、表示候補のマスク商品を特定し、特定した表示候補のマスク商品から、表示を希望するマスク商品を選択させる選択コンテンツを生成する(ステップS13)。具体的には、サーバ装置100は、商品ID「PD21」に基づいて、表示候補のマスク商品を特定し、特定した表示候補のマスク商品から、表示を希望するマスク商品を選択させる選択コンテンツを生成する。 Next, the server device 100 identifies mask products that are candidates for display based on the product ID, and generates selection content that allows the user to select a mask product that the user wants to display from the identified mask products that are candidates for display (step S13). Specifically, the server device 100 identifies mask products that are candidates for display based on the product ID "PD21", and generates selection content that allows the user to select a mask product that the user wants to display from the identified mask products that are candidates for display.

例えば、サーバ装置100は、商品ID「PD21」で識別されるマスクPD21、および、マスクPD21に関連するマスク商品を表示候補のマスク商品として特定する。図1に示す商品情報記憶部121の例によると、マスクPD11およびマスクPD12は、マスクPD21と同一シリーズの商品であって、また、ブランドの観点からも関連しているものとする。したがって、図2の例では、サーバ装置100は、マスクPD21に関連するマスク商品であるマスクPD11およびマスクPD12を抽出し、結果的に、マスクPD11、マスクPD12、マスクPD21を表示候補のマスク商品として特定したものとする。 For example, the server device 100 identifies the mask PD21 identified by the product ID "PD21" and mask products related to the mask PD21 as mask products to be displayed. According to the example of the product information storage unit 121 shown in FIG. 1, masks PD11 and PD12 are products in the same series as mask PD21, and are also related from the perspective of brand. Therefore, in the example of FIG. 2, the server device 100 extracts masks PD11 and PD12, which are mask products related to mask PD21, and as a result, masks PD11, PD12, and PD21 are identified as mask products to be displayed.

また、係る例では、マスクPD11、マスクPD12、マスクPD21は、識別情報に応じて特定されたマスクの一例である。また、ステップS13の処理について、サーバ装置100は、識別情報に応じて特定された使い捨て着用物品として、識別情報で識別される着用物品、および、識別情報で識別される着用物品に関連する着用物品を、表示候補の使い捨て着用物品として特定する、と概念的に表記することができる。なお、関連商品と特定するための判断材料は、シリーズやブランドに限定される必要はない。 In this example, mask PD11, mask PD12, and mask PD21 are examples of masks identified according to the identification information. The process of step S13 can be conceptually expressed as the server device 100 identifying, as disposable wearable articles identified according to the identification information, wearable articles identified by the identification information, and wearable articles related to the wearable article identified by the identification information, as disposable wearable articles to be displayed. Note that the criteria for identifying related products do not need to be limited to series or brand.

ここで、選択コンテンツの生成の一例について、図1に示す商品情報記憶部121の例を用いて説明する。例えば、サーバ装置100は、マスクPD21が属するカテゴリのうち粒度のより広いカテゴリ(より上位のカテゴリ)である第1のカテゴリに対応する第1タイプ「TY12」、および、マスクPD11とマスクPD12とが属するカテゴリのうち粒度のより広いカテゴリ(より上位のカテゴリ)である第1のカテゴリに対応する第1タイプ「TY11」のうちのいずれかを選択させる選択コンテンツC111を生成する。 Here, an example of the generation of selection content will be described using the example of the product information storage unit 121 shown in FIG. 1. For example, the server device 100 generates selection content C111 that allows the user to select either a first type "TY12" corresponding to the first category, which is a broader category (higher category) among the categories to which the mask PD21 belongs, or a first type "TY11" corresponding to the first category, which is a broader category (higher category) among the categories to which the masks PD11 and PD12 belong.

また、サーバ装置100は、第1のカテゴリより粒度の狭い(すなわち、第1のカテゴリに対して下位の)第2のカテゴリに対応する第2タイプであって、マスクPD21の第1タイプに対応する第2タイプ「TY12-1」および「TY12-2」のうちのいずれかを選択させる選択コンテンツC111-1を生成する。また、サーバ装置100は、第1のカテゴリより粒度の狭い(すなわち、第1のカテゴリに対して下位の)第2のカテゴリに対応する第2タイプであって、マスクPD11およびマスクPD12の第1タイプに対応する第2タイプ「TY11-1」および「TY11-2」のうちのいずれかを選択させる選択コンテンツC111-2を生成する。 The server device 100 also generates selection content C111-1 that allows the user to select one of the second types "TY12-1" and "TY12-2" that correspond to the first type of mask PD21 and are a second type corresponding to a second category that is narrower in granularity than the first category (i.e., lower in granularity than the first category). The server device 100 also generates selection content C111-2 that allows the user to select one of the second types "TY11-1" and "TY11-2" that correspond to the first types of mask PD11 and mask PD12 and are a second type corresponding to a second category that is narrower in granularity than the first category (i.e., lower in granularity than the first category).

また、サーバ装置100は、選択コンテンツC111において第1タイプ「TY11」が選択された場合には選択コンテンツC111-2に遷移され、選択コンテンツC111において第1タイプ「TY12」が選択された場合には選択コンテンツC111-1に遷移されるように選択コンテンツC11を生成する。具体的には、サーバ装置100は、上記のような遷移が実現されるよう選択コンテンツC111、選択コンテンツC111-1、選択コンテンツC111-2を組み合わせることで、選択コンテンツC11を生成する。これにより、利用者U1は、第1のカテゴリを選択し、選択した第1のカテゴリに対応する第2のカテゴリをさらに選択することで、表示を希望するマスク商品を絞り込むことができる。 Furthermore, the server device 100 generates the selected content C11 so that when the first type "TY11" is selected in the selected content C111, the selected content C111 transitions to the selected content C111-2, and when the first type "TY12" is selected in the selected content C111, the selected content C111 transitions to the selected content C111-1. Specifically, the server device 100 generates the selected content C11 by combining the selected content C111, the selected content C111-1, and the selected content C111-2 so that the transition described above is realized. This allows the user U1 to narrow down the mask products that he or she wishes to display by selecting a first category and then further selecting a second category that corresponds to the selected first category.

なお、サーバ装置100は、図2で示した例のように、階層構造の関係にあるカテゴリを順に選択させることで、表示を希望するマスク商品を絞り込ませるのではなく、単純に、表示候補のマスク商品それぞれを示す商品情報(例えば、商品名)が一覧表示される一覧コンテンツを生成することで、一覧の中から表示を希望するマスク商品を選択させてもよい。 In addition, instead of having the user select categories in a hierarchical structure in order to narrow down the mask products that the user wants to display, as in the example shown in FIG. 2, the server device 100 may simply generate list content that lists product information (e.g., product names) indicating each of the mask products that are candidates for display, and allow the user to select the mask products that the user wants to display from the list.

また、サーバ装置100は、利用者U1に関する利用者情報に基づいて、表示候補のマスク商品の中から、利用者U1に応じた表示候補のマスク商品を特定する。そして、サーバ装置100は、特定した表示候補のマスク商品それぞれを示す商品情報(例えば、商品名)が一覧表示される一覧コンテンツを生成することで、一覧の中から表示を希望するマスク商品を選択させてもよい。例えば、サーバ装置100は、利用者U1にの属性情報(例えば、年齢や性別など)、あるいは、利用者U1の嗜好性(例えば、好みの形状、色、スペック)に基づいて、表示候補のマスク商品の中から、利用者U1に応じた表示候補のマスク商品を特定する。例えば、サーバ装置100は、利用者U1の行動を示す行動情報(例えば、購買履歴や閲覧履歴)に基づいて、利用者U1の嗜好性を推定することができる。 The server device 100 also identifies a display candidate mask product corresponding to the user U1 from among the display candidate mask products based on the user information on the user U1. The server device 100 may generate a list content in which product information (e.g., product name) indicating each of the identified display candidate mask products is displayed in a list, thereby allowing the user to select a mask product to be displayed from the list. For example, the server device 100 identifies a display candidate mask product corresponding to the user U1 from among the display candidate mask products based on attribute information (e.g., age, gender, etc.) of the user U1 or the preferences (e.g., preferred shape, color, specifications) of the user U1. For example, the server device 100 can estimate the preferences of the user U1 based on behavioral information (e.g., purchase history, browsing history) indicating the behavior of the user U1.

また、サーバ装置100は、利用者U1が現在利用している店舗(図2の例では、店舗SH1)で取り扱われている取扱商品の中から、利用者U1に応じた表示候補のマスク商品を特定してもよい。例えば、サーバ装置100は、利用者U1の位置情報から利用者U1が現在利用している店舗を特定し、特定した店舗で取り扱われている取扱商品の中から、利用者U1に応じた表示候補のマスク商品を特定してもよい。また、例えば、サーバ装置100は、ステップS12において、商品IDとともに店舗IDも取得できている場合には、取得た店舗IDで識別される店舗で取り扱われている取扱商品の中から、利用者U1に応じた表示候補のマスク商品を特定してもよい。 The server device 100 may also identify mask products to be displayed according to user U1 from among the products handled at the store currently used by user U1 (store SH1 in the example of FIG. 2). For example, the server device 100 may identify the store currently used by user U1 from the location information of user U1, and identify mask products to be displayed according to user U1 from among the products handled at the identified store. Also, for example, if the server device 100 has acquired the store ID along with the product ID in step S12, it may identify mask products to be displayed according to user U1 from among the products handled at the store identified by the acquired store ID.

図2の説明に戻り、サーバ装置100は、ステップS13で生成した選択コンテンツを利用者U1に送信する(ステップS14)。具体的には、サーバ装置100は、選択コンテンツC11を利用者U1の端末装置10に送信する。 Returning to the explanation of FIG. 2, the server device 100 transmits the selected content generated in step S13 to the user U1 (step S14). Specifically, the server device 100 transmits the selected content C11 to the terminal device 10 of the user U1.

そうすると、利用者U1は、選択コンテンツC11で表示される第1タイプ(第1のカテゴリ)のうち、表示を希望するマスク商品に対応していると思われる第1タイプを選択し、また、選択に応じて遷移した選択コンテンツC11で表示される第2タイプ(第2のカテゴリ)のうち、表示を希望するマスク商品に対応していると思われる第2タイプを選択する。このような選択に応じて、端末装置10は、選択されたカテゴリを示すカテゴリ情報をサーバ装置100に送信する(ステップS15)。図2の例では、利用者U1は、選択コンテンツC111-2において第2タイプ「TY12-1」を選択したとすると、端末装置10は、第2タイプ「TY12-1」を示すカテゴリ情報をサーバ装置100に送信する。 The user U1 then selects a first type that is believed to correspond to the mask product desired to be displayed from among the first types (first category) displayed in the selected content C11, and also selects a second type that is believed to correspond to the mask product desired to be displayed from among the second types (second category) displayed in the selected content C11 to which the selection has been made. In response to such selections, the terminal device 10 transmits category information indicating the selected category to the server device 100 (step S15). In the example of FIG. 2, if the user U1 selects the second type "TY12-1" in the selected content C111-2, the terminal device 10 transmits category information indicating the second type "TY12-1" to the server device 100.

サーバ装置100は、カテゴリ情報を受信すると、受信したカテゴリ情報に基づいて、選択されたカテゴリに属するマスク商品の形状を示すAR情報(物品情報の一例)を取得する(ステップS16)。例えば、サーバ装置100は、第2タイプ「TY12-1」を示すカテゴリ情報を受信したとすると、第2タイプ「TY12-1」に属するマスク商品を特定し、特定したマスク商品の形状を示すAR情報を商品情報記憶部121から取得する。図1に示す商品情報記憶部121の例では、サーバ装置100は、第2タイプ「TY12-1」に属するマスク商品としてマスクPD21を特定し、マスクPD21の形状を示すAR情報としてAR情報3D21を商品情報記憶部121から取得する。 When the server device 100 receives the category information, it acquires AR information (an example of product information) indicating the shape of a mask product belonging to the selected category based on the received category information (step S16). For example, if the server device 100 receives category information indicating the second type "TY12-1", it identifies a mask product belonging to the second type "TY12-1" and acquires AR information indicating the shape of the identified mask product from the product information storage unit 121. In the example of the product information storage unit 121 shown in FIG. 1, the server device 100 identifies a mask PD21 as a mask product belonging to the second type "TY12-1" and acquires AR information 3D21 from the product information storage unit 121 as AR information indicating the shape of the mask PD21.

なお、第2タイプ「TY12-1」に属するマスク商品が複数存在する場合には、サーバ装置100は、これらマスク商品を示す商品情報を利用者U1に提示することで、表示を希望するマスク商品を選択させてもよい。 If there are multiple mask products belonging to the second type "TY12-1", the server device 100 may present product information indicating these mask products to the user U1, allowing the user U1 to select the mask product he or she wishes to display.

また、これまでの例では、サーバ装置100が、表示候補のマスク商品の中から、表示を希望するマスク商品を絞り込ませたり、表示候補のマスク商品の中から、表示を希望するマスク商品そのものを選択させる例を示した。しかし、サーバ装置100は、端末装置10から取得したQRコードによって、表示候補のマスク商品の中から一意にマスク商品が決まる場合には、このマスク商品のAR情報を取得してもよい。例えば、コード情報QR21で示される商品IDが商品ID「PD21」である場合には、商品ID「PD21」によってマスク商品は1つのマスクPD21に決まる。また、マスクPD21は、利用者U1が目をとめた陳列コーナーCN11において現在陳列されているマスク商品である。 In the above examples, the server device 100 narrows down the mask products desired to be displayed from among the mask products that are candidates for display, or selects the mask product desired to be displayed from among the mask products that are candidates for display. However, if the QR code acquired from the terminal device 10 uniquely determines a mask product from among the mask products that are candidates for display, the server device 100 may acquire AR information for this mask product. For example, if the product ID indicated by the code information QR21 is product ID "PD21", the mask product is determined to be one mask PD21 by product ID "PD21". Furthermore, mask PD21 is a mask product currently displayed in the display corner CN11 that caught the eye of user U1.

したがって、サーバ装置100は、ステップS12で商品ID「PD21」を取得した図2の例では、ステップS13~S16を行うことなく、マスクPD21のAR情報としてAR情報3D21を取得してもよい。また、このような処理について、サーバ装置100は、識別情報で識別される使い捨て着用物品であって、陳列棚に現在陳列されている使い捨て着用物品の形状を示す物品情報を取得する、と概念的に表記することができる。 Therefore, in the example of FIG. 2 where the server device 100 acquires the product ID "PD21" in step S12, the server device 100 may acquire AR information 3D21 as the AR information for the mask PD21 without performing steps S13 to S16. Furthermore, this type of processing can be conceptually expressed as the server device 100 acquiring product information indicating the shape of a disposable wearable product that is identified by the identification information and is currently displayed on a display shelf.

図2の説明に戻り、サーバ装置100は、ステップS16で取得したAR情報を利用者U1に送信する(ステップS17)。具体的には、サーバ装置100は、ステップS16で取得したAR情報3D21を利用者の端末装置10に送信する。 Returning to the explanation of FIG. 2, the server device 100 transmits the AR information acquired in step S16 to the user U1 (step S17). Specifically, the server device 100 transmits the AR information 3D21 acquired in step S16 to the user's terminal device 10.

〔5-2.表示制御処理(2)について〕
ここまで、図2を用いて、サーバ装置100が、利用者による入力に応じて、入力された情報に応じたマスク商品に対応するAR情報を取得するまでの処理について説明してきた。ここからは、図3を用いて、端末装置10が、アプリAP11に従って動作する場合の表示制御処理の一例について説明する。図3は、実施形態に係る表示制御処理の一例(2)を示す図である。また、以下に説明する処理は、図2のステップS17に続く処理である。
5-2. Display control process (2)
Up to this point, the process in which the server device 100 acquires AR information corresponding to a mask product according to the input information by a user has been described with reference to Fig. 2. From here, an example of a display control process in which the terminal device 10 operates according to the application AP11 will be described with reference to Fig. 3. Fig. 3 is a diagram showing an example (2) of a display control process according to an embodiment. The process described below is a process following step S17 in Fig. 2.

端末装置10は、サーバ装置100からAR情報を取得すると、取得したAR情報からマスク画像を生成する(ステップS21)。具体的には、端末装置10は、サーバ装置100からAR情報3D21を取得すると、AR情報3D21が示す形状であって、マスクPD21の形状に基づいて、この形状を仮想的に再現する立体画像をマスクPD21のマスク画像として生成する。図3の例では、端末装置10は、このようなマスク画像としてマスク画像GP21を生成したものとする。 When the terminal device 10 acquires AR information from the server device 100, the terminal device 10 generates a mask image from the acquired AR information (step S21). Specifically, when the terminal device 10 acquires AR information 3D21 from the server device 100, the terminal device 10 generates a stereoscopic image that virtually reproduces the shape indicated by the AR information 3D21 based on the shape of the mask PD21 as a mask image of the mask PD21. In the example of FIG. 3, the terminal device 10 generates a mask image GP21 as such a mask image.

また、端末装置10は、AR情報を取得したことに応じて、カメラを動的に起動するとともに、起動したカメラの撮影範囲内に顔全体が含まれるように顔を撮影するよう案内する案内情報を表示画面(図6に示す出力部14)に表示させる(ステップS22)。例えば、アプリAP11がカメラアプリとしての機能も有する場合には、端末装置10は、アプリAP11内でカメラ(図6に示す撮像部13)を動的に起動することで、表示画面にカメラによる現在の撮影画像を表示させる。一方、アプリAP11がカメラアプリとしての機能を有さない場合には、端末装置10は、予めインストールされている所定のカメラアプリを動的に起動することで、表示画面にカメラによる現在の撮影画像を表示させてもよい。なお、端末装置10は、利用者U1が自身の顔を撮影できるようインカメラを起動する。 In addition, in response to acquiring the AR information, the terminal device 10 dynamically activates the camera and displays guidance information on the display screen (output unit 14 shown in FIG. 6) that guides the user to capture a picture of the face so that the entire face is included within the capture range of the activated camera (step S22). For example, if the app AP11 also has a function as a camera app, the terminal device 10 dynamically activates the camera (imaging unit 13 shown in FIG. 6) in the app AP11 to display the current image captured by the camera on the display screen. On the other hand, if the app AP11 does not have a function as a camera app, the terminal device 10 may dynamically activate a predetermined camera app that has been installed in advance to display the current image captured by the camera on the display screen. The terminal device 10 activates the in-camera so that the user U1 can capture his or her own face.

また、端末装置10は、カメラによる撮影範囲に対応する枠情報と、例えば、「この枠の中に顔が入るようにして撮影して下さい」といった文字情報から成る案内情報を表示画面に表示させる。 In addition, the terminal device 10 displays on the display screen frame information corresponding to the range of photography by the camera and guidance information consisting of text information such as "Please take a photo so that your face is within this frame."

カメラは、起動されている限り連続的に撮影し続ける。したがって、端末装置10は、カメラによる撮影画像を順次取得することにより、取得した各撮影画像に基づいて、利用者U1の顔のパーツを検出する(ステップS23)。例えば、端末装置10は、撮影画像に基づいて、マスクを仮想的に装着させるパーツであって、利用者U1の顔のパーツを検出する。例えば、端末装置10は、利用者U1の目・鼻・口・耳を検出する。また、端末装置10は、利用者U1の顎のラインの形状や、利用者U1の顔の向きであって、利用者U1を撮影するカメラに対する顔の向きも検出する。また、端末装置10は、利用者U1の顔のサイズをさらに検出(推定)してもよい。 The camera continues to take pictures continuously as long as it is activated. Therefore, the terminal device 10 sequentially acquires images captured by the camera, and detects the facial features of user U1 based on each acquired captured image (step S23). For example, the terminal device 10 detects the facial features of user U1 that are the parts on which a mask is virtually worn, based on the captured images. For example, the terminal device 10 detects the eyes, nose, mouth, and ears of user U1. The terminal device 10 also detects the shape of user U1's jaw line and the orientation of user U1's face relative to the camera capturing the image of user U1. The terminal device 10 may also detect (estimate) the size of user U1's face.

また、端末装置10は、上記のように検出した検出結果に基づいて、マスクを仮想的に装着させるパーツであって、利用者U1の顔のパーツが現在の撮影画像に含まれるか否かを判定し、含まれないと判定した場合には、顔のパーツを含むように撮影するよう案内情報を表示画面に表示させてもよい。例えば、端末装置10は、検出結果に基づいて、マスクの利用用途に応じた顔のパーツ(例えば、例えば、鼻よりも下の顔の部分)の全て/または一部を検出できない場合には、利用者U1の顔のパーツが現在の撮影画像に含まれないと判定する。そして、端末装置10は、撮影範囲に対応する枠情報と、例えば、「顔が映っていません。この枠の中に顔が入るようにして撮影して下さい」といった文字情報から成る案内情報を表示画面に表示させる。 Furthermore, the terminal device 10 may determine whether or not the facial parts of the user U1 that are the parts to virtually wear a mask are included in the current captured image based on the detection result detected as described above, and if it determines that they are not included, may display guidance information on the display screen to capture the image so that the facial parts are included. For example, if the terminal device 10 cannot detect all/part of the facial parts (e.g., the part of the face below the nose) according to the use of the mask based on the detection result, it determines that the facial parts of the user U1 are not included in the current captured image. Then, the terminal device 10 displays guidance information on the display screen, which consists of frame information corresponding to the capture range and text information such as, for example, "Your face is not captured. Please capture the image so that your face is within this frame."

次に、端末装置10は、検出した顔のパーツに基づいて、AR情報が示す形状のマスクを利用者U1が仮想的に装着した態様で、利用者U1が撮影された現在の撮影画像に当該マスクのマスク画像を重畳した状態で表示させる(ステップS24)。具体的には、端末装置10は、検出した顔のパーツに基づいて、AR情報3D21が示す形状のマスクPD21を利用者U1が仮想的に装着した態様で、利用者U1が撮影された現在の撮影画像にマスクPD21のマスク画像GP21を重畳した状態で表示させる。例えば、端末装置10は、検出した顔のパーツに基づいて、マスクの利用用途に応じた適切な顔の位置に対してAR情報3D21が示す形状のマスクPD21が位置するよう、現在の撮影画像にマスク画像GP21を重畳した状態で表示させる。 Next, the terminal device 10 displays a mask image of the mask superimposed on the current captured image of the user U1, with the user U1 virtually wearing a mask having a shape indicated by the AR information based on the detected facial features (step S24). Specifically, the terminal device 10 displays a mask image GP21 of the mask PD21 superimposed on the current captured image of the user U1, with the user U1 virtually wearing a mask PD21 having a shape indicated by the AR information 3D21 based on the detected facial features. For example, the terminal device 10 displays the mask image GP21 superimposed on the current captured image so that the mask PD21 having a shape indicated by the AR information 3D21 is positioned at an appropriate face position according to the use of the mask, based on the detected facial features.

また、端末装置10は、利用者U1の顎のラインの形状を検出している場合には、検出した形状に合うようにマスク画像GP21の形状を制御する。また、端末装置10は、利用者U1の顔のサイズを検出している場合には、検出したサイズに合うようにマスク画像GP21の形状を制御する。また、端末装置10は、利用者U1の顔の向きであって、利用者U1を撮影するカメラに対する顔の向きを検出している場合には、検出した向きに合うようにマスク画像GP21の形状を制御する。例えば、利用者がカメラに対して右を向いている場合には、向きに合わせてAR情報3D21を回転させることで、マスク画像GP21の形状を制御する。 When the terminal device 10 detects the shape of the jaw line of user U1, it controls the shape of the mask image GP21 to match the detected shape. When the terminal device 10 detects the size of the face of user U1, it controls the shape of the mask image GP21 to match the detected size. When the terminal device 10 detects the orientation of the face of user U1 relative to the camera capturing the image of user U1, it controls the shape of the mask image GP21 to match the detected orientation. For example, when the user is facing to the right relative to the camera, it controls the shape of the mask image GP21 by rotating the AR information 3D21 to match the orientation.

そして、端末装置10は、制御した後の形状のマスクPD21を利用者U1が仮想的に装着した態様で、利用者U1が撮影された現在の撮影画像にマスクPD21のマスク画像GP21を重畳した状態で表示させる。具体的には、端末装置10は、マスクの利用用途に応じた適切な顔の位置に対して、制御した後の形状のマスクPD21が位置するよう、現在の撮影画像にマスク画像GP21を重畳した状態で表示させる。 Then, the terminal device 10 displays a mask image GP21 of the mask PD21 superimposed on the current captured image of the user U1, with the user U1 virtually wearing the mask PD21 in the controlled shape. Specifically, the terminal device 10 displays the mask image GP21 superimposed on the current captured image so that the mask PD21 in the controlled shape is positioned at an appropriate face position according to the intended use of the mask.

また、端末装置10は、マスク画像GP21が利用者U1の顔の動きの変化に追従するよう表示させる。また、端末装置10は、マスク画像GP21が利用者U1の顔の向きの変化に応じて、マスク画像GP21の形状を制御する。 The terminal device 10 also displays the mask image GP21 so that it follows changes in the movement of the user U1's face. The terminal device 10 also controls the shape of the mask image GP21 in response to changes in the orientation of the user U1's face.

〔5-3.表示制御処理(2)について〕
次に、図4を用いて、端末装置10が、アプリAP12に従って動作する場合の表示制御処理の一例について説明する。図4は、実施形態に係る表示制御処理の一例(3)を示す図である。また、以下に説明する処理は、図2のステップS16に続く処理である。
5-3. Display control process (2)
Next, an example of a display control process in the case where the terminal device 10 operates according to the application AP12 will be described with reference to Fig. 4. Fig. 4 is a diagram showing an example (3) of the display control process according to the embodiment. The process described below is a process following step S16 in Fig. 2.

図1のステップS16で説明したように、サーバ装置100は、AR情報を商品情報記憶部121から取得すると、取得したAR情報からマスク画像を生成する(ステップS31)。具体的には、サーバ装置100は、マスクPD21の形状を示すAR情報としてAR情報3D21を商品情報記憶部121から取得すると、AR情報3D21が示す形状であって、マスクPD21に基づいて、この形状を仮想的に再現する立体画像をマスクPD21のマスク画像として生成する。図4の例では、サーバ装置100は、このようなマスク画像として、図3の例と同様にマスク画像GP21を生成したものとする。 As described in step S16 of FIG. 1, when the server device 100 acquires AR information from the product information storage unit 121, it generates a mask image from the acquired AR information (step S31). Specifically, when the server device 100 acquires AR information 3D21 from the product information storage unit 121 as AR information indicating the shape of the mask PD21, it generates a stereoscopic image that virtually reproduces the shape indicated by the AR information 3D21 based on the mask PD21 as a mask image of the mask PD21. In the example of FIG. 4, the server device 100 generates mask image GP21 as such a mask image, similar to the example of FIG. 3.

また、サーバ装置100は、カメラの撮影範囲内に顔全体が含まれるように顔を撮影するよう案内する案内情報を利用者U1の端末装置10に送信する(ステップS32)。例えば、サーバ装置100は、カメラの撮影範囲内に顔全体が含まれるように顔を撮影するよう案内する案内情報を端末装置10に送信する。 The server device 100 also transmits guidance information to the terminal device 10 of the user U1 to guide the user to photograph the face so that the entire face is included within the shooting range of the camera (step S32). For example, the server device 100 transmits guidance information to the terminal device 10 to guide the user to photograph the face so that the entire face is included within the shooting range of the camera.

端末装置10は、案内情報を受信すると、案内情報を受信したことに応じて、カメラを動的に起動するとともに、受信した案内情報を表示画面(図6に示す出力部14)に表示させる(ステップS33)。例えば、アプリAP12がカメラアプリとしての機能も有する場合には、端末装置10は、アプリAP12内でカメラ(図6に示す撮像部13)を動的に起動することで、表示画面にカメラによる現在の撮影画像を表示させる。一方、アプリAP12がカメラアプリとしての機能を有さない場合には、端末装置10は、予めインストールされている所定のカメラアプリを動的に起動することで、表示画面にカメラによる現在の撮影画像を表示させてもよい。なお、端末装置10は、利用者U1が自身の顔を撮影できるようインカメラを起動する。 When the terminal device 10 receives the guidance information, it dynamically activates the camera in response to the reception of the guidance information and displays the received guidance information on the display screen (output unit 14 shown in FIG. 6) (step S33). For example, if the app AP12 also has a function as a camera app, the terminal device 10 dynamically activates the camera (imaging unit 13 shown in FIG. 6) within the app AP12 to display the current image captured by the camera on the display screen. On the other hand, if the app AP12 does not have a function as a camera app, the terminal device 10 may dynamically activate a predetermined camera app that has been installed in advance to display the current image captured by the camera on the display screen. The terminal device 10 activates the front camera so that the user U1 can take a picture of his or her own face.

また、端末装置10は、カメラによる撮影範囲に対応する枠情報と、例えば、「この枠の中に顔が入るようにして撮影して下さい」といった文字情報から成る案内情報を表示画面に表示させる。 In addition, the terminal device 10 displays on the display screen frame information corresponding to the range of photography by the camera and guidance information consisting of text information such as "Please take a photo so that your face is within this frame."

カメラは、起動されている限り連続的に撮影し続ける。したがって、端末装置10は、アプリAP12を介して、カメラによる撮影画像を順次サーバ装置に送信する。これにより、サーバ装置100は、端末装置10カメラによって撮影が行われている間は、アプリAPを介して、端末装置10から順次撮影画像を取得する(ステップS34)。 The camera continues to capture images continuously as long as it is activated. Therefore, the terminal device 10 sequentially transmits images captured by the camera to the server device via the app AP12. As a result, while the terminal device 10 camera is capturing images, the server device 100 sequentially acquires captured images from the terminal device 10 via the app AP (step S34).

次に、サーバ装置100は、取得した各撮影画像に基づいて、利用者U1の顔のパーツを検出する(ステップS35)。例えば、サーバ装置100は、撮影画像に基づいて、マスクを仮想的に装着させるパーツであって、利用者U1の顔のパーツを検出する。例えば、サーバ装置100は、利用者U1の目・鼻・口・耳を検出する。また、サーバ装置100は、利用者U1の顎のラインの形状や、利用者U1の顔の向きであって、利用者U1を撮影するカメラに対する顔の向きも検出する。また、サーバ装置100は、利用者U1の顔のサイズをさらに検出(推定)してもよい。 Next, the server device 100 detects the facial features of user U1 based on each captured image (step S35). For example, the server device 100 detects the facial features of user U1 that are the parts on which a mask is virtually worn based on the captured images. For example, the server device 100 detects the eyes, nose, mouth, and ears of user U1. The server device 100 also detects the shape of user U1's jaw line and the direction of user U1's face relative to the camera capturing the image of user U1. The server device 100 may also detect (estimate) the size of user U1's face.

また、サーバ装置100は、上記のように検出した検出結果に基づいて、マスクを仮想的に装着させるパーツであって、利用者U1の顔のパーツが現在の撮影画像に含まれるか否かを判定する。そして、サーバ装置100は、含まれないと判定した場合には、顔のパーツを含むように撮影するよう案内情報を端末装置10に送信することで、係る案内情報を表示画面に表示させてもよい。例えば、サーバ装置100は、検出結果に基づいて、マスクの利用用途に応じた顔のパーツ(例えば、例えば、鼻よりも下の顔の部分)の全て/または一部を検出できない場合には、利用者U1の顔のパーツが現在の撮影画像に含まれないと判定する。そして、サーバ装置100は、撮影範囲に対応する枠情報と、例えば、「顔が映っていません。この枠の中に顔が入るようにして撮影して下さい」といった文字情報から成る案内情報を端末装置10に送信することによりこれを表示させる。 Based on the detection result as described above, the server device 100 determines whether the facial parts of the user U1, which are the parts to virtually wear the mask, are included in the current captured image. If the server device 100 determines that the facial parts are not included, the server device 100 may transmit guidance information to the terminal device 10 to take a picture so that the facial parts are included, thereby displaying the guidance information on the display screen. For example, if the server device 100 cannot detect all/part of the facial parts (e.g., the part of the face below the nose) according to the use of the mask based on the detection result, the server device 100 determines that the facial parts of the user U1 are not included in the current captured image. The server device 100 transmits guidance information consisting of frame information corresponding to the capture range and text information such as, for example, "Your face is not captured. Please capture the picture so that your face is within this frame" to the terminal device 10, thereby displaying the guidance information.

図4の説明に戻ると、サーバ装置100は、検出した顔のパーツに基づいて、ステップS31で生成したマスク画像を端末装置10に表示させる(ステップS36)。具体的には、サーバ装置100は、検出した顔のパーツに基づいて、マスク画像GP21を端末装置10の表示画面に表示させる。例えば、サーバ装置100は、連続的に端末装置10から撮影画像を取得することにより、撮影画像を取得するたびに、取得した撮影画像に対して顔のパーツを検出する。このため、サーバ装置100は、顔のパーツを検出する度に、検出結果を端末装置10に送信することで、端末装置10に対して、検出結果と現在の撮影画像とに基づきマスク画像GP21を表示するよう制御する。 Returning to the explanation of FIG. 4, the server device 100 causes the terminal device 10 to display the mask image generated in step S31 based on the detected facial parts (step S36). Specifically, the server device 100 causes the display screen of the terminal device 10 to display the mask image GP21 based on the detected facial parts. For example, the server device 100 continuously acquires captured images from the terminal device 10, and detects facial parts in the acquired captured images each time a captured image is acquired. Therefore, each time a facial part is detected, the server device 10 transmits the detection result to the terminal device 10, thereby controlling the terminal device 10 to display the mask image GP21 based on the detection result and the current captured image.

このようなステップS36での制御により、端末装置10は、AR情報が示す形状のマスクを利用者U1が仮想的に装着した態様で、利用者U1が撮影された現在の撮影画像に当該マスクのマスク画像を重畳した状態で表示させる。具体的には、端末装置10は、検出結果と現在の撮影画像とに基づいて、AR情報3D21が示す形状のマスクPD21を利用者U1が仮想的に装着した態様で、利用者U1が撮影された現在の撮影画像にマスクPD21のマスク画像GP21を重畳した状態で表示させる。例えば、端末装置10は、検出結果と現在の撮影画像とに基づいて、マスクの利用用途に応じた適切な顔の位置に対してAR情報3D21が示す形状のマスクPD21が位置するよう、現在の撮影画像にマスク画像GP21を重畳した状態で表示させる。 By such control in step S36, the terminal device 10 displays a mask image of the mask indicated by the AR information superimposed on the current captured image of the user U1, with the user U1 virtually wearing the mask. Specifically, based on the detection result and the current captured image, the terminal device 10 displays a mask image GP21 of the mask PD21 superimposed on the current captured image of the user U1, with the user U1 virtually wearing the mask PD21 of the shape indicated by the AR information 3D21. For example, based on the detection result and the current captured image, the terminal device 10 displays the mask image GP21 superimposed on the current captured image so that the mask PD21 of the shape indicated by the AR information 3D21 is positioned at an appropriate face position according to the intended use of the mask.

なお、図4の例では、サーバ装置100が端末装置10にマスク画像を送信することにより、端末装置10は、サーバ装置100からマスク画像を取得している。ここで、マスク画像は、AR情報から生成されたものであるため、端末装置10がサーバ装置100からマスク画像を取得することは、実質、端末装置10がサーバ装置100からAR情報を取得することに相当する。 In the example of FIG. 4, the server device 100 transmits a mask image to the terminal device 10, and the terminal device 10 acquires the mask image from the server device 100. Here, since the mask image is generated from AR information, the terminal device 10 acquiring the mask image from the server device 100 is essentially equivalent to the terminal device 10 acquiring the AR information from the server device 100.

さて、これまで説明してきたように、実施形態に係る表示制御装置(例えば、端末装置10)は、利用者による入力情報に応じて特定された使い捨て着用物品の形状を示す物品情報を取得し、取得した物品情報が示す形状の使い捨て着用物品を利用者が仮想的に装着した態様で、利用者が撮影された撮影画像に当該使い捨て着用物品の画像を重畳した状態で表示させる。 As described above, the display control device (e.g., terminal device 10) according to the embodiment acquires article information indicating the shape of a disposable wearable article specified in response to information input by a user, and displays an image of the disposable wearable article superimposed on an image captured by the user in a state in which the user is virtually wearing the disposable wearable article having the shape indicated by the acquired article information.

そして、表示制御装置によるこのような表示制御処理によれば、利用者は、端末装置10を介して、使い捨て着用物品(例えば、マスク)を着用した際の自身の見た目をシミュレーションすることができるようになるため、使い捨て着用物品が利用者に適した商品であるか否かを購入前に効果的に認識させることができる。 The display control process performed by the display control device allows the user to simulate how they would look wearing a disposable wearable item (e.g., a mask) via the terminal device 10, allowing the user to effectively recognize whether the disposable wearable item is suitable for them before they purchase it.

また、表示制御装置によるこのような表示制御処理によれば、商品としての使い捨て着用物品の訴求力を高めることができるため、使い捨て着用物品を取り扱う店舗の売上に貢献することができる。 In addition, such display control processing by the display control device can increase the appeal of the disposable wearable article as a commodity, thereby contributing to sales at stores that handle disposable wearable articles.

〔6.バリエーションについて〕
上記実施形態に係る表示制御装置は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、表示制御装置の他の実施形態について説明する。
[6. Variations]
The display control device according to the above embodiment may be implemented in various different forms other than the above embodiment, so other embodiments of the display control device will be described below.

〔6-1.端末装置について〕
これまでは、端末装置10は、利用者が有する端末装置であるものとして説明してきたが、端末装置10は、例えば、店頭に置かれた端末装置(例えば、タブレット端末やデジタルサイネ-ジなど)であってもよい。したがって、ここでは、端末装置10が、店頭に置かれた端末装置である場合における表示制御処理について説明する。端末装置10が、店頭に置かれた端末装置である場合、例えば、店頭の前を通りがかった利用者が、係る端末装置10が有するカメラの撮影範囲内に入ると、係る端末装置10の表示画面には、実施形態に係る表示制御による結果が表示されるという状況が考えられる。具体的には、店頭の前を通りがかった利用者が、係る端末装置10が有するカメラの撮影範囲内に入ると、端末装置10の表示画面には、マスクを仮想的に装着した状態で利用者が表示される。
[6-1. About terminal devices]
Up to now, the terminal device 10 has been described as a terminal device owned by a user, but the terminal device 10 may be, for example, a terminal device placed in a store (for example, a tablet terminal or a digital signage). Therefore, here, the display control process in the case where the terminal device 10 is a terminal device placed in a store will be described. When the terminal device 10 is a terminal device placed in a store, for example, when a user passing in front of the store enters the shooting range of the camera of the terminal device 10, a situation is considered in which the result of the display control according to the embodiment is displayed on the display screen of the terminal device 10. Specifically, when a user passing in front of the store enters the shooting range of the camera of the terminal device 10, the user is displayed on the display screen of the terminal device 10 in a state where he or she is virtually wearing a mask.

端末装置10が、店頭に置かれた端末装置である場合(特に、デジタルサイネ-ジである場合)、利用者が端末装置10に対してQRコードを入力するのは困難である。したがって、係る例では、入力情報は、マスク商品が陳列されている陳列棚に付された識別情報(QRコード)ではなく、利用者が動的に撮影された撮影画像となる。具体的には、係る例では、利用者が端末装置10の前を通りがかることで、カメラの撮影範囲に入り、この結果動的に撮影されることになった撮影画像が、利用者による入力情報となる。また、このようなことから、端末装置10は、利用者が撮影された撮影画像を係る利用者による入力情報として、撮影画像に応じて特定されたマスクの形状を示すAR情報を取得する。 When the terminal device 10 is a terminal device placed in a store (particularly when it is a digital signage), it is difficult for the user to input a QR code into the terminal device 10. Therefore, in this example, the input information is not the identification information (QR code) attached to the display shelf on which the mask products are displayed, but an image captured dynamically by the user. Specifically, in this example, when a user passes in front of the terminal device 10, they enter the camera's shooting range, and the captured image that is captured dynamically as a result becomes the input information by the user. For this reason, the terminal device 10 obtains AR information indicating the shape of the mask identified according to the captured image, using the captured image captured by the user as input information by the user.

そして、このように、端末装置10が、店頭に置かれた端末装置である場合、係る端末装置10が実施形態に係る表示制御処理を行うことで、利用者の興味を高め店舗へと利用者を効果的に誘導することができるようになる。 In this way, when the terminal device 10 is a terminal device placed in a store, the terminal device 10 performs the display control process according to the embodiment, thereby increasing the interest of users and effectively guiding the users to the store.

〔6-2.利用者操作に応じて着用物品の態様を制御(1)〕
上記実施形態では、端末装置10が、撮影画像から利用者の顔のサイズを検出(推定)できている場合には、検出したサイズに合うようにマスク画像の形状を制御し、現在の撮影画像に制御した後のマスク画像を重畳した状態で表示させる例を示した。しかし、端末装置10は、利用者の操作に応じて、マスクの態様を制御してもよい。
6-2. Controlling the state of the worn article in response to user operation (1)
In the above embodiment, when the terminal device 10 detects (estimates) the size of the user's face from the captured image, the terminal device 10 controls the shape of the mask image to match the detected size, and displays the mask image after the control in a state where it is superimposed on the currently captured image. However, the terminal device 10 may control the state of the mask in response to an operation by the user.

例えば、端末装置10は、利用者によりマスクの色または模様が指定された場合には、マスク画像として、指定された色または模様のマスク画像を撮影画像に重畳させる。この点について、図3の例を用いて説明する。例えば、図3の例では、マスクPD21のカラーバリエーションとして、白、黒、ピンクがあるものとする。そうすると、端末装置10は、はじめはデフォルト色(例えば、白色)のマスクPD21を示すマスク画像GP、すなわち白色のマスク画像GP21を表示させる。 For example, when a mask color or pattern is specified by the user, the terminal device 10 superimposes a mask image of the specified color or pattern on the captured image as a mask image. This will be explained using the example of FIG. 3. For example, in the example of FIG. 3, the color variations of the mask PD21 are white, black, and pink. In this case, the terminal device 10 initially displays a mask image GP showing the mask PD21 in a default color (e.g., white), i.e., a white mask image GP21.

このような状態において、端末装置10は、白、黒、ピンクの中から任意の色を選択可能な色選択コンテンツを表示画面に表示させる。そして、例えば、利用者U1が色選択コンテンツを介して「ピンク」を指定したとすると、現在表示されているマスク画像GP21の色を白からピンクへと制御(変更)する。また、ここでは色の指定を例に説明したが、端末装置10は、模様でも同様の処理を行うことができる。 In this state, the terminal device 10 displays color selection content on the display screen, which allows the user to select any color from white, black, and pink. For example, if user U1 selects "pink" via the color selection content, the color of the currently displayed mask image GP21 is controlled (changed) from white to pink. Also, although color selection has been described as an example here, the terminal device 10 can also perform similar processing with patterns.

そして、このような表示制御処理によれば、利用者は、端末装置10を介して、使い捨て着用物品(例えば、マスク)の色や模様によって自身のイメージがどのように変化するかをシミュレーションすることができるようになるため、どのような色や模様の使い捨て着用物品が利用者に適した商品であるか否かを購入前に効果的に認識させることができる。 This display control process allows the user to simulate, via the terminal device 10, how the color and pattern of a disposable wearable item (e.g., a mask) will affect his or her own image, allowing the user to effectively recognize whether or not a disposable wearable item of a certain color or pattern is suitable for the user before purchasing it.

〔6-3.利用者操作に応じて着用物品の態様を制御(2)〕
また、端末装置10は、利用者によりマスクのサイズが指定された場合には、マスク画像として、指定されたサイズに応じたサイズのマスク画像を撮影画像に重畳させる。この点について、図3の例を用いて説明する。例えば、端末装置10は、小さいサイズ、普通サイズ、大きいサイズの中から任意のサイズを選択可能なサイズ選択コンテンツを表示画面に表示させる。そして、例えば、利用者U1がサイズ選択コンテンツを介して「大きいサイズ」を指定したとすると、現在表示されているマスク画像GP21のサイズを「大きいサイズ」に応じたサイズへと制御(変更)する。
6-3. Controlling the state of the worn article in response to user operation (2)
Furthermore, when a mask size is specified by the user, the terminal device 10 superimposes a mask image of a size corresponding to the specified size on the captured image as a mask image. This point will be described using the example of Fig. 3. For example, the terminal device 10 displays size selection content on the display screen that allows a user to select any size from small, normal, and large. Then, for example, if the user U1 specifies "large size" via the size selection content, the size of the currently displayed mask image GP21 is controlled (changed) to a size corresponding to the "large size".

そして、このような表示制御処理によれば、利用者は、端末装置10を介して、使い捨て着用物品(例えば、マスク)のサイズによって自身のイメージがどのように変化するかをシミュレーションすることができるようになるため、どのようなサイズの使い捨て着用物品が利用者に適した商品であるか否かを購入前に効果的に認識させることができる。 This display control process allows the user to simulate, via the terminal device 10, how their image changes depending on the size of the disposable wearable item (e.g., a mask), allowing the user to effectively recognize whether a certain size of disposable wearable item is suitable for the user before purchasing the product.

〔6-4.インストールの案内表示〕
また、端末装置10は、利用者に関する利用者情報に基づき特定された利用者であって、撮影画像に使い捨て着用物品の画像を重畳した状態で表示させるアプリケーションであるアプリAP11を導入していない利用者の端末装置に対して、アプリAP11をインストールするよう案内する案内情報を表示させてもよい。
[6-4. Installation guide display]
In addition, the terminal device 10 may display guidance information to guide a user who has been identified based on user information about the user and who has not installed the app AP11, which is an application that displays an image of a disposable wearable item superimposed on a captured image, to install the app AP11.

例えば、サーバ装置100は、事業者Tに対して所定の登録を行っている利用者を示す情報と、アプリAP11をインストール済みの利用者を示す情報とのマッチングにより、事業者Tに対して所定の登録を行っている利用者のうち、アプリAP11を未インストールの利用者を特定する。そして、サーバ装置100は、特定した利用者の端末装置10にアプリAP11をインストールするよう案内する案内情報を送信する。これにより、端末装置10は、アプリAP11をインストールするよう案内する案内情報を表示画面に表示させる。 For example, the server device 100 identifies users who have registered with the business operator T but have not yet installed the app AP11 by matching information indicating users who have registered with the business operator T with information indicating users who have installed the app AP11. The server device 100 then transmits guidance information to the terminal device 10 of the identified user to guide the user to install the app AP11. As a result, the terminal device 10 displays the guidance information to guide the user to install the app AP11 on the display screen.

なお、サーバ装置100は、事業者Tに関連するコンテンツにアクセスしたことのある利用者を示すクッキー情報と、アプリAP11をインストール済みの利用者を示す情報とのマッチングにより、事業者Tに関連するコンテンツのアクセスしたことのある利用者のうち、アプリAP11を未インストールの利用者を特定してもよい。 The server device 100 may identify users who have accessed content related to the provider T but have not installed the app AP11 by matching cookie information indicating users who have accessed content related to the provider T with information indicating users who have installed the app AP11.

また、サーバ装置100は、利用者の位置情報に基づいて、商品情報記憶部121における「取扱店舗」で示される店舗の周辺に位置した利用者を特定する。そして、サーバ装置100は、特定した利用者に関する情報(例えば、特定した利用者の端末ID)と、アプリAP11をインストール済みの利用者を示す情報とのマッチングにより、「取扱店舗」で示される店舗の周辺に位置した利用者のうち、アプリAP11を未インストールの利用者を特定してもよい。 The server device 100 also identifies users who are located in the vicinity of a store indicated by "Stores that carry the product" in the product information storage unit 121, based on the user's location information. The server device 100 may then identify users who have not installed the app AP11 among the users who are located in the vicinity of a store indicated by "Stores that carry the product", by matching information about the identified users (e.g., the terminal ID of the identified users) with information indicating users who have installed the app AP11.

このように、利用者に関する利用者情報に基づき特定された利用者であって、撮影画像に使い捨て着用物品の画像を重畳した状態で表示させるアプリケーションを導入していない利用者の端末装置に対して、当該アプリケーションを導入するよう案内する案内情報を表示させることで、使い捨て着用物品の装着体験を店頭で行わすための敷居を効果的に下げることができるようになる。 In this way, by displaying guidance information on a terminal device of a user who is identified based on user information about the user and who does not have an application installed that displays an image of a disposable wearable article superimposed on a captured image, guiding the user to install the application, it is possible to effectively lower the barrier to experiencing wearing disposable wearable articles in a store.

〔6-5.情報共有サービスへの投稿〕
また、端末装置10は、利用者が撮影された撮影画像であって、マスク画像が重畳された撮影画像に対して、所定の情報共有サービス(SNS)への投稿に応じた所定の情報を表示させてもよい。例えば、端末装置10は、撮影画像に対してマスク画像GP21が重畳して表示されている状態で、シャッターボタンが押下された場合には、マスク画像GP21が重畳されている撮影画像から静止画像を取得するとともに、取得した静止画像に所定の情報共有サービス(SNS)への投稿に応じた所定の情報を表示させる。例えば、端末装置10は、所定の情報として、マスクPD21に関する情報(例えば、事業者Tの会社ロゴ、マスクPD21の商品、マスクPD21のブランド名など)を表示させる。また、端末装置10は、所定の情報として、所定の情報共有サービスへの投稿を案内する案内情報を表示してもよい。係る案内情報は、例えば、「写真を撮って投稿しよう!」といった文字情報から成る案内情報である。
[6-5. Posting to information sharing services]
The terminal device 10 may also display predetermined information corresponding to posting to a predetermined information sharing service (SNS) on a captured image on which a mask image is superimposed, which is a captured image taken by a user. For example, when the shutter button is pressed in a state in which the mask image GP21 is superimposed and displayed on the captured image, the terminal device 10 acquires a still image from the captured image on which the mask image GP21 is superimposed, and displays predetermined information corresponding to posting to a predetermined information sharing service (SNS) on the acquired still image. For example, the terminal device 10 displays information on the mask PD21 (e.g., the company logo of the business operator T, the product of the mask PD21, the brand name of the mask PD21, etc.) as the predetermined information. The terminal device 10 may also display guidance information for guiding posting to a predetermined information sharing service as the predetermined information. The guidance information is, for example, guidance information consisting of text information such as "Take a photo and post it!"

このように、利用者が撮影された撮影画像であって、使い捨て着用物品の画像が重畳された撮影画像に対して、所定の情報共有サービスへの投稿に応じた所定の情報を表示させることで、所定の情報共有サービスを介して、使い捨て着用物品や、使い捨て着用物品の事業者について効果的に宣伝することができるようになる。 In this way, by displaying predetermined information corresponding to a post to a predetermined information sharing service on an image taken by a user on which an image of a disposable wearable item is superimposed, it becomes possible to effectively advertise disposable wearable items and businesses that sell disposable wearable items via the predetermined information sharing service.

〔6-6.比較〕
また、端末装置10は、利用者が撮影された撮影画像であって、マスク画像が重畳された撮影画像のうち、これまでに撮影された撮影画像を比較可能なように表示させてもよい。例えば、端末装置10は、利用者が撮影された撮影画像であって、マスク画像が重畳された撮影画像のうち、過去に撮影された撮影画像を、現在撮影されている撮影画像であって、マスク画像が重畳された撮影画像とともに表示させる。この点について、図5を用いて説明する。図5は、実施形態に係る画像比較の一例を示す図である。
[6-6. Comparison
Furthermore, the terminal device 10 may display images captured by the user that have been taken so far, among images on which a mask image has been superimposed, so that the images can be compared. For example, the terminal device 10 may detect a previously captured image of a user on which a mask image is superimposed, and a currently captured image on which a mask image is superimposed. The mask image is displayed together with the captured image on which it is superimposed. This point will be described with reference to Fig. 5. Fig. 5 is a diagram showing an example of image comparison according to the embodiment.

例えば、端末装置10は、選択コンテンツC11における利用者U1の1回目の選択内容に応じて、撮影画像にマスクPD31のマスク画像GP31を重畳した状態で表示させ、またこの状態でシャッターが押されたことにより、利用者U1がマスクPD31を仮想的に装着している静止画像SM3を取得しているものとする。 For example, the terminal device 10 displays a mask image GP31 of the mask PD31 superimposed on the captured image in response to the first selection made by the user U1 in the selected content C11, and when the shutter is pressed in this state, a still image SM3 is acquired in which the user U1 is virtually wearing the mask PD31.

このような状態において、今、図2~図3にかけてステップS23まで表示制御処理が進んでいるものとする。そうすると、端末装置10は、図3のステップS24で説明したように、検出した顔のパーツに基づいて、AR情報3D21が示す形状のマスクPD21を利用者U1が仮想的に装着した態様で、利用者U1が撮影された現在の撮影画像にマスクPD21のマスク画像GP21を重畳した状態で表示させる。このとき、端末装置10は、図5に示すような形態で表示を行う。 In this state, it is assumed that the display control process has progressed up to step S23 in Figures 2 and 3. Then, as explained in step S24 of Figure 3, the terminal device 10 displays a mask image GP21 of the mask PD21 superimposed on the current captured image of the user U1, with the user U1 virtually wearing a mask PD21 having the shape indicated by the AR information 3D21, based on the detected facial features. At this time, the terminal device 10 displays in the form shown in Figure 5.

例えば、端末装置10は、表示画面において撮影画像が表示される表示領域を、領域AR11および領域AR12といった2つの表示領域に分ける。そして、端末装置10は、予め取得している静止画像SM3を比較画像として領域AR11に表示させる。また、端末装置10は、このような表示とともに、領域AR12において、AR情報3D21が示す形状のマスクPD21を利用者U1が仮想的に装着した態様で、利用者U1が撮影された現在の撮影画像にマスクPD21のマスク画像GP21を重畳した状態で表示させる。 For example, the terminal device 10 divides the display area on the display screen where the captured image is displayed into two display areas, area AR11 and area AR12. The terminal device 10 then displays a still image SM3 acquired in advance in area AR11 as a comparison image. In addition to this display, the terminal device 10 also displays in area AR12 a mask image GP21 of the mask PD21 superimposed on the current captured image captured of the user U1, with the user U1 virtually wearing a mask PD21 having a shape indicated by the AR information 3D21.

このように、端末装置10は、過去に撮影された撮影画像を、現在撮影されている撮影画像であって、使い捨て着用物品の画像が重畳された撮影画像とともに表示させることで、利用者に対して、どの使い捨て着用物品が似合っているかを容易に比較させることができるため、使い捨て着用物品を購入後に購入した使い捨て着用物品が似合っていないことが判明してしまという状況になることを回避させることができる。 In this way, the terminal device 10 displays a previously captured image together with a currently captured image on which an image of a disposable wearable item is superimposed, thereby allowing the user to easily compare which disposable wearable item suits them best, thereby avoiding a situation in which the user finds out after purchasing a disposable wearable item that it does not suit them.

なお、端末装置10は、図5の例では、撮影画像が表示される表示領域を上下2つに分けているが、例えば、左右2つに分けてもよい。また、端末装置10は、撮影画像が表示される表示領域を必ず2つに分ける必要はなく、比較画像の数に応じて任意の数に分けることができる。 In the example of FIG. 5, the terminal device 10 divides the display area in which the captured image is displayed into two parts, an upper part and a lower part, but it may also be divided into two parts, for example, a left part and a right part. Furthermore, the terminal device 10 does not necessarily need to divide the display area in which the captured image is displayed into two parts, and it can be divided into any number of parts depending on the number of comparison images.

〔7.表示制御装置の構成〕
次に、図6を用いて、実施形態に係る表示制御装置について説明する。図6は、実施形態に係る情報処理装置の構成例を示す図である。具体的には、図6は、実施形態に係る情報処理装置の一例である端末装置10およびサーバ装置100の構成例を示す図である。以下では、まず、端末装置10の構成例について説明し、次に、サーバ装置100の構成例について説明する。
7. Configuration of the display control device
Next, a display control device according to an embodiment will be described with reference to Fig. 6. Fig. 6 is a diagram showing a configuration example of an information processing device according to an embodiment. Specifically, Fig. 6 is a diagram showing a configuration example of a terminal device 10 and a server device 100, which are examples of the information processing device according to an embodiment. In the following, first, a configuration example of the terminal device 10 will be described, and then a configuration example of the server device 100 will be described.

〔7-1.端末装置の構成〕
(通信部11について)
通信部11は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部11は、ネットワークNと有線または無線で接続され、例えば、サーバ装置100との間で情報の送受信を行う。
7-1. Configuration of terminal device
(Regarding communication unit 11)
The communication unit 11 is realized by, for example, a network interface card (NIC) etc. The communication unit 11 is connected to the network N by wire or wirelessly, and transmits and receives information to and from the server device 100, for example.

(入力部12、撮像部13、出力部14について)
入力部12は、利用者から各種操作を受け付ける入力装置である。例えば、入力部12は、キーボードやマウスや操作キー等によって実現される。出力部14は、各種情報を表示するための表示装置である。例えば、出力部14は、液晶ディスプレイ等によって実現される。なお、端末装置10にタッチパネルが採用された場合には、入力部12と出力部14とは一体化される。また、出力部14は、例えば、端末装置10の表示画面に対応する。また、撮像部13は、対象の撮像を行うカメラ機能に対応する。撮像部13は、例えば、実施形態に係る表示制御処理を行うアプリケーションによって制御される。
(Regarding the input unit 12, the imaging unit 13, and the output unit 14)
The input unit 12 is an input device that accepts various operations from a user. For example, the input unit 12 is realized by a keyboard, a mouse, operation keys, etc. The output unit 14 is a display device for displaying various information. For example, the output unit 14 is realized by a liquid crystal display, etc. Note that, when a touch panel is adopted in the terminal device 10, the input unit 12 and the output unit 14 are integrated. Also, the output unit 14 corresponds to, for example, a display screen of the terminal device 10. Also, the imaging unit 13 corresponds to a camera function that captures an image of a target. The imaging unit 13 is controlled, for example, by an application that performs a display control process according to the embodiment.

(制御部15について)
制御部15は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、端末装置10内部の記憶装置に記憶されている各種プログラム(例えば、アプリAP11またはアプリAP12)がRAMを作業領域として実行されることにより実現される。また、制御部15は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
(Regarding the control unit 15)
The control unit 15 is realized by a central processing unit (CPU), a micro processing unit (MPU), etc., executing various programs (e.g., the application AP11 or the application AP12) stored in a storage device inside the terminal device 10 using a RAM as a working area. The control unit 15 is also realized by an integrated circuit such as an application specific integrated circuit (ASIC) or a field programmable gate array (FPGA).

(制御部15について)
図6に示すように、制御部15は、取得部15aと、生成部15bと、検出部15cと、表示制御部15dとを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部15の内部構成は、図6に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部15が有する各処理部の接続関係は、図6に示した接続関係に限られず、他の接続関係であってもよい。
(Regarding the control unit 15)
As shown in Fig. 6, the control unit 15 has an acquisition unit 15a, a generation unit 15b, a detection unit 15c, and a display control unit 15d, and realizes or executes the functions and actions of the information processing described below. Note that the internal configuration of the control unit 15 is not limited to the configuration shown in Fig. 6, and may be other configurations as long as they perform the information processing described below. Also, the connection relationship between the processing units of the control unit 15 is not limited to the connection relationship shown in Fig. 6, and may be other connection relationships.

(取得部15aについて)
取得部15aは、利用者による入力情報に応じて特定された使い捨て着用物品の形状を示す物品情報を取得する。例えば、取得部15aは、サーバ装置100から物品情報を取得する。また、例えば、取得部15aは、使い捨て着用物品として、不織布で構成された使い捨てマスクの形状を示す物品情報(AR情報)を取得する。
(Regarding the acquisition unit 15a)
The acquiring unit 15a acquires article information indicating the shape of a disposable wearing article specified in response to information input by a user. For example, the acquiring unit 15a acquires the article information from the server device 100. Also, for example, the acquiring unit 15a acquires article information (AR information) indicating the shape of a disposable mask made of nonwoven fabric as the disposable wearing article.

また、取得部15aは、入力情報として、使い捨て着用物品が商品として陳列されている陳列棚に付された識別情報(QRコード)に応じて特定された使い捨て着用物品の形状を示す前記物品情報を取得する。 In addition, the acquisition unit 15a acquires, as input information, the article information indicating the shape of the disposable wearing article identified according to identification information (QR code) attached to the display shelf on which the disposable wearing article is displayed as a commodity.

例えば、取得部15aは、識別情報に応じて特定された使い捨て着用物品として、識別情報で識別される使い捨て着用物品であって、陳列棚に現在陳列されている使い捨て着用物品の形状を示す物品情報を取得する。 For example, the acquisition unit 15a acquires item information indicating the shape of a disposable wearable item identified by the identification information and currently displayed on a display shelf as a disposable wearable item specified according to the identification information.

また、例えば、取得部15aは、識別情報に応じて特定された使い捨て着用物品として、識別情報で識別される着用物品、および、識別情報で識別される着用物品に関連する着用物品である表示候補の使い捨て着用物品のうち、利用者により選択されたカテゴリに対応する使い捨て着用物品の形状を示す物品情報を取得してもよい。例えば、取得部15aは、利用者により選択された第1のカテゴリに属する表示候補の使い捨て着用物品のうち、利用者によりさらに選択された第2のカテゴリであって、第1のカテゴリに対する下位のカテゴリである第2のカテゴリに属する着用物品の形状を示す物品情報を取得する。一方で、取得部15aは、表示候補の使い捨て着用物品のうち、利用者により選択された使い捨て着用物品の形状を示す物品情報を取得してもよいし、利用者の属性情報または嗜好性に応じて特定された表示候補の使い捨て着用物品のうち、利用者により選択された使い捨て着用物品の形状を示す物品情報を取得してもよい。 For example, the acquisition unit 15a may acquire, as the disposable wearing article specified according to the identification information, the wearing article identified by the identification information, and the article information indicating the shape of the disposable wearing article corresponding to the category selected by the user from among the display candidate disposable wearing articles that are related to the wearing article identified by the identification information. For example, the acquisition unit 15a acquires, from among the display candidate disposable wearing articles that belong to the first category selected by the user, the article information indicating the shape of the wearing article that belongs to a second category that is further selected by the user and is a lower category than the first category. On the other hand, the acquisition unit 15a may acquire, from among the display candidate disposable wearing articles, the article information indicating the shape of the disposable wearing article selected by the user, or may acquire, from among the display candidate disposable wearing articles specified according to the attribute information or preference of the user, the article information indicating the shape of the disposable wearing article selected by the user.

また、取得部15aは、入力情報として、利用者が撮影された撮影画像に応じて特定された使い捨て着用物品の形状を示す物品情報を取得してもよい。 The acquisition unit 15a may also acquire, as input information, item information indicating the shape of a disposable wearable item identified according to an image captured of the user.

(生成部15bについて)
生成部15bは、物品情報を取得すると、取得した物品情報から使い捨て着用物品の画像を生成する。例えば、生成部15bは、サーバ装置100から物品情報を取得すると、取得した物品情報が示す形状であって、使い捨て着用物品の形状に基づいて、この形状を仮想的に再現する立体画像を生成する。
(Regarding the generation unit 15b)
When the generating unit 15b acquires the article information, the generating unit 15b generates an image of the disposable wearing article from the acquired article information. For example, when the generating unit 15b acquires the article information from the server device 100, the generating unit 15b generates a three-dimensional image that virtually reproduces the shape indicated by the acquired article information based on the shape of the disposable wearing article.

(検出部15cについて)
検出部15cは、利用者が撮影された撮影画像に基づいて、利用者の身体のパーツを検出する。例えば、検出部15cは、カメラ(撮像部13)による撮影画像を順次取得することにより、取得した各撮影画像に基づいて、利用者の身体のパーツを検出する。例えば、検出部15cは、撮影画像に基づいて、使い捨て着用物品を仮想的に装着させるパーツであって、利用者の身体のパーツを検出する。
(Regarding the detection unit 15c)
The detection unit 15c detects body parts of the user based on captured images of the user. For example, the detection unit 15c sequentially acquires captured images by the camera (imaging unit 13) and detects body parts of the user based on each acquired captured image. For example, the detection unit 15c detects body parts of the user that are virtually worn by the disposable wearable article based on the captured images.

例えば、検出部15cは、利用者が撮影された撮影画像に基づいて、利用者の顔のパーツを検出する。例えば、検出部15cは、利用者の目・鼻・口・耳を検出する。また、検出部15cは、利用者の顎のラインの形状や、利用者の顔の向きであって、利用者を撮影するカメラに対する顔の向きを検出する。また、検出部15cは、利用者の顔のサイズを検出する。 For example, the detection unit 15c detects the facial features of the user based on an image captured of the user. For example, the detection unit 15c detects the user's eyes, nose, mouth, and ears. The detection unit 15c also detects the shape of the user's jaw line and the direction of the user's face relative to the camera capturing the user's image. The detection unit 15c also detects the size of the user's face.

(表示制御部15dについて)
表示制御部15dは、物品情報が示す形状の使い捨て着用物品を利用者が仮想的に装着した態様で、利用者が撮影された撮影画像に当該使い捨て着用物品の画像を重畳した状態で表示させる。例えば、表示制御部15dは、利用者が撮影された撮影画像から検出された利用者の身体のパーツに基づいて、使い捨て着用物品の利用用途に応じた適切な身体の位置に対して物品情報が示す形状の使い捨て着用物品が位置するよう、撮影画像に使い捨て着用物品の画像を重畳した状態で表示させる。
(Regarding the display control unit 15d)
The display control unit 15d displays an image of a disposable wearable article having a shape indicated by the article information superimposed on a captured image of the user in a state in which the user virtually wears the disposable wearable article. For example, the display control unit 15d displays an image of the disposable wearable article superimposed on a captured image such that the disposable wearable article having a shape indicated by the article information is positioned at an appropriate body position according to the usage purpose of the disposable wearable article based on a body part of the user detected from the captured image of the user.

また、例えば、表示制御部15dは、撮影画像で示される利用者の顔の向きであって、利用者を撮影する撮影手段(撮像部13)に対する顔の向きに応じて、物品情報が示す形状を制御し、制御した形状の使い捨て着用物品を利用者が仮想的に装着した態様で、撮影画像に使い捨て着用物品の画像を重畳した状態で表示させる。また、例えば、表示制御部15dは、利用者の顔のサイズに応じて、使い捨て着用物品の画像のサイズを制御し、制御したサイズの画像を撮影画像に重畳させる。 For example, the display control unit 15d controls the shape indicated by the item information according to the orientation of the user's face shown in the captured image relative to the imaging means (imaging unit 13) that images the user, and displays an image of the disposable wearable item superimposed on the captured image in a manner in which the user is virtually wearing the disposable wearable item of the controlled shape.For example, the display control unit 15d controls the size of the image of the disposable wearable item according to the size of the user's face, and superimposes an image of the controlled size on the captured image.

また、表示制御部15dは、利用者により使い捨て着用物品の色または模様が指定された場合には、使い捨て着用物品の画像として、指定された色または模様の使い捨て着用物品の画像を撮影画像に重畳させる。例えば、表示制御部15dは、任意の色を選択可能な色選択コンテンツを表示画面に表示させる。そして、表示制御部15dは、現在表示されている使い捨て着用物品の画像の色を、色選択コンテンツにおいて指定された色へと制御(変更)する。なお、色選択コンテンツは、例えば、生成部15bによって生成される。例えば、生成部15bは、識別情報に応じて特定された使い捨て着用物品のカラーバリエーションに基づいて、色選択コンテンツを生成する。 When the color or pattern of the disposable wearing article is specified by the user, the display control unit 15d superimposes an image of the disposable wearing article of the specified color or pattern on the captured image as an image of the disposable wearing article. For example, the display control unit 15d displays color selection content on the display screen from which any color can be selected. Then, the display control unit 15d controls (changes) the color of the currently displayed image of the disposable wearing article to the color specified in the color selection content. The color selection content is generated by, for example, the generation unit 15b. For example, the generation unit 15b generates the color selection content based on the color variation of the disposable wearing article identified according to the identification information.

また、表示制御部15dは、利用者により使い捨て着用物品のサイズが指定された場合には、使い捨て着用物品の画像として、指定されたサイズに応じたサイズの画像を撮影画像に重畳させる。例えば、表示制御部15dは、小さいサイズ、普通サイズ、大きいサイズの中から任意のサイズを選択可能なサイズ選択コンテンツを表示画面に表示させる。そして、表示制御部15dは、在表示されている使い捨て着用物品の画像のサイズを、サイズ選択コンテンツにおいて指定されたサイズへと制御(変更)する。なお、サイズ選択コンテンツは、例えば、生成部15bによって生成される。例えば、生成部15bは、識別情報に応じて特定された使い捨て着用物品のサイズバリエーションに基づいて、サイズ選択コンテンツを生成する。 When the size of the disposable wearing article is specified by the user, the display control unit 15d superimposes an image of the disposable wearing article of a size corresponding to the specified size on the captured image. For example, the display control unit 15d displays size selection content on the display screen, which allows the user to select any size from small, normal, and large. The display control unit 15d then controls (changes) the size of the currently displayed image of the disposable wearing article to the size specified in the size selection content. The size selection content is generated by, for example, the generation unit 15b. For example, the generation unit 15b generates the size selection content based on the size variations of the disposable wearing article identified according to the identification information.

また、表示制御部15dは、利用者に関する利用者情報に基づき特定された利用者であって、撮影画像に使い捨て着用物品の画像を重畳した状態で表示させるアプリケーションを導入していない利用者の端末装置に対して、当該アプリケーションを導入するよう案内する案内情報を表示させてもよい。 The display control unit 15d may also display guidance information on a terminal device of a user who is identified based on the user information about the user and who does not have an application installed that displays an image of a disposable wearable article superimposed on a captured image, guiding the user to install the application.

また、表示制御部15dは、入力情報が入力された後において、使い捨て着用物品を仮想的に装着させるパーツであって、利用者の身体のパーツが、利用者が撮影された撮影画像に含まれないと判定された場合には、当該パーツを含むように撮影するよう案内情報を表示させてもよい。 In addition, after the input information is input, if it is determined that a part of the user's body that is to be virtually worn by the disposable wearable article is not included in the captured image of the user, the display control unit 15d may display guidance information to take a photograph that includes the part.

また、表示制御部15dは、利用者が撮影された撮影画像であって、使い捨て着用物品の画像が重畳された撮影画像のうち、これまでに撮影された撮影画像を比較可能なように表示させてもよい。例えば、表示制御部15dは、利用者が撮影された撮影画像であって、使い捨て着用物品の画像が重畳された撮影画像のうち、過去に撮影された撮影画像を、現在撮影されている撮影画像であって、使い捨て着用物品の画像が重畳された撮影画像とともに表示させる。また、このようなことから端末装置10は、撮影画像を記憶する記憶部を有してもよい。例えば、端末装置10は、シャッター押下により撮影画像から得られた静止画像を記憶する記憶部を有してもよい。 The display control unit 15d may also display images taken in the past among images taken of the user on which an image of a disposable wearable item is superimposed, so that the images can be compared. For example, the display control unit 15d displays images taken in the past among images taken of the user on which an image of a disposable wearable item is superimposed, together with an image currently being taken on which an image of a disposable wearable item is superimposed. For this reason, the terminal device 10 may have a storage unit that stores the captured images. For example, the terminal device 10 may have a storage unit that stores a still image obtained from the captured image by pressing the shutter.

また、表示制御部15dは、利用者が撮影された撮影画像であって、使い捨て着用物品の画像が重畳された撮影画像に対して、所定の情報共有サービスへの投稿に応じた所定の情報を表示させてもよい。例えば、表示制御部15dは、所定の情報として、使い捨て着用物品に関する情報を表示させる。例えば、表示制御部15dは、使い捨て着用物品の画像が重畳して表示されている状態で、シャッターボタンが押下された場合には、使い捨て着用物品の画像が重畳されている撮影画像から静止画像を取得する。そして、表示制御部15dは、取得した静止画像に所定の情報共有サービス(SNS)への投稿に応じた所定の情報を表示させる。例えば、表示制御部15dは、所定の情報として、使い捨て着用物品に関する情報(例えば、会社ロゴ、使い捨て着用物品の商品名、使い捨て着用物品のブランド名など)を表示させる。また、表示制御部15dは、所定の情報として、所定の情報共有サービスへの投稿を案内する案内情報を表示してもよい。 The display control unit 15d may display predetermined information corresponding to a posting to a predetermined information sharing service on a photographed image taken by a user on which an image of a disposable wearable article is superimposed. For example, the display control unit 15d displays information related to the disposable wearable article as the predetermined information. For example, when the shutter button is pressed while an image of the disposable wearable article is superimposed and displayed, the display control unit 15d acquires a still image from the photographed image on which the image of the disposable wearable article is superimposed. Then, the display control unit 15d displays predetermined information corresponding to a posting to a predetermined information sharing service (SNS) on the acquired still image. For example, the display control unit 15d displays information related to the disposable wearable article (for example, a company logo, a product name of the disposable wearable article, a brand name of the disposable wearable article, etc.) as the predetermined information. The display control unit 15d may display guidance information for guiding a posting to a predetermined information sharing service as the predetermined information.

〔7-2.サーバ装置の構成〕
(通信部110について)
通信部110は、例えば、NIC等によって実現される。そして、通信部110は、ネットワークNと有線または無線で接続され、例えば、端末装置10との間で情報の送受信を行う。
7-2. Server Device Configuration
(Regarding communication unit 110)
The communication unit 110 is realized by, for example, a NIC etc. The communication unit 110 is connected to the network N by wire or wirelessly, and transmits and receives information to and from the terminal device 10, for example.

(記憶部120について)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子またはハードディスク、光ディスク等の記憶装置によって実現される。記憶部120は、図1で説明した商品情報記憶部121を有する。
(Regarding the storage unit 120)
The storage unit 120 is realized by, for example, a semiconductor memory element such as a RAM (Random Access Memory) or a flash memory, or a storage device such as a hard disk, an optical disk, etc. The storage unit 120 has the product information storage unit 121 described in FIG.

(制御部130について)
制御部130は、CPUやMPU等によって、サーバ装置100内部の記憶装置に記憶されている各種プログラム(例えば、アプリAP11またはアプリAP12)がRAMを作業領域として実行されることにより実現される。また、制御部130は、例えば、ASICやFPGA等の集積回路により実現される。
(Regarding the control unit 130)
The control unit 130 is realized by a CPU, an MPU, or the like, executing various programs (e.g., the application AP11 or the application AP12) stored in a storage device inside the server device 100 using the RAM as a working area. The control unit 130 is also realized by an integrated circuit such as an ASIC or an FPGA.

図6に示すように、制御部130は、取得部131と、特定部132と、生成部133と、送信部134とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図6に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部130が有する各処理部の接続関係は、図6に示した接続関係に限られず、他の接続関係であってもよい。 As shown in FIG. 6, the control unit 130 has an acquisition unit 131, an identification unit 132, a generation unit 133, and a transmission unit 134, and realizes or executes the functions and actions of the information processing described below. Note that the internal configuration of the control unit 130 is not limited to the configuration shown in FIG. 6, and may be other configurations as long as they perform the information processing described below. Also, the connection relationship between each processing unit of the control unit 130 is not limited to the connection relationship shown in FIG. 6, and may be other connection relationships.

(取得部131について)
取得部131は、利用者による入力情報に応じて特定された使い捨て着用物品の形状を示す物品情報を取得する。例えば、取得部131は、商品情報記憶部121から物品情報を取得する。また、例えば、取得部131は、使い捨て着用物品として、不織布で構成された使い捨てマスクの形状を示す物品情報(AR情報)を取得する。
(Regarding the Acquisition Unit 131)
The acquiring unit 131 acquires article information indicating the shape of a disposable wearing article specified in response to information input by a user. For example, the acquiring unit 131 acquires the article information from the product information storage unit 121. Also, for example, the acquiring unit 131 acquires article information (AR information) indicating the shape of a disposable mask made of nonwoven fabric as the disposable wearing article.

また、取得部131は、入力情報として、使い捨て着用物品が商品として陳列されている陳列棚に付された識別情報(QRコード)に応じて特定された使い捨て着用物品の形状を示す前記物品情報を取得する。 In addition, the acquisition unit 131 acquires, as input information, the item information indicating the shape of the disposable wearing item identified according to identification information (QR code) attached to the display shelf on which the disposable wearing item is displayed as a commodity.

例えば、取得部131は、識別情報に応じて特定された使い捨て着用物品として、識別情報で識別される使い捨て着用物品であって、陳列棚に現在陳列されている使い捨て着用物品の形状を示す物品情報を取得する。 For example, the acquisition unit 131 acquires item information indicating the shape of a disposable wearable item identified by the identification information and currently displayed on a display shelf as a disposable wearable item specified according to the identification information.

また、例えば、取得部131は、識別情報に応じて特定された使い捨て着用物品として、識別情報で識別される着用物品、および、識別情報で識別される着用物品に関連する着用物品である表示候補の使い捨て着用物品のうち、利用者により選択されたカテゴリに対応する使い捨て着用物品の形状を示す物品情報を取得してもよい。例えば、取得部131は、利用者により選択された第1のカテゴリに属する表示候補の使い捨て着用物品のうち、利用者によりさらに選択された第2のカテゴリであって、第1のカテゴリに対する下位のカテゴリである第2のカテゴリに属する着用物品の形状を示す物品情報を取得する。一方で、取得部131は、表示候補の使い捨て着用物品のうち、利用者により選択された使い捨て着用物品の形状を示す物品情報を取得してもよいし、利用者の属性情報または嗜好性に応じて特定された表示候補の使い捨て着用物品のうち、利用者により選択された使い捨て着用物品の形状を示す物品情報を取得してもよい。 For example, the acquisition unit 131 may acquire, as the disposable wearing article specified according to the identification information, the wearing article identified by the identification information, and the article information indicating the shape of the disposable wearing article corresponding to the category selected by the user from among the display candidate disposable wearing articles that are related to the wearing article identified by the identification information. For example, the acquisition unit 131 acquires, from among the display candidate disposable wearing articles that belong to the first category selected by the user, the article information indicating the shape of the wearing article that belongs to a second category that is further selected by the user and is a lower category than the first category. On the other hand, the acquisition unit 131 may acquire, from among the display candidate disposable wearing articles, the article information indicating the shape of the disposable wearing article selected by the user, or may acquire, from among the display candidate disposable wearing articles specified according to the attribute information or preference of the user, the article information indicating the shape of the disposable wearing article selected by the user.

また、取得部131は、端末装置10から撮影画像を取得する。 The acquisition unit 131 also acquires captured images from the terminal device 10.

(特定部132について)
特定部132は、利用者による入力情報(QRコード)に基づいて、表示候補の使い捨て着用物品を特定する。例えば、特定部132は、入力情報に含まれる商品IDに基づいて、表示候補の使い捨て着用物品を特定する。例えば、特定部132は、入力情報に含まれる商品IDで一意に識別される使い捨て着用物品、および、この着用物品に関連する使い捨て着用物品を、表示候補の使い捨て着用物品として特定する。
(Regarding the identification unit 132)
The identification unit 132 identifies the display candidate disposable wearing articles based on the input information (QR code) by the user. For example, the identification unit 132 identifies the display candidate disposable wearing articles based on the product ID included in the input information. For example, the identification unit 132 identifies the disposable wearing article uniquely identified by the product ID included in the input information and the disposable wearing article related to this wearing article as the display candidate disposable wearing articles.

また、特定部132は、利用者の属性情報、または、利用者の嗜好性に基づいて、表示候補の使い捨て着用物品を特定してもよい。 The identification unit 132 may also identify disposable wearable articles to be displayed based on the user's attribute information or the user's preferences.

(生成部133について)
生成部133は、特定部132により特定された表示候補の使い捨て着用物品から、表示を希望する着用物品を選択させる選択コンテンツを生成する。例えば、生成部133は、商品情報記憶部121に基づいて、表示候補の使い捨て着用物品が属するカテゴリのうち、より上位の第1のカテゴリのいずれかを選択させ、また、選択された第1のカテゴリに対応する第2のカテゴリであって、第1のカテゴリに対する下位のカテゴリである第2のカテゴリのいずれかをさらに選択させるような選択コンテンツを生成する。図2の例では、生成部133は、選択コンテンツC11を生成している。
(Regarding the generation unit 133)
The generating unit 133 generates a selection content for allowing the user to select a desired wearing article from among the display candidate disposable wearing articles identified by the identifying unit 132. For example, the generating unit 133 generates a selection content for allowing the user to select any one of first categories that are higher than the categories to which the display candidate disposable wearing articles belong, based on the product information storage unit 121, and for allowing the user to further select any one of second categories that correspond to the selected first category and are lower than the first category. In the example of Fig. 2, the generating unit 133 generates a selection content C11.

また、生成部133は、生成部15bと同様の機能を有してよい。例えば、生成部133は、物品情報から使い捨て着用物品の画像を生成する機能を有してもよい。 The generating unit 133 may have the same function as the generating unit 15b. For example, the generating unit 133 may have a function of generating an image of a disposable wearable article from the article information.

(送信部134について)
送信部134は、各種情報を送信する。例えば、送信部134は、端末装置10に各種情報を送信する。例えば、送信部134は、生成部133により生成された選択コンテンツ、物品情報、案内情報、利用者から検出した身体のパーツを示す情報(検出部15cによる検出結果に対応)、物品情報から生成された使い捨て着用物品の画像を端末装置10に送信する。
(Regarding the transmission unit 134)
The transmission unit 134 transmits various information. For example, the transmission unit 134 transmits various information to the terminal device 10. For example, the transmission unit 134 transmits to the terminal device 10 the selected content, the item information, the guidance information, the information indicating the body parts detected from the user (corresponding to the detection result by the detection unit 15c) generated by the generation unit 133, and an image of the disposable wearing item generated from the item information.

(その他の処理部について)
また、サーバ装置100は、図4で説明した表示制御処理のうち、サーバ装置100が行うものとして説明した表示制御処理が行えるよう、検出部15cに対応する処理部や、表示制御部15dに対応する処理部をさらに有することができる。
(Other processing units)
In addition, the server device 100 may further have a processing unit corresponding to the detection unit 15c and a processing unit corresponding to the display control unit 15d, so as to perform the display control processing described in FIG. 4 as being performed by the server device 100.

〔8.処理手順〕
次に、図7および図8を用いて、実施形態に係る表示制御処理の手順について説明する。図7では、実施形態に係る表示制御処理のうち、利用者による入力情報に応じて特定された使い捨て着用物品に対応する物品情報(AR情報)を取得するまでの表示制御処理手順について説明する。図8では、実施形態に係る表示制御処理のうち、取得された物品情報が示す形状の使い捨て着用物品の画像を撮影画像に重畳させる表示制御処理手順について説明する。また、図7および図8では、使い捨て着用物品は、不織布で構成された使い捨てマスクであるものとして説明する。
8. Processing Procedure
Next, the procedure of the display control process according to the embodiment will be described with reference to Fig. 7 and Fig. 8. Fig. 7 describes a display control process procedure up to acquiring article information (AR information) corresponding to a disposable wearing article specified according to information input by a user, among the display control processes according to the embodiment. Fig. 8 describes a display control process procedure for superimposing an image of a disposable wearing article having a shape indicated by the acquired article information on a captured image, among the display control processes according to the embodiment. In Fig. 7 and Fig. 8, the disposable wearing article will be described as a disposable mask made of nonwoven fabric.

〔8-1.処理手順(1)〕
まず、図7を用いて、実施形態に係る表示制御処理のうち、利用者による入力情報に応じて特定された使い捨て着用物品に対応する物品情報(AR情報)を取得するまでの表示制御処理手順について説明する。図7は、実施形態に係る表示制御処理のうち、前半の表示制御処理手順を示すフローチャートである。
8-1. Processing Procedure (1)
First, a display control process procedure up to acquisition of article information (AR information) corresponding to a disposable wearing article specified in response to input information by a user will be described with reference to Fig. 7. Fig. 7 is a flowchart showing the display control process procedure for the first half of the display control process according to the embodiment.

まず、取得部131は、コード情報の入力に伴う商品情報(商品ID)を取得できたか否かを判定する(ステップS101)。例えば、利用者が端末装置10にコード情報を入力したことに応じて、端末装置10が、このコード情報から検出した商品情報をサーバ装置100に送信した場合には、取得部131は、コード情報の入力に伴う商品情報を取得できたと判定する。 First, the acquisition unit 131 determines whether or not product information (product ID) associated with the input of code information has been acquired (step S101). For example, when a user inputs code information into the terminal device 10, and the terminal device 10 transmits product information detected from the code information to the server device 100, the acquisition unit 131 determines that product information associated with the input of code information has been acquired.

そして、取得部131は、コード情報の入力に伴う商品情報(商品ID)を取得できていない間は(ステップS101;No)、取得できるまで待機する。一方、特定部132は、取得部131により商品情報が取得された場合には(ステップS101;Yes)、取得された商品情報に基づいて、表示候補のマスクを特定する(ステップS102)。例えば、特定部132は、商品情報に基づいて、商品情報記憶部121に記憶される表示候補のマスクの中から、さらに商品情報に応じた表示候補のマスクを絞り込む。 Then, while the acquisition unit 131 has not been able to acquire product information (product ID) accompanying the input of code information (step S101; No), it waits until it can acquire the product information. On the other hand, when the acquisition unit 131 has acquired product information (step S101; Yes), the identification unit 132 identifies a display candidate mask based on the acquired product information (step S102). For example, the identification unit 132 further narrows down the display candidate masks stored in the product information storage unit 121 based on the product information to a display candidate mask that corresponds to the product information.

次に、生成部133は、特定部により特定された表示候補のマスクから、希望するマスクを選択させる選択コンテンツを生成する(ステップS103)。そして、送信部134は、生成部133により生成された選択コンテンツを端末装置10に送信する(ステップS104)。係る端末装置10は、コード情報の入力を行った利用者が所有する端末装置である。 Next, the generating unit 133 generates selection content that allows the user to select a desired mask from the display candidate masks identified by the identifying unit (step S103). Then, the transmitting unit 134 transmits the selection content generated by the generating unit 133 to the terminal device 10 (step S104). The terminal device 10 is a terminal device owned by the user who input the code information.

また、このような状態において、取得部131は、選択コンテンツで示されるカテゴリ(第1のカテゴリ、第2のカテゴリ)のうちいずれかのカテゴリの選択を受け付けたか否かを判定する(ステップS105)。すなわち、取得部131は、選択コンテンツで示されるカテゴリ(第1のカテゴリ、第2のカテゴリ)のうち、選択されたカテゴリを示すカテゴリ情報を端末装置10から取得できたか否かを判定する。取得部131は、カテゴリ情報を取得できないことによりカテゴリの選択を受け付けていないと判定している間は(ステップS105;No)、カテゴリ情報を取得することによりカテゴリの選択を受け付けたと判定できるまで待機する。 In addition, in this state, the acquisition unit 131 determines whether or not a selection of any of the categories (first category, second category) indicated in the selected content has been accepted (step S105). That is, the acquisition unit 131 determines whether or not category information indicating a selected category of the categories (first category, second category) indicated in the selected content has been acquired from the terminal device 10. While the acquisition unit 131 determines that a category selection has not been accepted because it is unable to acquire category information (step S105; No), it waits until it can determine that a category selection has been accepted by acquiring category information.

一方、取得部131は、カテゴリ情報を取得することによりカテゴリの選択を受け付けたと判定した場合には(ステップS105;Yes)、選択されたカテゴリに属するマスクの形状を示すAR情報を商品情報記憶部121から取得する(ステップS106)。そして、送信部134は、取得部により取得されたAR情報を端末装置10に送信する。 On the other hand, when the acquisition unit 131 determines that a category selection has been accepted by acquiring the category information (step S105; Yes), the acquisition unit 131 acquires AR information indicating the shape of a mask belonging to the selected category from the product information storage unit 121 (step S106). Then, the transmission unit 134 transmits the AR information acquired by the acquisition unit to the terminal device 10.

〔8-2.処理手順(2)〕
まず、図8を用いて、実施形態に係る表示制御処理のうち、取得された物品情報が示す形状の使い捨て着用物品の画像を撮影画像に重畳させる表示制御処理手順について説明する。図8は、実施形態に係る表示制御処理のうち、後半の表示制御処理手順を示すフローチャートである。
8-2. Processing Procedure (2)
First, a display control process procedure for superimposing an image of a disposable wearing article having a shape indicated by acquired article information on a captured image will be described with reference to Fig. 8. Fig. 8 is a flowchart showing the latter half of the display control process procedure of the display control process according to the embodiment.

まず、取得部15aは、サーバ装置100からAR情報を取得できたか否かを判定する(ステップS201)。取得部15aは、サーバ装置100からAR情報を取得できていない間は(ステップS201;No)、取得できるまで待機する。 First, the acquisition unit 15a determines whether or not the AR information has been acquired from the server device 100 (step S201). If the acquisition unit 15a has not been able to acquire the AR information from the server device 100 (step S201; No), the acquisition unit 15a waits until the AR information can be acquired.

一方、生成部15bは、取得部15aによりAR情報が取得された場合には(ステップS201;Yes)、AR情報からマスク画像を生成する(ステップS202)。 On the other hand, if AR information is acquired by the acquisition unit 15a (step S201; Yes), the generation unit 15b generates a mask image from the AR information (step S202).

また、表示制御部15dは、マスク画像が生成されると、インカメラを動的に起動させるとともに、インカメラで顔を撮影するよう案内する案内情報を表示させる(ステップS203)。 When the mask image is generated, the display control unit 15d dynamically activates the in-camera and displays guidance information to guide the user to capture a face image with the in-camera (step S203).

次に、検出部15cは、案内に応じて撮影された撮影画像に基づいて、利用者の顔のパーツを検出する(ステップS204)。 Next, the detection unit 15c detects the user's facial features based on the captured image taken in response to the guidance (step S204).

そして、表示制御部15dは、検出部15cにより検出された顔のパーツに基づいて、AR情報が示す形状のマスクを利用者が仮想的に装着した態様で、利用者が撮影された撮影画像に当該マスクのマスク画像を重畳した状態で表示させる(ステップS205)。 Then, the display control unit 15d displays a mask image of the mask superimposed on the captured image of the user, in a state in which the user is virtually wearing a mask having the shape indicated by the AR information, based on the facial features detected by the detection unit 15c (step S205).

〔9.その他〕
上記した各処理のうち、自動的に行われるものとして説明した処理の全部または一部は、手動的に行われてもよい。また、手動的に行われるものとして説明した処理の全部または一部は、公知の方法で自動的に行われてもよい。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られるものではない。
[9. Other]
Among the above-mentioned processes, all or part of the processes described as being performed automatically may be performed manually. Also, all or part of the processes described as being performed manually may be performed automatically by a known method. In addition, the information including the processing procedures, specific names, various data and parameters shown in the above documents and drawings may be changed arbitrarily unless otherwise specified. For example, the various information shown in each drawing is not limited to the illustrated information.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されなくともよい。すなわち、各装置の分散・統合の具体的形態は図示のものに限られない。また、各構成要素は、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成してもよい。また、上記してきた各処理は、矛盾しない範囲で適宜組み合わせて実行されてもよい。 The components of each device shown in the figure are conceptual and functional, and do not necessarily have to be physically configured as shown in the figure. In other words, the specific form of distribution and integration of each device is not limited to that shown in the figure. Furthermore, each component may be functionally or physically distributed and integrated in any unit, in whole or in part, depending on various loads and usage conditions. Furthermore, each of the processes described above may be executed in appropriate combinations as long as there are no contradictions.

〔10.ハードウェア構成〕
また、上述した実施形態に係る表示制御装置は、例えば図9に示すような構成のコンピュータ1000によって実現される。図9は、ハードウェア構成の一例を示す図である。コンピュータ1000は、出力装置1010、入力装置1020と接続され、演算装置1030、キャッシュ1040、メモリ1050、出力IF(Interface)1060、入力IF1070、ネットワークIF1080がバス1090により接続される。
10. Hardware Configuration
The display control device according to the embodiment described above is realized by a computer 1000 having a configuration as shown in Fig. 9, for example. Fig. 9 is a diagram showing an example of a hardware configuration. The computer 1000 is connected to an output device 1010 and an input device 1020, and a calculation device 1030, a cache 1040, a memory 1050, an output IF (Interface) 1060, an input IF 1070, and a network IF 1080 are connected by a bus 1090.

演算装置1030は、キャッシュ1040やメモリ1050に格納されたプログラムや入力装置1020から読み出したプログラム等に基づいて動作し、各種の処理を実行する。キャッシュ1040は、RAM等、演算装置1030が各種の演算に用いるデータを一次的に記憶するキャッシュである。また、メモリ1050は、演算装置1030が各種の演算に用いるデータや、各種のデータベースが登録される記憶装置であり、ROM(Read Only Memory)、HDD(Hard Disk Drive)、フラッシュメモリ等により実現されるメモリである。 The arithmetic device 1030 operates based on programs stored in the cache 1040 or memory 1050, or programs read from the input device 1020, and executes various processes. The cache 1040 is a cache such as a RAM that temporarily stores data used by the arithmetic device 1030 for various calculations. The memory 1050 is a storage device in which data used by the arithmetic device 1030 for various calculations and various databases are registered, and is a memory realized by a ROM (Read Only Memory), HDD (Hard Disk Drive), flash memory, etc.

出力IF1060は、モニタやプリンタといった各種の情報を出力する出力装置1010に対し、出力対象となる情報を送信するためのインタフェースであり、例えば、USB(Universal Serial Bus)やDVI(Digital Visual Interface)、HDMI(登録商標)(High Definition Multimedia Interface)といった規格のコネクタにより実現されてよい。一方、入力IF1070は、マウス、キーボード、およびスキャナ等といった各種の入力装置1020から情報を受信するためのインタフェースであり、例えば、USB等により実現される。 The output IF 1060 is an interface for transmitting information to be output to an output device 1010 such as a monitor or printer, which outputs various types of information, and may be realized, for example, by a connector conforming to a standard such as USB (Universal Serial Bus), DVI (Digital Visual Interface), or HDMI (registered trademark) (High Definition Multimedia Interface). On the other hand, the input IF 1070 is an interface for receiving information from various input devices 1020 such as a mouse, keyboard, scanner, etc., and may be realized, for example, by a USB.

例えば、入力装置1020は、CD(Compact Disc)、DVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等から情報を読み出す装置により実現されてもよい。また、入力装置1020は、USBメモリ等の外付け記憶媒体により実現されてもよい。 For example, the input device 1020 may be realized by a device that reads information from an optical recording medium such as a CD (Compact Disc), a DVD (Digital Versatile Disc), or a PD (Phase change rewritable Disk), a magneto-optical recording medium such as an MO (Magneto-Optical disk), a tape medium, a magnetic recording medium, or a semiconductor memory. The input device 1020 may also be realized by an external storage medium such as a USB memory.

ネットワークIF1080は、ネットワークNを介して他の機器からデータを受信して演算装置1030へ送り、また、ネットワークNを介して演算装置1030が生成したデータを他の機器へ送信する機能を有する。 The network IF 1080 has the function of receiving data from other devices via the network N and sending it to the computing device 1030, and also transmitting data generated by the computing device 1030 to other devices via the network N.

ここで、演算装置1030は、出力IF1060や入力IF1070を介して、出力装置1010や入力装置1020の制御を行うこととなる。例えば、演算装置1030は、入力装置1020やメモリ1050からプログラムをキャッシュ1040上にロードし、ロードしたプログラムを実行する。例えば、コンピュータ1000が表示制御装置として機能する場合、コンピュータ1000の演算装置1030は、キャッシュ1040上にロードされたプログラムを実行することにより、制御部130の機能を実現することとなる。 Here, the arithmetic device 1030 controls the output device 1010 and the input device 1020 via the output IF 1060 and the input IF 1070. For example, the arithmetic device 1030 loads a program from the input device 1020 or the memory 1050 onto the cache 1040 and executes the loaded program. For example, when the computer 1000 functions as a display control device, the arithmetic device 1030 of the computer 1000 realizes the functions of the control unit 130 by executing the program loaded onto the cache 1040.

10 端末装置
15 制御部
15a 取得部
15b 生成部
15c 検出部
15d 表示制御部
100 サーバ装置
121 商品情報記憶部
130 制御部
131 取得部
132 特定部
133 生成部
134 送信部
REFERENCE SIGNS LIST 10 Terminal device 15 Control unit 15a Acquisition unit 15b Generation unit 15c Detection unit 15d Display control unit 100 Server device 121 Product information storage unit 130 Control unit 131 Acquisition unit 132 Identification unit 133 Generation unit 134 Transmission unit

Claims (22)

利用者による入力情報に応じて特定された使い捨て着用物品の形状を示す物品情報を取得する取得部と、
前記物品情報が示す形状の使い捨て着用物品を前記利用者が仮想的に装着した態様で、前記利用者が撮影された撮影画像に当該使い捨て着用物品の画像を重畳した状態で表示させる表示制御部と
を有することを特徴とする表示制御装置。
an acquisition unit that acquires article information indicating a shape of a disposable wearing article specified in accordance with information input by a user;
and a display control unit that displays an image of the disposable wearing article having a shape indicated by the article information, superimposed on an image captured of the user in a state in which the user is virtually wearing the disposable wearing article.
前記取得部は、前記使い捨て着用物品として、不織布で構成された使い捨てマスクの形状を示す前記物品情報を取得する
ことを特徴とする請求項1に記載の表示制御装置。
The display control device according to claim 1 , wherein the acquisition unit acquires the article information indicating a shape of a disposable mask made of a nonwoven fabric as the disposable wearing article.
前記取得部は、前記入力情報として、前記使い捨て着用物品が商品として陳列されている陳列棚に付された識別情報に応じて特定された使い捨て着用物品の形状を示す前記物品情報を取得する
ことを特徴とする請求項1または2に記載の表示制御装置。
3. The display control device according to claim 1, wherein the acquiring unit acquires, as the input information, the article information indicating a shape of the disposable wearing article identified according to identification information attached to a display shelf on which the disposable wearing article is displayed as a commodity.
前記取得部は、前記識別情報に応じて特定された使い捨て着用物品として、前記識別情報で識別される使い捨て着用物品であって、前記陳列棚に現在陳列されている使い捨て着用物品の形状を示す前記物品情報を取得する
ことを特徴とする請求項3に記載の表示制御装置。
4. The display control device according to claim 3, wherein the acquiring unit acquires the article information indicating a shape of a disposable wearing article identified by the identification information and currently displayed on the display shelf as the disposable wearing article specified in accordance with the identification information.
前記取得部は、前記識別情報に応じて特定された使い捨て着用物品として、前記識別情報で識別される着用物品、および、前記識別情報で識別される着用物品に関連する着用物品である表示候補の使い捨て着用物品のうち、前記利用者により選択されたカテゴリに対応する使い捨て着用物品の形状を示す前記物品情報を取得する
ことを特徴とする請求項3または4に記載の表示制御装置。
5. The display control device according to claim 3, wherein the acquiring unit acquires the item information indicating a shape of a disposable wearing item corresponding to a category selected by the user from among the wearing item identified by the identification information and the disposable wearing items that are display candidates and are related to the wearing item identified by the identification information as the disposable wearing item specified in accordance with the identification information.
前記取得部は、前記利用者により選択された第1のカテゴリに属する表示候補の使い捨て着用物品のうち、前記利用者によりさらに選択された第2のカテゴリであって、前記第1のカテゴリに対する下位のカテゴリである第2のカテゴリに属する着用物品の形状を示す前記物品情報を取得する
ことを特徴とする請求項5に記載の表示制御装置。
The display control device according to claim 5, characterized in that the acquisition unit acquires the item information indicating a shape of a wearing item belonging to a second category further selected by the user from among the disposable wearing items that are candidates for display and belong to a first category selected by the user, the second category being a lower category than the first category.
前記取得部は、前記表示候補の使い捨て着用物品のうち、前記利用者により選択された使い捨て着用物品の形状を示す前記物品情報を取得する
ことを特徴とする請求項5または6に記載の表示制御装置。
The display control device according to claim 5 or 6, wherein the acquisition unit acquires the article information indicating a shape of a disposable wearing article selected by the user from among the display candidates of disposable wearing articles.
前記取得部は、前記利用者の属性情報または嗜好性に応じて特定された前記表示候補の使い捨て着用物品のうち、前記利用者により選択された使い捨て着用物品の形状を示す前記物品情報を取得する
ことを特徴とする請求項5~7のいずれか1つに記載の表示制御装置。
The display control device according to any one of claims 5 to 7, characterized in that the acquisition unit acquires the item information indicating a shape of a disposable wearing item selected by the user from the display candidate disposable wearing items identified according to attribute information or preferences of the user.
前記取得部は、前記入力情報として、前記利用者が撮影された撮影画像に応じて特定された使い捨て着用物品の形状を示す前記物品情報を取得する
ことを特徴とする請求項1または2に記載の表示制御装置。
The display control device according to claim 1 or 2, wherein the acquisition unit acquires, as the input information, the article information indicating a shape of a disposable wearing article identified according to a photographed image of the user.
前記表示制御部は、前記利用者が撮影された撮影画像から検出された前記利用者の身体のパーツに基づいて、使い捨て着用物品の利用用途に応じた適切な身体の位置に対して前記物品情報が示す形状の使い捨て着用物品が位置するよう、前記撮影画像に前記使い捨て着用物品の画像を重畳した状態で表示させる
ことを特徴とする請求項1~9のいずれか1つに記載の表示制御装置。
The display control device according to any one of claims 1 to 9, characterized in that the display control unit displays an image of the disposable wearable article superimposed on the captured image so that a disposable wearable article having a shape indicated by the article information is positioned at an appropriate body position according to a usage purpose of the disposable wearable article, based on body parts of the user detected from the captured image of the user.
前記表示制御部は、前記撮影画像で示される前記利用者の顔の向きであって、前記利用者を撮影する撮影手段に対する顔の向きに応じて、前記物品情報が示す形状を制御し、制御した形状の使い捨て着用物品を前記利用者が仮想的に装着した態様で、前記撮影画像に前記使い捨て着用物品の画像を重畳した状態で表示させる
ことを特徴とする請求項1~10のいずれか1つに記載の表示制御装置。
The display control device according to any one of claims 1 to 10, characterized in that the display control unit controls a shape indicated by the article information according to a face orientation of the user shown in the captured image relative to an imaging means that images the user, and displays an image of the disposable wearable article having the controlled shape superimposed on the captured image in a manner in which the user is virtually wearing the disposable wearable article.
前記表示制御部は、前記利用者の顔のサイズに応じて、前記使い捨て着用物品の画像のサイズを制御し、制御したサイズの画像を前記撮影画像に重畳させる
ことを特徴とする請求項1~11のいずれか1つに記載の表示制御装置。
The display control device according to any one of claims 1 to 11, characterized in that the display control unit controls a size of an image of the disposable wearing article according to a size of the user's face, and superimposes an image of the controlled size on the captured image.
前記表示制御部は、前記利用者により使い捨て着用物品の色または模様が指定された場合には、前記使い捨て着用物品の画像として、指定された色または模様の使い捨て着用物品の画像を前記撮影画像に重畳させる
ことを特徴とする請求項1~12のいずれか1つに記載の表示制御装置。
The display control device according to any one of claims 1 to 12, characterized in that, when the user specifies a color or a pattern of the disposable wearing article, the display control unit superimposes an image of the disposable wearing article having the specified color or pattern on the captured image as an image of the disposable wearing article.
前記表示制御部は、前記利用者により使い捨て着用物品のサイズが指定された場合には、前記使い捨て着用物品の画像として、指定されたサイズに応じたサイズの画像を前記撮影画像に重畳させる
ことを特徴とする請求項1~13のいずれか1つに記載の表示制御装置。
The display control device according to any one of claims 1 to 13, characterized in that, when a size of the disposable wearing article is specified by the user, the display control unit superimposes an image of the disposable wearing article of a size corresponding to the specified size on the captured image as an image of the disposable wearing article.
前記表示制御部は、利用者に関する利用者情報に基づき特定された利用者であって、前記撮影画像に使い捨て着用物品の画像を重畳した状態で表示させるアプリケーションを導入していない利用者の端末装置に対して、当該アプリケーションを導入するよう案内する案内情報を表示させる
ことを特徴とする請求項1~14のいずれか1つに記載の表示制御装置。
The display control device according to any one of claims 1 to 14, characterized in that the display control unit displays guidance information on a terminal device of a user identified based on user information relating to the user, the user not having installed an application that displays an image of a disposable wearable item superimposed on the captured image, the guidance information instructing the user to install the application.
前記表示制御部は、前記入力情報が入力された後において、前記使い捨て着用物品を仮想的に装着させるパーツであって、前記利用者の身体のパーツが、前記利用者が撮影された撮影画像に含まれないと判定された場合には、当該パーツを含むように撮影するよう案内情報を表示させる
ことを特徴とする請求項1~15のいずれか1つに記載の表示制御装置。
The display control device according to any one of claims 1 to 15, characterized in that, after the input information is input, the display control unit displays guidance information to encourage the user to take a photograph that includes a part of the user's body that is to be virtually worn by the disposable wearable article, when it is determined that the part is not included in the captured image of the user.
前記表示制御部は、前記利用者が撮影された撮影画像であって、前記使い捨て着用物品の画像が重畳された撮影画像のうち、これまでに撮影された撮影画像を比較可能なように表示させる
ことを特徴とする請求項1~16のいずれか1つに記載の表示制御装置。
The display control device according to any one of claims 1 to 16, characterized in that the display control unit displays images of the user that have been taken so far, among images on which an image of the disposable wearable article is superimposed, in a manner that allows comparison.
前記表示制御部は、前記利用者が撮影された撮影画像であって、前記使い捨て着用物品の画像が重畳された撮影画像のうち、過去に撮影された撮影画像を、現在撮影されている撮影画像であって、前記使い捨て着用物品の画像が重畳された撮影画像とともに表示させる
ことを特徴とする請求項17に記載の表示制御装置。
18. The display control device according to claim 17, wherein the display control unit displays a previously captured image of the user on which an image of the disposable wearable article is superimposed, together with a currently captured image on which the image of the disposable wearable article is superimposed.
前記表示制御部は、前記利用者が撮影された撮影画像であって、前記使い捨て着用物品の画像が重畳された撮影画像に対して、所定の情報共有サービスへの投稿に応じた所定の情報を表示させる
ことを特徴とする請求項1~18のいずれか1つに記載の表示制御装置。
The display control device according to any one of claims 1 to 18, characterized in that the display control unit displays specified information corresponding to a post made to a specified information sharing service on a photographed image of the user on which an image of the disposable wearable article is superimposed.
前記表示制御部は、前記所定の情報として、前記使い捨て着用物品に関する情報を表示させる
ことを特徴とする請求項19に記載の表示制御装置。
The display control device according to claim 19 , wherein the display control unit is configured to display information related to the disposable wearing article as the predetermined information.
表示制御装置が実行する表示制御方法であって、
利用者による入力情報に応じて特定された使い捨て着用物品の形状を示す物品情報を取得する取得工程と、
前記物品情報が示す形状の使い捨て着用物品を前記利用者が仮想的に装着した態様で、前記利用者が撮影された撮影画像に当該使い捨て着用物品の画像を重畳した状態で表示させる表示制御工程と
を含むことを特徴とする表示制御方法。
A display control method executed by a display control device, comprising:
An acquisition step of acquiring article information indicating a shape of a disposable wearing article specified in accordance with information input by a user;
and a display control step of displaying an image of the disposable wearing article having a shape indicated by the article information, the image being superimposed on an image captured of the user in a state in which the user is virtually wearing the disposable wearing article.
利用者による入力情報に応じて特定された使い捨て着用物品の形状を示す物品情報を取得する取得手順と、
前記物品情報が示す形状の使い捨て着用物品を前記利用者が仮想的に装着した態様で、前記利用者が撮影された撮影画像に当該使い捨て着用物品の画像を重畳した状態で表示させる表示制御手順と
をコンピュータに実行させるための表示制御プログラム。
An acquisition step of acquiring article information indicating a shape of a disposable wearing article identified in accordance with information input by a user;
and a display control program for causing a computer to execute a display control procedure for displaying an image of a disposable wearable article having a shape indicated by the article information, the image being superimposed on an image captured of the user in a state in which the user is virtually wearing the disposable wearable article.
JP2024017257A 2020-01-31 2024-02-07 DISPLAY CONTROL DEVICE, DISPLAY CONTROL METHOD, AND DISPLAY CONTROL PROGRAM Pending JP2024050844A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2024017257A JP2024050844A (en) 2020-01-31 2024-02-07 DISPLAY CONTROL DEVICE, DISPLAY CONTROL METHOD, AND DISPLAY CONTROL PROGRAM

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020015419A JP6929979B2 (en) 2020-01-31 2020-01-31 Display control device, display control method and display control program
JP2021131445A JP2021176110A (en) 2020-01-31 2021-08-11 Display control device, display control method, and display control program
JP2024017257A JP2024050844A (en) 2020-01-31 2024-02-07 DISPLAY CONTROL DEVICE, DISPLAY CONTROL METHOD, AND DISPLAY CONTROL PROGRAM

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021131445A Division JP2021176110A (en) 2020-01-31 2021-08-11 Display control device, display control method, and display control program

Publications (1)

Publication Number Publication Date
JP2024050844A true JP2024050844A (en) 2024-04-10

Family

ID=77316314

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2020015419A Active JP6929979B2 (en) 2020-01-31 2020-01-31 Display control device, display control method and display control program
JP2021131445A Pending JP2021176110A (en) 2020-01-31 2021-08-11 Display control device, display control method, and display control program
JP2024017257A Pending JP2024050844A (en) 2020-01-31 2024-02-07 DISPLAY CONTROL DEVICE, DISPLAY CONTROL METHOD, AND DISPLAY CONTROL PROGRAM

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2020015419A Active JP6929979B2 (en) 2020-01-31 2020-01-31 Display control device, display control method and display control program
JP2021131445A Pending JP2021176110A (en) 2020-01-31 2021-08-11 Display control device, display control method, and display control program

Country Status (3)

Country Link
JP (3) JP6929979B2 (en)
KR (1) KR20210098315A (en)
TW (1) TW202131276A (en)

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4291963B2 (en) * 2000-04-13 2009-07-08 富士フイルム株式会社 Image processing method
JP2005275906A (en) * 2004-03-25 2005-10-06 Seiko Epson Corp Image generation system, non-contact communication medium, sales method for commodity and composite type store
JP2012108805A (en) * 2010-11-18 2012-06-07 Toshiba Tec Corp Try-on system
JP2012181688A (en) 2011-03-01 2012-09-20 Sony Corp Information processing device, information processing method, information processing system, and program
CN110609617B (en) * 2013-08-04 2023-09-26 艾斯适配有限公司 Apparatus, system and method for virtual mirror
JP6330238B2 (en) * 2014-06-11 2018-05-30 士華 管 Try-on image display method
JP5728122B1 (en) * 2014-10-27 2015-06-03 株式会社 ディー・エヌ・エー System, program and method for providing printed merchandise to be worn on body part
CN114168855A (en) * 2015-06-19 2022-03-11 麦克赛尔株式会社 Portable information terminal and application recommendation method thereof
JP2017054283A (en) * 2015-09-09 2017-03-16 株式会社 アーバンリサーチ Item sales system, item selection device, and item sales method
US10168767B2 (en) * 2016-09-30 2019-01-01 Intel Corporation Interaction mode selection based on detected distance between user and machine interface
JP7095335B2 (en) * 2018-03-19 2022-07-05 株式会社リコー Image search device, printed matter, image search method and image search program

Also Published As

Publication number Publication date
TW202131276A (en) 2021-08-16
JP6929979B2 (en) 2021-09-01
JP2021176110A (en) 2021-11-04
KR20210098315A (en) 2021-08-10
JP2021124755A (en) 2021-08-30

Similar Documents

Publication Publication Date Title
US11403829B2 (en) Object preview in a mixed reality environment
US10140652B2 (en) Computer implemented methods and systems for generating virtual body models for garment fit visualisation
JP5834193B2 (en) MONITORING DEVICE, MONITORING SYSTEM, AND MONITORING METHOD
JP5834196B2 (en) MONITORING DEVICE, MONITORING SYSTEM, AND MONITORING METHOD
JP5707561B1 (en) MONITORING DEVICE, MONITORING SYSTEM, AND MONITORING METHOD
JP6031210B1 (en) Sales prediction device, sales prediction method, and program
JP2019204431A (en) Computer program and method
JP4742083B2 (en) Information terminal and computer program
JP2018112777A (en) Recommendation item output program, output control program, recommendation item output apparatus, recommendation item output method and output control method
KR102102572B1 (en) System and method for providing online shopping mall
JP2024050844A (en) DISPLAY CONTROL DEVICE, DISPLAY CONTROL METHOD, AND DISPLAY CONTROL PROGRAM
US11829593B2 (en) Method for providing contents by using widget in mobile electronic device and system thereof
Chiu et al. Empirical study of the usability and interactivity of an augmented-reality dressing mirror
JP5329626B2 (en) Information terminal and computer program
Zhang et al. Asynchronous reflections: theory and practice in the design of multimedia mirror systems
JP2022037575A (en) Image evaluation predicting device and method
JP2021189752A (en) Information processing apparatus, control method, and program
TW201516923A (en) Method of purchasing clothes and program products of purchasing clothes

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240305